El desafío de asegurar los datos masivos en la era de la tecnología

En la actualidad, las empresas están adoptando cada vez más los datos masivos, lo que implica la recopilación y almacenamiento de datos sensibles y regulados. Sin embargo, esta gran cantidad de datos se convierte en un objetivo de alto valor para los hackers por varias razones.

En primer lugar, al reunir registros de datos de diversas fuentes en un “lago de datos”, el beneficio de infiltrarse en él se vuelve muy alto, ya que se puede obtener la misma información que se obtendría al atacar numerosos sistemas individuales. Además, el lago de datos no solo contiene datos sin procesar, sino también datos enriquecidos y conciliados, lo que brinda a los usuarios malintencionados la oportunidad de obtener información confidencial de individuos o empresas.

La seguridad de los datos masivos requiere la combinación de tecnologías de seguridad específicas, pero también es un problema de procesos y políticas. Uno de los principales riesgos es la creación de nuevos silos para la identidad de las aplicaciones, lo que separa la seguridad de los datos masivos del resto de los sistemas y crea una divergencia entre ellos. Esto a menudo resulta en privilegios de administración descontrolados y limitaciones en la capacidad de una organización para cumplir con las normativas o mitigar riesgos.

Es fundamental integrar la gestión de identidad y acceso en toda la infraestructura de TI, tanto en los sistemas tradicionales como en los datos masivos. Las organizaciones deben considerar la incorporación de los datos masivos en lo que a menudo se conoce como las “3 As” de la seguridad: Autenticación, Autorización y Contabilidad.

La autenticación es la forma de identificar a un usuario, por ejemplo, a través de una combinación de nombre de usuario y contraseña. La autorización es el proceso de aplicar políticas que determinan las actividades, recursos y servicios que un usuario tiene permitido realizar o utilizar. La contabilidad mide los recursos que un usuario consume e identifica desviaciones de comportamiento típico, lo que a menudo indica que el acceso de un usuario ha sido comprometido (credenciales robadas, programas troyanos, etc.).

El desafío se complica aún más debido a la coexistencia de muchas tecnologías en el lago de datos. Históricamente, Hadoop era simple: una capa de almacenamiento HDFS y procesos MapReduce que se ejecutaban sobre ella. Luego, Spark se convirtió en el motor de procesamiento más popular y Kudu se introdujo para reemplazar HDFS. Se implementaron más bases de datos NoSQL sobre Hadoop o junto a él. También comenzaron a surgir estándares de seguridad para Hadoop, como Kerberos. Sin embargo, las nuevas tecnologías de datos masivos no siempre admiten estos “estándares”. Además, muchas organizaciones ya tienen marcos de seguridad que aplican las 3 As en sus sistemas tradicionales. Lo último que desean o necesitan es que los datos masivos requieran una revisión completa de sus tecnologías y políticas de seguridad. No hay muchas opciones: los datos masivos deben integrarse con los marcos tecnológicos existentes o, de lo contrario, los marcos tecnológicos deben evolucionar para integrarse con las tecnologías de datos masivos. ¡Y no será una tarea sencilla mantenerse al día!

Te puede interesar