Seguridad de datos, obligatorio al utilizar IA Generativa
Seguridad de datos, obligatorio al utilizar IA Generativa. Ante la gran cantidad de ciberataques que se dan en todos los ámbitos de los negocios, así como en las actividades educativas y de gobierno surge la pregunta: ¿deben y sobre todo pueden los proveedores de Tecnologías de la información garantizar la seguridad de los datos dentro de los modelos de Inteligencia Artificial?
La respuesta parece sencilla, pero no lo es tanto. Para que los proveedores de TI puedan garantizar la ciberseguridad de la información que se encuentra en la nube dentro de los modelos de IAG, estos requieren estar, en ambientes controlados y, en especial, deben de tomar en cuenta uno de los problemas de mayor incidencia de brechas: el factor humano.
Un ejemplo claro del impacto que tienen los errores de las personas se publicó en el informe del año 2024 de IBM Security: “Costo de una filtración de datos”, en donde se revela que, un significativo porcentaje de las brechas de seguridad—alrededor del 22%—tiene como origen el descuido de las personas.
Asimismo, el estudio da a conocer que, el costo total promedio de una filtración de datos dentro de una organización aumentó a US$4.88 millones de dólares, lo que representa un repunte del 10% respecto al año anterior y, el mayor aumento desde la pandemia. Sin embargo, en el ahorro de costos gracias al uso generalizado de la IA en la prevención de ciberataques, las organizaciones promedian US$2.2 millones de dólares menos por las filtraciones, en comparación con aquellas que no usan la IA en los flujos de trabajo de prevención.
Garantías para la protección de datos sensibles
En este aspecto, los datos sensibles se deben de mantener protegidos al interactuar con herramientas de inteligencia artificial.
Uno de los puntos principales es la importancia de contar con certificaciones de seguridad sólidas por parte de los fabricantes de las soluciones. Por ejemplo, garantizar que la información utilizada no sea empleada para reentrenar modelos públicos.
Esto significa que, los datos proporcionados por los usuarios quedan en un entorno controlado, por lo que los archivos ingresados a las herramientas de inteligencia artificial son enviados a repositorios seguros mediante mecanismos cuidadosamente diseñados. Esto anula el riesgo de que la información salga del ecosistema protegido.
En lo que respecta a la capacitación, la responsabilidad de las personas es fundamental, por lo que se deben de evitar prácticas riesgosas, como compartir información sensible en canales no autorizados.
Otro aspecto tranquilizador es que, ya se están desarrollando herramientas de inteligencia artificial cuya evolución permitirá, de manera automatizada, detectar proactivamente intentos de fuga de información, lo que resalta el potencial de estas tecnologías para adaptarse y responder a los crecientes desafíos en materia de ciberseguridad.
La combinación de herramientas tecnológicas avanzadas con una sólida capacitación humana y garantías explícitas por parte de los fabricantes es la clave para construir confianza en el uso de inteligencia artificial y proteger los datos sensibles en entornos digitales, como es la nube.
Peter Kroll, Country Manager México, Novacomp
