
putilov_denis - stock.adobe.com
La seguridad de los datos es un factor obligatorio al usar IAGen
Proteger la información y construir confianza al trabajar con IAGen requiere utilizar herramientas tecnológicas avanzadas, capacitar a las personas y tener garantías explícitas de los fabricantes.
Ante la gran cantidad de ciberataques que se dan en todos los ámbitos de los negocios, así como en las actividades educativas y de gobierno, surge la pregunta: ¿deben –y sobre todo, pueden– los proveedores de tecnologías de la información garantizar la seguridad de los datos dentro de los modelos de inteligencia artificial?
La respuesta parece sencilla, pero no lo es tanto. Para que los proveedores de TI puedan garantizar la ciberseguridad de la información que se encuentra en la nube, dentro de los modelos de IAG, estos requieren estar en ambientes controlados y, en especial, deben de tomar en cuenta uno de los problemas de mayor incidencia de brechas: el factor humano.
Un ejemplo claro del impacto que tienen los errores de las personas se publicó en el informe de 2024 de IBM Security: “Costo de una filtración de datos”, donde se revela que un significativo porcentaje de las brechas de seguridad –alrededor del 22 %– tiene como origen el descuido de las personas. Asimismo, el estudio da a conocer que el costo total promedio de una filtración de datos dentro de una organización aumentó a US$4,88 millones de dólares, lo que representa un repunte del 10 % respecto al año anterior y, el mayor aumento desde la pandemia.

Sin embargo, en el ahorro de costos gracias al uso generalizado de la IA en la prevención de ciberataques, las organizaciones promedian US$2,2 millones de dólares menos por las filtraciones, en comparación con aquellas que no usan la IA en los flujos de trabajo de prevención.
Garantías para la protección de datos sensibles
En este aspecto, los datos sensibles se deben mantener protegidos al interactuar con herramientas de inteligencia artificial. Uno de los puntos principales es la importancia de contar con certificaciones de seguridad sólidas por parte de los fabricantes de las soluciones. Por ejemplo, garantizar que la información utilizada no sea empleada para reentrenar modelos públicos.
Eso significa que los datos proporcionados por los usuarios quedan en un entorno controlado; es decir, los archivos ingresados a las herramientas de inteligencia artificial son enviados a repositorios seguros mediante mecanismos cuidadosamente diseñados. Esto anula el riesgo de que la información salga del ecosistema protegido.
En lo que respecta a la capacitación, la responsabilidad de las personas es fundamental para evitar prácticas riesgosas, como compartir información sensible en canales no autorizados.
Otro aspecto tranquilizador es que ya se están desarrollando herramientas de inteligencia artificial cuya evolución permitirá, de manera automatizada, detectar proactivamente intentos de fuga de información, lo que resalta el potencial de estas tecnologías para adaptarse y responder a los crecientes desafíos en materia de ciberseguridad.
La combinación de herramientas tecnológicas avanzadas con una sólida capacitación humana y garantías explícitas por parte de los fabricantes es la clave para construir confianza en el uso de inteligencia artificial, y proteger los datos sensibles en entornos digitales como la nube.
Peter Kroll es country manager en México de la empresa de servicios y desarrollo de TI Novacomp. Cuenta con más de 30 años de experiencia en consultoría y transformación de negocios. Es Ingeniero en Sistemas y Computación por la Universidad de Hamburgo en Alemania y cuenta con Executive Training Programs (MBA) de las escuelas de negocios: Kellogg, en Northwestern University (Chicago), e INSEAD (Fontainebleau). Además, ha ocupado posiciones destacadas en importantes consultoras de TI a nivel nacional e internacional.