Riesgos de ciberseguridad para una organización con la implementación de la Inteligencia Artificial
En los últimos años, la Inteligencia Artificial (IA) ha revolucionado diversos sectores, con aplicaciones como ChatGPT y Gemini a la vanguardia de esta transformación. Aunque estas tecnologías ofrecen múltiples beneficios, su uso también plantea significativos riesgos en materia de ciberseguridad, tanto a nivel personal como organizacional.
José Amado, gerente de la Práctica de Identidades Digitales de SISAP, advierte sobre el manejo de datos privados en estas aplicaciones. «La tecnología nos brinda una ventana al mundo, pero también puede abrir puertas a la vulnerabilidad de nuestra información personal y organizacional», comenta Amado. Un ejemplo común es el uso de ChatGPT para simplificar tareas laborales, como la redacción de resúmenes de reportes ejecutivos. Al hacerlo, se comparte información sensible que queda almacenada en la nube, fuera del control de la organización.
Este tipo de prácticas pueden llevar a la exposición de datos confidenciales sin posibilidad de recuperación o eliminación, lo que subraya la importancia de capacitar a los empleados sobre los riesgos y el uso adecuado de estas herramientas. «Es crucial que las organizaciones comprendan los peligros asociados con la IA y tomen medidas preventivas para proteger su información», afirma Amado.
Vulnerabilidades en la creación de aplicaciones con IA
La Inteligencia Artificial también ha facilitado la creación de aplicaciones y páginas web, simplificando la labor de los desarrolladores. Sin embargo, Amado advierte que este enfoque puede crear vulnerabilidades. «El problema radica en que la IA genera códigos que pueden ser similares o idénticos para varios usuarios, lo que significa que muchas organizaciones podrían compartir las mismas fallas de seguridad», explica. Esto aumenta la posibilidad de ataques cibernéticos, ya que los cibercriminales pueden explotar estas vulnerabilidades comunes.
Dado el ritmo acelerado con el que se desarrollan nuevas aplicaciones, Amado recomienda que las organizaciones eviten depender exclusivamente de la IA para la generación de código y opten por métodos tradicionales, que aunque más lentos, ofrecen mayor seguridad a largo plazo.
El lado oscuro de la IA
Aunque herramientas como ChatGPT y Gemini están diseñadas para facilitar tareas diarias, existen aplicaciones similares con fines maliciosos, como WormGPT, FraudGPT, y PoisonGPT. Estas son utilizadas por cibercriminales para perfeccionar técnicas de ataque, incluyendo la creación de correos de phishing convincentes o el desarrollo de malware destinado a la extracción de información.
Amado subraya la necesidad de estar informados sobre estas amenazas emergentes, ya que aumentan significativamente el riesgo de que las organizaciones sean víctimas de ciberataques, incluyendo ataques de ransomware.
Recomendaciones para mitigar riesgos
Para las organizaciones que utilizan IA en la programación de aplicaciones o cuyos empleados emplean herramientas como ChatGPT, Amado sugiere realizar un análisis de vulnerabilidades a través de empresas especializadas en ciberseguridad como SISAP. Esta compañía, con más de 39 años de experiencia en el mercado y presencia en 10 países, ofrece un amplio portafolio de soluciones de seguridad de la información, que pueden ayudar a proteger a las organizaciones contra amenazas cibernéticas emergentes.
Acerca de SISAP
Sistemas Aplicativos S.A. (SISAP) es una empresa líder en tecnología y seguridad de la información, fundada en Guatemala en 1985. Con una presencia regional en 10 países, SISAP cuenta con más de 1000 certificaciones y un equipo altamente capacitado, compuesto en su mayoría por ingenieros. La empresa ofrece servicios avanzados de ciberseguridad, laboratorios forenses, y una academia de ciberseguridad, ayudando a proteger a sus clientes en toda Latinoamérica contra una amplia gama de amenazas cibernéticas.