En los últimos años, la Inteligencia Artificial (IA) ha experimentado un gran auge, especialmente con la llegada de aplicaciones como ChatGPT y Gemini, que han facilitado su implementación en diversos ámbitos laborales al agilizar tareas y automatizar procesos. Sin embargo, junto con los beneficios que ofrece, el uso de esta tecnología también conlleva riesgos en la seguridad de la información, tanto a nivel personal como organizacional. José Amado, gerente de la Práctica de Identidades Digitales de SISAP, advierte sobre la incertidumbre en el manejo de datos privados al utilizar aplicaciones de IA, ya que la información compartida con estas aplicaciones puede quedar almacenada en una nube fuera del alcance del usuario.
Amado destaca un ejemplo concreto de ChatGPT, donde un colaborador que comparte información confidencial con la aplicación puede estar poniendo en riesgo la seguridad de la empresa al permitir el acceso a datos sensibles que ahora están almacenados en la nube sin saber quién puede tener acceso a ellos. Ante estas preocupaciones, es fundamental concienciar a los colaboradores sobre el manejo de datos con aplicaciones de IA y la importancia de proteger la información sensible y confidencial. Una vez compartidos los datos, no pueden ser eliminados ni devueltos, por lo que es esencial que las organizaciones implementen capacitaciones para evitar compartir información delicada con estas tecnologías.
Por otro lado, el uso de IA para generar códigos de aplicaciones y páginas web también presenta riesgos en términos de seguridad. Aunque esta tecnología facilita la tarea de los programadores y personas con poca experiencia en programación, existe la posibilidad de que múltiples organizaciones terminen utilizando códigos generados por IA que presenten las mismas vulnerabilidades. Esto facilita el acceso a cibercriminales que podrían aprovechar esta similitud para llevar a cabo ataques. José Amado recomienda a las organizaciones no utilizar IA para generar códigos, sino recurrir a métodos tradicionales que, aunque más lentos, brindarán mayor seguridad a largo plazo.
Además, dentro del mundo de las aplicaciones de IA, existen también aquellas con fines maliciosos que buscan ayudar a los cibercriminales a mejorar sus métodos de ataque y pasar desapercibidos. Ejemplos de estas aplicaciones incluyen WormGPT, FraudGPT y PoisonGPT, que pueden realizar desde la redacción de correos creíbles de phishing hasta la creación de programas malignos para extraer información. Ante la creciente amenaza de ciberataques, es fundamental que las organizaciones estén informadas sobre este tipo de aplicaciones y cuenten con medidas de seguridad adecuadas para protegerse.
SISAP, una empresa líder en el mercado de la Tecnología y la Seguridad de la Información en 10 países de la región, ofrece servicios y soluciones enfocadas en la seguridad de la información. Con más de 39 años de experiencia, SISAP brinda servicios de seguridad a clientes en Latinoamérica a través de una amplia variedad de recursos, incluyendo una planilla de más de 400 empleados, laboratorios forenses, una academia de ciberseguridad y más de 100 marcas aliadas. Ante el creciente uso de IA en diferentes ámbitos, SISAP recomienda a las organizaciones acercarse a empresas especializadas en ciberseguridad para realizar un análisis de sus vulnerabilidades y fortalecer sus defensas contra posibles ciberataques.