Diariamente, más del 80 por ciento de la población en Latinoamérica ha integrado la inteligencia artificial (IA) en su cotidianidad, utilizándola para tareas laborales, académicas, consultas informativas o incluso búsquedas básicas. Sin embargo, este uso de IA en Latinoamérica revela una preocupante brecha: menos de la mitad de los usuarios verifica la información provista por plataformas como ChatGPT, Deepseek, Perplexity o Gemini de Google, exponiendo a la región a riesgos significativos.
Panorama del uso de la ia en la región
La encuesta realizada por Eset, plataforma especializada en seguridad informática, en 17 países de la región –incluyendo México, Venezuela, Colombia, Argentina y Chile–, confirma que el 80 por ciento de los internautas utiliza inteligencia artificial. De este total, un 45 por ciento lo hace de forma frecuente, mientras que el 35 por ciento restante la usa ocasionalmente. Este dato subraya la penetración masiva de la IA en la vida diaria de los latinoamericanos.
La brecha crítica de la verificación de información
Pese a la extendida adopción de la IA, un dato alarmante emerge del estudio de Eset: el 55 por ciento de los usuarios –equivalente a 6 de cada 10– admite no verificar siempre la información obtenida. Un 14 por ciento declara no hacerlo nunca, y otro 3 por ciento lo hace solo en ocasiones. Esta falta de rigor puede generar escenarios peligrosos.
Un caso viral que ilustra esta problemática es el de Mery Caldass y su pareja, conocidos en redes sociales por sus videos de vida y viajes. Recientemente, sufrieron la pérdida de un vuelo a Puerto Rico tras confiar en una respuesta errónea de ChatGPT sobre los requisitos migratorios para acceder a la isla.
Camilo Gutiérrez Amaya, jefe del laboratorio de investigación de Eset para Latinoamérica, enfatiza que si bien los modelos de IA pueden ofrecer información precisa, no están exentos de generar respuestas incorrectas o sesgadas. Por ello, es imperativo contrastar la información con fuentes oficiales, especialmente en temas sensibles como los legales, financieros o de salud, para garantizar la seguridad del usuario.
Vulnerabilidad y riesgos de privacidad en el entorno de la ia
Eset también ha advertido que los modelos de IA son susceptibles a ataques. Un usuario malintencionado podría introducir comandos engañosos, manipulando las respuestas y llevando a la tecnología a brindar instrucciones erróneas o información falsa a otros usuarios. Esta vulnerabilidad abre la puerta a nuevas formas de ciberdelincuencia.
Otro hallazgo relevante es que el 40 por ciento de los usuarios comparte información personal y laboral con las plataformas de IA, ya sea frecuentemente (17 por ciento) o de vez en cuando (25 por ciento). Simultáneamente, casi el 60 por ciento no lee las políticas de privacidad y solo la mitad toma medidas concretas para proteger sus datos. La plataforma aconseja encarecidamente evitar el ingreso proactivo de información sensible, como contraseñas o datos bancarios, en cualquier chat de IA, ya que estas herramientas pueden procesar y utilizar dicha información para entrenar futuros modelos, aumentando el riesgo de exposición.
Además de abstenerse de compartir información sensible, Eset recomienda revisar periódicamente las configuraciones de privacidad y los términos de uso de las aplicaciones de IA. Esto permite comprender qué datos se almacenan, si se comparten con terceros y cómo podrían ser utilizados en el futuro, así como identificar nuevas opciones de seguridad y privacidad disponibles.
Percepciones a futuro y el camino hacia un uso consciente
La visión general de la inteligencia artificial en la región es mayormente positiva, con un 80 por ciento de los encuestados considerándola útil. No obstante, el 43 por ciento reconoce que la IA, aunque beneficiosa en los próximos años, conlleva riesgos asociados. Las principales preocupaciones identificadas son los fraudes y estafas, las noticias falsas y la falta de privacidad.
Camilo Gutiérrez Amaya concluye que, si bien la adopción de la IA es significativa, aún queda un largo camino por recorrer en cuanto a los hábitos de uso responsable y seguro. La insuficiente verificación de la información, el descuido al compartir datos sensibles y la apatía hacia las políticas de privacidad son señales de alerta que demandan atención urgente. La solución, insiste, no reside en el temor o el abandono de la herramienta, sino en la incorporación de acciones concretas para un uso consciente, crítico y seguro. ¿Estamos realmente preparados para las implicaciones del uso masivo de la inteligencia artificial?