La inteligencia artificial dejó de ser una promesa futurista para convertirse en parte del día a día en Latinoamérica. La utilizamos cuando pedimos una dirección en Google Maps, cuando escuchamos música recomendada en Spotify o cuando pedimos a un chatbot que nos resuelva una duda. Sin embargo, un reciente estudio de la firma de ciberseguridad ESET reveló un dato inquietante: ocho de cada diez usuarios ya interactúan con IA, pero más de la mitad no se toma la molestia de verificar la información que recibe. Esta tendencia refleja un entusiasmo masivo por la tecnología que convive con un preocupante déficit en cultura digital.
El estudio de ESET: hallazgos clave
De acuerdo con la investigación, el 80 % de los encuestados en la región aseguró utilizar esta herramienta en su vida diaria. Dentro de este grupo, el 45 % lo hace de manera frecuente y otro 35 % de forma ocasional. El problema surge al analizar el nivel de confianza: un 55 % de las personas reconoce que no verifica lo que recibe de estas herramientas. Aún más delicado es que el 40 % admite compartir datos personales sin medir los riesgos.
Estos resultados muestran un contraste fuerte. La adopción de la IA crece con rapidez, pero la educación digital y los hábitos de verificación avanzan mucho más despacio.
¿Por qué no verificamos la información generada por IA?
Hay varias razones detrás de este comportamiento. Una de ellas es la confianza ciega en la tecnología. Muchos usuarios asumen que, por provenir de un sistema “inteligente”, las respuestas deben ser correctas. A esto se suma la conveniencia: la rapidez con la que un chatbot entrega información refuerza la idea de que cuestionar o contrastar es innecesario. Finalmente, la falta de educación digital en amplios sectores de la población hace que distinguir entre datos confiables y respuestas automáticas sea una tarea aún más compleja.

Los riesgos de confiar sin comprobar
Aceptar la información de la IA sin contrastarla puede generar consecuencias serias. Desde la propagación de noticias falsas hasta la exposición de datos personales, los escenarios son múltiples. La desinformación puede viralizarse con facilidad y los delincuentes aprovechan esa confianza para diseñar fraudes cada vez más sofisticados. También está el problema de los sesgos: la IA se alimenta de los datos con los que fue entrenada y puede reproducir prejuicios de manera invisible.
Más allá de los riesgos individuales, la falta de verificación impacta a nivel social. Socava la confianza en la información, polariza debates y amplifica la propagación de contenido engañoso.
Cómo usar la IA de forma más responsable
Protegerse frente a estos riesgos no significa renunciar a la IA, sino aprender a convivir con ella de manera crítica. Verificar la información en fuentes confiables antes de compartirla debería ser un hábito tan común como revisar un titular. Limitar los datos personales que entregamos a sistemas inteligentes también es fundamental, así como revisar los permisos de las aplicaciones que instalamos. La IA es útil como apoyo, pero no debería convertirse en la única fuente de verdad.
Organizaciones como ITSitio han subrayado que la seguridad frente a la inteligencia artificial depende tanto de los desarrolladores como de la conducta de los usuarios. Y en instituciones académicas, como el IEEM, se ha discutido el riesgo de confiar de forma excesiva en modelos como ChatGPT, a los que muchas personas “les cuentan todo” sin reflexionar en lo que eso implica para su privacidad.

Noticias recientes que refuerzan la preocupación
Lo que ocurre en Latinoamérica no es un fenómeno aislado. En septiembre de 2025, Infobae reportó que la mayoría de usuarios de IA en la región no verifica la información y advirtió sobre el riesgo de que esto alimente la desinformación digital. Paralelamente, la Agencia Española de Protección de Datos registró casi 19,000 reclamaciones relacionadas con privacidad en 2024, reflejando que los problemas de seguridad vinculados al uso de IA son globales.
Incluso casos innovadores como el lanzamiento de Veritas, la nueva evolución de Siri presentada por Apple, o la apertura del primer restaurante gestionado por un chef de IA en Dubái, muestran que la tecnología avanza más rápido que los marcos regulatorios y los hábitos de verificación de los usuarios.
Mirando hacia el futuro
Todo indica que la popularidad de la IA seguirá creciendo en la región. Bancos, hospitales, universidades y comercios continuarán integrando estas herramientas en sus procesos, lo que hará más urgente una estrategia que combine educación digital y regulación efectiva. Los gobiernos deberán establecer reglas claras y las empresas tendrán que garantizar transparencia en el manejo de datos. Pero el cambio también empieza en cada usuario: ser críticos, cuestionar y aprender a verificar son acciones imprescindibles para un futuro donde la inteligencia artificial esté presente en todo.
Conclusión
El informe de ESET es un llamado de atención. La inteligencia artificial ofrece beneficios evidentes en comodidad, eficiencia y acceso a información, pero confiar en ella sin cuestionar implica riesgos que no podemos ignorar. Aprender a verificar, proteger nuestros datos y usar la IA con criterio es la clave para disfrutar de sus ventajas sin caer en sus trampas.
La próxima vez que un chatbot te dé una respuesta rápida, recuerda preguntarte: ¿ya comprobé que esto es cierto? La diferencia entre un uso responsable y uno riesgoso puede estar en ese pequeño gesto.
Conoce cómo cambiar tu WhatsApp a modo otoño. Visita nuestro artículo: https://miramultimedia.com/dale-un-toque-modo-otono-a-tu-whatsapp
Fuentes
Infobae. (2025, 24 de septiembre). El 80 % de usuarios ya utiliza IA, pero más de la mitad no verifica la información obtenida. Infobae. https://www.infobae.com/tecno/2025/09/24/el-80-de-usuarios-ya-utiliza-ia-pero-mas-de-la-mitad-no-verifica-la-informacion-obtenida/
ITSitio. (2025, 20 de septiembre). Cómo se protegen los datos frente a la inteligencia artificial. ITSitio. https://www.itsitio.com/co/inteligencia-artificial/como-se-protegen-los-datos-frente-a-la-inteligencia-artificial
La Jornada. (2025, 28 de septiembre). En AL, 80 % de la población usa IA, pero ni la mitad verifica la información: ESET. La Jornada. https://www.jornada.com.mx/noticia/2025/09/28/economia/en-al-80-de-la-poblacion-usa-ia-pero-ni-la-mitad-verifica-la-informacion-eset
Instituto Electoral del Estado de México (IEEM). (2025, 25 de septiembre). ¿Le cuentas todo a ChatGPT? Medioteca IEEM. https://medioteca.ieem.org.mx/index.php/plumas-ieem/colabora-cs/item/7847-le-cuentas-todo-a-chatgpt
El País. (2025, 26 de mayo). Protección de Datos recibió 19.000 reclamaciones en 2024. El País. https://elpais.com/tecnologia/2025-05-26/proteccion-de-datos-recibio-19000-reclamaciones-en-2024.html
Cinco Días – El País. (2025, 30 de septiembre). Apple ya prueba Veritas, la evolución de Siri que competirá con ChatGPT. Cinco Días. https://cincodias.elpais.com/smartlife/lifestyle/2025-09-30/apple-veritas-competir-chatgpt.html
HuffPost. (2025, 27 de septiembre). Dubái contará con el primer restaurante con un chef gestionado por IA capaz de crear menús y diseñar recetas. HuffPost. https://www.huffingtonpost.es/life/consumo/dubai-contara-primer-restaurante-chef-gestionado-ia-capaz-crear-menus-disenar-recetas.html