viernes 15 de agosto de 2025 - Edición Nº473

TECNO | 15 ago 2025

Por Pedro Noriega

Pareja confió en ChatGPT para organizar su viaje, pero todo terminó mal

11:58 |Mery Caldass y su pareja perdieron su vuelo a Puerto Rico tras recibir información incorrecta del chatbot sobre los requisitos de entrada.


Por: Redacción

 

ChatGPT dio información equivocada a

ChatGPT dio información equivocada a pareja española. REUTERS/Dado Ruvic/Illustration/File Photo

En plena era de la inteligencia artificial, donde los chatbots prometen tener respuesta para casi cualquier consulta, un error de interpretación costó caro a dos jóvenes españoles. Mery Caldass y su pareja, conocidos en redes sociales por sus videos de estilo de vida y viajes, perdieron su vuelo a Puerto Rico luego de confiar en una respuesta equivocada de ChatGPT sobre los requisitos migratorios para ingresar a la isla.

La pareja planeaba una escapada a este destino caribeño, territorio no incorporado de Estados Unidos. Según relataron en redes sociales, antes de viajar consultaron a ChatGPT si necesitaban una visa para entrar, y el sistema les respondió que podían hacerlo sin ningún tipo de autorización especial. Convencidos de que la información era correcta, acudieron al aeropuerto listos para embarcar.

La realidad fue distinta. Al momento de registrarse para el vuelo, las autoridades les informaron que, para ingresar a Puerto Rico, era necesario contar con una visa válida o una autorización electrónica ESTA (Electronic System for Travel Authorization), requisito que no cumplían. Como resultado, no pudieron abordar y perdieron el viaje.

ChatGPT respondió mal a pregunta

ChatGPT respondió mal a pregunta de jóvenes españoles que iban a viajar al caribe y terminaron perdieron el vuelo. (Foto: TikTok)

En videos publicados en sus cuentas personales, Caldass narró el episodio con visible frustración. Entre lágrimas, explicó que confiaron plenamente en la información obtenida del chatbot y no verificaron el dato en fuentes oficiales. “Esto nos pasa por no habernos informado más”, señaló.

También comentó que en otras ocasiones había insultado al asistente virtual para que “respondiera bien”, sugiriendo en tono irónico que el error podría haber sido una “venganza” de la IA, aunque reconoció que el problema radicó en no contrastar la información.

El incidente reabrió el debate sobre la fiabilidad de las herramientas de inteligencia artificial, especialmente en temas que involucran regulaciones legales o trámites administrativos. Puerto Rico, al estar bajo jurisdicción estadounidense, aplica las mismas normas migratorias que Estados Unidos.

ChatGPT respondió mal a pregunta

ChatGPT respondió mal a pregunta de jóvenes españoles que iban a viajar al caribe y terminaron perdieron el vuelo. (Foto: TikTok)

Para ciudadanos españoles, esto significa que es obligatorio contar con una visa de no inmigrante o tramitar el ESTA antes de viajar. Aunque España forma parte del Programa de Exención de Visa, este no implica entrada libre; requiere completar un formulario en línea y recibir aprobación previa.

En este caso, ChatGPT no precisó el requisito del ESTA ni advirtió sobre la necesidad de confirmarlo en canales oficiales, lo que generó la confusión. De acuerdo con expertos en turismo y movilidad internacional, este tipo de errores no son exclusivos de la IA: incluso buscadores web o foros de viajeros pueden contener información desactualizada o incompleta. La diferencia es que los chatbots, al presentarse con un lenguaje natural y seguro, pueden generar en el usuario una falsa sensación de certeza.

El episodio de Caldass y su pareja ilustra una problemática creciente: la dependencia de la inteligencia artificial para tomar decisiones rápidas. Estas herramientas son útiles para obtener datos generales, sugerencias o ideas, pero no sustituyen el asesoramiento especializado ni la consulta directa a organismos gubernamentales. Esto es especialmente importante en cuestiones migratorias, donde la normativa puede variar por país, tipo de pasaporte y motivo de viaje.

ChatGPT no dio información precisa

ChatGPT no dio información precisa sobre el uso de la visa para Puerto Rico. REUTERS/Dado Ruvic/Illustration/File Photo

Desde la perspectiva de especialistas en tecnología, el caso también plantea la necesidad de educar a los usuarios sobre las limitaciones de la IA generativa. Aunque estos sistemas son capaces de procesar grandes volúmenes de información y ofrecer respuestas coherentes, no tienen acceso directo a bases de datos gubernamentales en tiempo real y pueden cometer errores de precisión.

OPINÁ, DEJÁ TU COMENTARIO:
Más Noticias