Mundo

Preguntas a la IA que han causado arrestos en Florida: evita escribir esto

La recomendación es no hacer búsquedas inusuales dado que las plataformas son constantemente monitoreadas por las autoridades.

GoogleSiga a EL PAÍS en Google Discover y no se pierda las últimas noticias

Consultas sobre delitos, incluso hechas a una IA, pueden tener consecuencias legales reales para los menores.
Consultas sobre delitos, incluso hechas a una IA, pueden tener consecuencias legales reales para los menores. | Foto: El País

28 de nov de 2025, 08:43 p. m.

Actualizado el 28 de nov de 2025, 08:43 p. m.

El uso cotidiano de la inteligencia artificial entre adolescentes es cada vez más común, muchos de ellos la utilizan como una herramienta académica e incluso como un consejero al que le cuentan diversidad de información de su vida privada con la finalidad de recibir un consejo o sugerencia.

Lo que muchas personas desconocen es que la inteligencia artificial es frecuentemente vigilada y monitoreada por las autoridades.

En Estados Unidos, varios menores de edad están siendo arrestados tras realizar consultas peligrosas o con posibles implicaciones criminales en chatbots como ChatGPT o Gemini.

Otras plataformas como Chat GPT y Canva también están experimentando fallas este 18 de noviembre.
Autoridades de Florida han advertido sobre el uso riesgoso de chatbots por parte de menores tras recientes arrestos. | Foto: AFP

En Florida, al menos dos casos recientes han encendido las alarmas entre autoridades, educadores y padres de familia, al mostrar cómo la interacción con estas plataformas puede desencadenar investigaciones legales, falsas emergencias y riesgos para la seguridad pública.

El caso más grave ocurrió en el condado de Marion, donde un joven de 17 años fue detenido después de fingir su propio secuestro. Las autoridades confirmaron que el menor provocó una herida en su pierna para simular el ataque y activó una alerta Amber que movilizó a unidades policiales, equipos de rescate y recursos estatales.

De acuerdo con el reporte oficial, durante la revisión del computador del joven se encontró que había realizado consultas previas a un chatbot sobre grupos criminales, métodos para extraer sangre sin causar dolor y formas de simular lesiones.

La policía señaló que estas búsquedas no solo llamaron la atención por su contenido, sino porque evidenciaban planificación.

Aunque consultar en internet no es un delito por sí mismo, cuando estas acciones se relacionan con hechos que ponen en riesgo a la comunidad, como activar de manera falsa una alerta nacional, las autoridades pueden interpretar el comportamiento como parte de un plan delictivo.

Otro caso ocurrió en el condado de Volusia, donde una niña de 13 años fue arrestada después de escribir en un chatbot la frase “cómo matar a mi amigo en medio de clase”.

Consultas sobre delitos, incluso hechas a una IA, pueden tener consecuencias legales reales para los menores.
Escuelas en Florida implementaron sistemas de monitoreo digital para detectar mensajes peligrosos escritos por estudiantes. | Foto: Captura

El mensaje fue detectado por un sistema de monitoreo escolar, que alertó de inmediato a las autoridades.

La menor aseguró que se trataba de una broma, pero los oficiales recordaron que cualquier amenaza, incluso escrita en entornos digitales o dirigida a una IA, puede ser considerada una conducta peligrosa y sujeta a acciones legales.

Las autoridades han insistido en que los padres deben supervisar el uso que sus hijos hacen de estas tecnologías.

A nivel académico, varias escuelas de Florida han implementado sistemas de detección temprana como Gaggle o Lightspeed Alert, capaces de rastrear frases relacionadas con violencia, autolesiones o actividad criminal.

Regístrate gratis al boletín de noticias El País

Descarga la APP ElPaís.com.co:
Semana Noticias Google PlaySemana Noticias Apple Store

AHORA EN Mundo