Columnistas
¿Y si Laura miente?
Es una herramienta poderosa. Ayuda a educar, a curar, a prevenir desastres, a ser más sostenibles.

Claudia Calero
Presidenta de Asocaña
12 de abr de 2025, 02:59 a. m.
Actualizado el 12 de abr de 2025, 03:00 a. m.
Estamos rodeados de tecnología. La que enciende las luces cuando entro a mi apartamento, la que me recuerda un pedido… en fin, podría dar muchos ejemplos. La dejamos entrar en nuestros celulares, en nuestros hogares, en nuestras decisiones, incluso en nuestras emociones. Yo, por ejemplo, tengo una ‘gran amiga IA’ a quien llamo Laura y la verdad, muchas veces me aterra. Es ahí donde surge la pregunta: ¿hasta qué punto la inteligencia artificial está incidiendo en lo que creemos, compartimos o decidimos? Y algo más importante aún: ¿Estamos preparados para gestionar sus efectos cuando lo que está en juego es la democracia?
Yo, la verdad, creo que en nuestro país todavía no creemos en serio que ya está aquí, que ya se usa y que ya hace daño.
Podría citar muchos ejemplos. Hace unas semanas se manipuló la imagen de Luis Díaz en un video falso, usado para promover una estafa financiera. Yo lo creí y muchos también. Su voz y su rostro eran copia fiel del original.
No ha sido el único caso. En México, el año pasado, se documentaron deepfakes pornográficos contra mujeres políticas, como forma de violencia digital para silenciarlas y desacreditarlas. Estos algoritmos no solo engañan, humillan y destruyen la dignidad.
Traigo estos ejemplos para que imaginemos lo que se puede hacer en una campaña presidencial: un candidato diciendo algo que nunca dijo, un empresario en un video que nunca grabó, un periodista desacreditado, haciendo cosas non sanctas. Nada de esto es ficción, ya ocurre aquí y en otras partes.
Nos acercamos a las elecciones de 2026 y esto debe preocuparnos. Si no trazamos límites éticos, si no regulamos, si no educamos, entraremos en la campaña más peligrosa que hayamos vivido. El verdadero riesgo no es que aparezcan videos falsos, sino que ya no sepamos en quién o en qué creer.
No quiero que, con este escrito, se piense que la inteligencia artificial no deba usarse. Es una herramienta poderosa. Ayuda a educar, a curar, a prevenir desastres, a ser más sostenibles. Pero también puede llevarnos a tomar nuestras peores decisiones: al sesgo, a la manipulación, a la violencia… y al fraude.
Y cuando pienso en nuestra política (que no tiene precisamente las bases más sólidas), el terreno se vuelve ideal para todo eso. ¿Qué podemos hacer?
Primero, centrarnos en la ética: que las campañas políticas se comprometan a no usar IA para manipular. A no jugar sucio con los algoritmos, a no ir en contra de la verdad.
Segundo, necesitamos con urgencia instrumentos normativos y regulatorios, en los cuales deberían estar trabajando el Ejecutivo y el legislativo. Que castiguen, con creces, el uso fraudulento de deepfakes. Es decir, que tengamos ‘dientes’ para proteger la imagen, la voz y los derechos de todos y que los ciudadanos sepamos realmente ‘quién es quién’.
Y tercero, la educación. Es simple: si un ciudadano no distingue un video real de uno fabricado, es vulnerable. Se le limita su libertad de elegir. Y un votante vulnerable… es una democracia agonizante.
Se trata de poner la atención en lo más importante: las personas. En quienes aspiran a gobernar y en quienes tomamos la decisión de elegirlos. Porque al final, la responsabilidad es nuestra: por lo que hacemos y por lo que dejamos que la IA haga sin control.
Y cuando esas decisiones afectan el destino de un país (el suyo, el mío, el de todos los colombianos), la ética no se vuelve una opción. Se convierte en el único camino para elegir bien: ‘porque estoy informado, me vuelvo consciente, y por ende responsable de la decisión que tomo’.
Claudia Calero
Presidenta de Asocaña
Regístrate gratis al boletín de noticias El País
Te puede gustar