Tecnología
Decir ‘por favor’ y ‘gracias’ a ChatGPT no sale gratis
Ser educado con la inteligencia artificial podría costar millones de dólares.

Por favor, sigue leyendo. Gracias.
Esa simple cortesía que acabas de leer ya le habría costado a OpenAI unos cuantos vatios de energía. Y no es chiste: según Sam Altman, CEO de la compañía detrás de ChatGPT, ser educado con la inteligencia artificial puede tener un precio tan alto como “decenas de millones de dólares”.
Todo empezó como una respuesta desenfadada en X, cuando un usuario se preguntó si usar expresiones como “por favor” y “gracias” al interactuar con la IA generaba costos adicionales. Altman no tardó en confirmar que sí… y que son cifras nada despreciables. “Decenas de millones de dólares bien gastados. Nunca se sabe”, respondió, quizá entre broma y advertencia.
Pero más allá del humor, hay una realidad contundente: cada palabra que escribes y cada respuesta que la IA genera consume recursos, y muchos. Las interacciones educadas suelen ser más largas, utilizan más tokens (unidades mínimas de texto que el modelo analiza) y requieren mayor procesamiento, lo que se traduce en un mayor consumo de electricidad y agua.

De cortesías y kilovatios
Para ponerlo en perspectiva, según un estudio de Epoch AI, una consulta promedio a ChatGPT consume unos 0,3 vatios-hora (Wh) de electricidad, lo cual es significativamente más eficiente que los 2,9 Wh estimados en octubre de 2023. Sin embargo, la eficiencia no siempre compensa la masividad: si tomamos como base los 365.000 millones de prompts anuales que se estima recibe el sistema, el consumo total anual rondaría los 1.058,5 gigavatios-hora (GWh).
Esto equivale al consumo eléctrico de ciudades enteras, y es solo la parte energética. ¿El agua? Otra historia. De acuerdo con el Instituto de Ingeniería de España, entre 10 y 50 consultas pueden llegar a consumir hasta 2 litros de agua potable, usada para enfriar los servidores que hacen posible esta tecnología.
Un estudio de la Universidad de California va más lejos: generar apenas una respuesta como “de nada”, puede consumir entre 40 y 50 mililitros de agua. O sea, sí, incluso los agradecimientos educados tienen una huella hídrica.

¿Y entonces, mejor no ser amable?
La respuesta no es tan simple. Aunque el gasto está comprobado, varios expertos en diseño de experiencia de usuario defienden la utilidad de las interacciones amables. Kurtis Beavers, director de diseño de Microsoft Copilot, asegura que el tono cortés ayuda a moldear mejores respuestas: la IA responde según el tono que recibe, y eso puede influir en que sea más colaborativa o precisa.
Además, Microsoft señala que iniciar tus indicaciones con un “por favor” y cerrar con un “gracias” no solo mejora el tono de la conversación, sino que puede optimizar el rendimiento del modelo al incentivar estructuras más claras y completas.
Y según una encuesta de 2024, el 67% de los usuarios en Estados Unidos usa expresiones de cortesía con chatbots, y el 12% lo hace por si acaso las IAs se rebelan algún día.

La factura no es solo monetaria
Los expertos advierten que el uso extendido de IA podría representar hasta un 25% del consumo eléctrico de Estados Unidos para 2030, frente al 4% actual, según el CEO de ARM Holdings. Y si una fracción de los trabajadores estadounidenses usara GPT-4 una vez por semana, la electricidad requerida podría igualar el consumo de todas las viviendas de Washington D.C. durante 20 días.
Detrás de cada respuesta educada que recibes hay servidores corriendo, GPUs trabajando sin descanso, y refrigeración constante. Todo eso genera emisiones, requiere recursos y deja una huella medioambiental. Ser amable tiene su precio.
Así que la próxima vez que le digas “gracias” a ChatGPT, recuerda que estás activando una pequeña cadena de consumo eléctrico y agua.
Regístrate gratis al boletín de noticias El País
Te puede gustar