¿Eres de los que saluda y da las gracias cuando interactúa con ChatGPT? No estás solo. Según una encuesta reciente, más del 70% de los usuarios en EE.UU. y Reino Unido suelen ser corteses con la inteligencia artificial. Lo hacen, en su mayoría, por costumbre o por una mezcla de cortesía y humor: algunos piensan que, si algún día las máquinas se rebelan, serán más indulgentes con quienes las trataron bien. Pero, ¿qué pasa si esa amabilidad tiene un costo real? Según Sam Altman, CEO de OpenAI, cada palabra extra representa un gasto energético y financiero considerable para la empresa.
Un problema de modales… y millones
Hablar con educación parece inofensivo, pero en el contexto de un modelo de lenguaje como ChatGPT, cada palabra escrita —por más amable que sea— se traduce en tokens. En términos técnicos, un “hola”, un “por favor” o un “gracias” no se procesan como lo haría un humano. Cada fragmento se convierte en una unidad de cómputo que debe ser analizada y respondida.
“Decenas de millones de dólares bien gastados”, ironizó Altman en la red social X cuando un usuario le preguntó por el coste de la cortesía en la IA. Cada consulta extensa, por mínima que parezca, genera una mayor demanda sobre los servidores, lo que implica más uso de GPU, mayor consumo eléctrico y, por tanto, más gasto económico.
¿Cuánta energía consume una consulta a ChatGPT?
Aunque la cifra varía según la complejidad del texto, se estima que cada interacción promedio con ChatGPT consume alrededor de 0,3 vatios-hora. Esto, por sí solo, no suena alarmante. Pero al multiplicarlo por las más de 365 mil millones de solicitudes anuales que maneja OpenAI, el resultado es abrumador: más de 1.000 gigavatios-hora al año, según datos de BestBrokers.
Esto equivale al consumo energético anual de un país pequeño, como Malta o Haití. Y no es un dato menor. La Agencia Internacional de la Energía ha advertido que el crecimiento de la inteligencia artificial, si no se regula, podría duplicar las emisiones del sector tecnológico en la próxima década.
Tokens, servidores y cortesía: una ecuación costosa
La clave de este gasto está en los tokens. Un token puede ser una palabra entera o una parte de ella. Por ejemplo, la frase: “¿Podrías ayudarme con esto, por favor? Te lo agradecería mucho” genera más de 15 tokens, mientras que “Explícalo fácil” no pasa de cuatro.
Y cuantos más tokens se envían, más energía se consume. Esta necesidad de procesamiento lleva a que OpenAI tenga que operar enormes centros de datos, con miles de GPU funcionando en paralelo. Así, lo que para un usuario es un simple acto de cortesía, para OpenAI representa una cadena de procesos energéticos y económicos.
El dilema ético: ¿ser educado con las máquinas?
Aquí surge un debate interesante: si las máquinas no tienen conciencia ni sentimientos, ¿tiene sentido ser cortés con ellas? Algunos expertos argumentan que la amabilidad hacia la IA refuerza hábitos positivos en los humanos y fomenta la empatía, especialmente en niños y adolescentes que crecen interactuando con asistentes virtuales.
Sin embargo, desde el punto de vista técnico y ambiental, la situación se vuelve más compleja. La educación implica un mayor consumo de energía y, por tanto, un mayor impacto ecológico. ¿Vale la pena seguir escribiendo “por favor” y “gracias” si eso incrementa las emisiones de carbono?
Multas millonarias, tensiones globales y el poder tecnológico
En un contexto más amplio, el tema del gasto y la regulación tecnológica no se limita solo a la IA. La Unión Europea sancionó recientemente a Apple y Meta con 700 millones de euros (797 millones de dólares) por incumplir la Ley de Mercados Digitales (DMA), un nuevo marco legal para garantizar la competencia justa en el entorno digital.
Apple fue multada con 500 millones de euros por limitar el acceso de los desarrolladores a tiendas de aplicaciones alternativas. Meta, por su parte, recibió una multa de 200 millones por su modelo de «consentimiento o pago», donde los usuarios debían elegir entre ser rastreados o pagar por el servicio.
Estas sanciones evidencian una creciente preocupación global por el poder desmedido de las grandes tecnológicas y la necesidad de establecer límites claros, tanto en términos de privacidad como de impacto medioambiental.
Un futuro de eficiencia… ¿sin cortesía?
Las implicancias son profundas. A medida que tecnologías como ChatGPT se vuelven parte del tejido social y económico, se abre un nuevo frente de debate sobre eficiencia, sostenibilidad y hábitos digitales. ¿Deberían los usuarios reducir su cortesía para ayudar al planeta? ¿O las empresas deben innovar para procesar más con menos energía?
OpenAI, por ejemplo, podría invertir en modelos más eficientes o en infraestructura alimentada con energías renovables. Pero también podría ser momento de educar al usuario: en un futuro cada token contará, y puede que incluso lleguen tarifas diferenciadas por el número de palabras procesadas.
La factura invisible de la amabilidad digital
La amabilidad tiene un precio, incluso en el mundo virtual. Cada vez que escribimos “gracias” a un chatbot, activamos una cadena de procesos que consume energía y genera costos tangibles para empresas como OpenAI. Lo que antes era visto como un gesto de humanidad, hoy se convierte en una variable dentro de un complejo sistema tecnológico.