En una sorprendente (y algo cómica) revelación, Sam Altman, CEO de OpenAI, confirmó que la cortesía de los usuarios hacia ChatGPT está generando un aumento considerable en los costos operacionales de la empresa.
Todo comenzó cuando un usuario en X (antes Twitter) preguntó inocentemente cuánto dinero le costaba a OpenAI la amabilidad de la gente que incluye frases como “por favor” o “gracias” en sus consultas. Altman respondió:
“Tens of millions of dollars well spent.”
“Nunca se sabe”, añadió.
Según un informe de Goldman Sachs, cada consulta en ChatGPT-4 consume en promedio 2.9 vatios-hora de electricidad, lo cual es casi 10 veces más que una búsqueda en Google. Multiplicado por más de mil millones de consultas al día, esto se traduce en un gasto energético diario de aproximadamente 2.9 millones de kilovatios-hora.
Además, Altman anunció esta semana nuevos modelos de razonamiento:
- o3: 69.1% en pruebas SWE-bench
- o4-mini: 68.1% de rendimiento, similar pero más ligero
Esto ocurre mientras ChatGPT sigue creciendo en popularidad, con más de 150 millones de usuarios activos semanales, impulsados en parte por tendencias como el arte AI estilo Ghibli.