¿Están aumentando los costos de la IA? No, si eres una empresa más pequeña.

Mark Zuckerberg sorprendió a los inversores la semana pasada con la cantidad exorbitante que Meta Platforms está gastando en el desarrollo de inteligencia artificial. El precio de las acciones de la compañía ha caído casi un 12 por ciento desde que su presidente y director ejecutivo pronosticó que su gasto de capital sería de entre $35 mil millones y $40 mil millones este año, lo que sería hasta un 42 por ciento más alto que el año anterior.

No está solo. Todas las grandes empresas tecnológicas están aumentando su gasto en IA. En el último trimestre, Microsoft gastó $14 mil millones, un aumento del 79 por ciento y un número que espera que “aumente sustancialmente” en el próximo año. Alphabet gastó $12 mil millones en el último trimestre, un aumento del 91 por ciento interanual.

Al analizar los datos, la energía y la potencia informática necesarias para la IA generativa, no es sorprendente que entrenar estos modelos cada vez más avanzados, que pueden hacer cosas cada vez más inteligentes, se esté volviendo cada vez más costoso. Sin embargo, mientras las grandes empresas tecnológicas gastan miles de millones de dólares, las empresas más pequeñas están descubriendo que el costo de usar modelos de IA generativa está disminuyendo. Tanto es así que se están abriendo nuevas fronteras para las empresas.

Tomemos como ejemplo a Olio. La popular plataforma para regalar alimentos no deseados exploró el uso de la IA generativa en octubre de 2023, cuando descubrió que costaría aproximadamente $80,000 para su uso durante un año. En enero de 2024, la empresa volvió a preguntar y descubrió que costaría $35,000. Más tarde, el costo bajó a $4,000. Muchas otras empresas, en diferentes sectores, cuentan una historia similar. Una firma de tecnología legal dijo que su costo había disminuido en un 80 por ciento desde octubre.

Como dijo Joshua Wohle, director ejecutivo de Mindstone AI: “El costo de estos modelos simplemente sigue cayendo en picada”.

Sean Williams, quien dirige autogenAI, ha visto que los costos de usar los “modelos de lenguaje grandes” subyacentes han disminuido un 50 por ciento en el último año. Comparó estos modelos fundamentales con “electricidad”, diciendo que se habían vuelto “esencialmente comoditizados”.

Entonces, ¿qué está sucediendo? Es difícil establecer una solución única cuando se trata de costos, ya que algunas empresas tienen acuerdos personalizados. Sin embargo, parece que la creciente competencia entre OpenAI, Anthropic, Google, Mistral AI y modelos de código abierto como Falcon del Technology Innovation Institute y LLaMA de Meta significa que todos están tratando de tentar a los clientes. Simplemente hay más opciones disponibles.

OpenAI dijo que no estaba reduciendo sus precios, pero eche un vistazo a sus modelos más nuevos y son mucho más baratos. Para aquellos de nosotros que no somos directores técnicos, aquí hay una hoja de trucos rápida. Los desarrolladores pagan para integrar interfaces de programación de aplicaciones de OpenAI en sus propias aplicaciones, para acceder a ciertas versiones de GPT. Los costos generalmente se basan en la cantidad de “tokens” que se procesan, la información que entra y sale. La salida cuesta más que la entrada. Un token equivale a aproximadamente cuatro letras; por ejemplo, te compraría “palabra” o “ayuda”.

Tomemos como ejemplo el último modelo de OpenAI, GPT-4 Turbo. Es mucho más poderoso que su predecesor, GPT-4. Sus ventanas de contexto son más grandes, por decir algo. Esta es la cantidad de información que los modelos pueden procesar a la vez. Esto también reduce el trabajo que los desarrolladores tienen que hacer. “Simplemente puedes enviar más datos a OpenAI o a cualquier otra plataforma para que haga el trabajo por ti”, comentó un director técnico.

OpenAI es el productor de ChatGPT, el programa de inteligencia artificial que ha generado una gran emoción en los negocios

Para esta última versión de GPT, con una ventana de contexto de 128,000, conocimiento más actualizado y el conjunto más amplio de capacidades, cuesta $10 por un millón de tokens de entrada y $30 por un millón de tokens de salida. Para GPT-4, el modelo anterior con una ventana de contexto de 8,000, el costo es tres veces mayor para la entrada, $30 por un millón de tokens, y el doble de precio, $60 por un millón de tokens de salida; mientras que una ventana de contexto de 32,000 cuesta $60 por un millón de tokens de entrada y $120 por un millón de tokens de salida.

Algunos modelos nuevos se ofrecen a precios reducidos, por ejemplo, Gemini 1.5Pro de Google es temporalmente gratuito para la prueba de una ventana de contexto de un millón.

Como describió el gerente de IA líder de una empresa: “Es una carrera hacia el fondo en cuanto a precios. A menos que alguien establezca una dominancia en el mercado con características nuevas increíbles o una gran mejora en la salida, esperemos que se mantenga así. En este momento, es muy bueno para los consumidores”.

Katie Prescott es la editora de tecnología empresarial de The Times. [email protected]