Domingo 4 de Agosto de 2024 | San Luis Potosí, S.L.P.
negocios

Para gigantes de la IA, lo pequeño es mejor

Agencia Reforma | 10/07/2024 | 10:57

El comienzo de la carrera armamentista de la Inteligencia Artificial (IA) tuvo que ver con ir a lo grande: modelos gigantes entrenados con montañas de datos, intentando imitar la inteligencia a nivel humano, señaló The Wall Street Journal.

Ahora, los gigantes tecnológicos y las startups están pensando en algo más pequeño a medida que reducen el software de Inteligencia Artificial para hacerlo más barato, más rápido y más especializado, destacó el diario.

Esta categoría de software de IA, denominada modelos de lenguaje pequeño o mediano, se entrena con menos datos y, a menudo, está diseñada para tareas específicas.

Desarrollar los modelos más grandes, como el GPT-4 de OpenAI, cuesta más de 100 millones de dólares y utiliza más de un billón de parámetros, una medida de su tamaño.

Los modelos más pequeños a menudo se entrenan con conjuntos de datos más limitados (sólo sobre cuestiones legales, por ejemplo) y su entrenamiento puede costar menos de 10 millones de dólares, utilizando menos de 10 mil millones de parámetros.

Los modelos más pequeños también utilizan menos potencia informática y, por tanto, cuestan menos para responder a cada consulta, destacó el Journal.

Microsoft ha resaltado su familia de modelos pequeños llamados Phi, que según el director ejecutivo, Satya Nadella, tienen un tamaño 1/100 del modelo gratuito detrás de ChatGPT de OpenAI y realizan muchas tareas casi igual de bien.

"Creo que creemos cada vez más que será un mundo de modelos diferentes", señaló Yusuf Mehdi, director comercial de Microsoft.

Google, así como las startups de inteligencia artificial Mistral, Anthropic y Cohere, también lanzaron modelos más pequeños este año. Apple dio a conocer su propia hoja de ruta de IA en junio con planes de utilizar modelos pequeños para poder ejecutar el software en teléfonos para hacerlo más rápido y seguro.