Inicio España Así es Arctic, el nuevo LLM de código abierto para empresas de...

Así es Arctic, el nuevo LLM de código abierto para empresas de Snowflake con capacidades similares a Meta Llama 3

0

MADRID, 29 (Portaltic/EP)

Snowflake ha presentado su nuevo modelo de lenguaje de gran tamaño (LLM), Arctic, que es igual o más efectivo que el último modelo de Meta, Llama 3, en tareas empresariales como instrucción de SQL y generación de código, además de tener un coste de formación bajo.

La compañía de almacenamiento de datos en la nube ha recordado que habitualmente, construir herramientas impulsadas por Inteligencia Artificial (IA) utilizando LLM para empresas «es costoso y requiere muchos recursos». En base a ello, han trabajado en un sistema que reduzca significativamente el coste de la capacitación y la inferencia de los LLM, y para que sea una tecnología más accesible y rentable.

En este marco, los miembros del equipo de Snowflake AI Research han presentado Arctic, un LLM «de primer nivel» enfocado a su uso en empresas, que es «eficientemente inteligente y verdaderamente abierto», ya que, por un lado, sobresale en tareas como la generación, codificación e instrucción de SQL; y por otro, utiliza la licencia Apache 2.0.

Leer más:  Mañana, Armengol y dos exmiembros del Gobierno balear asistirán a la comisión del Congreso para hablar sobre contratos durante la pandemia

Tal y como ha subrayado la compañía en un comunicado en su blog, las capacidades de Arctic están «a la par o mejor» que los modelos de IA recientemente presentados de Meta, Llama 3 8B y Llama 2 70B, en lo relacionado a las métricas empresariales de capacitación e inferencia, utilizando menos de la mitad del presupuesto de computación.

Concretamente, según ha dicho la tecnológica, a pesar de utilizar un presupuesto de computación 17 veces menor que Llama 3 70B, alcanza el mismo nivel de resultados en instrucción de SQL (puntuación de 79,0 de Arctic, frente a 80,2 de Llama 3 70B) y seguimiento de instrucciones, con una puntuación de 57,4 de Arctic, que supera a la puntuación de 43,6 que consigue el modelo de Meta.

Asimismo, Snowflake ha asegurado que, aunque utiliza menos presupuesto, lo hace «sin dejar de ser competitivo en cuanto a rendimiento general». Siguiendo esta línea, la tecnológica ha destacado que la «alta eficiencia de entrenamiento» de Arctic también permite a los usuarios y organizaciones entrenar modelos personalizados «de una manera mucho más asequible».

Leer más:  "Martirio opina que la copla debe ser pasada por el filtro del tiempo, algunas aún son actuales mientras que otras están obsoletas"

En este sentido, para lograr esta eficiencia en la capacitación, la compañía ha explicado que utiliza una arquitectura de transformador híbrido de Mezcla de Expertos (MoE) denso.

De esta forma, combina un modelo de transformador denso de 10B, con un MLP MoE residual de 128 x 3,66B, lo que, según ha dicho, da como resultado un total de 480B y 17B de parámetros activos «elegidos mediante una puerta de 2 niveles». Es decir, el modelo escoge y activa 17.000 millones de parámetros de entre sus 480.000 millones de parámetros a la vez, lo que asegura más eficiencia.

Además de todo ello, se trata de un LLM «verdaderamente abierto» debido a que Snowflake publica los pesos de Arctic a través de la licencia Apache 2.0, lo que permite compartir detalles sobre la investigación de la IA y la metodología de entrenamiento del modelo. Asimismo, permite utilizar Arctic tanto para fines comerciales como para investigación.

Con todo ello, Snowflake ha señalado que el LLM Arctic está disponible en las plataformas Hugging Face, Replicate y el catálogo de API de Nvidia. Además, estará disponible en Amazon AWS, Microsoft Azure, Lamini o Perplexity «en los próximos días».

Leer más:  Be Flat y Sylphes Aerial Ballet, galardonados en los premios MUECA 2024

- Te recomendamos -