A diferencia de ChatGPT o Bard, bots basados en IA que también son capaces de escribir código, esta herramienta de Meta incorpora elementos específicamente creados para asistir a programadores en su trabajo. Los detalles
La compañía tecnológica Meta lanzó Code Llama, un nuevo modelo de Inteligencia Artificial (IA) capaz de escribir y corregir código de programación. Esta herramienta funciona tanto a partir de instrucciones en lenguaje natural como en base a fragmentos de código.
A diferencia de ChatGPT o Bard, bots basados en IA que también son capaces de escribir código, esta herramienta de Meta incorpora elementos específicamente creados para asistir a programadores en su trabajo.
Code Llama se basa en Llama 2, el modelo de lenguaje masivo (LLM, por sus siglas en inglés) que la compañía lanzó hace ya un par de meses. Según explicaron sus creadores, esta nueva IA es compatible con los lenguajes de programación más populares, entre ellos Python, Javascript, PHP, C++, C# y Bash.
La herramienta puede utlizarse para completar bloques de código, encontrar errores y obtener recomendaciones de correcciones. Además, Meta precisó que este modelo es capaz de generar explicaciones en lenguaje natural sobre código.
Versiones especializadas
Los desarrolladores de Code Llama trabajaron para crear tres variantes del modelo. El principal está centrado en la generación de código, mientras que Code Llama-Python es una versión especializada, precisamente, en ese lenguaje de programación. En tanto, también existe Code Llama-Instruct, una tercera versión optimizada para comprender instrucciones en lenguaje natural.
Desde Meta recomendaron no usar Code Llama o Code Llama-Python para labores donde el método de entrada sean instrucciones en lenguaje natural, ya que dichos modelos solamente están preparados para tareas específicas a partir de código. Code Llama-Instruct, en cambio, sí está pensada para “entender mejor qué esperan obtener los humanos con sus prompts”.
Además, puesto que dependiendo de la tarea que el programador necesite llevar a cabo pueden ser necesarios más o menos recursos, Code Llama estará disponible en tres tamaños. La más pequeña llega con 7.000 millones de parámetros; la intermedia con 13.000 millones; y la más grande con 34.000 millones.
Todas las versiones se entrenaron con 500.000 millones de tokens de datos sobre código y otras informaciones vinculadas con programación. La gran diferencia radica en su velocidad de funcionamiento y en la complejidad de los resultados a ofrecer.
Es por ello que Meta explica que, por ejemplo, la versión de Code Llama con 7.000 millones de parámetros puede funcionar en un ordenador con una sola GPU. Además, ofrece respuestas más rápidas en tareas como completar líneas de código. Por su parte, la versión de 34.000 millones de parámetros es más precisa y ofrece mejores resultados, pero no está optimizada para labores en tiempo real.