Modelo masivo de lenguaje (LLM) de propósito general (modelo base)
ALIA-40B
Modelo generativo multilingüe (35 lenguas de Europa) de 40 mil millones de parámetros, entrenado desde cero con 9,2 billones de tokens.
Modelo masivo de lenguaje (LLM) de propósito general (modelo base)
salamandra-7b
Modelo generativo multilingüe (35 lenguas de Europa) de 7 mil millones de parámetros, entrenado desde cero con 7,8 billones de tokens.
Modelo masivo de lenguaje (LLM) de propósito general (instruido)
salamandra-7b-instruct
Modelo salamandra-7b entrenado con 276 mil instrucciones en inglés, castellano y catalán recogidas de varios corpus abiertos.
Modelo masivo de lenguaje (LLM) de propósito general (modelo base)
salamandra-2b
Modelo generativo multilingüe (35 lenguas de Europa) de 2 mil millones de parámetros, entrenado desde cero con 7,8 billones de tokens.
Modelo masivo de lenguaje (LLM) de propósito general (instruido)
salamandra-2b-instruct
Modelo salamandra-2b entrenado con 276 mil instrucciones en inglés, castellano y catalán recogidas de varios corpus abiertos.