šŸ” Modelos de texto

Modelos listos para usar (instruidos)

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (instruido)

Nombre modelo

salamandra-7b-instruct

Model card

Comentarios

Modelo salamandra-7b entrenado con 276 mil instrucciones en inglƩs, espaƱol y catalƔn, recopiladas de diversos corpus abiertos.

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (instruido)

Nombre modelo

salamandra-2b-instruct

Model card

Comentarios

Modelo salamandra-2b entrenado con 276 mil instrucciones en inglƩs, espaƱol y catalƔn, recopiladas de diversos corpus abiertos.

Modelos para desarrolladores (fundacionales y para fine-tuning)

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (modelo fundacional)

Nombre modelo

ALIA-40b

Comentarios

Modelo generativo multilingüe, entrenado desde cero en 35 idiomas europeos, con 40 mil millones de parÔmetros y 9,37 billones de tokens.

Descripción / Función

Modelo de lenguaje de gran escala (LLM) especializado en imƔgenes y videos

Nombre modelo

salamandra-7b-vision

Comentarios

Modelo salamandra-7b adaptado para el procesamiento de imƔgenes y videos.

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (modelo fundacional)

Nombre modelo

salamandra-7b

Comentarios

Modelo generativo multilingüe, entrenado desde cero en 35 idiomas europeos, con 7 mil millones de parÔmetros y 12,875 billones de tokens.

Descripción / Función

Modelo de lenguaje de gran escala (LLM) de propósito general (modelo fundacional)

Nombre modelo

salamandra-2b

Comentarios

Modelo generativo multilingüe, entrenado desde cero en 35 idiomas europeos, con 2 mil millones de parÔmetros y 12,875 billones de tokens.

Descripción / Función

Modelo transformer

Nombre modelo

mRoBERTa

Comentarios

Modelo RoBERTa multilingüe, entrenado en 35 idiomas y 92 lenguajes de programación, con un volumen total de 12,8 TB de datos.

Descripción / Función

Modelo transformer

Nombre modelo

RoBERTa-ca

Comentarios

Modelo para catalÔn basado en RoBERTa, con pesos inicializados desde mRoBERTa y ajustes en embeddings para diferencias de tokenización. Preentrenado de forma continua con 95 GB de datos en catalÔn de alta calidad.

Descripción / Función

Nombre modelo

Model card

Comentarios

Última actualización