🔠Modelos de texto
Modelos listos para usar (instruidos)
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (instruido)
Nombre modelo
salamandra-7b-instruct
Model card
Comentarios
Modelo salamandra-7b entrenado con 276 mil instrucciones en inglés, español y catalán, recopiladas de diversos corpus abiertos.
Descripción / Función
Modelo de lenguaje de gran escala (LLM) de propósito general (instruido)
Nombre modelo
salamandra-2b-instruct
Model card
Comentarios
Modelo salamandra-2b entrenado con 276 mil instrucciones en inglés, español y catalán, recopiladas de diversos corpus abiertos.
Modelos para desarrolladores (fundacionales y para fine-tuning)
Modelo de lenguaje de gran escala (LLM) de propósito general (modelo fundacional)
ALIA-40b
Modelo generativo multilingüe, entrenado desde cero en 35 idiomas europeos, con 40 mil millones de parámetros y 9,37 billones de tokens.
Modelo de lenguaje de gran escala (LLM) especializado en imágenes y videos
salamandra-7b-vision
Modelo salamandra-7b adaptado para el procesamiento de imágenes y videos.
Modelo de lenguaje de gran escala (LLM) de propósito general (modelo fundacional)
salamandra-7b
Modelo generativo multilingüe, entrenado desde cero en 35 idiomas europeos, con 7 mil millones de parámetros y 12,875 billones de tokens.
Modelo de lenguaje de gran escala (LLM) de propósito general (modelo fundacional)
salamandra-2b
Modelo generativo multilingüe, entrenado desde cero en 35 idiomas europeos, con 2 mil millones de parámetros y 12,875 billones de tokens.
Modelo transformer
mRoBERTa
Modelo RoBERTa multilingüe, entrenado en 35 idiomas y 92 lenguajes de programación, con un volumen total de 12,8 TB de datos.
Modelo transformer
RoBERTa-ca
Modelo de lenguaje de gran escala (LLM) de propósito general (modelo fundacional)
Aitana-2B-S
Modelo de lenguaje generativo base de generación de texto, entrenado con base en Salamandra-2B, utilizando datos en valenciano para lograr una mayor representación de esta lengua minoritaria, muy similar al catalán.
Adaptación de modelos para tareas específicas
Descripción / Función
Detección de fraudes
Nombre modelo
mRoBERTa_FT1_DFT1_fraude_phishing
Model card
Comentarios
Modelo fine-tuneado a partir de BSC-LT/mRoBERTa para la clasificación binaria de la detección de phishing en textos en inglés. Predice si un determinado SMS o correo electrónico pertenece o no a la categoría de phishing.
Última actualización