LogoLogo
LogoLogo
  • Inicio
  • 🤗Modelos
    • 🔠Modelos de texto
    • ↔️Modelos de traducción automática
  • 📚Datasets
    • 🔠Datos y herramientas para modelos de texto
      • Datasets de pre entrenamiento ALIA 40B
    • 🗣️Datos y herramientas para modelos de voz
    • ↔️Datos para la traducción automática
  • 🕹️Demostradores
    • 🤗En Spaces de Hugging Face
    • Page
Con tecnología de GitBook
En esta página
Exportar como PDF
  1. Modelos

Modelos de texto

AnteriorInicioSiguienteModelos de traducción automática

Última actualización hace 1 mes

Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
🤗
🔠

Modelo masivo de lenguaje (LLM) de propósito general (modelo base)

ALIA-40B

Modelo generativo multilingüe (35 lenguas de Europa) de 40 mil millones de parámetros, entrenado desde cero con 9,37 billones de tokens.

Modelo masivo de lenguaje (LLM) de propósito general (modelo base)

salamandra-7b

Modelo generativo multilingüe (35 lenguas de Europa) de 7 mil millones de parámetros, entrenado desde cero con 12,875 billones de tokens.

Modelo masivo de lenguaje (LLM) de propósito general (instruido)

salamandra-7b-instruct

Modelo salamandra-7b entrenado con 276 mil instrucciones en inglés, castellano y catalán recogidas de varios corpus abiertos.

Modelo masivo de lenguaje (LLM) de propósito general (modelo base)

salamandra-2b

Modelo generativo multilingüe (35 lenguas de Europa) de 2 mil millones de parámetros, entrenado desde cero con 12,9 billones de tokens.

Modelo masivo de lenguaje (LLM) de propósito general (instruido)

salamandra-2b-instruct

Modelo salamandra-2b entrenado con 276 mil instrucciones en inglés, castellano y catalán recogidas de varios corpus abiertos.

Modelo transformer

mRoBERTa

Modelo multilingüe basado en la arquitectura y entrenado con 35 idiomas y 92 lenguajes de programación, sumando un total de 12,8 TB de datos.

Modelo transformer

RoBERTa-ca

Modelo para el catalán basado en la arquitectura . Utiliza una adaptación del vocabulario de , un método que inicializa todos los pesos a partir de mRoBERTa mientras aplica un tratamiento especial a la matriz de embeddings para gestionar las diferencias entre los dos tokenizadores. Luego, el modelo se preentrena de manera continua con un corpus exclusivamente en catalán, que contiene 95 GB de datos de alta calidad.

https://huggingface.co/BSC-LT/ALIA-40b
https://huggingface.co/BSC-LT/salamandra-7b
https://huggingface.co/BSC-LT/salamandra-7b-instruct
https://huggingface.co/BSC-LT/salamandra-2b
https://huggingface.co/BSC-LT/salamandra-2b-instruct
https://huggingface.co/BSC-LT/mRoBERTa
RoBERTa
https://huggingface.co/BSC-LT/RoBERTa-ca
RoBERTa
mRoBERTa