LogoLogo
LogoLogo
  • Inicio
  • 🤗Modelos
    • 🔠Modelos de texto
    • ↔️Modelos de traducción automática
  • 📚Datasets
    • 🔠Datos y herramientas para modelos de texto
      • Datasets de pre entrenamiento ALIA 40B
    • 🗣️Datos y herramientas para modelos de voz
    • ↔️Datos para la traducción automática
  • 🕹️Demostradores
    • 🤗En Spaces de Hugging Face
    • Page
Con tecnología de GitBook
En esta página
Exportar como PDF
  1. Modelos

Modelos de traducción automática

AnteriorModelos de textoSiguienteDatos y herramientas para modelos de texto

Última actualización hace 2 meses

Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios
Descripción / Función
Nombre modelo
Model card
Comentarios

SalamandraTA-7b-instruct

🤗
↔️

Traducción automática multilingüe

SalamandraTA-7b-instruct

Modelo basado en SalamandraTA-7b-base, entrenado continuamente con datos paralelos (424 mil millones de tokens) y utilizado internamente. Cubre 37 idiomas europeos y permite diversas tareas de traducción. Modelo ajustado con unas 135.000 instrucciones, priorizando el catalán, el inglés y el español, con datos adicionales para lenguas europeas cercanas con el fin de mejorar el rendimiento global.

Traducción automática multilingüe

SalamandraTA-7b-instruct-GGUF

Versión cuantificada en GGUF del modelo SalamandraTA-7b-instruct.

Traducción automática multilingüe

salamandraTA-2b

Model entrenado con 70.000 millones de tokens de datos paralelos en 30 idiomas diferentes. Es el primer modelo de la serie SalamandraTA, está entrenado para una traducción automática a nivel de frases y párrafos.

Traducción automática multilingüe

Plume256k

Primer LLM entrenado desde cero para traducción automática neuronal con sólo datos paralelos centrados en catalán. Tiene la misma arquitectura que .

Traducción automática multilingüe

Plume128k

Primer LLM entrenado desde cero para traducción automática neuronal con sólo datos paralelos centrados en catalán. Tiene la misma arquitectura que .

Traducción automática multilingüe

Plume32k

Primer LLM entrenado desde cero para traducción automática neuronal con sólo datos paralelos centrados en catalán. Tiene la misma arquitectura que .

Traducción automática Gallego → Catalán

aina-translator-gl-ca

Modelo de traducción gallego-catalán entrenado desde cero con y un conjunto de aproximadamente 75 millones de pares de frases, que incluye datos paralelos auténticos recogidos de la web, y datos paralelos sintéticos creados con el traductor .

Traducción automática Vasco → Catalán

aina-translator-eu-ca

Modelo de traducción vasco-catalán entrenado desde cero con y un conjunto de aproximadamente 75 millones de pares de frases, que incluye datos paralelos auténticos recogidos de la web, y datos paralelos sintéticos creados con el traductor ES-EU .

Traducción automática Español-Asturiano

aina-translator-es-ast

Modelo de traducción español-asturiano resultado de un ajuste completo del modelo con un corpus español-asturiano.

Traducción automática Español-Aragonés

aina-translator-es-an

Modelo de traducción español-aragonés resultado de un ajuste completo del modelo con un corpus español-aragonés.

Traducción automática Español-Aranés

aina-translator-es-oc

Modelo de traducción español-aranés resultado de un ajuste completo del modelo con un corpus español-aranés.

https://huggingface.co/BSC-LT/salamandraTA-7b-instruct
https://huggingface.co/BSC-LT/salamandraTA-7B-instruct-GGUF
https://huggingface.co/BSC-LT/salamandraTA-2B/
https://huggingface.co/projecte-aina/Plume256k
https://huggingface.co/projecte-aina/Plume128k
https://huggingface.co/projecte-aina/Plume32k
https://huggingface.co/projecte-aina/aina-translator-gl-ca
https://huggingface.co/projecte-aina/aina-translator-eu-ca
https://huggingface.co/projecte-aina/aina-translator-es-ast
https://huggingface.co/projecte-aina/aina-translator-es-an
https://huggingface.co/projecte-aina/aina-translator-es-oc
salamandra-2b
Gemma-2B
Gemma-2B
Gemma-2B
Fairseq
Proxecto Nós
Fairseq
HiTZ
NLLB-200-600M
NLLB-200-600M
NLLB-200-600M