Modelos de traducción automática
Última actualización
Última actualización
Traducción automática multilingüe
salamandraTA-2b
Model salamandra-2b entrenado con 70.000 millones de tokens de datos paralelos en 30 idiomas diferentes. Es el primer modelo de la serie SalamandraTA, está entrenado para una traducción automática a nivel de frases y párrafos.
Traducción automática multilingüe
Plume256k
Primer LLM entrenado desde cero para traducción automática neuronal con sólo datos paralelos centrados en catalán. Tiene la misma arquitectura que Gemma-2B.
Traducción automática multilingüe
Plume128k
Primer LLM entrenado desde cero para traducción automática neuronal con sólo datos paralelos centrados en catalán. Tiene la misma arquitectura que Gemma-2B.
Traducción automática multilingüe
Plume32k
Primer LLM entrenado desde cero para traducción automática neuronal con sólo datos paralelos centrados en catalán. Tiene la misma arquitectura que Gemma-2B.
Traducción automática Gallego → Catalán
aina-translator-gl-ca
Modelo de traducción gallego-catalán entrenado desde cero con Fairseq y un conjunto de aproximadamente 75 millones de pares de frases, que incluye datos paralelos auténticos recogidos de la web, y datos paralelos sintéticos creados con el traductor Proxecto Nós.
Traducción automática Vasco → Catalán
aina-translator-eu-ca
Traducción automática Español-Asturiano
aina-translator-es-ast
Modelo de traducción español-asturiano resultado de un ajuste completo del modelo NLLB-200-600M con un corpus español-asturiano.
Traducción automática Español-Aragonés
aina-translator-es-an
Modelo de traducción español-aragonés resultado de un ajuste completo del modelo NLLB-200-600M con un corpus español-aragonés.
Traducción automática Español-Aranés
aina-translator-es-oc
Modelo de traducción español-aranés resultado de un ajuste completo del modelo NLLB-200-600M con un corpus español-aranés.