# Modelos de traducción automática

<table data-view="cards"><thead><tr><th>Descripción / Función</th><th>Nombre modelo</th><th data-type="content-ref">Model card</th><th>Comentarios</th></tr></thead><tbody><tr><td>Traducción automática multilingüe</td><td>SalamandraTA-7b-academic</td><td><a href="https://huggingface.co/BSC-LT/salamandraTA-7B-academic">https://huggingface.co/BSC-LT/salamandraTA-7B-academic</a></td><td>SalamandraTA-7b-instruct   ajustado con el conjunto de datos <a href="https://huggingface.co/datasets/BSC-LT/ACAData">ACAD-Train</a>.</td></tr><tr><td>Traducción automática multilingüe</td><td>SalamandraTA-7b-instruct</td><td><a href="https://huggingface.co/BSC-LT/salamandraTA-7b-instruct">https://huggingface.co/BSC-LT/salamandraTA-7b-instruct</a></td><td>SalamandraTA-7b-instruct es el resultado de un proceso de preentrenamiento continuo de Salamandra-7b con datos paralelos y técnicas de instrucción. SalamandraTA-7b-instruct destaca por su competencia en 35 lenguas europeas, además de 3 variedades regionales.</td></tr><tr><td>Traducción automática multilingüe</td><td>SalamandraTA-7b-instruct-GGUF</td><td><a href="https://huggingface.co/BSC-LT/salamandraTA-7B-instruct-GGUF">https://huggingface.co/BSC-LT/salamandraTA-7B-instruct-GGUF</a></td><td>Versión cuantizada GGUF del modelo SalamandraTA-7b-instruct.</td></tr><tr><td>Traducción automática multilingüe</td><td>SalamandraTA-2b-academic</td><td><a href="https://huggingface.co/BSC-LT/salamandraTA-2B-academic">https://huggingface.co/BSC-LT/salamandraTA-2B-academic</a></td><td>SalamandraTA-2b-instruct   ajustado con el conjunto de datos <a href="https://huggingface.co/datasets/BSC-LT/ACAData">ACAD-Train</a>.</td></tr><tr><td>Traducción automática multilingüe</td><td>SalamandraTA-2b-instruct</td><td><a href="https://huggingface.co/BSC-LT/salamandraTA-2b-instruct">https://huggingface.co/BSC-LT/salamandraTA-2b-instruct</a></td><td>SalamandraTA-2b-instruct es el resultado de un proceso de preentrenamiento continuo de Salamandra-2b con datos paralelos y técnicas de instrucción. SalamandraTA-7b-instruct destaca por su competencia en 35 lenguas europeas, además de 3 variedades regionales.</td></tr><tr><td>Traducción automática multilingüe</td><td>SalamandraTA-2b-instruct-GGUF</td><td><a href="https://huggingface.co/BSC-LT/salamandraTA-2B-instruct-GGUF">https://huggingface.co/BSC-LT/salamandraTA-2B-instruct-GGUF</a></td><td>Versión cuantizada GGUF del modelo SalamandraTA-2b-instruct.</td></tr><tr><td>Traducción automática Español-Valenciano</td><td>Aitana-TA-2B-S</td><td><a href="https://huggingface.co/gplsi/Aitana-TA-2B-S">https://huggingface.co/gplsi/Aitana-TA-2B-S</a></td><td>LLM especializado en traducción, ajustado mediante aprendizaje por instrucciones (<em>instruction tuning</em>) a partir de <a href="https://app.gitbook.com/u/hVFuNmnAkdYh2koa8IfCY68laDI2">SalamandraTA-2b-Instruct</a>. Este modelo está específicamente optimizado para la traducción entre español y valenciano, con un enfoque centrado en la traducción a nivel de oración.</td></tr><tr><td>Traducción automática Español → Gallego</td><td>Nos_MT-CT2-es-gl</td><td><a href="https://huggingface.co/proxectonos/Nos_MT-CT2-es-gl">https://huggingface.co/proxectonos/Nos_MT-CT2-es-gl</a></td><td>Modelo de traducción español-gallego desarrollado con OpenNMT-py 3.5.2, utilizando una arquitectura Transformer. Posteriormente, el modelo fue convertido al formato de CTranslate2.</td></tr><tr><td>Traducción automática Gallego → Español</td><td>Nos_MT-CT2-gl_es</td><td><a href="https://huggingface.co/proxectonos/Nos_MT-CT2-gl-es">https://huggingface.co/proxectonos/Nos_MT-CT2-gl-es</a></td><td>Modelo de traducción gallego-español desarrollado con OpenNMT-py 3.5.2, utilizando una arquitectura Transformer. Posteriormente, el modelo fue convertido al formato de CTranslate2.</td></tr><tr><td>Traducción automática Inglés → Gallego</td><td>Nos_MT-CT2-en-gl</td><td><a href="https://huggingface.co/proxectonos/Nos_MT-CT2-en-gl">https://huggingface.co/proxectonos/Nos_MT-CT2-en-gl</a></td><td>Modelo de traducción inglés-gallego desarrollado con OpenNMT-py 3.5.2, utilizando una arquitectura Transformer. Posteriormente, el modelo fue convertido al formato de CTranslate2.</td></tr><tr><td>Traducción automática Gallego → Inglés</td><td>Nos_MT-CT2-gl-en</td><td><a href="https://huggingface.co/proxectonos/Nos_MT-CT2-gl-en">https://huggingface.co/proxectonos/Nos_MT-CT2-gl-en</a></td><td>Modelo de traducción gallego-inglés desarrollado con OpenNMT-py 3.5.2, utilizando una arquitectura Transformer. Posteriormente, el modelo fue convertido al formato de CTranslate2.</td></tr><tr><td>Traducción automática Gallego → Catalán</td><td>aina-translator-gl-ca</td><td><a href="https://huggingface.co/projecte-aina/aina-translator-gl-ca">https://huggingface.co/projecte-aina/aina-translator-gl-ca</a></td><td>Modelo de traducción gallego-catalán desarrollado desde cero con <a href="https://fairseq.readthedocs.io/en/latest/">Fairseq</a>, entrenado sobre un corpus de cerca de 75 millones de pares de frases, que integra datos paralelos auténticos recopilados de la web y datos sintéticos generados mediante el traductor <a href="https://huggingface.co/proxectonos/Nos_MT-OpenNMT-es-gl">Proxecto Nós</a>.</td></tr><tr><td>Traducción automática Vasco → Catalán</td><td>aina-translator-eu-ca</td><td><a href="https://huggingface.co/projecte-aina/aina-translator-eu-ca">https://huggingface.co/projecte-aina/aina-translator-eu-ca</a></td><td>Modelo de traducción vasco-catalán desarrollado desde cero con <a href="https://fairseq.readthedocs.io/en/latest/">Fairseq</a>, entrenado sobre un corpus de cerca de 75 millones de pares de frases, que integra datos paralelos auténticos recopilados de la web y datos sintéticos generados mediante el traductor ES-EU <a href="http://hitz.eus/">HiTZ</a>.</td></tr><tr><td>Traducción automática Español-Asturiano</td><td>aina-translator-es-ast</td><td><a href="https://huggingface.co/projecte-aina/aina-translator-es-ast">https://huggingface.co/projecte-aina/aina-translator-es-ast</a></td><td>Modelo de traducción español-asturiano, resultado de un ajuste completo (<em>full fine-tuning</em>) del modelo <a href="https://huggingface.co/facebook/nllb-200-distilled-600M">NLLB-200-600M</a> sobre un corpus paralelo español-asturiano. </td></tr><tr><td>Traducción automática Español-Aragonés</td><td>aina-translator-es-an</td><td><a href="https://huggingface.co/projecte-aina/aina-translator-es-an">https://huggingface.co/projecte-aina/aina-translator-es-an</a></td><td>Modelo de traducción español-aragonés, resultado de un ajuste completo (<em>full fine-tuning</em>) del modelo <a href="https://huggingface.co/facebook/nllb-200-distilled-600M">NLLB-200-600M</a> sobre un corpus paralelo español-aragonés.</td></tr><tr><td>Traducción automática Español-Aranés</td><td>aina-translator-es-oc</td><td><a href="https://huggingface.co/projecte-aina/aina-translator-es-oc">https://huggingface.co/projecte-aina/aina-translator-es-oc</a></td><td>Modelo de traducción español-aranés, resultado de un ajuste completo (<em>full fine-tuning</em>) del modelo <a href="https://huggingface.co/facebook/nllb-200-distilled-600M">NLLB-200-600M</a> sobre un corpus paralelo español-aranés.</td></tr></tbody></table>
