# Modelos de traducción automática

<table data-view="cards"><thead><tr><th>Descripción / Función</th><th>Nombre modelo</th><th data-type="content-ref">Model card</th><th>Comentarios</th></tr></thead><tbody><tr><td>Traducción automática multilingüe</td><td>SalamandraTA-7b-academic</td><td><a href="https://huggingface.co/BSC-LT/salamandraTA-7B-academic">https://huggingface.co/BSC-LT/salamandraTA-7B-academic</a></td><td>SalamandraTA-7b-instruct   ajustado con el conjunto de datos <a href="https://huggingface.co/datasets/BSC-LT/ACAData">ACAD-Train</a>.</td></tr><tr><td>Traducción automática multilingüe</td><td>SalamandraTA-7b-instruct</td><td><a href="https://huggingface.co/BSC-LT/salamandraTA-7b-instruct">https://huggingface.co/BSC-LT/salamandraTA-7b-instruct</a></td><td>SalamandraTA-7b-instruct es el resultado de un proceso de preentrenamiento continuo de Salamandra-7b con datos paralelos y técnicas de instrucción. SalamandraTA-7b-instruct destaca por su competencia en 35 lenguas europeas, además de 3 variedades regionales.</td></tr><tr><td>Traducción automática multilingüe</td><td>SalamandraTA-7b-instruct-GGUF</td><td><a href="https://huggingface.co/BSC-LT/salamandraTA-7B-instruct-GGUF">https://huggingface.co/BSC-LT/salamandraTA-7B-instruct-GGUF</a></td><td>Versión cuantizada GGUF del modelo SalamandraTA-7b-instruct.</td></tr><tr><td>Traducción automática multilingüe</td><td>SalamandraTA-2b-academic</td><td><a href="https://huggingface.co/BSC-LT/salamandraTA-2B-academic">https://huggingface.co/BSC-LT/salamandraTA-2B-academic</a></td><td>SalamandraTA-2b-instruct   ajustado con el conjunto de datos <a href="https://huggingface.co/datasets/BSC-LT/ACAData">ACAD-Train</a>.</td></tr><tr><td>Traducción automática multilingüe</td><td>SalamandraTA-2b-instruct</td><td><a href="https://huggingface.co/BSC-LT/salamandraTA-2b-instruct">https://huggingface.co/BSC-LT/salamandraTA-2b-instruct</a></td><td>SalamandraTA-2b-instruct es el resultado de un proceso de preentrenamiento continuo de Salamandra-2b con datos paralelos y técnicas de instrucción. SalamandraTA-7b-instruct destaca por su competencia en 35 lenguas europeas, además de 3 variedades regionales.</td></tr><tr><td>Traducción automática multilingüe</td><td>SalamandraTA-2b-instruct-GGUF</td><td><a href="https://huggingface.co/BSC-LT/salamandraTA-2B-instruct-GGUF">https://huggingface.co/BSC-LT/salamandraTA-2B-instruct-GGUF</a></td><td>Versión cuantizada GGUF del modelo SalamandraTA-2b-instruct.</td></tr><tr><td>Traducción automática Español-Valenciano</td><td>Aitana-TA-2B-S</td><td><a href="https://huggingface.co/gplsi/Aitana-TA-2B-S">https://huggingface.co/gplsi/Aitana-TA-2B-S</a></td><td>LLM especializado en traducción, ajustado mediante aprendizaje por instrucciones (<em>instruction tuning</em>) a partir de <a href="https://app.gitbook.com/u/hVFuNmnAkdYh2koa8IfCY68laDI2">SalamandraTA-2b-Instruct</a>. Este modelo está específicamente optimizado para la traducción entre español y valenciano, con un enfoque centrado en la traducción a nivel de oración.</td></tr><tr><td>Traducción automática Español → Gallego</td><td>Nos_MT-CT2-es-gl</td><td><a href="https://huggingface.co/proxectonos/Nos_MT-CT2-es-gl">https://huggingface.co/proxectonos/Nos_MT-CT2-es-gl</a></td><td>Modelo de traducción español-gallego desarrollado con OpenNMT-py 3.5.2, utilizando una arquitectura Transformer. Posteriormente, el modelo fue convertido al formato de CTranslate2.</td></tr><tr><td>Traducción automática Gallego → Español</td><td>Nos_MT-CT2-gl_es</td><td><a href="https://huggingface.co/proxectonos/Nos_MT-CT2-gl-es">https://huggingface.co/proxectonos/Nos_MT-CT2-gl-es</a></td><td>Modelo de traducción gallego-español desarrollado con OpenNMT-py 3.5.2, utilizando una arquitectura Transformer. Posteriormente, el modelo fue convertido al formato de CTranslate2.</td></tr><tr><td>Traducción automática Inglés → Gallego</td><td>Nos_MT-CT2-en-gl</td><td><a href="https://huggingface.co/proxectonos/Nos_MT-CT2-en-gl">https://huggingface.co/proxectonos/Nos_MT-CT2-en-gl</a></td><td>Modelo de traducción inglés-gallego desarrollado con OpenNMT-py 3.5.2, utilizando una arquitectura Transformer. Posteriormente, el modelo fue convertido al formato de CTranslate2.</td></tr><tr><td>Traducción automática Gallego → Inglés</td><td>Nos_MT-CT2-gl-en</td><td><a href="https://huggingface.co/proxectonos/Nos_MT-CT2-gl-en">https://huggingface.co/proxectonos/Nos_MT-CT2-gl-en</a></td><td>Modelo de traducción gallego-inglés desarrollado con OpenNMT-py 3.5.2, utilizando una arquitectura Transformer. Posteriormente, el modelo fue convertido al formato de CTranslate2.</td></tr><tr><td>Traducción automática Gallego → Catalán</td><td>aina-translator-gl-ca</td><td><a href="https://huggingface.co/projecte-aina/aina-translator-gl-ca">https://huggingface.co/projecte-aina/aina-translator-gl-ca</a></td><td>Modelo de traducción gallego-catalán desarrollado desde cero con <a href="https://fairseq.readthedocs.io/en/latest/">Fairseq</a>, entrenado sobre un corpus de cerca de 75 millones de pares de frases, que integra datos paralelos auténticos recopilados de la web y datos sintéticos generados mediante el traductor <a href="https://huggingface.co/proxectonos/Nos_MT-OpenNMT-es-gl">Proxecto Nós</a>.</td></tr><tr><td>Traducción automática Vasco → Catalán</td><td>aina-translator-eu-ca</td><td><a href="https://huggingface.co/projecte-aina/aina-translator-eu-ca">https://huggingface.co/projecte-aina/aina-translator-eu-ca</a></td><td>Modelo de traducción vasco-catalán desarrollado desde cero con <a href="https://fairseq.readthedocs.io/en/latest/">Fairseq</a>, entrenado sobre un corpus de cerca de 75 millones de pares de frases, que integra datos paralelos auténticos recopilados de la web y datos sintéticos generados mediante el traductor ES-EU <a href="http://hitz.eus/">HiTZ</a>.</td></tr><tr><td>Traducción automática Español-Asturiano</td><td>aina-translator-es-ast</td><td><a href="https://huggingface.co/projecte-aina/aina-translator-es-ast">https://huggingface.co/projecte-aina/aina-translator-es-ast</a></td><td>Modelo de traducción español-asturiano, resultado de un ajuste completo (<em>full fine-tuning</em>) del modelo <a href="https://huggingface.co/facebook/nllb-200-distilled-600M">NLLB-200-600M</a> sobre un corpus paralelo español-asturiano. </td></tr><tr><td>Traducción automática Español-Aragonés</td><td>aina-translator-es-an</td><td><a href="https://huggingface.co/projecte-aina/aina-translator-es-an">https://huggingface.co/projecte-aina/aina-translator-es-an</a></td><td>Modelo de traducción español-aragonés, resultado de un ajuste completo (<em>full fine-tuning</em>) del modelo <a href="https://huggingface.co/facebook/nllb-200-distilled-600M">NLLB-200-600M</a> sobre un corpus paralelo español-aragonés.</td></tr><tr><td>Traducción automática Español-Aranés</td><td>aina-translator-es-oc</td><td><a href="https://huggingface.co/projecte-aina/aina-translator-es-oc">https://huggingface.co/projecte-aina/aina-translator-es-oc</a></td><td>Modelo de traducción español-aranés, resultado de un ajuste completo (<em>full fine-tuning</em>) del modelo <a href="https://huggingface.co/facebook/nllb-200-distilled-600M">NLLB-200-600M</a> sobre un corpus paralelo español-aranés.</td></tr></tbody></table>


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://langtech-bsc.gitbook.io/alia-kit/modelos/modelos-de-traduccion-automatica.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
