👶Adopción (FAQ)

Preguntas Frecuentes:

Índice


¿Los modelos del Alia Kit cubren varios idiomas o solo español?

La mayoría de los modelos de Alia Kit son multilingües, con fuerte soporte al español y a las lenguas cooficiales (català, euskera, gallego). Por ejemplo, ALIA-40B fue entrenado en 35 idiomas europeos (incluyendo español, inglés, francés, catalán, etc.). Esto les permite comprender y generar texto en múltiples lenguas.


¿Qué modelos de texto ofrece el Alia Kit?

Los modelos de texto del Alia Kit se pueden agrupar en varias familias principales, cada una con sus propias características y casos de uso. Se pueden encontrar con sus descripciones respectivas en la página de modelos de texto.

Las familias de modelos más relevantes son:

  • Familia ALIA: Es una de las generaciones más recientes y avanzadas de LLMs del proyecto. Su principal representante es el ALIA-40B, un modelo multilingüe (cubre 35 lenguas europeas) con un especial énfasis en las lenguas cooficiales de España. Tiene 40 mil millones de parámetros y fue entrenado desde cero en el superordenador MareNostrum 5. Por ahora, está disponible su versión fundacional (para desarrolladores y fine-tuning).

  • Familia Salamandra: Dentro de la misma iniciativa de desarrollo que ALIA-40B, los modelos Salamandra también son parte de la generación más reciente y avanzada. También son modelos multilingües (cubren 35 lenguas europeas) y están disponibles en varios tamaños y en tres variantes: instruidos (listos para usar), fundacionales (para desarrolladores y fine-tuning) y adaptados a tareas específicas. Son la opción recomendada para la mayoría de los nuevos proyectos que requieran capacidades generativas.


¿Qué diferencia hay entre un modelo instruido (listo para usar), un modelo fundacional (para desarrolladores y fine-tuning) y un modelo adaptado a tareas específicas?

  • Modelos Fundacionales: Un modelo fundacional, como salamandra-7b o ALIA-40B, ha sido entrenado en una tarea muy simple: predecir la siguiente palabra en una secuencia de texto a partir de un corpus masivo. El resultado es un modelo con un vasto conocimiento lingüístico y del mundo, pero que no está diseñado para interactuar directamente con un usuario o seguir órdenes. Su principal utilidad es servir como "base" sobre la cual los desarrolladores pueden realizar un ajuste fino (fine-tuning) para tareas muy especializadas.

  • Modelos Instruidos: Un modelo instruido, como salamandra-7b-instruct, es un modelo fundacional que ha pasado por una segunda fase de entrenamiento. En esta fase, se le ajusta con un conjunto de datos que consiste en miles de ejemplos de "instrucciones" y las "respuestas" deseadas (como el dataset MentorES). Este proceso le enseña al modelo a comportarse como un asistente: a responder preguntas, a seguir órdenes y a mantener un diálogo coherente. Son los modelos "listos para usar" para la creación de chatbots y aplicaciones conversacionales.

  • Modelo adaptado a tareas específicas: Un modelo que ha sido ajustado o entrenado específicamente para un dominio o función particular, como reconocimiento de entidades (NER), clasificación textual, anotación morfosintáctica (POS), etc. Suele ofrecer mejores resultados en ese campo concreto, aunque es menos flexible para otras tareas.


¿Qué es RAG (Retrieval-Augmented Generation)? ¿Ofrece el Alia Kit modelos y datasets para tareas de RAG?

En un LLM estándar, el modelo genera respuestas basándose únicamente en la información que "aprendió" durante su entrenamiento. Esto tiene dos limitaciones principales: la información puede estar desactualizada y el modelo puede "alucinar" o inventar datos si no conoce la respuesta. RAG soluciona esto conectando el LLM a una base de conocimiento externa (por ejemplo, la documentación interna de una empresa, ficheros PDF o artículos de noticias recientes). Antes de generar una respuesta, el sistema primero recupera los documentos más relevantes de esa base de conocimiento y luego los proporciona al LLM como contexto para que genere una respuesta precisa y fundamentada en esos datos.

Sí, los modelos instruidos del Alia Kit (como Salamandra-7B-instructed y Salamandra-2B-instructed) son capaces de realizar flujos RAG para responder preguntas basándose en contextos externos. Se pueden encontrar en la página de modelos de texto.

Además, está disponible el dataset RAG_Multilingual, un conjunto de datos que contiene más de 56.000 ejemplos de preguntas, contextos y respuestas en catalán, castellano e inglés, diseñado explícitamente para entrenar y evaluar sistemas RAG. Disponible en este enlace.


¿Qué modelos de voz (habla) ofrece el Alia Kit?

El Alia Kit ofrece modelos de vanguardia para las dos tareas fundamentales de la tecnología del habla:

  • Síntesis de Voz (Text-to-Speech, TTS): Modelos que convierten texto escrito en audio hablado.

  • Reconocimiento Automático del Habla (Automatic Speech Recognition, ASR): Modelos que transcriben audio hablado a texto escrito.

Los modelos de voz del Alia Kit y sus descripciones se pueden encontrar en la página de modelos de voz.


¿Cuál es la diferencia entre los modelos de texto y los modelos de traducción automática?

Los modelos de texto del Alia Kit son modelos de lenguaje general capaces de generar, comprender y manipular texto en diferentes idiomas y contextos, mientras que los modelos de traducción automática están específicamente diseñados para convertir texto de un idioma a otro con alta fidelidad y precisión, por lo que la principal diferencia es que los primeros son versátiles y útiles para tareas como redacción, resumen o diálogo, mientras que los segundos se centran exclusivamente en la tarea de traducir de forma eficiente y controlada.

Los modelos de traducción automática y sus descripciones se pueden encontrar en la página de modelos de traducción automática.


¿Los modelos del Alia Kit están disponibles como APIs?

Por ahora el Alia Kit no ofrece sus modelos mediante una API propia: los publica como repositorios en Hugging Face junto con sus model cards, para que cualquiera pueda desplegarlos usando frameworks como Transformers, FastAPI, o Gradio, o utilizarlos como endpoints en varias plataformas, incluida la propia Hugging Face Inference Endpoints, en Amazon Web Services, Azure, etc.


¿Cómo puedo empezar a usar y probar los modelos del Alia Kit de forma local o para prototipos?

Para usar los modelos del Alia Kit existen varias opciones según las necesidades del usuario:

  • Algunos modelos del Alia Kit se encuentran disponibles en un Space de demonstración en Hugging Face (ChatUI), para pruebas rápidas de inferencia.

  • Instalación local con código Python: Descargar los pesos desde Hugging Face y cargarlos con la biblioteca Transformers. Es necesario crear un entorno virtual, instalar las librerías clave como torch y transformers y luego cargar el modelo. Hay ejemplos de código en las model cards de cada modelo específico.

  • Softwares especializados: Herramientas como Ollama y LM Studio permiten ejecutar modelos localmente de forma más user-friendly, siempre que el modelo esté disponible en formato GGUF (no todos los modelos del Alia Kit están en este formato por defecto, pero es posible realizar la conversión manual utilizando herramientas como llama.cpp).

  • Pipelines y notebooks de ejemplo: En Hugging Face, en la opción “Use this model”, se proporcionan fragmentos de código listos y ejemplos prácticos para utilizar los modelos a través de notebooks Google Colab y Kaggle para facilitar las primeras pruebas.


¿Cómo desplegar los modelos del Alia Kit en producción?

Una vez elegido el modelo, existen varias opciones para el despliegue:

  • Hugging Face Inference Endpoints: Disponible en la página del modelo en Hugging Face, a través del botón “Deploy”. Se crea un endpoint directamente desde la página del modelo, seleccionando el proveedor y el tipo de instancia más adecuados. Es posible optimizar el uso de recursos activando opciones como el escalado automático o la cuantización. Esta opción es ideal para prototipos y aplicaciones de mediano volumen.

  • Amazon Sagemaker: Disponible en la página del modelo en Hugging Face, a través del botón “Deploy”. Se instancia un objeto HuggingFaceModel, se define la variable HF_MODEL_ID y se invoca deploy. Sagemaker levanta un endpoint HTTPS gestionado que escala bajo demanda en instancias GPU.

  • Proveedores Cloud (AWS, Google Cloud, Azure, etc): Ofrecen servicios de inferencia de ML que permiten desplegar modelos. Se deben seguir los procedimientos estándar de cada plataforma para la creación de endpoints de inferencia.

  • Infraestructura propia: Para casos que requieren máximo control, se pueden desplegar en servidores propios usando frameworks como FastAPI, Flask o servicios como TorchServe. También se puede utilizar el contenedor oficial Text-Generation-Inference (TGI) de Hugging Face para facilitar el despliegue y la gestión de carga. Esta opción ofrece mayor control pero requiere gestión completa de la infraestructura.

Cada modelo cuenta con una model card en su página correspondiente de Hugging Face con instrucciones detalladas para desplegarlo paso a paso. Los enlaces a las model cards de Hugging Face están disponibles en:


¿Puedo hacer fine-tuning de los modelos del Alia Kit para casos de uso propios?

Se puede realizar fine-tuning de los modelos del Alia Kit siempre que se consulte la licencia específica de cada modelo. Aquellos publicados bajo licencias permisivas como Apache 2.0 permiten modificaciones y uso comercial, siempre que se mantengan los avisos correspondientes y la licencia original. Los modelos con licencia CC-BY requieren atribución; los modelos con CC-BY-SA exigen que las modificaciones se compartan bajo la misma licencia; los modelos con CC-BY-NC no pueden ser utilizados con fines comerciales; y en el caso de modelos sin licencia explícita, no se concede permiso de uso.


¿Cuándo debo hacer fine-tuning de mis modelos?

El fine-tuning es una técnica avanzada y, aunque es muy potente, no siempre es necesaria. De hecho, la mayoría de los problemas de negocio y casos de uso se pueden resolver de manera más rápida, económica y eficiente con otras técnicas:

  • Ingeniería de Prompts (Prompt Engineering): Consiste en el diseño cuidadoso de las instrucciones (el "prompt") que recibe el modelo. A menudo, un cambio en la formulación de la pregunta puede transformar por completo la calidad de la respuesta. Esta técnica también incluye la provisión de ejemplos directamente en el prompt, un método conocido como Few-Shot Learning, donde se muestran al modelo pares de "pregunta-respuesta" para ilustrar el resultado esperado, o Chain-of-Thought, que enseña al modelo qué pasos seguir para llegar a la respuesta. Sus principales ventajas residen en que es una técnica rápida, de bajo coste y flexible, que no requiere la preparación de un dataset de entrenamiento.

  • Generación Aumentada por Recuperación (RAG - Retrieval-Augmented Generation): Una solución ideal cuando se requiere que el modelo responda basándose en información específica y actualizada que no forma parte de su conocimiento original. Se conecta el modelo a una base de datos externa, como una colección de documentos de una empresa o manuales de producto. Al recibir una consulta, un sistema de búsqueda ("Retriever") localiza los fragmentos de texto más relevantes de dicha base de datos, y estos fragmentos se inyectan en el prompt junto con la pregunta original, permitiendo que el modelo genere una respuesta fundamentada en ese contexto específico. Este enfoque reduce la probabilidad de "alucinaciones" (respuestas inventadas), permite que la base de conocimiento se mantenga actualizada sin reentrenar el modelo y facilita la citación de fuentes, lo que aumenta la confianza en la respuesta.

El fine-tuning debería considerarse sólo cuando estas técnicas no sean suficientes y sea necesario que el modelo adquiera un comportamiento o conocimiento fundamentalmente nuevo.


¿Cómo puedo hacer el ajuste fino (fine-tuning) de un modelo del Alia Kit a mis datos específicos?

El fine-tuning es el proceso mediante el cual se especializa un modelo pre-entrenado para una tarea o un dominio concreto (por ejemplo, un chatbot de atención al cliente de una empresa). A continuación, se describen los métodos principales para llevarlo a cabo:

Low‑code/no‑code:

  • Hugging Face AutoTrain: Disponible en la página del modelo en Hugging Face, a través del botón “Train → AutoTrain”. Es una solución que facilita la carga de un dataset para entrenar un modelo de forma automática, delegando la gestión de la infraestructura. Es el método más recomendable en la mayoría de los casos.

  • Amazon SageMaker: Ejemplo de código disponible en la página del modelo en Hugging Face, a través del botón “Train → Amazon SageMaker”. Requiere una cuenta propia de AWS y es recomendable para proyectos empresariales con necesidades de mayor control y personalización.

Programático:

  • Scripts de Hugging Face: La biblioteca transformers proporciona la clase Trainer y los ejemplos clásicos (run_clm.py, run_mlm.py, etc.) la emplean directamente, simplificando el proceso de fine-tuning. El procedimiento requiere la preparación de un dataset y la configuración de los argumentos de entrenamiento.

  • Optimización con PEFT (Parameter-Efficient Fine-Tuning): En lugar de entrenar los miles de millones de parámetros del modelo completo (lo que requiere una gran cantidad de memoria GPU), PEFT congela el modelo original y entrena únicamente un pequeño número de parámetros adicionales en "capas adaptadoras". La técnica más popular es LoRA (Low-Rank Adaptation). Una versión aún más optimizada, QLoRA, utiliza cuantización para reducir todavía más los requisitos de memoria. Con PEFT, es posible realizar el fine-tuning de modelos muy grandes en GPUs de consumo, democratizando el acceso a esta tecnología.

Sin embargo, el fine-tuning no siempre es necesario o la mejor alternativa para adaptar un modelo, y debería considerarse sólo cuando técnicas como Ingeniería de Prompts o RAG no sean suficientes.


¿Los modelos del Alia Kit soportan "function calling" o “tool use”?

Los modelos instruidos del Alia Kit no disponen, en su versión actual, de una API nativa de function calling o tool use integrada en su arquitectura, como sí ofrecen algunos modelos comerciales. Esta funcionalidad está en desarrollo activo por parte del equipo del BSC.

Sin embargo, la ausencia de una API nativa no impide la implementación de flujos de trabajo de agentes. Es posible implementarlo de forma manual. Este enfoque otorga al desarrollador un control total sobre el proceso.


¿Bajo qué licencia se publican los modelos del Alia Kit?

La mayoría de los modelos del Alia Kit se publican bajo la licencia Apache 2.0, una licencia libre y permisiva que permite su uso, modificación y distribución con pocas restricciones, incluso para fines comerciales.

Sin embargo, algunos modelos concretos se distribuyen con licencias diferentes que pueden exigir atribución o prohibir su uso comercial, como los modelos de voz Matxa‑TTS, disponibles solo para uso no comercial. En caso de requerir otro tipo de uso o integración, se recomienda establecer contacto con el equipo responsable del proyecto para facilitar el acceso adecuado a los recursos del Alia Kit.

La licencia aplicable a un modelo concreto puede ser consultada en la página de licencias de los modelos.


¿Qué implica el uso de un modelo con la licencia Apache 2.0?

La licencia Apache 2.0 es una licencia de software de código abierto permisiva que concede derechos amplios y perpetuos para el uso, la modificación, la distribución y el sublicenciamiento del modelo para cualquier propósito, incluido el comercial, sin requerir el pago de regalías. Una característica fundamental de esta licencia es la concesión explícita de derechos de patente por parte de los contribuidores sobre sus aportaciones, lo que protege al usuario frente a posibles reclamaciones por infracción de patentes relacionadas con dichas contribuciones.

El licenciatario está obligado a conservar los avisos de derechos de autor y el texto de la licencia en las distribuciones del software o modelo. Si se realizan modificaciones, se debe incluir una notificación que indique los cambios efectuados. A diferencia de las licencias de tipo copyleft, la Apache 2.0 no exige que las obras derivadas se distribuyan bajo los mismos términos ni que se publique su código fuente, permitiendo que las modificaciones y trabajos derivados puedan mantenerse como software propietario.


¿Qué hardware es necesario para usar los modelos del Alia Kit?

Los requisitos de hardware, especialmente la memoria de vídeo (VRAM) de la GPU, dependen críticamente del tamaño del modelo y de la tarea a realizar.

Para determinar la memoria de vídeo necesaria, se debe comprobar el tamaño del modelo que se desea utilizar y la precisión con la que se va a ejecutar. Cada parámetro ocupa aproximadamente 4 bytes en precisión completa (FP32), 2 bytes en FP16, algo más de 1 byte en INT8 y alrededor de 0,5 bytes en los formatos cuantizados de 4 bits. Por ejemplo, Salamandra-7B cuenta con ~7,8 mil millones de parámetros: en FP16 requiere alrededor de 14–16 GB de VRAM, en INT8 aproximadamente 10 GB y en 4-bit puede reducirse a ~5 GB, permitiendo su ejecución en tarjetas de 8 GB si las secuencias no son demasiado largas.

Una práctica habitual consiste en sumar la RAM del sistema y la VRAM de la GPU, seleccionar un fichero de pesos (GGUF, Safetensors, etc.) que sea uno o dos gigabytes menor que esa suma y asegurarse de que la secuencia de entrada no cause un aumento excesivo de la memoria utilizada para el KV-cache. De este modo, se garantiza la carga correcta del modelo y su funcionamiento sin errores de memoria insuficiente.

Para tareas menos exigentes, como la síntesis de voz o la transcripción fonética, los modelos son más ligeros y pueden ejecutarse con una GPU de 4–6 GB o incluso solo con CPU y 8–12 GB de RAM, aunque el uso de GPU mejora los tiempos de respuesta.

Consultando el tamaño exacto del modelo en la model card del modelo específico en Hugging Face y aplicando el cálculo de bytes por parámetro, es posible estimar con precisión los requisitos de hardware para cada caso.

También es posible utilizar el siguiente demo en Hugging Face para calcular los recursos necesarios.


¿Qué tipos de datasets (conjuntos de datos) se ofrecen en el Alia Kit?

El Alia Kit ofrece una variedad de conjuntos de datos (datasets) para el entrenamiento y la evaluación de modelos de inteligencia artificial en lengua catalana. Estos se dividen en tres categorías principales:

  • Para modelos de texto, el Alia Kit proporciona desde corpus masivos con miles de millones de palabras hasta colecciones cuidadas específicamente para el ajuste fino (fine-tuning) y la evaluación de modelos de texto. Estos datos cubren una amplia gama de tareas como la clasificación de textos, el análisis de sentimientos, la detección de emociones, la respuesta a preguntas, el resumen de textos y la detección de lenguaje abusivo, entre otras. Además, se incluyen conjuntos de datos diseñados para instruir y evaluar modelos de lenguaje. Están disponibles en la página de datasets de texto.

  • Para modelos de voz, el Alia Kit ofrece diversos corpus de habla, fundamentales para el entrenamiento de sistemas de reconocimiento (ASR) y de síntesis de voz (TTS). Se ponen a disposición corpus de habla sin y con transcripción para reconocimiento automático, grabaciones multidialectales y multigénero, bancos de pruebas de acentos, registros parlamentarios y televisivos, corpora depurados para síntesis y conjuntos con transcripción fonética. Están disponibles en la página de datasets de voz.

  • Para modelos de traducción automática, el Alia Kit suministra grandes corpus paralelos “catalán-otras lenguas” destinados al entrenamiento de sistemas y, de forma complementaria, colecciones más reducidas y de dominio que sirven para adaptar y evaluar los modelos, cubriendo pares como catalán-inglés, catalán-español, catalán-francés, catalán-portugués, catalán-italiano o catalán-chino, entre otros. Están disponibles en la página de datasets de traducción automática.


¿Qué herramientas ofrece el Alia Kit para el suministro de datos de texto?

El Alia Kit proporciona varias herramientas para automatizar la adquisición y actualización de datos textuales en catalán. Incluye, por ejemplo, un extractor de textos de la Viquipèdia (Wikipedia) que permite obtener grandes volúmenes de documentos en diferentes lenguas, una pipeline automatizada para procesar datos abiertos del Diari Oficial de la Generalitat de Catalunya (DOGC) y un anonimizador para garantizar la privacidad de datos sensibles conforme al GDPR.

Los enlaces a cada herramienta están disponibles en la página de datasets y herramientas de texto.


¿Bajo qué licencia se publican los datasets (conjuntos de datos) del Alia Kit?

Los conjuntos de datos (datasets) se publican bajo diversas licencias Creative Commons (CC).

La licencia aplicable a un dataset concreto puede ser consultada en la página de licencias de los datasets.


¿Hay demostradores disponibles en el Alia Kit?

El Alia Kit dispone de varios demostradores en Hugging Face Spaces que permiten probar diferentes tecnologías lingüísticas a través de una API gratuita. Entre estos servicios se encuentran un modelo de traducción automática con soporte para múltiples idiomas y un sistema de chat para conversar con algunos de nuestros modelos.

En el caso del sistema de chat (ChatUI), hay disponibles varios modelos, como Salamandra-7b-instructed, modelos con función de function calling, etc. El sistema se apaga automáticamente si no registra actividad durante mucho tiempo. Cuando un usuario envía una consulta en ChatUI y el modelo correspondiente no está activo, este se inicia automáticamente, lo que puede tardar entre 5 y 10 minutos. Solo se inicia el modelo asociado a la conversación activa en ese momento, aunque es posible seleccionar cualquier modelo disponible.

Los enlaces a cada demostrador están disponibles en la página de demostradores.


¿Cómo mantenerme al día, aclarar dudas o contribuir al proyecto?

El proyecto Alia se encuentra en constante evolución. Para todos aquellos interesados en seguir de cerca su desarrollo, resolver dudas o incluso colaborar activamente, existen diversas plataformas y canales de comunicación. A continuación, están disponibles los enlaces oficiales para no perder ninguna novedad y formar parte de esta comunidad:

Última actualización