Introducción al Modelo Small 3 de Mistral AI
El jueves, el laboratorio francés Mistral AI lanzó Small 3, al que la empresa describe como “el modelo más eficiente de su categoría” y afirma que está optimizado para la latencia. Mistral afirma que Small 3 puede competir con Llama 3.3 70B y Qwen 32B, entre otros modelos grandes, y que es “un excelente reemplazo abierto para modelos propietarios opacos como GPT4o-mini“.
Características del Modelo Small 3
Al igual que otros modelos de Mistral, el Small 3 de 24B parámetros es de código abierto, lanzado bajo la licencia Apache 2.0. Diseñado para su uso local, Small 3 proporciona una base para construir capacidades de razonamiento, según Mistral. “Small 3 sobresale en escenarios donde se requieren respuestas rápidas y precisas”, continúa el comunicado, destacando que el modelo tiene menos capas que los modelos comparables, lo que ayuda a su velocidad.
Rendimiento del Modelo Small 3
El modelo logró una precisión superior al 81% en la prueba de benchmark MMLU, y no se entrenó con aprendizaje por refuerzo (RL) o datos sintéticos, lo que, según Mistral, lo hace “más temprano en la línea de producción del modelo” que DeepSeek R1. “Nuestro modelo ajustado a instrucciones realiza un rendimiento competitivo con modelos de peso abierto tres veces su tamaño y con el modelo GPT4o-mini propietario en las pruebas de benchmark de Código, Matemáticas, Conocimiento general y Seguimiento de instrucciones“, señala el anuncio.
Evaluación del Modelo Small 3
Usando un proveedor de terceros, Mistral hizo que evaluadores humanos probaran Small 3 con más de 1.000 prompts de codificación y generalistas. La mayoría de los evaluadores prefirieron Small 3 a Gemma-2 27B y Qwen-2.5 32B, pero los números estuvieron más divididos cuando Small 3 se comparó con Llama-3.3 70B y GPT-4o mini. Mistral reconoció las discrepancias en el juicio humano que hacen que esta prueba difiera de las pruebas de benchmark públicas estandarizadas.
Recomendaciones para el Uso de Small 3
Mistral recomienda Small 3 para la construcción de asistentes virtuales orientados al cliente, especialmente para necesidades de turnaround rápido como la detección de fraude en los servicios financieros, asesoramiento legal y atención médica, porque puede afinarse para crear “expertos en materia muy precisos”, según el comunicado. Small 3 también se puede utilizar para robotics y fabricación y puede ser ideal para “aficionados y organizaciones que manejan información sensible o propietaria”, ya que se puede ejecutar en un MacBook con un mínimo de 32GB de RAM.
Conclusión y Futuras Actualizaciones
Mistral insinuó que se pueden esperar más modelos de diferentes tamaños “con capacidades de razonamiento mejoradas en las próximas semanas”. Puedes acceder a Small 3 en HuggingFace. En resumen, el lanzamiento de Small 3 por parte de Mistral AI representa un avance significativo en la creación de modelos de lenguaje eficientes y precisos, lo que puede tener un impacto positivo en diversas industrias y aplicaciones. Con su enfoque en la latencia y la precisión, Small 3 se posiciona como una herramienta valiosa para aquellos que buscan desarrollar soluciones de inteligencia artificial efectivas y personalizadas.