Ir al contenido
Gratis · +1.000 lectores
Gratis · Independiente
El diario de la inteligencia artificial
← Volver
Pesos abiertos

Mistral libera un modelo mixture-of-experts de 230B bajo Apache 2.0

El laboratorio parisino sigue siendo el referente europeo de los pesos abiertos.

Sábado, 16 de mayo de 2026 · 2 min

Mistral ha publicado un modelo mixture-of-experts de 230.000 millones de parámetros bajo la licencia permisiva Apache 2.0, manteniendo la práctica del laboratorio parisino de sostener en Europa la frontera de los pesos abiertos.

El lanzamiento incluye baterías de evaluación de razonamiento, código y benchmarks multilingües. Las primeras reproducciones de terceros sitúan el modelo a cinco puntos de los mayores sistemas de pesos cerrados en tareas en lenguas europeas.

El mirror de descarga en Hugging Face estuvo dos horas caído el sábado por la carga.

— Fin —