La “re”apertura de OpenAINuevos modelos Open Source de los creadores de ChatGPT

OpenAI libera modelos de alto rendimiento, marcando un posible giro en su estrategia cerrada. Veamos en detalle esta movida táctica que nos dió los modelos libres mas potentes del momento.

07 | Agosto | 2025

Imagen del artículo

¿Un cambio de rumbo real o solo marketing?

Después algunos tiempo “Close”, el lanzamiento de los modelos gpt‑oss‑120b y gpt‑oss‑20b parece insinuar que OpenAI vuelve a abrirse. Luego de varios años de arquitectura cerrada y APIs propietarias, ahora nos ofrece “pesos abiertos” (algo que no ocurría desde GPT 2) para descargar, adaptar y desplegar localmente. ¿Es una apertura auténtica o huele a una jugada calculada para retener influencia?. Por una u otra razón, tenemos al alcance de la mano el modelo libre mas potente del momento. Veamos un poco de que se trata.

No olvidemos que OpenAI nunca ofreció todo su código fuente ni sus datos de entrenamiento. Lo que ahora libera son los pesos del modelo, lo que no permite personalización e inferencia local, pero mantiene bajo llave las arquitecturas internas, datasets y procesos exactos. Es una apertura a medias, pensada no perder terreno frente a competidores como Llama o DeepSeek sin renunciar al control esencial. Era el pasó estratégico que estábamos esperando.

La democratización del acceso versus los límites invisibles

Los modelos son muy eficientes: el gpt‑oss‑20b, por ejemplo, corre en laptops con 16 GB, incluso en dispositivos edge, poniéndolo al alcance de nuestras PC hogareñas y listo para ser aplicado por empresas y desarrolladores en cualquier proyecto. Pero el uso local también traslada sobre los usuarios toda la responsabilidad sobre seguridad, ética y buen uso. Ya no hay filtros ni auditorías centrales. La advertencia es clara: “te doy libertad, pero usalo con cuidado, solo vos respondés si algo sale mal”.

Esto hace que ChatGPT sigue siendo el acceso más cómodo, pulido y confiable para el usuario promedio. Esa dualidad, un servicio cerrado para la mayoría y modelos semiabiertos para los usuarios avanzados y la comunidad open source, permite a OpenAI retener su posición dominante en el ecosistema. Buscando consolidar su liderazgo en múltiples frentes.

Un vistazo técnico

Ambos modelos, gpt‑oss‑120b y gpt‑oss‑20b, son transformadores autoregresivos con arquitectura Mixture‑of‑Experts (MoE). El primero cuenta con 36 capas y un total de 116.8 mil millones de parámetros, de los cuales 5.1 mil millones se activan por token en cada pasada. El segundo modelo tiene 24 capas, con unos 20.9 mil millones de parámetros y 3.6 mil millones activos por token.

Ambos utilizan quantización MXFP4, reduciendo su memoria requerida: el modelo más grande funciona en una GPU H100, mientras que el pequeño puede correr en hardware de consumo con solo 16 GB

Soportan contextos extensos de hasta 128 mil tokens, habilitan ejecución con herramientas (Python, búsquedas, agents) y permiten ajustar el nivel de razonamiento (bajo/medio/alto)

Rendimiento en benchmarks y comparativas

  • gpt‑oss‑120b alcanza una performance cercana al modelo propietario o4‑mini en tareas de razonamiento internacional
  • gpt‑oss‑20b ofrece un rendimiento comparable al o3‑mini.
  • En benchmarks de salud como HealthBench, gpt‑oss‑120b iguala o supera a modelos como GPT‑4o, o3-mini y o4-mini, especialmente en niveles de razonamiento altos
  • En escenarios multilingües (MMMLU), gpt‑oss‑120b con razonamiento alto se aproxima al rendimiento de o4‑mini.

Seguridad y fiabilidad

OpenAI diseñó los gpt‑oss para resistir usos adversariales:

  • En situaciones simuladas, incluso tras fine-tuning adversos, gpt‑oss‑120b no alcanzó capacidades de alto riesgo en ámbitos biológicos o cibernéticos según su “Preparedness Framework”
  • En evaluaciones de contenido prohibido y resistencia a jailbreaks, los modelos se comportan de manera equiparable a o4‑mini, aunque con una leve desventaja en jerarquía de instrucciones.
  • Sin embargo, presentan mayor propensión a alucinaciones en tareas de knowledge recall: en pruebas como SimpleQA y PersonQA, ambos modelos muestran tasas más altas de respuestas incorrectas frente a o4‑mini

Terminando

Este lanzamiento parece una jugada inteligente pero también inevitable: combina márketing de apertura real (descarga, ajuste, despliegue local) y mantiene el control sobre el chat de IA mas usado. No se abre del todo, pero sí lo suficiente como para mostrarse moderno, confiable y adaptable. Lo posiciona como el mejor modelo libre y nos pone en las manos una herramienta muy potente.

Si quieren probarlo, gentilmente nos dieron una acceso:

https://gpt-oss.com/