¡OpenAI Vuelve a Ser "Open"! ¿Realmente Sus Nuevos Modelos Gratuitos Son el Futuro de la IA? 🔥🚀
¡OpenAI Vuelve a Ser "Open"! ¿Realmente Sus Nuevos Modelos Gratuitos Son el Futuro de la IA? 🔥🚀6 de agosto de 2025
La semana pasada fue un hito para la inteligencia artificial. OpenAI, Antropic y Google presentaron novedades que prometen cambiar el panorama, pero hoy nos centraremos en el bombazo de OpenAI: el lanzamiento de sus nuevos modelos de código abierto, GPT-OSS. Después de seis años desde GPT-2 en 2019, la compañÃa que una vez fue criticada por su falta de "apertura" ha vuelto a sus raÃces.
La expectativa era enorme, y muchos se preguntaban si realmente ofrecerÃan algo al nivel de sus modelos propietarios. ¡Aquà te contamos los detalles!
¿Qué es GPT-OSS?
GPT-OSS (o gpt-oss) es la nueva apuesta de OpenAI para democratizar el acceso a la IA. Se lanzó el 5 de agosto de 2025 y está disponible para ser descargado, personalizado y ejecutado de forma gratuita. Viene en dos versiones principales:
• GPT-OSS-120B: Este es el modelo más potente, con 120 mil millones de parámetros. Está diseñado para centros de datos, asà como para computadoras de escritorio y portátiles de alto rendimiento. Se afirma que puede ejecutarse eficientemente incluso en una sola GPU de 80 GB, o en una versión cuantificada.
• GPT-OSS-20B: La versión más ligera, con 20 mil millones de parámetros. Esta edición está pensada para la mayorÃa de ordenadores convencionales, requiriendo un mÃnimo de 16 GB de memoria RAM. Ideal para inferencia local o dispositivos de borde.
Ambos modelos se distribuyen bajo la licencia Apache 2.0, una de las más permisivas que existen, lo que significa que puedes modificarlos y adaptarlos incluso para usos comerciales. Su arquitectura es de "Mezcla de Expertos" (MoE), lo que permite que sean muy buenos dando respuestas mientras requieren menos hardware activo por token (5.1 mil millones para el 120B y 3.6 mil millones para el 20B), lo que, en teorÃa, los hace rápidos si tienes suficiente memoria. Además, cuentan con una generosa ventana de contexto de 128,000 tokens.
Ventajas: Lo que OpenAI Promete (y Cumple en Parte)
1. Acceso Abierto y Gratuito: Es la ventaja más obvia. Puedes descargarlo, modificarlo y usarlo sin costo, incluso para fines comerciales.
2. Rendimiento "De Vanguardia": OpenAI afirma que estos modelos son de "última generación". El 120B supuestamente alcanza un nivel casi igual a OpenAI O4 Mini en pruebas de razonamiento básico, mientras que el 20B ofrece resultados similares al O3 Mini en pruebas comunes. En ciertos benchmarks como los de matemáticas y lógica, incluso superan a modelos anteriores como O4-mini y O3-mini.
3. Eficiencia en Costo y Ejecución: Diseñados para un "excelente rendimiento en el mundo real a bajo costo". Su arquitectura MoE y su preparación para funcionar cuantizados (ej. a 4 bits) sin perder calidad, los hacen más optimizados en cuanto a ejecución. Las tablas comparativas de costes de inferencia sugieren que son mucho más económicos que muchos modelos close-source e incluso otros open-source.
4. Uso de Herramientas y Transparencia: Demuestran sólidas capacidades de uso de herramientas y la posibilidad de consultar modelos propietarios en la nube si no resuelven una tarea por completo. Para mayor seguridad, el sistema detalla su cadena de razonamiento en cada respuesta.
Desventajas: La Realidad de las Pruebas y la CrÃtica
A pesar del hype y los prometedores benchmarks de OpenAI, las pruebas prácticas y la opinión de expertos revelan un panorama más matizado:
1. Altas Tasas de Alucinaciones: Un punto crÃtico es su propensión a "alucinar" (generar respuestas erróneas o inventadas). El GPT-OSS-120B muestra un 49% de alucinaciones en los tests, y el GPT-OSS-20B un 53%. Esto es significativamente mayor que modelos como O1 (16%) y O4-mini (36%).
2. Inconsistencia y Fallos en Tareas Reales: En nuestras pruebas, el 20B tuvo problemas para generar un guion de YouTube correctamente, algo que modelos más pequeños como Gema 3 4B lograron sin dificultad. El 120B, a pesar de ser enorme, presentó errores de sintaxis en el código Python que generó en los primeros intentos, mientras que modelos como GPT-4o, O4 Mini y Qwen 3 4B lo hicieron correctamente a la primera. Parece que, aunque son buenos para razonamiento y matemáticas, no son tan consistentes en tareas comunes como la redacción o la generación de código.
3. Requisitos de Hardware Aún Elevados: Si bien están optimizados, el 120B sigue siendo un monstruo que requiere hardware considerable, como una GPU de 80 GB o una gran cantidad de RAM (ej. 128 GB) para un rendimiento decente. Incluso el 20B, aunque más accesible, no es ejecutable en cualquier PC antigua con solo 16 GB de RAM del sistema (necesitarÃa también VRAM o más RAM del sistema).
4. Velocidad Cuestionable: En algunas pruebas, modelos más pequeños y antiguos como Qwen 3 4B demostraron ser más rápidos, incluso con configuraciones modestas de CPU y RAM.
5. Entrenamiento en Inglés: Aunque pueden traducir, fueron entrenados principalmente en inglés, por lo que su mejor rendimiento se obtendrÃa en este idioma.
6. Modelos en Etapa Temprana: Al ser muy nuevos, aún no están 100% preparados para funcionar sin problemas en todos los proveedores, como se vio con Olama.
¿Cómo Acceder y Probar GPT-OSS?
Si a pesar de las desventajas quieres experimentar con estos nuevos modelos, tienes varias opciones:
• De Forma Local:
◦ La herramienta más recomendada es LM Studio. Puedes descargarla y, una vez instalada, buscar, seleccionar y descargar los modelos GPT-OSS (el 20B es el más accesible para portátiles avanzados). La velocidad dependerá mucho de tu RAM y VRAM.
◦ También están disponibles en plataformas como Hugging Face, Databricks, Azure y AWS.
• De Forma Online:
◦ OpenAI ha habilitado una página web dedicada: gptoss.com. Allà puedes elegir entre el modelo 120B o 20B y probarlos directamente en tu navegador.
Resumen de NotebookLM
Conclusión: ¿Vale la Pena el Hype?
La conclusión es agridulce. El lanzamiento de GPT-OSS es sumamente relevante porque marca el regreso de OpenAI al código abierto, lo que democratiza el acceso a modelos de IA de una compañÃa lÃder. Es un movimiento importante que obliga a otros a seguir el camino.
Sin embargo, nuestras pruebas iniciales y las observaciones de expertos sugieren que, aunque estos modelos no son "malos", tampoco son los "extraordinarios" que los benchmarks de OpenAI sugieren. Modelos más pequeños, más antiguos y ya consolidados en la comunidad open source, como Qwen 3 4B o Gema 3 4B, a menudo demuestran ser más estables, más rápidos y más capaces en tareas cotidianas de redacción o programación, además de ser accesibles para un hardware mucho más modesto.
Asà que, mientras es emocionante ver a OpenAI lanzando modelos abiertos, la realidad es que para muchas de las tareas que realizamos con IA, las alternativas existentes como Qwen y Gema siguen siendo excelentes opciones, y quizás, por ahora, las más prácticas.
Comentarios
Publicar un comentario
Haz tu comentario, que nos ayude a mejorar