por ComputerHoy
5 de agosto de 2025
No es GPT-5, pero OpenAI al fin vuelve a sus raíces con el estreno de gpt-oss, un GPT de código abierto y gratuito que funciona en local en tu PC, si tienes una tarjeta gráfica medianamente potente. Vamos a ver qué puede hacer.
En total se han presentado dos modelos de lenguaje. La variante gpt-oss-120b está muy cerca de o4-mini en las pruebas de razonamiento básico, y se ejecuta en una sola GPU con 80 GB, es decir, un chip de IA H100 de Nvidia, que queda fuera del alcance del usuario doméstico.
El modelo gpt-oss-20b ofrece resultados similares a los de OpenAI o3-mini en pruebas comunes y puede ejecutarse en ordenadores con una GPU con 16 GB de memoria, por ejemplo la mayoría de las tarjetas RTX 5000 o RTX 4000 que se venden ahora, incluso generaciones anteriores. o en un portátil con 16 GB de RAM compartida con la GPU.
Gpt-oss, el arma de OpenAI contra DeepSeek
Ambos modelos superan a DeepSeek R1 en varios benchmarks. Es obvio que el objetivo de OpenAI con estos modelos de IA de código abierto que funcionan en local, es ofrecer una alternativa a DeepSeek. Se lo pedían desde los propios desarrolladores, hasta la administración Trump.
OpenAI asegura que son modelos muy buenos para crear agentes de IA, pero hay que tener en cuenta que están basados en texto, es decir, no generan imágenes, vídeo, música, etc.
Incluyen herramientas para realizar búsquedas en Internet y ejecutar código en Python. También es posible conectarlos a un modelo de OpenAI en la nube, por si queremos hacer cosas que gpt-oss no puede hacer.
Los nuevos modelos de lenguajes abiertos gpt-oss se distribuyen bajo licencia Apache 2.0, lo que significa que se pueden monetizar y usar libremente en proyectos profesionales, sin necesidad de tener que pagar una licencia a OpenAI.
Sin embargo, la compañía de Sam Altman no va a revelar los datos con los que han sido entrenados, seguramente para evitar problemas legales. Tiene varios juicios pendientes por usar contenido protegido por copyright.
El modelo gpt-oss-120b tiene 117.000 millones de parámetros, y usa 5.100 millones por token. Por su parte, gpt-oss-20b se queda en 21.000 millones de parámetros, con 3.600 millones por token.
La IA en código abierto vuelve a ser protagonista
Aunque en las pruebas de rendimiento están al nivel de o4-mini y o3-mini, openAI reconoce que producen alucinaciones con más frecuencia que sus hermanos de la nube. También hay que tener en cuenta que han sido entrenados con un conjunto de datos de texto en inglés, centrándose en STEM, codificación y conocimientos generales.
Los nuevos modelos de lenguaje en abierto gpt-oss-120b y gpt-oss-20b ya están disponibles para descargar, gratis para todos, en Hugging Face. Hay que tener en cuenta que están enfocados a los desarrolladores, ya que se ha distribuido el código, hay que integrarlos en aplicaciones.
DeepSeek R1 ya tiene competencia directa, por parte de OpenAI. Será interesante comprobar cómo rinden frente a DeepSeek R2, que llegará en breve.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: código abierto, Inteligencia artificial, Viral