Contenido
OpenAI ha presentado dos nuevos modelos de inteligencia artificial denominados gpt-oss, en un intento por posicionarse frente a competidores como Meta, DeepSeek y Mistral AI. Aunque se promocionan como modelos “abiertos”, su apertura es parcial: los desarrolladores tienen acceso a los pesos del modelo, pero no al código fuente ni a los datos utilizados durante el entrenamiento.
Los modelos están disponibles en dos versiones: uno de 120 mil millones de parámetros y otro más ligero de 20 mil millones. En términos técnicos, los parámetros representan las relaciones estadísticas que el modelo aprende durante su entrenamiento, y suelen correlacionarse con su capacidad de razonamiento y generación de texto.
Sam Altman, director ejecutivo de OpenAI, calificó a gpt-oss como “el mejor modelo abierto y más utilizable del mundo”, destacando su rendimiento en condiciones reales. Según pruebas de referencia como MMLU, que evalúan tareas académicas y profesionales, gpt-oss se acerca al desempeño de modelos más avanzados como o3 y o4-mini, pertenecientes a la nueva familia de modelos de razonamiento de OpenAI.
Lea también: Perú apuesta por la inteligencia artificial para modernizar su sistema judicial
Una de las novedades más destacadas es que el modelo de 120 mil millones de parámetros puede ejecutarse en computadoras personales, mientras que el más pequeño puede funcionar incluso en teléfonos inteligentes. Esto representa un avance en términos de accesibilidad, ya que tradicionalmente los modelos de gran escala requieren infraestructura en la nube.
OpenAI ha liberado estos modelos bajo la licencia Apache 2.0, que permite su uso, modificación y distribución sin restricciones comerciales. Esto podría beneficiar a mercados emergentes, organizaciones pequeñas y sectores con recursos limitados, que suelen enfrentar barreras para acceder a modelos propietarios.
Los modelos ya están disponibles para descarga en plataformas como Hugging Face y GitHub.
A pesar de su apertura parcial, la falta de acceso al código fuente y a los datos de entrenamiento genera preocupaciones en sectores regulados como la salud y las finanzas. Sin conocer el origen de los datos, las empresas no pueden evaluar completamente los sesgos, limitaciones o impactos sociales del modelo.
El Prompt Engineering and AI Institute advierte que esta opacidad impide a los desarrolladores realizar evaluaciones significativas sobre el comportamiento ético del modelo, lo que podría representar un riesgo en aplicaciones sensibles.
Le puede interesar: Mastercard impulsa la adopción global de tarjetas virtuales con nuevas soluciones automatizadas
La carrera por los modelos abiertos se intensifica. Meta lidera con su serie Llama, aunque con restricciones de uso. Mistral AI, desde Francia, y empresas chinas como DeepSeek y Alibaba también han lanzado modelos con distintos grados de apertura. Google, por su parte, ofrece modelos de peso abierto como Gemma, mientras que Microsoft ha liberado el código de sus modelos Phi. Amazon y Anthropic, en cambio, mantienen sus modelos cerrados.
OpenAI, que en 2019 liberó GPT-2 de forma escalonada por temor a su uso malicioso, ahora adopta una postura más abierta. Altman sostiene que los beneficios superarán los riesgos, marcando un cambio en la estrategia de la compañía.
Para América Latina, donde el acceso a tecnología avanzada suele estar limitado por costos y licencias, la disponibilidad de modelos parcialmente abiertos como gpt-oss representa una oportunidad. Aunque la falta de transparencia total puede ser un obstáculo en sectores regulados, su accesibilidad técnica y licenciamiento flexible podrían impulsar el desarrollo de soluciones locales en educación, salud, comercio y gobierno.