La empresa que marcó un antes y un después en el desarrollo de la inteligencia artificial generativa acaba de reconfigurar su modelo de gobernanza. OpenAI, creadora de ChatGPT, anunció un nuevo esquema que, aunque busca calmar a los inversionistas, mantiene el control en manos de una organización sin fines de lucro. La pregunta sigue en el aire: ¿quién decide el rumbo de una tecnología que podría redefinir la vida humana?
Lucro versus responsabilidad pública
OpenAI nació en 2015 con una promesa difícil de mantener: desarrollar inteligencia artificial avanzada para beneficio de toda la humanidad. Pero esa intención pronto se enfrentó con una realidad insoslayable: sin inversión masiva, no hay IA de vanguardia.
Para atraer capital, la organización creó una filial con fines de lucro limitado. El modelo sedujo a Microsoft, que se convirtió en su principal inversionista. Sin embargo, la tensión entre control ético y rentabilidad escaló en 2023 cuando el CEO Sam Altman fue despedido y luego reinstalado, tras una revuelta interna que exhibió la fragilidad del proyecto.
Hoy, OpenAI da marcha atrás a sus planes de convertirse en una corporación de beneficio público (CBP) con fines de lucro completo. En su lugar, la estructura seguirá generando ganancias, pero bajo vigilancia directa de una junta sin fines de lucro.
El dinero que hace girar la rueda
El cambio no es casual. Inversionistas como SoftBank pusieron condiciones claras: sin una estructura lucrativa, no habrá financiamiento multimillonario. La firma japonesa anunció que su aportación de 30 mil millones de dólares podría reducirse en un tercio si no se concreta una transformación legal antes de fin de año.
La presión es evidente: entrenar modelos de IA de próxima generación no solo requiere talento, requiere potencia computacional a escala de nación. Y eso cuesta. Mucho. Altman lo admitió: “La visión original no contemplaba la necesidad de cientos de miles de millones de dólares para operar y escalar estos modelos”.
La más reciente ronda de inversión colocó a OpenAI en una valoración de 300 mil millones de dólares. Es la mayor recaudación en la historia de una startup. ¿Hasta qué punto ese peso financiero limita su independencia?
Filosofía fundacional en disputa
El giro de OpenAI también ha reactivado voces críticas. Elon Musk, cofundador que abandonó el proyecto en 2018, acusó a la empresa de traicionar su misión original. Y varios expertos en seguridad de la IA advierten que una estructura dominada por intereses privados puede acelerar el despliegue de tecnologías aún no comprendidas del todo, con consecuencias sociales inciertas.
Para calmar las aguas, Altman insiste: “OpenAI no es una empresa normal y nunca lo será”. Pero lo que comenzó como un ideal altruista hoy se parece cada vez más a una corporación tradicional, aunque con maquillaje filantrópico.
¿Quién vigila a los vigilantes?
Con los gobiernos de California y Delaware involucrados en el proceso de aprobación legal, queda claro que el debate ya no es técnico ni financiero: es político. ¿Puede una organización privada, con poder computacional y financiero sin precedentes, autorregularse en nombre del bien común?
El nuevo esquema de OpenAI promete equilibrio entre inversión y ética. Pero en la práctica, la pregunta es si ese equilibrio se sostiene cuando el futuro de la empresa —y quizás de la IA global— depende de cheques con muchos ceros y accionistas impacientes.


