Altman vs. Musk: control, dinero y la gobernanza de OpenAI
Sam Altman declaró que Elon Musk intentó controlar OpenAI y aportó alrededor de 38 millones de dólares frente a una promesa de 1.000 millones, según el testimonio en el juicio federal en Oakland (12/5/2026).
Sam Altman declaró ante un tribunal federal en Oakland que Elon Musk intentó quedarse con el control de OpenAI en los primeros años y que, en la práctica, aportó cerca de 38 millones de dólares frente a una promesa inicial de alrededor de 1.000 millones de dólares, según el testimonio presentado el 12/5/2026. Este dato central condensa el choque entre dos relatos: el de una organización que pasó de una misión sin fines de lucro a una estructura comercial, y el de un magnate que reclama que ese viraje traicionó los objetivos originales. Vemos aquí una disputa por control que no es solo personal: es una pelea sobre quién define los incentivos y la transparencia en tecnologías con impacto social masivo.
¿Qué dijo Altman y por qué importa?
Altman relató conversaciones internas de 2017 en las que Musk buscaba una posición de poder dominante dentro de la compañía, y agregó que Musk se fue del directorio en 2018 y dejó de financiar parte de las operaciones en 2020, según el mismo testimonio judicial (12/5/2026). Además, Altman afirmó que la empresa fue fundada en 2015 y que en 2023 vivió una crisis de gobernanza que lo dejó desplazado temporalmente cinco días antes de su reincorporación, hechos documentados en la causa (2023, cinco días de ausencia). Estos números permiten más que anécdota: muestran una trayectoria de alineamientos cambiantes entre misión, control y recursos. Cuando un actor poderoso promete 1.000 millones y entrega 38 millones, se abre una asimetría de poder que condiciona decisiones estratégicas, reparto de acciones y disciplina organizativa. La historia de OpenAI revela cómo la pretensión de conocimiento por parte de pocos puede reformular incentivos en un sector que afecta bienes públicos globales.
¿Cómo impacta esto en la gobernanza de la inteligencia artificial?
La disputa empresarial se traslada a la gobernanza de la IA: control de directorios, condiciones de inversión y límites a la comercialización definen qué riesgos se priorizan. Observamos riesgo de captura privada cuando recursos concentrados permiten imponer agendas, y riesgo de captura pública cuando reguladores o gobiernos delegan autoridad sin datos abiertos ni auditorías. La lección práctica es clara: la existencia de grandes compromisos financieros no garantiza alineamiento con objetivos de seguridad o apertura. Exigimos protocolos públicos que hagan transparentes acuerdos, datos abiertos sobre desarrollos y auditorías independientes para evaluar decisiones técnicas y comerciales. Esto no es retórica: sin verificaciones, las consecuencias no intencionadas pueden escalar rápidamente, desde decisiones de licenciamiento hasta el diseño de modelos que concentran poder de mercado.
¿Qué debería cambiar y qué implica para Argentina?
La disputa entre Altman y Musk muestra por qué no basta con buenas intenciones. Reclamamos marcos normativos que exijan transparencia en propiedad y financiación, mecanismos de rendición de cuentas y auditorías de seguridad independientes. Para Argentina, la recomendación es doble: primero, adoptar criterios de compra y contratación pública en IA que obliguen a datos abiertos y auditorías; segundo, promover investigación pública independiente con acceso a los modelos o a sus reportes técnicos. En términos temporales, se trata de aprender de la evolución de OpenAI entre 2015 y 2023 —un período de cinco a ocho años de rápida transformación— para que nuestras instituciones no repitan la misma complacencia frente a actores concentrados. La política pública debe enfocarse en prevenir captura y rent-seeking, no en sustituirlos por nueva autoridad tecnocrática.
Concluimos que el litigio es más que un pleito entre dos nombres: es un caso testigo sobre cómo se distribuye control en tecnologías estratégicas. La receta es conocida por teoría y experiencia: transparencia, protocolos públicos y auditorías externas limitan la pretensión de conocimiento de unos pocos y reducen consecuencias no intencionadas. Sin esas medidas, la gobernanza de la IA seguirá siendo un terreno propicio para conflictos que determinan quién manda y con qué incentivos.