Quand la conviction coûte des milliards : la vérité sur le départ d’Ilya Sutskever
C’est un chiffre qui donne le vertige et qui réécrit l’histoire de la Silicon Valley. Selon de récentes révélations rapportées par The Information et issues de communications internes dévoilées dans le cadre de procédures judiciaires, Ilya Sutskever, le co-fondateur emblématique d’OpenAI, détenait pour environ 4 milliards de dollars d’actions acquises (vested) fin 2023. C’était juste avant le fameux schisme qui a secoué l’entreprise et mené à son départ définitif quelques mois plus tard.
Dans l’industrie de la Tech, les « menottes dorées » (golden handcuffs) sont conçues pour être incassables. Pourtant, Sutskever a brisé les siennes. Cet article décrypte pourquoi ce renoncement financier est un signal d’alarme sur la divergence idéologique au cœur de l’IA.
L’arithmétique du renoncement : perdre 100 milliards pour sauver l’humanité ?
Pour comprendre l’ampleur du geste, il faut remettre les chiffres en perspective. Fin 2023, OpenAI naviguait entre des valorisations de 29 à 86 milliards de dollars lors de diverses offres publiques d’achat (Tender Offers). Les 4 milliards de dollars de Sutskever représentaient donc une part colossale de l’entreprise.
Mais regardons la situation avec nos yeux de 2026. Aujourd’hui, alors qu’OpenAI a franchi la barre des 500 milliards de dollars de valorisation, cette participation vaudrait théoriquement plusieurs dizaines de milliards, plaçant potentiellement Sutskever parmi les plus grandes fortunes mondiales, aux côtés d’Elon Musk ou de Jeff Bezos. En choisissant de partir pour fonder SSI (Safe Superintelligence), Ilya Sutskever n’a pas seulement quitté un job ; il a parié sa fortune personnelle sur une conviction : que la trajectoire commerciale d’OpenAI devenait incompatible avec la sécurité de l’IA.
Pourquoi les « Menottes Dorées » n’ont pas fonctionné
Habituellement, un ingénieur, aussi brillant soit-il, ne démissionne pas quand il est assis sur une telle mine d’or. Le cas Sutskever met en lumière deux phénomènes rares :
- La primauté de la mission : Le désaccord sur le « Superalignment » (l’alignement des superintelligences futures) n’était pas une posture. C’était un différend fondamental. Sutskever craignait que la course au produit (GPT-4, puis GPT-5) ne se fasse au détriment des garde-fous de sécurité.
- L’échec du soft power financier : Sam Altman et le board pensaient probablement que l’incitation financière suffirait à lisser les désaccords. C’est une erreur de calcul classique face à des profils motivés par l’impact scientifique plutôt que par le lifestyle.
Le piège des PPUs et la liquidité impossible
Il est crucial de rappeler que chez OpenAI, la richesse est souvent théorique. Contrairement à des actions Apple ou Google que l’on peut vendre en un clic, les employés d’OpenAI détiennent souvent des Profit Participation Units (PPUs) ou des équivalents dans une structure « Capped Profit ».
Un trésor verrouillé
Cette structure complexe implique que :
- Les actions ne sont pas librement échangeables sur un marché public.
- La liquidation dépend entièrement de « Tender Offers » (offres de rachat) organisées par l’entreprise, souvent au bon vouloir de la direction.
- Quitter l’entreprise peut parfois compliquer l’accès à ces liquidités, voire forcer une renégociation des termes de sortie.
En restant, Sutskever aurait eu la garantie de transformer ces chiffres virtuels en cash réel lors des tours de table successifs. En partant, il entrait dans une zone d’incertitude financière, même si ses parts étaient « vested » (acquises). C’est ce qui rend son départ encore plus significatif : il a accepté le risque de l’illiquidité pour retrouver sa liberté de recherche.
SSI : La revanche par la valorisation
L’histoire ne s’arrête pas là. Ilya Sutskever n’est pas parti à la retraite. Sa nouvelle structure, Safe Superintelligence (SSI), a connu une ascension fulgurante. Valorisée à 5 milliards de dollars dès sa création, elle a rapidement grimpé (atteignant les 32 milliards selon les derniers tours de table de 2025). Bien que cela reste loin de la puissance de feu d’OpenAI, cela prouve qu’une partie du capital-risque (Andreessen Horowitz, Sequoia) est prête à parier sur la vision « sécurité d’abord » de Sutskever.
L’avis de Just Tech
Cette révélation sur les 4 milliards de dollars change notre lecture de la « guerre des talents » dans l’IA. Jusqu’ici, on pensait que les salaires à sept chiffres et les stock-options suffisaient à retenir les cerveaux. Le départ de Sutskever prouve que pour l’élite absolue des chercheurs en AGI, l’argent est devenu une commodité, presque un bruit de fond. Ce qui compte désormais, c’est le contrôle sur la finalité de la technologie. Les Big Tech ne peuvent plus simplement acheter la loyauté ; elles doivent désormais prouver leur alignement moral. Et ça, ça ne s’achète pas, même avec 4 milliards.







