L’épisode de novembre 2023 a tout révélé. Sam Altman développait des projets privés sans informer son conseil d’administration. Une pratique qui a directement causé son renvoi… avant son retour triomphal quelques jours plus tard.
Le projet avec Jony Ive, ancien designer d’Apple, illustre parfaitement cette opacité. Un appareil mystérieux utilisant l’IA, des centaines de millions investis, mais zéro information concrète. Ni fonctionnalités, ni calendrier, ni même catégorie de produit. Le secret absolu.
La question dérangeante : D’où viennent les fonds ? Quelles contreparties ont été négociées ? Les investisseurs d’OpenAI découvrent parfois avec stupeur l’existence de ces initiatives parallèles.
Vos données ne sont pas protégées
L’aveu est embarrassant. Altman lui-même reconnaît qu’imposer une véritable confidentialité à ChatGPT serait « particulièrement compliqué ». Traduction : ne confiez rien de sensible à ces systèmes.
Les conversations peuvent être analysées, utilisées pour améliorer les modèles, potentiellement divulguées en justice. Avocat discutant d’une stratégie de défense ? Médecin cherchant des informations sur un patient ? Dirigeant évoquant une fusion ? Tous ces échanges pourraient théoriquement être exploités.
OpenAI propose des versions « entreprise » avec des garanties renforcées, mais leur coût astronomique les réserve aux grandes organisations. Les autres restent exposés.
Les agents IA autonomes : la prochaine bombe
Altman évoque désormais des « agents IA » capables d’agir de manière autonome : gérer des transactions, négocier des contrats, prendre des décisions financières.
Le vide juridique est total. Qui sera responsable des erreurs ? L’utilisateur ? L’entreprise ? Le concepteur de l’algorithme ? Les cabinets d’avocats anticipent déjà une explosion de litiges.
Comme à son habitude, OpenAI annoncera probablement ces fonctionnalités sans préavis, créant un fait accompli. Demander pardon plutôt que permission : la philosophie de la Silicon Valley à l’état pur.
Les failles de sécurité minimisées
Bugs permettant d’accéder aux conversations d’autres utilisateurs, fuites d’informations personnelles, tentatives de jailbreak réussies… Les incidents s’accumulent. À chaque fois, OpenAI minimise, promet des corrections, puis reprend sa croissance sans changement fondamental.
Le problème est structurel. Les chercheurs démontrent régulièrement qu’on peut extraire des données d’entraînement des modèles. Des informations privées ressurgissent dans les réponses de ChatGPT. Aucune solution miracle n’existe pour l’empêcher.
Ce que les silences révèlent
Sam Altman maîtrise la communication par omission. Consommation énergétique d’OpenAI ? Réponses vagues. Biais algorithmiques ? Généralités sans engagement. Origine des données d’entraînement ? Secret industriel.
Cette sélectivité oriente le débat vers les terrains favorables, étouffant les controverses gênantes. Une forme subtile de contrôle de l’information.
L’illusion de la transparence future
Certains espèrent qu’OpenAI s’ouvrira une fois sa position dominante solidifiée. Une dangereuse illusion. Les entreprises technologiques n’adoptent jamais spontanément plus de transparence. Facebook n’a pas volontairement révélé Cambridge Analytica.
Chaque information divulguée par Altman l’a été sous pression : enquêtes journalistiques, régulations, procès. La stratégie par défaut reste le silence.
Ce que vous devriez exiger
5 mesures essentielles :
- Publication des sources d’entraînement : documentez d’où viennent les données
- Audits indépendants : évaluations par des tiers avec publication publique des résultats
- Garanties contractuelles : engagements juridiquement contraignants avec pénalités réelles
- Transparence sur les partenariats : qui bénéficie d’accès privilégiés ?
- Gouvernance indépendante : un conseil avec pouvoir de blocage effectif
Ces exigences semblent raisonnables pour une entreprise qui prétend créer une IA bénéfique pour l’humanité. Leur absence dit tout.