Microsoft recule: copilot, un «jouet» qui se décharge de toute faute professionnelle
Copilot est vendu comme le cerveau supplémentaire de Windows 11, capable de résumer vos réunions, rédiger vos mails et même générer du code. Pourtant, dans ses conditions d’utilisation mises à jour en octobre, Microsoft le classe sans rire dans la catégorie « divertissement ». Le géant précise que l’outil « peut faire des erreurs », qu’il « ne fonctionne pas toujours comme prévu » et que, surtout, « vous l’utilisez à vos risques et périls ».
Le petit mensonge des marketeurs
Sur le site de Microsoft, les vidéos promotionnelles montrent des étudiants qui rédigent leur mémoire en un clic et des cadres qui pondent des présentations de résultats pendant leur café. Le même jour, l’avocat du groupe signe une clause qui évacue toute responsabilité si le résumé hallucine un chiffre clé ou si le code généré efface une base de données. Le consommateur, lui, n’a pas lu les 12 000 mots de clauses ; il a vu le spot TV.
La ficelle est d’autant plus visible que la clause ne concerne ni Microsoft 365 Copilot (la version payante destinée aux entreprises) ni Copilot for Sales. Elle vise l’application gratuite intégrée à Windows 11, la version mobile et le chat public sur le web. Autrement dit, le terrain de jeu de 70 % des utilisateurs actuels.

Le risque migrera vers l’utilisateur
Les juristes appellent cela un « transfert de risque ». En langage clair : si votre CV généré par Copilot invente un diplôme qui vous vaut un licenciement pour faute lourde, Microsoft se lave les mains. Le même scénario devient possible pour un médecin qui surligne un rapport, un avocat qui synthétise un arrêt ou un trader qui demande un résumé de marché. L’éditeur n’assure pas. L’usager, lui, assume seul.
Cette posture tranche avec celle d’OpenAI, qui, malgré ses mises en garde, maintient une garantie limitée pour les abonnés payants. Elle tranche aussi avec la communication martiale de Satya Nadella, qui promettait en 2023 « une nouvelle ère de la productivité ». On est plus proche du « acheteur averti » du vide-grenier que du contrat d’un leader tech.

Pourquoi maintenant ?
Depuis l’arrivée des modèles GPT-4 Turbo dans Copilot, le taux d’hallucination a diminué, mais pas disparu. Les procès commencent à pleuvoir aux États-Unis : avocats sanctionnés pour des citations fictives, élèves exclus pour des plagiat automatisés, journalistes poursuivis après une fausse interview. Microsoft anticipe la vague. En classant son produit comme « loisir », il se place dans la même catégorie qu’un jeu vidéo ou qu’un réseau social : un divertissement dont personne ne peut exiger la perfection.
La manœuvre est transparente, mais elle révèle surtout l’état réel de la Technologie. Si l’IA était aussi mature qu’on le clame, le service juridique n’aurait pas besoin de cette échappatoire. Quatre ans après la première démo de GPT-3, le constat est brutal : le marché masse des utilisateurs paie pour servir de cobaye, pendant que les éditeurs ajustent leurs parachutes.
Le plus cynique ? La clause fonctionne. Les premiers tribunaux américains ont déjà débouté des plaignants au motif que l’outil « était clairement identifié comme expérimental ». Le message est désormais clancé : Copilot est un gadget sympa, pas un collaborateur. Et si votre carrière dérape à cause d’une bêtise algorithmique, Microsoft vous souhaite bien du plaisir devant le juge.
