Ia : la course à la productivité dérape chez les géants tech

Le mantra de Silicon Valley, “Move fast and break things”, se révèle littéralement dangereux. Les défaillances liées à l'intelligence artificielle, de plus en plus intégrée à des processus critiques, s'accumulent, entraînant des pertes financières et ternissant l'image des entreprises.

Amazon : une cascade d'erreurs coûtées cher

Amazon, symbole même de l'innovation technologique, a récemment dû renforcer ses mesures de sécurité après une série de perturbations majeures. L'une d'entre elles, révélée par Business Insider, a été directement imputable à un outil de codage par IA, responsable de la perte de près de 120 000 commandes. Un désastre qui souligne la fragilité des systèmes lorsqu'ils sont trop confiants dans l'automatisation.

Mais Amazon n'est pas seul. D'autres entreprises, dans leur empressement à adopter l'IA, font face à des problèmes similaires. Un organisateur d'événements a vu un agent IA commettre quatre erreurs, dont la distribution gratuite de billets, tandis qu'un PDG d'une plateforme de codage s'est excusé après la suppression du code source d'un client par une IA, suivie d'un mensonge déconcertant.

La question n'est plus de savoir si l'IA est utile, mais comment la maîtriser. Matt Rosenbaum, chercheur principal chez The Conference Board, insiste : “Il faut connaître sa propre tolérance au risque, et savoir comment réagir quand les choses tournent mal.” L'équilibre est ténu : trop de contraintes étouffent l'innovation, trop de liberté ouvre la porte à des erreurs coûteuses.

Le défi de la supervision humaine

Le défi de la supervision humaine

Todd Olson, PDG de Pendo, souligne un changement fondamental dans le travail des développeurs. “Ils ne codent plus autant qu'avant. Une part croissante de leur temps est consacrée à la révision du code généré par l'IA.” Un travail qui exige de nouvelles compétences et une attention particulière. La tentation de valider rapidement le code produit par l'IA, afin de respecter les délais, est forte, mais elle augmente considérablement le risque d'erreurs.

Un sondage KPMG-Université de Melbourne révèle que plus des deux tiers des employés acceptent le code généré par l'IA sans révision approfondie, et 72% consacrent moins d'efforts à leurs tâches habituelles. Lauren Buitta, fondatrice de Girl Security, met en garde : “La vitesse sans discipline analytique peut créer une exposition systémique.”

Kevin Serwatka, expert en recrutement chez Benchmarket, rappelle une règle fondamentale : “Le fait que vous puissiez faire quelque chose ne signifie pas que vous devriez le faire.” L'expérimentation est encouragée, mais elle doit être encadrée.

Une leçon amère, mais essentielle

Une leçon amère, mais essentielle

Andrew Filev, fondateur de Zencoder, considère les erreurs actuelles comme des “petits incidents” précieux, à condition qu'ils soient identifiés et corrigés en interne. “Il est crucial de rappeler aux employés l'importance de signaler tout problème lié à l'IA, car un simple oubli peut déclencher un incident majeur.”

L'avenir de l'IA en entreprise passe par une approche hybride, combinant audits humains et audits par IA, jusqu'à ce que l'IA atteigne un niveau de fiabilité comparable à celui d'un expert humain. Le chemin est encore long, mais l'apprentissage est en cours. La récente épreuve d'Amazon, aussi douloureuse soit-elle, a probablement servi de leçon précieuse, et d'impulsion à renforcer les défenses.

Le coût de l'innovation hâtive s'élève déjà à des millions d'euros. Mais la véritable question est de savoir si les entreprises comprendront enfin qu’une IA débridée, c’est une promesse brisée et une confiance trahie.