Ce que vous devez retenir
- Au cœur de cette promesse se trouvait « Natasha », une assistante virtuelle présentée comme une IA capable de développer des applications sur mesure avec un minimum de codage.
- Cette fausse représentation a conduit à une crise de liquidité, ne laissant à l’entreprise que 5 millions d’euros de fonds accessibles, qui ont par la suite été gelés en raison de restrictions légales.
- Ces événements mettent en évidence la nécessité de réglementations strictes et de responsabilité dans le développement et le déploiement de l’IA.
Dans un scandale qui ébranle le monde technologique, Builder.ai, une startup britannique valorisée à 1,5 milliard d’euros, a été démasquée pour avoir fait passer le travail de 700 ingénieurs basés en Inde pour une intelligence artificielle avancée. Cette affaire met en lumière le phénomène d' »AI washing » qui se répand dans l’industrie et soulève des questions sur l’authenticité des innovations technologiques présentées aux investisseurs.
Le mirage d’une IA révolutionnaire
Builder.ai, dirigée par son fondateur Sachin Dev Duggal, avait séduit les investisseurs avec une promesse alléchante : rendre la création d’applications aussi simple que commander une pizza. Au cœur de cette promesse se trouvait « Natasha », une assistante virtuelle présentée comme une IA capable de développer des applications sur mesure avec un minimum de codage. Mais derrière cette façade innovante se cachait une réalité bien différente.
Des enquêtes ont révélé que cette supposée intelligence artificielle n’était en fait qu’une armée de 700 développeurs basés en Inde, qui codaient manuellement les applications demandées par les clients. Ce processus à forte intensité de main-d’œuvre était habilement dissimulé derrière l’apparence d’une technologie IA sophistiquée, trompant ainsi investisseurs et clients.
Avec le soutien financier d’entités notables comme Microsoft et le fonds d’investissement du Qatar, Builder.ai a réussi à lever plus de 480 millions d’euros. Mais le château de cartes a commencé à s’effondrer quand la vérité a éclaté au grand jour. La dépendance aux codeurs humains plutôt qu’à des technologies d’IA avancées a exposé l’entreprise à un examen minutieux et déclenché une enquête sur ses pratiques opérationnelles.
Effondrement financier et enquêtes judiciaires
Les répercussions financières suite au dévoilement des activités de Builder.ai ont été graves. Viola Credit, un investisseur, a retiré 37 millions d’euros après avoir découvert que les projections de revenus avaient été gonflées de 300%. Le chiffre d’affaires prévisionnel de 220 millions d’euros était une grossière exagération, les audits révélant des chiffres réels plus proches de 50 millions d’euros.
Cette fausse représentation a conduit à une crise de liquidité, ne laissant à l’entreprise que 5 millions d’euros de fonds accessibles, qui ont par la suite été gelés en raison de restrictions légales. La tourmente financière a poussé Manpreet Ratia, nommé président après la démission de son prédécesseur, à déposer le bilan.
Alors que l’entreprise fait face à une procédure d’insolvabilité au Royaume-Uni, les procureurs américains ont lancé une enquête fédérale, exigeant les registres financiers et les listes de clients de l’entreprise. De plus, le fondateur Sachin Dev Duggal est confronté à des allégations de blanchiment d’argent en Inde, compliquant davantage le paysage juridique entourant Builder.ai.
Des pratiques qui s’étendent au-delà d’un cas isolé
Le scandale Builder.ai n’est pas un incident isolé. La pratique de l' »AI washing », où des entreprises attribuent le travail humain à l’IA, devient de plus en plus courante. Amazon a fait face à une controverse similaire avec sa technologie « Just Walk Out », qui impliquait plus de 1 000 opérateurs humains en Inde. Les cas se multiplient :
- Des services comptables prétendument automatisés employant en réalité des travailleurs philippins pour des tâches manuelles
- Des chatbots de service client présentés comme autonomes mais supervisés par des équipes humaines
- Des systèmes de traduction « IA » qui font appel à des traducteurs humains en coulisse
Cette pratique trompeuse soulève des préoccupations éthiques quant à la transparence et l’intégrité des allégations concernant l’IA dans l’industrie tech.
Impact sur l’industrie technologique
L’effondrement de Builder.ai sert de signal d’alarme pour l’industrie technologique. Il souligne l’importance de la diligence raisonnable et de la transparence dans les avancées technologiques. Investisseurs et consommateurs doivent être vigilants et sceptiques face aux affirmations grandioses concernant l’IA, exigeant des preuves d’authenticité et de pratiques éthiques.
Les conséquences de telles pratiques vont au-delà de la tromperie financière. Elles affectent les moyens de subsistance des travailleurs, notamment dans les régions où le travail est externalisé. Dans le cas de Builder.ai, près de 1 000 employés ont été licenciés et la plateforme « Natasha » a été abandonnée.
Vers une réglementation plus stricte
Ces événements mettent en évidence la nécessité de réglementations strictes et de responsabilité dans le développement et le déploiement de l’IA. L’Union européenne avance déjà sur ce terrain avec l’AI Act, mais les experts estiment que la vigilance doit être mondiale.
- Création d’organismes de certification indépendants pour valider les allégations d’IA
- Obligation de transparence sur la part de travail humain dans les systèmes dits « automatisés »
- Protection accrue des investisseurs contre les pratiques frauduleuses dans le secteur tech
Alors que l’IA continue d’évoluer, l’industrie doit privilégier les directives éthiques et la transparence pour maintenir la confiance et la crédibilité. L’incident Builder.ai nous rappelle que derrière chaque innovation technologique doit se trouver un engagement envers l’honnêteté et l’intégrité. Comment l’industrie peut-elle garantir que les avancées soient à la fois révolutionnaires et éthiques? La réponse réside sans doute dans un équilibre entre l’enthousiasme pour l’innovation et une saine dose de scepticisme.



































