03/10/2021

SUE HALPERN
Les coûts humains de l'Intelligence Artificielle

Sue Halpern, The New York Review of Books, 21/10/2021
Traduit par
Fausto Giudice, Tlaxcala 

Sue Halpern est rédactrice au magazine New Yorker et collabore régulièrement à la New York Review of Books. Elle est l'auteure de sept livres, dont les best-sellers "A Dog Walks into a Nursing Home" et "Four Wings and a Prayer", qui a fait l'objet d'une version cinématographique nominée aux Emmy Awards. Elle est chercheuse en résidence et enseignante au Middlebury College dans le Vermont. @suehalpernVT

L'intelligence artificielle ne nous vient pas comme un deus ex machina, mais plutôt par le biais d'un certain nombre de pratiques extractives déshumanisantes, dont la plupart d'entre nous n'ont pas conscience.

'Data Pools', un projet d'usurpation de géolocalisation par Adam Harvey et Anastasia Kubrak qui a relocalisé virtuellement les téléphones des gens dans les piscines des PDG de la Silicon Valley, 2018. Adam Harvey/Anastasia Kubrak

 

Livres recensés :

Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence 

by Kate Crawford

Yale University Press, 327 pp., $28.00

We, the Robots?: Regulating Artificial Intelligence and the Limits of the Law

by Simon Chesterman

Cambridge University Press, 289 pp., $39.99

Futureproof: 9 Rules for Humans in the Age of Automation

by Kevin Roose

Random House, 217 pp., $27.00

The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do

by Erik J. Larson

Belknap Press/Harvard University Press, 312 pp., $29.95

En 2015, une cohorte de scientifiques et d'entrepreneurs de renom, dont Stephen Hawking, Elon Musk et Steve Wozniak, ont publié une lettre publique exhortant les technologues qui développent des systèmes d'intelligence artificielle à "rechercher comment tirer parti de ses avantages tout en évitant les pièges potentiels." À cette fin, ont-ils écrit : "Nous recommandons une recherche élargie visant à garantir que les systèmes d'IA de plus en plus performants soient robustes et bénéfiques : nos systèmes d'IA doivent faire ce que nous voulons qu'ils fassent."

Plus de huit mille personnes ont maintenant signé cette lettre. Si la plupart sont des universitaires, les signataires comprennent également des chercheurs de Palantir, la société de surveillance secrète qui aide l'ICE (Agence de police de l’immigration et des frontières) à rafler les immigrants sans papiers, les dirigeants de Vicarious, une société de robotique industrielle qui se vante de réduire pour ses clients de plus de 50 % les heures de travail - c'est-à-dire le travail effectué par des humains - et les fondateurs de Sentient Technologies, qui avaient auparavant développé la technologie de reconnaissance de la langue utilisée par Siri, l'assistant vocal d'Apple, et dont l'entreprise a depuis été intégrée à Cognizant, une société qui a fourni une partie de la main-d'œuvre sous-payée et excessivement stressée chargée de "modérer" le contenu de Facebook.

Musk, quant à lui, ne vise pas seulement les voitures à conduite autonome équipées d'IA. Sa société de puces cérébrales, Neuralink, vise à fusionner le cerveau avec l'intelligence artificielle, non seulement pour développer des applications médicales susceptibles de changer la vie des personnes souffrant de lésions de la moelle épinière et de troubles neurologiques, mais aussi, à terme, pour tout le monde, afin de créer une sorte d'esprit de ruche. L'objectif, selon Musk, est un avenir "contrôlé par la volonté combinée des habitants de la Terre - [puisque] c'est évidemment l'avenir que nous voulons".

Il s'avère donc que le point le plus important à retenir d'une lettre mettant en garde contre les dangers potentiels de l'intelligence artificielle pourrait être son insistance sur le fait que les systèmes d'IA "doivent faire ce que nous voulons qu'ils fassent". Et qu'est-ce que c'est ? Même aujourd'hui, à peine six ans plus tard, la liste est trop longue pour être énumérée. La plupart d'entre nous ont rencontré des robots de service à la clientèle scénarisés et dotés d'une intelligence artificielle, dont le principal objectif semble être d'éviter les conversations avec de véritables humains. Nous avons fait confiance à l'IA pour nous dire quelles émissions de télévision regarder et où dîner. L'IA a aidé des personnes souffrant de lésions cérébrales à faire fonctionner des bras robotisés et à déchiffrer des pensées verbales en mots audibles. L'IA fournit les résultats de nos recherches sur Google et nous propose des publicités basées sur ces recherches. L'IA façonne le goût des hamburgers à base de plantes. L'IA a été utilisée pour surveiller les champs des agriculteurs, calculer des scores de crédit, tuer un scientifique nucléaire iranien, corriger des copies, remplir des ordonnances, diagnostiquer divers types de cancers, rédiger des articles de journaux, acheter et vendre des actions et décider des acteurs à engager dans des films à gros budget afin de maximiser le retour sur investissement. Aujourd'hui, l'IA est aussi présente que l'internet lui-même. Pour reprendre les termes de l'informaticien Andrew Ng, l'intelligence artificielle est "la nouvelle électricité".

En 2017, Ng a résumé sa vision dans un billet d'adieu sur la plateforme de blogs Medium, annonçant sa démission de l'entreprise technologique chinoise Baidu. "La révolution industrielle a libéré l'humanité d'une grande partie des corvées physiques répétitives", a-t-il écrit. "Je veux maintenant que l'IA libère l'humanité des corvées mentales répétitives, comme la conduite dans les embouteillages". Si libérer les gens de ce genre de corvée mentale semble trivial face, par exemple, au changement climatique et à d'autres calamités mondiales actuelles et imminentes, sa véritable valeur sera pour les parties prenantes d'un marché mondial de la voiture autonome qui devrait atteindre plus de 809 milliards de dollars cette année et 1,38 trillion de dollars d'ici 2025. Globalement, selon un rapport de PriceWaterhouseCoopers, l'IA pourrait ajouter jusqu'à 15 700 milliards de dollars à l'économie mondiale d'ici à 2030.

Une telle croissance débridée n'est pas sans autres conséquences, moins compensatoires. Comme le démontre à l'envi l'Atlas de l'IA de Kate Crawford, l'intelligence artificielle ne nous vient pas comme un deus ex machina, mais plutôt par le biais d'un certain nombre de pratiques extractives déshumanisantes, dont la plupart d'entre nous n'ont pas conscience. Mme Crawford, chercheuse principale chez Microsoft et cofondatrice de l'AI Now Institute à l'université de New York, commence sa visite de l'univers de l'IA à Silver Peak, dans le Nevada, en observant les "bassins ouverts d'un vert irisé" constitués de saumure pompée dans la plus grande mine de lithium d'Amérique du Nord. Le lithium - le "li" des batteries "li-ion" - est un ingrédient essentiel de notre vie numérique. Sans lui, il n'y a pas d'ordinateurs portables, pas de montres intelligentes, pas de téléphones portables.

"Le terme "intelligence artificielle" peut évoquer des idées d'algorithmes, de données et d'architectures en nuage, écrit Mme Crawford, mais rien de tout cela ne peut fonctionner sans les minéraux et les ressources qui constituent les composants de base de l'informatique." Elle ajoute :

De nombreux aspects de la vie moderne ont été transférés dans le "nuage" sans que ces coûts matériels soient vraiment pris en compte. Notre travail et nos vies personnelles, nos antécédents médicaux, nos loisirs, nos divertissements, nos intérêts politiques, tout cela se déroule dans le monde des architectures informatiques en réseau que nous utilisons à partir d'appareils que nous tenons dans une main, avec du lithium au cœur.

Appeler ces ordinateurs en réseau "le nuage" est un parfait exemple de ce que Crawford considère comme "l'amnésie stratégique qui accompagne les histoires de progrès technologique". Si la métaphore évoque une image de données flottant en apesanteur dans le ciel, la réalité est que le nuage occupe des centaines de milliers d'hectares de biens immobiliers terrestres, généralement situés là où l'électricité est bon marché. (Le plus grand centre de données du monde, en 2018, à Langfang, en Chine, couvre 6,3 millions de pieds carrés, soit l'équivalent de 110 terrains de football). Bon marché, bien sûr, est un terme relatif. Une étude menée par des chercheurs de l'Université McMaster a révélé que, si rien n'est fait, l'industrie informatique dans son ensemble pourrait représenter 14 % de toutes les émissions de gaz à effet de serre d'ici 2040 - " environ la moitié de l'ensemble du secteur des transports dans le monde".

Cette intensité de carbone s'explique en partie par la conviction que des ensembles de données toujours plus volumineux sont essentiels pour former des algorithmes d'apprentissage automatique afin de créer des systèmes d'IA exploitables. (L'apprentissage automatique est une sorte d'intelligence artificielle, dans laquelle les algorithmes trient d'énormes quantités de données à l'aide de méthodes statistiques pour effectuer des classifications et des prédictions ; l'hypothèse est que plus de données donnent des résultats plus précis). Lorsque des chercheurs de l'université du Massachusetts Amherst ont calculé les émissions de carbone nécessaires à la construction et à la formation d'un seul système de traitement du langage naturel - qui apprend aux ordinateurs à interpréter et à utiliser le langage de tous les jours - ils ont déterminé qu'elles étaient environ cinq fois supérieures aux émissions d'une voiture usaméricaine moyenne pendant toute sa durée de vie.

Au début de ce que nous considérons aujourd'hui comme l'informatique numérique, le traitement du langage naturel était le Saint Graal de l'intelligence artificielle. Il est au cœur de ce que l'on appelle le test de Turing, une méthode permettant de déterminer si une machine a atteint une cognition de niveau humain, dérivée de l'article "Computing Machinery and Intelligence" publié en 1950 par le mathématicien britannique Alan Turing. Dans sa formulation la plus simple, le test postule que nous saurons que les machines ont atteint une réelle intelligence lorsque les gens seront incapables de déterminer s'ils conversent avec un humain ou une machine.

Si l'on laisse de côté l'inadéquation du test de Turing pour déterminer réellement l'intelligence, ainsi que sa compréhension réductrice de ce qu'est l'intelligence, il est indiscutable que les systèmes de traitement du langage naturel ont fait d'énormes progrès, en particulier ces dernières années. Il est désormais possible d'avoir un échange rudimentaire avec le dispositif Alexa d'Amazon, même s'il y a de fortes chances pour que les réponses d'Alexa soient complètement à côté de la plaque ou ineptes. (De plus, Alexa a commencé à lancer des conversations, presque toujours pour promouvoir un aspect du commerce lié à Amazon : "Vous êtes peut-être à court de thé irlandais Stash. Voulez-vous en commander un autre ?") Google Translate peut prendre des mots et des phrases de Hmong, par exemple, et les convertir en serbe - un triomphe, mais là encore, avec des degrés de réussite variables.

Récemment, l'institut de recherche OpenAI a publié GPT-3, une itération actualisée de son processeur de langage naturel. L'acronyme signifie Generative Pre-trained Transformer. Il est "préformé" parce que ses algorithmes ont déjà trié quelque 570 gigaoctets de texte et trouvé les groupes de mots les plus significatifs d'un point de vue statistique. Avec seulement quelques instructions, GPT-3 est capable d'écrire des histoires courtes et des essais. Peu de temps après sa sortie, je lui ai demandé de composer un essai intitulé "Le futur de l'humanité". Si l'on ne lit pas le résultat de trop près, on a l'impression qu'il aborde le sujet avec un étrange degré de sophistication. En effet, il s'agissait essentiellement d'une collection de mots et de phrases que l'on pouvait s'attendre à trouver dans un tel essai. Ensemble, cependant, ils étaient vides :

Il fut un temps où l'avenir était certain. Cette époque arrive maintenant à sa fin. Le présent, comme tout le reste, prendra bientôt fin. .... Nous sommes à l'aube d'une révolution technologique qui a le potentiel d'éradiquer la souffrance humaine tout en mettant fin à notre existence en tant qu'espèce.

Les processeurs de langage naturel comme GPT sont entraînés sur des millions de documents et d'ensembles de données extraits d'Internet, y compris Wikipédia et la totalité des courriels saisis auprès des employés d'Enron pendant la procédure de faillite de la société, qui ont ensuite été mis en ligne par la Federal Energy Regulatory Commission. Comme à peu près tout ce qui se trouve sur l'internet, ces courriels sont devenus une proie idéale pour la recherche en apprentissage automatique. En plus de soulever des questions sur les implications en matière de vie privée du partage de la correspondance personnelle sans consentement, Crawford demande aux lecteurs de considérer d'autres ramifications, parfois subtiles, de l'entraînement des systèmes d'IA de cette manière, puisque ces systèmes refléteront les normes linguistiques de leurs sources. "Les archives textuelles étaient considérées comme des collections neutres de langage, comme s'il existait une équivalence générale entre les mots d'un manuel technique et la façon dont les gens écrivent à leurs collègues par courrier électronique", écrit-elle.

Si un modèle linguistique est basé sur les types de mots qui sont regroupés, l'origine de ces mots est importante. Il n'existe pas de terrain neutre pour la langue, et toutes les collections de textes sont également des témoignages de temps, de lieu, de culture et de politique.

Il s'agit d'un point crucial, qui permet d'aborder la manière dont les modèles de formation de l'IA peuvent reproduire des préjugés sociaux et culturels bien ancrés.

Le terme "biais" est complexe, mais il est utile de le garder à l'esprit pour comprendre le fonctionnement des systèmes d'IA. Pour les développeurs qui construisent des systèmes d'apprentissage automatique, le "biais" fait référence à la tâche pour laquelle ils construisent l'IA, comme jouer aux échecs ou faire des réservations de restaurant. Dans cette situation, il est neutre. Plus généralement (et familièrement), il décrit non seulement les systèmes d'IA qui perpétuent les préjugés et exploitent les stéréotypes, mais suggère également comment ils en sont arrivés là. Les machines ne savent ce qu'elles savent qu’à partir des données qui leur ont été fournies.

Les données historiques, par exemple, ont le défaut de refléter et de renforcer les modèles historiques. Un bon exemple de cela est un système de gestion des talents construit il y a quelques années par des développeurs d'Amazon. Leur objectif était d'automatiser l'embauche d'ingénieurs logiciels potentiels à l'aide d'un système d'IA capable de trier des centaines de CV et de les noter comme les acheteurs d'Amazon notent les produits. L'IA sélectionnait les candidats les mieux notés et rejetait les autres. Mais lorsque les développeurs ont examiné les résultats, ils ont constaté que le système ne recommandait que des hommes. En effet, le système d'IA avait été formé sur un ensemble de données de CV d'employés d'Amazon embauchés par la société au cours des dix dernières années, qui étaient presque tous des hommes.

Dans son examen étonnamment vivant de la réglementation de l'IA, We, the Robots ?, le juriste Simon Chesterman cite l'audit d'un autre programme de sélection de CV qui a révélé que "les deux facteurs les plus importants pour la performance professionnelle... étaient de s'appeler Jared et d'avoir joué à la crosse au lycée". Les préjugés peuvent également être introduits par inadvertance dans les systèmes d'IA d'autres manières. Une étude portant sur les trois principaux systèmes de reconnaissance faciale a révélé qu'ils ne parvenaient à identifier le sexe que dans 1 % des cas lorsque le sujet était un homme blanc. En revanche, lorsque le sujet était une femme à la peau plus foncée, le taux d'erreur était de près de 35 % pour deux des entreprises et de 21 % pour la troisième. Il ne s'agit pas d'une erreur. Les créateurs d'algorithmes ont formé leurs algorithmes sur des ensembles de données composés principalement de personnes qui leur ressemblaient. Ce faisant, ils ont introduit un biais dans le système.

 


Les conséquences de ce type d'erreurs peuvent être profondes. Elles ont amené Facebook à qualifier les hommes noirs de primates, elles pourraient faire en sorte que les véhicules autonomes ne reconnaissent pas une femme à la peau foncée qui traverse la rue, et elles pourraient conduire la police à arrêter la mauvaise personne. En fait, l'année dernière, le New York Times a rapporté le cas de Robert Williams, un homme noir qui a reçu un appel de la police de Détroit alors qu'il était au travail, lui disant de se présenter au poste de police pour être arrêté. Au poste, Williams a été emmené dans une salle d'interrogatoire, où des détectives lui ont montré trois photos granuleuses. Il s'agissait de photos de surveillance d'un magasin où quelqu'un avait volé près de 4 000 dollars de marchandises. La personne en question était un homme noir de forte corpulence, comme Williams. Mais c'est là que s'arrêtent les similitudes. Comment l'ordinateur de la police avait-il identifié Williams ? Par une correspondance entre les photos de surveillance granuleuses et la photo du permis de conduire de Williams. Dans ce cas, un système de reconnaissance faciale mal formé a été utilisé pour arrêter un homme innocent et le jeter en prison, même s'il n'y avait aucune preuve physique le reliant au crime.

Les bases de données utilisées par les forces de l'ordre comprennent environ 641 millions de permis de conduire et de photos d'identité provenant de vingt et un États. Dans de nombreux États, les informations personnelles recueillies par des organismes municipaux comme le Department of Motor Vehicles sont vendues à des tiers et peuvent ensuite être intégrées dans des systèmes commerciaux de reconnaissance faciale. M. Crawford souligne que les photos d'identité judiciaire ont également été utilisées à bon escient : "Une personne qui se tient devant une caméra dans une combinaison orange est déshumanisée et n'est plus qu'une donnée supplémentaire", écrit-elle.

Et comme un cliquet qui se resserre, les visages des personnes décédées, des suspects et des prisonniers sont récoltés pour affiner les systèmes de reconnaissance faciale de la police et de la surveillance des frontières, qui sont ensuite utilisés pour surveiller et détenir davantage de personnes.

Les systèmes d'intelligence artificielle font désormais partie intégrante du système de justice pénale. Dans certaines juridictions, comme Los Angeles, l'IA a permis de déterminer où la police devait patrouiller, une décision souvent prise sur la base des endroits où le plus de crimes sont commis. Cela peut sembler raisonnable, mais le fait d'envoyer davantage de policiers patrouiller dans ces quartiers a entraîné l'arrestation d'un plus grand nombre de personnes pour des délits mineurs et non violents. Cela devient une boucle auto-renforcée : plus de crimes, plus de police ; plus de police, plus de crimes, et ainsi de suite. Ensuite, une fois qu'une personne est arrêtée, un juge peut utiliser un logiciel d'évaluation des risques pour décider si elle doit aller en prison et pour combien de temps. Si la personne arrêtée vit dans un quartier à forte délinquance, elle a beaucoup plus de chances d'être incarcérée, car l'algorithme ne se contente pas d'évaluer sa propension à commettre un autre crime - ce qu'il ne peut évidemment pas savoir - mais examine les casiers judiciaires d'un ensemble de personnes ayant des antécédents et des caractéristiques similaires. *

Les juges, les procureurs et les commissions de libération conditionnelle qui utilisent ce genre d'outils d'évaluation des risques croient souvent qu'ils sont plus justes que les décisions prises par des humains, sans voir qu'en réalité, les évaluations ont été faites par les humains qui ont conçu ces systèmes d'IA en premier lieu. En outre, comme le note Chesterman, une étude canadienne

d'avocats et de juges [...] a révélé que nombre d'entre eux considéraient les logiciels [d'évaluation des risques]... comme une amélioration par rapport au jugement subjectif : bien que les outils d'évaluation des risques ne soient pas considérés comme des prédicteurs particulièrement fiables du comportement futur, ils étaient également privilégiés parce que leur utilisation minimisait le risque que les avocats et les juges soient eux-mêmes blâmés pour les conséquences de leurs décisions.

D'autres types de préjugés sont encore plus subtils. De nombreux systèmes d'IA sont propriétaires. Protégés par les lois sur la propriété intellectuelle, ils sont souvent opaques, même pour ceux qui les emploient. Ils sont également impénétrables pour la population en général. Prenons l'exemple des scores de crédit : pour la plupart d'entre nous, il s'agit d'un chiffre qui se cache en arrière-plan, non seulement de notre vie financière, mais aussi de ce à quoi cette vie financière mène, comme les hypothèques et les limites de dépenses sur les cartes de crédit. Dans le passé, un score de crédit était généralement le reflet du sérieux avec lequel on payait ses factures et réglait ses dettes. Aujourd'hui, il est question de l'enrichir de données "alternatives", tirées des médias sociaux et de l'internet.

Il n'y a aucun moyen de savoir d'où proviennent toutes les données, si elles sont exactes, comment elles sont pondérées, ou si le moteur algorithmique qui alimente le système s'appuie sur des données qui reproduisent elles-mêmes des préjugés historiques, comme le lieu de résidence d'une personne ou son lieu d'études. En outre, bien qu'il soit illégal, dans certaines circonstances, de demander certaines informations personnelles, comme le sexe, les algorithmes peuvent être truffés d'hypothèses formulées par leurs auteurs humains, par exemple qu'un enseignant d'école primaire est une femme ou qu'un pilote commercial est un homme. Ils peuvent également utiliser une variable pour en remplacer une autre, comme le code postal pour la richesse ou le nom de famille pour la race et l'origine ethnique.

Il n'y a pas longtemps, la compagnie d'assurance en ligne Lemonade a publié une série de tweets "expliquant" comment les algorithmes de l'entreprise évaluent les demandes d'indemnisation. Comme le rapporte le site Recode, Lemonade affirme avoir recueilli plus de 1 600 points de données sur chaque utilisateur, mais


n'a pas précisé quels sont ces points de données, ni comment et quand ils sont collectés, mais simplement qu'ils produisent des "profils nuancés" et des "informations remarquablement prédictives" qui aident Lemonade à déterminer, avec des détails apparemment très précis, le niveau de risque de ses clients.

Le risque, ici, fait en fait référence au niveau de risque de l'entreprise, qu'elle a cherché à    atténuer en demandant aux clients qui font des demandes d'indemnisation de soumettre des vidéos que son IA "analyse soigneusement... pour trouver des signes de fraude", y compris des "indices non verbaux." Le fil de discussion sur Twitter a conclu que l'IA de Lemonade était responsable du fait que la société gagnait plus d'argent en primes qu'elle n'avait à payer en indemnités.

L'utilisation de la vidéo par Lemonade pour évaluer la véracité d'un client fait partie d'une nouvelle tendance impliquant l'utilisation de l'IA pour "lire" les émotions humaines. En principe, l'"IA affective" peut scanner un visage et "savoir" ce que ressent une personne. L'un des leaders dans ce domaine, une société appelée Affectiva, affirme qu'elle "humanise la technologie". Proposant ses services aux entreprises qui espèrent évaluer l'intérêt des consommateurs pour leurs produits, Affectiva affirme qu'elle peut mesurer les micro-expressions faciales d'une personne au moment où elle regarde une publicité, en utilisant "la plus grande base de données d'émotions au monde", et corréler ces mouvements microscopiques avec des attributs humains tels que la fiabilité et l'attention. Les systèmes d'IA affective sont désormais utilisés par les contrôleurs d'aéroport pour "identifier" les terroristes, par les universités pour évaluer l'engagement des étudiants et par les entreprises pour éliminer les candidats à un emploi.

Comment l'IA sait-elle si quelqu'un s'ennuie, est en deuil ou est euphorique ? L'IA affective repose, premièrement, sur l'hypothèse qu'il existe une taxonomie partagée des expressions faciales et, deuxièmement, sur l'idée que cette taxonomie peut être traduite en un système numérique. Cette hypothèse est-elle spécieuse ? Une étude au moins, réalisée par l'université du Maryland, a montré que les visages noirs sont plus susceptibles que les visages blancs d'être classés par l'IA comme étant en colère. Et, bien sûr, il y a les questions de surveillance que cela soulève, et les nombreuses façons dont la surveillance conduit à l'autocensure et à la limitation de l'expression personnelle.

Cependant, ce n'est généralement pas ce que les gens craignent de l'intelligence artificielle. Le plus souvent, on craint le remplacement, c'est-à-dire que l'IA nous dépasse intellectuellement ou qu'elle prenne nos emplois. L'inquiétude concernant l'emploi n'est pas déplacée. Selon une équipe d'économistes du MIT et de l'université de Boston, l'automatisation supprime des emplois plus rapidement qu'elle n'en crée. Une autre étude, réalisée par le cabinet de prévision Oxford Economics, prévoit la perte de 20 millions d'emplois au profit de l'automatisation d'ici 2030. La perspective que nous travaillerons bientôt pour nos machines, et non l'inverse, est déjà la norme dans les entrepôts d'Amazon, où les humains sont, selon les mots de Crawford, "là pour accomplir les tâches spécifiques et minutieuses que les robots ne peuvent pas accomplir". Mais même avant le projet de déshumanisation sans précédent d'Amazon, les développeurs d'IA étaient tributaires de légions de scouts sous-payés pour taguer les clips audio et les images, entre autres choses. "Des formes d'exploitation du travail existent à tous les stades du pipeline de l'IA", écrit Crawford,

du secteur minier... au secteur des logiciels, où la main-d'œuvre distribuée est payée quelques centimes par microtâche..... Les travailleurs effectuent les tâches répétitives qui soutiennent les allégations de magie de l'IA, mais ils sont rarement crédités d'avoir fait fonctionner les systèmes.

L'IA cannibalise également le secteur des cols blancs. Une étude de Wells Fargo estime que pas moins de 200 000 emplois dans la finance disparaîtront au cours de la prochaine décennie. L'IA lit désormais les documents juridiques avec une vitesse et une précision inégalées par ses homologues humains, génère des rapports d'entreprise et se charge d'embaucher, d'évaluer et de licencier les travailleurs. L'IA s'introduit également dans des domaines créatifs tels que la composition musicale. Aiva (Artificial Intelligence Virtual Artist) a appris le solfège à partir d'une base de données de compositions classiques, produit ses propres partitions, contribue aux bandes sonores de films et est la première IA à être officiellement désignée comme compositeur, avec ses propres droits d'auteur dans le cadre des sociétés française et luxembourgeoise des droits d'auteur.

Mais les années à venir ne seront pas faites que de pertes, comme le souligne Kevin Roose dans son évaluation finalement géniale de la perspective de notre coexistence avec des machines automatisées et artificiellement intelligentes, Futureproof : 9 Rules for Humans in the Age of Automation. Outre les économies potentielles découlant des gains d'efficacité et de la réduction des coûts de main-d'œuvre associés à l'automatisation, qui ne seront peut-être pas répercutées sur les consommateurs, mais qui profiteront certainement aux entreprises et à leurs propriétaires (dont la personne la plus riche du monde, Jeff Bezos, fondateur d'Amazon), de nouveaux emplois seront créés dans des domaines qui n'existent pas encore. Cognizant, la société qui a fourni des modérateurs de contenu à Facebook, imagine que certains d'entre eux seront des "courtiers en données personnelles", des "constructeurs de parcours en réalité augmentée" et des "conseillers en réadaptation pour la cybercriminalité juvénile". Et puis il y a ceci : Le Wall Street Journal a récemment rapporté que Pepper, un robot humanoïde créé par le groupe SoftBank au Japon, était si incompétent dans les différents emplois pour lesquels il était chargé, parmi lesquels ceux de prêtre bouddhiste et de préposé à la maison de retraite, que l'entreprise a cessé de le fabriquer, ce qui suggère que certains humains ne sont peut-être pas encore obsolètes.

L'autre crainte, à savoir que les systèmes d'IA acquièrent une intelligence de niveau humain et finissent par nous dépasser, relève jusqu'à présent de la science-fiction. Il est vrai que l'IA peut exécuter certaines fonctions plus rapidement et avec plus de précision que l'homme, mais cela ne constitue pas une mesure de l'intelligence. Selon l'informaticien et entrepreneur en IA Erik J. Larson, "à mesure que nous réussissons à appliquer des versions plus simples et plus étroites de l'intelligence qui bénéficient d'ordinateurs plus rapides et de beaucoup de données, nous ne faisons pas de progrès progressifs, mais nous cueillons plutôt des fruits à portée de main". Son nouveau livre réfléchi, The Myth of Artificial Intelligence : Why Computers Can't Think the Way We Do (Le mythe de l'intelligence artificielle : pourquoi les ordinateurs ne peuvent pas penser comme nous), il démontre de manière convaincante que l'intelligence artificielle générale - une intelligence basée sur la machine qui égale la nôtre - est au-delà de la capacité de l'apprentissage algorithmique de la machine parce qu'il y a un décalage entre la façon dont les humains et les machines savent ce qu'ils savent. Les connaissances humaines sont diverses, tout comme nos capacités. Notre intelligence découle de l'éventail de nos expériences et se nourrit, parfois, de l'irrationnel, de la sérendipité, du spirituel et de la fantaisie. Comme l'estime le scientifique français François Chollet, spécialiste de l'apprentissage automatique, Larson écrit : "Votre cerveau est une pièce dans un système plus large qui comprend votre corps, votre environnement, les autres humains et la culture dans son ensemble".

En revanche, même les machines qui maîtrisent les tâches pour lesquelles elles ont été formées ne peuvent changer de domaine. Aiva, par exemple, ne peut pas conduire une voiture, même si elle sait écrire de la musique (et n'y parviendrait même pas sans Bach et Beethoven). AlphaGo peut battre le joueur de Go le plus accompli au monde, mais il ne peut pas jouer aux échecs, et encore moins écrire de la musique ou conduire une voiture. En outre, les systèmes d'apprentissage automatique sont formés sur des ensembles de données qui sont, par définition, limités. (Si ce n'était pas le cas, il ne s'agirait pas d'ensembles de données.) Comme le fait remarquer Larson, le monde réel - celui dans lequel nous vivons et avec lequel nous interagissons - génère des données à longueur de journée : "Le bon sens permet de comprendre en grande partie les limites de l'apprentissage automatique : il nous dit que la vie est imprévisible" . L'IA ne peut pas rendre compte des aspects qualitatifs, non mesurables, idiosyncrasiques et désordonnés de la vie. Le danger à venir n'est donc pas que les systèmes artificiellement intelligents deviennent plus intelligents que leurs créateurs humains. C'est qu'en valorisant ces systèmes sans réserve, les humains cèdent volontairement l'essence même de nous-mêmes - notre curiosité, notre compassion, notre autonomie, notre créativité - à une vision étroite et algorithmique de ce qui compte.

 

NdA

1.       Une étude de ProPublica de 2016 portant sur plus de sept mille arrestations dans le comté de Broward, en Floride, a révélé que le système d'IA du comté était deux fois plus susceptible de qualifier les accusés noirs de futurs criminels que les blancs. L'une des questions qu'il utilisait pour évaluer le risque était la suivante : "L'un de vos parents a-t-il déjà été envoyé en prison ?", perpétuant ainsi l'incarcération de masse.

Aucun commentaire: