Tribune

Les 6 risques réels et immédiats de l'intelligence artificielle

Une technologie comme l’intelligence artificielle a un tel potentiel qu'elle suscite tous les fantasmes: explosion de la productivité, destruction massive d'emploi, supra intelligence, terminators, extinction de l'homo sapiens, singularité. Mais quels sont les réels risques à court termes ?

La 24pm Academy a été créée pour deux raisons

  • Transformer un maximum de professionnels français à l'intelligence artificielle afin d'augmenter leur employabilité, garante des performances de notre économie
  • Mettre fin aux fantasmes véhiculés par les vendeurs de rêve autant que les catastrophistes qui ne soulignent que les risques de l'intelligence artificielle

Ils reproduisent avec plus ou moins de pertinence les propos d'une dizaine de personnalités californiennes, connues en Europe et pas forcément reconnue dans leur propre pays pour leurs compétences en intelligence artificielle. Elon Musk et Stephen Hawking en font/faisaient partie.

La 24pm academy est faite pour que vous vous construsiez votre propre vision de l'intelligence artificielle parce que vous n'avez pas à faire plus confiance aux experts en matière d'intelligence artificielle que vous ne devez croire sur parole les politiques.

Pour lever le suspens, voici la réponse à la question, posées dans le titre de l'article.

Les risques de l'intelligence artificielle

  •     Perte d'emploi due à l'automatisation
  •     Violations de la vie privée
  •     Deepfakes
  •     Inégalité socio-économique / Biais algorithmiques causés par de mauvaises données
  •     Automatisation des armes


Vous pouvez maintenant zapper et passer à un autre article si vous avez une capacité de concentration dans la moyenne ou bien continuer la lecture si vous appartenez à l'élite intellectuelle de ce pays.

Bon, d'accord, j'en fais un peu beaucoup pour vous mettre dans ma poche.

Allez, arrêtons les futilites et rentrons dans le coeur du sujet.

En mars 2019, lors de la conférence technologique South by Southwest à Austin, Texas, le fondateur de Tesla et de SpaceX, Elon Musk, a lancé un avertissement amical : "Retenez bien mes mots", a-t-il dit, milliardaire décontracté dans une veste de bombardier à col fourrure et une vieille peau, "L'IA est bien plus dangereuse que les armes nucléaires."

"Je suis vraiment très proche... des chercheurs à la pointe de l'IA, et ça me fait très peur", a-t-il déclaré à son public SXSW. "C'est capable de bien plus que ce que l'on peut imaginer, et le taux d'amélioration est exponentiel."

Musk, cependant, est loin d'être le seul à avoir des opinions extrêmes sur l’IA (certains diraient même sombres et alarmistes). Un an auparavant, le regretté physicien Stephen Hawking avait été tout aussi franc lorsqu'il avait déclaré à un auditoire au Portugal que l'impact de l'IA pourrait être cataclysmique si son développement rapide n'était pas strictement et éthiquement contrôlé.

"Si nous n'apprenons pas à nous préparer et à éviter les risques potentiels, a-t-il expliqué, l'IA pourrait être le pire événement de l'histoire de notre civilisation. »

"Si l'IA se détériorait et que 95 % des humains étaient tués, les 5 % restants s'éteindraient peu après. Donc, malgré son incertitude, elle a certaines caractéristiques de très mauvais risques.", selon Stuart Armstrong, chercheur à l'Institut du Futur de la Vie

Tandis que les transhumanistes diront qu" Une fois que les ordinateurs peuvent effectivement se reprogrammer, et s'améliorer successivement, conduisant à une soi-disant " singularité technologique " ou " explosion d'intelligence ", les risques de voir les machines déjouer les humains dans les batailles pour les ressources et l'auto-préservation ne peuvent pas être simplement écartés ".

L’auteur de cet article ne partage pas cette vision qui se fonde sur le postulat que l’IA serait unjour capable s’autonomiser au point de se reprogrammer, de changer de nature et de changer de destination et non simplement d’améliorer les performances de l’existant. L’autonomisation de l’IA est une possibilité, un fantasme, une vue de l’esprit, mais en aucun cas, une certitude scientifique.

Il ne faut pas oublier que dès la fin des années 1950, les experts américains de l’intelligence artificielle prédisaient que l’intelligence artificielle serait supérieure à l’homme dès la fin des années 1960. 70 ans plus tard, on voit que les prévisions sont toujours les mêmes et que l’on en est très loin. La machine « powered by AI » qui serait ne serait-ce qu’aussi intelligente et polyvalente n’est pas près de devenir une réalité et pourtant des prospectivistes du même âge que ceux de 1956 font la même promesse qui doit se réaliser dans le même horizon de temps (environ 15 ans, soit suffisamment loin pour que le prospectiviste ne se fasse pas démentir par ses contemporains qui auront oublié les promesses faites 15 ans auparavant).

L'intelligence artificielle est-elle une menace ?

Menace est un bien grand mot, non seulement parce que l’IA n’est qu’une technologie qui peut être utilisé d’abord pour le meilleur, mais aussi pour le pire. Ce sont les hommes qui décideront ce qu’ils en feront.

Certains l’utiliseront pour le meilleur de leur communauté, d’autres pour servir leurs propres intérêts et en écrasant leurs contemporains au besoin. Le législateur doit, non par éthique, mais pour le bien de la communauté d’encadrer ses utilisations que le meilleur prenne le pas sur le pire.

Ce qui vaut au niveau des individus ou entreprises, vaut aussi au niveau des états. Et là, ce sont les états les plus puissants qui imposeront leur pire ou leur meilleure vision.

Au fur et à mesure que l'IA devient plus sophistiquée et omniprésente, les voix qui mettent en garde contre ses pièges actuels et futurs se font plus fortes. Qu'il s'agisse de l'automatisation croissante de certains emplois, des problèmes de préjugés sexistes et raciaux découlant de sources d'information dépassées ou des armes autonomes qui fonctionnent sans surveillance humaine (pour n'en nommer que quelques-uns), le malaise abonde sur plusieurs fronts. Et nous n'en sommes encore qu'au tout début.

Risques Intelligence artificielle #2

Le risque immédiat : l'automatisation des tâches

L'automatisation des tâches est généralement considérée comme la préoccupation la plus immédiate. La question n'est plus de savoir si l'IA va remplacer certains types d'emplois, mais dans quelle mesure et de quelle manière. Dans de nombreuses industries - en particulier, mais pas exclusivement, celles dont les travailleurs accomplissent des tâches prévisibles et répétitives, mais trop compliqué physiquement parlant (la précision est d’importance)- la perturbation est en bonne voie. Selon une étude de la Brookings Institution de 2019, 36 millions de personnes occupent des emplois " fortement exposés " à l'automatisation, ce qui signifie que potentiellement, au moins 70 % de leurs tâches - allant de la vente au détail et de l'analyse de marché à l'hôtellerie et au travail en entrepôt - seront effectuées à l'aide de l'IA. Avec l’aide, ne signifie pas par l’IA sans les travailleurs. Un rapport encore plus récent de la Brookings Institution conclut que les cols blancs sont peut-être en fait les plus à risque (à cause de la fameuse contrainte de la physique). Et selon un rapport de McKinsey & Company datant de 2018, la main-d'œuvre afro-américaine sera la plus durement touchée aux Etats-Unis.

Par exemple, aux Etats-Unis, le taux de chômage est faible pour deux raisons :

  • 10 à 20 millions de personnes sont sorties des statistiques du chômage car elles n’ont aucune intérêt à se déclarer en tant que chômeurs car elles n’ont pas d’indemnité à toucher, le système américain étant, comme chacun sait, moins généreux que les systèmes européens. Formulé autrement, le faible taux de chômage américain est une vision technique : le véritable taux de chômage est plus élevé (il se situe probablement aux alentours de 7% à 9%)
  • L’autre raison, réelle, est en grande partie que les emplois à bas salaire dans le secteur des services ont été créés de manière assez importante, mais avec l’automatisation qui arrive, ce sera moins le cas dans les 20 ans à venir.

À mesure que les robots d'IA deviennent plus intelligents et plus habiles, les mêmes tâches nécessiteront moins d'humains. Pas « plus d’humains », mais « moins d’humains ». Et s'il est vrai que l'IA va créer des emplois, dont un nombre exact reste indéfini, beaucoup seront inaccessibles aux membres les moins instruits de la main-d'œuvre « déplacée ».

"Si vous retournez des hamburgers chez McDonald's et que l'automatisation s'accroît, est-ce qu'un des nouveaux emplois créés grâce à l’intelligence artificielle vous conviendra ?. Rien n’est moins sur car à côté des travaux d’annotation des données utilisées pour entraîner les systèmes intelligents, de ceux créés pour contrôler, redresser les résultats des IA qui vous seront accessibles, il y en aura d’autres qui demanderont beaucoup de technicité (maintenance des robots, des machines automatiques, amélioration des algorithmes..). On ne parle même pas des emplois reposant sur les fameuses ‘soft skills’ au premier rang desquels la créativité, dont ceux qui ne comprennent rien à l’intelligence artificielle pensent qu’ils seront les seuls qui survivront à l’ère de l’automatisation.

La problématique n’est pas de développer des compétences différentes de celles que l’on pense que développera l’intelligence artificielle mais de travailler en collaboration avec elle :

  • Piloter les systèmes intelligents
  • Pallier par des actions à faible valeur ajoutée à leurs défaillances
  • Augmenter ses propres capacités grâce aux systèmes intelligents
  • Créer de nouveaux métiers à faible ou forte valeur ajoutée

Une théorie courante chez les spécialistes du machine learning, qui sont normalement les experts de la statistique, consiste à dire qu’une nouvelle technologie produit autant de nouveaux emplois qu’elle n’en détruit et que seuls les réfractaires croient le contraire.

Outre le fait que c’est une abérration scientifique (il n’existe aucune loi économique qui démontre que lorsqu’une technologie fait perdre un emploi, elle en crée une autre, ce qui reviendrait à dire que les gains de productivité sont nules. Ce qui est absurde).

En revanche, parfois, dans des cas précis, la main d’œuvre libérée (ou plutôt les enfants de ceux dont on a supprimé l’emploi) trouve à s’employer dans de nouveaux secteurs d’activité qui se sont développés la plupart du temps de façon indépendante de la dite technologie).

Il y a environ quatre ans, a déclaré M. Havens (à droite), il a interviewé sur les risques de l’IA le dirigeant d'un cabinet d'avocats sur l'apprentissage machine (machine learning). L'homme voulait embaucher plus de collaborateurs, mais il était aussi obligé d'atteindre un certain niveau de rendement pour ses actionnaires. Il a découvert qu'un logiciel à 200 000 dollars pouvait remplacer dix personnes dont le salaire était de 100 000 dollars chacune. Cela signifiait qu'il économiserait 800 000 $. Le logiciel augmenterait aussi la productivité de 70 % et éliminerait environ 95 % des erreurs. D'un point de vue purement actionnarial, Havens a dit, "il n'y a aucune raison légale pour qu'il ne vire pas tous les humains." Est-ce qu'il se sentirait mal à propos de ça ? Bien sûr. Mais ce n'est pas la question.

Même les professions qui exigent des diplômes d'études supérieures et une formation post-universitaire supplémentaire ne sont pas à l'abri d'un déplacement à cause du développement de l’IA. En fait, selon le consultant alarmatiste, Chris Messina (qui n’a jamais prédit de choses qui se soient produites…) certaines d'entre elles pourraient bien être décimées. L'IA a déjà un impact important sur la médecine. Le droit et la comptabilité sont les suivants, selon le même consultant, le premier étant sur le point de subir "un bouleversement massif". En même temps, on n’a pas encore vu d’hémmoragie des emplois dans le domaine de la médecine, dont on voit bien que les experts alarmistes voient ce qu’ils souhaitent voir.

" Pensez à la complexité de la gestion et de la rédaction des contrats, et plongez vraiment dans le vif du sujet et comprenez ce qu'il faut pour créer une structure de contrat parfaite ", a-t-il dit. " Ce sont beaucoup d'avocats qui lisent beaucoup d'informations - des centaines ou des milliers de pages de données et de documents. Il est très facile de passer à côté de certaines choses. Donc un agent intelligent qui aurait la capacité de tout passer au peigne fin et de fournir le meilleur contrat possible pour le résultat que vous essayez d'obtenir va probablement remplacer beaucoup d'avocats d'entreprise".

Les comptables doivent aussi se préparer à un grand changement, a averti Messina. Une fois que l'IA est capable de passer rapidement au peigne fin des masses de données pour prendre des décisions automatiques fondées sur des interprétations informatiques, les vérificateurs humains que sont les comptables, pourraient bien être inutiles ou moins utiles.

Risques Intelligence artificielle #3

La vie privée, la sécurité et la montée des "fakes »

Bien que la perte d'emploi soit actuellement le problème le plus pressant lié à l'interruption des services d'IA, ce n'est qu'un risque potentiel parmi d'autres. Dans un document de février 2018 intitulé " The Malicious Use of Artificial Intelligence " (L'utilisation malveillante de l'intelligence artificielle), le gouvernement du Canada a annoncé qu'il avait l'intention de mettre fin à l'utilisation de l'intelligence artificielle : Forecasting, Prevention, and Mitigation ", 26 chercheurs de 14 institutions (universitaires, civiles et industrielles) ont énuméré une foule d'autres dangers qui pourraient causer des dommages graves - ou, au moins, semer un chaos mineur - en moins de cinq ans.

" L'utilisation malveillante de l'IA ", écrivent-ils dans leur rapport de 100 pages, " pourrait menacer la sécurité numérique (par exemple, par le biais de criminels qui entraînent des machines pour pirater ou socialiser des victimes à des niveaux de performance humains ou surhumains), la sécurité physique (par exemple, des acteurs non étatiques qui arment des drones de consommateurs) et la sécurité politique (par exemple, par la surveillance, le profilage et la répression qui éliminent la vie privée, ou par des campagnes de désinformation automatisées et ciblées) ".

En plus de sa menace plus existentielle, Ford se concentre sur la façon dont l'IA affectera négativement la vie privée et la sécurité. L'utilisation " orwellienne " par la Chine de la technologie de reconnaissance faciale dans les bureaux, les écoles et d'autres lieux (le fameux systèmes du « Crédit social ») en est un excellent exemple, a-t-il dit. Mais ce n'est qu'un pays. Toute une " écosphère " d'entreprises spécialisées dans des technologies similaires existent et qui les vendent dans le monde entier.

Ce que nous pouvons seulement deviner jusqu'à présent, c'est si cette technologie sera un jour normalisée. Comme pour l'Internet, où nous sacrifions allègrement nos données numériques sur l'autel de la commodité, la surveillance 24 heures sur 24, analysée par l'IA, semblera-t-elle un jour un compromis équitable pour une sécurité accrue malgré son exploitation néfaste par de mauvais acteurs ?

Les régimes autoritaires l'utilisent ou vont l'utiliser, c’est à peu près certain si l’on en juge par les projets lancés par les régimes autoritaire de tout poil.

La question est de savoir dans quelle mesure cette pratique va se répandre dans les pays occidentaux, les démocraties que ce soit via leurs propres gouvernements ou via les gouvernements étrangers qui ficheraient l’ensemble des citoyens de la planète.

L'IA va également donner naissance à des " personnalités " des médias sociaux qui sembleront hyperréalistes et qui seront très difficiles à différencier des vraies. Déployées à peu de frais et à grande échelle sur Twitter, Facebook ou Instagram, elles pourraient vraisemblablement influencer une élection, donc totalement faussé le jeu démocratique et là, peu importe que ces faux profils agissent de façon entièrement autonome ou piloter par des humains.

Il en va de même pour les " deepfakes " audio et vidéo créés par la manipulation des voix et des ressemblances. Le deep fake a déjà commencé à se répandre. En utilisant l'apprentissage automatique, un sous-ensemble de l'IA qui est impliqué dans le traitement du langage naturel, un clip audio de n'importe quel politicien pourrait être manipulé pour faire croire que cette personne a exprimé des opinions racistes ou sexistes alors qu'en fait elle n'a rien dit de tel. Si la qualité du clip est suffisamment élevée pour tromper le grand public et éviter d'être détecté, cela pourrait " faire dérailler complètement une campagne politique ".

À partir de ce moment, personne ne sait ce qui est réel et ce qui ne l'est pas. Donc, cela mène vraiment à une situation où vous ne pouvez littéralement pas en croire vos propres yeux et oreilles…

Les législateurs, bien qu'ils ne soient pas toujours très au fait des technologies, sont très conscients de la nécessité de trouver des solutions et font pression en ce sens.

Risque de l’IA #3

Biais d'IA et accroissement des inégalités socio-économiques

L'aggravation des inégalités socio-économiques provoquée par les pertes d'emploi dues à l'IA est une autre source de préoccupation. Avec l'éducation, le travail a longtemps été un moteur de la mobilité sociale. Cependant, lorsqu'il s'agit d'un certain type de travail - le type prévisible et répétitif qui est sujet à la prise de contrôle de l'IA - les recherches ont montré que ceux qui se retrouvent dans le froid sont beaucoup moins susceptibles d'obtenir ou de chercher à se recycler que ceux qui occupent des postes de niveau supérieur et qui ont plus d'argent. (Encore une fois, tout le monde ne croit pas cela).

Diverses formes de préjugés liés à l'IA sont également préjudiciables et vont bien au-delà du sexe et de la race. En plus des biais liés aux données et aux algorithmes (le dernier pouvant " amplifier " le premier), l'IA est développée par des humains et les humains sont intrinsèquement biaisés.

Les chercheurs en IA sont principalement des personnes de sexe masculin, qui proviennent de certains groupes démographiques raciaux, qui ont grandi dans des zones socio-économiques élevées, principalement des personnes sans handicap, qui sont persuadés créés des systèmes adaptés à l’ensemble de la population. Parce qu’on les oblige pas à travailler avec des représentants des autres groupes, ils créent des systèmes d’IA qui correspondent à leur vision du monde et de la technologie.

Si le potentiel de nuisance de l’ia, ce type de scientifiques sont considérés par certains sociologue comme des personnes potentiellement parmi les plus dangereuses au monde, parce qu’ils ont cette illusions d'objectivité ". La communauté scientifique se doit de s’intégrer dans la dynamique sociale du monde, car la plupart des changements radicaux se produisent au niveau social.

Une grande partie du problème est la recherche du profit avant tout par le secteur privé qui finance en occident l’essentiel des projets d’IA. Et comme le consensus des élites estime que la raison d’être des entreprises est de générer du profit et non de contribuer au bien commun, on peut douter du bilan social global du secteur de l’intelligence artificielle. Si notre bien aimé président encourager les start upers à créer des start ups utiles plutôt qu’à créer des licornes, il n’y aurait peut-être pas de sujet.

Mais, de fait, il y a un sujet, dans une économie occidentale hyper financiarisée.

L’intelligence artificielle a une stratégie d’intelligence artificielle bien plus orientée sur le bien commun que les pays occidentaux, même si sa vision du bien de la commaunuté est quelques peu différentes de la notre.

Risques de l'intelligence artificielle #4

Armes autonomes et course aux armements potentiels de l'IA

Tout le monde n'est pas d'accord avec Musk pour dire que l'IA est plus dangereuse que les armes nucléaires. Mais que se passerait-il si l'IA décidait de lancer des armes nucléaires - ou, disons, des armes biologiques - sans intervention humaine ? Ou si un ennemi manipule des données pour renvoyer des missiles guidés par l'IA d'où ils viennent ? Les deux sont possibles. Et les deux seraient désastreux. Les plus de 30 000 chercheurs en IA/robotique et autres qui ont signé une lettre ouverte sur le sujet en 2015 le pensent certainement.

"La question clé pour l'humanité aujourd'hui est de savoir s'il faut lancer une course aux armements à l'échelle mondiale ou l'empêcher de démarrer ", ont-ils écrit. "Si une grande puissance militaire poursuit le développement d'armes AI, une course aux armements mondiale est pratiquement inévitable, et le point final de cette trajectoire technologique est évident : les armes autonomes deviendront les Kalachnikovs de demain. Contrairement aux armes nucléaires, elles ne nécessitent pas de matières premières coûteuses ou difficiles à obtenir, de sorte qu'elles deviendront omniprésentes et peu coûteuses à produire en masse pour toutes les grandes puissances militaires. Ce ne sera qu'une question de temps avant qu'elles n'apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs désireux de mieux contrôler leur population, de seigneurs de guerre désireux de perpétrer un nettoyage ethnique, etc. Les armes autonomes sont idéales pour des tâches telles que les assassinats, la déstabilisation des nations, la soumission des populations et l'assassinat sélectif d'un groupe ethnique particulier. Nous pensons donc qu'une course aux armements militaires AI ne serait pas bénéfique pour l'humanité. Il existe de nombreuses façons pour l'IA de rendre les champs de bataille plus sûrs pour les humains, en particulier les civils, sans créer de nouveaux outils pour tuer des gens.

Malheureusement la Chine sans l’annoncer clairement, s’est clairement lancée dans la course à l’armement intelligent : la technologie est pour elle un moyen d’abord d’assurer sa puissante économique, qui, elle-même lui permet d’assurer une puissance militaire pour que jamais les pays occidentaux ne la dominent plus comme cela a été le cas entre la fin du XIXe siècle et la fin du XXe siècle. Et évidement, comme la Chine souhaite devenir la super puissance de l’IA d’ici 2025, il serait illogique que l’intelligence artificielle ne lui permettent pas d’assoir sa puissance militaire, surtout contre les pays occidentaux contre lesquels elle entretient un énorme ressentiment.

Quant aux Etats-Unis, rassurez-vous : en 2012, le Département de la Défense de l'Administration Obama a publié une directive concernant "l'autonomie des systèmes d'armes" qui incluait cette ligne : "Les systèmes d'armes autonomes et semi-autonomes doivent être conçus pour permettre aux commandants et aux opérateurs d'exercer un niveau approprié de jugement humain sur l'utilisation de la force."

Nous voilà, rassurés : nous sommes certains que les Etats-Unis investissent depuis longtemps dans les armes autonomes et affirmaient déjà sous le gouvernement du gentil Obama qu’il était souhaitable de les faire contrôler par les gens militaires pour qu’ils tuent qui de droit.

Les risques de l'intelligence artificielle #5

Atténuer les risques de l'IA

Beaucoup pensent que la seule façon d'empêcher ou au moins de tempérer les ravages de l'IA la plus malveillante est la loi.

Même le libéral Elon Musk, affirmait « Je ne suis pas normalement un défenseur de la réglementation et de la surveillance - je pense qu'on devrait généralement se tromper en minimisant ces choses - mais c'est un cas où vous avez un danger très sérieux pour le public. Il doit s'agir d'un organisme public qui a une vision et ensuite une surveillance pour confirmer que tout le monde développe une IA en toute sécurité. C'est extrêmement important."

Traduisez : « eh, les législateurs, réveillez-vous, il faut encadrer les militaires et les GAFA avant qu’ils ne détruisent les emplois et les humains ».

De là, à dire qu’il faut non seulement réglementer l’usage de l’IA, mais aussi la recherche fondamentale… il n’y a qu’un pas.

Mais, l’équilibre sera difficile à définir dans la mesure où parce que tout pays en retard dans le développement de l'IA sera désavantagé - militairement, socialement et économiquement, la solution.

Recevez des exclus !

Contenus liés

Abonnez-vous et recevez des infos en exclu

24pm academy
17 rue etex 75018 Paris
O6 62 55 OO 1O

Search