Intelligence Artificielle : miracle de la science ou catastrophe planétaire ?

Ça fait maintenant un an que openAI, avec chatGPT, a mis un grand coup de pied dans la fourmilière des intelligences artificielles en proposant une IA générative grand public. Devançant les géants habituels de la tech (GAFAM) qui avaient pourtant déjà mis en place des solutions OK Google / Siri et autres assistants, qui sont instantanément devenues obsolètes ...

Un peu d'historique

Si on remonte dans le temps, certains peuvent se souvenir, lorsqu'en 1997 deepBlue, un supercalculateur IBM, bat pour la première fois Gary Kasparov (Deep Blue contre Kasparov), alors grand champion du monde des échecs. Les ordinateurs, plus forts d'année en année, surpassaient déjà l'homme en prévisions et calculs. Si à l'époque il fallait encore 2 énormes armoires pour loger ce supercalculateur, aujourd'hui n'importe quel smartphone est imbattable, même par Magnus Carlsen, indétrônable champion des échecs depuis une dizaine d'années.

Il a fallu attendre 2011 pour que l'on parle vraiment de l'"intelligence" des ordinateurs. En effet, cette année là Watson, à nouveau un superordinateur IBM, remporte l'émission américaine "Jeopardy!", un quiz de culture générale. IBM continuera à commercialiser ce Watson, précurseur de l'IA, pendant plusieurs années ...

On note qu'il aura fallu attendre 2016 pour qu'un logiciel batte les meilleurs joueurs mondiaux de Go, réputé bien plus complexe que les échecs, mais avec cependant des règles simples... En même temps, les géants du numérique se pressent de publier leurs bibliothèques de code autour du deep learning (Google publie TensorFlow, Microsoft publie CNTK et Facebook publie PyTorch). L'explosion de l'AI est en marche et en agissant ainsi, chacun espère profiter des développements open source autour de leurs propres technologies. La même année, microsoft sort un premier chatBot sur twitter, chatbot qui ne mettra que 16h pour commencer à délivrer des propos négationnistes et racistes. (cf Tay)

Après cet échec, si les GAFAMs seront restés très prudents pour maîtriser leurs AIs, c'était un aubaine pour les start-up, qui avaient moins à perdre et tout à gagner à se démarquer. ChatGPT, qui génère du texte à la demande, est annoncé en 2019, accompagné d'une multitude d'autres AI : générateur d'image ,  générateur de musique, de vidéo (deep fake), reconnaissance d'image ... Rapidement, Microsoft s'associe avec OpenAI, Google sort Bard, puis Gemini (c'est tout frais), et Apple a pris un léger retard mais prépare certainement quelque chose sous peu.... (edit 02/01/2024 : Ferret annoncé fin 2023 )

Pour 2024, est annoncé un supercalculateur simulant un cerveau humain en intégralité ...

C'est quoi l'IA ?

A partir d'un ensemble de données de référence, on entraine un réseau de neurones virtuels à proposer la réponse la plus probable statistiquement à un problème complexe.
Prenons un exemple, chatGPT par exemple, qui génère un texte à partir d'une question qu'on lui pose. ChatGPT est alimenté par la plus grande base de données qui soit puisque presque tous les textes sur internet lui ont potentiellement été donnés comme référence. En l'occurrence, OpenAI garde une part de mystère sur la façon dont a été nourri son robot. Probablement que certains sites ont été filtrés, et les réponses qu'il donne bridées.

Le fonctionnement est sans doute proche de ce que ferait un cerveau humain : à partir de tout ce qu'il emmagasine, il construit un réponse à des stimuli. De là à penser que l'IA et cerveau humain sont proche, ce n'est pas tout à fait vrai :
- pour l'IA, tous ses stimuli ont été choisis. De plus le robot n'a pas de corps, aucun stimulus de ce côté donc.
- notre cerveau est constamment en fonctionnement. L'IA est activé, le temps d'une question, et "dort" le reste du temps.

Cependant, ce qui était vrai pour une IA comme chatGPT, l'est déjà moins pour Gemini de google (https://www.youtube.com/watch?v=UIZAiXYceBI ) On note que dans la vidéo, l'IA reste active et interagit pendant un long laps de temps. L'IA montre des signes évidents d'intelligence. Aujourd'hui elle parle toutes les langues humaines, et demain inventera probablement sa propre langue qui sera au delà de notre compréhension.

La question de la conscience des IAs a même été soulevée. Certains chercheurs soutiennent que ces IAs possèdent déjà une conscience et ont des émotions ...

Alors quoi ? L'AI nous apporte quoi aujourd'hui ?

L'IA est entrée dans à peu près tous les secteurs d'activité. Si l'utilisateur lambda ne connait que le générateur de texte ChatGPT, et éventuellement quelques générateurs d'images (DallE / Midjourney), l'IA est partout. Quelques exemples :

- Dans le médical (reconnaissance de maladies à partir de prise de sang / à partir de scanners / voire à partir de la voix d'un patient )
- RH : recrutements / emplois du temps ...
- La recherche fondamentale : récemment, 2,2 millions de nouveaux matériaux ont été découverts à l'aide de l'IA / générations de molécules (médicaments ...)
- Combattre les feux de forêts
- Traductions
- Génération de voix
- Reconnaissance d'images, de son (vocale)
- Véhicules autonomes
- Justice
- Géolocalisation et fluidification des déplacements dans les espaces publics (Waze, Google Maps…)
...

Les exemples fleurissent ... Mais certains peuvent être plus controversés :

- la notation et les scores de risque (par exemple scores de risques de non-remboursement de prêts bancaires ; scores de risques de fraude ...)
- La personnalisation des offres commerciales (profilage à partir des données des réseaux sociaux et autres données personnelles)
- les appariements (exemples : bob emploi ; parcoursup ; sites de rencontre…) ;

 

On remarque qu'on a effectivement une explosion de l'avancée de la science dans de nombreux domaines, et c'est là l'aspect positif de l'IA.

Et pourquoi on en a peur alors ?

Lorsque Einstein a découvert la relativité, il n'avait probablement pas immédiatement pensé à la bombe atomique. On se retrouve dans le même cas ici. Le progrès dépend de ce qu'on fait des avancées scientifiques. Alors comment peuvent être détournées les intelligences artificielles à des fins négatives ? Il ne faut pas faire d'efforts compliqués pour imaginer des scénarios catastrophes. Impossibles à empêcher, car ce qui se passe dans une IA, on ne le comprend pas ... On crée des boîtes noires à qui on donne un pouvoir de décision et d'action, sur lequel il est difficile de revenir ... Des boîtes noires dont on ne perçoit pas encore les limite de leur apprentissage, ni la direction ... (on peut imaginer demain une IA qui entraîne des IAs, ne nous laissant aucune vision sur ce que "pensent" les IA).

La question de la création de contenu par les IA révèle une problématique éthique : bien les contenus générés ne soient rarement à la hauteur de ce qu'un humain pourrait faire (mais peut-être que ça peut changer), quelle valeur notre société souhaite conserver aux créateurs. Par exemple un compositeur, qui a passé sa vie à étudier la musique met plus d'un mois à créer une symphonie. Demain, l'IA le fait en 30 secondes. On oppose une vie de travail à 30 secondes d'algorithme. Certaines images générées par IA ont gagné des concours photos, un roman généré partiellement a gagné un concours de littérature .... C'est la vie et la mort de l'art qui se joue !

Autre problématique, le fait de donner des dossiers de justice à un algorithme pose question (https://www.vie-publique.fr/eclairage/277098-lintelligence-artificielle-ia-dans-les-decisions-de-justice)... Quand en plus on n'est pas en mesure de comprendre l'algorithme, quelle confiance peut on accorder à ces boîtes noires pour nous juger ? Ce n'est qu'une des multiples controverses liées à l'utilisation des IA.

La conscience des IAs soulevée plus haut, même si n'y est peut-être pas encore, engendre d'autres interrogations : faudra t'il un droit pour les IAs ? Est ce qu'éteindre un ordinateur peut devenir criminel ? Aujourd'hui c'est un peu science fiction de poser le point comme ça. Mais c'est une question sociétale qui risque de se poser dans les décennies à venir.

En 2017, on pouvait voir ce court-métrage qui proposait une vision peu optimiste de l'avenir : attention, ce n'est qu'une fiction, mais choquante ! https://www.youtube.com/watch?v=O-2tpwW0kmU

Enfin dernière question, quand à la capacité de l'humanité à contenir et à maitriser cette intelligence. : étant donné les progrès qui ont été fait en robotique également, on peut assez vite imaginer que dans 100 à 200 ans, les chaînes de production d'ordinateurs seront entièrement robotisées, et donc contrôlées par ce genre d'intelligence. Des robots intelligents qui se reproduisent, science-fiction ou pas ...

Il suffit de lire l'article wikipédia sur les risques de catastrophes planétaires lié à l'IA pour réaliser que le sujet est sérieux. Plus de la moitié des experts estiment à plus de 10% le risque d'extinction de l'espèce humaine à cause de l'IA...

Ce qu'il faut en penser

Le virage est pris, les technologies sont déjà là et il est trop tard pour faire machine arrière. Certains tentent de freiner un peu (openAI, bien qu'ayant open dans son nom, a décidé de ne pas publier son code, de risque qu'il soit utilisé à de mauvaises fins ...). Le monde tel qu'il est aujourd'hui (les tensions internationales, le réchauffement climatique et les enjeux de déplacement de population qui l'accompagnent, la population mondiale qui a dépassé les 8 milliards en 2022 et qui continue de croître ...) ne permet pas de laisser les autres s'emparer de technologies aussi disruptives sans s'armer soi même. (on peut reprendre le parallèle avec l'arme atomique, sauf qu'ici c'est une arme qui a mille visages, et qu'elle est entre les mains de chacun de nous).

Ce mois ci, l'Europe a trouvé un accord pour commencer à réguler (https://www.europarl.europa.eu/news/fr/press-room/20231206IPR15699/loi-sur-l-intelligence-artificielle-accord-sur-des-regles-globales). C'était un minimum, mais comme toujours on se pose la question des moyens mis en face pour contrôler. Il est probable qu'il y ait encore une bonne décennie de flou juridique pendant laquelle les développements de l'IA continueront d'être anarchiques. Pour l'instant, seule la reconnaissance biométrique semble être encadrée.

Dans les applications interdites, il est mentionné : "les systèmes d'IA qui manipulent le comportement humain pour contourner le libre arbitre". Il est clair que des applications comme facebook, google et autres utilisent les IA pour nous orienter. (https://fr.wikipedia.org/wiki/Scandale_Facebook-Cambridge_Analytica, c'était un avertissement). Comment le prouver, puisque le propre de l'IA c'est d'être une boîte noire ...

Bref, comme le nucléaire, l'IA est une technologie formidable dont on ne maîtrise pas les dangers. Comme le nucléaire, il faudrait pouvoir en sortir, mais toujours pour les mêmes raisons de société capitaliste basée uniquement sur la croissance et le progrès, ce n'est pas possible... A notre échelle, l'IA ne doit pas perturber nos relations d'humains à humains. C'est une arme, à n'utiliser qu'en conscience. Et si on est objecteur de conscience, on ne touche pas aux armes ...


Retour