Révolution numérique
Ces dernières décennies, la technologie n’a cessé de se développer à une allure folle. Internet, les smartphones, les enceintes intelligentes, le monde technologique est constamment en recherche d’innovation et d’amélioration. C’est dans ce fourmillement de nouveautés numériques qu’une nouvelle arrivée a fait son apparition : l’intelligence artificielle ou IA.
Qu’on le veuille ou non, nous avons toutes et tous déjà entendu parler, ou été en contact avec l’Intelligence artificielle. Que ce soit dans nos téléphones, sur internet ou dans nos consoles de jeux, elle est partout. Même si l’ombre de Skynet reste dans nos esprits, l’IA nous est très souvent présentée comme un outil utile, qui est là pour nous aider dans notre quotidien. Véritable fléau ou véritable révolution, les avis sont nombreux et des plus différents. Mais c’est bel est bien l’inconnu face à l’inconnu qui inquiète ou intrigue.
Mais comment cela fonctionne et d’où ça vient. Tentons ensemble de démystifier cela.
Un peu d’histoire
Rendons-nous d’abord dans les années 40. A cette époque, les ordinateurs ne possédaient pas une grande mémoire. Ils ne pouvaient donc qu’exécuter des commandes simples mais ne pouvaient nullement stocker ces dernières pour s’en souvenir.
En 1950 Alan Turing, mathématicien anglais, évoque dans un article intitulé « Computing Machinery » la « possibilité de construire des machines intelligentes et de tester cette intelligence ». C’est 5 ans plus tard, dans le cadre du Dartmouth Summer Research Project on Artificial Intelligence (DSPRAI), que le premier programme d’IA est présenté.
Au fil des décennies suivantes, les ordinateurs se développent devenant plus rapides, plus accessibles et surtout moins chers. Mais leurs mémoires restent toujours limitées, ne leur permettant pas de stocker efficacement les données, ni de les traiter assez rapidement.
C’est dans les années 80 que l’IA va vraiment pouvoir se développer ; notamment grâce à des avancées dans le domaine des outils algorithmiques. La technique du « deep learning » commence à se répandre, notamment grâce à John Hopefield et David Rumelhart ; permettant aux ordinateurs d’apprendre par l’expérience. En parallèle, Edward Feigenbaum introduit les « systèmes experts », qui imitent la prise de décision humaine.
Par la suite, l’IA va continuer à évoluer de manière exponentielle sans financement public ou médiatisation. Citons par exemple le programme informatique de jeu d’échecs « Deep Blue » d’IBM, qui a battu en 1997 le champion du monde d’échecs, Gary Kasparov, ou encore Kismet, un robot capable de reconnaître et d’afficher des émotions, développé par Cynthia Breazeal. En 2017 c’est au tour de Libratus, un supercalculateur jouant au poker, de battre les meilleurs joueurs humains.
On parle de quoi ?
« Pour le Parlement européen, l’intelligence artificielle représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». » (CNIL)
Nous pourrions donc ainsi résumer l’intelligence artificielle par « la capacité d’une machine à imiter l’intelligence humaine ». Mais au contraire des êtres humains, les ordinateurs sont conçus pour simplement suivre les ordres qu’on leur donne. C’est pourquoi, afin de les « rendre intelligents », il faut les entraîner en leur fournissant un très grand nombre de données. On parle de « Maching learning » ou « Deep learning ».
« Mais l’intelligence de l’ordinateur ne s’est pas créée seule, ce sont des hommes qui sont derrière et qui constituent la base d’entraînement de la machine comme le rappelle Julien Ah- Pine : « En tant que chercheur ou ingénieur, on travaille sur l’algorithme en amont qui va dire ce qu’il faut apprendre et comment il faut apprendre. » En d’autres termes, le machine learning représente le fait de donner à une machine la capacité d’apprendre. » » (Source)
Mais même si cette IA super entraînée semble dépasser l’être humain, il existe des domaines qu’elle ne gère pas. Par exemple, il lui est impossible de gérer les questions éthiques ou ce qui a attrait aux émotions et sentiments.
Et la suite ?
Comme nous avons pu le voir, l’intelligence artificielle n’est pas aussi jeune que ce qu’on pourrait penser. Elle a depuis très longtemps fasciné les chercheurs ainsi que le grand public. En effet, il n’est pas rare d’en retrouver des traces dans la culture populaire.
Que ce soit dans les livres, avec les trois robotiques d’Asimov, dans les films (Terminator, Tron, ou Ghost in the Shell), ou encore dans les jeux vidéo, l’IA a toujours fasciné au même titre que les robots.
Souvent présentée comme dévastatrice dans la pop culture, cette technologie permet des avancées remarquables mais également un gain de confort pour nous, grands utilisateurs du numérique.
Mais attentions aux détournements. En effet, l’IA est un outil puissant mais qui peut aussi être sujet à des dérives si mal utilisé. Un parfait exemple sont les images créées par intelligence artificielle. Il est possible de faire faire des choses à des gens sans que tout cela soit vrai, ou de créer des animaux qui n’existent pas. La même chose arrive avec la musique. Un artiste peut retrouver sa voix utilisée contre son gré pour tout autre chose.
Ainsi face à cette révolution numérique, le mot d’ordre est : gardez l’œil ouvert et affutez votre esprit critique ! C’est pour cela qu’en ce début d’année, la BCU site Riponne vous propose une sélection complète des ouvrages sur ce sujet fascinant mais également une mise en avant de différents documents dans les locaux de la bibliothèque (du 10 janvier au 13 février).
(Image de mise en avant générée par Canva)
Sélection BCUL sur l'IASélection eLectures