Formation

Intelligence artificielle : ce qu’il faut savoir avant de se former

Il n’y a pas d’intelligence artificielle (IA) sans intelligence humaine. Pour programmer la machine qui donne vie à l’IA, de nombreuses personnes en chair et en os sont à l’œuvre (ce que l’on oublie parfois). Comment s’approprier le vaste sujet de l’intelligence artificielle, et plus spécifiquement le deep learning ? Comment devenir un pro de l’IA quand on est déjà un pro du développement informatique ? Nous avons interviewé Robert Voyer, Maître de conférences à Institut Mines-Télécom Business School, pour nous lancer dans une opération Décryptage.

Découvrir aussi :

RH

Bien-être et qualité de vie au travail : quelle est la différence?

Commercial

Commerciaux, votre métier change avec le digital : comment en tirer parti ?

Management de projet

Le Serious Game SimulTrain

En fait, l’intelligence artificielle existe depuis 1958

La logique de l’intelligence artificielle a été introduite par John McCarthy en 1958. Depuis cette période, la capacité de calcul de l’ordinateur a dépassé celle de l’homme. L’usage du terme « intelligence artificielle » évolue avec l’avancée des technologies. Autrement dit, en IA, comme ailleurs, une nouveauté chasse l’autre. Aujourd’hui, le mot intelligence artificielle est utilisée plus spécifiquement pour nommer la technologie du deep learning. La machine n’a plus besoin d’une programmation de chacune de ses actions. On lui donne les pions, le plateau, les règles du jeu et elle apprend à jouer toute seule. Comment cela est-il possible ?

Depuis 2012, l’intelligence artificielle a changé de dimension

Trois évolutions majeures ont permis l’éclosion du deep learning : le matériel informatique, les formules mathématiques et la profusion de données (le big data).

La robustesse du matériel informatique. Hier, il fallait quelques secondes à un ordinateur pour faire un calcul de centaines de lignes. La carte mère (CPU pour Central Processing Unit) contenait 4 ou 8 processeurs, appelés cœurs. Aujourd’hui, il faut une micro seconde pour faire un calcul de milliards de données. Ce qui le permet, c’est une carte graphique (GPU pour Graphics Processing Unit) qui supporte des milliers de processeurs. Cette innovation matérielle permet le traitement de nouvelles architectures informatiques.

Des formules mathématiques d’un nouveau genre. La puissance de la carte graphique ne servirait à rien si des formules mathématiques ne permettaient pas de faire tourner des milliards de données, d’où le terme de big data. Hier les algorithmes mettaient en musique des milliers et millions d’éléments pour produire un site web, faire fonctionner une base de données ou gérer un système d’alerte de sécurité. Aujourd’hui, les algorithmes sont programmés pour jongler avec un nombre infini de données. Ces données sont produites en très grand volume, particulièrement depuis 2013, en exploitant les nouveaux usages numériques (applications connectées au compte mail, réseaux sociaux, assistants vocaux, objets connectés…).

Une capacité de la machine à apprendre par elle-même. La machine capable de battre Kasparof aux échecs en 1997 avait enregistré des milliers de configurations possibles. En 2016 pour battre Lee Se-Dol, grand maître sud-coréen du jeu de go, la machine s’était nourrie de milliers de parties jouées par des humains. Le déplacement des pions dans l’espace rend la partie de Go plus complexe à anticiper. Le premier niveau de programmation informatique lui a permis de fonctionner comme un cerveau humain. La technologie va maintenant plus loin. La nouvelle génération du deep learning ne nécessite pas l’enregistrement d’un grand nombre de parties. La machine est programmée pour jouer contre elle-même à partir des règles qui lui ont été données.  

Au cœur de l’IA : le fonctionnement du neurone

Ce qui différencie l’IA d’hier et celle d’aujourd’hui, c’est son fonctionnement neuronal. L’IA qui fait l’actualité, le deep learning, est un réseau de neurones artificiels qui collent au fonctionnement des synapses du système nerveux. L’homme est capable de programmer la machine pour qu’elle réalise des fonctions complexes qui se superposent et créent des tissus profonds de connexions.

Machine learning ou deep learning ? Le deep learning est la capacité donnée à la machine d’apprendre (learning) par elle-même de manière profonde (deep). Le machine learning est la catégorie qui englobe le deep learning.

En 2010, dans la bible de 1200 pages « Intelligence artificielle » de Stuart Russell et Peter Norvig, 165 pages uniquement traitaient de la capacité d’apprentissage et 10 pages seulement des réseaux de neurones, soit moins de 1% de la littérature sur l’IA. Aujourd’hui, le réseau de neurones en est la star, ce qui n’enlève rien aux techniques du machine learning sur lesquelles repose la majorité de l’informatique dont on se sert tous les jours.

L’IA a besoin de 4 piliers pour exister

Les technologies de l’IA peuvent être mises en musique en respectant un schéma valable pour toutes les solutions informatiques : les données, les techniques, les outils et la solution.

Les données : c’est ce qui est manipulé. Ce peut être des images, de la voix, des chiffres… C’est ce qui nourrit la machine.

Les techniques : c’est la formule pour mouliner les données et leur faire produire des résultats. En IA, ce sont les réseaux de neurones et les techniques de machine learning.

Les outils : ce sont les technologies qui permettent de créer des solutions, comme par exemple la reconnaissance visuelle ou le traitement du langage.

La solution : c’est l’utilité pour l’homme, la valeur qui est créée. Cette valeur peut être commercialisée, comme c’est le cas pour les assistants vocaux, la voiture électronique, le chatbot ou la cyber sécurité (voir ci-dessous).

Se former à l’IA : choisir sa voie en fonction de son métier

Les applications du deep learning s’insèrent dans de multiples domaines. Il nécessite, pour un grand nombre de professionnels, de se pencher sur le sujet. Mais pas de la même manière.

Vous êtes décideurs. Vous n’avez pas besoin de mettre les doigts dans le code. Votre enjeu est de comprendre les changements que l’IA va apporter à votre marché économique, mais aussi votre éco-système au sens large, tant vos fournisseurs/prestataires que vos collaborateurs. Vous allez découvrir des techniques et compétences dont vous ignorez l’existence jusqu’à aujourd’hui. Avant de vous précipiter, prenez le temps de démystifier le sujet avec une acculturation généraliste. Quand vous aurez compris quel segment de l’IA vous devez investir, il sera temps de former vos collaborateurs, autant les responsables de projet que les équipes techniques.

Vous êtes responsable de projet. Vous avez la mission de développer des solutions qui intègrent ou reposent sur les technologies du deep learning. Vous devez apprendre à écrire le cahier des charges à l’intention des techniciens qui seront capables de le mettre en œuvre. Vous devez être en mesure de vous repérer dans l’environnement technique de l’IA. Rassurez-vous, l’IA n’est pas un océan à part du reste du monde informatique. Les procédés sont interfacés avec ceux qui font tourner les technologies déjà existantes.

Vous êtes développeur. Vous êtes un as du langage Java ou du clustering ? Vous allez le rester. La technologie de l’IA vient se plugguer sur les langages existants en introduisant le langage Python comme socle. Cette brique de programmation a la particularité de posséder la collection la plus riche de fonctions. La disponibilité d’abstractions, comme Keras par exemple, permet de coder (plus) facilement des choses (très) complexes.

Vous avez tous déjà « vu » une intelligence artificielle

Dans la vraie vie, ça sert à quoi une intelligence artificielle ? Tri des emails, frappe automatique, écriture automatique d’articles, anticipation des décisions du juge, reconnaissance d’images, reconnaissance de caractères, assistants vocaux et chatbots, voitures autonomes…  Voici quelques exemples, non exhaustifs.

Le tri des e-mails. La messagerie demande dans quelle catégorie (Boîte principale / Spams…) placer tel ou tel message. Elle est programmée pour enregistrer les consignes qui se créent au fur et à mesure. Elle en déduit les actions à mener pour des messages similaires, sans vous reposer la même question.

La frappe automatique. La première fois que vous tapez le début d’un mot, le clavier de votre smartphone vous propose plusieurs options de mots. Si vous tapez 10 fois ce mot, elle vous proposera en premier le plus utilisé. Des humains ont programmé la machine pour qu’elle tire des conclusions et agisse en fonction des actes précédents. Si vos usages changent, l’outil est dompté pour s’adapter à vous, à nouveau.

L’écriture automatique d’articles (simples). Pour les résultats exhaustifs du foot ou des élections communales, des journalistes rédacteurs rédigent des comptes-rendus courts qui apportent une information simple sans analyse. À partir d’un fichier de données, un article automatique peut être généré qui a « tout l’air » d’un article écrit par une main humaine, avec des phrases constituées d’un schéma classique : sujet, verbe, complément. Un journaliste humain a la capacité de produire le même résultat, mais pas dans le même temps. Seules une relecture et une intelligence humaine, peuvent cependant, repérer les éventuelles erreurs, invisibles à l’œil de la machine.

La prévision des décisions du juge. Avec un outil d’analyse du contenu d’un très grand nombre décisions de justice rendues par les juridictions françaises, les professionnels du droit ont des éléments pour estimer le résultat d’un futur jugement. En fonction du lieu de la juridiction, du cas soumis, des enjeux financiers… il est possible d’anticiper l’intérêt d’engager ou non un procès.

Reconnaissance d’images. Une machine peut analyser des milliers d’images en quelques micros secondes et les classer dans la catégorie « chien » ou « chat ». Un enfant est également capable de distinguer un chat d’un chien, mais pas avec la même industrialisation. La technologie de la reconnaissance d’images permet notamment l’identification d’anomalies pour prévenir les incidents. En matière fluviale, l’analyse d’un flot d’images permet de localiser un comportement anormal d’un flux ou d’un canal.

Reconnaissance de caractères. Plusieurs années durant, l’informatique permettait de transformer un texte écrit à la main en texte tapé à la machine grâce à un scan de la lettre et à son classement dans une des cases supposées de l’alphabet. Le taux d’erreur jusqu’en 2012 se situait autour de 25%. 1 fois sur 4, la machine se trompait. L’homme s’en rendait compte en réalisant une comparaison à l’œil nu. L’introduction du deep learning dans l’outil a permis l’enregistrement des erreurs comme de nouvelles règles du jeu à intégrer. Le taux d’erreur constaté par l’homme s’approche aujourd’hui du 1%.

Les voitures autonomes. Une voiture sans conducteur à l’intérieur est équipée de capteurs qui permettent d’analyser les distances d’un point à une autre et les obstacles rencontrés. L’appareil en conclut le sens de la direction à emprunter et l’adaptation d’une vitesse idéale. Le passage d’un fonctionnement automatique à un fonctionnement intelligent repose sur la programmation du véhicule pour qu’il réinjecte chaque expérience ou incident en vue d’affiner sa réaction aux expériences suivantes.

Assistants vocaux. Ceux qui ont interagi avec les objets du type Google Home, Alexa ou Siri le savent. On est à la fois étonné de certaines réponses bluffantes, tout comme l’on s’amuse de réponses inappropriées ou de demandes incomprises. Lors de votre prochaine requête, le programme injecté dans l’assistant vocal lui permet de ne pas rester bloqué sur l’erreur. Le feedback reçu comme quoi ce n’est pas une réponse utile enclenche la recherche de solutions alternatives.

Chatbot. Ce qui se fait avec la voix est proche de ce qui se produit avec le chatbot de messagerie. Le bot est programmé pour mener une conversation en apportant des réponses simples à des questions simples. Il est également paramétré pour identifier des situations plus complexes, qui nécessitent de faire le relais avec un interlocuteur humain. Lorsque le chatbot s’excuse de ne pas avoir pu répondre à votre question, il enregistre les situations qui vont nécessiter une évolution de ses réponses.

Deep fake. C’est la version Hack de l’IA. Sur les réseaux sociaux, la manipulation des techniques du deep learning permet une génération massive de posts et de tweets (à caractère angoissant) sur la base de données captées au fil des discussions. Pour la partie cinématographique, il est possible de programmer un changement de visage dans une vidéo qui s’insère parfaitement dans l’image originale. Le mouvement des lèvres de la personne « fabriquée » colle parfaitement au texte énoncé, à la virgule et au souffle prêt. Il est devenu quasiment impossible de détecter une vidéo truquée sans avoir accès au code.