Contenu du billet
Qwant, La Poste, Amazon, BNP Paribas, Valéo, EDF, Google… détaillaient leur vision de l’Intelligence Artificielle (IA) au salon AI Paris les 11 et 12 juin dernier.
De ces deux jours, j’ai retenu cinq conférences qui permettent d’avoir un tour d’horizon assez complet sur ce qu’est l’IA aujourd’hui.
5 – Qwant
Le moteur de recherche français a ouvert le salon avec une première conférence animée par son PDG, Éric LÉANDRI. Qwant utilise l’Intelligence Artificielle dans de multiples domaines, de la traduction à la navigation, de l’organisation des résultats de recherche aux détections d’attaques.
Les premières retours de l’IA
De ces cas d’usages, le moteur de recherche a tiré plusieurs leçons, qui peuvent être reprises par toute société désirant se lancer dans un projet d’IA :
- Mieux définir la collecte de données
- Recruter de nouveaux profils (data scientist)
- Adopter une culture de micro-services
- Se méfier des biais, dans les données ou algorithmes (jeux de données orientés, algorithmes écrits pour un résultat particulier…)
Ethique et vie privée
Mais le sujet de prédilection d’Eric LÉANDRI (et celui de beaucoup d’autres conférenciers) concerne la vie privée. Fidèle au slogan de son entreprise « le moteur de recherche qui respecte votre vie privée », il a rappelé la nécessité d’une IA éthique, qui n’accède pas à nos données privées. Il est possible d’avoir une IA de qualité sans s’immiscer dans l’intimité des utilisateurs. Selon lui, les GAFA n’ont pas besoin de (et ne devraient pas) collecter toutes nos données pour fonctionner. Qwant parvient par exemple à aider les médecins dans des cas complexes, sans s’introduire dans la vie privée des patients.
4 – Pure Storage
Cinq leçons apprises du déploiement de l’IA
Conférence concluant quant à elle la première journée de ce salon, Joshua ROBINSON, Data Scientist chez Pure Storage, a détaillé les cinq leçons apprises en déployant des applications d’Intelligence Artificielle :
- L’IA est un pipeline de données
- Il ne faut pas mettre toutes ses données dans son datalake
- Le Cloud n’est pas un prérequis à l’IA
- Il ne faut pas se fier aux benchmarks
- La plateforme idéale est un datahub
Avant de détailler ces 5 leçons, il est nécessaire de distinguer « datalake » et « datahub » en termes d’architecture.
Un « datalake » constitue ici un « direct-attached storage », où le stockage et le traitement de la donnée se font sur le même serveur.
Un « datahub » est lui uniquement utilisé pour stocker toute la donnée, les traitements se réalisant sur des serveurs attachés.
La donnée comme point de départ
Tout part d’un constat, la donnée est la partie la plus importante de l’IA. Elle doit donc pouvoir être récupérée, stockée et structurée.
L’IA peut être synthétisée sous la forme de quatre actions liées aux données :
- La collecter
- La transformer et la nettoyer
- L’explorer
- Entraîner les modèles
Il existe de multiples technologies pour les données (Spark, Kafka, Elastic…), et donc de multiples stockages propres à ces technologies. La multiplication des usages engendre également une multiplication de la donnée et son éparpillement. De plus, une fois les données stockées, il devient compliqué de les déplacer.
Concernant les plateformes d’infrastructure, l’utilisation d’un Cloud public peut être utile dans le cadre d’un POC, d’une expérimentation, mais une fois la solution industrialisée, il est plus rentable d’opter pour une solution « on premise ».
Chaque usage de l’IA étant particulier, les benchmarks des solutions ne peuvent refléter la réalité (et en sont même souvent loin). Il convient donc de les analyser au regard des critères liés aux cas d’usages.
Enfin, et pour conclure sur ces cinq leçons, le meilleur moyen de stocker ses données est un datahub. La donnée y est plus accessible et plus exploitable qu’un (ou plusieurs) datalake. L’architecture d’un datahub est plus souple. En effet, en fonction des besoins elle permet de rajouter de la puissance de traitement (CPU ou GPU) ou de la mémoire. La capacité de stockage est alors gérée de manière indépendante.
3 – Huawei
Mérouane DEBBAH, directeur du centre de R&D à Paris de Huawei a présenté la stratégie de l’entreprise de télécoms autour de l’Intelligence Artificielle pour les mobiles et réseaux. Aujourd’hui, la moitié des effectifs de cette entreprise travaillent en R&D.
Un modèle hybride on-device et Cloud
Depuis 2015, Huawei dote ses smartphones d’une puce pensée pour l’IA (Kirin) afin de lui déléguer certains traitements. Des services sont déjà optimisés par l’IA, que ce soit le traitement des photos ou l’écoute de la voix au milieu du bruit ambiant. Sa stratégie mobile consiste à diviser l’IA en deux, une partie « on-device » (dans le téléphone) et une sur le Cloud. Il s’agit de répondre aux 4 challenges posés par l’IA selon Huawei :
- Sécurité (données privées)
- Efficacité énergétique
- Traitement
- Interaction (voix, écran, images…)
Les capacités d’IA de leur dernier smartphone ont été illustrées par une voiture conduite par le smartphone lui-même et évitant automatiquement un chien sur la route.
Des réseaux de plus en plus matures
Le deuxième usage principal de l’IA chez Huawei concerne les réseaux. L’objectif est d’avoir un réseau auto-apprenant, qui se maintient de façon autonome et s’optimise au fil du temps et des erreurs rencontrées. Il y a cinq niveaux de maturité dans l’intelligence des réseaux :
- Remonter les problèmes
- Informer des causes du problème
- Prévoir les problèmes
- Proposer des actions de résolution
- Intervenir de façon autonome pour se réparer
L’entreprise chinoise est actuellement au quatrième niveau.
Elle travaille avec un organisme international, l’ETSI (basé à Sofia-Antipolis) sur la définition de standards sur l’organisation des données.
2 – Sapiens et IA / Codeurs éthiques
La conférence placée en deuxième position regroupe en fait deux conférences distinctes. Elles partagent cependant une caractéristique commune, celle d’aborder l’IA non pas sous des angles techniques ou des cas d’usages, mais sur des plans moraux, philosophiques et juridiques.
« Sapiens et IA, le match ? »
La première conférence, intitulée « Sapiens et IA, le match ? » était une discussion entre Denis JACQUET, entrepreneur, et Pascal PICQ, paléoanthropologue au Collège de France.
Il y a une « co-évolution » entre l’homme et les autres espèces intelligentes (dont peut faire partie l’IA). D’après eux, nous sommes entrés dans un « espace digital darwinien ». Cette expression signifie qu’un service peut apparaitre et transformer rapidement un secteur (par exemple les taxis et Uber), comme l’apparition d’un nouveau trait bénéfique qui se répand au sein d’une espèce.
Le terme d’Intelligence Artificielle n’est pas nouveau (il date de 1956), mais son adoption récente a été permise grâce à une « convergence adaptative » de trois faits, les algorithmes, l’explosion de la donnée et de la puissance disponible (loi de Moore).
Tout le monde se lance dans l’IA aujourd’hui, que ce soit pour contrôler par la technologie, s’en servir pour libérer l’Homme ou pour le remplacer. Il y a encore beaucoup d’incertitudes.
De plus, l’IA peut faire peur, car pour la première fois l’Homme peut créer une intelligence incontrôlable, qui pense à des solutions que l’Homme n’aurait jamais imaginées.
Un moyen de comprendre l’IA serait de comprendre les autres intelligences, telles que les intelligences animales. Les pays à la pointe de la recherche animale sont aussi souvent ceux qui sont à la pointe de l’IA, en appliquant le biomimétisme par exemple.
La responsabilité de l’Homme et de l’IA
La seconde conférence, animée par Alain BENSOUSSAN, avocat à la cour d’appel de Paris, abordait la responsabilité de l’Homme et de l’IA.
Aujourd’hui il n’existe pas de responsabilité juridique pour l’IA. Non seulement les algorithmes n’ont pas de propriétaire légal, mais l’appartenance des données est souvent floue.
Il y a beaucoup de questions liées à l’encadrement des IA. Faut-il prévoir un « off switch » ? Doit-elle être neutre (pour empêcher par exemple une voiture qui ralentirait devant des publicités) ou libre ? Doit-elle toujours pouvoir s’expliquer (une IA qui dirait à un médecin que la seule solution est d’amputer son patient ne sera pas appliquée si elle n’est pas comprise) ?
De plus, nous pourrions imaginer un accident avec une voiture autonome. Si elle choisit de tuer une personne plutôt que quatre, qui est responsable ? Une solution à ces questions serait de définir une nouvelle personnalité juridique, aux côtés des personnalités morales et physiques.
En attendant ce nouveau cadre, et même lorsqu’il sera présent, il faut que les codeurs avancent avec prudence et morale. Les codeurs sont les nouveaux bâtisseurs, il est donc important de les éduquer au plus tôt (apprentissage du code dès l’école primaire).
Il faut dès à présent concevoir que les IA dépasseront un jour l’Homme.
1 – Teradata
Stephen BROBST, CTO de Teradata a livré (selon moi) la meilleure conférence de ce salon, car il a abordé l’IA avec réalisme et beaucoup de cas d’usages concrets.
L’IA au sommet du Hype Cycle
L’IA est actuellement au-delà du sommet du « Hype Cycle », plusieurs cabinets (Gartner, IDC) anticipent un contrecoup aux attentes de l’IA d’ici 2020. Comme beaucoup de nouvelles technologies et de « buzzword » il ne faut pas s’attendre à ce qu’elles s’appliquent avec brio partout.
L’Intelligence Artificielle est un plus dans trois domaines particuliers :
- Moteur de recommandations (Netflix, Linkedin, Amazon…)
- Prévention des fraudes (milieu bancaire)
- Prévention des pannes (réseaux)
Le volume de données disponible permet d’acquérir beaucoup d’expérience très rapidement. Cependant, le volume ne fait pas tout, il faut que celles-ci soient de qualité. Un algorithme est aussi bon que le jeu de données avec lequel il a été initié. Un biais peut vite apparaître, comme le pointait également le PDG de Qwant.
Du bon usage du deep learning
Le deep learning (apprentissage profond) est souvent associé à l’IA. Néanmoins, il n’est pas toujours utile de recourir à cette méthode. Par exemple, dans le cas d’un moteur de recommandation il n’est pas pertinent de faire usage du deep learning pour savoir qu’il faut recommander une cravate à un client qui achète une chemise. Dans ce cas-là, il faut plutôt recourir à « l’apprentissage léger » (ou shadow learning). Ce dernier se rapproche plus d’une régression linéaire entre deux entités que de réseaux de neurones. Tout est question d’optimisation, dans notre exemple, le deep learning peut servir, mais plutôt pour recommander la bonne couleur de cravate.
D’un point de vue technique, l’IA reste un sujet mouvant, il n’y a pas de standard ou de champion qui se dégage (ou alors il change tous les deux ans). Il ne faut cependant pas attendre la stabilisation de ce domaine, il peut prendre du temps alors que les bénéfices qu’il procure sont immédiats.
L’explicabilité, un élément essentiel
Enfin, et pour reprendre un point évoqué dans de nombreuses conférences, le sujet principal aujourd’hui de l’IA, et celui qui concentre beaucoup de recherche, est l’explicabilité.
L’IA ne pourra jamais être massivement utilisée si elle reste une boite noire.
A vos projets !
Au travers de ce top, nous avons donc vu que l’IA a d’ores et déjà de multiples usages et est en pleine expansion. Elle promet beaucoup, y compris sur la relation entre l’Homme et la technologie. Les premiers retours d’expériences permettent de définir raisonnablement les cas d’usages de l’IA et sa méthode de mise en place. N’hésitez plus et lancez vos projets d’Intelligence Artificielle !
Pour avoir un panorama complet des enjeux de l’IA, ses bénéfices, applications et usages :
Téléchargez le livre blanc L’Intelligence Artificielle, nouvel épouvantail du XXIème siècle