Ce lundi avait lieu l’évènement Data Driven Paris organisé par Serena Capital et FirstMark. A cette occasion, trois intervenants nous ont délivré leur vision de l’IA.

IBM WATSON : les raisons de ses succès passés, présents et à venir

Le premier speaker, Jean-Philippe Desbiolles, VP Cognitive Solutions @ IBM Watson Group, nous a présenté l’IA selon IBM. En préambule, il est revenu sur trois succès d’IBM dans le domaine de l’Intelligence Artificielle chez IBM :

  • en 1997, Deep Blue affronte Garry Kaspar

    ov et devient la première Intelligence Artificielle à vaincre un champion du monde d’échecs ;

  • en 2012, le superordinateur Watson remporte le jeu télévisé Jeopardy ;
  • et depuis 2014, après avoir été “entrainé” durant plus d’un an par une équipe de médecins et d’analystes, Watson est capable de choisir le meilleur traitement pour des patients atteints de tumeurs, avec une précision de près de 95%, contre 75% pour un médecin (–1–).

Jean-Philippe Desbiolles nous dévoile le secret de la réussite de Watson au Jeopardy : il comprend les questions, répond en langage naturel et puise dans une énorme base de données, si bien que Watson dépasse les limites de l’homme en termes de connaissances et peut “expliquer” les étapes logiques qui l’ont conduit à donner une certaine réponse, et ainsi expliciter pourquoi telle réponse est la plus pertinente selon sa propre perspective.

“amélioration continue dans la prédiction de cancer ”

Avec le projet “Watson for Oncology”, l’IA d’IBM est désormais doté d’une capacité à fouiller des quantités massives id= »btnNewsletterFooter »id= »btnNewsletterFooter »de données, ce qui lui permet de se tenir à jour des derniers progrès en médecine et en biologie, dès leur publication dans les journaux scientifiques et les actes des conférences. Ainsi, Watson apprend continuellement, augmentant ainsi la précision et le niveau de confiance des options thérapeutiques qu’il suggère.

Jean-Philippe Desbiolles insiste sur l’expérience client, la créativité, la flexibilité, le besoin d’apprendre vite et de “rater vite”, autant de valeurs traditionnement propres aux start-ups et aujourd’hui massivement adoptées par les grands groupes dans le monde de l’IT.

En guise de démonstration de ces principes, un film mettant en scène de jeunes enfants jouant avec les nouveaux “Cognitoys” d’IBM Watson(–2–) a été diffusé. Il s’agit de dinosaures en plastique coloré qui “parlent”, racontent des histoires ou des blagues, proposent des jeux, posent des questions ou répondent à celles des enfants. A ce sujet, il nous est fait remarquer le niveau de précision des réponses données par le jouet qui se met “au niveau” de son interlocuteur : dans le clip, à une petite fille qui demande la distance de la Terre à la Lune, le dino répond “approximativement 400 000 kilomètres”.

La séance de questions qui a suivi a insisté sur le point clé du succès de Watson : des données d’apprentissage “nec plus ultra”, nettoyées de tout déchet. Le système apprend d’un panel d’humains experts dans leur domaine, aucune mauvaise réponse ne saurait être admise. Cela nécessite également de surveiller la courbe d’apprentissage de Watson, afin de tirer vers le haut la qualité et la précision de ses réponses. Sans cela, l’IA finirait par accumuler des erreurs au cours du temps.
A la question du niveau d’objectivité des réponses que donnent Watson, Jean-Philippe Desbiolles répond qu’aucun système entraîné par l’homme ne saurait être parfaitement objectif, l’homme étant par essence sujet à la subjectivité, néanmoins il nous rassure en ajoutant que Watson ne stocke rien que des faits dans sa base de connaissances.

Futur de l’Intelligence Artificielle : dépasser le sub-symbolique

Le second intervenant est Nikos Paragios, professeur d’informatique à L’Ecole CentraleSupélec de Paris et chercheur à l’INRIA. En introduction, il tient à rappeler qu’il n’est pas un expert de l’IA. Il revient ensuite sur la distinction entre deux types d’approches de l’IA : l’IA sub-symbolique (ou reconnaissance de formes) axée sur les données, qui connait un boom retentissant avec les techniques d’apprentissage profond (deep learning), et l’IA symbolique axée sur des règles, qui vise à recontruire un raisonnement complet.

“ Nous sommes à un moment charnière ”

Après avoir comparé les forces et les faiblesses des deux approches, il prédit l’abandon progressif de l’approche symbolique, qu’il décrit comme une interprétation basée sur des modèles, au profit de l’approche sub-symbolique, qui vise à reproduire le mieux possible les données du monde réel. Sa position en faveur d’une suprématie des systèmes à IA sub-symbolique s’appuie sur les très bons résultats obtenus par cette approche à l’aide de réseaux de neurones profonds (DNN).

“ vers l’homme augmenté plutôt que remplacé ”

Il évoque également les nombreux défis qui attendent les systèmes d’IA à venir, tels que la voiture autonome et les applications de l’IA en médecine, et notamment les questions de responsabilité juridique et d’éthique, qui ne sont pas suffisamment discutées selon lui. Il s’inquiète notamment des IA de type DNN : aujourd’hui encore les chercheurs en IA ont bien du mal à comprendre comment elles fonctionnent et il conviendrait de mieux les comprendre pour pouvoir un jour s’appuyer dessus en toute confiance.
Enfin, il exprime son souhait d’une IA pouvant résoudre des problèmes du monde réel à une échelle industrielle, s’appuyant sur les algorithmes les plus performants, accompagnant l’homme sans le remplacer. Il est convaincu que l’expertise dans un domaine fait partie de la solution, et que le rôle de l’expert humain est de propager son savoir à la façon dont l’IA se représente le monde. Sur ce dernier point, Nikos Paragios fait écho au pari d’IBM avec Watson.

En prenant du recul sur un domaine très regardé et plébiscité par un nombre croissant d’entreprises et de services, et en rendant accessible au plus grand nombre le fruit de ses réflexions, Nikos Paragios offre à une audience non spécialisée de se faire une opinion plus critique et plus éclairée sur l’IA.

L’IA au coeur de la médecine du futur

Le troisième et dernier intervenant de la soirée est Gilles Wainrib, un jeune entrepreneur titulaire d’une thèse de doctorat en mathématiques appliquées à l’Ecole Polytechnique, qui a été professeur à l’ENS de Paris pendant un temps . Il est le co-fondateur d’Owkin, une start-up basée à Paris et New York dirigée par un cancérologue. Owkin propose d’accompagner les laboratoires pharmaceutiques dans leurs projets de R&D.

Gilles Wainrib a rappelé qu’entre 2010 et 2016, le ROI moyen des 12 plus grandes firmes de l’industrie pharma est passé de 10% à 4% (–3–). Face à ce déclin, qui laisse augurer un avenir difficile au secteur, Owkin répond par une méthode combinant données médicales et IA, qui vise d’une part à faciliter la génération de nouvelles molécules lors de l’étape de conception du médicament (drug design), et d’autre part à maximiser le taux de réussite des essais cliniques par un outil d’aide à la sélection des patients participant à la phase 3.

“ faire voyager l’algorithme plutôt que des données confidentielles ”

Gilles Wainrib a ensuite décrit les deux problèmes majeurs que rencontrent la R&D dans le secteur pharmaceutique :

  • la question du partage des données médicales,
  • l’hétérogénéité des données médicales.

Dans un environnement caractérisé par des jeux de données fragmentés entre instituts de recherche et hôpitaux, peu favorables à une dissémination des données à caractère personnel, appliquer les approches de deep learning, qui s’appuient sur de très grands volumes de données pour obtenir de bons résultats, reste problèmatique.
Par ailleurs, tirer parti de l’abondance de données médicales, tant textuelles que visuelles ou biomédicales est nécessaire :

  • textuelles : consultations, fiches cliniques, compte-rendus d’examens médicaux
  • visuelles : imagerie médicale, radiographies, coupes histologiques…
  • biomédicales : tests génétiques, examens de biologie médicale et technologies “omiques” qui permettent de générer des quantités énormes de données à des niveaux biologiques multiples, du séquençage des gènes à l’expression des protéines et des structures métaboliques

Ce défi doit être relevé pour répéter les succès récents obtenus par les approches de deep learning dans le domaine de la santé et de la recherche pharmaceutique.

LA SOLUTION !

Sa solution ? Mettre en place une plate-forme collaborative dans laquelle les algorithmes “circulent” librement d’un hôpital à un autre sans que jamais les données d’apprentissage ne sortent des bases de données des groupes hospitaliers.

Ainsi, les algorithmes d’apprentissage profond pourraient être entraînés de place en place sur des données aggrégées disponibles sur la plate-forme collaborative:

  • Les contributeurs conserveraient leurs données,
  • Les utilisateurs pourraient bénéficier de l’expertise de systèmes d’IA performants pour le pronostic, le diagnostic et la recommandation de traitement pour une large palette de pathologies.

Dans l’ensemble, les trois intervenants ont su captiver leur auditoire par leur facilité à communiquer leur passion pour l’IA et par la pertinence de leur intervention, en particulier sur les interrogations et les espoirs que suscitent ce domaine en plein essor.

1er juin 2017

——————

1 – Résultats obtenus lors d’un test réalisé sur un jeu de données de 3000 images : https://medium.com/cognitivebusiness/visual-recognition-could-help-detect-skin-cancer-6e3f3796f877

2 – http://elementalpath.com/

3 – Etude Deloitte : https://www2.deloitte.com/us/en/pages/life-sciences-and-health-care/articles/biopharmaceutical-innovation-research-and-development-rate-of-return-study.html