Nous sommes le 13 mars 2004 et une demi-douzaine de véhicules s’élancent, dans un épais nuage de poussière, à travers la plaine ocre et sablonneuse du désert de Mojave. La course qui vient de démarrer n’a rien d’un simple rallye du désert. Il s’agit de la toute première édition du DARPA Grand Challenge (la DARPA étant l’Agence pour les projets de recherche avancée de défense), organisé par le département de la défense américain. Les véhicules qui s’élancent dans un concert de rugissements et de crissements de pneus ne sont pas pilotés par des humains, mais par des ordinateurs. La course est censée durer 240 kilomètres, mais la totalité des participants partent dans le décor dès le début de l’épreuve. Aucun ne dépassera les douze kilomètres. Qu’importe, l’objectif était avant tout de créer de l’émulation autour des logiciels de conduite autonome.

Robot Autonome lors du DARPA Grand Challenge de 2006.
Crédits : Wikimedia

Objectif vision anthropomorphique

Quatorze ans plus tard, la technologie a progressé à pas de géants. La Californie vient d’autoriser la circulation des véhicules autonomes sur les routes, sans superviseur humain derrière le volant pour reprendre les commandes en cas de pépin. Waymo, le département de Google consacré aux voitures sans chauffeur, envisage de lancer un service de taxis autonomes, électriques et partagés en Europe, tout en discutant avec Uber pour intégrer ses véhicules à sa plateforme. Ces progrès stupéfiants ont été permis par les avancées de l’intelligence artificielle, et notamment de la vision par ordinateur qui permet aux machines de voir le monde et d’agir en conséquence. Les usages de cette technologie ne se cantonnent pas aux voitures autonomes : Facebook l’utilise pour identifier automatiquement les visages sur les photos, la police chinoise l’emploie pour repérer plus facilement les criminels. C’est également elle qui permet aux robots de se déplacer (presque) comme des humains.

Le projet de voiture sans conducteur Waymo a débuté en 2009.
Crédits : Waymo/YouTube

Néanmoins, elle n’est pas réellement anthropomorphique. Les caméras employées par les voitures autonomes voient le monde d’une manière bien différente de l’œil humain, ce qui explique les difficultés que connaissent ces véhicules lorsque la luminosité est mauvaise ou que le ciel se couvre, ainsi que leur incapacité à déchiffrer certains panneaux de signalisation.

L’œil bionique 

Prophesee souhaite changer les choses. Depuis Paris, cette jeune pousse ambitionne de reproduire artificiellement le fonctionnement de la rétine humaine. S’appuyant sur des travaux conduits depuis 25 ans par un groupe de chercheurs français, elle pourrait bien provoquer un séisme dans le monde de l’intelligence artificielle.

Bien qu’italien d’origine, son CEO Luca Verre s’exprime dans un français impeccable et enchaîne les explications techniques avec précision et clarté. Ingénieur de formation, il a effectué une partie de ses études en France. Alors qu’il suit un master en administration des affaires à Paris, il fait la connaissance de plusieurs chercheurs qui travaillent au sein de l’institut de la vision, dans un laboratoire affilié au CNRS, à l’INSERM et à l’UPMC. Fasciné par les possibilités offertes par ces recherches, il lance sa société fin 2014 et commence immédiatement à lever des fonds, afin de bâtir des applications commerciales à partir de ces travaux prometteurs.

Inspiré de la vision humaine, la start-up Prophesee prétend construire le système de vision neuromorphique le plus avancé au monde.
Crédits : Prophesee

« L’idée est de s’inspirer du modèle biologique. Façonné par des millions d’années d’évolution, il est très efficace et performant. C’est pourquoi nous souhaitons l’appliquer à l’informatique,» résume Luca Verre. La technologie mise au point par Prophesee se décompose en deux volets. La première innovation se situe au niveau du matériel : l’entreprise conçoit une véritable rétine artificielle, un appareil en silicium qui fonctionne comme un œil humain, et peut-être intégré à une caméra. La seconde est un logiciel qui, à l’aide d’algorithmes d’intelligence artificielle, traite l’information collectée par cette rétine bionique d’une manière similaire à celle dont procède le cerveau humain. Contrairement aux systèmes de vision artificielle classiques, celui-ci est conçu avant tout pour capter le changement, le mouvement.

« À la différence d’une caméra traditionnelle, notre œil ne collecte pas une succession d’images», explique Luca Verre. « Le modèle biologique est conçu pour nous aider à prendre des décisions, il est donc optimisé en termes de consommation et de performances. Ainsi, la rétine n’acquiert pas l’image, mais seulement l’information dynamique : ce que mes yeux transmettent à mon cerveau, ce sont les mouvements, les transitions, l’arrivée de nouveaux objets dans le champ visuel, etc. Cela permet de réduire considérablement la quantité de données, d’une part, et de ne pas perdre d’information d’une séquence à la suivante, d’autre part. Car une caméra classique, qui n’acquiert qu’une séquence d’images, a des points fixes et est donc aveugle entre une image et la suivante, ce qui n’est pas gênant quand on regarde une vidéo, car on a la sensation d’un mouvement continu. En revanche, cela devient problématique lorsqu’on utilise ce système pour un robot ou une voiture autonome, par exemple. Avec une rétine artificielle, l’acquisition d’informations est continue, et il n’y a pas de temps mort.»

Selon Luca Verre, la vision neuromorphique a également pour avantage de corriger certaines zones d’ombres propres à la vision artificielle traditionnelle. « Dans le système biologique d’exposition par photorécepteurs, l’exposition n’est pas uniforme. Cela nous permet de gérer des situations où l’éclairage est très élevé, où un système de vision artificielle traditionnel serait aveugle. »

Rendre l’IA plus efficace

Difficile de passer à côté des récents progrès effectués autour de l’intelligence artificielle. D’AlphaGo– le logiciel conçu par Google DeepMind qui a battu à plate couture les meilleurs joueurs de go de la planète -, aux véhicules autonomes, en passant par les robots à l’agilité stupéfiante de Boston Dynamics, ou encore les algorithmes de reconnaissance d’image de Facebook, cette vieille discipline des sciences informatiques a récemment connu des progrès spectaculaires, avec des applications dans la plupart des domaines de l’économie.

Avec son mètre cinquante et son agilité, Atlas, est l’un des robots de Boston Dynamics.
Crédits : Boston Dynamics

La plupart de ces avancées sont dues à l’apprentissage profond, une branche de l’intelligence artificielle qui s’inspire du fonctionnement des neurones humains et permet aux ordinateurs de s’entraîner tout seuls jusqu’à effectuer une tâche à la perfection. Toutefois, pour fonctionner, l’apprentissage profond requiert une quantité astronomique de données. Ainsi, pour être capable de reconnaître un chat sur une photo, un algorithme de reconnaissance d’images doit être au préalable nourri de millions d’images de chats. De même, les voitures autonomes doivent accumuler les kilomètres pour apprendre à reconnaître les différentes situations auxquelles elles sont susceptibles d’être confrontées. Bref, plus les données sont nombreuses, plus l’ordinateur devient efficace. Cette appétence pour les données tend à favoriser les grandes entreprises, qui disposent de davantage de moyens pour acquérir des jeux de données gigantesques.

Or, le système mis au point par Prophesee pourrait réduire considérablement la quantité de données nécessaire au bon fonctionnement de l’IA, dans tous les domaines où les algorithmes sont entraînés sur des images dynamiques. « Dans le paradigme actuel, pour rendre l’IA plus efficace, il faut davantage d’information, et davantage d’information signifie davantage de données. Or, avec notre technologie, on casse cette corrélation entre information et données. En effet, notre principe de fonctionnement, le principe biologique, c’est de donner le maximum d’informations en minimisant la quantité de données. Chaque pixel de notre capteur acquiert de manière continue, mais il n’acquiert que l’information pertinente. Ainsi, toutes les données perçues par le capteur ont une utilité, il n’y a plus de déchet », explique Luca Verre. « En outre, comme mentionné plus haut, les machines actuelles sont aveugles entre deux images, ce qui rend les algorithmes très complexes, puisqu’il faut prédire ce qui va se produire sur l’image d’après. Avec notre modèle d’acquisition continue, les modèles mathématiques sont beaucoup plus simples.»

Voir l’invisible

Dans un domaine comme la surveillance, les gains s’annoncent considérables. On comptera bientôt 40 milliards de caméras de surveillance dans le monde. Or, lorsqu’on place une caméra pour surveiller un domicile, un entrepôt ou des locaux d’entreprise, la plupart du temps, celle-ci n’enregistre absolument rien d’intéressant. Le capteur de Prophesee, conçu pour détecter le changement, permettrait de changer la donne : la caméra trierait automatiquement les données pertinentes, comme les images montrant une intrusion. Mais les caméras ne sont pas employées uniquement pour la surveillance. Elles peuvent aussi l’être dans une optique smart city, par exemple pour faire de l’éclairage intelligent, éteignant les lampadaires lorsque les rues sont désertes et les activant dès qu’un passant est détecté.

Prophesee commercialise également ses capteurs pour des applications industrielles autour du contrôle qualité. La plupart des usines sont aujourd’hui équipées de caméras, afin de détecter la présence de défauts de fabrication. Il peut s’agir de repérer des imperfections sur des pièces automobiles, ou encore de s’assurer que toutes les barres chocolatées qui circulent sur le tapis roulant avant d’être emballées ont la même taille et la même forme. Là encore, acquérir automatiquement l’information différentielle est un atout majeur, qui permet de repérer immédiatement les anomalies, sans devoir enregistrer d’immenses quantités de données inutiles pour ensuite trier les images et repérer les problèmes éventuels.

Prophesee a lancé une caméra bio-inspirée pour la robotique industrielle.
Crédits : Prophesee

Enfin, l’entreprise entend également construire l’avenir de l’automobile. Elle travaille ainsi avec Renault, ainsi qu’avec plusieurs fabricants de pièces automobiles, pour intégrer sa technologie dans les véhicules connectés. « Nous travaillons notamment sur une caméra à vue frontale, pour faire de l’assistance à la conduite, de la détection d’objets, de piétons, etc. L’avantage de notre approche, c’est de pouvoir réagir très vite au changement, pour permettre au véhicule de faire par exemple un virage ou un freinage d’urgence, et ce quellesque soient les conditions d’éclairage.»  Prophesee œuvre enfin, à plus long terme, à faciliter le déploiement des voitures sans chauffeurs, travaillant notamment, avec Renault, sur un projet de robots taxis : des véhicules autonomes, électriques et partagés, qui pourraient bien un jour remplacer le véhicule individuel.

Vers un homme augmenté ?

En attendant de donner des yeux aux voitures, Prophesee est déjà capable de rendre la vue aux aveugles. Dans le cadre de deux partenariats, l’un, en France, avec la société Pixium Vision, et l’autre, aux États-Unis, avec le DARPA et l’Université de Stanford, elle a en effet mis en place un dispositif médical qui permet aux personnes atteintes d’une dégénérescence de la rétine (l’une des causes de la cécité) de retrouver la vue. Celui-ci comprend une paire de lunettes intégrant le capteur de Prophesee, qui recueillent l’information visuelle. Celle-ci est ensuite transmise au cerveau à travers des implants, situés dans la rétine (dans le cas de Pixium Vision) ou directement dans le cerveau (dans le cadre du partenariat avec le DARPA).

Le dispositif conçu avec Pixium Vision a été commercialisé à l’été 2016, et plusieurs dizaines de personnes ont déjà été traitées. Le projet américain, dans la mesure où il stimule directement le cerveau, est plus expérimental et plus difficile à mettre en œuvre. Mais il pourrait en retour permettre de traiter d’autres causes de la cécité, au-delà de la dégénérescence de la rétine. Il doit être testé cliniquement sur des singes dans le courant de l’année. S’il fonctionne, il pourrait en outre, à plus long terme, laisser entrevoir un grand nombre d’applications possibles, allant au-delà de l’usage thérapeutique, comme la possibilité de voir la nuit, les phénomènes ultrarapides ou encore l’infiniment petit. Après la vision artificielle, place à l’ère de l’homme augmenté ?