A lire sur: http://www.futura-sciences.com/fr/news/t/robotique/d/nouvelle-avancee-dans-le-controle-de-robots-par-la-pensee_42928/#xtor=EPR-17-[QUOTIDIENNE]-20121125-[ACTU-nouvelle_avancee_dans_le_controle_de_robots_par_la_pensee]
Par Marc Zaffagni, Futura-Sciences
Une équipe associant le CNRS au National Institute of Advanced Industrial Science and Technology japonais a développé une interface neuronale directe qui permet de contrôler un robot
humanoïde par la pensée pour exécuter différentes variétés d’actions.
Le professeur Abderrahmane Kheddar, directeur de recherche au CNRS, a
répondu aux questions de Futura-Sciences.
Les chercheurs travaillent depuis longtemps sur le contrôle par la pensée d’avatars virtuels ou de robots via ce que l’on appelle une interface neuronale directe ou brain computer interface (BCI). En analysant l’activité électrique émise par le cerveau humain via un casque EEG
(électroencéphalographie), il est possible de dégager des modèles
neuronaux, liés à certaines actions, qui peuvent être exploités pour
transmettre une intention à un ordinateur et exécuter une tâche.
Pour le moment, les expérimentations de contrôle
d’avatars et de robots via une BCI se limitent à accomplir une seule
tâche. Mais une équipe de chercheurs franco-japonais réunis au sein du Joint Robotics Laboratory (JRL) a développé une interface neuronale directe qui permet un contrôle multitâche d’un robot humanoïde pour le déplacer et lui faire saisir des objets. Une avancée qui ouvre de nouvelles perspectives pour les personnes tétraplégiques auxquelles ce type d’outils de contrôle pourrait un jour apporter une plus grande autonomie.
Collaboration franco-japonaise
Le JRL est une unité mixte internationale entre le CNRS (Centre national de la recherche scientifique) et l'AIST (Advanced Industrial Science and Technology
japonais). À sa tête, le professeur Abderrahmane Kheddar, directeur de
recherche au CNRS, assisté de deux doctorants. Les travaux du Joint Robotics Laboratory s’inscrivent dans le cadre du projet européen Vere (virtual embodiment and robotic re-embodiment) qui consiste à « dissoudre la frontière entre le corps humain et ses substituts [avatar ou robot, NDLR].
Dissoudre la frontière signifie que les gens ont l’illusion que leur
substitut est leur propre corps qui agit et pense en conséquence ».
Au
premier plan, on distingue l’opérateur humain équipé d’un casque EEG.
L’écran affiche la vue subjective retransmise par le robot équipé de
caméras. En concentrant son attention sur l’une des flèches rouges de
direction qui se superposent en réalité augmentée et auxquelles sont associées des actions, la personne indique son intention au logiciel qui détecte les signaux neuronaux correspondants et envoie la commande au robot. © CNRS-AIST JRL
Le JRL travaille sur cette interface de
contrôle multitâche depuis juin 2010 a précisé à Futura-Sciences le
professeur Kheddar. En combinant réalité augmentée, reconnaissance d’image et électroencéphalographie, l’interface associe des icônes
correspondant à des tâches avec ce que voit le robot. Cela permet à
l’utilisateur de le commander en concentrant son attention sur lesdites
icônes. Dans le détail, une personne munie d’un casque EEG se tient
devant un écran d’ordinateur relié au robot qui est équipé de caméras
afin de fournir une vue subjective qui crée le sentiment d’immersion.
Grâce à un procédé de réalité augmentée, des flèches de direction qui
clignotent très rapidement se superposent à l’image réelle. La personne
fixe son regard sur l’une des flèches pour mouvoir le robot.
Interface de contrôle multitâche
« L'acquisition des activités du cerveau ne
permet pas encore d'extraire "une pensée" ou encore le "vouloir en
termes de tâches" des usagers : on est très loin, nous a expliqué le professeur Kheddar. Ce
que permet la technologie actuellement est de retrouver un stimulus
dans ces signaux. Par exemple, on propose au système sensoriel humain
des "événements" sous forme de stimulus sensoriel et on regarde si ces
événements peuvent être retrouvés dans les signaux extraits du cerveau comme réponse à ce stimulus. » Les flèches clignotantes correspondent au stimulus sensoriel évoqué qui est analysé grâce au modèle neuronal SSVEP (steady-state visually evoked potentials) qui « désigne la possibilité de retrouver la fréquence d'un clignotement visuel sur lequel l'opérateur porte son attention ». Ainsi, poursuit le chercheur, « pour
faire faire à un robot humanoïde des tâches, il suffit d'associer à des
"icônes" de l'image des tâches qui seront exécutées à chaque fois que
l'opérateur porte son attention sur une icône particulière ».
Outre les déplacements, l’interface de contrôle
développée par le JRL permet également d’interagir avec des objets. Pour
cela, le système utilise la reconnaissance d’image afin d’identifier des objets auxquels sont associées des tâches. « On utilise le principe d'affordance pour associer des tâches à des objets », explique le professeur Kheddar. Selon la définition, le concept d’affordance recouvre la « capacité d’un objet à suggérer sa propre utilisation ». Dans le cas du système de contrôle du JRL, cela passe par une phase d’apprentissage du robot
qui doit pouvoir reconnaître les objets qu’il rencontre afin d’exécuter
les tâches qui leur ont été assignées. Dans les essais réalisés par les
chercheurs, le robot approche d’une table où sont posées deux canettes
de boisson. Le logiciel détecte les objets et active la réalité
augmentée.
À l’écran, l’utilisateur voit des formes de couleur
clignotantes se superposer sur les deux canettes. En concentrant son
attention sur l’une des deux formes clignotantes, la personne indique
laquelle le robot doit saisir. « Chaque objet reconnu de la scène
clignotera à une fréquence désignée, et si l'attention de l'opérateur
est portée sur un objet, cela enclenchera la tâche qui lui est associée
et qui sera donc exécutée par le robot. »
Le chemin est encore long
Bien sûr, nous sommes encore loin d’un système
entièrement polyvalent, capable d’exécuter n’importe quelle tâche.
Abderrahmane Kheddar nous a notamment expliqué que les principaux
obstacles à surmonter concernent le rapport signal sur bruit de l’EEG
qui est de « piètre qualité » ainsi que la latence dans le
traitement des signaux pour opérer une classification SSVEP. Le travail
de développement va donc se poursuivre. Prochaine étape, des essais avec
des personnes paralysées. « Nous envisageons de faire des expériences avec des tétraplégiques et de faire du contrôle continu du mouvement robotique avec une véritable commande en boucle fermée », précise le directeur du JRL.
Quand un tel système sera-t-il fonctionnel et utilisable par le grand public ? « Difficile d'avoir une estimation correcte », répond le professeur Kheddar qui estime qu’il faudrait compter une quinzaine d’années, le temps que des robots humanoïdes plus sophistiqués fassent leur apparition et que la technologie BCI progresse elle aussi. « Mais une trouvaille originale pourrait accélérer l'ensemble », conclut-il.
Aucun commentaire:
Enregistrer un commentaire