mardi 13 décembre 2011

Un robot qui lie la main et le cerveau

Le 11 décembre 2011 par Annie Fajoles
Arriver à donner un comportement humain à la main du robot
Arriver à donner un comportement humain à la main du robot
DR
Un chercheur du CESEM développe des modèles 3D comportementaux basés sur les signaux neuronaux pour piloter un bras robotisé de préhension. Objectif : mieux interpréter les neurosciences pour améliorer les prothèses médicales et les préhenseurs industriels.
Comment une main humaine saisit-elle un objet ? Comment le cerveau contrôle-t-il ce geste ? Telles sont les questions que se pose François Touvet, doctorant en 3e année de thèse au sein de l'équipe "Contrôle multi-sensoriel du membre supérieur" du CESEM (Centre d’Etude de la Sensori-motricité), laboratoire de recherche biomédicale en neurosciences de la Faculté de médecine (Universités Paris Descartes et Paris-Diderot).

L’acte en soi a l’air simple, pourtant les neurosciences sont encore loin d’avoir percé le mystère de la chaîne d’information nécessaire à la préhension. Elles avancent grâce à cette équipe en testant sur un robot la modélisation du mouvement humain et la façon dont il peut être commandé par le cerveau, confrontant ainsi les différentes approches théoriques, les modèles de fonctionnement du cerveau, et leurs limites.

Comment modéliser une main ?

François Touvet a d’abord scanné sa propre main en très haute résolution (moins d’un mm). Le résultat a été traité avec le logiciel OsiriX, afin d’obtenir une première modélisation du squelette de la main.

Il a ensuite articulé ce squelette en 22 tronçons mobiles (les os du poignet étant considérés comme un seul bloc). Il a importé ces éléments dans le logiciel Blender pour confectionner un modèle 3D réaliste.

Pour réaliser l’animation de ce modèle, il a déterminé des centres articulaires à partir des surfaces de contact entre les os. Mais cette ‘’marionnette’’ est pour l’instant inanimée.



Pour lui donner un comportement réaliste, il reste à gérer l’interaction avec les objets : ceci nécessite de paramétrer un dernier élément du logiciel nommé ‘’moteur physique’’, à partir de diverses données caractérisant l’objet saisi (telles sa nature, sa densité, sa masse, etc.). 
 

L’objectif est de coller au plus près à la façon dont une main humaine saisit un objet et d’affiner la connaissance des processus neuronaux mis en jeu dans cet acte de préhension. La complexité vient du fait qu’il s’agit de prendre en compte l’impact de la totalité du bras dans le déploiement de la main et de trouver une modélisation mathématique appropriée.

Un robot valide l’approche

Ces travaux utilisent des données réelles acquises sur une main saisissant un objet à l’aide d’un Cyber Glove (gant instrumenté dans lequel l’expérimentateur glisse et bouge sa main, et qui mesure la position et l’orientation 3D de la paume, ainsi que les angles de chaque articulation). François Touvet utilise ces données comme entrées du programme informatique, qu’il a développé à l’aide de Matlab, destiné à commander le bras articulé robotisé simulant un bras humain.

« Pour les premières campagnes d’essais, je me suis rendu à l’Institut Pprime de Poitiers qui abrite le robot et j’ai testé mes configurations avec l’aide de l’équipe partenaire, afin d’effectuer les ajustements nécessaires entre la simulation et le réel. Aujourd’hui, nous travaillons toujours ensemble, mais à distance : il me suffit simplement de générer les paramètres de consigne de la main et du robot porteur avec mon simulateur et de les envoyer  à l’équipe de Poitiers qui les valide sur le robot », explique François Touvet.
 

Cette étape ‘‘mécanique’’ validée, pour obtenir un démonstrateur aussi proche du réel que possible, il faut aussi intégrer les signaux issus du cerveau afin de tenir compte de la nature, de la texture, des dimensions et de la position dans l’espace des objets à saisir. Cela se fait en liaison avec un laboratoire britannique qui étudie les signaux neuronaux (spikes) envoyés par le cerveau d’un singe quand il attrape un objet fixé à un carrousel tournant.


                       
                                     Le robot qui lie la main au cerveau (2) par IndustrieTechnologies


François Touvet est chargé de réaliser la modélisation de l’acte du singe, en introduisant le plus grand nombre possible de paramètres tirés de l’analyse des données expérimentales.

Pour cela, il a d’abord créé un modèle 3D de sa propre main en mouvement, en utilisant des logiciels Open Source, OsiriX, pour le traitement des données médicales, puis Blender, pour la modélisation et l’animation 3D (voir encadré).

« On dénombre en tout vingt-trois degrés de liberté dans la main hors poignet, répartis en cinq chaînes cinématiques, une par doigt ; le modèle d’animation reproduit ces articulations en prenant en compte leurs limites propres et va permettre de répliquer les mouvements mesurés, à travers deux outils de robotique classique, les modèles cinématiques : ‘’direct’’ pour le calcul de la position 3D de l’extrémité du doigt en fonction des angles d’articulation connus ; ’’inverse’’ pour le calcul des angles en fonction de la position 3D mesurée. La résolution de ce dernier passe par des algorithmes d’optimisation intégrés au logiciel » : développe François Touvet pour expliquer la résolution du mouvement spatial de chaque doigt de sa main.


François Touvet, fasciné par le mouvement

Après un BTS en Electrotechnique au Lycée Jules Ferry de Versailles (78), puis une licence professionnelle en robotique à Evry (91), il travaille 3 ans en tant que technicien supérieur chez Tenwhil, où il programme des robots industriels pour les chaînes d’assemblage automobile.
 
Il reprend ses études et entame un master à l’Université de Jussieu sur le traitement du signal, les systèmes intelligents et la robotique ; puis il enchaîne avec la thèse qu’il mène actuellement au CESEM depuis 2 ans : Approches Bio-Inspirées pour La manipuLation Intelligente et la Saisie  (projet ANR ABILIS).
 
Lors de sa formation et de ses stages, il a pu allier ses compétences techniques concrètes, assises par un stage hors cursus d’élaboration de l’aspect matériel d’un robot-chien, à sa passion pour la programmation informatique et la modélisation 3D.
 
Son idéal de recherche, il l’énonce ainsi : « comprendre le mouvement fluide et efficace », ce qui sonne un peu comme un idéal d’artiste…
 
Ce travail de modélisation a validé la faisabilité d’un modèle de main de macaque, qui, dans un futur proche, permettra d’analyser les données expérimentales mesurées sur les singes, pour les transposer ensuite à la commande du robot.

Des retombées médicales et industrielles

Ces recherches devraient apporter des éléments de réponses à certains questionnements : quelle est la représentation corporelle ‘’enregistrée’’ par notre cerveau ? ; Comment évolue-t-elle en fonction des expériences de chacun (degré de plasticité) et comment influe-t-elle sur la motricité, en cas de lésion par exemple ? ; Quel rôle jouent les organes sensoriels dans la préhension, par exemple les yeux pour la vision ou l’oreille interne pour la perception de la gravité. Autant de questions dont la résolution contribuerait à réaliser des commandes plus fines de prothèses de la main pour des handicapés, afin d’améliorer leur dextérité.

Les ‘’neuro-prothèses’’, qui n’effectuaient jusqu’à présent qu’un mouvement de pince et éventuellement une rotation au niveau du poignet, sont encore loin de permettre la manipulation fine qu’un sujet effectue chaque jour, sans y réfléchir ! Cependant, des progrès sont en cours et quelques exemples encourageants montrent même qu’un retour sensoriel est intégrable. Une piste possible d’amélioration serait de rendre la prothèse ‘’semi-intelligente’’ ou semi-automatique, en lui laissant gérer une partie des mouvements comme le fait le système nerveux. De telles mains artificielles seraient transposables dans le milieu industriel et, embarquées sur les robots actuels, apporteraient plus de souplesse à la manutention robotisée.

On se prend alors à rêver qu’un jour, grâce à ces recherches, le cerveau d’un être humain qui aurait perdu accidentellement sa main puisse directement commander la prothèse remplaçant celle-ci avec la même subtilité…

Annie Fajoles

Pour en savoir plus :

Projet ANR ABILIS (Approches Bio-Inspirées pour la manipuLation Intelligente et la Saisie) : http://abilis.lms.sp2mi.univ-poitiers.fr/

Plate-forme robotique de l’université Paris-Descartes : http://robotique.parisdescartes.fr

Publication en cours dans le journal scientifique Robotics and Autonomous Systems : http://dx.doi.org 

http://www.industrie.com/it/un-robot-qui-lie-la-main-et-le-cerveau.12350?xtor=EPR-25&emv_key=AJ5QmugnaTq78yA9MA

Aucun commentaire:

Enregistrer un commentaire