- 3 mars 2012 :: 12:41 :: Par Jean-Marie
Avant-hier j’ai vu un reportage à la télé italienne sur le système Brindisys : Brain-computer interface devices to support individual autonomy in locked-in individuals (Interfaces cerveau-ordinateur, ou interfaces neuronales directes,
de soutien à l’autonomie individuelle des individus tétraplégiques ou
dont les muscles ne répondent plus au cerveau), dont le développement a
été financé, entre autres, par la fondation italienne ARISLA, qui s’occupe de la recherche sur la SLA (Sclérose Latérale Amyotrophique), et je suis resté scotché devant l’écran par les implications sans limites d’un tel système.
Il s’agit en fait d’interpréter les signaux provenant de l’activité électrique des neurones pour les transformer en commandes, à travers les étapes suivantes (pour simplifier) :
Il s’agit en fait d’interpréter les signaux provenant de l’activité électrique des neurones pour les transformer en commandes, à travers les étapes suivantes (pour simplifier) :
1. Mesure de l’activité cérébrale
2. Prétraitement
3. Extraction de caractéristiques
4. Classification
5. Traduction en une commande
6. Retour perceptif
Vu sous cet angle, ça paraît compliqué, mais traduit en images, on saisit immédiatement ce dont il s’agit :2. Prétraitement
3. Extraction de caractéristiques
4. Classification
5. Traduction en une commande
6. Retour perceptif
C’est écrit en italien, mais les situations sont facilement compréhensibles.
- La première consiste à attirer l’attention de quelqu’un quand on a besoin d’aide.
- La deuxième consiste à « dialoguer » avec
l’autre personne, à travers un peu plus d’une dizaine d’interactions
qui correspondent aux besoins primaires, et qui ont été définies de
concert avec les familles des patients ayant participé à
l’expérimentation : Oui / Non / Merci / Je veux dormir / J’ai faim /
J’ai soif / Tout va bien / J’ai chaud / J’ai froid / Je veux sortir /
Bonjour / Au revoir / Bonne nuit, etc.
Sur la vidéo, le système comprend le « j’ai chaud » et l’autre personne enlève la couverture.
- La troisième et la septième consistent à allumer le lecteur de DVD et voir un DVD.
- La quatrième consiste à redresser le dos
du fauteuil, la cinquième à éteindre la lumière de la pièce, et la
sixième à allumer la télé.
Les deux dernières minutes de la vidéo font voir l’expérimentation avec un écran tactile.
Il est également possible d’écrire des messages en les épelant lettre par lettre (genre p300 Speller), après quoi un système de synthèse vocale restitue oralement le message.
Personnellement, ce qui me trouble vraiment
dans cette démonstration, c’est de voir qu’en une dizaine de secondes
le système interprète correctement les commandes du cerveau sans
interaction manuelle ni en passant par l’intermédiaire de la parole !
Avec un dispositif technique relativement
simple : une espèce de casque souple truffé d’électrodes pour capter et
transmettre les signaux électriques du cerveau, et à l’autre bout une
simple tablette.
Même si dans la vidéo le système est couplé
à un appartement domotisé, qui permet par exemple au patient de
redresser seul son fauteuil, d’allumer la télé ou d’éteindre la lumière.
Mais on imagine facilement le grand nombre d’interactions possibles
dans une maison, y compris vers l’extérieur : se faire livrer des
courses à domicile, faire venir quelqu’un pour sortir, etc.
Naturellement, ces interfaces homme-machine
sont également disponibles avec écran tactile, joystick, etc., pour
pouvoir aider potentiellement tous les patients souffrant de handicaps
moins graves, à mobilité réduite ou autres.
Mais au-delà de ces applications, je n’ose
imaginer toutes les implications possibles de ces étranges systèmes,
aujourd’hui réalité et non plus science-fiction, enfin capables de traduire la pensée !!!
http://www.presse-citron.net/brindisys-ordinateur-cerveau?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+Pressecitron+%28Presse-citron+-+Le+blog%29
Aucun commentaire:
Enregistrer un commentaire