Avant-hier j’ai vu un reportage à la télé italienne sur le système Brindisys : Brain-computer interface devices to support individual autonomy in locked-in individuals (Interfaces cerveau-ordinateur, ou interfaces neuronales directes, de soutien à l’autonomie individuelle des individus tétraplégiques ou dont les muscles ne répondent plus au cerveau), dont le développement a été financé, entre autres, par la fondation italienne ARISLA, qui s’occupe de la recherche sur la SLA (Sclérose Latérale Amyotrophique), et je suis resté scotché devant l’écran par les implications sans limites d’un tel système.
Il s’agit en fait d’interpréter les signaux provenant de l’activité électrique des neurones pour les transformer en commandes, à travers les étapes suivantes (pour simplifier) :
1. Mesure de l’activité cérébrale
2. Prétraitement
3. Extraction de caractéristiques
4. Classification
5. Traduction en une commande
6. Retour perceptif
Vu sous cet angle, ça paraît compliqué, mais traduit en images, on saisit immédiatement ce dont il s’agit :
C’est écrit en italien, mais les situations sont facilement compréhensibles.
- La première consiste à attirer l’attention de quelqu’un quand on a besoin d’aide.
- La deuxième consiste à « dialoguer » avec l’autre personne, à travers un peu plus d’une dizaine d’interactions qui correspondent aux besoins primaires, et qui ont été définies de concert avec les familles des patients ayant participé à l’expérimentation : Oui / Non / Merci / Je veux dormir / J’ai faim / J’ai soif / Tout va bien / J’ai chaud / J’ai froid / Je veux sortir / Bonjour / Au revoir / Bonne nuit, etc.
Sur la vidéo, le système comprend le « j’ai chaud » et l’autre personne enlève la couverture.
- La troisième et la septième consistent à allumer le lecteur de DVD et voir un DVD.
- La quatrième consiste à redresser le dos du fauteuil, la cinquième à éteindre la lumière de la pièce, et la sixième à allumer la télé.
Les deux dernières minutes de la vidéo font voir l’expérimentation avec un écran tactile.
Il est également possible d’écrire des messages en les épelant lettre par lettre (genre p300 Speller), après quoi un système de synthèse vocale restitue oralement le message.
Personnellement, ce qui me trouble vraiment dans cette démonstration, c’est de voir qu’en une dizaine de secondes le système interprète correctement les commandes du cerveau sans interaction manuelle ni en passant par l’intermédiaire de la parole !
Avec un dispositif technique relativement simple : une espèce de casque souple truffé d’électrodes pour capter et transmettre les signaux électriques du cerveau, et à l’autre bout une simple tablette.
electrodes Brindisys, le système qui connecte lordinateur au cerveau !
Même si dans la vidéo le système est couplé à un appartement domotisé, qui permet par exemple au patient de redresser seul son fauteuil, d’allumer la télé ou d’éteindre la lumière. Mais on imagine facilement le grand nombre d’interactions possibles dans une maison, y compris vers l’extérieur : se faire livrer des courses à domicile, faire venir quelqu’un pour sortir, etc.
Naturellement, ces interfaces homme-machine sont également disponibles avec écran tactile, joystick, etc., pour pouvoir aider potentiellement tous les patients souffrant de handicaps moins graves, à mobilité réduite ou autres.
Mais au-delà de ces applications, je n’ose imaginer toutes les implications possibles de ces étranges systèmes, aujourd’hui réalité et non plus science-fiction, enfin capables de traduire la pensée !!!