A lire sur: http://www.futura-sciences.com/fr/news/t/informatique/d/insight-lapplication-qui-reconnait-les-personnes-grace-aux-vetements_45280/#xtor=EPR-23-[HEBDO]-20130321-[ACTU-insight__l_application_qui_reconnait_les_personnes_grace_aux_vetements]
Par Marc Zaffagni, Futura-Sciences
Baptisée Insight, cette application
identifie une personne à partir de ses vêtements et de sa façon de se
mouvoir. Elle est destinée à compléter des lunettes à réalité augmentée, comme celles que Google compte commercialiser en fin d’année.
Tout commence par un scénario classique. Une
personne a rendez-vous avec un ami pour assister à un concert. Problème,
l’ami en question se trouve quelque part dans la foule qui piétine pour
entrer dans la salle. Plutôt que dégainer son mobile pour appeler, la
personne chausse tranquillement sa paire de lunettes à réalité augmentée
et commence à balayer l’assistance du regard. Soudain, sur l’écran
projeté devant ses yeux apparaît une flèche qui lui désigne son ami, de
dos au milieu d’un groupe.
Cette application existe : elle se nomme InSight. Elle évoque l'une des réalisations du projet UI-Art de l'université Aalto, en Finlande, consistant en une paire de lunettes à réalité augmentée capable de reconnaissance faciale. Insight va plus loin en analysant ses vêtements. C’est une équipe réunissant des professeurs américains de la Duke University (Caroline du Nord) et de l’University of South Carolina qui l’a mise au point. L’objectif était de la faire fonctionner sur les lunettes à réalité augmentée Glass de Google, qui a d’ailleurs financé en partie le développement de ce projet.
L’application analyse la couleur des vêtements, les motifs ainsi que la manière de se mouvoir. Pris ensemble, ces éléments forment une sorte d’« empreinte digitale » spécifique à chaque individu. «
Notre technique est complémentaire de la reconnaissance faciale et
exploite l’idée que les couleurs des vêtements, les motifs et même la
façon de bouger forment une empreinte digitale », expliquent les inventeurs d’InSight.
Schéma
illustrant le fonctionnement de l’application InSight. Bob créé une
empreinte « spatiochromatique » à partir d’une série de photos prises
par son smartphone. Cette empreinte est alors diffusée aux terminaux mobiles présents dans les environs via une liaison Bluetooth.
Lorsqu’Alice regarde dans la foule avec ses lunettes à réalité
augmentée, InSight relève les empreintes spatiochromatiques de chaque
individu (F1, F2, F3, etc.) et les
compare avec celle de Bob. Si une correspondance est établie, une flèche
virtuelle signale à Alice la position de Bob dans la foule. © University of South Carolina, Duke University
Google Glass et empreintes « spatiochromatiques »
Pour mieux saisir le fonctionnement de
l’application, il faut imaginer un scénario impliquant deux personnes. À
chaque fois qu’un utilisateur A se sert de son smartphone,
InSight prend automatiquement une série de photos grâce à la caméra
frontale en délimitant une zone carrée qui se situe au niveau du torse.
Les images sont traitées pour en extraire des identifiants visuels comme
les couleurs, leur disposition, les motifs. Cette empreinte dite «
spatiochromatique » est ensuite diffusée aux smartphones alentour via
une connexion Bluetooth,
accompagnée du prénom de la personne ou du message court qu’elle
souhaite diffuser. Les créateurs d’InSight précisent que les
informations peuvent aussi être envoyées sur des serveurs distants auxquels les mobiles se connectent pour consulter la base d’empreintes spatiochromatiques.
Si une personne B équipée d’une paire de lunettes à
réalité augmentée connectée à un smartphone promène son regard dans la
foule et souhaite trouver A, il lui suffit de presser un bouton placé
sur la monture. La caméra intégrée enregistre alors une séquence vidéo
de trois secondes qui est transmise au smartphone. Celui-ci va en
extraire une image pour l’analyser afin de distinguer chaque individu et
collecter son empreinte spatiochromatique. Si l’une des empreintes
correspond à celle de l’utilisateur A avec un niveau de certitude
suffisant, le smartphone va l’identifier. Il signale alors la position
de la personne dans la foule sur l’écran des lunettes,
en faisant apparaître une flèche au-dessus de sa tête. Dans le cas où
le rapprochement n’offre pas un pourcentage de certitude assez élevé,
InSight complète l’identification en prenant en compte les mouvements spécifiques d’une personne qui ont été collectés par l’accéléromètre et la boussole de son smartphone.
Reconnaissance visuelle à 93 % de réussite
Les utilisateurs pourraient se servir de
l’application non seulement pour s’identifier, mais aussi pour diffuser
un message court plus spécifique selon les circonstances. Exemple : dans
un aéroport, un utilisateur qui cherche à partager un taxi pourrait le
signaler grâce à InSight, et les personnes intéressées portant leurs
lunettes spéciales en seraient informées en voyant le message flotter
au-dessus de l’utilisateur. Au cours d’une réunion professionnelle, une
personne munie des lunettes pourrait voir les noms des participants
s’afficher au-dessus de leur tête à la place des badges que l’on porte habituellement sur la poitrine. On peut également penser à des échanges entre les membres d’un réseau social, qui pourraient signaler leur appartenance grâce à InSight.
Lors des tests effectués par l’équipe
d’universitaires avec 15 volontaires, l’application a affiché un taux de
réussite de 93 %. Cependant, le système a ses limites. Tout d’abord,
l’identification ne fonctionne que si la personne que l’on veut
retrouver porte les mêmes vêtements
que ceux qui ont servi à créer son empreinte spatiochromatique, ce qui
suppose un délai d’utilisation court. Ensuite, il peut arriver que
l’application ait du mal à distinguer chaque individu dans une foule
compacte. Les créateurs d’InSight reconnaissent que leur logiciel a encore besoin de progresser dans ce domaine. Le système pose également des questions en matière de confidentialité, à commencer par la prise automatique des photos qui servent à créer l’empreinte.
Parmi les améliorations prévues, l’insertion d’un
système de contrôle manuel afin que l’utilisateur puisse être averti et
voir les clichés qui ont été pris avant d’autoriser la diffusion des données aux smartphones voisins. L’équipe de développeurs compte également renforcer le système d’identification par les mouvements
lorsque la reconnaissance par les vêtements n’est pas assez fiable. Il
reste donc encore beaucoup de travail pour que l’application puisse
fonctionner en conditions réelles.
Aucun commentaire:
Enregistrer un commentaire