En analysant l'intonation des individus au téléphone,
il pourrait être possible de comprendre leur émotion lors d'une
conversation et de déclencher des applications en fonction.
Une conversation téléphonique pourrait-elle
étendre son champ de communication aux émotions? Des solutions se
développent dans ce sens comme le système mis en place par
ForcePhone,
qui permet de transmettre les émotions lors d'une conversation
téléphonique grâce au toucher. Dans la même veine, une équipe de
l'Université de Rochester a mis au point un
programme informatique
qui jauge les sentiments humains à travers la parole, avec une
précision que ses concepteurs revendiquent comme supérieure à des
approches existantes. Etonnamment, le programme ne s'attacherait pas au
sens des mots, mais plutôt à la façon dont ils sont prononcés.
L'émotion analysée
En effet, l'émotion affecte la façon dont les personnes parlent et
modifient le volume, la hauteur et les harmoniques de leur discours. Le
programme permet d'analyser ainsi douze fonctions de la parole en se
basant sur ces caractéristiques, ce afin d'identifier l'une des six
émotions à partir d'un enregistrement sonore. Ainsi, le système détecte
si la personne est heureuse, intéressée, en colère, triste, a peur ou
est ennuyée. Les tests menés ont permis d'améliorer la détection de
l'émotion avec 81% de précision contre 55% pour des études antérieures.
Cette recherche a déjà servi pour développer le prototype d'une
application. Celle-ci affiche une émoticône heureuse ou triste en
fonction de l'enregistrement sonore et de l'analyse de la voix de
l'utilisateur.
Des applications et des améliorations
D'autres applications pourraient s'intégrer aux smartphones. Selon
l'humeur de l'utilisateur, cette technologie pourrait ajuster les
couleurs affichées sur le mobile, ou bien jouer de la musique adaptée en
fonction du ton utilisée lors du dernier appel téléphonique. Des
améliorations sont à apporter au programme afin d'augmenter le niveau de
précision, mais aussi permettre de classer les émotions contenues dans
le discours selon différents types de voix. En effet, si le système
analyse une voix différente de celle qui l'a formée, la précision
chuterait de 81% à 30%. Les chercheurs se penchent maintenant sur les
moyens de minimiser cet effet, par exemple, par la formation du système
avec une voix dans le même groupe d'âge et du même sexe.
Aucun commentaire:
Enregistrer un commentaire