Skip to main content

Bientôt, une nouvelle génération de simulateur

1 réponse [Dernière contribution]
Madeleine
Déconnecté
Inscrit: 25/05/2007

www.lemonde.fr/web/article/0,1-0@2-3244,36-926929@51-927051,0.html

ainsi amélioré, BCBG sera encore plus utile.......!

Madeleine
Déconnecté
Inscrit: 25/05/2007

Je vous mets l'article en fait car il sera bientôt en accès payant...

je vous souhaite un très bon week-end !

Madeleine.

Les robots apprennent les émotions humaines
LE MONDE | 22.06.07 | 16h22 • Mis à jour le 22.06.07 | 16h22

Petite scène de la vie quotidienne. Stressé par une journée éprouvante, vous rentrez du travail de méchante humeur. Tom, votre robot domestique, qui a perçu votre contrariété, fait assaut de prévenances : il entonne une chansonnette joyeuse, esquisse quelques pas de danse propres à vous dérider, s'approche pour vous masser le dos. Décidément furibard, vous le rembarrez d'un brutal : "Fiche-moi la paix !" Peiné, Tom croise les bras et s'en va bouder dans un coin.

D'ici peu - quelques années tout au plus -, ce scénario n'aura plus rien de futuriste. Partout dans le monde, aux Etats-Unis, au Japon, en Europe, des équipes de recherche et des constructeurs préparent de nouvelles générations d'automates, sachant reconnaître et exprimer des émotions : des "émorobots".

L'Union européenne vient ainsi de lancer un programme de recherche, Feelix Growing, dont l'objectif est de concevoir des robots capables d'interagir avec les humains "d'une manière socialement et émotionnellement appropriée". Doté de 2,5 millions d'euros sur trois ans, ce projetmobilise, aux côtés de roboticiens, des experts en neurosciences, en psychologie du développement et en éthologie. D'ici à 2010 devraient voir le jour deux robots adaptés, le premier à l'environnement familial, le second à l'assistance aux malades et aux personnes âgées.

La jeune PME française Aldebaran Robotics, associée à ce programme, prévoit de mettre sur le marché, dès 2008, un robot humanoïde doué de facultés émotionnelles. Baptisé Nao, il sera en mesure, annonce Bastien Parent, responsable de la communication de la société, d'identifier les humeurs de son propriétaire grâce à un module de reconnaissance vocale, ainsi que de manifester lui-même toute une palette d'états - joie, colère, ennui... - par un jeu de postures, de mimiques, de codes lumineux et de modulations vocales.

Signe de cet engouement, les représentants d'une trentaine de groupes de recherche européens, américains et israéliens, réunis début juin à Paris par le CNRS (Centre national de la recherche scientifique), ont créé l'association Humaine (Human-Machine Interaction on Emotion) pour coordonner leurs travaux (www.emotion-research.net). "Le traitement automatique des émotions par des machines est un domaine en émergence, qui mobilise de multiples disciplines : psychologie, neurosciences, sciences du langage verbal et non verbal, informatique...", explique Laurence Devillers, du Laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur (Limsi-CNRS) d'Orsay.

La voie longtemps suivie par les spécialistes de l'intelligence artificielle, qui se focalisaient sur une aptitude au raisonnement logique basée sur la seule puissance de calcul, a atteint ses limites. Désormais, ils placent la détection et la génération d'expressions émotionnelles au coeur de la communication entre l'homme et la machine.

C'est au Massachusetts Institute of Technology (MIT), aux Etats-Unis, qu'est né, voilà dix ans, le concept d'"affective computing", l'informatique affective. Dans la foulée sont apparus divers robots de compagnie, humanoïdes ou animaloïdes - sur le modèle du chien Aibo de Sony -, capables de réagir aux sollicitations de leur propriétaire par des mouvements des yeux, de la queue ou des oreilles, quelques mots ou simples onomatopées, ou encore par un jeu de voyants lumineux (orange pour la colère, bleu pour la tristesse, vert pour l'amour...).

Rien de très convaincant jusqu'à maintenant. Mais, dans leurs cartons, les chercheurs ont déjà des projets plus évolués. Le laboratoire Heuristique et diagnostic des systèmes complexes (Heudiasyc, CNRS-Université technologique de Compiègne) travaille sur l'analyse des visages et la reconnaissance automatique des expressions. Un modèle statistique, basé sur une quarantaine de paramètres (des points caractéristiques localisés autour des yeux, des sourcils et des lèvres), permet à un ordinateur équipé d'une caméra d'identifier, sur des images fixes de visages vus de face, six états émotionnels basiques : joie, colère, tristesse, dégoût, peur ou surprise. Cela, "avec un taux de réussite de 85 à 90 %", annonce Franck Davoine, qui pilote ce programme.

L'affaire se corse si l'on s'intéresse à des affects complexes, comme le doute ou le mélange joie-surprise. Et surtout si l'on part non pas d'images statiques, mais de visages en mouvement, en situation réelle. "La difficulté est de mettre au point des modèles robustes, performants, même si le visage est mal éclairé, de profil ou en partie masqué", souligne Franck Davoine, persuadé que les progrès seront rapides.

Le Limsi, de son côté, développe un modèle de détection des états émotionnels dans le dialogue oral. "Augmenter la sophistication des algorithmes statistiques ne suffit pas à résoudre le problème de la grande variabilité des signaux acoustiques dans la parole spontanée", insiste Laurence Devillers. Celle-ci travaille à partir de corpus de plusieurs dizaines d'heures d'enregistrements (appels téléphoniques, consultations médicales...) soumis à un panel d'une quarantaine d'auditeurs, qui leur font correspondre des affects : peur, colère, soulagement, tristesse...

Des corrélations sont ensuite établies entre ces affects et des indices prosodiques (débit, timbre, hauteur, intensité de la voix), sémantiques (le vocabulaire de la joie diffère de celui de la colère) ou syntaxiques (la structure de la phrase varie aussi en fonction des humeurs) des séquences verbales. Ces données sont alors encodées dans un modèle informatique qui parvient à identifier les émotions simples avec un taux de succès de 50 % à 60 %. Cela, dans plusieurs langues.

L'étape suivante sera de bâtir un modèle multimodal, associant les indices émotionnels de la parole à ceux des expressions faciales et gestuelles. "Les études combinant toutes ces modalités sont encore embryonnaires, indique Jean-Claude Martin, spécialiste de ce domaine au Limsi. Mais en laboratoire, nos prototypes deviennent de plus en plus performants."

Pierre Le Hir
Article paru dans l'édition du 23.06.07.