Une interface cerveau-ordinateur utilisée pour commander des mouvements et des actions d’un robot androïde. Des chercheurs du laboratoire du CNRS-AIST Joint Robotics et du groupe CNRS-LIRMM Interactive Digital Human, travaillent ensemble sur les moyens de contrôler des robots par la seule pensée.
« Fondamentalement, nous tenons à créer des dispositifs qui permettent aux gens de se sentir incarné dans le corps d’un robot humanoïde », a expliqué Abderrahmane Kheddar, professeur et directeur au Laboratoire Joint Robotics à CNRS-AIST. « Pour ce faire, nous essayons de développer des technologies d’interfaces Cerveau-Ordinateur (BCI) lisant dans les pensées des gens, puis essayions de voir jusqu’où nous pouvons aller dans l’interprétation des signaux des ondes cérébrales, avec pour objectif de les transformer en actions devant être réalisées par le robot ».
L’interface se sert de symboles clignotants qui orientent le robot et l’aide à interagir avec l’environnement qui l’entoure.
« Basiquement, ce que vous voyez est comment avec un modèle, appelé le SSVEP, nous composons avec la capacité à associer le scintillement des choses à des actions, c’est ce que nous appelons l’affordance. Ce qui signifie que nous associons des actions à des objets, et ensuite, nous ramenons cet objet à l’attention des l’utilisateurs, puis en concentrant l’intention de l’utilisateur, celui-ci est capable d’induire des actions qu’ils souhaitent effectuer avec le robot, et cela est alors traduit [dans la réalité] ».
« Il est coiffé d’un bonnet perforé d’électrodes qui nous ont permises de lire les activités électriques du cerveau transférés au PC et passant par une unité de traitement du signal, classant ainsi ce que pense l’utilisateur ». Comme vous le voyez sur l’image ci-dessous, il y a plusieurs icônes qui peuvent être associées à des tâches ou bien se mettre à clignoter automatiquement lorsque vous pouvez reconnaître un objet, et à des fréquences différentes. Les scientifiques ont la possibilité d’intercepter la fréquence à laquelle l’utilisateur concentre son attention et ensuite sélectionner cet objet. Pour terminer, et puisque l’objet est associé à une tâche, alors il est facile de charger le robot du travail qu’il doit accomplir.
« Les applications visées sont à destination des tétraplégiques ou paraplégiques qui utiliseront cette technologie pour se mouver à l’aide du robot, où, par exemple, un patient à Rome serait capable de piloter un robot humanoïde pour faire du tourisme au Japon ».
Aller plus loin… (anglais) :
Citations de DigInfo
Crédits médias : © DigInfo / Don Kennedy
Lien supplémentaire : AIST
Laisser une réponse