WO2013178741A1 - Systeme et procede pour generer des comportements contextuels d'un robot mobile executes en temps reel - Google Patents

Systeme et procede pour generer des comportements contextuels d'un robot mobile executes en temps reel Download PDF

Info

Publication number
WO2013178741A1
WO2013178741A1 PCT/EP2013/061180 EP2013061180W WO2013178741A1 WO 2013178741 A1 WO2013178741 A1 WO 2013178741A1 EP 2013061180 W EP2013061180 W EP 2013061180W WO 2013178741 A1 WO2013178741 A1 WO 2013178741A1
Authority
WO
WIPO (PCT)
Prior art keywords
module
robot
behavior
text
editing
Prior art date
Application number
PCT/EP2013/061180
Other languages
English (en)
Inventor
Victor PALEOLOGUE
Maxime MORISSET
Flora BRIAND
Original Assignee
Aldebaran Robotics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aldebaran Robotics filed Critical Aldebaran Robotics
Priority to CN201380037538.3A priority Critical patent/CN104470686B/zh
Priority to BR112014030043A priority patent/BR112014030043A2/pt
Priority to JP2015514502A priority patent/JP6319772B2/ja
Priority to US14/404,924 priority patent/US20150290807A1/en
Priority to EP13728694.4A priority patent/EP2855105A1/fr
Publication of WO2013178741A1 publication Critical patent/WO2013178741A1/fr

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/34Graphical or visual programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40099Graphical user interface for robotics, visual robot user interface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40392Programming, visual robot programming language

Definitions

  • the invention covered by the patent application cited does not control the robot in real time because it uses a publisher who is not able to send orders directly to the robot in "streaming", that is to say ie who can interact in real time with the behavior of the robot that can evolve according to the evolution of its environment.
  • a scenario must be replayed from the beginning when an event not provided for in the command scenario occurs.
  • FIG. 1 represents the physical architecture of a system for implementing the invention according to several embodiments.
  • a humanoid robot 1 1 0 is shown in the figure in one embodiment of the invention. Such a robot has been disclosed in particular in the patent application WO2009 / 124951 published on January 15, 2009. This platform served as a basis for the improvements that led to the present invention. In the remainder of the description, this humanoid robot can be indifferently referred to under this generic name or under its trademark NAO TM, without the generality of the reference being modified.
  • the head includes the intelligence of the robot, including the card that performs the high-level functions that allow the robot to perform the tasks assigned to it, including, in the context of the present invention, for the execution of written scenarios by a user who is not a professional programmer.
  • the head may also include specialized cards, especially in the speech or vision processing or also in the processing of service inputs / outputs, such as the encoding necessary to open a port to establish a communication remotely over Wide Area Network (WAN).
  • the card processor can be a commercial x86 processor. We will choose in a preferred way a low-power processor, for example an ATOM TM from Intel (32 bits, 1600 MHz).
  • the card also includes a set of RAM and flash memories.
  • the robot 1 1 0 will be able to perform behaviors for which it may have been programmed in advance, including a code generated according to the invention disclosed in the French patent application No. 09/53434 already cited, said code having been created by a programmer in a graphical interface.
  • These behaviors may also have been arranged in a scenario created by a user who is not a professional programmer using the invention disclosed in the patent application WO201 1/003628 also already mentioned.
  • it may be behaviors articulated among themselves according to a relatively complex logic in which the sequences of behaviors are conditioned by the events that occur in the environment of the robot.
  • a user who must have a minimum of programmer skills can use the Choregraph TM workshop, whose main operating modes are described in the cited application.
  • the flow logic of the scenario is not in principle adaptive.
  • the PC 1 20 includes a software module 210 for graphically editing the commands that will be passed to the robot or robots.
  • the architecture and operation will be detailed in comment in Figure 3.
  • the behavior commands are represented in a thumbnail by an icon illustrative of said behavior.
  • the behavior commands can generate:
  • Figures 5a and 5b show thumbnails constituting a scenario executed by a robot in one embodiment of the invention.
  • the robot can interact with its environment and its interlocutors in a very varied way: speech, gestures, touch, light signals, etc.
  • speech gestures, touch, light signals, etc.
  • these can be activated to translate strong emotions "felt" by the robot by reading the text or to generate an eye blink adapted to the shape and speed of speech.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Manipulator (AREA)
  • Stored Programmes (AREA)
  • Toys (AREA)

Abstract

L'invention concerne un système et un procédé permettant à un utilisateur non informaticien de générer des comportements contextuels d'un robot pouvant être exécutés en temps réel. A cet effet, l'invention divulgue un module (210) d'édition de vignettes (510, …, 570) dans lesquelles on peut insérer des représentations graphiques (5310, …, 5610) de comportements à exécuter par ledit robot pendant qu'il déclame des textes insérés dans des bulles (5210, …, 5620) en exprimant des émotions (5430). Un bandeau 580 comportant généralement une partition musicale assure la synchronisation du déroulement du scenario. Un module (220) d'interprétation des vignettes implanté sur le robot permet l'identification, la compilation, le pré-chargement et la synchronisation des comportements, des textes et de la musique.

Description

SYSTEME ET PROCEDE POUR GENERER DES COMPORTEMENTS CONTEXTUELS D'UN ROBOT MOBILE EXECUTES EN TEMPS REEL La présente invention appartient au domaine des systèmes de programmation de robots. Plus précisément, elle s'applique à la commande de comportements cohérents avec le contexte dans lequel le robot notamment de forme humaine ou animale, évolue, s'exprime et se déplace sur des membres articulés ou non. Un robot peut être qualifié d'humanoïde à partir du moment où il possède certains attributs de l'apparence et des fonctionnalités de l'homme: une tête, un tronc, deux bras, éventuellement deux mains, deux jambes, deux pieds... Une des fonctionnalités susceptibles de donner au robot une apparence et des comportements quasi-humains est la possibilité d'assurer un couplage fort entre expression gestuelle et expression orale. En particulier, parvenir à ce résultat de manière intuitive permet à de nouveaux groupes d'utilisateurs d'accéder à la programmation de comportements de robots humanoïdes.
La demande de brevet WO201 1 /003628 divulgue un système et un procédé répondant à cette problématique générale. L'invention divulguée par cette demande permet de surmonter une partie des inconvénients de l'art antérieur dans lequel on utilisait des langages de programmation spécialisés accessibles seulement à un programmeur professionnel. Dans le domaine des agents virtuels et des avatars, des langages spécialisés dans la programmation de comportements au niveau fonctionnel ou intentionnel, indépendamment des actions physiques tels que le FML (Function Markup Language) ou au niveau de comportements eux-mêmes (qui impliquent plusieurs parties du personnage virtuel pour exécuter une fonction) tel que le BML (Behaviour Markup Language) ne restent accessibles qu'au programmeur professionnel et ne s'intègrent pas avec des scripts écrits en langage de tous les jours. L'invention permet de dépasser ces limitations de l'art antérieur.
Cependant, l'invention couverte par la demande de brevet citée ne permet pas de commander le robot en temps réel car elle utilise un éditeur qui n'est pas apte à envoyer des commandes directement au robot en « streaming », c'est-à-dire qui puissent interagir en temps réel avec les comportements du robot qui peuvent évoluer selon l'évolution de son environnement. En particulier, dans le robot de cet art antérieur, un scénario doit être rejoué depuis le début lorsqu'un événement non prévu dans le scénario de commandes survient.
Pour résoudre ce problème dans un contexte où les scénarios peuvent être définis par des modalités graphiques inspirées de la bande dessinée, le demandeur a fait appel au concept de « vignette » qui est illustré par de nombreux passages de la description et qui est utilisé dans la présente demande dans un des sens qui lui est donné par le Trésor de la langue française informatisé (http://atilf.atilf.fr/dendien/scripts/tlfiv5/visusel.exe? 12;s=2774157495;r=1 ;nat=;sol=1 ; ) « Chacun des dessins délimités par un cadre dans une bande dessinée »
La présente invention permet de résoudre le problème de l'art antérieur mis en évidence ci-dessus. En particulier, le robot de l'invention est doté d'un éditeur et d'un interpréteur de commandes qui peuvent intégrer de manière graphique au sein de vignettes regroupant des textes et des comportements d'un scénario qui peuvent être exécutées dès qu'elles sont émises.
A cet effet, la présente invention divulgue un système d'édition et de commande d'au moins un scénario, ledit au moins un scénario comprenant au moins un comportement à exécuter et un texte à prononcer par au moins un robot doté de capacités motrices et locutoires, ledit système comprenant un module d'édition desdits comportements et textes, ledit module d'édition étant autonome par rapport audit robot et comprenant un sous-module d'entrée dudit texte à prononcer par le robot et un sous-module de gestion des comportements, ledit système étant caractérisé en ce que ledit module d'édition comprend en outre un sous-module de représentation et d'association graphique dudit au moins un comportement et dudit au moins un texte dans au moins une zone d'affichage combiné dudit au moins un comportement et dudit au moins un texte, ladite zone d'affichage combiné constituant une vignette, ladite vignette constituant un objet informatique compilable pour être exécuté sur ledit robot..
Avantageusement, ladite au moins une vignette comprend au moins un objet graphique appartenant au groupe comprenant une icône d'attente, une icône de comportement du robot et une bulle de texte comprenant au moins un mot, ledit texte étant à prononcer par le robot.
Avantageusement, ladite icône de comportement d'une vignette comprend une marque graphique représentative d'une personnalité et/ou d'une émotion du robot associée(s) à au moins une bulle de texte dans la vignette.
Avantageusement, ladite représentation graphique dudit scénario comprend en outre au moins un bandeau de synchronisation du déroulement des actions représentées par ladite au moins une vignette.
Avantageusement, le système d'édition et de commande de l'invention comprend en outre un module d'interprétation desdits scénarios, ledit module d'interprétation étant embarqué sur ledit au moins un robot et communiquant avec le module d'édition en mode streaming.
Avantageusement, le module d'interprétation desdits scénarios comprend un sous-module de conditionnement d'au moins un scénario, ledit sous-module étant configuré pour doter ledit au moins un scénario en entrée d'un identifiant et d'un type.
Avantageusement, le module d'interprétation desdits scénarios comprend un sous-module de compilation dudit au moins comportement, ledit sous- module étant configuré pour associer audit comportement les attributs d'une structure objet.
Avantageusement, ledit sous-module de compilation est configuré pour découper lesdits scénarios en sous-ensembles délimités par un signe de ponctuation ou une fin de ligne.
Avantageusement, le module d'interprétation desdits scénarios comprend un sous-module de commande du pré-chargement dudit au moins comportement dans la mémoire du robot pour exécution par ledit module d'exécution de comportements. Avantageusement, le module d'interprétation desdits scénarios comprend un sous-module de synchronisation dudit au moins un texte avec ledit au moins un comportement. L'invention divulgue également un procédé d'édition et de commande d'au moins un scénario, ledit au moins un scénario comprenant au moins un comportement à exécuter et un texte à prononcer par au moins un robot doté de capacités motrices et locutoires, ledit procédé comprenant une étape d'édition desdits comportements et textes, ladite étape d'édition étant autonome par rapport audit robot et comprenant une sous-étape d'entrée dudit texte à prononcer par le robot et une sous-étape de gestion des comportements, ledit procédé étant caractérisé en ce que ladite étape d'édition comprend en outre une sous-étape de représentation et d'association graphique dudit au moins un comportement et dudit au moins un texte dans au moins une vignette.
L'invention divulgue également un programme d'ordinateur comprenant des instructions de code de programme permettant l'exécution du procédé de l'invention lorsque le programme est exécuté sur un ordinateur, ledit programme étant adapté pour permettre l'édition d'au moins un scénario, ledit au moins un scénario comprenant au moins un comportement à exécuter et un texte à prononcer par au moins un robot doté de capacités motrices et locutoires, ledit programme d'ordinateur comprenant un module d'édition desdits comportements et textes, ledit module d'édition étant autonome par rapport audit robot et comprenant un sous-module d'entrée dudit texte à prononcer par le robot et un sous-module de gestion des comportements, ledit programme d'ordinateur étant caractérisé en ce que ledit module d'édition comprend en outre un sous-module de représentation et d'association graphique dudit au moins un comportement et dudit au moins un texte dans au moins une vignette.
L'invention divulgue également un programme d'ordinateur comprenant des instructions de code de programme permettant l'exécution du procédé selon l'invention lorsque le programme est exécuté sur un ordinateur, ledit programme étant adapté pour permettre l'interprétation d'au moins un scénario, ledit au moins un scénario comprenant au moins un comportement à exécuter et un texte à prononcer par au moins un robot doté de capacités motrices et locutoires, ledit programme d'ordinateur comprenant un module d'interprétation desdits scénarios, ledit module d'interprétation étant embarqué sur ledit au moins un robot et communiquant avec une plate-forme externe en mode streaming.
Avantageusement, le module d'interprétation desdits scénarios comprend un sous-module de compilation dudit au moins comportement, ledit sous- module étant configuré pour associer audit comportement les attributs d'une structure objet.
Avantageusement, le module d'interprétation desdits scénarios comprend un sous-module de commande du pré-chargement dudit au moins comportement dans la mémoire du robot pour exécution par ledit module d'exécution de comportements (460).
Avantageusement, le module d'interprétation desdits scénarios comprend un sous-module de synchronisation dudit au moins un texte avec ledit au moins un comportement.
L'invention permet de créer des bibliothèques de comportements et de les insérer facilement dans un script de scènes jouées par le robot. Les comportements sont modélisés par des vignettes graphiques représentant dans chaque vignette les comportements gestuels et émotifs du robot, ainsi que ses paroles et les éléments d'environnement (musique, images, paroles d'autres personnages...). Cette interface de création de scénarios est intuitive et permet à l'utilisateur de créer facilement des scénarios complexes qui pourront être adaptés en temps réel.
L'invention complète également de manière appropriée la demande de brevet française n ° 09/53434 relative à un système et à un procédé pour éditer et commander les comportements d'un robot mobile appartenant à la demanderesse. Celle-ci procure des moyens pour faire exécuter des comportements par un robot, lesdits comportements pouvant être commandés soit en utilisant un langage script spécialisé, accessible à des programmeurs, soit de manière graphique en faisant appel à des bibliothèques préprogrammées que l'on peut sélectionner et insérer dans une suite de boîtes de comportements reliées par des événements. L'invention permet de simplifier encore l'interface de programmation des comportements du robot.
L'invention sera mieux comprise et ses différentes caractéristiques et avantages ressortiront de la description qui suit de plusieurs exemples de réalisation et de ses figures annexées dont :
- La figure 1 représente l'architecture physique d'un système pour mettre en œuvre l'invention selon plusieurs modes de réalisation ;
- La figure 2 représente un organigramme général des traitements selon plusieurs modes de réalisation de l'invention;
- La figure 3 représente un organigramme des traitements effectués dans un module d'édition de commandes selon plusieurs modes de réalisation de l'invention;
- La figure 4 représente un organigramme des traitements effectués dans un module d'interprétation de commandes selon plusieurs modes de réalisation de l'invention ;
- Les figures 5a et 5b représentent des vignettes constituant un scénario exécuté par un robot dans un mode de réalisation de l'invention.
La figure 1 représente l'architecture physique d'un système pour mettre en œuvre l'invention selon plusieurs modes de réalisation.
Un robot humanoïde 1 1 0 est représenté sur la figure dans un mode de réalisation de l'invention. Un tel robot a été divulgué notamment dans la demande de brevet WO2009/124951 publiée le 15/1 0/2009. Cette plateforme a servi de base aux améliorations qui ont conduit à la présente invention. Dans la suite de la description, ce robot humanoïde peut être indifféremment désigné sous cette appellation générique ou sous sa marque commerciale NAO™, sans que la généralité de la référence en soit modifiée.
Ce robot comprend environ deux douzaines de cartes électroniques de commande de capteurs et d'actionneurs qui pilotent les articulations. La carte électronique de contrôle comporte un microcontrôleur du commerce. Ce peut être par exemple un DSPIC™ de la société Microchip. C'est un MCU 16 bits couplé à un DSP. Ce MCU a un cycle d'asservissement en boucle d'une ms. Le robot peut également comporter d'autres types d'actionneurs, notamment des LED (Diodes électroluminescentes) dont la couleur et l'intensité peuvent traduire les émotions du robot. Celui-ci peut également comporter d'autres types de capteurs de position, notamment une centrale inertielle, des FSR (Capteurs de pression au sol), etc....
La tête comporte l'intelligence du robot, notamment la carte qui exécute les fonctions de haut niveau qui permettent au robot d'accomplir les missions qui lui sont assignées, notamment, dans le cadre de la présente invention, pour l'exécution de scénarios écrits par un utilisateur qui n'est pas un programmeur professionnel. La tête peut comporter également des cartes spécialisées, notamment dans le traitement de la parole ou de la vision ou également dans le traitement d'entrées/sorties de service, comme l'encodage nécessaire à l'ouverture d'un port pour établir une communication à distance sur un réseau étendu WAN (Wide Area Network). Le processeur de la carte peut être un processeur x86 du commerce. On choisira de manière privilégiée un processeur à basse consommation, par exemple un ATOM™ de la société Intel (32 bits, 1 600 MHz). La carte comporte également un ensemble de mémoires RAM et flash. Cette carte gère également les communications du robot avec l'extérieur (serveur de comportements, autres robots...), normalement sur une couche de transmission WiFi, WiMax, éventuellement sur un réseau public de communications mobiles de données avec des protocoles standards éventuellement encapsulés dans un VPN. Le processeur est normalement piloté par un OS standard ce qui permet d'utiliser les langages de haut niveau usuels (C, C++, Python, ...) ou les langages spécifiques de l'intelligence artificielle comme URBI (langage de programmation spécialisé dans la robotique) pour la programmation des fonctions de haut niveau.
Le robot 1 1 0 va pouvoir exécuter des comportements pour lesquels il pourra avoir été programmé à l'avance, notamment par un code généré selon l'invention divulguée dans la demande de brevet française n ° 09/53434 déjà citée, ledit code ayant été créé par un programmeur dans une interface graphique. Ces comportements peuvent également avoir été agencés dans un scénario créé par un utilisateur qui n'est pas un programmeur professionnel en utilisant l'invention divulguée dans la demande de brevet WO201 1 /003628 également déjà citée. Dans le premier cas, il peut s'agir de comportements articulés entre eux selon une logique relativement complexe dans laquelle les séquences de comportements sont conditionnées par les événements qui se produisent dans l'environnement du robot. Dans ce cas, un utilisateur qui doit disposer d'un minimum de compétences de programmeur peut utiliser l'atelier Chorégraphe™, dont les principaux modes opératoires sont décrits dans la demande citée. Dans le deuxième cas, la logique de déroulement du scénario n'est pas en principe adaptative.
Dans la présente invention, un utilisateur qui n'est pas un programmeur professionnel, 120, est en mesure de produire un scénario complexe comprenant des ensembles de comportements comprenant des gestes et mouvements divers, des émissions de signaux sonores ou visuels, des paroles formant questions et réponses, ces différents éléments étant représentés ensemble de manière graphique par des icônes sur une séquence de vignettes (voir figure 5). Les vignettes constituent comme on le verra plus tard l'interface de programmation de l'histoire qui va être jouée par le robot.
La figure 2 représente un organigramme général des traitements selon plusieurs modes de réalisation de l'invention.
Pour créer des scénarios selon les modalités de l'invention, le PC 1 20 comprend un module logiciel 210 pour éditer de manière graphique les commandes qui seront passées au ou aux robots. L'architecture et le fonctionnement seront détaillés en commentaire à la figure 3.
Le PC communique avec le robot et lui transmet les vignettes qui seront interprétées pour être exécutées par le module logiciel d'interprétation des vignettes 220. L'architecture et le fonctionnement de ce module 220 seront détaillés en commentaire à la figure 4.
Le PC de l'utilisateur communique avec le robot par une interface filaire ou par radio, voire les deux dans le cas où le robot et l'utilisateur sont situés dans des lieux éloignés et communiquent sur un réseau étendu. Ce dernier cas n'est pas représenté sur la figure mais constitue un des modes possibles de réalisation de l'invention.
Bien que des modes de réalisation de l'invention dans lesquels plusieurs robots sont programmés par un seul utilisateur ou dans lesquels un robot est programmé par plusieurs utilisateurs ou plusieurs robots sont programmés par plusieurs utilisateurs ne soient pas représentés sur la figure, ces cas sont tout à fait possibles dans le cadre de la présente invention
La figure 3 représente un organigramme des traitements effectués dans un module d'édition de commandes selon plusieurs modes de réalisation de l'invention.
Le module d'édition 210 comprend un collecteur de scénarios 310 qui est en communication avec des fichiers de scénarios 31 10. Les scénarios peuvent être visualisés et modifiés dans un éditeur de scénarios 320 qui peut avoir simultanément en mémoire plusieurs scénarios 321 0. Un scénario correspond en général à un texte et est constitué par une succession de vignettes.
Pour mettre en œuvre l'invention, le module d'édition comprend un éditeur de vignettes 330. Dans une vignette sont insérées des commandes de comportement élémentaire représentées par une icône. Ces comportements pourront être reproduits par le robot. On peut également insérer un texte (inséré dans une bulle, comme explicité en commentaire à la figure 5). Ce texte sera également reproduit par le robot de manière vocale.
Le module d'édition reçoit normalement en entrée un texte qui définit un scénario. Cette entrée peut être effectuée directement à l'aide d'un simple clavier d'ordinateur ou par chargement dans le système d'un fichier de type textuel (*.doc, *.txt ou autre) ou d'un fichier html (éventuellement désigné par son adresse URL). Ces fichiers peuvent également être reçus d'un site distant, par exemple par l'intermédiaire d'un système de messagerie. Pour opérer cette lecture, le système ou le robot sont dotés d'un dispositif de synthèse apte à interpréter le texte de l'éditeur de script pour produire des sons, qui peuvent être soit des paroles dans le cas d'un robot humanoïde, soit des sons représentatifs du comportement d'un animal. Le dispositif de synthèse sonore peut également reproduire des sons de fond, par exemple une musique d'ambiance qui, éventuellement, peut-être jouée sur un ordinateur distant.
Le déclenchement de la lecture d'une histoire peut de se faire lors de la réception d'un événement externe au robot tel que :
- la réception d'un message électronique (mail, SMS, appel téléphonique ou autre message) ; - un événement domotique (par exemple, l'ouverture de la porte par quelqu'un, lumière allumée par quelqu'un ou autre événement),
- une action d'un utilisateur, qui peut être le toucher d'une zone tactile sur le robot (par exemple, sa tête), un geste ou une parole pré- programmés pour ce faire.
Les commandes de comportement sont représentées dans une vignette par une icône illustrative dudit comportement. A titre d'exemple non limitatif, les commandes de comportement peuvent générer:
- des mouvements des membres du robot (levée du bras, déplacement, etc ..) qui seront reproduits par le robot ;
- des effets lumineux qui seront produits par les LED placées sur le robot ;
- des sons qui seront synthétisés par le robot ;
- des paramétrages de voix (vitesse, voix, langue, etc ..) pour régler les modalités de déclamation du texte qui sera reproduit par le robot.
L'insertion des commandes de comportement peut s'opérer dans un module 340 de gestion des comportements en faisant glisser une icône de commande de comportement choisie depuis une bibliothèque 3410 vers une vignette située dans le module d'édition de vignettes 330. Le module d'édition 330 permet également le copier-coller d'un texte. Le module d'interprétation embarqué dans le robot peut interpréter un texte annoté depuis une application externe. De manière avantageuse dans le cadre de la présente invention, l'application externe peut être une boîte Chorégraphe™, cette application étant le logiciel de programmation du robot NAO qui est décrit notamment dans la demande de brevet française n ° 09/53434 déjà citée. Ces textes annotés peuvent également être des pages web, des mail, des messages courts instantanés (SMS), ou provenir d'autres applications à condition que le module 330 comporte l'interface nécessaire pour les intégrer.
Le module d'édition 210 communique avec le robot via un module de gestion des communications 370 qui conditionne des flux XML envoyés sur la couche physique par laquelle le robot est connecté au PC. Un gestionnaire d'interprétation 350 et un gestionnaire de communications 360 complètent le module d'édition. Le gestionnaire d'interprétation 350 sert à lancer l'interprétation du texte, à l'arrêter et à avoir des informations sur l'interprétation (endroit dans le texte où est rendue l'interprétation par exemple). Le gestionnaire de communications 360 sert à se connecter à un robot, à se déconnecter et à réceptionner des infos sur la connexion (statut de la connexion ou déconnexion intempestive par exemple).
La figure 4 représente un organigramme des traitements effectués dans un module d'interprétation de commandes selon plusieurs modes de réalisation de l'invention.
Les flux XML en provenance du module d'édition 210 et d'autres flux, tels que du texte annoté en provenance d'une boîte mail ou d'un téléphone portable sont dotés d'un identifiant (I D) et d'un type par un sous-module 410 du module d'interprétation de vignettes 220. Les flux identifiés et typés de la file d'attente 41 10 sont ensuite convertis en objets interprétables comme des comportements par un thread de compilation 420. On remplace une référence à un comportement qui n'est pas forcément explicite hors contexte par une balise de synchronisation couplée avec une référence directe au comportement par l'intermédiaire du chemin vers l'endroit où il est stocké. ). Ce thread échange avec le module de gestion de comportements 340 de l'éditeur de vignettes 21 0. Ces échanges permettent la détection des références à des comportements dans le texte. Le thread de compilation ne connaissant pas les balises qui pourraient correspondre à un comportement, il doit donc d'abord demander toutes ces balises au module de gestion des comportements pour pouvoir les détecter dans le texte. Ensuite, quand il détecte une balise dans le texte, il demande au module de gestion des comportements quel est le comportement correspondant à cette balise (par exemple « loi »). Le module de gestion des comportements lui répond en lui donnant le chemin vers le comportement correspondant (« Animations/Positive/Laugh » par exemple). Ces échanges s'effectuent de manière synchrone avec le thread de compilation.
Quand le thread de compilation détecte une fin de phrase (qui peut-être définie par des signes de ponctuations, des fins de ligne, etc .), il envoie la phrase à la file 421 0 Pour permettre une exécution plus rapide des scénarios, on a prévu un thread 430 de pré-chargement vers une file 4310 à partir de la file 4210 des comportements dont l'adresse sous forme de chemin vers le comportement est envoyée directement au module 460 d'exécution des comportements. Ainsi, l'appel programmé par son identifiant I D sera immédiat dès que, selon le scénario, un comportement doit être exécuté. Pour ce faire, le module d'exécution pré-charge alors le comportement et renvoie l'ID unique de l'instance du comportement prête à être exécutée. Ainsi, le module d'exécution pourra immédiatement exécuter ledit comportement dès que l'on en aura besoin, la synchronisation du texte et des comportements étant de ce fait grandement améliorée. Un thread de synchronisation 440 permet de lier temporellement le texte dit par le module de synthèse vocale 450 et les comportements exécutés par le module d'exécution des comportements 460. Le texte avec balises de synchronisation est envoyé au module de synthèse vocale 450, alors que les identifiants de comportements ID correspondant au tempo de la synchronisation sont envoyés au module d'exécution de comportements 460 qui réalise les appels de comportements pré-chargés correspondant aux I D des comportements à exécuter.
L'organisation des traitements dans ce module d'interprétation des vignettes permet de réaliser le chargement et l'exécution en streaming des scénarios à exécuter par le robot. Cela permet des interactions beaucoup plus fluides entre l'utilisateur et le robot, l'utilisateur pouvant par exemple écrire le scénario au fur et à mesure et le transmettre quand il le souhaite au robot qui peut exécuter les séquences du scénario pratiquement immédiatement après leur réception
Les figures 5a et 5b représentent des vignettes constituant un scénario exécuté par un robot dans un mode de réalisation de l'invention.
A titre purement illustratif, le scénario de la figure comprend 16 vignettes. Un scénario peut comprendre un nombre quelconque de vignettes. Dans la 1 ere vignette 510 le robot attend que son capteur tactile 51 1 0 situé sur la tête 5120 soit actionné. Dans la 2nde vignette 520, le robot attend qu'un délai 5520 déterminé après l'action de toucher sur le capteur tactile soit écoulé. Dans la 3eme vignette 530, le robot représente un premier personnage, le narrateur 531 0 et exécute un premier comportement symbolisé par la représentation graphique du personnage qui consiste à effectuer une rotation en lisant le texte écrit dans la bulle 5320 avec une voix caractérisant ledit premier personnage. Dans la 4eme vignette 540, le robot représente un deuxième personnage 5410 (dans le scénario de l'exemple, une cigale symbolisée par une marque graphique 5430) et exécute un deuxième comportement symbolisé par la représentation graphique du personnage qui consiste à balancer son bras droit de bas en haut en lisant le texte écrit dans la bulle 5420avec une voix différente de celle du narrateur et caractérisant ledit deuxième personnage.. Dans la 59me vignette 550, le robot narrateur est dans une position statique représentée par le personnage 5510 et lit le texte écrit dans la bulle 5520. Dans la 6ème vignette 560, le robot cigale 561 0 est également en position statique représentée de la même manière qu'en 5510 et lit le texte écrit dans la bulle 5620. Dans la 7ème vignette, 570, le robot représente un troisième personnage (dans le scénario de l'exemple, une fourmi symbolisée par une marque graphique 5730) et prononce un texte 5720.
Ainsi, dans l'exemple de scénario illustré par la figure, trois personnages différents 5310, 5410 et 5710 interviennent. Ce nombre de personnages n'est pas limité.
Le nombre de comportements et d'émotions n'est pas non plus limité. Les comportements peuvent être prélevés dans une base de comportements 341 0, créés dans Chorégraphe, l'éditeur professionnel de comportements ou autre outils. Ils peuvent éventuellement être modifiés dans le module 340 de gestion des comportements du module d'édition 210 qui gère la base de comportements 3410. Dans le cadre de la mise en œuvre de la présente invention, un objet comportement est défini par un nom, une catégorie, éventuellement une sous-catégorie, une représentation, éventuellement un ou plusieurs paramètres, éventuellement l'association de un ou plusieurs fichiers (audio ou autres). Une vignette peut comprendre plusieurs bulles, une bulle comprenant au minimum un mot, comme illustré sur la vignette 5A0.
Un scénario peut également être caractérisé par un bandeau 5H0 qui peut correspondre ou pas à une partition musicale, ladite partition étant synchronisée avec l'arborescence des vignettes/bulles. Cette synchronisation facilite l'imbrication de plusieurs niveaux de vignettes dont l'exécution est conditionnelle. Plusieurs bandeaux peuvent se dérouler en parallèle comme illustré sur la figure par le bandeau 5I0. Les textes peuvent être lus en différentes langues, avec différentes prosodies (vitesse, volume, style, voix...)- La variété des comportements et émotions qui peuvent être utilisés dans le système de l'invention n'est pas limitée. Par exemple, la voix pourra être une voix mâle, femelle ou d'enfant ; la tonalité pourra être plus ou moins grave ou aiguë ; la vitesse pourra être plus ou moins rapide ; l'intonation pourra être choisie en fonction de l'émotion que le robot est susceptible de ressentir en fonction du texte du script (affection, étonnement, colère, joie, remontrance, etc .). Des gestes d'accompagnement du script pourront par exemple être un mouvement des bras vers le haut ou vers l'avant ; frappe d'un pied sur le sol ; mouvements de la tête vers le haut, le bas, à droite ou à gauche, selon l'impression que l'on veut communiquer en cohérence avec le script...
Le robot peut interagir avec son environnement et son ou ses interlocuteurs de manière également très variée : parole, gestes, toucher, émission de signaux lumineux, etc .. Par exemple, si le robot est doté de diodes lumineuses (LED), celles-ci pourront être actionnées pour traduire des émotions fortes « ressenties » par le robot en lisant le texte ou pour générer un clignement des yeux adapté à la forme et à la vitesse d'élocution.
Comme illustré sur les vignettes 51 0 et 520, certaines commandes peuvent être des commandes d'interruption et d'attente d'un événement extérieur, tel qu'un mouvement en réponse à une question posée par le robot.
Certaines commandes peuvent être dépendantes des réactions du robot à son environnement, captées par exemple par une caméra ou des capteurs ultrasonores.
Les exemples décrits ci-dessus sont donnés à titre d'illustration de modes de réalisation de l'invention. Ils ne limitent en aucune manière le champ de l'invention qui est défini par les revendications qui suivent.

Claims

REVENDICATIONS
Système d'édition et de commande d'au moins un scénario, ledit au moins un scénario comprenant au moins un comportement à exécuter et un texte à prononcer par au moins un robot doté de capacités motrices et locutoires, ledit système comprenant un module (210) d'édition desdits comportements et textes, ledit module d'édition étant autonome par rapport audit robot et comprenant un sous-module d'entrée dudit texte à prononcer par le robot et un sous-module (340) de gestion des comportements, ledit système étant caractérisé en ce que ledit module d'édition comprend en outre un sous-module de représentation et d'association graphique dudit au moins un comportement et dudit au moins un texte dans au moins une zone d'affichage combiné dudit au moins un comportement et dudit au moins un texte, ladite zone d'affichage combiné constituant une vignette (510, 520, 530, 540, 550, 560, 570), ladite vignette constituant un objet informatique compilable pour être exécuté sur ledit robot.
Système d'édition et de commande selon la revendication 1 caractérisé en ce que ladite au moins une vignette comprend au moins un objet graphique appartenant au groupe comprenant une icône d'attente (51 10, 521 0), une icône de comportement du robot (5310, 541 0, 5510, 561 0, 5710) et une bulle de texte (5320, 5420, 5520, 5620, 5720) comprenant au moins un mot, ledit texte étant à prononcer par le robot.
Système d'édition et de commande selon la revendication 2 caractérisé en ce que ladite icône de comportement (5410, 5710) d'une vignette (540, 570) comprend une marque graphique (5430, 5730) représentative d'une personnalité et/ou d'une émotion du robot associée(s) à au moins une bulle de texte (5420, 5720) dans la vignette (540, 570). Système d'édition et de commande selon la revendication 2 caractérisé en ce que ladite représentation graphique dudit scénario comprend en outre au moins un bandeau (5H0) de synchronisation du déroulement des actions représentées par ladite au moins une vignette.
Système d'édition et de commande selon la revendication 1 , caractérisé en ce qu'il comprend en outre un module (220) d'interprétation desdits scénarios, ledit module d'interprétation étant embarqué sur ledit au moins un robot et communiquant avec le module d'édition (210) en mode streaming.
Système d'édition et de commande selon la revendication 5 caractérisé en ce que le module d'interprétation desdits scénarios comprend un sous-module (41 0) de conditionnement d'au moins un scénario, ledit sous-module étant configuré pour doter ledit au moins un scénario en entrée d'un identifiant et d'un type.
Système d'édition et de commande selon la revendication 5 caractérisé en ce que le module d'interprétation desdits scénarios comprend un sous-module (420) de compilation dudit au moins comportement, ledit sous-module étant configuré pour associer audit comportement les attributs d'une structure objet.
Système d'édition et de commande selon la revendication 7 caractérisé en ce que ledit sous-module de compilation est configuré pour découper lesdits scénarios en sous-ensembles délimités par un signe de ponctuation ou une fin de ligne.
Système d'édition et de commande selon la revendication 5 caractérisé en ce que le module d'interprétation desdits scénarios comprend un sous-module (430) de commande du pré-chargement dudit au moins comportement dans la mémoire du robot pour exécution par ledit module d'exécution de comportements (460).
10. Système d'édition et de commande selon la revendication 5 caractérisé en ce que le module d'interprétation desdits scénarios comprend un sous-module (440) de synchronisation dudit au moins un texte avec ledit au moins un comportement.
1 1 . Procédé d'édition et de commande d'au moins un scénario, ledit au moins un scénario comprenant au moins un comportement à exécuter et un texte à prononcer par au moins un robot doté de capacités motrices et locutoires, ledit procédé comprenant une étape d'édition desdits comportements et textes, ladite étape d'édition étant autonome par rapport audit robot et comprenant une sous-étape d'entrée dudit texte à prononcer par le robot et une sous-étape de gestion des comportements, ledit procédé étant caractérisé en ce que ladite étape d'édition comprend en outre une sous-étape de représentation et d'association graphique dudit au moins un comportement et dudit au moins un texte dans au moins une zone d'affichage combiné dudit au moins un comportement et dudit au moins un texte, ladite zone d'affichage combiné constituant une vignette, ladite vignette constituant un objet informatique compilable pour être exécuté sur ledit robot.
12. Programme d'ordinateur comprenant des instructions de code de programme, ledit programme étant adapté pour permettre l'édition d'au moins un scénario, ledit au moins un scénario comprenant au moins un comportement à exécuter et un texte à prononcer par au moins un robot doté de capacités motrices et locutoires, ledit programme d'ordinateur comprenant un module d'édition desdits comportements et textes, ledit module d'édition étant autonome par rapport audit robot et comprenant un sous-module d'entrée dudit texte à prononcer par le robot et un sous-module de gestion des comportements, ledit programme d'ordinateur étant caractérisé en ce que ledit module d'édition comprend en outre un sous-module de représentation et d'association graphique dudit au moins un comportement et dudit au moins un texte dans au moins une zone d'affichage combiné dudit au moins un comportement et dudit au moins un texte, ladite zone d'affichage combiné constituant une vignette, ladite vignette constituant un objet informatique compilable pour être exécuté sur ledit robot.
13. Programme d'ordinateur comprenant des instructions de code de programme, ledit programme étant adapté pour permettre l'interprétation d'au moins un scénario, ledit au moins un scénario comprenant au moins un comportement à exécuter et un texte à prononcer par au moins un robot doté de capacités motrices et locutoires, ledit programme d'ordinateur comprenant un module d'interprétation desdits scénarios, ledit module d'interprétation étant embarqué sur ledit au moins un robot et étant configuré pour recevoir d'une plate-forme externe en mode streaming des objets informatiques compilés contenant une association d'un texte à prononcer et d'un comportement à exécuter par ledit robot.
14. Programme d'ordinateur selon la revendication 1 3 caractérisé en ce que le module d'interprétation desdits scénarios comprend un sous- module de compilation dudit au moins comportement, ledit sous- module étant configuré pour associer audit comportement les attributs d'une structure objet.
15. Programme d'ordinateur selon la revendication 1 3 caractérisé en ce que le module d'interprétation desdits scénarios comprend un sous- module de commande du pré-chargement dudit au moins comportement dans la mémoire du robot pour exécution par ledit module d'exécution de comportements (460).
16. Programme d'ordinateur selon la revendication 1 3 caractérisé en ce que le module d'interprétation desdits scénarios comprend un sous- module de synchronisation dudit au moins un texte avec ledit au moins un comportement.
PCT/EP2013/061180 2012-06-01 2013-05-30 Systeme et procede pour generer des comportements contextuels d'un robot mobile executes en temps reel WO2013178741A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201380037538.3A CN104470686B (zh) 2012-06-01 2013-05-30 用于生成被实时地执行的移动机器人的上下文行为的系统和方法
BR112014030043A BR112014030043A2 (pt) 2012-06-01 2013-05-30 sistema e processo para gerar comportamentos contextuais de um robô móvel executados em tem po real
JP2015514502A JP6319772B2 (ja) 2012-06-01 2013-05-30 リアルタイムで行われる移動ロボットの脈絡ある挙動を生成する方法およびシステム
US14/404,924 US20150290807A1 (en) 2012-06-01 2013-05-30 System and method for generating contextual behaviours of a mobile robot executed in real time
EP13728694.4A EP2855105A1 (fr) 2012-06-01 2013-05-30 Systeme et procede pour generer des comportements contextuels d'un robot mobile executes en temps reel

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1255105 2012-06-01
FR1255105A FR2991222B1 (fr) 2012-06-01 2012-06-01 Systeme et procede pour generer des comportements contextuels d'un robot mobile executes en temps reel

Publications (1)

Publication Number Publication Date
WO2013178741A1 true WO2013178741A1 (fr) 2013-12-05

Family

ID=47080621

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2013/061180 WO2013178741A1 (fr) 2012-06-01 2013-05-30 Systeme et procede pour generer des comportements contextuels d'un robot mobile executes en temps reel

Country Status (7)

Country Link
US (1) US20150290807A1 (fr)
EP (1) EP2855105A1 (fr)
JP (1) JP6319772B2 (fr)
CN (1) CN104470686B (fr)
BR (1) BR112014030043A2 (fr)
FR (1) FR2991222B1 (fr)
WO (1) WO2013178741A1 (fr)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6594646B2 (ja) * 2015-04-10 2019-10-23 ヴイストン株式会社 ロボット及びロボット制御方法並びにロボットシステム
JP6781545B2 (ja) * 2015-12-28 2020-11-04 ヴイストン株式会社 ロボット
JP6604912B2 (ja) * 2016-06-23 2019-11-13 日本電信電話株式会社 発話動作提示装置、方法およびプログラム
US20180133900A1 (en) * 2016-11-15 2018-05-17 JIBO, Inc. Embodied dialog and embodied speech authoring tools for use with an expressive social robot
CN108932167B (zh) * 2017-05-22 2023-08-08 中兴通讯股份有限公司 一种智能问答同步显示方法、装置、系统及存储介质
JP6956562B2 (ja) * 2017-08-10 2021-11-02 学校法人慶應義塾 知能ロボットシステム及びプログラム
US11325263B2 (en) * 2018-06-29 2022-05-10 Teradyne, Inc. System and method for real-time robotic control
CN110543144B (zh) * 2019-08-30 2021-06-01 天津施格自动化科技有限公司 图形化编程控制机器人的方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009124951A1 (fr) 2008-04-09 2009-10-15 Aldebaran Robotics Architecture de controle - commande d'un robot mobile utilisant des membres articules
FR2946160A1 (fr) * 2009-05-26 2010-12-03 Aldebaran Robotics Systeme et procede pour editer et commander des comportements d'un robot mobile.
WO2011003628A2 (fr) 2009-07-10 2011-01-13 Aldebaran Robotics S.A Systeme et procede pour generer des comportements contextuels d'un robot mobile

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2496160A1 (fr) * 1980-12-11 1982-06-18 Lamothe Andre Raccord etanche pour l'utilisation des outils conventionnels de forage en circulation inverse
JPH07261820A (ja) * 1994-03-25 1995-10-13 Nippon Telegr & Teleph Corp <Ntt> 産業用ロボット作業のソフトウェア構成方法及び制御装置
JP4366617B2 (ja) * 1999-01-25 2009-11-18 ソニー株式会社 ロボット装置
JP4670136B2 (ja) * 2000-10-11 2011-04-13 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
GB2385954A (en) * 2002-02-04 2003-09-03 Magenta Corp Ltd Managing a Virtual Environment
US7995090B2 (en) * 2003-07-28 2011-08-09 Fuji Xerox Co., Ltd. Video enabled tele-presence control host
JP4744847B2 (ja) * 2004-11-02 2011-08-10 株式会社安川電機 ロボット制御装置およびロボットシステム
JP2009025224A (ja) * 2007-07-23 2009-02-05 Clarion Co Ltd ナビゲーション装置、および、ナビゲーション装置の制御方法
WO2011011084A1 (fr) * 2009-07-24 2011-01-27 Modular Robotics Llc Robotique modulaire
US8260460B2 (en) * 2009-09-22 2012-09-04 GM Global Technology Operations LLC Interactive robot control system and method of use
DE102010004476A1 (de) * 2010-01-13 2011-07-14 KUKA Laboratories GmbH, 86165 Verfahren und Vorrichtung zum Kontrollieren einer Roboterapplikation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009124951A1 (fr) 2008-04-09 2009-10-15 Aldebaran Robotics Architecture de controle - commande d'un robot mobile utilisant des membres articules
FR2946160A1 (fr) * 2009-05-26 2010-12-03 Aldebaran Robotics Systeme et procede pour editer et commander des comportements d'un robot mobile.
WO2011003628A2 (fr) 2009-07-10 2011-01-13 Aldebaran Robotics S.A Systeme et procede pour generer des comportements contextuels d'un robot mobile

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ALAN ATHERTON J ET AL: "Visual robot choreography for clinicians", COLLABORATION TECHNOLOGIES AND SYSTEMS (CTS), 2011 INTERNATIONAL CONFERENCE ON, IEEE, 23 May 2011 (2011-05-23), pages 186 - 189, XP032000487, ISBN: 978-1-61284-638-5, DOI: 10.1109/CTS.2011.5928685 *

Also Published As

Publication number Publication date
FR2991222B1 (fr) 2015-02-27
EP2855105A1 (fr) 2015-04-08
CN104470686B (zh) 2017-08-29
FR2991222A1 (fr) 2013-12-06
US20150290807A1 (en) 2015-10-15
JP6319772B2 (ja) 2018-05-09
BR112014030043A2 (pt) 2017-06-27
JP2015525137A (ja) 2015-09-03
CN104470686A (zh) 2015-03-25

Similar Documents

Publication Publication Date Title
WO2013178741A1 (fr) Systeme et procede pour generer des comportements contextuels d&#39;un robot mobile executes en temps reel
FR2963132A1 (fr) Robot humanoide dote d&#39;une interface de dialogue naturel, methode d&#39;utilisation et de programmation de ladite interface
FR2947923A1 (fr) Systeme et procede pour generer des comportements contextuels d&#39;un robot mobile
KR102339332B1 (ko) 사용자와 출판물 사이의 컴퓨터로 시뮬레이션되는 현실 상호 작용을 구현하기 위한 시스템 및 방법
KR102306624B1 (ko) 지속적 컴패니언 디바이스 구성 및 전개 플랫폼
US10929759B2 (en) Intelligent robot software platform
FR2989209A1 (fr) Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d&#39;utilisation dudit robot
US9292957B2 (en) Portable virtual characters
EP2435216B1 (fr) Systeme et procede pour editer et commander des comportements d&#39;un robot mobile
EP3053162B1 (fr) Procede de dialogue entre une machine, telle qu&#39;un robot humanoïde, et un interlocuteur humain, produit programme d&#39;ordinateur et robot humanoïde pour la mise en oeuvre d&#39;un tel procede
KR102001293B1 (ko) 로봇 상의 소프트웨어 애플리케이션 실행하기
US20100333037A1 (en) Dioramic user interface having a user customized experience
TW201916005A (zh) 互動方法和設備
EP1605420A2 (fr) Système de formation à l&#39;exploitation, l&#39;utilisation ou la maintenance d&#39;un cadre de travail dans un environnement de realité virtuelle
EP4378638A2 (fr) Procédé de commande d&#39;une pluralité d&#39;effecteurs d&#39;un robot
Newnham Microsoft HoloLens By Example
Alonso et al. A flexible and scalable social robot architecture employing voice assistant technologies
Geraci Design and implementation of embodied conversational agents
Hahkio Service robots’ feasibility in the hotel industry: A case study of Hotel Presidentti
US20210042639A1 (en) Converting nonnative skills for conversational computing interfaces
Lleonsí Carrillo Development of a teaching assistance application for SoftBank Pepper
Zhao et al. SotA report Smart Space DIY application creation and interaction design
WO2006061308A1 (fr) Procédé d&#39;animation temporelle d&#39;un avatar à partir d&#39;un signal source comprenant des informations d&#39;aiguillage, dispositif, programme d&#39;ordinateur, moyen de stockage et signal source correspondants.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13728694

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015514502

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2013728694

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14404924

Country of ref document: US

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014030043

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112014030043

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20141201