JP2009241166A - Robot remote operation system - Google Patents

Robot remote operation system Download PDF

Info

Publication number
JP2009241166A
JP2009241166A JP2008087610A JP2008087610A JP2009241166A JP 2009241166 A JP2009241166 A JP 2009241166A JP 2008087610 A JP2008087610 A JP 2008087610A JP 2008087610 A JP2008087610 A JP 2008087610A JP 2009241166 A JP2009241166 A JP 2009241166A
Authority
JP
Japan
Prior art keywords
information
robot
communication
personal information
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008087610A
Other languages
Japanese (ja)
Inventor
Masahiro Shiomi
昌裕 塩見
Takayuki Kanda
崇行 神田
Hiroshi Ishiguro
浩 石黒
Takaaki Akimoto
高明 秋本
Kenichiro Shimokura
健一朗 下倉
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2008087610A priority Critical patent/JP2009241166A/en
Publication of JP2009241166A publication Critical patent/JP2009241166A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable an operator to properly handle, regardless of cultures of a person to talk to, by communication of a robot 12 according to the culture of the person to talk to. <P>SOLUTION: The robot remote operation system 10 includes a central control device 14. If a call is requested from the robot 12, the central control device 14 selects an operator that is in an idle state when determining the language and culture of the person to talk to the robot 12. The selected operator sends a control command for remote controlling the robot 12 to the central control device 14 through an operation terminal 16. When the central control device 14 receives the control command, it converts an action command included in the control command to an action corresponding to the culture of the person to talk to, translates a communication command to the language of the person to talk to, and sends it to the robot 12. Then the robot 12 performs communication activity corresponding to the culture of the person to talk to. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、ロボット遠隔操作システムに関し、特にたとえば複数の国の人々とのコミュニケーションを行うロボットを遠隔操作するための、ロボット遠隔操作システムに関する。   The present invention relates to a robot remote control system, and more particularly to a robot remote control system for remotely controlling a robot that communicates with people in a plurality of countries, for example.

この種の従来のロボット遠隔操作システムの一例が、特許文献1に開示されている。この特許文献1のコミュニケーションロボットは、ネットワークを介して接続されたコミュニケーションロボットおよびオペレータ端末を含む。オペレータ端末は、オペレータによって操作される。コミュニケーションロボットは、人間とコミュニケーション可能な自律型ロボットであり、自律制御だけでは対応が困難な状況などになったときに、呼出要求をオペレータ端末に送信する。これに応じて、オペレータは、オペレータ端末を操作して、コミュニケーションロボットに制御コマンドを送信する。そして、オペレータを呼び出したコミュニケーションロボットは、そのオペレータ端末からの制御コマンドに従うコミュニケーション行動を実行する。
特開2007−190641号公報[B25J 13/00, B25J 5/00, A63H 3/33]
An example of this type of conventional robot remote control system is disclosed in Patent Document 1. The communication robot of Patent Document 1 includes a communication robot and an operator terminal connected via a network. The operator terminal is operated by an operator. The communication robot is an autonomous robot capable of communicating with humans, and transmits a call request to an operator terminal when a situation that cannot be handled by autonomous control alone becomes difficult. In response to this, the operator operates the operator terminal to transmit a control command to the communication robot. Then, the communication robot that has called the operator executes a communication action according to the control command from the operator terminal.
JP 2007-190641 A1 [B25J 13/00, B25J 5/00, A63H 3/33]

しかし、特許文献1に示す背景技術では、様々な国から人々が訪れる会場にコミュニケーションロボットが設置される場合には、様々な国の人々に対応するために、オペレータが複数の言語や文化に対応できるような高い能力を有していることが要求される。このような能力をオペレータに要求するのは酷であり、現実的ではないと考えられる。   However, in the background art disclosed in Patent Document 1, when a communication robot is installed in a venue where people come from various countries, the operator supports multiple languages and cultures in order to cope with people from various countries. It is required to have such a high capability. Requesting such an ability from an operator is harsh and is not considered realistic.

それゆえに、この発明の主たる目的は、新規な、ロボット遠隔操作システムを提供することである。   Therefore, the main object of the present invention is to provide a novel robot remote control system.

この発明の他の目的は、ロボットのコミュニケーションの相手の言語や文化によらず、オペレータが適切に対応することができる、ロボット遠隔操作システムを提供することである。   Another object of the present invention is to provide a robot remote control system that can be appropriately handled by an operator regardless of the language or culture of the robot communication partner.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボットと、ネットワークを介してロボットの遠隔操作を行う複数の操作端末と、ネットワークを介してロボットと複数の操作端末のうち1台との仲介を行う中央制御装置とを備える、ロボット遠隔操作システムである。ロボットは、人間の個人情報を取得する個人情報取得手段、個人情報取得手段によって取得された個人情報を中央制御装置に送信する個人情報送信手段、中央制御装置からの第1遠隔操作情報を受信する第1遠隔操作情報受信手段、および第1遠隔操作情報受信手段によって受信した第1遠隔操作情報に基づくコミュニケーション行動を実行する実行手段を備える。   According to a first aspect of the present invention, there is provided a robot that performs communication with humans through at least one of body movement and voice by remote operation or autonomous control, a plurality of operation terminals that perform remote operation of the robot via a network, and a network This is a robot remote operation system including a central control device that mediates between the robot and one of the plurality of operation terminals via the controller. The robot receives personal information acquisition means for acquiring human personal information, personal information transmission means for transmitting personal information acquired by the personal information acquisition means to the central control device, and first remote operation information from the central control device. First remote operation information receiving means and execution means for executing a communication action based on the first remote operation information received by the first remote operation information receiving means.

操作端末は、ロボットを遠隔操作するための第2遠隔操作情報を中央制御装置に送信する第2遠隔操作送信手段を備える。中央制御装置は、操作端末の操作者のコミュニケーション情報を記憶する記憶媒体、個人情報送信手段によって送信された個人情報を受信する個人情報受信手段、個人情報受信手段によって受信された個人情報からコミュニケーション情報を特定するコミュニケーション情報特定手段、第2遠隔操作送信手段によって送信された第2遠隔操作情報を受信する第2遠隔操作情報受信手段、コミュニケーション情報特定手段によって特定されたコミュニケーション情報と記憶媒体によって記憶された操作端末の操作者のコミュニケーション情報とが一致するか否かを判断する判断手段、判断手段によって判断された判断結果が一致しないときに、第2遠隔操作情報受信手段によって受信された第2遠隔操作情報をコミュニケーション情報特定手段によって特定されたコミュニケーション情報に基づいて第1遠隔操作情報に変換する変換手段、および変換手段によって変換された第1遠隔操作情報をロボットに送信する第1遠隔操作情報送信手段を備える。   The operation terminal includes second remote operation transmission means for transmitting second remote operation information for remotely operating the robot to the central controller. The central control device includes a storage medium for storing communication information of an operator of the operation terminal, personal information receiving means for receiving personal information transmitted by the personal information transmitting means, and communication information from the personal information received by the personal information receiving means. Is stored in the storage medium and the communication information specified by the communication information specifying means, the second remote operation information receiving means for receiving the second remote operation information transmitted by the second remote operation transmitting means, and the communication information specifying means. The second remote control information received by the second remote operation information receiving means when the judgment results judged by the judgment means judged by the judgment means and the judgment means do not match. Communication information identification means for operating information Therefore comprising a first remote operation information transmitting means for transmitting converting means for converting the first remote control information based on the specified communication information, and the first remote control information converted by the conversion means to the robot.

第1の発明では、ロボット遠隔操作システム(10)は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボット(12)と、ネットワークを介してロボットの遠隔操作を行う複数の操作端末(16)と、ネットワークを介してロボットと複数の操作端末のうち1台との仲介を行う中央制御装置(14)とを備える。   In the first invention, the robot remote control system (10) includes a robot (12) that performs a communication action with a human by at least one of body movement and voice by remote control or autonomous control, and a robot via a network. A plurality of operation terminals (16) for performing remote operation, and a central control device (14) for mediating between the robot and one of the plurality of operation terminals via a network.

ロボットの個人情報取得手段(66、80、116、S305)は、人間の個人情報を取得する。個人情報送信手段(80、112、114、S305)は、個人情報取得手段によって取得された個人情報を中央制御装置に送信する。第1遠隔操作情報受信手段(80、112、114、S313)は、中央制御装置からの第1遠隔操作情報を受信する。実行手段(80、S317)は、第1遠隔操作情報受信手段によって受信した第1遠隔操作情報に基づくコミュニケーション行動を実行する。   The robot personal information acquisition means (66, 80, 116, S305) acquires human personal information. The personal information transmission means (80, 112, 114, S305) transmits the personal information acquired by the personal information acquisition means to the central controller. The first remote operation information receiving means (80, 112, 114, S313) receives the first remote operation information from the central controller. The executing means (80, S317) executes a communication action based on the first remote operation information received by the first remote operation information receiving means.

操作端末の第2遠隔操作送信手段(160、S413)は、ロボットを遠隔操作するための第2遠隔操作情報を中央制御装置に送信する。中央制御装置の記憶媒体(138)は、操作端末の操作者のコミュニケーション情報を記憶する。個人情報受信手段(130、148、150、S5)は、個人情報送信手段によって送信された個人情報を受信する。コミュニケーション情報特定手段(130、S37、S53、S55、S71、S73)は、個人情報受信手段によって受信された個人情報からコミュニケーション情報を特定する。第2遠隔操作情報受信手段(130、S11、S91、S99)は、第2遠隔操作送信手段によって送信された第2遠隔操作情報を受信する。判断手段(130、S61−S65)は、コミュニケーション情報特定手段によって特定されたコミュニケーション情報と記憶媒体によって記憶された操作端末の操作者のコミュニケーション情報とが一致するか否かを判断する。変換手段(130、S103、S105、S129、S159)は、判断手段によって判断された判断結果が一致しないときに、第2遠隔操作情報受信手段によって受信された第2遠隔操作情報をコミュニケーション情報特定手段によって特定されたコミュニケーション情報に基づいて第1遠隔操作情報に変換する。第1遠隔操作情報送信手段(130、S107)は、変換手段によって変換された第1遠隔操作情報をロボットに送信する。   The second remote operation transmission means (160, S413) of the operation terminal transmits second remote operation information for remotely operating the robot to the central controller. The storage medium (138) of the central control device stores communication information of the operator of the operation terminal. The personal information receiving means (130, 148, 150, S5) receives the personal information transmitted by the personal information transmitting means. The communication information specifying means (130, S37, S53, S55, S71, S73) specifies communication information from the personal information received by the personal information receiving means. The second remote operation information receiving means (130, S11, S91, S99) receives the second remote operation information transmitted by the second remote operation transmission means. The determining means (130, S61-S65) determines whether or not the communication information specified by the communication information specifying means matches the communication information of the operator of the operating terminal stored by the storage medium. The conversion means (130, S103, S105, S129, S159) uses the second remote operation information received by the second remote operation information reception means when the judgment results judged by the judgment means do not match, the communication information identification means Is converted into first remote control information based on the communication information specified by. The first remote operation information transmission means (130, S107) transmits the first remote operation information converted by the conversion means to the robot.

たとえば、人間は、ロボットとコミュニケーションを行う対話相手である。そして、対話相手がアメリカ人であれば、操作端末の操作者(オペレータ)がアメリカ人でなくても、ロボットは、アメリカ人が行う身体動作を交えて、英語で発話する。なお、判断手段によって判断された判断結果が一致するときは、第2遠隔操作情報を第1遠隔操作情報として、ロボットに送信する。   For example, a human is a conversation partner who communicates with a robot. If the conversation partner is American, even if the operator (operator) of the operation terminal is not American, the robot speaks in English with the body movement performed by the American. When the determination results determined by the determining means match, the second remote operation information is transmitted to the robot as the first remote operation information.

第1の発明によれば、ロボットは、相手の文化で行われる身体動作を交えて、対話相手の文化の言語を発話するため、対話相手の言語や文化によらず、オペレータが適切に対応することができる。   According to the first invention, the robot speaks the language of the conversation partner's culture in combination with the body movements performed in the partner's culture, so that the operator appropriately responds regardless of the language or culture of the conversation partner. be able to.

第2の発明は、第1の発明に従属し、コミュニケーション情報は、言語情報を含む。コミュニケーション情報特定手段は、個人情報受信手段によって受信された個人情報から言語情報を特定する言語情報特定手段を含む。判断手段は、言語情報特定手段によって特定された言語情報と記憶媒体によって記憶された操作端末の操作者の言語情報とが一致するか否かを判断する。変換手段は、判断手段によって判断された判断結果が一致しないときに、第2遠隔操作情報に含まれる発話の情報を言語特定手段によって特定された言語情報に基づいて翻訳する翻訳手段を含む。   A second invention is dependent on the first invention, and the communication information includes language information. The communication information specifying means includes language information specifying means for specifying language information from the personal information received by the personal information receiving means. The determining means determines whether or not the language information specified by the language information specifying means matches the language information of the operator of the operation terminal stored by the storage medium. The conversion means includes translation means for translating utterance information included in the second remote control information based on the language information specified by the language specifying means when the determination results determined by the determination means do not match.

第2の発明では、コミュニケーション情報は、言語情報を含む。言語情報特定手段(130、S37、S53、S55)は、個人情報受信手段によって受信された個人情報から言語情報を特定する。また、判断手段は、言語情報特定手段によって特定された言語情報と記憶媒体によって記憶された操作端末の操作者の言語情報とが一致するか否かを判断する。翻訳手段(130、S103、S129)は、判断手段によって判断された判断結果が一致しないときに、第2遠隔操作情報に含まれる発話の情報を言語特定手段によって特定された言語情報に基づいて翻訳する。   In the second invention, the communication information includes language information. Language information specifying means (130, S37, S53, S55) specifies language information from the personal information received by the personal information receiving means. The determining means determines whether the language information specified by the language information specifying means matches the language information of the operator of the operation terminal stored by the storage medium. The translating means (130, S103, S129) translates the utterance information included in the second remote control information based on the language information specified by the language specifying means when the determination results determined by the determining means do not match. To do.

たとえば、特定される言語情報は日本語や英語である。また、言語情報特定手段は、対話相手の使用言語を特定する。そして、翻訳手段は、比較手段による比較結果が一致しなければ、ロボットが発話する言語を、対話相手の使用言語に翻訳する。つまり、操作端末を操作する操作者が、対話相手の使用言語を理解できなくても、ロボットから発話される言語は、対話相手の使用言語に翻訳される。   For example, the specified language information is Japanese or English. Further, the language information specifying means specifies the language used by the conversation partner. Then, the translation means translates the language spoken by the robot into the language used by the conversation partner if the comparison result by the comparison means does not match. That is, even if the operator who operates the operation terminal does not understand the language used by the conversation partner, the language spoken by the robot is translated into the language used by the conversation partner.

第2の発明によれば、ロボットを遠隔操作する操作者が、対話相手の言語を理解できなくても、ロボットに適切なコミュニケーション行動を行わせることができる。   According to the second invention, even if the operator who remotely operates the robot does not understand the language of the conversation partner, the robot can perform appropriate communication behavior.

第3の発明は、第1の発明または第2の発明に従属し、コミュニケーション情報は、身体動作の種類の情報を含む。コミュニケーション情報特定手段は、個人情報受信手段によって受信された個人情報から身体動作の種類の情報を特定する身体動作種類情報特定手段を含む。比較手段は、身体動作種類情報特定手段によって特定された身体動作の種類の情報と記憶媒体によって記憶された操作端末の操作者の身体動作の種類の情報とが一致するか否かを判断する。変換手段は、判断手段によって判断された判断結果が一致しないときに、第2遠隔操作情報に含まれる動作の情報を身体動作種類情報特定手段によって特定された身体動作の種類の情報に基づいて変換する動作変換手段を含む。   A third invention is dependent on the first invention or the second invention, and the communication information includes information on a type of body movement. The communication information specifying means includes body action type information specifying means for specifying information on the type of body action from the personal information received by the personal information receiving means. The comparison means determines whether or not the information on the type of physical movement specified by the physical action type information specifying means matches the information on the type of physical action of the operator of the operating terminal stored on the storage medium. The converting means converts the motion information included in the second remote operation information based on the body motion type information specified by the body motion type information specifying means when the determination results determined by the determining means do not match. Operation converting means for

第3の発明では、コミュニケーション情報は、身体動作の種類の情報を含む。身体動作種類情報特定手段(130、S71、S73)は、個人情報受信手段によって受信された個人情報から身体動作の種類の情報を特定する。また、比較手段は、身体動作種類情報特定手段によって特定された身体動作の種類の情報と記憶媒体によって記憶された操作端末の操作者の身体動作の種類の情報とが一致するか否かを判断する。動作変換手段(130、S105、S159)は、判断手段によって判断された判断結果が一致しないときに、第2遠隔操作情報に含まれる動作の情報を身体動作種類情報特定手段によって特定された身体動作の種類の情報に基づいて変換する。   In the third invention, the communication information includes information on the type of body movement. The physical action type information specifying means (130, S71, S73) specifies information on the type of physical action from the personal information received by the personal information receiving means. Further, the comparing means determines whether or not the physical action type information specified by the physical action type information specifying means matches the physical action type information of the operator of the operation terminal stored in the storage medium. To do. The motion conversion means (130, S105, S159) is configured to identify the motion information included in the second remote operation information by the physical action type information specifying means when the judgment results judged by the judgment means do not match. Convert based on the type of information.

たとえば、身体動作の種類は、アメリカ人が行う動作や日本人が行う動作などである。また、身体動作種類決定手段は、対話相手の使用言語に基づいて、対話相手が行う身体動作の種類を決定する。そして、動作変換手段は、ロボットが行う動作を、対話相手が行う動作の種類に変換する。つまり、操作端末の操作者は、対話相手が行う身体動作の種類を知っていなかったとしても、ロボットに対話相手が行う身体動作と同じ種類の動作を行わせることができる。   For example, the types of physical movements include movements performed by Americans and movements performed by Japanese. The body movement type determining means determines the type of body movement performed by the conversation partner based on the language used by the conversation partner. The motion conversion means converts the motion performed by the robot into the type of motion performed by the conversation partner. That is, even if the operator of the operation terminal does not know the type of body movement performed by the conversation partner, the robot can cause the robot to perform the same type of movement as the body movement performed by the conversation partner.

第3の発明によれば、ロボットを遠隔操作する操作者が、対話相手が行う身体動作を知っていなかったとしても、ロボットに対話相手と同じ種類の身体動作を行わせることができるため、対話相手との円滑なコミュニケーションを行うことができる。   According to the third invention, even if the operator who remotely operates the robot does not know the body movement performed by the conversation partner, the robot can perform the same type of body movement as the conversation partner. Smooth communication with the other party.

第4の発明は、第2の発明または第3の発明のいずれかに従属し、個人情報取得手段は、人間の音声を取得する音声取得手段を含む。個人情報送信手段は、さらに音声取得手段によって取得された音声を送信する。個人情報受信手段は、さらに個人情報送信手段によって送信された音声を受信する。言語情報特定手段は、個人情報受信手段によって受信された人間の音声から言語情報を特定する音声言語情報特定手段を含む。   A fourth invention is dependent on either the second invention or the third invention, and the personal information acquisition means includes voice acquisition means for acquiring a human voice. The personal information transmission unit further transmits the voice acquired by the voice acquisition unit. The personal information receiving means further receives the voice transmitted by the personal information transmitting means. The linguistic information specifying means includes a spoken language information specifying means for specifying linguistic information from a human voice received by the personal information receiving means.

第4の発明では、音声取得手段(66、80、S305)は、人間の音声を取得する。個人情報送信手段は、さらに音声取得手段によって取得された音声を送信する。個人情報受信手段は、さらに個人情報送信手段によって送信された音声を受信する。また、音声言語情報特定手段(130、S53、S55)は、個人情報受信手段によって受信された人間の音声から言語情報を特定する。つまり、対話相手の音声が取得され、対話相手の使用言語が特定される。   In the fourth invention, the voice acquisition means (66, 80, S305) acquires human voice. The personal information transmission unit further transmits the voice acquired by the voice acquisition unit. The personal information receiving means further receives the voice transmitted by the personal information transmitting means. The speech language information specifying means (130, S53, S55) specifies the language information from the human voice received by the personal information receiving means. That is, the voice of the conversation partner is acquired, and the language used by the conversation partner is specified.

第4の発明によれば、対話相手の音声から、対話相手の使用言語を特定することができる。   According to the fourth aspect, the language used by the conversation partner can be specified from the voice of the conversation partner.

第5の発明は、第4の発明に従属し、中央制御装置は、音声取得手段によって人間の音声が取得されていないときに、ロボットに発話を指示する要求信号を送信する要求信号送信手段をさらに備える。ロボットは、要求信号送信手段によって送信された要求信号を受信する要求信号受信手段、および要求信号受信手段によって受信された要求信号に応じて音声を出力する音声出力手段をさらに備える。   A fifth invention is dependent on the fourth invention, and the central control device includes request signal transmission means for transmitting a request signal for instructing the robot to speak when the human voice is not acquired by the voice acquisition means. Further prepare. The robot further includes a request signal receiving unit that receives the request signal transmitted by the request signal transmitting unit, and a voice output unit that outputs a sound in response to the request signal received by the request signal receiving unit.

第5の発明では、要求信号送信手段(130、S41)は、音声取得手段によって人間の音声が取得されていないときに、ロボットに発話を指示する要求信号を送信する。要求信号受信手段(80、S307)は、要求信号送信手段によって送信された要求信号を受信する。音声出力手段(80、S309)は、要求信号受信手段によって受信された要求信号に応じて音声を出力する。たとえば、言語情報特定手段によって言語情報が特定できない場合に、対話相手の発話を要求するコミュニケーション行動を実行する。   In the fifth invention, the request signal transmitting means (130, S41) transmits a request signal for instructing the robot to speak when the human voice is not acquired by the voice acquiring means. The request signal receiving means (80, S307) receives the request signal transmitted by the request signal transmitting means. The sound output means (80, S309) outputs sound in response to the request signal received by the request signal receiving means. For example, when the language information cannot be specified by the language information specifying means, a communication action requesting the conversation partner's utterance is executed.

第5の発明によれば、人間の発話を要求することで、中央制御装置は、対話相手の使用言語を特定できるようになる。   According to the fifth aspect, by requesting human speech, the central control device can specify the language used by the conversation partner.

第6の発明は、第2の発明ないし第5の発明のいずれかに従属し、個人情報取得手段は、人間が携帯する識別情報タグから識別情報を取得する識別情報取得手段を含む。個人情報送信手段は、さらに識別情報取得手段によって取得された識別情報を送信する。個人情報受信手段は、さらに個人情報送信手段によって送信された識別情報を受信する。言語情報特定手段は、個人情報受信手段によって受信された識別情報から少なくとも言語情報を特定する識別言語特定手段を含む。   A sixth invention is dependent on any one of the second to fifth inventions, and the personal information acquisition means includes identification information acquisition means for acquiring identification information from an identification information tag carried by a human. The personal information transmitting means further transmits the identification information acquired by the identification information acquiring means. The personal information receiving means further receives the identification information transmitted by the personal information transmitting means. The language information specifying means includes identification language specifying means for specifying at least language information from the identification information received by the personal information receiving means.

第6の発明では、識別情報取得手段(80、116、S305)は、人間が携帯する識別情報タグ(18)から識別情報を取得する。また、個人情報送信手段は、さらに識別情報取得手段によって取得された識別情報を送信する。個人情報受信手段は、さらに個人情報送信手段によって送信された識別情報を受信する。そして、識別言語情報特定手段(130、S37)は、個人情報受信手段によって受信された識別情報から少なくとも言語情報を特定する。たとえば、識別情報とは、対話相手毎に割り当てられたID番号である。そして、ID番号に基づいて、対話相手の使用言語が特定される。   In the sixth invention, the identification information acquisition means (80, 116, S305) acquires the identification information from the identification information tag (18) carried by a human. Further, the personal information transmission means further transmits the identification information acquired by the identification information acquisition means. The personal information receiving means further receives the identification information transmitted by the personal information transmitting means. Then, the identification language information specifying means (130, S37) specifies at least language information from the identification information received by the personal information receiving means. For example, the identification information is an ID number assigned to each conversation partner. Based on the ID number, the language used by the conversation partner is specified.

第6の発明によれば、対話相手の識別情報から、対話相手の使用言語を特定することができる。   According to the sixth aspect, the language used by the conversation partner can be specified from the identification information of the conversation partner.

第7の発明は、個人情報取得手段は、人間が携帯する識別情報タグから識別情報を取得する識別情報取得手段を含む。個人情報送信手段は、さらに識別情報取得手段によって取得された識別情報を送信する。個人情報受信手段は、さらに個人情報送信手段によって送信された識別情報を受信する。身体動作種類決定手段は、個人情報受信手段によって受信された識別情報からさらに身体動作の種類の情報を決定する識別情報身体動作種類決定手段を含む。   In a seventh aspect, the personal information acquisition means includes identification information acquisition means for acquiring identification information from an identification information tag carried by a human. The personal information transmitting means further transmits the identification information acquired by the identification information acquiring means. The personal information receiving means further receives the identification information transmitted by the personal information transmitting means. The body motion type determining means includes identification information body motion type determining means for further determining information on the type of body motion from the identification information received by the personal information receiving means.

第7の発明では、識別情報取得手段(80、116、S305)は、人間が携帯する識別情報タグ(18)から識別情報を取得する。また、個人情報送信手段は、さらに識別情報取得手段によって取得された識別情報を送信する。個人情報受信手段は、さらに個人情報送信手段によって送信された識別情報を受信する。そして、識別情報身体動作種類決定手段(130、S71)は、個人情報受信手段によって受信された識別情報からさらに身体動作の種類の情報を決定する。つまり、識別情報身体動作種類決定手段は、対話相手のID番号から対話相手が行う身体動作の種類を決定する。   In the seventh invention, the identification information acquisition means (80, 116, S305) acquires the identification information from the identification information tag (18) carried by a human. Further, the personal information transmission means further transmits the identification information acquired by the identification information acquisition means. The personal information receiving means further receives the identification information transmitted by the personal information transmitting means. Then, the identification information physical action type determining means (130, S71) further determines information on the type of physical action from the identification information received by the personal information receiving means. In other words, the identification information body movement type determining means determines the type of body movement performed by the conversation partner from the ID number of the conversation partner.

第7の発明によれば、対話相手が識別情報タグを携帯していれば、対話相手の識別情報から対話相手が行う身体動作の種類を決定することができる。   According to the seventh aspect, if the conversation partner carries the identification information tag, the type of body movement performed by the conversation partner can be determined from the identification information of the conversation partner.

第8の発明は、第4の発明ないし第7の発明のいずれかに従属し、中央制御装置は、判断手段によって判断された判断結果が一致しないときに、個人情報受信手段によって受信された音声を記憶媒体によって記憶された操作端末の操作者の言語情報に基づいて翻訳する音声翻訳手段、および音声翻訳手段によって翻訳された翻訳結果を操作端末に送信する翻訳結果送信手段をさらに備える。操作端末は、翻訳音声結果送信手段によって送信された翻訳結果を受信する翻訳結果受信手段、および翻訳結果受信手段によって受信された翻訳結果を出力する出力手段をさらに備える。   The eighth invention is dependent on any one of the fourth to seventh inventions, and the central control device receives the voice received by the personal information receiving means when the judgment results judged by the judgment means do not match. Is further provided with speech translation means for translating based on the language information of the operator of the operation terminal stored in the storage medium, and translation result transmission means for transmitting the translation result translated by the speech translation means to the operation terminal. The operation terminal further includes a translation result receiving unit that receives the translation result transmitted by the translated speech result transmitting unit, and an output unit that outputs the translation result received by the translation result receiving unit.

第8の発明では、音声翻訳手段(130、S95)は、判断手段によって判断された判断結果が一致しないときに、個人情報受信手段によって受信された音声を記憶媒体によって記憶された操作端末の操作者の言語情報に基づいて翻訳する。翻訳結果送信手段(130、148、150、S97)は、音声翻訳手段によって翻訳された翻訳結果を操作端末に送信する。翻訳結果受信手段(160、172、174、S407)は、翻訳音声結果送信手段によって送信された翻訳結果を受信する。出力手段(160、176、S409)は、翻訳結果受信手段によって受信された翻訳結果を出力する。   In the eighth invention, the speech translating means (130, S95) operates the operation terminal in which the speech received by the personal information receiving means is stored in the storage medium when the judgment results judged by the judging means do not match. Translate based on the language information of the person. The translation result transmission means (130, 148, 150, S97) transmits the translation result translated by the speech translation means to the operation terminal. The translation result receiving means (160, 172, 174, S407) receives the translation result transmitted by the translated speech result transmitting means. The output means (160, 176, S409) outputs the translation result received by the translation result receiving means.

たとえば、ロボットが取得した対話相手の音声は、中央制御装置に送信される。そして、中央制御装置では、受信した対話相手の音声が操作端末の操作者の使用言語に翻訳されて、操作端末に送信される。そして、操作端末では、出力手段によって翻訳された対話相手の音声が出力される。   For example, the voice of the conversation partner acquired by the robot is transmitted to the central controller. In the central control unit, the received voice of the conversation partner is translated into the language used by the operator of the operation terminal and transmitted to the operation terminal. The operation terminal outputs the voice of the conversation partner translated by the output means.

第8の発明によれば、オペレータは、ロボットのコミュニケーション相手の言語を容易に理解できるようになり、適切に対応することができるようになる。   According to the eighth aspect, the operator can easily understand the language of the communication partner of the robot, and can respond appropriately.

第9の発明は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボットと、ネットワークを介してロボットの遠隔操作を行う複数の操作端末と、ネットワークを介してロボットと複数の操作端末のうち1台のとの仲介を行う中央制御装置とを備える、ロボット遠隔操作システムである。ロボットは、人間の個人情報を取得する個人情報取得手段、個人情報取得手段によって取得された個人情報を操作端末に送信する個人情報送信手段、操作端末からの第1遠隔操作情報を受信する第1遠隔操作情報受信手段、および第1遠隔操作情報受信手段によって受信した第1遠隔操作情報に基づくコミュニケーション行動を実行する実行手段を備える。   According to a ninth aspect of the present invention, there is provided a robot that performs communication with humans through at least one of body movement and voice by remote operation or autonomous control, a plurality of operation terminals that perform remote operation of the robot via a network, and a network This is a robot remote control system including a central control device that mediates between the robot and one of the plurality of operation terminals via the controller. The robot receives personal information acquisition means for acquiring human personal information, personal information transmission means for transmitting personal information acquired by the personal information acquisition means to the operation terminal, and first remote operation information received from the operation terminal. Remote operation information receiving means, and execution means for executing a communication action based on the first remote operation information received by the first remote operation information receiving means.

操作端末は、操作端末自身の操作者のコミュニケーション情報を記憶する記憶媒体、個人情報送信手段によって送信された個人情報を受信する個人情報受信手段、個人情報受信手段によって受信された個人情報からコミュニケーション情報を特定するコミュニケーション情報特定手段、コミュニケーション情報特定手段によって特定されたコミュニケーション情報と記憶媒体によって記憶された操作端末の操作者のコミュニケーション情報とが一致するか否かを判断する判断手段、判断手段によって判断された判断結果が一致しないときに、ロボットを遠隔操作するための第2遠隔操作情報をコミュニケーション情報特定手段によって特定されたコミュニケーション情報に基づいて第1遠隔操作情報に変換する変換手段、および変換手段によって変換された第1遠隔操作情報をロボットに送信する第1遠隔操作情報送信手段を備える。   The operation terminal includes a storage medium for storing communication information of the operator of the operation terminal, personal information receiving means for receiving personal information transmitted by the personal information transmitting means, and communication information from the personal information received by the personal information receiving means. Information identifying means for identifying the communication information, judging means for judging whether the communication information identified by the communication information identifying means matches the communication information of the operator of the operation terminal stored in the storage medium, and judged by the judging means Conversion means for converting the second remote operation information for remotely operating the robot into the first remote operation information based on the communication information specified by the communication information specifying means when the determined judgment results do not match, and the conversion means By The first remote control information converted Te comprises a first remote operation information transmitting means for transmitting to the robot.

第9の発明では、ロボット遠隔操作システム(10)は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボット(12)と、ネットワークを介してロボットの遠隔操作を行う複数の操作端末(16)と、ネットワークを介してロボットと複数の操作端末のうち1台のとの仲介を行う中央制御装置(14)とを備える。ロボットの個人情報取得手段(66、80、116、S305)は、人間の個人情報を取得する。個人情報送信手段(80、112、114、S305)は、個人情報取得手段によって取得された個人情報を操作端末に送信する。第1遠隔操作情報受信手段(80、112、114、S313)は、操作端末からの第1遠隔操作情報を受信する。実行手段(80、S317)は、第1遠隔操作情報受信手段によって受信した第1遠隔操作情報に基づくコミュニケーション行動を実行する。   In the ninth invention, the robot remote control system (10) includes a robot (12) that performs communication action with at least one of body movement and voice with a human by remote control or autonomous control, and a robot via a network. And a central control device (14) that mediates between the robot and one of the plurality of operation terminals via a network. The robot personal information acquisition means (66, 80, 116, S305) acquires human personal information. The personal information transmitting means (80, 112, 114, S305) transmits the personal information acquired by the personal information acquiring means to the operation terminal. The first remote operation information receiving means (80, 112, 114, S313) receives the first remote operation information from the operation terminal. The executing means (80, S317) executes a communication action based on the first remote operation information received by the first remote operation information receiving means.

操作端末の記憶媒体(138)は、操作端末自身の操作者のコミュニケーション情報を記憶する。個人情報受信手段(160、172、174、S5)は、個人情報送信手段によって送信された個人情報を受信する。コミュニケーション情報特定手段(160、S37、S53、S55、S71、S73)は、個人情報受信手段によって受信された個人情報からコミュニケーション情報を特定する。判断手段(160、S61−S65)は、コミュニケーション情報特定手段によって特定されたコミュニケーション情報と記憶媒体によって記憶された操作端末の操作者のコミュニケーション情報とが一致するか否かを判断する。変換手段(160、S103、S105、S129、S159)は、判断手段によって判断された判断結果が一致しないときに、ロボットを遠隔操作するための第2遠隔操作情報をコミュニケーション情報特定手段によって特定されたコミュニケーション情報に基づいて第1遠隔操作情報に変換する。第1遠隔操作情報送信手段(160、S107)は、変換手段によって変換された第1遠隔操作情報をロボットに送信する。   The storage medium (138) of the operation terminal stores communication information of the operator of the operation terminal itself. The personal information receiving means (160, 172, 174, S5) receives the personal information transmitted by the personal information transmitting means. The communication information specifying means (160, S37, S53, S55, S71, S73) specifies communication information from the personal information received by the personal information receiving means. The determining means (160, S61-S65) determines whether or not the communication information specified by the communication information specifying means matches the communication information of the operator of the operating terminal stored by the storage medium. The conversion means (160, S103, S105, S129, S159) specifies the second remote operation information for remotely operating the robot by the communication information specifying means when the determination results determined by the determination means do not match. Based on the communication information, the first remote operation information is converted. The first remote operation information transmission means (160, S107) transmits the first remote operation information converted by the conversion means to the robot.

第9の発明によれば、第1の発明と同様に、ロボットは、相手の文化で行われる身体動作を交えて、対話相手の文化の言語を発話するため、対話相手の文化によらず、オペレータが適切に対応することができる。   According to the ninth invention, similar to the first invention, the robot speaks the language of the conversation partner's culture in combination with the body movements performed in the partner's culture. The operator can respond appropriately.

第10の発明は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボットと、ネットワークを介してロボットの遠隔操作を行う複数の操作端末と、ネットワークを介してロボットと複数の操作端末のうち1台との仲介を行う中央制御装置とを備える、ロボット遠隔操作システムである。操作端末は、ロボットを遠隔操作するための第1遠隔操作情報をロボットに送信する第1遠隔操作送信手段を備える。ロボットは、操作端末の操作者のコミュニケーション情報を記憶する記憶媒体、人間の個人情報を取得する個人情報取得手段、個人情報受信手段によって受信された個人情報からコミュニケーション情報を特定するコミュニケーション情報特定手段、操作端末からの第1遠隔操作情報を受信する第1遠隔操作情報受信手段、コミュニケーション情報特定手段によって特定されたコミュニケーション情報と記憶媒体によって記憶された操作端末の操作者のコミュニケーション情報とが一致するか否かを判断する判断手段、判断手段によって判断された判断結果が一致しないときに、第1遠隔操作情報受信手段によって受信された第1遠隔操作情報をコミュニケーション情報特定手段によって特定されたコミュニケーション情報に基づいて第2遠隔操作情報に変換する変換手段、および変換によって変換された第2遠隔操作情報に基づくコミュニケーション行動を実行する実行手段を備える。   According to a tenth aspect of the present invention, there is provided a robot that performs communication with a human by at least one of body movement and voice by remote operation or autonomous control, a plurality of operation terminals that perform remote operation of the robot via a network, and a network This is a robot remote operation system including a central control device that mediates between the robot and one of the plurality of operation terminals via the controller. The operation terminal includes first remote operation transmission means for transmitting first remote operation information for remotely operating the robot to the robot. The robot includes a storage medium for storing communication information of an operator of the operation terminal, personal information acquisition means for acquiring human personal information, communication information specifying means for specifying communication information from the personal information received by the personal information receiving means, The first remote operation information receiving means for receiving the first remote operation information from the operation terminal, whether the communication information specified by the communication information specifying means matches the communication information of the operator of the operation terminal stored by the storage medium When the judgment result judged by the judgment means and the judgment result judged by the judgment means do not match, the first remote operation information received by the first remote operation information receiving means is changed to the communication information specified by the communication information specifying means. 2nd far based Conversion means for converting the operation information, and an execution means for executing the communication action based on the second remote control information converted by the conversion.

第10の発明では、ロボット遠隔操作システム(10)は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボット(12)と、ネットワークを介してロボットの遠隔操作を行う複数の操作端末(16)と、ネットワークを介してロボットと複数の操作端末のうち1台との仲介を行う中央制御装置(14)とを備える。操作端末の第1遠隔操作送信手段(160、S413)は、ロボットを遠隔操作するための第1遠隔操作情報をロボットに送信する。ロボットの記憶媒体(138)は、操作端末の操作者のコミュニケーション情報を記憶する。個人情報取得手段(66、80,116、S305)は、人間の個人情報を取得する。コミュニケーション情報特定手段(80、S37、S53、S55、S71、S73)は、個人情報受信手段によって受信された個人情報からコミュニケーション情報を特定する。第1遠隔操作情報受信手段(80、112、114、S313)は、操作端末からの第1遠隔操作情報を受信する。判断手段(80、S61−S65)は、コミュニケーション情報特定手段によって特定されたコミュニケーション情報と記憶媒体によって記憶された操作端末の操作者のコミュニケーション情報とが一致するか否かを判断する。変換手段(80、S103、S105、S129、S159)は、判断手段によって判断された判断結果が一致しないときに、第1遠隔操作情報受信手段によって受信された第1遠隔操作情報をコミュニケーション情報特定手段によって特定されたコミュニケーション情報に基づいて第2遠隔操作情報に変換する。実行手段(80、S317)は、変換手段によって変換された第2遠隔操作情報に基づくコミュニケーション行動を実行する。   In the tenth invention, the robot remote control system (10) includes a robot (12) that performs communication with humans through at least one of body movement and voice by remote control or autonomous control, and a robot via a network. A plurality of operation terminals (16) for performing remote operation, and a central control device (14) for mediating between the robot and one of the plurality of operation terminals via a network. First remote operation transmission means (160, S413) of the operation terminal transmits first remote operation information for remotely operating the robot to the robot. The storage medium (138) of the robot stores communication information of the operator of the operation terminal. Personal information acquisition means (66, 80, 116, S305) acquires human personal information. The communication information specifying means (80, S37, S53, S55, S71, S73) specifies communication information from the personal information received by the personal information receiving means. The first remote operation information receiving means (80, 112, 114, S313) receives the first remote operation information from the operation terminal. The determining means (80, S61-S65) determines whether or not the communication information specified by the communication information specifying means matches the communication information of the operator of the operating terminal stored by the storage medium. The conversion means (80, S103, S105, S129, S159) converts the first remote operation information received by the first remote operation information reception means when the judgment results judged by the judgment means do not match, the communication information identification means Is converted into second remote control information based on the communication information specified by. The execution means (80, S317) executes a communication action based on the second remote operation information converted by the conversion means.

第10の発明は、第1の発明と同様に、ロボットは、相手の文化で行われる身体動作を交えて、対話相手の文化の言語を発話するため、対話相手の文化によらず、オペレータが適切に対応することができる。   In the tenth aspect, similar to the first aspect, the robot speaks the language of the conversation partner's culture with the body movements performed in the partner's culture. Can respond appropriately.

この発明によれば、ロボットは、相手の文化で行われる身体動作を交えて、対話相手の文化の言語を発話するため、対話相手の文化によらず、オペレータが適切に対応することができる。   According to the present invention, the robot speaks the language of the conversation partner's culture with the body movement performed in the partner's culture, so that the operator can appropriately respond regardless of the conversation partner's culture.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のロボット遠隔操作システム10は、ロボット12aおよび12bを含む。このロボット12aおよび12bは、ネットワーク100を介して、中央制御装置14、操作端末16a、16bおよび16cに接続される。以下、ロボット12a,12bを区別する必要がない場合には、ロボット12と呼ぶことにする。同様に、操作端末16a−16cのそれぞれを区別する必要がない場合には、操作端末16と呼ぶことにする。   Referring to FIG. 1, a robot remote control system 10 of this embodiment includes robots 12a and 12b. The robots 12a and 12b are connected to the central control device 14 and the operation terminals 16a, 16b and 16c via the network 100. Hereinafter, when it is not necessary to distinguish the robots 12a and 12b, they will be referred to as robots 12. Similarly, when there is no need to distinguish each of the operation terminals 16a-16c, they will be referred to as operation terminals 16.

なお、図1には、簡単のため、2台のロボット12a,12bおよびロボット12を遠隔操作する3台の操作端末16a−16cを示してあるが、これによって限定される必要はない。ロボット12は1台でもよく、3台以上であっても構わない。また、操作端末16は、2台以上であれば何台でも構わない。   Although FIG. 1 shows two robots 12a and 12b and three operation terminals 16a to 16c for remotely operating the robot 12 for simplicity, it is not necessary to be limited thereto. One robot 12 or three or more robots 12 may be used. Further, any number of operation terminals 16 may be used as long as they are two or more.

ロボット12は、相互作用指向のロボット(コミュニケーションロボット)であり、主として人間Aのようなコミュニケーションの対象(コミュニケーション対象)との間で、身振り手振りのような身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。ロボット12は、一例として、受付ロボットや接客ロボットなどであり、たとえば会社の受付や或るイベント会場などの様々な場所および状況に配置され、通常は自律制御によって、道案内などの役割を果たす。   The robot 12 is an interaction-oriented robot (communication robot), and mainly includes a communication action including at least one of body movement such as gesture gesture and voice with a communication target (communication target) such as the human A. It has a function to execute. The robot 12 is, for example, a reception robot, a customer service robot, and the like. The robot 12 is arranged in various places and situations such as a company reception and a certain event venue, and usually plays a role of route guidance by autonomous control.

図2を参照して、ロボット12のハードウェアの構成について説明する。また、図2はこの実施例のロボット12の外観を示す正面図である。ロボット12は台車30を含み、台車30の下面にはロボット12を自律移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット12を前後左右の任意方向に動かすことができる。また、従輪34は車輪32を補助する補助輪である。したがって、ロボット12は、配置された空間内を自律制御によって移動可能である。ただし、ロボット12は、或る場所に固定的に配置されても構わない。   The hardware configuration of the robot 12 will be described with reference to FIG. FIG. 2 is a front view showing the appearance of the robot 12 of this embodiment. The robot 12 includes a carriage 30, and two wheels 32 and one slave wheel 34 for autonomously moving the robot 12 are provided on the lower surface of the carriage 30. The two wheels 32 are independently driven by a wheel motor 36 (see FIG. 3), and the carriage 30, that is, the robot 12 can be moved in any direction, front, back, left, and right. The slave wheel 34 is an auxiliary wheel that assists the wheel 32. Therefore, the robot 12 can move in the arranged space by autonomous control. However, the robot 12 may be fixedly arranged at a certain place.

台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の赤外線距離センサ40が取り付けられる。これらの赤外線距離センサ40は、センサ取り付けパネル38すなわちロボット12の周囲の物体(人間や障害物など)との距離を測定するものである。   A cylindrical sensor attachment panel 38 is provided on the carriage 30, and a large number of infrared distance sensors 40 are attached to the sensor attachment panel 38. These infrared distance sensors 40 measure the distance to the sensor mounting panel 38, that is, the object (human being, obstacle, etc.) around the robot 12.

なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、超音波距離センサやミリ波レーダなどを用いることもできる。   In this embodiment, an infrared distance sensor is used as the distance sensor, but an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.

センサ取り付けパネル38の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ40がさらに設けられ、ロボット12の前方の主として人間との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット12の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ40および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更され得る。   A body 42 is provided on the sensor mounting panel 38 so as to stand upright. Further, the above-described infrared distance sensor 40 is further provided in the upper front upper portion of the body 42 (a position corresponding to a human chest), and measures the distance mainly to a human in front of the robot 12. Further, the body 42 is provided with a support column 44 extending from substantially the center of the upper end of the side surface, and an omnidirectional camera 46 is provided on the support column 44. The omnidirectional camera 46 photographs the surroundings of the robot 12 and is distinguished from an eye camera 70 described later. As this omnidirectional camera 46, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. In addition, the installation positions of the infrared distance sensor 40 and the omnidirectional camera 46 are not limited to the portions, and can be changed as appropriate.

胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。   An upper arm 50R and an upper arm 50L are provided at upper end portions on both sides of the torso 42 (position corresponding to a human shoulder) by a shoulder joint 48R and a shoulder joint 48L, respectively. Although illustration is omitted, each of the shoulder joint 48R and the shoulder joint 48L has three orthogonal degrees of freedom. That is, the shoulder joint 48R can control the angle of the upper arm 50R around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 48R is an axis parallel to the longitudinal direction (or axis) of the upper arm 50R, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do. Similarly, the shoulder joint 48L can control the angle of the upper arm 50L around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 48L is an axis parallel to the longitudinal direction (or axis) of the upper arm 50L, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do.

また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。   In addition, an elbow joint 52R and an elbow joint 52L are provided at the respective distal ends of the upper arm 50R and the upper arm 50L. Although illustration is omitted, each of the elbow joint 52R and the elbow joint 52L has one degree of freedom, and the angle of the forearm 54R and the forearm 54L can be controlled around the axis (pitch axis).

前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当する球体56Rおよび球体56Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。また、図示は省略するが、台車30の前面、肩関節48Rと肩関節48Lとを含む肩に相当する部位、上腕50R、上腕50L、前腕54R、前腕54L、球体56Rおよび球体56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、ロボット12は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット12の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の胸、腹、脇、背中および腰に相当する位置)に設けられてもよい。   A sphere 56R and a sphere 56L corresponding to a human hand are fixedly provided at the tips of the forearm 54R and the forearm 54L, respectively. However, when a finger or palm function is required, a “hand” in the shape of a human hand can be used. Although not shown, the front surface of the carriage 30, a portion corresponding to the shoulder including the shoulder joint 48R and the shoulder joint 48L, the upper arm 50R, the upper arm 50L, the forearm 54R, the forearm 54L, the sphere 56R, and the sphere 56L are respectively A contact sensor 58 (shown generically in FIG. 3) is provided. A contact sensor 58 on the front surface of the carriage 30 detects contact of a person or another obstacle with the carriage 30. Therefore, the robot 12 can detect the contact with the obstacle during its movement and immediately stop the driving of the wheel 32 to suddenly stop the movement of the robot 12. Further, the other contact sensors 58 detect whether or not the respective parts are touched. In addition, the installation position of the contact sensor 58 is not limited to the said site | part, and may be provided in an appropriate position (position corresponding to a person's chest, abdomen, side, back, and waist).

胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット12の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 60 is provided at the upper center of the body 42 (a position corresponding to a person's neck), and a head 62 is further provided thereon. Although illustration is omitted, the neck joint 60 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 12, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット12が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。   The head 62 is provided with a speaker 64 at a position corresponding to a human mouth. The speaker 64 is used for the robot 12 to communicate with humans around it by voice or sound. A microphone 66R and a microphone 66L are provided at a position corresponding to a human ear. Hereinafter, the right microphone 66R and the left microphone 66L may be collectively referred to as a microphone 66. The microphone 66 captures ambient sounds, in particular, the voices of humans who are subjects of communication. Furthermore, an eyeball part 68R and an eyeball part 68L are provided at positions corresponding to human eyes. The eyeball portion 68R and the eyeball portion 68L include an eye camera 70R and an eye camera 70L, respectively. Hereinafter, the right eyeball part 68R and the left eyeball part 68L may be collectively referred to as the eyeball part 68. The right eye camera 70R and the left eye camera 70L may be collectively referred to as an eye camera 70.

眼カメラ70は、ロボット12に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64、マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。   The eye camera 70 captures a human face approaching the robot 12, other parts or objects, and captures a corresponding video signal. The eye camera 70 can be the same camera as the omnidirectional camera 46 described above. For example, the eye camera 70 is fixed in the eyeball unit 68, and the eyeball unit 68 is attached to a predetermined position in the head 62 via an eyeball support unit (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 62, and the other is orthogonal to the one axis and goes straight in a direction in which the front side (face) of the head 62 faces. It is an axis (pitch axis) in the direction to be performed. By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 68 or the eye camera 70 is displaced, and the camera axis, that is, the line-of-sight direction is moved. Note that the installation positions of the speaker 64, the microphone 66, and the eye camera 70 described above are not limited to those portions, and may be provided at appropriate positions.

このように、この実施例のロボット12は、車輪32の独立2軸駆動、肩関節48の3自由度(左右で6自由度)、肘関節52の1自由度(左右で2自由度)、首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。   As described above, the robot 12 of this embodiment includes independent two-axis driving of the wheels 32, three degrees of freedom of the shoulder joint 48 (6 degrees of freedom on the left and right), one degree of freedom of the elbow joint 52 (2 degrees of freedom on the left and right), It has a total of 17 degrees of freedom, 3 degrees of freedom for the neck joint 60 and 2 degrees of freedom for the eyeball support (4 degrees of freedom on the left and right).

図3はロボット12の電気的な構成を示すブロック図である。この図3を参照して、ロボット12は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84、モータ制御ボード86、センサ入力/出力ボード88および音声入力/出力ボード90に接続される。   FIG. 3 is a block diagram showing the electrical configuration of the robot 12. With reference to FIG. 3, the robot 12 includes a CPU 80. The CPU 80 is also called a microcomputer or a processor, and is connected to the memory 84, the motor control board 86, the sensor input / output board 88 and the audio input / output board 90 via the bus 82.

メモリ84は、図示は省略をするが、ROM,HDDおよびRAMを含む。ROMおよびHDDには、ロボット12の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置14および操作端末16など)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記録される。また、RAMは、ワークメモリやバッファメモリとして用いられる。   The memory 84 includes a ROM, an HDD, and a RAM (not shown). In the ROM and the HDD, a control program for controlling the operation of the robot 12 is stored in advance. For example, a detection program for detecting the output (sensor information) of each sensor, a communication program for transmitting / receiving necessary data and commands to / from external computers (such as the central control device 14 and the operation terminal 16), etc. To be recorded. The RAM is used as a work memory or a buffer memory.

モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。   The motor control board 86 is constituted by, for example, a DSP, and controls driving of each axis motor such as each arm, neck joint, and eyeball unit. That is, the motor control board 86 receives control data from the CPU 80, and controls two motors (collectively indicated as “right eyeball motor 92” in FIG. 3) that control the angles of the two axes of the right eyeball portion 68R. Control the rotation angle. Similarly, the motor control board 86 receives control data from the CPU 80, and controls two angles of the two axes of the left eyeball portion 68L (in FIG. 3, collectively referred to as “left eyeball motor 94”). ) To control the rotation angle.

また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。   The motor control board 86 receives control data from the CPU 80, and includes a total of four motors including three motors for controlling the angles of the three orthogonal axes of the shoulder joint 48R and one motor for controlling the angle of the elbow joint 52R. The rotation angle of two motors (collectively indicated as “right arm motor 96” in FIG. 3) is controlled. Similarly, the motor control board 86 receives control data from the CPU 80, and includes three motors for controlling the angles of the three orthogonal axes of the shoulder joint 48L and one motor for controlling the angle of the elbow joint 52L. The rotation angles of a total of four motors (collectively indicated as “left arm motor 98” in FIG. 3) are controlled.

さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ110」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、ロボット12の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更されてもよい。たとえば、他の実施例では、エアアクチュエータなどが適用されてもよい。   Further, the motor control board 86 receives control data from the CPU 80, and controls three motors for controlling the angles of the three orthogonal axes of the neck joint 60 (in FIG. 3, collectively indicated as “head motor 110”). Control the rotation angle. The motor control board 86 receives control data from the CPU 80 and controls the rotation angles of the two motors (collectively indicated as “wheel motor 36” in FIG. 3) that drive the wheels 32. In this embodiment, a motor other than the wheel motor 36 uses a stepping motor (that is, a pulse motor) in order to simplify the control. However, a DC motor may be used similarly to the wheel motor 36. The actuator that drives the body part of the robot 12 is not limited to a motor that uses a current as a power source, and may be changed as appropriate. For example, in another embodiment, an air actuator or the like may be applied.

センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、赤外線距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様にして、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。   Similar to the motor control board 86, the sensor input / output board 88 is configured by a DSP and takes in signals from each sensor and gives them to the CPU 80. That is, data relating to the reflection time from each of the infrared distance sensors 40 is input to the CPU 80 through the sensor input / output board 88. The video signal from the omnidirectional camera 46 is input to the CPU 80 after being subjected to predetermined processing by the sensor input / output board 88 as necessary. Similarly, the video signal from the eye camera 70 is also input to the CPU 80. Further, signals from the plurality of contact sensors 58 described above (collectively indicated as “contact sensors 58” in FIG. 3) are provided to the CPU 80 via the sensor input / output board 88. Similarly, the voice input / output board 90 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the CPU 80 is output from the speaker 64. In addition, voice input from the microphone 66 is given to the CPU 80 via the voice input / output board 90.

また、CPU80は、バス82を介して通信LANボード112に接続される。通信LANボード112は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置114に与え、無線通信装置114は送信データを、ネットワーク100を介して外部コンピュータ(中央制御装置14および操作端末16)に送信する。また、通信LANボード112は、無線通信装置104を介してデータを受信し、受信したデータをCPU80に与える。たとえば、送信データとしては、ロボット12から中央制御装置14へのオペレータ呼出要求の信号(コマンド)であったりする。   The CPU 80 is connected to the communication LAN board 112 via the bus 82. The communication LAN board 112 is configured by a DSP, for example, and provides transmission data given from the CPU 80 to the wireless communication device 114. The wireless communication device 114 sends the transmission data to an external computer (the central controller 14 and the operation via the network 100). To the terminal 16). In addition, the communication LAN board 112 receives data via the wireless communication device 104 and provides the received data to the CPU 80. For example, the transmission data may be an operator call request signal (command) from the robot 12 to the central controller 14.

さらに、CPU80は、バス82を介して無線タグ読取装置116が接続される。無線タグ読取装置116は、アンテナ(図示せず)を介して、無線タグ18(RFIDタグ)から送信される識別情報の重畳された電波を受信する。そして、無線タグ読取装置116は、受信した電波信号を増幅し、当該電波信号から識別信号を分離し、当該識別情報を復調(デコード)してCPU80に与える。図1によれば無線タグ18は、ロボット12が配置された或る会社の受付などに居る人間(人間A)に装着され、無線タグ読取装置116は、通信可能範囲内の無線タグ18を検出する。なお、無線タグ18は、アクティブ型であってもよいし、無線タグ読取装置116から送信される電波に応じて駆動されるパッシブ型であってもよい。   Further, the wireless tag reader 116 is connected to the CPU 80 via the bus 82. The wireless tag reader 116 receives a radio wave superimposed with identification information transmitted from the wireless tag 18 (RFID tag) via an antenna (not shown). The wireless tag reader 116 amplifies the received radio wave signal, separates the identification signal from the radio wave signal, demodulates (decodes) the identification information, and provides the CPU 80 with the identification information. According to FIG. 1, the wireless tag 18 is attached to a person (person A) who is at the reception of a certain company where the robot 12 is disposed, and the wireless tag reader 116 detects the wireless tag 18 within the communicable range. To do. Note that the wireless tag 18 may be an active type or a passive type that is driven in accordance with a radio wave transmitted from the wireless tag reader 116.

なお、無線タグ18から取得した識別情報および人間(対話相手)の音声は、対話相手の個人情報として中央制御装置14に送信される。   The identification information acquired from the wireless tag 18 and the voice of the person (dialogue partner) are transmitted to the central controller 14 as personal information of the dialogue partner.

図1に戻って、中央制御装置14は、当該ロボット遠隔操作システム10におけるオペレータの呼び出しを制御するコンピュータであり、ロボット12および操作端末16の状態を示す情報を管理する。そして、操作端末16とロボット12とが通信を行う場合には、データ通信の内容を制御する。図4を参照して、中央制御装置14は、CPU130を含む。CPU130は、CPU80と同様にマイクロコンピュータ或いはプロセッサとも呼ばれ、バス132を介して、メモリ134、ロボット情報データベース(DB)136、オペレータ端末情報DB138、対話相手情報DB140、言語・文化DB142、動作決定DB144および翻訳辞書DB146に接続される。   Returning to FIG. 1, the central control device 14 is a computer that controls the call of the operator in the robot remote operation system 10, and manages information indicating the states of the robot 12 and the operation terminal 16. And when the operation terminal 16 and the robot 12 communicate, the content of data communication is controlled. Referring to FIG. 4, central control device 14 includes a CPU 130. The CPU 130 is also called a microcomputer or a processor, like the CPU 80, and via the bus 132, the memory 134, the robot information database (DB) 136, the operator terminal information DB 138, the conversation partner information DB 140, the language / culture DB 142, and the operation determination DB 144. And connected to the translation dictionary DB 146.

メモリ134は、図示は省略をするが、ROM,HDDおよびRAMを含む。ROMおよびHDDには、中央制御装置14の動作を制御するための制御プログラムが予め記憶される。制御プログラムは、たとえば、ロボット12および操作端末16のそれぞれとの間で必要なデータやコマンドを送受信するための通信プログラムおよびロボット12からオペレータの呼び出し要求があったときに適切なオペレータ(操作端末16)を選択するための選択プログラムなどを含む。また、メモリ134のRAMは、ワークメモリやバッファメモリとして用いられる。   The memory 134 includes a ROM, an HDD, and a RAM (not shown). In the ROM and the HDD, a control program for controlling the operation of the central controller 14 is stored in advance. The control program includes, for example, a communication program for transmitting and receiving necessary data and commands between the robot 12 and the operation terminal 16, and an appropriate operator (operation terminal 16 when an operator call request is received from the robot 12. ) Including a selection program for selecting. The RAM of the memory 134 is used as a work memory or a buffer memory.

ロボット情報DB136には、各ロボット12における現在の状態を示すテーブル(ロボット情報テーブル)が記憶される。図5(A)に示すように、ロボット情報テーブルには、ロボット名に対応して、状態、位置および対話相手などの情報が記憶される。ロボット名の欄には、ロボット12の名前(たとえば、R1,R2,…)が記憶される。状態の欄には、該当するロボット12の現在の状態が記憶される。具体的には、「BUSY」または「IDLE」の別が記述される。BUSYは、或る会社の受付などにおいて人間と対話などのコミュニケーション行動を実行している状態などを意味する。また、IDLEは人間と対話などのコミュニケーション行動を実行していない状態、すなわち、空いている状態を意味する。   The robot information DB 136 stores a table (robot information table) indicating the current state of each robot 12. As shown in FIG. 5A, in the robot information table, information such as a state, a position, and a conversation partner is stored in correspondence with the robot name. The name of the robot 12 (for example, R1, R2,...) Is stored in the robot name column. In the status column, the current status of the corresponding robot 12 is stored. Specifically, “BUSY” or “IDLE” is described. BUSY means a state in which a communication action such as dialogue with a person is executed at a reception of a certain company. IDLE means a state in which a communication action such as dialogue with a person is not executed, that is, a free state.

位置の欄には、ロボット名に対応するロボット12の現在位置の情報が記憶される。この実施例では、ロボット12の配置された建物や会場などの場所を示す情報および当該場所においての当該ロボット12が現在存在している位置の座標(ワールド座標系における位置座標)が登録される。   Information on the current position of the robot 12 corresponding to the robot name is stored in the position column. In this embodiment, information indicating a place such as a building or a venue where the robot 12 is arranged and coordinates of a position where the robot 12 currently exists in the place (position coordinates in the world coordinate system) are registered.

対話相手の欄には、ロボット名に対応するロボット12が現在コミュニケーション行動を実行している人間の情報が登録される。具体的には、対話相手の識別情報(対話相手ID)に対応付けて、名前(たとえば、山田太郎)、使用言語(たとえば、日本語)および現在位置(ワールド座標系における位置座標)が登録される。また、ロボット名に対応するロボット12が人間と対話していない場合には、コミュニケーション行動を行う対象が存在しないことを表す「NULL」が登録される。   In the dialogue partner column, information on the person who is currently performing communication behavior by the robot 12 corresponding to the robot name is registered. Specifically, the name (for example, Taro Yamada), the language used (for example, Japanese), and the current position (the position coordinates in the world coordinate system) are registered in association with the identification information (dialogue partner ID) of the conversation partner. The In addition, when the robot 12 corresponding to the robot name is not interacting with a human, “NULL” indicating that there is no target for communication behavior is registered.

中央制御装置14は、ロボット12または操作端末16との通信によって、当該ロボット12または当該操作端末16の状態を示す情報などを一定時間毎に取得して、ロボット情報テーブルを作成および更新する。   The central control device 14 obtains information indicating the state of the robot 12 or the operation terminal 16 at regular intervals through communication with the robot 12 or the operation terminal 16, and creates and updates the robot information table.

オペレータ端末情報DB138には、各オペレータにおける現在の状態やスキルなどが記憶される。図5(B)に示すように、オペレータ端末情報テーブルには、オペレータIDに対応して、名前、状態、所在地および言語などの情報が記憶される。オペレータIDの欄には、操作端末16またはこの操作端末16を操作するオペレータを識別するための識別情報が登録される。この実施例では、オペレータIDは数値で表される。名前の欄には、オペレータIDに対応して操作端末16を操作するオペレータの名前が登録される。状態の欄には、オペレータIDに対応して操作端末16の現在の状態が登録される。具体的には「IDLE」および「BUSY−R1」などが記載される。「IDLE」は、現在ロボット12を遠隔操作せずに、中央制御装置14からの呼び出し待ちの状態(待機の状態)を意味する。「BUSY」は、ロボット12を遠隔操作している状態を意味し、たとえば、「BUSY−R1」と記載されている場合には、ロボット名「R1」のロボット12を遠隔操作している状態であることが分かる。所在地の欄には、オペレータIDに対応して操作端末16が設置されている場所(都道府県または地域など)が登録される。言語の欄には、オペレータIDに対応する操作端末16を操作するオペレータが話すことのできる言語(日本語、英語など)が登録される。   The operator terminal information DB 138 stores the current state and skills of each operator. As shown in FIG. 5B, the operator terminal information table stores information such as name, state, location, and language in correspondence with the operator ID. In the operator ID column, identification information for identifying the operation terminal 16 or an operator who operates the operation terminal 16 is registered. In this embodiment, the operator ID is represented by a numerical value. In the name column, the name of the operator who operates the operation terminal 16 corresponding to the operator ID is registered. In the status column, the current status of the operation terminal 16 is registered corresponding to the operator ID. Specifically, “IDLE” and “BUSY-R1” are described. “IDLE” means a state of waiting for a call from the central control device 14 (standby state) without currently remotely operating the robot 12. “BUSY” means a state where the robot 12 is remotely operated. For example, when “BUSY-R1” is described, the robot 12 having the robot name “R1” is remotely operated. I understand that there is. In the location column, the location (prefecture or region) where the operation terminal 16 is installed is registered corresponding to the operator ID. In the language column, languages (Japanese, English, etc.) that the operator who operates the operation terminal 16 corresponding to the operator ID can speak are registered.

中央制御装置14は、ロボット12または操作端末16との通信によって、当該ロボット12または当該操作端末16の状態を示す情報などを一定時間毎に取得して、オペレータ端末情報テーブルを作成および更新する。   The central control device 14 acquires information indicating the state of the robot 12 or the operation terminal 16 at regular intervals through communication with the robot 12 or the operation terminal 16, and creates and updates an operator terminal information table.

なお、ロボット情報テーブルには、当該ロボット12のアドレス(IPアドレス)も登録されてもよい。また、図示は省略するが、操作端末16をオペレータが操作していない場合(オフラインの場合)は、「NULL」(すなわち、遠隔操作不能な状態)と登録されてもよい。   In the robot information table, the address (IP address) of the robot 12 may also be registered. Although illustration is omitted, when the operator does not operate the operation terminal 16 (in the case of being offline), “NULL” (that is, a state in which remote operation is not possible) may be registered.

対話相手情報DB140には、ロボット12がコミュニケーション行動を行う対話相手の情報を示すテーブルが記憶される。図6(A)に示すように、対話相手情報テーブルには、対話相手IDに基づいて、名前、言語および文化などの情報が記憶される。対話相手IDの欄には、ロボット12がコミュニケーション行動を行う対話相手(人間)を識別するための識別情報が記憶される。また、対話相手IDは、オペレータIDと同様に、数値で表される。名前の欄には、対話相手IDで識別される人間の名前が登録される。言語の欄には、対話相手IDで識別される人間が話すことができる言語が登録される。文化の欄には、対話相手IDで識別される人間の文化として、当該人間の出身国の国名が記憶される。たとえば、文化の欄には、Japan,France,USAおよびCanadaなどが記憶される。つまり、Japanは、当該対話相手が日本の出身であることを示す。Franceは、当該対話相手がフランスの出身であることを示す。USAは、当該対話相手がアメリカ合衆国の出身であることを示す。Canadaは、当該対話相手がカナダの出身であることを示す。   The dialogue partner information DB 140 stores a table indicating information of a dialogue partner with whom the robot 12 performs communication behavior. As shown in FIG. 6A, information such as name, language, and culture is stored in the dialogue partner information table based on the dialogue partner ID. In the dialog partner ID column, identification information for identifying a dialog partner (human) with which the robot 12 performs communication behavior is stored. Further, the conversation partner ID is represented by a numerical value, like the operator ID. In the name column, a human name identified by the conversation partner ID is registered. In the language column, a language that can be spoken by a person identified by the conversation partner ID is registered. In the culture column, the country name of the person's country of origin is stored as the person's culture identified by the conversation partner ID. For example, Japan, France, USA, Canada, etc. are stored in the culture column. In other words, Japan indicates that the conversation partner is from Japan. France indicates that the conversation partner is from France. USA indicates that the conversation partner is from the United States. Canada indicates that the conversation partner is from Canada.

なお、本実施例では、言語の情報および文化の情報などから構成される情報を「コミュニケーション情報」と呼ぶことにする。   In this embodiment, information composed of language information and culture information is referred to as “communication information”.

言語・文化DB142には、言語と文化との対応関係を示すテーブルが記憶される。図6(B)に示すように、言語・文化テーブルには、言語および文化の情報が記憶される。ここで、文化の欄には、言語の欄に記憶される言語に対応する文化が記憶される。たとえば、言語の欄に日本語が記憶されれば、文化の欄には日本の文化を示すJapanが記憶される。また、言語の欄に英語が記憶されれば、文化の欄にはアメリカ合衆国を示すUSAが記憶される。さらに、言語の欄に中国語が記憶されれば、文化の欄には中国の文化を示すChinaが記憶される。そして、言語の欄にフランス語が記憶されれば、文化の欄にはフランスの文化を示すFranceが記憶される。なお、言語の欄にはロボット12が発話可能な言語が記憶される。   The language / culture DB 142 stores a table indicating the correspondence between languages and cultures. As shown in FIG. 6B, language and culture information is stored in the language / culture table. Here, the culture column stores a culture corresponding to the language stored in the language column. For example, if Japanese is stored in the language column, Japan indicating Japanese culture is stored in the culture column. If English is stored in the language column, USA indicating the United States is stored in the culture column. Further, if Chinese is stored in the language column, China indicating Chinese culture is stored in the culture column. If French is stored in the language column, France indicating French culture is stored in the culture column. In the language column, languages that can be spoken by the robot 12 are stored.

動作決定DB144には、操作端末16から動作コマンドが送信されたときに、対話相手の文化に応じて、当該動作コマンドに対応する動作ファイルを決定するためのテーブルが記憶される。本実施例では、図7に示すように、動作ファイル名に対応して、動作および文化が記憶される。動作の欄には、動作ファイル名に対応して、ロボット12が実行する動作コマンドが記憶される。たとえば、動作の欄には、「手招き」の動作や「お辞儀」の動作コマンドが記憶される。文化の欄には、動作ファイル名に対応して、文化が記憶される。たとえば、文化の欄には、「USA」(アメリカ合衆国内)の文化や「Japan」(日本)の文化が記憶される。   The action determination DB 144 stores a table for determining an action file corresponding to the action command according to the culture of the conversation partner when the action command is transmitted from the operation terminal 16. In this embodiment, as shown in FIG. 7, the operation and culture are stored in correspondence with the operation file name. In the operation column, an operation command executed by the robot 12 is stored corresponding to the operation file name. For example, in the operation column, an “invitation” operation or an operation command of “bow” is stored. In the culture column, the culture is stored corresponding to the operation file name. For example, the culture column stores “USA” (in the United States) and “Japan” (Japan).

動作ファイルの欄には、ロボット12に送信する動作コマンドの具体的なファイル名が記憶される。たとえば、「MOVE_temaneki_japan.txt」は、日本人が行う手招きの動作と同じ動作をロボット12が実行するファイルである。また、「MOVE_temaneki_usa.txt」は、アメリカ人が行う手招きの動作と同じ動作をロボット12が実行するファイルである。   A specific file name of an operation command transmitted to the robot 12 is stored in the operation file column. For example, “MOVE_temaneki_japan.txt” is a file in which the robot 12 performs the same operation as the beckoning operation performed by the Japanese. “MOVE_temaneki_usa.txt” is a file in which the robot 12 performs the same operation as the beckoning operation performed by an American.

さらに、「MOVE_ojigi_japan.txt」は、日本人が行うお辞儀の動作と同じ動作をロボット12が実行するファイルである。また、「MOVE_ojigi_usa.txt」は、アメリカ人が行うお辞儀の動作と同じ動作をロボット12が実行するファイルである。   Further, “MOVE_ojigi_japan.txt” is a file in which the robot 12 performs the same operation as the bowing operation performed by the Japanese. “MOVE_ojigi_usa.txt” is a file in which the robot 12 performs the same operation as the bowing operation performed by an American.

このように、中央制御装置14からロボット12に送信される動作コマンドが異なるのは、「手招き」の動作であっても、対話相手の文化によって、それぞれ身振り手振りが異なる場合があるからである。たとえば、日本人が手招きをする場合には、掌が下向きで手招きをするが、アメリカ人が手招きをする場合には、掌を上向きで手招きする。また、日本人が挨拶をする場合には、お辞儀をするが、外国においては、抱きついたり、握手したり、キスをしたりする。   The reason why the operation commands transmitted from the central control device 14 to the robot 12 are different is that gesture gestures may differ depending on the culture of the conversation partner even in the case of the “invitation” operation. For example, when a Japanese beckones, the palm invites the palm downward, but when an American invites, the palm invites the palm upward. When Japanese greets, they bow, but in other countries they hug, shake hands, and kiss.

また、ロボット12は、中央制御装置14から動作コマンドを示す動作ファイルを受信すると、メモリ84に記憶される、図示しないライブラリィを参照して、動作ファイルと対応する動作を実行する。このライブラリィには、ロボット12が受信する動作ファイル名に対応して、モータ制御ボード86を制御するための命令文(機械語など)が記録されている。   Further, when the robot 12 receives an operation file indicating an operation command from the central control device 14, the robot 12 refers to a library (not shown) stored in the memory 84 and executes an operation corresponding to the operation file. In this library, a command statement (machine language or the like) for controlling the motor control board 86 is recorded corresponding to the operation file name received by the robot 12.

たとえば、ロボット12が動作コマンドとして「MOVE_temaneki_usa.txt」の動作ファイルを受信すると、ロボット12のCPU80は、ライブラリィを参照して、「MOVE_temaneki_usa.txt」に対応する命令文に従ってモータ制御ボード86を制御し、ロボット12の右腕モータ96を動作させる。   For example, when the robot 12 receives an operation file of “MOVE_temaneki_usa.txt” as an operation command, the CPU 80 of the robot 12 refers to the library and controls the motor control board 86 according to a command statement corresponding to “MOVE_temaneki_usa.txt”. Then, the right arm motor 96 of the robot 12 is operated.

なお、動作ファイル名では、アメリカ合衆国の文化と日本の文化とが識別されるようにしてあるが、ロボット12は受信した動作ファイル名から文化の違いを識別する必要はない。   Note that the motion file name identifies the culture of the United States and the culture of Japan, but the robot 12 does not need to identify the culture difference from the received motion file name.

ただし、操作端末16は、動作コマンドだけでなく、動作コマンドと発話コマンドとを含む制御コマンドを中央制御装置14に送信する。先述したとおり、動作コマンドは、「MOVE_…」で始まる動作ファイル名である。また、発話コマンドは、「SAY_…」で始まる発話ファイル名である。たとえば、日本語で「こんにちは」とロボット12に発話させるための発話コマンドの発話ファイル名は、「SAY_jpn_こんにちは.txt」となる。また、「いい天気ですね」とロボット12に発話させるための発話コマンドの発話ファイル名は、「SAY_jpn_いい天気ですね.txt」となる。さらに、「こっちにおいでよ」とロボット12に発話させるための発話コマンドの発話ファイル名は、「SAY_jpn_こっちにおいでよ.txt」となる。そして、「一緒に遊ぼうよ」とロボット12に発話させるための発話コマンドの発話ファイル名は、「SAY_jpn_一緒に遊ぼうよ.txt」となる。   However, the operation terminal 16 transmits not only the operation command but also a control command including the operation command and the speech command to the central control device 14. As described above, the operation command is an operation file name starting with “MOVE_...”. The utterance command is an utterance file name that starts with “SAY_...”. For example, the speech file name of the speech command to the speech to the robot 12 and the "Hello" in Japanese is "SAY_jpn_ Hello .txt". Also, the utterance command name of the utterance command for causing the robot 12 to utter “good weather” is “SAY_jpn_good weather. Txt”. Furthermore, the utterance command name of the utterance command for causing the robot 12 to utter “Come here” is “SAY_jpn_Come here.txt”. Then, the utterance command name of the utterance command for causing the robot 12 to utter “Let's play together” is “SAY_jpn_Let's play together. Txt”.

図4に戻って、翻訳辞書DB146は、中央制御装置14で、音声データや文字列データなどを翻訳するときに、参照されるDBである。図示は省略するが、この翻訳辞書DB146は、日本語の翻訳辞書、英語の翻訳辞書、中国語の翻訳辞書およびフランス語の翻訳辞書などから構成される。   Returning to FIG. 4, the translation dictionary DB 146 is a DB that is referred to when the central controller 14 translates speech data, character string data, and the like. Although illustration is omitted, the translation dictionary DB 146 includes a Japanese translation dictionary, an English translation dictionary, a Chinese translation dictionary, a French translation dictionary, and the like.

中央制御装置14は、ネットワーク100に有線または無線で接続されている。つまり、ロボット12と同様にして、CPU130は、バス132を介して通信LANボード148に接続される。通信LANボード148は、たとえばDSPで構成され、CPU130から与えられた送信データを無線通信装置150に与え、無線通信装置150は送信データを、ネットワーク100を介して外部コンピュータ(ロボット12および操作端末16)に送信する。   The central control device 14 is connected to the network 100 by wire or wirelessly. That is, similar to the robot 12, the CPU 130 is connected to the communication LAN board 148 via the bus 132. The communication LAN board 148 is configured by, for example, a DSP, and provides transmission data given from the CPU 130 to the wireless communication device 150. The wireless communication device 150 sends the transmission data to an external computer (the robot 12 and the operation terminal 16 via the network 100). ).

また、通信LANボード148は、無線通信装置150を介してデータを受信し、受信したデータをCPU130に与える。たとえば、送信データとしては、中央制御装置14から操作端末16への遠隔操作要求の信号であったり、ロボット12から送信された音声データなどであったりする。受信データとしては、操作端末16から送信されたロボット12への制御コマンドなどであったりする。   The communication LAN board 148 also receives data via the wireless communication device 150 and provides the received data to the CPU 130. For example, the transmission data may be a remote operation request signal from the central control device 14 to the operation terminal 16 or voice data transmitted from the robot 12. The received data may be a control command to the robot 12 transmitted from the operation terminal 16 or the like.

なお、中央制御装置14のメモリ134ないし図示しないDBには、ロボット12が配置される場所等の地図(マップ)データが記憶され、マップデータをXY座標で表し、これによって、ロボット12の位置を座標で表している。ただし、ロボット12は移動するため、その移動制御量をロボット12から得たり、別途環境センサ(カメラ、赤外線センサなど)を用いてロボット12の位置を監視したりするようにしてもよい。   The memory 134 or the DB (not shown) of the central control device 14 stores map (map) data such as a place where the robot 12 is arranged, and the map data is represented by XY coordinates. Expressed in coordinates. However, since the robot 12 moves, the amount of movement control may be obtained from the robot 12, or the position of the robot 12 may be monitored using a separate environmental sensor (camera, infrared sensor, etc.).

図1に示した操作端末16は、オペレータによってロボット12を遠隔操作するためのコンピュータであり、汎用のコンピュータを用いることができる。図8に示すように、操作端末16は、CPU160を含む、CPU160には、LCDドライバ162、メモリ164、スピーカ166、マイク168、入力装置、170および通信LANボード172が接続される。また、LCDドライバ162にはLCD176が接続される。   The operation terminal 16 shown in FIG. 1 is a computer for remotely operating the robot 12 by an operator, and a general-purpose computer can be used. As shown in FIG. 8, the operation terminal 16 includes a CPU 160, to which an LCD driver 162, a memory 164, a speaker 166, a microphone 168, an input device, 170 and a communication LAN board 172 are connected. An LCD 176 is connected to the LCD driver 162.

LCDドライバ162は、LCD176の駆動装置であり、CPU160からの指示に従って、LCD176に画像を表示する。この実施例では、LCD176は、主として、後述するような遠隔操作画面210(図9参照)を表示するために用いられる。メモリ164は、図示は省略をするが、ROM,HDDおよびRAMを含む。ROMおよびHDDには、操作端末16の動作を制御するための制御プログラムが記憶される。制御プログラムは、たとえば、ロボット12および中央制御装置14との間で必要なデータやコマンドを送受信するための通信プログラム、入力装置から入力された操作コマンドを検出する検出プログラムおよび表示装置に画像などを表示するための表示プログラムなどを含む。また、メモリ164のRAMは、ワークメモリやバッファメモリとして用いられる。   The LCD driver 162 is a driving device for the LCD 176 and displays an image on the LCD 176 in accordance with an instruction from the CPU 160. In this embodiment, the LCD 176 is mainly used to display a remote operation screen 210 (see FIG. 9) as will be described later. Although not shown, the memory 164 includes a ROM, an HDD, and a RAM. In the ROM and the HDD, a control program for controlling the operation of the operation terminal 16 is stored. The control program includes, for example, a communication program for transmitting and receiving necessary data and commands between the robot 12 and the central control device 14, a detection program for detecting an operation command input from the input device, and an image on the display device. Includes a display program for display. The RAM of the memory 164 is used as a work memory or a buffer memory.

スピーカ166は、中央制御装置14から送信された音声データをオペレータに対して出力するために用いられる。マイク168は、オペレータの音声を取り込むために用いられる。つまり、スピーカ166は、主として遠隔操作するロボット12のマイク66を通して検出された人間の音声を出力する。さらに、マイク168は、主として、オペレータの音声を検出し、オペレータの音声はロボット12のスピーカ64を通じて出力される。   The speaker 166 is used for outputting voice data transmitted from the central control device 14 to the operator. The microphone 168 is used to capture the operator's voice. That is, the speaker 166 outputs the human voice detected mainly through the microphone 66 of the robot 12 that is remotely operated. Furthermore, the microphone 168 mainly detects the operator's voice, and the operator's voice is output through the speaker 64 of the robot 12.

入力装置170は、コンピュータマウス、キーボードおよびタッチパネルなどである。たとえば、オペレータは、LCD176に表示された遠隔操作画面210を見て入力装置を操作することによって、ロボット12を遠隔操作するための遠隔操作コマンドを入力することができる。   The input device 170 is a computer mouse, a keyboard, a touch panel, or the like. For example, the operator can input a remote operation command for remotely operating the robot 12 by operating the input device while viewing the remote operation screen 210 displayed on the LCD 176.

通信LANボード172は、たとえばDSPで構成され、CPU130から与えられた送信データを無線通信装置174に与え、無線通信装置174は送信データを、ネットワーク100を介して外部コンピュータ(ロボット12および中央制御装置14)に送信する。   The communication LAN board 172 is constituted by, for example, a DSP, and provides transmission data given from the CPU 130 to the wireless communication device 174. The wireless communication device 174 sends the transmission data to an external computer (the robot 12 and the central control device via the network 100). 14).

また、通信LANボード172は、無線通信装置174を介してデータを受信し、受信したデータをCPU160に与える。たとえば、送信データとしては、ロボット12を遠隔操作するための制御コマンドなどであったりする。受信データとしては、中央制御装置14から送信された遠隔操作要求の信号であったり、音声データなどであったりする。   In addition, the communication LAN board 172 receives data via the wireless communication device 174 and gives the received data to the CPU 160. For example, the transmission data may be a control command for remotely operating the robot 12. The received data may be a remote operation request signal transmitted from the central controller 14 or voice data.

図9を参照して、この遠隔操作画面210には、たとえば、ロボットカメラ画像212、ロボット情報214および操作パネル216が表示される。ロボットカメラ画像212には、ロボット12から受信した眼カメラ70の撮影画像が表示される。これによって、オペレータは、ロボット12の眼カメラ70が捕らえている画像、たとえば、対話している人間をリアルタイムで見ることができる。   Referring to FIG. 9, on this remote operation screen 210, for example, a robot camera image 212, robot information 214, and an operation panel 216 are displayed. In the robot camera image 212, a captured image of the eye camera 70 received from the robot 12 is displayed. Thus, the operator can see an image captured by the eye camera 70 of the robot 12, for example, a human being interacting in real time.

ロボット情報214には、当該ロボット12の情報、状況および対話相手の情報などが表示される。具体的には、当該ロボット12の配置された場所(或る会社の受付やイベント会場など)、名前(もしくは識別情報)、配置された場所の地図および対話している人間の情報が表示される。地図には、ロボット12および対話相手を示すアイコンが各存在位置に対応して表示される。これによって、ロボット12が配置場所のどこに存在しているのか、対話相手がロボット12に対してどこに存在しているのかなどを、オペレータは容易に把握することができる。   In the robot information 214, information on the robot 12, the situation, information on the conversation partner, and the like are displayed. Specifically, the location where the robot 12 is placed (such as a reception of a certain company or an event venue), the name (or identification information), a map of the placed location, and information of the person who is interacting are displayed. . On the map, icons indicating the robot 12 and the conversation partner are displayed corresponding to each location. Thus, the operator can easily grasp where the robot 12 is located and where the conversation partner is with respect to the robot 12.

なお、操作端末16は、地図情報を予め記憶しておいてもよいし、中央制御装置14から当該ロボット12に関する情報とともに受信するようにしてもよい。また、ロボット12および対話相手の位置は、たとえばロボット12から一定時間ごとに操作端末16に送信される。ロボット12は、初期の配置位置および向きを記憶しているので、自分の現在の位置および向きを常に把握し、赤外線距離センサ40の出力情報と自分の位置などから対話相手のおよその位置を推定できる。また、地図には、その場所に存在する対話相手以外の人間を示すアイコンも表示されてよい。この場合には、オペレータはその場所におけるロボット12の状況をさらに詳細に知ることができる。   The operation terminal 16 may store map information in advance or may receive the map information together with information related to the robot 12 from the central control device 14. The positions of the robot 12 and the conversation partner are transmitted from the robot 12 to the operation terminal 16 at regular intervals, for example. Since the robot 12 stores the initial position and orientation, the robot 12 always knows its current position and orientation, and estimates the approximate position of the conversation partner from the output information of the infrared distance sensor 40 and its own position. it can. In addition, an icon indicating a person other than the conversation partner existing at the place may be displayed on the map. In this case, the operator can know the situation of the robot 12 at the location in more detail.

また、ロボット12の配置場所における人間の位置情報は、周囲に設置された天井カメラまたは無線タグ読取装置116などのような環境のセンサを用いて、当該環境のセンサと接続された他のコンピュータで検出してよく、当該他のコンピュータからロボット12に与え、ロボット12から操作端末16に送信されてもよい。または、当該位置情報は上述の他のコンピュータから中央制御装置14を経由して、操作端末16に送信されてもよい。また、環境のセンサによってロボット12の位置なども検出可能であるので、ロボット12は、自分の位置および向きなどの情報も、人間の位置情報などとともに上述の他のコンピュータから取得してもよい。   In addition, the position information of the person at the place where the robot 12 is arranged is obtained by using an environmental sensor such as a ceiling camera or a wireless tag reader 116 installed in the surrounding area by another computer connected to the environmental sensor. It may be detected, given to the robot 12 from the other computer, and transmitted from the robot 12 to the operation terminal 16. Alternatively, the position information may be transmitted from the other computer described above to the operation terminal 16 via the central control device 14. In addition, since the position of the robot 12 and the like can be detected by the environmental sensor, the robot 12 may acquire information such as its own position and orientation from the above-mentioned other computer together with the human position information.

また、対話している人間の情報としては、名前および状態(たとえば、VIPや来客)などが表示される。これによって、オペレータは、ロボット12の対話相手の情報を知ることができる。対話相手の情報は、中央制御装置14から操作端末16に送信される。なお、これらオペレータに提示される情報は一例であり、ロボット情報214には適宜適切な情報が表示される。このようなロボット情報214によって、オペレータは、ロボット12および対話相手の情報ならびに両者の置かれている状況などを容易に把握することができる。   Further, as the information of the person who is interacting, the name and state (for example, VIP or visitor) are displayed. As a result, the operator can know information on the conversation partner of the robot 12. Information on the conversation partner is transmitted from the central controller 14 to the operation terminal 16. Note that the information presented to these operators is an example, and appropriate information is appropriately displayed in the robot information 214. With such robot information 214, the operator can easily grasp the information of the robot 12 and the conversation partner and the situation where both are placed.

さらに、ロボット12と対話相手とがコミュニケーションを行っている場合には、ロボット12から音声情報が送信されて、操作端末16のスピーカ166から当該音声が出力される。したがって、オペレータは、対話相手の言葉を聞くことによって、現在の状況をより容易に把握することができる。   Further, when the robot 12 and the communication partner communicate with each other, voice information is transmitted from the robot 12 and the voice is output from the speaker 166 of the operation terminal 16. Therefore, the operator can more easily grasp the current situation by listening to the conversation partner's words.

そして、対話相手の質問は、ロボット12のマイク66によって取得され、ネットワーク100および中央制御装置14を介してスピーカ166から出力される。オペレータは、対話相手がした質問を聞くと、操作パネル216に対応するコミュニケーション行動や、オペレータ自身の音声などで対話相手の質問に答えることで対応する。つまり、オペレータは、遠隔操作画面210でロボット12の状況を確認しながら、対話相手からの質問の内容を容易に判断することができ、質問に対する回答をロボット12を介して、対話相手に答えることができる。   The question of the conversation partner is acquired by the microphone 66 of the robot 12 and is output from the speaker 166 via the network 100 and the central control device 14. When the operator hears the question asked by the conversation partner, the operator responds by answering the question of the conversation partner with the communication behavior corresponding to the operation panel 216 or the operator's own voice. In other words, the operator can easily determine the content of the question from the conversation partner while confirming the status of the robot 12 on the remote operation screen 210, and answer the question to the conversation partner via the robot 12. Can do.

操作パネル216では、オペレータが入力装置を操作することにより、ロボット12の動作を制御するコマンドが入力される。たとえば、図9に示すように、操作パネル216には、移動を指示するためのボタン、動作を指示するためのボタンおよび遠隔操作の終了を指示するためのボタンなどが設けられる。具体的には、「前進」ボタンは、ロボット12を前進させるためのボタンである。オペレータが、「前進」ボタンを選択すると、ロボット12は、たとえば、一定距離だけ前進する。同様に、「後退」ボタンはロボット12を後退させ、「右」ボタンはロボット12を右旋回させ、「左」ボタンはロボット12を左旋回させる。また、「遊ぼう」ボタンは、ロボット12に「遊ぼう」の制御コマンドを送信し、対話相手を遊びに誘うコミュニケーション行動を実行させるためのボタンである。具体的に、遊びに誘うコミュニケーション行動は、ロボット12が「こっちにおいでよ」と発話し、手招きの動作を行った後に、「一緒に遊ぼうよ」と発話する。   On the operation panel 216, a command for controlling the operation of the robot 12 is input by the operator operating the input device. For example, as shown in FIG. 9, the operation panel 216 is provided with a button for instructing movement, a button for instructing an operation, a button for instructing the end of remote operation, and the like. Specifically, the “forward” button is a button for moving the robot 12 forward. When the operator selects the “forward” button, the robot 12 moves forward, for example, by a certain distance. Similarly, the “reverse” button causes the robot 12 to retract, the “right” button causes the robot 12 to turn right, and the “left” button causes the robot 12 to turn left. The “Let's play” button is a button for transmitting a control command “Let's play” to the robot 12 and executing a communication action that invites the conversation partner to play. Specifically, in the communication action to invite to play, the robot 12 speaks “Please come over here”, performs a beckoning operation, and then speaks “Let's play together”.

「挨拶」のボタンは、ロボットに「挨拶」の制御コマンドを送信し、対話相手に挨拶をするコミュニケーション行動を行わせるためのボタンである。具体的に、挨拶をするコミュニケーション行動は、ロボット12が「こんにちは」と発話し、お辞儀の動作を行った後に、「いい天気ですね」と発話する。なお、手招きおよびお辞儀の動作は、先述したとおり、対話相手の文化によって実行する動作ファイル異なる。また、「挨拶」のボタンは、ロット12が「おはよう」と発話する「挨拶(朝)」のボタンと、ロボット12が「こんばんは」と発話する「挨拶(夕)」のボタンとを備えるようにしてもよい。   The “greeting” button is a button for transmitting a “greeting” control command to the robot and causing a communication action to greet the conversation partner. Specifically, the communication behavior to the greeting, speaks robot 12 as "Hello", after performing the operation of the bow, speaks "It is nice weather". As described above, the beckoning and bowing operations are different depending on the culture of the conversation partner. In addition, the “greeting” button includes a “greeting (morning)” button where the lot 12 speaks “good morning” and a “greeting (evening)” button where the robot 12 speaks “good evening”. May be.

「右指差し」のボタンは、ロボット12に右指差しという動作を実行させためのボタンである。具体的には、オペレータが「右指差し」のボタンを選択すると、ロボット12は、右肩関節48Rおよび右肘関節52Rを制御して腕を前方に上げる。同様にして、操作パネル216に表示された他のボタンをオペレータが選択することにより、ロボット12に、うなずき、左指差しなどの動作を実行させることができる。また、「終了」ボタンは、遠隔操作によるコミュニケーション行動を終了させるためのボタンである。オペレータが「終了」ボタンを選択すると、ロボット12は遠隔操作モードから自律制御モードに移行する。   The “right pointing” button is a button for causing the robot 12 to perform an operation of pointing to the right. Specifically, when the operator selects the “right finger” button, the robot 12 controls the right shoulder joint 48R and the right elbow joint 52R to raise the arm forward. Similarly, when the operator selects another button displayed on the operation panel 216, the robot 12 can perform operations such as nodding and pointing to the left. The “end” button is a button for ending the communication action by remote operation. When the operator selects the “end” button, the robot 12 shifts from the remote operation mode to the autonomous control mode.

ここで、制御コマンドについて説明する。制御コマンドは、動作コマンドおよび発話コマンドの少なくとも一方から構成される。たとえば、「挨拶」の制御コマンドは、発話コマンド「こんにちは」、動作コマンド「お辞儀」および発話コマンド「いい天気ですね」の順番で実行されるように、3つのコマンドから構成される。また、「遊ぼう」の制御コマンドは、発話コマンド「こっちにおいでよ」、動作コマンド「手招き」および発話コマンド「一緒に遊ぼうよ」の順番で実行されるように、3つのコマンドから構成される。さらに、制御コマンドに含まれる発話コマンドは、オペレータが入力した音声と置き換えて、制御コマンドとすることができる。たとえば、「挨拶」の制御コマンドにおいて、オペレータがマイク168に「何か御用はありますか」と音声を入力し、発話コマンド「いい天気ですね」と置き換えると、「挨拶」の制御コマンドは、発話コマンド「こんにちは」、動作コマンド「お辞儀」および発話コマンド「何か御用はありますか」の順番で実行されるように、3つのコマンドから構成されるようになる。   Here, the control command will be described. The control command is composed of at least one of an operation command and an utterance command. For example, the control command of "greeting" is spoken command "Hello", so as to be executed in the order of the operation command "bow" and the spoken command "It is nice weather", consists of three commands. In addition, the control command of “Let's play” is composed of three commands so as to be executed in the order of the utterance command “Come here”, the operation command “Invite” and the utterance command “Let's play together”. . Furthermore, the utterance command included in the control command can be replaced with the voice input by the operator to be a control command. For example, in the control command for “greeting”, if the operator inputs a voice to the microphone 168 “Is there anything you want to do?” And replaces it with the speech command “good weather”, the control command for “greeting” command "Hello" so as to be executed in the order of the operation command "bow" and the spoken command "Do you have any patronage", will be composed of three commands.

ロボット12は、自律制御だけでは対応することが難しい事態や人間によってより細やかな対応(コミュニケーション等)が必要な事態になると、オペレータを呼び出す。具体的には、ロボット12は、オペレータの呼出要求(遠隔操作の依頼)を、ネットワーク100を介して中央制御装置14に送信する。中央制御装置14は、ロボット12からの呼出要求を受けて、対応(遠隔操作)可能なオペレータが操作する操作端末16を選択する。そして、中央制御装置14は、選択された操作端末16に、ロボット12の通信情報(IPアドレス)を通知する。すると、操作端末16のオペレータの操作により、ロボット12と操作端末16とがネットワーク100および中央制御装置14を介して通信可能に接続される。つまり、中央制御装置14は、ロボット12と操作端末16とを仲介する。その後、オペレータが操作端末16を用いてロボット12を遠隔操作する。たとえば、オペレータが操作端末16を用いて入力および送信した制御コマンドは、中央制御装置14で中継され、ロボット12に受信される。そして、ロボット12は、その受信した制御コマンドに従って動作(コミュニケーション行動)を実行する。   The robot 12 calls an operator in situations where it is difficult to respond by autonomous control alone or when a more detailed response (communication or the like) is required by a human. Specifically, the robot 12 transmits an operator call request (remote operation request) to the central control device 14 via the network 100. In response to the call request from the robot 12, the central control device 14 selects the operation terminal 16 operated by an operator who can respond (remote operation). The central control device 14 notifies the selected operation terminal 16 of the communication information (IP address) of the robot 12. Then, the robot 12 and the operation terminal 16 are communicably connected via the network 100 and the central control device 14 by the operation of the operator of the operation terminal 16. That is, the central controller 14 mediates between the robot 12 and the operation terminal 16. Thereafter, the operator remotely operates the robot 12 using the operation terminal 16. For example, a control command input and transmitted by the operator using the operation terminal 16 is relayed by the central controller 14 and received by the robot 12. Then, the robot 12 performs an operation (communication behavior) according to the received control command.

ここで、ロボット12には、図示は省略するが、オペレータを呼び出すための条件(オペレータ呼出条件)が予めメモリ84に記憶されている。ロボット12は、オペレータ呼出条件を満足すると判定した場合に、オペレータを呼び出す。つまり、ロボット12は、中央制御装置14にオペレータの呼出要求を送信する。   Here, although not shown in the figure, the robot 12 stores in advance a condition for calling an operator (operator calling condition) in the memory 84. When it is determined that the operator calling condition is satisfied, the robot 12 calls the operator. That is, the robot 12 transmits an operator call request to the central controller 14.

中央制御装置14は、オペレータの呼出要求を受信すると、対話相手が同定できていれば、対話相手情報テーブルを参照して、対話相手IDに対応して、対話相手のコミュニケーション情報を特定する。一方、対話相手が同定できていなければ、対話相手の音声から対話相手の言語を特定し、言語・文化テーブル(図6(B)参照)を参照して、特定された対話相手の言語から、言語の欄に対応する文化を特定する。また、中央制御装置14は、オペレータ端末情報テーブルを参照して、IDLE状態のオペレータを選択し、IDLE状態のオペレータIDに対応して、オペレータの言語を特定する。   When receiving a call request from the operator, the central control unit 14 refers to the dialog partner information table and identifies communication information of the dialog partner in correspondence with the dialog partner ID if the dialog partner is identified. On the other hand, if the conversation partner has not been identified, the language of the conversation partner is identified from the voice of the conversation partner, and the language / culture table (see FIG. 6B) is referred to. Identify the culture corresponding to the language column. Further, the central control device 14 refers to the operator terminal information table, selects an operator in the IDLE state, and specifies the language of the operator corresponding to the operator ID in the IDLE state.

そして、対話相手とオペレータとの言語が異なる場合に、ロボット12から操作端末16に対して対話相手の音声が送信されると、中央制御装置14は、翻訳処理を実行することで、対話相手の音声をオペレータの言語に翻訳し、選択されたオペレータが使用する操作端末16に送信する。また、選択されたオペレータが使用する操作端末16からロボット12に対して制御コマンドが送信されると、中央制御装置14は、発話コマンドを翻訳処理によって対話相手の言語に翻訳し、動作コマンドは対話相手に対応する文化の動作に変換して、ロボット12に送信する。   When the conversation partner and the operator have different languages, when the conversation partner's voice is transmitted from the robot 12 to the operation terminal 16, the central control unit 14 executes the translation process, thereby The voice is translated into the language of the operator and transmitted to the operation terminal 16 used by the selected operator. When a control command is transmitted to the robot 12 from the operation terminal 16 used by the selected operator, the central control device 14 translates the utterance command into the language of the conversation partner by translation processing, and the operation command is a dialogue. It is converted into an action of culture corresponding to the other party and transmitted to the robot 12.

また、対話相手とオペレータとの言語が一致する場合には、ロボット12から操作端末16に対して対話相手の音声が送信されると、中央制御装置14は、翻訳処理を実行せずに、受信した音声をそのまま、選択されたオペレータが使用する操作端末16に送信する。そして、選択されたオペレータが使用する操作端末16からロボット12に対して制御コマンドが送信されると、中央制御装置14は、受信した制御コマンドをそのままロボット12に送信する。   When the language of the conversation partner and the operator match, when the voice of the conversation partner is transmitted from the robot 12 to the operation terminal 16, the central controller 14 receives the speech without executing the translation process. The transmitted voice is transmitted as it is to the operation terminal 16 used by the selected operator. When a control command is transmitted to the robot 12 from the operation terminal 16 used by the selected operator, the central control device 14 transmits the received control command to the robot 12 as it is.

これによって、ロボット12は、対話相手の言語および文化に併せてコミュニケーション行動を行うことができる。   Thereby, the robot 12 can perform a communication action in accordance with the language and culture of the conversation partner.

図10は、図4に示した中央制御装置14のメモリ134のメモリマップ300の一例を示す図解図である。図10に示すように、メモリ134は、プログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、通信プログラム310、全体制御プログラム312および翻訳処理プログラム314などが記憶される。ただし、全体制御プログラム312は、オペレータ選択プログラム312aおよび通信内容制御プログラム312bを含む。   FIG. 10 is an illustrative view showing one example of a memory map 300 of the memory 134 of the central controller 14 shown in FIG. As shown in FIG. 10, the memory 134 includes a program storage area 302 and a data storage area 304. The program storage area 302 stores a communication program 310, an overall control program 312, a translation processing program 314, and the like. However, the overall control program 312 includes an operator selection program 312a and a communication content control program 312b.

通信プログラム310は、ロボット12や操作端末16との通信を行うためのプログラムである。全体制御プログラム312は、図5(A),(B)に示したロボット情報テーブルとオペレータ端末情報テーブルとに記憶される情報を一定時間毎に更新し、ロボット12からオペレータの呼び出しに応じてオペレータを選択し、当該ロボット12と選択したオペレータが使用する操作端末16との通信内容を制御するためのプログラムである。ただし、オペレータ選択プログラム312aは、ロボット12からのオペレータの呼び出しに応じて、オペレータを呼び出すプログラムである。通信内容制御プログラム312bは、オペレータを呼び出したロボット12とオペレータが使用する操作端末16との通信が行われる場合に、ロボット12から操作端末16に対する通信および操作端末16からロボット12に対する通信の各々の通信内容を制御するプログラムである。   The communication program 310 is a program for performing communication with the robot 12 and the operation terminal 16. The overall control program 312 updates the information stored in the robot information table and the operator terminal information table shown in FIGS. 5A and 5B at regular intervals, and in response to a call from the robot 12 to the operator, Is a program for controlling the content of communication between the robot 12 and the operation terminal 16 used by the selected operator. However, the operator selection program 312 a is a program that calls an operator in response to an operator call from the robot 12. When the communication between the robot 12 that called the operator and the operation terminal 16 used by the operator is performed, the communication content control program 312b performs communication from the robot 12 to the operation terminal 16 and communication from the operation terminal 16 to the robot 12. It is a program that controls communication contents.

翻訳処理プログラム314は、対話相手の音声を翻訳するときに実行されるプログラムであり、たとえば、日本語から英語に翻訳する翻訳処理が実行される場合に、中央制御装置14のCPU130は、翻訳辞書DB146を参照して日本語と英語との言語情報を読み出し、日本語の文字列を英語の文字列に翻訳する。   The translation processing program 314 is a program that is executed when the speech of the conversation partner is translated. For example, when translation processing that translates from Japanese to English is executed, the CPU 130 of the central controller 14 The language information of Japanese and English is read with reference to the DB 146, and the Japanese character string is translated into the English character string.

また、データ記憶領域304には、対話相手言語データ330、オペレータ言語データ332および文化データ334が記憶されるとともに、翻訳フラグ336などが設けられる。対話相手言語データ330は、対話相手の使用言語を示すデータである。オペレータ言語データ332は、オペレータの使用言語を示すデータである。文化データ334は、ロボット12とコミュニケーション行動を行う対話相手の文化を示す情報である。具体的には、対話相手に対応する文化を特定し、その特定された文化の情報が文化データ334として、データ記憶領域304に記憶される。   The data storage area 304 stores dialogue partner language data 330, operator language data 332, and culture data 334, and is provided with a translation flag 336 and the like. The conversation partner language data 330 is data indicating the language used by the conversation partner. The operator language data 332 is data indicating the language used by the operator. The culture data 334 is information indicating the culture of a conversation partner who performs communication with the robot 12. Specifically, the culture corresponding to the conversation partner is specified, and information on the specified culture is stored in the data storage area 304 as culture data 334.

翻訳フラグ336は、対話相手の使用言語とオペレータの使用言語とが一致するか否かを判断するためのフラグである。たとえば、翻訳フラグ336は、1ビットのレジスタで構成される。翻訳フラグ336が成立(オン)されると、レジスタにはデータ値「1」が設定され、翻訳フラグ336が不成立(オフ)されると、レジスタにはデータ値「0」が設定される。   The translation flag 336 is a flag for determining whether or not the language used by the conversation partner matches the language used by the operator. For example, the translation flag 336 is composed of a 1-bit register. When the translation flag 336 is established (turned on), a data value “1” is set in the register, and when the translation flag 336 is not established (turned off), a data value “0” is set in the register.

具体的には、中央制御装置14のCPU130は、図11−図16に示す処理を含む、複数の処理を並行的に実行する。また、ロボット12のCPU80は、図17および図18に示す処理を含む、複数の処理を並行的に実行する。   Specifically, the CPU 130 of the central control device 14 executes a plurality of processes in parallel, including the processes shown in FIGS. The CPU 80 of the robot 12 executes a plurality of processes in parallel including the processes shown in FIGS. 17 and 18.

図11に示すように、中央制御装置14のCPU130は、全体処理を開始すると、ステップS1で、各操作端末16の状態を取得し、テーブルを更新する。つまり、このステップS1では、ネットワーク100に接続される各操作端末16から、その位置、オペレータの情報および現在の状況などを含む情報を取得し、図5(B)に示したオペレータ端末情報テーブルを更新する。次のステップS3では、各ロボット12の状態を取得し、テーブルを更新する。つまり、このステップS3では、各ロボット12の位置、現在の動作状態および対話相手の情報などを含む情報を取得し、図5(A)に示したロボット情報テーブルを更新する。   As shown in FIG. 11, when starting the overall processing, the CPU 130 of the central control device 14 acquires the state of each operation terminal 16 and updates the table in step S1. That is, in this step S1, information including its position, operator information, current situation, etc. is obtained from each operation terminal 16 connected to the network 100, and the operator terminal information table shown in FIG. Update. In the next step S3, the state of each robot 12 is acquired and the table is updated. That is, in this step S3, information including the position of each robot 12, the current operation state, information on the conversation partner, and the like are acquired, and the robot information table shown in FIG. 5A is updated.

続いて、ステップS5では、ロボット12からの呼び出しがあるか否かを判断する。つまり、或るロボット12からのオペレータの呼び出し要求を受信したか否かを判断する。ステップS5で“NO”であれば、ステップS15に進む。一方、ステップS5で“YES”であれば、つまりロボット12からの呼び出しがあれば、ステップS7で、後述するオペレータ選択処理(図12、図13参照)を行う。次のステップS9では、操作端末16とロボット12との通信が行われたか否かを判断する。たとえば、ロボット12から選択されたオペレータが使用する操作端末16に対して通信が行われるか、当該操作端末16からロボット12に対して通信が行われたか否かを判断する。   Subsequently, in step S5, it is determined whether or not there is a call from the robot 12. That is, it is determined whether an operator call request from a certain robot 12 has been received. If “NO” in the step S5, the process proceeds to a step S15. On the other hand, if “YES” in the step S5, that is, if there is a call from the robot 12, an operator selection process (see FIGS. 12 and 13) described later is performed in a step S7. In the next step S9, it is determined whether or not communication between the operation terminal 16 and the robot 12 has been performed. For example, it is determined whether communication is performed with respect to the operation terminal 16 used by the operator selected from the robot 12 or whether communication is performed with respect to the robot 12 from the operation terminal 16.

ステップS9で“YES”であれば、つまり操作端末16とロボット12との通信が行われれば、ステップS11で、後述する通信内容制御処理(図14参照)を行い、ステップS13に進む。また、ステップS9で“NO”であれば、つまり操作端末16とロボット12との通信が行われていなければ、そのままステップS13に進む。   If “YES” in the step S9, that is, if communication between the operation terminal 16 and the robot 12 is performed, a communication content control process (see FIG. 14) described later is performed in a step S11, and the process proceeds to a step S13. If “NO” in the step S9, that is, if the communication between the operation terminal 16 and the robot 12 is not performed, the process proceeds to a step S13 as it is.

ステップS13では、遠隔操作の終了要求があるか否かを判断する。ステップS13で“NO”であれば、つまり遠隔操作の終了要求が無ければ、ステップS9に戻る。一方、ステップS13で“YES”であれば、つまり遠隔操作の終了要求があれば、ステップS15に進む。   In step S13, it is determined whether there is a remote operation termination request. If “NO” in the step S13, that is, if there is no remote operation end request, the process returns to the step S9. On the other hand, if “YES” in the step S13, that is, if there is a remote operation end request, the process proceeds to a step S15.

ステップS15では、全体処理を終了するか否かを判断する。ここでは、たとえば、ロボット遠隔操作システム10の使用者ないし中央制御装置14の管理者から終了指示が与えられたかどうかを判断する。ステップS15で“YES”であれば、つまり終了指示があれば、そのまま全体処理を終了する。一方、ステップS15で“NO”であれば、つまり終了指示がなければ、ステップS1に戻る。このように、中央制御装置14では、オペレータ操作端末テーブルの更新、ロボット情報テーブルの更新および呼び出し要求の有無の判断が一定時間毎に繰り返し実行される。   In step S15, it is determined whether or not to end the entire process. Here, for example, it is determined whether or not an end instruction is given from the user of the robot remote control system 10 or the administrator of the central controller 14. If “YES” in the step S15, that is, if there is an end instruction, the entire process is ended as it is. On the other hand, if “NO” in the step S15, that is, if there is no end instruction, the process returns to the step S1. As described above, in the central control device 14, the update of the operator operation terminal table, the update of the robot information table, and the determination of the presence / absence of a call request are repeatedly executed at regular intervals.

図12および図13は、図11に示したステップS7のオペレータ選択処理のフロー図である。図12に示すように、中央制御装置14のCPU130は、オペレータ選択処理を開始すると、ステップS31で、変数を初期化する。具体的には、変数jpnおよび変数engのそれぞれに0が設定される。ここで、変数jpnはロボット12が対話している人間の音声から日本語らしさ演算の演算結果を格納し、変数engはロボット12が対話している人間の音声から英語らしさ演算の演算結果を格納するための変数である。なお、日本語らしさ演算と英語らしさ演算とについては、ステップS43、S47で詳しく説明する。   12 and 13 are flowcharts of the operator selection process in step S7 shown in FIG. As shown in FIG. 12, when starting the operator selection process, the CPU 130 of the central controller 14 initializes variables in step S31. Specifically, 0 is set to each of the variable jpn and the variable eng. Here, the variable jpn stores the calculation result of the Japanese-likeness calculation from the voice of the person who is interacting with the robot 12, and the variable eng stores the calculation result of the English-likeness calculation from the voice of the person who is talking with the robot 12. It is a variable to do. The Japanese-likeness calculation and the English-likeness calculation will be described in detail in steps S43 and S47.

続いて、ステップS33では、対話相手の同定ができているか否かを判断する。つまり、ロボット12がコミュニケーションを行う対話相手の名前、年代および性別などの情報が分かるか否かを判断する。上述したように、ロボット12は、対話相手が所持する無線タグ18から送信されるタグIDを受信し、これを中央制御装置14に送信する。中央制御装置14のCPU130は、対話相手情報DB140を参照して、タグIDに対応する、対話相手の名前、年代および性別などの情報を取得する。   Subsequently, in step S33, it is determined whether or not the conversation partner has been identified. That is, it is determined whether or not information such as the name, age, and sex of the conversation partner with whom the robot 12 communicates is known. As described above, the robot 12 receives the tag ID transmitted from the wireless tag 18 possessed by the conversation partner and transmits it to the central controller 14. The CPU 130 of the central control device 14 refers to the conversation partner information DB 140 and acquires information such as the name, age, and sex of the conversation partner corresponding to the tag ID.

ステップS33で“YES”であれば、つまり対話相手の同定ができていれば、ステップS35で、対話相手の使用言語を特定済みか否かを判断する。つまり、対話相手情報DB140を参照して、対話相手情報テーブルに対話相手が話す言語の情報が記憶されているか否かを判断する。ステップS35で“NO”であれば、つまり対話相手の主な使用言語を特定済みでなければ、ステップS39に進む。一方、ステップS35で“YES”であれば、つまり対話相手の主な使用言語を特定済みであれば、ステップS37で対話相手言語データ330を対話相手情報DB140から読み込み、図13に示すステップS57に進む。つまり、このステップS37では、対話相手の同定された対話相手の名前(対話相手ID)に対応する言語の種類のデータを対話相手言語データ330としてメモリ134に記憶する。   If “YES” in the step S33, that is, if the conversation partner is identified, it is determined whether or not the language used by the conversation partner has been specified in a step S35. That is, referring to the conversation partner information DB 140, it is determined whether or not the language information spoken by the conversation partner is stored in the conversation partner information table. If “NO” in the step S35, that is, if the main language of the conversation partner has not been specified, the process proceeds to a step S39. On the other hand, if “YES” in the step S35, that is, if the main language used by the conversation partner has been specified, the conversation partner language data 330 is read from the conversation partner information DB 140 in a step S37, and the process proceeds to a step S57 shown in FIG. move on. That is, in this step S 37, the language type data corresponding to the name of the conversation partner identified as the conversation partner (dialog partner ID) is stored in the memory 134 as the conversation partner language data 330.

また、ステップS33で“NO”であれば、つまり対話相手の同定ができていなければ、ステップS39で、ロボット12に音声入力が有ったか否かを判断する。つまり、中央制御装置14のCPU130は、対話相手の音声がロボット12で検出され、検出された音声に対応する音声信号がロボット12から送信され、その音声信号を受信したか否かを判断する。   If “NO” in the step S33, that is, if the conversation partner is not identified, it is determined whether or not the robot 12 has a voice input in a step S39. That is, the CPU 130 of the central control device 14 determines whether or not the voice of the conversation partner is detected by the robot 12 and a voice signal corresponding to the detected voice is transmitted from the robot 12 and received.

ステップS39で“NO”であれば、つまりロボット12に音声入力が無ければ、ステップS41で、ロボット12に音声の出力を指示して、ステップS39に戻る。ステップS41では、たとえば、「何か御用でしょうか?」などのように、対話相手に発話させるような音声をロボット12から出力させるためのコマンドがロボット12に送信される。このようにして、中央制御装置14のCPU130は、対話相手の質問(要求)を聞き出して、対話相手の言語を特定する。   If “NO” in the step S39, that is, if there is no voice input to the robot 12, the robot 12 is instructed to output a voice in a step S41, and the process returns to the step S39. In step S41, for example, a command for causing the robot 12 to output a voice that causes the conversation partner to speak is sent to the robot 12, such as "What is it for?" In this way, the CPU 130 of the central control device 14 listens to the conversation partner's question (request) and identifies the language of the conversation partner.

一方、ステップS39で“YES”であれば、つまりロボット12に音声入力が有れば、ステップS43で、日本語らしさ演算を行う。ここで、日本語らしさ演算とは、ロボット12の対話相手の言語がどれだけ日本語に近いかの割合を求める演算である。具体的には、中央制御装置14のCPU130は、受信した音声信号を、日本語用辞書を用いてDPマッチング法やHMM(隠れマルコフモデル)法により音声認識し、認識結果とそのスコア(近似度ないし正確さを示す割合)とを得る。次のステップS45では、演算結果を変数jpnに格納する。ここでは、上述のようにして演算した結果のうち、スコアを日本語らしさとして変数jpnに格納する。   On the other hand, if “YES” in the step S39, that is, if there is a voice input to the robot 12, a Japanese-likeness calculation is performed in a step S43. Here, the Japanese-likeness calculation is an operation for obtaining a ratio of how close the language of the conversation partner of the robot 12 is to Japanese. Specifically, the CPU 130 of the central control unit 14 recognizes the received voice signal by the DP matching method or HMM (Hidden Markov Model) method using a Japanese dictionary, and the recognition result and its score (approximation degree). Or a ratio indicating accuracy). In the next step S45, the calculation result is stored in the variable jpn. Here, among the results calculated as described above, the score is stored in the variable jpn as Japanese-likeness.

続くステップS47では、英語らしさ演算を行う。ここでは、中央制御装置14のCPU130は、英語用辞書を用いて、ステップS43と同じように音声認識し、認識結果とそのスコアとを得る。そして、ステップS49で、演算結果(スコア)を英語らしさとして変数engに格納する。   In the subsequent step S47, English-likeness calculation is performed. Here, the CPU 130 of the central controller 14 uses the English dictionary to perform voice recognition in the same manner as in step S43, and obtains a recognition result and its score. In step S49, the calculation result (score) is stored in the variable eng as English-likeness.

次のステップS51では、変数jpnが変数engよりも大きいか否かを判断する。つまり、ここでは、中央制御装置14のCPU130は、ロボット12の対話相手の言語が日本語または英語のどちらに近いのかを判断する。ステップS51で“YES”であれば、つまり変数jpnが変数engよりも大きければ、ロボット12の対話相手の言語が英語よりも日本語に近いと判断し、ステップS53で「日本語」を対話相手言語データ330として記憶し、ステップS57に進む。つまり、対話相手の使用言語が日本語であると特定する。一方、ステップS51で“NO”であれば、つまり変数jpnが変数eng以下であれば、ロボット12の対話相手の言語が日本語よりも英語に近いと判断し、ステップS55で「英語」を言語データ330として記憶して、ステップS57に進む。   In the next step S51, it is determined whether or not the variable jpn is larger than the variable eng. That is, here, the CPU 130 of the central controller 14 determines whether the language of the conversation partner of the robot 12 is close to Japanese or English. If “YES” in the step S51, that is, if the variable jpn is larger than the variable eng, it is determined that the language of the conversation partner of the robot 12 is closer to Japanese than English, and “Japanese” is determined to be the conversation partner in step S53. The language data 330 is stored, and the process proceeds to step S57. That is, it is specified that the language used by the conversation partner is Japanese. On the other hand, if “NO” in the step S51, that is, if the variable jpn is equal to or less than the variable eng, it is determined that the language of the conversation partner of the robot 12 is closer to English than Japanese, and “English” is changed to the language in the step S55. Store as data 330 and proceed to step S57.

図13に示すステップS57では、IDLE状態のオペレータを選択する。つまり、オペレータ端末情報テーブル(図5(B)参照)の状態の欄において、IDLEが記憶されているオペレータを選択する。なお、IDLEが記憶されるオペレータが複数人居る場合は、オペレータIDが最も小さいオペレータが選択されてもよいし、オペレータIDが最も大きいオペレータが選択されてもよいし、任意に選択されてもよい。   In step S57 shown in FIG. 13, an operator in the IDLE state is selected. That is, an operator in which IDLE is stored is selected in the status column of the operator terminal information table (see FIG. 5B). When there are a plurality of operators in which IDLE is stored, the operator with the lowest operator ID may be selected, the operator with the highest operator ID may be selected, or may be arbitrarily selected. .

次のステップS59では、オペレータ言語データ332をオペレータが使う言語の情報に基づいて記憶する。このステップS59では、オペレータ端末情報DB138のオペレータ端末情報テーブルを参照して、選択されたオペレータに対応する言語の欄に記憶される言語の種類のデータをオペレータ言語データ332としてメモリ134に記憶する。   In the next step S59, the operator language data 332 is stored based on the language information used by the operator. In this step S59, referring to the operator terminal information table of the operator terminal information DB 138, the language type data stored in the language column corresponding to the selected operator is stored in the memory 134 as operator language data 332.

なお、オペレータが複数の言語に対応できる場合、つまりオペレータ端末テーブルの言語の欄において、2つ以上の言語が記憶されている場合には、それら全ての言語の種類についてのデータがオペレータ言語データ332としてメモリ134に記憶される。   When the operator can handle a plurality of languages, that is, when two or more languages are stored in the language column of the operator terminal table, the data on all the language types is stored in the operator language data 332. Is stored in the memory 134.

続いて、ステップS61では、対話相手言語データ330とオペレータ言語データ332とが一致するか否かを判断する。つまり、対話相手の使用言語とオペレータの使用言語とが一致するか否かを判断する。ただし、オペレータが複数の言語を使用する場合には、その複数の言語に対話相手の言語が含まれているか否かを判断する。   Subsequently, in step S61, it is determined whether or not the conversation partner language data 330 and the operator language data 332 match. That is, it is determined whether or not the language used by the conversation partner matches the language used by the operator. However, when the operator uses a plurality of languages, it is determined whether or not the conversation partner language is included in the plurality of languages.

ステップS61で“YES”であれば、つまり言語データ330とオペレータ言語データ332とが一致すれば、ステップS63で、翻訳フラグ336をオフに設定する。一方、ステップS61で“NO”であれば、つまり言語データ330とオペレータ言語データ332とが一致しなければ、ステップS65で、翻訳フラグ336をオンに設定し、ステップS67で、対話相手の同定ができているか否かを判断する。   If “YES” in the step S61, that is, if the language data 330 and the operator language data 332 match, the translation flag 336 is set to off in a step S63. On the other hand, if “NO” in the step S61, that is, if the language data 330 and the operator language data 332 do not match, the translation flag 336 is set to ON in a step S65, and the conversation partner is identified in a step S67. Determine whether it is done.

ステップS67で“YES”であれば、つまり対話相手の同定ができていれば、ステップS69で、対話相手の文化を特定済みか否かを判断する。つまり、ステップS69では、対話相手情報DB140の対話相手情報テーブルを参照して、対話相手に対応して文化の情報が記憶されているか否かを判断する。ステップS69で“NO”であれば、つまり対話相手の文化を特定済みでなければ、ステップS73に進む。一方、ステップS69で“YES”であれば、つまり対話相手の文化を特定済みであれば、ステップS71で、対話相手情報DB140に基づいて文化データ334を記憶する。つまり、このステップS71では、対話相手の同定された対話相手の名前(対話相手ID)に対応する文化の情報(識別するデータ)を文化データ334としてメモリ134に記憶する。   If “YES” in the step S67, that is, if the conversation partner is identified, it is determined whether or not the conversation partner's culture has been specified in a step S69. That is, in step S69, it is determined by referring to the dialogue partner information table of the dialogue partner information DB 140 whether or not culture information is stored corresponding to the dialogue partner. If “NO” in the step S69, that is, if the culture of the conversation partner has not been specified, the process proceeds to a step S73. On the other hand, if “YES” in the step S69, that is, if the culture of the conversation partner has been specified, the culture data 334 is stored based on the conversation partner information DB 140 in a step S71. That is, in this step S71, culture information (data to be identified) corresponding to the name of the conversation partner (dialog partner ID) identified as the conversation partner is stored in the memory 134 as the culture data 334.

ここで、ステップS67で“NO”であれば、つまり対話相手の同定が出来ていなければ、ステップS73で、対話相手言語データ330と言語・文化DB142とに基づいて文化データ334を記憶する。たとえば、このステップS73では、対話相手言語データ330が英語を示していれば、言語・文化テーブルでは、文化はUSA、つまりアメリカ合衆国の文化であることを示しているため、
つまり、このステップS71では、USAを文化データ334としてメモリ134に記憶する。
If “NO” in the step S67, that is, if the conversation partner is not identified, the culture data 334 is stored on the basis of the conversation partner language data 330 and the language / culture DB 142 in a step S73. For example, in this step S73, if the conversation partner language data 330 indicates English, the language / culture table indicates that the culture is USA, that is, the culture of the United States of America.
That is, in this step S71, USA is stored in the memory 134 as culture data 334.

そして、ステップS75では、選択したオペレータが使用する操作端末16をロボット12に紹介し、図11に示した全体処理にリターンする。たとえば、中央制御装置14のCPU130は、ロボット12に対して、選択されたオペレータが使用する操作端末16の接続情報(IPアドレス)を送信する。併せて、選択されたオペレータが使用する操作端末16に、ロボット12の遠隔操作依頼と、呼び出し要求を送信したロボット12の接続情報(IPアドレス)を送信する。   In step S75, the operation terminal 16 used by the selected operator is introduced to the robot 12, and the process returns to the entire process shown in FIG. For example, the CPU 130 of the central controller 14 transmits connection information (IP address) of the operation terminal 16 used by the selected operator to the robot 12. At the same time, the remote operation request of the robot 12 and the connection information (IP address) of the robot 12 that transmitted the call request are transmitted to the operation terminal 16 used by the selected operator.

なお、図示は省略するが、ステップS75では、オペレータ端末情報テーブルにおいて、選択されたオペレータが使用する操作端末16の状態が「IDLE」から「BUSY−Rm」に更新される。ただし、mは自然数(0,1,2,…m)であり、「Rm」は、ロボット名ないしロボット12の識別情報である。これによって、オペレータがロボットRmを遠隔操作していることが分かる
図14は、図11に示したステップS11の通信内容制御処理を示すフロー図である。図14に示すように、中央制御装置14のCPU130は、通信内容制御処理を開始すると、ステップS91で、ロボット12から音声データを受信したか否かを判断する。たとえば、ロボット12は、対話相手から話しかけられると、マイク66によって対話相手の声を検出し、対応する音声データを取得して、その取得した音声データを中央制御装置14に送信する。したがって、ステップS91の処理では、ロボット12の対話相手の音声に対応する音声データを受信したか否かを判断するのである。ステップS91で“NO”であれば、つまりロボット12から音声データを受信していなければ、そのままステップS99に進む。一方、ステップS91で“YES”であれば、つまりロボット12から音声データを受信すれば、翻訳フラグ336がオフか否かを判断する。ステップS93で“YES”であれば、つまり対話相手の使用言語と、オペレータの使用言語とが一致すれば、ステップS99に進む。一方、ステップS93で“NO”であれば、つまり翻訳フラグ336がオンであれば、ステップS95で、オペレータ言語データ332に基づいて音声データを翻訳する。つまり、対話相手からの質問内容を、選択されたオペレータの使用言語に翻訳する。
Although not shown, in step S75, the state of the operation terminal 16 used by the selected operator is updated from “IDLE” to “BUSY-Rm” in the operator terminal information table. Here, m is a natural number (0, 1, 2,... M), and “Rm” is a robot name or robot 12 identification information. Thus, it can be seen that the operator is operating the robot Rm remotely. FIG. 14 is a flowchart showing the communication content control process of step S11 shown in FIG. As shown in FIG. 14, when starting the communication content control process, the CPU 130 of the central control device 14 determines whether or not voice data has been received from the robot 12 in step S91. For example, when the robot 12 speaks from the conversation partner, the robot 12 detects the voice of the conversation partner by the microphone 66, acquires the corresponding voice data, and transmits the acquired voice data to the central control device 14. Therefore, in the process of step S91, it is determined whether or not voice data corresponding to the voice of the conversation partner of the robot 12 has been received. If “NO” in the step S91, that is, if voice data is not received from the robot 12, the process proceeds to a step S99 as it is. On the other hand, if “YES” in the step S91, that is, if voice data is received from the robot 12, it is determined whether or not the translation flag 336 is off. If “YES” in the step S93, that is, if the language used by the conversation partner matches the language used by the operator, the process proceeds to a step S99. On the other hand, if “NO” in the step S93, that is, if the translation flag 336 is turned on, the speech data is translated based on the operator language data 332 in a step S95. That is, the question content from the conversation partner is translated into the language used by the selected operator.

具体的には、翻訳辞書DB146から対話相手言語データ330が示す言語の辞書を読み出し、その読み出した辞書を用いてDPマッチング法やHMM(隠れマルコフモデル)法により音声認識する。続いて、音声認識された音声データは、周知の形態素解析の処理を施し、文章を構成する各単語が読み出される。そして、CPU130は、翻訳処理を実行し、翻訳辞書DB146から対話相手言語データ330およびオペレータ言語データ332が示すそれぞれの言語の辞書を読み出し、読み出された文章をオペレータ言語データ332が示す言語に翻訳する。また、音声認識機能を含む翻訳機能(翻訳システム)としては、日英双方音声翻訳システム「ATR−MATRIX」を用いることができる。この「ATR−MATRIX」については、「Reaves et al.,"ATR-MATRIX: A Speech Translation System between English and Japanese", 情報処理学会論文集, Vol. 2, pp.87-88, 1999」に詳細に開示されている。   Specifically, the dictionary of the language indicated by the conversation partner language data 330 is read from the translation dictionary DB 146, and speech recognition is performed using the read dictionary by the DP matching method or the HMM (Hidden Markov Model) method. Subsequently, the speech-recognized speech data is subjected to a known morphological analysis process, and each word constituting the sentence is read out. Then, the CPU 130 executes translation processing, reads out the dictionary of each language indicated by the conversation partner language data 330 and the operator language data 332 from the translation dictionary DB 146, and translates the read sentence into the language indicated by the operator language data 332. To do. Further, as a translation function (translation system) including a speech recognition function, a Japanese-English speech translation system “ATR-MATRIX” can be used. The details of “ATR-MATRIX” are detailed in “Reaves et al.,“ ATR-MATRIX: A Speech Translation System between English and Japanese ”, IPSJ Transactions, Vol. 2, pp.87-88, 1999”. Is disclosed.

次のステップS97では、音声データの翻訳結果を文字列データとして操作端末16に送信して、ステップS99に進む。つまり、このステップS97では、翻訳された音声データの結果を文字列データに置換えて、選択された操作端末16に送信する。一方、操作端末16は、文字列データを受信すると文字列データに対応する字文列をLCD176に表示する。   In the next step S97, the translation result of the voice data is transmitted to the operation terminal 16 as character string data, and the process proceeds to step S99. That is, in this step S97, the translated voice data result is replaced with the character string data and transmitted to the selected operation terminal 16. On the other hand, when the operation terminal 16 receives the character string data, the operation terminal 16 displays a character string corresponding to the character string data on the LCD 176.

なお、操作端末16は、受信した文字列データを、Text To Speech機能(TTS機能)によって、スピーカ166から出力するようにしてもよい。さらに、翻訳結果は、文字列データでなく合成音声によって音声データとして操作端末16に送信されてもよい。この場合に、操作端末16は受信した音声データを対応すると、音声データに対応する音声をスピーカ166から出力するようにしてもよい。また、TTS機能は、テキストを読み上げる前に、読み上げる言語を事前に特定する必要がある。   Note that the operation terminal 16 may output the received character string data from the speaker 166 by using the Text To Speech function (TTS function). Further, the translation result may be transmitted to the operation terminal 16 as voice data not by character string data but by synthesized voice. In this case, if the operation terminal 16 corresponds to the received audio data, the operation terminal 16 may output audio corresponding to the audio data from the speaker 166. In addition, the TTS function needs to specify the language to be read in advance before reading the text.

ここで、TTS機能としては、テキスト音声合成システム「XIMERA」を用いることができる。この「XIMERA」については、「“大規模コーパスを用いた音声合成システム XIMERA”, 電子情報通信学会 論文誌、vol. J89-D, no. 12, pp. 2688-2698 (2006-12).」に詳細に開示されている。   Here, the text-to-speech synthesis system “XIMERA” can be used as the TTS function. About this “XIMERA”, “Speech synthesis system XIMERA using large-scale corpus”, IEICE Transactions, vol. J89-D, no. 12, pp. 2688-2698 (2006-12). Are disclosed in detail.

ステップS99では、操作端末16から制御コマンドを受信したか否かを判断する。ステップS99で“NO”であれば、つまり操作端末16から制御コマンドを受信していなければ、全体処理にリターンする。一方、ステップS99で“YES”であれば、つまり操作端末16から制御コマンドを受信すれば、ステップS101で、翻訳フラグ336がオフか否かを判断する。ステップS101で“YES”であれば、つまり翻訳フラグ336がオフであれば、そのままステップS105に進む。一方、ステップS101で“NO”であれば、つまり翻訳フラグ336がオンであれば、ステップS103で、後述する発話コマンド翻訳処理(図15参照)を実行し、ステップS105に進む。   In step S99, it is determined whether a control command has been received from the operation terminal 16. If “NO” in the step S99, that is, if a control command is not received from the operation terminal 16, the process returns to the entire process. On the other hand, if “YES” in the step S99, that is, if a control command is received from the operation terminal 16, it is determined whether or not the translation flag 336 is turned off in a step S101. If “YES” in the step S101, that is, if the translation flag 336 is turned off, the process proceeds to a step S105 as it is. On the other hand, if “NO” in the step S101, that is, if the translation flag 336 is turned on, an utterance command translation process (see FIG. 15) described later is executed in a step S103, and the process proceeds to a step S105.

ステップS105では、後述する動作コマンド変換処理(図16参照)を実行し、ステップS107で制御コマンドをロボット12に送信して、図11に示した全体処理にリターンする。つまり、翻訳フラグ336がオンの状態で、ロボット12から音声データを受信すれば、その音声データを音声認識することで文章を読み出し、オペレータ言語データ332が示す言語に翻訳して、操作端末16に送信する。さらに、操作端末16から制御コマンドを受信すれば、制御コマンドに含まれる発話コマンドの発話内容を、対話相手言語データ330が示す言語に翻訳して、ロボット12に送信する。また、動作コマンドは、翻訳フラグ336の状態に関わらず、文化データ334が示す文化の動作に変換されて、ロボット12へ送信される。   In step S105, an operation command conversion process (see FIG. 16), which will be described later, is executed, a control command is transmitted to the robot 12 in step S107, and the process returns to the overall process shown in FIG. That is, when voice data is received from the robot 12 with the translation flag 336 turned on, the text is read by recognizing the voice data, translated into the language indicated by the operator language data 332, and sent to the operation terminal 16. Send. Further, when a control command is received from the operation terminal 16, the utterance content of the utterance command included in the control command is translated into the language indicated by the conversation partner language data 330 and transmitted to the robot 12. In addition, regardless of the state of the translation flag 336, the operation command is converted into a culture operation indicated by the culture data 334 and transmitted to the robot 12.

なお、動作コマンドの変換は必ずしも行う必要はなく、発話コマンドの翻訳のみが実行されるようにしてもよい。また、発話コマンドの翻訳を行わず、動作コマンドの変換のみを実行するようにしてもよい。   It is not always necessary to convert the operation command, and only the utterance command may be translated. Alternatively, the translation of the operation command may be executed without translating the utterance command.

図15は、図14に示したステップS103の発話コマンド翻訳処理のフロー図である。図15に示すように、中央制御装置14のCPU130は、発話コマンド翻訳処理を開始すると、ステップS121で、制御コマンドcom[0,1,…,N]を配列comTmp[0,1,…,N]に格納する。つまり、制御コマンドを構成する発話コマンドおよび動作コマンドのそれぞれを、配列comTmp[0,1,…,N]に格納する。また、最大値Nは、制御コマンドに含まれる各コマンドの総数を意味する。   FIG. 15 is a flowchart of the utterance command translation process in step S103 shown in FIG. As shown in FIG. 15, when starting the utterance command translation process, the CPU 130 of the central control device 14 arranges the control command com [0, 1,..., N] in the array comTmp [0, 1,. ]. That is, each of the utterance command and the operation command constituting the control command is stored in the array comTmp [0, 1,..., N]. The maximum value N means the total number of commands included in the control command.

次のステップS123では、変数iを初期化する。つまり、変数iに0を格納する。この変数iは、comTmp[0,1,…N]に含まれるコマンドcomTmp[i]を識別するための変数である。次のステップS125では、変数iが最大値Nよりも小さいか否かを判断する。ステップS125で“YES”であれば、つまり変数iが最大値Nよりも小さければ、ステップS127で、comTmp[i]が発話コマンドであるか否かを判断する。つまり、変数iで指定されたコマンドが発話コマンドであるか否かを判断する。   In the next step S123, the variable i is initialized. That is, 0 is stored in the variable i. This variable i is a variable for identifying the command comTmp [i] included in comTmp [0, 1,... N]. In the next step S125, it is determined whether or not the variable i is smaller than the maximum value N. If “YES” in the step S125, that is, if the variable i is smaller than the maximum value N, it is determined whether or not comTmp [i] is an utterance command in a step S127. That is, it is determined whether or not the command specified by the variable i is an utterance command.

このステップS127の処理では、各コマンドに含まれる最初のアンダスコア「_」までの文字列を読み込み、「SAY」の文字列であれば、発話コマンドであると判断し、「MOVE」の文字列であれば、動作コマンドであると判断する。   In the process of step S127, a character string up to the first underscore “_” included in each command is read, and if it is a character string “SAY”, it is determined that it is an utterance command, and a character string “MOVE”. If so, it is determined that the command is an operation command.

ステップS127で“NO”であれば、つまりcomTmp[i]が発話コマンドでなければ、そのままステップS131に進む。一方、ステップS127で“YES”であれば、つまりcomTmp[i]が発話コマンドであれば、ステップS129で、comTmp[i]の発話内容を対話相手言語データ330が示す言語に翻訳する。ロボット12は、TTS機能を備える。たとえば、発話ファイル名が「SAY_jpn_こんにちは.txt」であれば、comTmp[i]には、「SAY_jpn_こんにちは.txt」が記憶される。そして、発話コマンド「こんにちは」が、対話相手言語データ330に基づいて日本語から英語に翻訳されると、発話ファイル名が「SAY_eng_Hello.txt」の発話コマンドが作成される。   If “NO” in the step S127, that is, if the comTmp [i] is not an utterance command, the process proceeds to a step S131 as it is. On the other hand, if “YES” in the step S127, that is, if comTmp [i] is an utterance command, the utterance content of the comTmp [i] is translated into a language indicated by the conversation partner language data 330 in a step S129. The robot 12 has a TTS function. For example, if the speech file name is "SAY_jpn_ Hello .txt", the comTmp [i], "SAY_jpn_ Hello .txt" is stored. Then, the speech command "Hello" is, when it is translated into English from Japanese on the basis of the dialogue partner language data 330, the speech file name is spoken command of "SAY_eng_Hello.txt" is created.

また、先述したとおり、TTS機能は、テキストを読み上げる前に読み上げる言語を事前に特定する必要がある。そのため、TTS機能によって発話コマンドを実行する場合に、TTS機能では、発話ファイル名に含まれる、「jpn」や「eng」によって、発話コマンドの言語の種類を特定する。つまり、「jpn」であれば日本語であり、「eng」であれば英語である。たとえば、「SAY_jpn_こんにちは.txt」の発話ファイル名で示される発話コマンドを実行する場合に、TTS機能を実行すると、発話ファイル名に含まれる1番目と2番目のアンダスコアの間に含まれる識別子「jpn」から、読み上げる言語の種類が「日本語」であると特定する。   Further, as described above, the TTS function needs to specify in advance the language to be read before reading the text. Therefore, when the utterance command is executed by the TTS function, the TTS function specifies the language type of the utterance command by “jpn” or “eng” included in the utterance file name. That is, “jpn” is Japanese, and “eng” is English. For example, if you run a speech command indicated by the utterance file name "SAY_jpn_ Hello .txt", running the TTS function identifier included between the first and second underscore contained in spoken filename " “jpn” specifies that the language type to be read is “Japanese”.

これによって、「挨拶」の制御コマンドにおいて、発話コマンドが日本語から英語に翻訳されると、発話コマンド「こんにちは」が発話コマンド「Hello」となる。また、発話コマンド「いい天気ですね」は、発話コマンド「Nice weather」となる。   As a result, in the control command of "greeting", and the speech command is translated into English from Japanese, spoken command "Hello" is the spoken command "Hello". Also, the utterance command “Nice weather” becomes the utterance command “Nice weather”.

なお、テキストを翻訳する機能としては、汎用のテキスト翻訳ソフトなどを用いることができる。   In addition, general-purpose text translation software etc. can be used as a function which translates a text.

次のステップS131では、変数iをインクリメント(i=i+1)し、ステップS125に戻る。つまり、変数iが次のコマンドを指定するように、変数iをインクリメントする。   In the next step S131, the variable i is incremented (i = i + 1), and the process returns to step S125. That is, the variable i is incremented so that the variable i designates the next command.

また、ステップS125で“NO”であれば、つまり変数iが最大値N以上であれば、ステップS133で、配列comTmp[0,1,…,N]を制御コマンドcom[0,1,…,N]をに上書きし、図13に示す通信内容制御処理にリターンする。つまり、このステップS133では、翻訳される前の発話コマンドを翻訳後の発話コマンドに置き換える。たとえば、発話コマンドが日本語から英語に翻訳される場合に、「挨拶」の制御コマンドの発話コマンド「こんにちは」および発話コマンド「いい天気ですね」のそれぞれは、発話コマンド「Hello」および発話コマンド「Nice weather」に置き換えられる。   If “NO” in the step S125, that is, if the variable i is equal to or greater than the maximum value N, the array comTmp [0, 1,..., N] is changed to the control command com [0, 1,. N] is overwritten, and the process returns to the communication content control process shown in FIG. That is, in this step S133, the utterance command before translation is replaced with the utterance command after translation. For example, if the speech command is translated into English from Japanese, each of the spoken command "Hello" and the spoken command "It is nice weather" of the control command of "greeting", spoken command "Hello" and the spoken command " Replaced with “Nice weather”.

図16は、図14に示したステップS105の動作コマンド変換処理のフロー図である。図16に示すように、中央制御装置14のCPU130は、動作コマンド変換処理を開始すると、ステップS151で、制御コマンドcom[0,1,…,N]を配列comTmp[0,1,…,N]に格納する。   FIG. 16 is a flowchart of the operation command conversion process in step S105 shown in FIG. As shown in FIG. 16, when starting the operation command conversion process, the CPU 130 of the central control device 14 arranges the control command com [0, 1,..., N] in an array comTmp [0, 1,. ].

次のステップS153では、変数jを初期化する。つまり、変数jに0を格納する。この、変数jは、動作コマンド変換処理におけるcomTmp[0,1,…,N]に含まれるコマンドcomTmp[j]を識別するための変数である。次のステップS155では、変数jが最大値Nよりも小さいか否かを判断する。ステップS155で“YES”であれば、つまり変数jが最大値Nよりも小さければ、ステップS157で、comTmp[j]が動作コマンドであるか否かを判断する。つまり、変数jで指定されたコマンドが動作コマンドであるか否かを判断する。   In the next step S153, the variable j is initialized. That is, 0 is stored in the variable j. The variable j is a variable for identifying the command comTmp [j] included in comTmp [0, 1,..., N] in the operation command conversion process. In the next step S155, it is determined whether or not the variable j is smaller than the maximum value N. If “YES” in the step S155, that is, if the variable j is smaller than the maximum value N, it is determined whether or not comTmp [j] is an operation command in a step S157. That is, it is determined whether or not the command specified by the variable j is an operation command.

ステップS157で“NO”であれば、つまりcomTmp[j]が動作コマンドでなければ、そのままステップS161に進む。一方、ステップS157で“YES”であれば、つまりcomTmp[j]が動作コマンドであれば、ステップS159で、comTmp[j]の動作内容を動作決定DB144および文化データ334に基づいて変換する。つまり、動作コマンドを対話相手に応じた動作に変換する。たとえば、操作端末16から送信された動作コマンドが「お辞儀」(MOVE_ojigi.txt)であり、文化データ334が示す対話相手の文化が「USA」であれば、動作決定テーブル(図7参照)を参照して、動作の欄に「お辞儀」が記憶され、かつ文化の欄に「USA」が記憶されている動作ファイル名が選択され、動作コマンド「お辞儀」の動作ファイル名は、「MOVE_ojigi_usa.txt」に決定される。よって、comTmp[j]に格納される「MOVE_ojigi.txt」は、「MOVE_ojigi_usa.txt」に置き換えられる。次のステップS161では、変数jをインクリメント(j=j+1)し、ステップS135に戻る。   If “NO” in the step S157, that is, if the comTmp [j] is not an operation command, the process proceeds to a step S161 as it is. On the other hand, if “YES” in the step S157, that is, if comTmp [j] is an operation command, the operation content of the comTmp [j] is converted based on the operation determination DB 144 and the culture data 334 in a step S159. That is, the operation command is converted into an operation corresponding to the conversation partner. For example, if the operation command transmitted from the operation terminal 16 is “bow” (MOVE_ojigi.txt) and the culture of the conversation partner indicated by the culture data 334 is “USA”, refer to the operation determination table (see FIG. 7). Then, an operation file name in which “bow” is stored in the operation column and “USA” is stored in the culture column is selected, and the operation file name of the operation command “bow” is “MOVE_ojigi_usa.txt”. To be determined. Therefore, “MOVE_ojigi.txt” stored in comTmp [j] is replaced with “MOVE_ojigi_usa.txt”. In the next step S161, the variable j is incremented (j = j + 1), and the process returns to step S135.

ここで、ステップS155で“NO”であれば、つまり最大値Nより変数jが小さくなければ、ステップS163で、配列comTmp[0,1,…,N]を制御コマンドcom[0,1,…,N]を配列comTmp[0,1,…,N]に上書きし、図14に示す通信内容制御処理にリターンする。つまり、このステップS163では、変換される前の動作コマンドを変換後の動作コマンドに置き換える。   Here, if “NO” in the step S155, that is, if the variable j is not smaller than the maximum value N, the array comTmp [0, 1,..., N] is set to the control command com [0, 1,. , N] is overwritten on the array comTmp [0, 1,..., N], and the process returns to the communication content control process shown in FIG. That is, in step S163, the operation command before conversion is replaced with the operation command after conversion.

たとえば、動作コマンドがアメリカ合衆国の文化に対応する動作に変換される場合に、「挨拶」の制御コマンドにおける動作コマンド「MOVE_ojigi.txt」(お辞儀)は、動作コマンド「MOVE_ojigi_usa.txt」(お辞儀)に置き換えられる。   For example, when the operation command is converted into an operation corresponding to the culture of the United States, the operation command “MOVE_ojigi.txt” (bow) in the “greeting” control command is replaced with the operation command “MOVE_ojigi_usa.txt” (bow). It is done.

図17は、ロボット12のCPU80の全体処理のフロー図である。図17に示すように、ロボット12のCPU80は、全体処理を開始すると、ステップS301で、後述するオペレータ呼出条件判定処理(図18参照)を実行し、ステップS303で、オペレータ呼出フラグがオンであるか否かを判断する。図示は省略するが、オペレータの呼出フラグは、1ビットのレジスタで構成され、メモリ84(RAM)に設けられる。この呼出フラグは、オペレータ呼出条件判定処理を実行することにより、オン/オフされる。具体的には、オペレータ呼出条件を満たす場合には、呼出フラグはオンされ、逆に、オペレータ呼出条件を満たさない場合には、呼出フラグはオフされる。呼出フラグがオンされると、レジスタにデータ値「1」が設定され、逆に、呼出フラグがオフされると、レジスタにデータ値「0」が設定される。   FIG. 17 is a flowchart of the overall processing of the CPU 80 of the robot 12. As shown in FIG. 17, when starting the entire process, the CPU 80 of the robot 12 executes an operator call condition determination process (see FIG. 18) described later in step S301, and the operator call flag is turned on in step S303. Determine whether or not. Although not shown in the figure, the operator call flag is composed of a 1-bit register and is provided in the memory 84 (RAM). This call flag is turned on / off by executing an operator call condition determination process. Specifically, if the operator call condition is satisfied, the call flag is turned on. Conversely, if the operator call condition is not satisfied, the call flag is turned off. When the call flag is turned on, the data value “1” is set in the register. Conversely, when the call flag is turned off, the data value “0” is set in the register.

ステップS303で“NO”であれば、つまりオペレータ呼出フラグがオフであればステップS319に進む。一方、ステップS303で“YES”であれば、つまり呼出フラグがオンであれば、ステップS305で、呼出要求を送信し、ステップS307に進む。つまり、このステップS305では、オペレータの呼出要求を中央制御装置14に対して送信し、当該要求に対する応答の受信を待つ。また、ロボット12は、オペレータの呼出要求を送信するとともに、対話相手が発話していれば、その発話による音声を取得し、音声に対応する音声データを中央制御装置14に送信する。さらに、ロボット12は、対話相手が装着する無線タグ18から取得した対話相手IDを中央制御装置14に送信する。   If “NO” in the step S303, that is, if the operator calling flag is off, the process proceeds to a step S319. On the other hand, if “YES” in the step S303, that is, if the call flag is on, a call request is transmitted in a step S305, and the process proceeds to the step S307. That is, in this step S305, the operator's call request is transmitted to the central control device 14, and the reception of a response to the request is awaited. In addition, the robot 12 transmits a call request from the operator, and if the conversation partner speaks, acquires the voice of the utterance and transmits voice data corresponding to the voice to the central controller 14. Further, the robot 12 transmits the conversation partner ID acquired from the wireless tag 18 worn by the conversation partner to the central control device 14.

続いて、ステップS307では、音声の出力指示を受信したか否かを判断する。つまり、このステップS307では、中央制御装置14から音声の出力指示(ステップS41)を受信したか否かを判断する。ステップS307で“NO”であれば、そのままステップS313に進む。一方、ステップS307で“YES”であれば、ステップS309で、音声の出力指示に対応する発話を実行し、ステップS311に進む。つまり、このステップS309では、「何か御用でしょうか?」などのように、対話相手に発話させるような音声をスピーカ64から出力する。次のステップS311では、対話相手の音声を取得して対応する音声データを送信し、ステップS313に進む。つまり、マイク66によって取得した対話相手の音声に対応する音声データを中央制御装置14に送信する。   Subsequently, in step S307, it is determined whether an audio output instruction has been received. That is, in this step S307, it is determined whether or not a voice output instruction (step S41) has been received from the central controller 14. If “NO” in the step S307, the process proceeds to a step S313 as it is. On the other hand, if “YES” in the step S307, an utterance corresponding to the voice output instruction is executed in a step S309, and the process proceeds to a step S311. That is, in this step S309, a sound that causes the conversation partner to speak is output from the speaker 64, such as "What is it for?" In the next step S311, the voice of the conversation partner is acquired and the corresponding voice data is transmitted, and the process proceeds to step S313. That is, voice data corresponding to the voice of the conversation partner acquired by the microphone 66 is transmitted to the central control device 14.

ステップS313では、操作コマンドを受信したか否かを判断する。ステップS313で“NO”であれば、つまり操作コマンドを受信しなかった場合には、ステップS307に戻る。一方、ステップS313で“YES”であれば、つまり操作端末16からの操作コマンドを受信した場合には、ステップS315で、遠隔操作終了要求があったか否かを判断する。つまり、ステップS313で受信した操作コマンドが、遠隔操作終了コマンドであったか否かを判断する。   In step S313, it is determined whether an operation command has been received. If “NO” in the step S313, that is, if an operation command is not received, the process returns to the step S307. On the other hand, if “YES” in the step S313, that is, if an operation command is received from the operation terminal 16, it is determined whether or not a remote operation end request has been made in a step S315. That is, it is determined whether or not the operation command received in step S313 is a remote operation end command.

ステップS315で“YES”であれば、つまり遠隔操作の終了要求を受信した場合には、ステップS321に進む。一方、ステップS315で“NO”であれば、つまりコミュニケーション行動を指示する操作コマンドを受信した場合には、ステップS317で、受信した操作コマンドに応じた動作を実行して、ステップS307に戻る。このステップS317の処理によって、ロボット12の動作が遠隔操作に基づいて制御される。たとえば、スピーカ64およびマイク66を用いた操作端末16を使用するオペレータと対話相手との会話、お辞儀や指差しなどの身体動作および前進や旋回などの移動を実行する。   If “YES” in the step S315, that is, if a remote operation end request is received, the process proceeds to a step S321. On the other hand, if “NO” in the step S315, that is, if an operation command instructing a communication action is received, an operation corresponding to the received operation command is executed in a step S317, and the process returns to the step S307. By the processing in step S317, the operation of the robot 12 is controlled based on the remote operation. For example, a conversation between an operator who uses the operation terminal 16 using the speaker 64 and the microphone 66 and a conversation partner, body movement such as bowing and pointing, and movement such as forward movement and turning are executed.

また、ステップS319では、自立行動処理を実行し、ステップS321に進む。なお、自律行動処理では、自立制御によって必要に応じて人間との間でコミュニケーション行動を実行する。たとえば、人間と対面した場合には、当該人間に挨拶をしたり、また、人間に道を尋ねられた場合には、道案内を行ったりする。   Moreover, in step S319, an independent action process is performed and it progresses to step S321. In the autonomous behavior process, communication behavior is executed with human beings as needed by independent control. For example, when a person is faced, a greeting is given to the person, and when a person is asked about the way, directions are given.

続いて、ステップS321では、停止命令が有るかどうかを判断する。たとえば、停止命令(停止コマンド)は、オペレータの操作に従って、操作端末16からネットワーク100を介してロボット12に送信される。ただし、ロボット12やロボット12が配置される環境に停止ボタンを設けておき、当該停止ボタンを操作することにより、ロボット12に停止コマンドを入力するようにしてもよい。ステップS321で“YES”であれば、つまり停止命令が有れば、そのまま全体処理を終了する。一方、ステップS321で“NO”であれば、つまり停止命令が無ければ、ステップS301に戻る。   Subsequently, in step S321, it is determined whether there is a stop instruction. For example, a stop command (stop command) is transmitted from the operation terminal 16 to the robot 12 via the network 100 according to the operation of the operator. However, a stop button may be provided in the environment where the robot 12 or the robot 12 is disposed, and a stop command may be input to the robot 12 by operating the stop button. If “YES” in the step S321, that is, if there is a stop command, the entire processing is ended as it is. On the other hand, if “NO” in the step S321, that is, if there is no stop instruction, the process returns to the step S301.

図18は、図17に示したステップS301のオペレータ呼出条件判定処理のフロー図である。図18に示すように、ロボット12のCPU80は、オペレータ呼出条件判定処理を開始すると、ステップS341で、呼出条件フラグをオフし、ステップS343で、周囲情報を検出する。つまり、オペレータ呼出条件の判断に必要なセンサ(赤外線距離センサ40、全方位カメラ46、マイク66、眼カメラ70、接触センサ58および無線タグ読み取り装置116)の出力を検出し、周囲および自身の状況(状態)を認識する。   FIG. 18 is a flowchart of the operator call condition determination process in step S301 shown in FIG. As shown in FIG. 18, when starting the operator calling condition determination process, the CPU 80 of the robot 12 turns off the calling condition flag in step S341, and detects surrounding information in step S343. That is, the outputs of sensors (infrared distance sensor 40, omnidirectional camera 46, microphone 66, eye camera 70, contact sensor 58, and RFID tag reading device 116) necessary for determining the operator calling condition are detected, and the surrounding and own conditions are detected. Recognize (state).

続いてステップS345では、特定の文章や単語を検出したか否かを判断する。ステップS345で“YES”であれば、つまり、特定の文章や単語を検出すれば、オペレータ呼出条件を満たすと判断して、ステップS359で呼出条件フラグをオンして、図17に示したロボット12の全体処理にリターンする。たとえば、特定の文章や単語としては、ロボット12が相手(対話相手)の意図を理解できないことを意味する文章や単語、たとえば、「違う」、「責任者を呼んで」、「そうじゃないんだけど」および「わからないかなあ」などが考えられる。   In step S345, it is determined whether a specific sentence or word is detected. If “YES” in the step S345, that is, if a specific sentence or word is detected, it is determined that the operator calling condition is satisfied, the calling condition flag is turned on in a step S359, and the robot 12 shown in FIG. Return to the whole process. For example, as a specific sentence or word, a sentence or word that means that the robot 12 cannot understand the intention of the other party (the conversation partner), for example, “No”, “Call the person in charge”, “No. But "and" I don't know "can be considered.

一方、ステップS345で“NO”であれば、つまり特定の文章や単語を検出していなければ、ステップS347で、特定の顔の表情を取得したか否かを判断する。たとえば、特定の表情とは、人の顔表情認識で怒りが検出されたこと、顔特定機能で特定の人を検出したことが考えられる。ステップS347で“YES”であれば、つまり、特定の顔の表情を取得すれば、オペレータ呼出条件を満たすと判断して、ステップS359に進む。   On the other hand, if “NO” in the step S345, that is, if a specific sentence or word is not detected, it is determined whether or not a specific facial expression is acquired in a step S347. For example, the specific facial expression may be that anger has been detected by recognizing a human facial expression, or that a specific person has been detected by the face specifying function. If “YES” in the step S347, that is, if a specific facial expression is acquired, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S359.

また、ステップS347で“NO”であれば、つまり、特定の顔の表情を取得していなければ、ステップS349で特定の人間を検出したか否かを判断する。たとえば、特定の人物を検出する方法としては、特定の対話相手IDの無線タグ18を検出したこと(たとえば、VIPとして登録された人が現れたこと)などが考えられる。ステップS349で“YES”であれば、つまり特定の人間を検出すれば、オペレータ呼出条件を満たすと判断して、ステップS359へ進む。一方、ステップS349で“NO”であれば、つまり、特定の人間を検出していなければ、ステップS351で、人間と長時間会話している状況であるか否かを判断する。たとえば、赤外線距離センサ40で取得された距離が1m以内である状態が5分以上になれば“YES”と判断されるようにしてもよい。   If “NO” in the step S347, that is, if a specific facial expression is not acquired, it is determined whether or not a specific human is detected in a step S349. For example, as a method of detecting a specific person, it can be considered that a wireless tag 18 having a specific conversation partner ID is detected (for example, a person registered as a VIP appears). If “YES” in the step S349, that is, if a specific person is detected, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S359. On the other hand, if “NO” in the step S349, that is, if a specific person is not detected, it is determined whether or not it is a situation in which the person has a long conversation with the person in a step S351. For example, “YES” may be determined if the distance acquired by the infrared distance sensor 40 is within 1 m for 5 minutes or longer.

ステップS351で“YES”であれば、つまり、人間と長時間会話している状況であれば、オペレータ呼出条件を満たすと判断して、ステップS359に進む。一方、ステップS351で“NO”であれば、つまり人間と長時間会話している状況でなければ、ステップS353で、行く手を塞がれた状況であるか否かを判断する。ステップS353で“YES”であれば、つまり行く手を塞がれた状況であれば、オペレータ呼出条件を満たすと判断して、ステップS359に進む。一方、ステップS353で“NO”であれば、つまり行く手を塞がれていない状況であれば、ステップS355で周囲に人が多く存在する状況であるか否かを判断する。ここで、周囲に人が多く存在する状態は、ロボット12または周囲の環境に設けられた他のセンサの出力に基づいて検出されるようにしてもよい。   If “YES” in the step S351, that is, if the user is talking for a long time, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S359. On the other hand, if “NO” in the step S351, that is, if it is not a situation where the user is talking for a long time, it is determined whether or not the going hand is blocked in a step S353. If “YES” in the step S353, that is, if the going hand is blocked, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S359. On the other hand, if “NO” in the step S353, that is, if the hand is not blocked, it is determined whether or not there is a large number of people around in a step S355. Here, the state where there are many people in the surroundings may be detected based on the output of the robot 12 or other sensors provided in the surrounding environment.

ステップS355で“YES”であれば、つまり周囲に人が多く存在する状況であれば、オペレータ呼出条件を満たすと判断して、ステップS359に進む。一方、ステップS355で“NO”であれば、つまり周囲に人が多く存在していない状況であれば、ステップS357で、オペレータ呼出ボタンが押されたかどうかを判断する。なお、オペレータ呼び出しボタンはロボット12または周囲の環境に設けられてもよい。ステップS357で“YES”であれば、つまりオペレータ呼出条件判定を満たすと判断して、ステップS359に進む。一方、ステップS337で“NO”であれば、つまりオペレータ呼出ボタンが押されていなければ、図17に示したロボット12の全体処理にリターンする。   If “YES” in the step S355, that is, if there are many people around, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S359. On the other hand, if “NO” in the step S355, that is, if there are not many people around, it is determined whether or not the operator call button has been pressed in a step S357. The operator call button may be provided in the robot 12 or the surrounding environment. If “YES” in the step S357, that is, it is determined that the operator calling condition determination is satisfied, and the process proceeds to a step S359. On the other hand, if “NO” in the step S337, that is, if the operator call button is not pressed, the process returns to the entire processing of the robot 12 shown in FIG.

図19は、操作端末16のCPU160の遠隔操作処理のフロー図である。図19に示すように、操作端末16のCPU160は、ステップS401では、中央制御装置14からの遠隔操作依頼が有るか否かを判断する。具体的には、中央制御装置14から送信されたロボット12のIPアドレスを含む遠隔操作依頼を受信したか否かが判断される。   FIG. 19 is a flowchart of remote operation processing of the CPU 160 of the operation terminal 16. As shown in FIG. 19, the CPU 160 of the operation terminal 16 determines whether or not there is a remote operation request from the central control device 14 in step S401. Specifically, it is determined whether a remote operation request including the IP address of the robot 12 transmitted from the central control device 14 has been received.

ステップS401で“NO”であれば、つまり中央制御装置14からの遠隔操作依頼が無ければ、そのまま同じステップS401に戻る。ただし、このステップS401の処理は一定時間(たとえば、30秒)毎に実行される。一方、ステップS401で“YES”であれば、すなわち、中央制御装置14からの遠隔操作依頼を有れば、ステップS403で、LCD176に図9に示したような遠隔操作画面210が表示される。   If “NO” in the step S401, that is, if there is no remote operation request from the central control device 14, the process returns to the same step S401 as it is. However, the process of step S401 is executed every certain time (for example, 30 seconds). On the other hand, if “YES” in the step S401, that is, if there is a remote operation request from the central control device 14, the remote operation screen 210 as shown in FIG. 9 is displayed on the LCD 176 in a step S403.

なお、この遠隔操作画面210を表示した当初では、当該操作端末16を呼び出したロボット12のカメラ画像および当該ロボット12に関する情報は取得されていないので、ロボットカメラ画像212の内容の表示はない。さらに、ステップS403の処理が終了すると、続くステップS405−S415の処理が一定時間ごとに繰り返し実行される。   Note that at the beginning of displaying the remote operation screen 210, the camera image of the robot 12 that called the operation terminal 16 and the information related to the robot 12 are not acquired, and therefore the content of the robot camera image 212 is not displayed. Further, when the process of step S403 is completed, the subsequent processes of steps S405 to S415 are repeatedly executed at regular intervals.

続いて、ステップS405では、ロボット情報とセンサ情報(音声情報、カメラ情報および距離情報など)との受信および更新が行われる。つまり、中央制御装置14またはロボット12からロボット情報を受信して、遠隔操作画面210のロボット情報214の表示を更新する。さらに、ロボット12から音声データを受信して、操作端末16のスピーカ166から当該音声情報を出力し、ロボット12からカメラ情報を受信して、遠隔操作画面のロボットカメラ画像212の表示を更新し、ロボット12から距離情報を受信して、障害物(対話相手)までの距離を表示する。   Subsequently, in step S405, reception and update of robot information and sensor information (such as voice information, camera information, and distance information) are performed. That is, the robot information is received from the central controller 14 or the robot 12, and the display of the robot information 214 on the remote operation screen 210 is updated. Furthermore, the voice data is received from the robot 12, the voice information is output from the speaker 166 of the operation terminal 16, the camera information is received from the robot 12, and the display of the robot camera image 212 on the remote operation screen is updated. The distance information from the robot 12 is received, and the distance to the obstacle (conversation partner) is displayed.

なお、ロボット情報214を最初に表示する際には、当該ロボット12の位置、名前および対話相手の情報などは中央制御装置14から取得される。また、地図表示のためのロボット12および相手の位置情報は当該ロボット12から取得される。また、ロボット12と当該操作端末16との通信速度によっては、ロボット12から送信されないセンサ情報があるため、かかる場合には、一部または全部のセンサ情報についての表示に制限がかかるようにしてもよい。   When the robot information 214 is displayed for the first time, the position, name, dialogue partner information, etc. of the robot 12 are acquired from the central controller 14. Further, the position information of the robot 12 and the opponent for map display is acquired from the robot 12. In addition, depending on the communication speed between the robot 12 and the operation terminal 16, there is sensor information that is not transmitted from the robot 12, and in such a case, display of some or all sensor information may be limited. Good.

ステップS407では、文字列データを受信したか否かを判断する。つまり、このステップS407では、中央制御装置14から翻訳された文字列(ステップS97)を受信したか否かを判断する。ステップS407で“NO”であれば、つまり文字列データを受信していなければ、そのままステップS411に進む。一方、ステップS407で“YES”であれば、つまり文字列データを受信していれば、ステップS409で、文字列データに対応する文字をLCD176に表示し、ステップS411に進む。つまり、このステップS409では、中央制御装置14で翻訳された対話相手が発話した内容の翻訳結果がLCD176に表示される。   In step S407, it is determined whether character string data has been received. That is, in this step S407, it is determined whether or not the translated character string (step S97) has been received from the central controller 14. If “NO” in the step S407, that is, if character string data is not received, the process proceeds to a step S411 as it is. On the other hand, if “YES” in the step S407, that is, if character string data is received, the character corresponding to the character string data is displayed on the LCD 176 in a step S409, and the process proceeds to a step S411. That is, in this step S409, the translation result of the content uttered by the conversation partner translated by the central controller 14 is displayed on the LCD 176.

ステップS411では、操作コマンドの入力がされたか否かを判断する。たとえば、入力装置170からの入力データと操作パネル216のボタン配置データとに基づいて、オペレータによって操作コマンドボタンが選択されたか否かが判断される。ステップS411で“NO”であれば、つまり操作コマンドの入力が無い場合には、そのままステップS405に戻る。一方、ステップS411で“YES”であれば、すなわち、操作コマンドの入力があった場合には、ステップS413で、選択された操作コマンドを特定し、当該操作コマンドをロボット12に送信する。そして、ステップS415で、遠隔操作の終了要求があったか否かを判断する。つまり、入力された操作コマンドが遠隔操作の終了を指示するコマンド(終了コマンド)であるか否かを判断する。   In step S411, it is determined whether an operation command has been input. For example, based on input data from the input device 170 and button arrangement data on the operation panel 216, it is determined whether or not an operation command button has been selected by the operator. If “NO” in the step S411, that is, if there is no operation command input, the process returns to the step S405 as it is. On the other hand, if “YES” in the step S411, that is, if an operation command is input, the selected operation command is specified in a step S413, and the operation command is transmitted to the robot 12. In step S415, it is determined whether a remote operation end request has been received. That is, it is determined whether or not the input operation command is a command (end command) for instructing the end of the remote operation.

ステップS415で“NO”であれば、すなわち終了コマンドが入力されていない場合には、そのままステップS405に戻る。一方、ステップS415で“YES”であれば、すなわち、オペレータによって終了コマンドが入力された場合には、遠隔操作処理を終了する。   If “NO” in the step S415, that is, if the end command is not input, the process returns to the step S405 as it is. On the other hand, if “YES” in the step S415, that is, if an end command is input by the operator, the remote operation processing is ended.

この実施例によれば、中制御装置14は、ロボット12からの呼出要求があると、対話相手が発話した音声などから対話相手の使用言語を特定し、特定された言語に基づいて対話相手の文化の動作を特定する。さらに、中央制御装置14は、IDLE状態のオペレータが使用する操作端末16に、ロボット12の遠隔操作を依頼の要求を送信するとともに、対話相手の言語とオペレータの使用言語とが一致するか否かを判断する。そして、対話相手の言語とオペレータの使用言語とが一致していない場合に、操作端末16から中央制御装置14に制御コマンドが送信されると、中央制御装置14は、制御コマンドに含まれる発話コマンドを対話相手の言語に翻訳し、動作コマンドを対話相手の文化の動作に変換して、ロボット12に送信する。   According to this embodiment, when there is a call request from the robot 12, the middle control device 14 specifies the language used by the other party from the voice spoken by the other party, and based on the specified language, Identify cultural behavior. Further, the central control device 14 transmits a request for requesting remote operation of the robot 12 to the operation terminal 16 used by the operator in the IDLE state, and whether or not the language of the conversation partner matches the language used by the operator. Judging. When the language of the conversation partner does not match the language used by the operator, when the control command is transmitted from the operation terminal 16 to the central controller 14, the central controller 14 causes the utterance command included in the control command to be transmitted. Is translated into the language of the conversation partner, and the motion command is converted into a motion of the conversation partner's culture and transmitted to the robot 12.

これによって、ロボット12は、相手の文化で行われる身体動作を交えて、対話相手の文化の言語を発話するため、対話相手の文化によらず、オペレータが適切に対応することができる。   As a result, the robot 12 speaks the language of the conversation partner's culture with the body movement performed in the partner's culture, so that the operator can appropriately respond regardless of the conversation partner's culture.

なお、本実施例では、赤外線距離センサ40を用いているが、赤外線距離センサ40に代えて、超音波距離センサやミリ波レーダなどを用いてロボット12と対話相手との距離を計測してもよい。また、オペレータ選択処理では、2つの言語の「らしさ演算」を行っているが、必要に応じて言語の数を増やしてもよい。   In this embodiment, the infrared distance sensor 40 is used. However, instead of the infrared distance sensor 40, an ultrasonic distance sensor, a millimeter wave radar, or the like may be used to measure the distance between the robot 12 and the conversation partner. Good. In addition, in the operator selection process, “likeness calculation” of two languages is performed, but the number of languages may be increased as necessary.

また、ロボット12のオペレータの呼出フラグは、体表に設けた接触などを検出するセンサ(たとえば、皮膚センサ)で、そのロボット12自身が殴られたことを検出し、オンになるようにしてもよい。さらに、中央制御装置14の機能を端末16に持たせることによって、中央制御装置14を介さずに操作端末16がロボット12と直接通信するようにしてもよい。   In addition, the call flag of the operator of the robot 12 is detected by a sensor (for example, a skin sensor) that detects contact on the body surface, and detects that the robot 12 itself has been beaten. Good. Further, by providing the terminal 16 with the function of the central control device 14, the operation terminal 16 may communicate directly with the robot 12 without using the central control device 14.

また、異なる言語間で翻訳するようにしたが、地域で異なる方言を変換するようにしてもよい。たとえば、関西弁から東北弁または東北弁から関西弁に変換できるようにしてもよい。同様にして、文化の違いによらず、地域で異なる身振り手振りについて変換するようにしてもよい。   Moreover, although it was made to translate between different languages, you may make it convert a dialect different in an area. For example, conversion from Kansai dialect to Tohoku dialect or from Tohoku dialect to Kansai dialect may be possible. Similarly, gesture gestures that differ in each region may be converted regardless of cultural differences.

さらに、この実施例では、中央制御装置14で、制御コマンドにおける、発話コマンドの翻訳処理および動作コマンドの変換処理を行うようにしたが、操作端末16またはロボット12で行うようにしてもよい。   Further, in this embodiment, the central control device 14 performs the utterance command translation process and the operation command conversion process in the control command, but may be performed by the operation terminal 16 or the robot 12.

たとえば、操作端末16で制御コマンドにおける、発話コマンドの翻訳処理および動作コマンドの変換処理を行う場合には、操作端末16のCPU160では、ステップS31−S55(図12参照)と、ステップS59−S73(図13参照)と、ステップS101−S107(図14参照)とに示す処理および発話コマンド翻訳処理(図15参照)と動作コマンド変換処理(図16参照)とが行われるようにすればよい。なお、ステップS413では、オペレータに入力されたコマンドは、ロボット12に送信せずに、発話コマンド翻訳処理と動作コマンド変換処理とを行ってから、ロボット12に送信するようにする。   For example, when the operation terminal 16 performs the speech command translation process and the operation command conversion process in the control command, the CPU 160 of the operation terminal 16 performs steps S31-S55 (see FIG. 12) and steps S59-S73 ( The processing shown in steps S101 to S107 (see FIG. 14), the utterance command translation processing (see FIG. 15), and the operation command conversion processing (see FIG. 16) may be performed. In step S 413, the command input to the operator is not transmitted to the robot 12, but is transmitted to the robot 12 after performing the utterance command translation process and the operation command conversion process.

また、ロボット12で制御コマンドにおける、発話コマンドの翻訳処理および動作コマンドの変換処理を行う場合には、ロボット12のCPU80では、ステップS33−55と、ステップS59−S73と、ステップS101−S107とに、示す処理および発話コマンド翻訳処理と動作コマンド変換処理とが行われるようにすればよい。なお、ステップS41では、音声の出力指示の要求は送信せずに、ステップS309の処理が実行される。また、ステップS317の処理が実行される場合には、受信した制御コマンドは、発話コマンド翻訳処理と動作コマンド変換処理とを行ってから実行する。   When the robot 12 performs the speech command translation process and the motion command conversion process in the control command, the CPU 80 of the robot 12 performs steps S33-55, S59-S73, and steps S101-S107. The process shown and the utterance command translation process and the operation command conversion process may be performed. In step S41, the process of step S309 is executed without transmitting a request for an audio output instruction. When the process of step S317 is executed, the received control command is executed after performing the utterance command translation process and the operation command conversion process.

図1はこの発明の一実施例のロボット遠隔操作システムの概要を示す図解図である。FIG. 1 is an illustrative view showing an outline of a robot remote control system according to an embodiment of the present invention. 図2は図1に示すロボットの外観を正面から見た図解図である。FIG. 2 is an illustrative view showing the appearance of the robot shown in FIG. 1 from the front. 図3は図1に示すロボットの電気的な構成を示すブロック図である。FIG. 3 is a block diagram showing an electrical configuration of the robot shown in FIG. 図4は図1に示す中央制御装置の電気的な構成を示すブロック図である。FIG. 4 is a block diagram showing an electrical configuration of the central controller shown in FIG. 図5は図1に示す中央制御装置のデータベースに記憶されるテーブルの一例を示す図解図である。FIG. 5 is an illustrative view showing one example of a table stored in the database of the central control unit shown in FIG. 図6は図1に示す中央制御装置のデータベースに記憶される他のテーブルの一例を示す図解図である。FIG. 6 is an illustrative view showing one example of another table stored in the database of the central controller shown in FIG. 図7は図1に示す中央制御装置のデータベースに記憶されるその他のテーブルの一例を示す図解図である。FIG. 7 is an illustrative view showing one example of other tables stored in the database of the central controller shown in FIG. 図8は図1に示す操作端末の電気的な構成を示すブロック図である。FIG. 8 is a block diagram showing an electrical configuration of the operation terminal shown in FIG. 図9は図1に示す操作端末の表示装置に表示される遠隔操作画面の一例を示す図解図である。FIG. 9 is an illustrative view showing one example of a remote operation screen displayed on the display device of the operation terminal shown in FIG. 図10は図4に示す中央制御装置のメモリのメモリマップの一例を示す図解図である。FIG. 10 is an illustrative view showing one example of a memory map of a memory of the central control unit shown in FIG. 図11は図1に示す中央制御措置のCPUの全体処理を示すフロー図である。FIG. 11 is a flowchart showing the entire processing of the CPU of the central control measure shown in FIG. 図12は図1に示す中央制御措置のCPUのオペレータ選択処理の一部を示すフロー図である。FIG. 12 is a flowchart showing a part of the CPU operator selection process of the central control measure shown in FIG. 図13は図1に示す中央制御措置のCPUのオペレータ選択処理の他の一部であって、図12に後続するフロー図である。FIG. 13 is another part of the CPU operator selection process of the central control measure shown in FIG. 1, and is a flowchart subsequent to FIG. 図14は図1に示す中央制御措置のCPUの通信内容制御処理を示すフロー図である。FIG. 14 is a flowchart showing a communication content control process of the CPU of the central control measure shown in FIG. 図15は図1に示す中央制御措置のCPUの発話コマンド翻訳処理を示すフロー図である。FIG. 15 is a flowchart showing the utterance command translation processing of the CPU of the central control measure shown in FIG. 図16は図1に示す中央制御措置のCPUの動作コマンド変換処理を示すフロー図である。FIG. 16 is a flowchart showing operation command conversion processing of the CPU of the central control measure shown in FIG. 図17は図1に示すロボットのCPUの全体処理を示すフロー図である。FIG. 17 is a flowchart showing the overall processing of the CPU of the robot shown in FIG. 図18は図1に示すロボットのCPUのオペレータ呼出条件判定処理を示すフロー図である。FIG. 18 is a flowchart showing operator call condition determination processing of the CPU of the robot shown in FIG. 図19は図1に示す操作端末のCPUの遠隔操作処理を示すフロー図である。FIG. 19 is a flowchart showing remote operation processing of the CPU of the operation terminal shown in FIG.

符号の説明Explanation of symbols

10 …ロボット遠隔操作システム
12 …コミュニケーションロボット
14 …中央制御装置
16 …操作端末
18 …無線タグ
40 …赤外線距離センサ
46 …全方位カメラ
58 …接触センサ
64 …スピーカ
66 …マイク
70 …眼カメラ
80 …CPU
82 …バス
84 …メモリ
86 …モータ制御ボード
88 …センサ入力/出力ボード
90 …音声入力/出力ボード
100 …ネットワーク
112 …通信LANボード
114 …無線通信装置
116 …無線タグ読取装置
130 …CPU
132 …バス
134 …メモリ
148 …通信LANボード
150 …無線通信装置
160 …CPU
162 …LCDドライバ
164 …メモリ
166 …スピーカ
168 …マイク
170 …入力装置
172 …通信LANボード
174 …無線通信装置
176 …LCD
DESCRIPTION OF SYMBOLS 10 ... Robot remote control system 12 ... Communication robot 14 ... Central controller 16 ... Operation terminal 18 ... Wireless tag 40 ... Infrared distance sensor 46 ... Omnidirectional camera 58 ... Contact sensor 64 ... Speaker 66 ... Microphone 70 ... Eye camera 80 ... CPU
82 ... Bus 84 ... Memory 86 ... Motor control board 88 ... Sensor input / output board 90 ... Voice input / output board 100 ... Network 112 ... Communication LAN board 114 ... Wireless communication device 116 ... Wireless tag reader 130 ... CPU
132 ... Bus 134 ... Memory 148 ... Communication LAN board 150 ... Wireless communication device 160 ... CPU
162 ... LCD driver 164 ... Memory 166 ... Speaker 168 ... Microphone 170 ... Input device 172 ... Communication LAN board 174 ... Wireless communication device 176 ... LCD

Claims (10)

遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボットと、ネットワークを介して前記ロボットの遠隔操作を行う複数の操作端末と、前記ネットワークを介して前記ロボットと前記複数の操作端末のうち1台との仲介を行う中央制御装置とを備える、ロボット遠隔操作システムにおいて、
前記ロボットは、
前記人間の個人情報を取得する個人情報取得手段、
前記個人情報取得手段によって取得された前記個人情報を前記中央制御装置に送信する個人情報送信手段、
前記中央制御装置からの第1遠隔操作情報を受信する第1遠隔操作情報受信手段、および
前記第1遠隔操作情報受信手段によって受信した前記第1遠隔操作情報に基づくコミュニケーション行動を実行する実行手段を備え、
前記操作端末は、
前記ロボットを遠隔操作するための第2遠隔操作情報を前記中央制御装置に送信する第2遠隔操作送信手段を備え、
前記中央制御装置は、
前記操作端末の操作者のコミュニケーション情報を記憶する記憶媒体、
前記個人情報送信手段によって送信された個人情報を受信する個人情報受信手段、
前記個人情報受信手段によって受信された個人情報からコミュニケーション情報を特定するコミュニケーション情報特定手段、
前記第2遠隔操作送信手段によって送信された第2遠隔操作情報を受信する第2遠隔操作情報受信手段、
前記コミュニケーション情報特定手段によって特定されたコミュニケーション情報と前記記憶媒体によって記憶された前記操作端末の操作者のコミュニケーション情報とが一致するか否かを判断する判断手段、
前記判断手段によって判断された判断結果が一致しないときに、前記第2遠隔操作情報受信手段によって受信された第2遠隔操作情報を前記コミュニケーション情報特定手段によって特定されたコミュニケーション情報に基づいて第1遠隔操作情報に変換する変換手段、および
前記変換手段によって変換された前記第1遠隔操作情報を前記ロボットに送信する第1遠隔操作情報送信手段を備える、ロボット遠隔操作システム。
A robot that performs communication with humans through at least one of body movement and voice by remote control or autonomous control, a plurality of operation terminals that perform remote control of the robot via a network, and the network via the network In a robot remote operation system comprising a central control device that mediates between a robot and one of the plurality of operation terminals,
The robot is
Personal information acquisition means for acquiring the human personal information;
Personal information transmitting means for transmitting the personal information acquired by the personal information acquiring means to the central control device;
First remote operation information receiving means for receiving first remote operation information from the central control device; and execution means for executing communication behavior based on the first remote operation information received by the first remote operation information receiving means. Prepared,
The operation terminal is
Second remote operation transmitting means for transmitting second remote operation information for remotely operating the robot to the central control device;
The central controller is
A storage medium for storing communication information of an operator of the operation terminal;
Personal information receiving means for receiving personal information transmitted by the personal information transmitting means;
Communication information specifying means for specifying communication information from personal information received by the personal information receiving means;
Second remote operation information receiving means for receiving the second remote operation information transmitted by the second remote operation transmission means;
Determining means for determining whether the communication information specified by the communication information specifying means and the communication information of the operator of the operating terminal stored by the storage medium match;
When the determination result determined by the determining means does not match, the second remote operation information received by the second remote operation information receiving means is changed to the first remote control information based on the communication information specified by the communication information specifying means. A robot remote operation system comprising: conversion means for converting to operation information; and first remote operation information transmission means for transmitting the first remote operation information converted by the conversion means to the robot.
前記コミュニケーション情報は、言語情報を含み、
前記コミュニケーション情報特定手段は、前記個人情報受信手段によって受信された個人情報から言語情報を特定する言語情報特定手段を含み、
前記判断手段は、前記言語情報特定手段によって特定された言語情報と前記記憶媒体によって記憶された前記操作端末の操作者の言語情報とが一致するか否かを判断し、
前記変換手段は、前記判断手段によって判断された判断結果が一致しないときに、前記第2遠隔操作情報に含まれる発話の情報を前記言語特定手段によって特定された言語情報に基づいて翻訳する翻訳手段を含む、請求項1記載のロボット遠隔操作システム。
The communication information includes language information,
The communication information specifying means includes language information specifying means for specifying language information from the personal information received by the personal information receiving means,
The determining means determines whether or not the language information specified by the language information specifying means matches the language information of the operator of the operation terminal stored by the storage medium,
The converting means translates the utterance information included in the second remote control information based on the language information specified by the language specifying means when the determination results determined by the determining means do not match The robot remote control system according to claim 1, comprising:
前記コミュニケーション情報は、身体動作の種類の情報を含み、
前記コミュニケーション情報特定手段は、前記個人情報受信手段によって受信された個人情報から身体動作の種類の情報を特定する身体動作種類情報特定手段を含み、
前記比較手段は、前記身体動作種類情報特定手段によって特定された身体動作の種類の情報と前記記憶媒体によって記憶された前記操作端末の操作者の身体動作の種類の情報とが一致するか否かを判断し、
前記変換手段は、前記判断手段によって判断された判断結果が一致しないときに、前記第2遠隔操作情報に含まれる動作の情報を身体動作種類情報特定手段によって特定された身体動作の種類の情報に基づいて変換する動作変換手段を含む、請求項1または2記載のロボット遠隔操作システム。
The communication information includes information on the type of body movement,
The communication information specifying means includes physical action type information specifying means for specifying information on the type of physical action from the personal information received by the personal information receiving means,
The comparison means determines whether or not the physical action type information specified by the physical action type information specifying means matches the physical action type information of the operator of the operating terminal stored by the storage medium. Judging
When the determination result determined by the determination means does not match, the conversion means converts the motion information included in the second remote operation information into the physical action type information specified by the physical action type information specifying means. The robot remote control system according to claim 1, further comprising motion conversion means for converting based on the motion conversion means.
前記個人情報取得手段は、人間の音声を取得する音声取得手段を含み、
前記個人情報送信手段は、さらに前記音声取得手段によって取得された音声を送信し、
前記個人情報受信手段は、さらに前記個人情報送信手段によって送信された音声を受信し、
前記言語情報特定手段は、前記個人情報受信手段によって受信された人間の音声から言語情報を特定する音声言語情報特定手段を含む、請求項2または3記載のロボット遠隔操作システム。
The personal information acquisition means includes voice acquisition means for acquiring human voice,
The personal information transmission means further transmits the voice acquired by the voice acquisition means;
The personal information receiving means further receives the voice transmitted by the personal information transmitting means;
4. The robot remote control system according to claim 2, wherein the language information specifying unit includes a spoken language information specifying unit that specifies language information from a human voice received by the personal information receiving unit.
前記中央制御装置は、
前記音声取得手段によって人間の音声が取得されていないときに、前記ロボットに発話を指示する要求信号を送信する要求信号送信手段をさらに備え、
前記ロボットは、
前記要求信号送信手段によって送信された要求信号を受信する要求信号受信手段、および
前記要求信号受信手段によって受信された要求信号に応じて音声を出力する音声出力手段をさらに備える、請求項4記載のロボット遠隔操作システム。
The central controller is
A request signal transmitting means for transmitting a request signal for instructing the robot to speak when a human voice is not acquired by the voice acquiring means;
The robot is
5. The apparatus according to claim 4, further comprising: a request signal receiving unit that receives the request signal transmitted by the request signal transmitting unit; and an audio output unit that outputs a sound in response to the request signal received by the request signal receiving unit. Robot remote control system.
前記個人情報取得手段は、人間が携帯する識別情報タグから識別情報を取得する識別情報取得手段を含み、
前記個人情報送信手段は、さらに前記識別情報取得手段によって取得された識別情報を送信し、
前記個人情報受信手段は、さらに前記個人情報送信手段によって送信された識別情報を受信し、
前記言語情報特定手段は、前記個人情報受信手段によって受信された識別情報から少なくとも言語情報を特定する識別言語情報特定手段を含む、請求項2ないし5のいずれかに記載のロボット遠隔操作システム。
The personal information acquisition means includes identification information acquisition means for acquiring identification information from an identification information tag carried by a human,
The personal information transmitting means further transmits the identification information acquired by the identification information acquiring means;
The personal information receiving means further receives the identification information transmitted by the personal information transmitting means;
6. The robot remote control system according to claim 2, wherein the language information specifying means includes identification language information specifying means for specifying at least language information from the identification information received by the personal information receiving means.
前記個人情報取得手段は、人間が携帯する識別情報タグから識別情報を取得する識別情報取得手段を含み、
前記個人情報送信手段は、さらに前記識別情報取得手段によって取得された識別情報を送信し、
前記個人情報受信手段は、さらに前記個人情報送信手段によって送信された識別情報を受信し、
前記身体動作種類決定手段は、前記個人情報受信手段によって受信された識別情報からさらに身体動作の種類の情報を決定する識別情報身体動作種類決定手段を含む、請求項3記載のロボット遠隔操作システム。
The personal information acquisition means includes identification information acquisition means for acquiring identification information from an identification information tag carried by a human,
The personal information transmitting means further transmits the identification information acquired by the identification information acquiring means;
The personal information receiving means further receives the identification information transmitted by the personal information transmitting means;
4. The robot remote operation system according to claim 3, wherein the body motion type determining means includes identification information body motion type determining means for further determining information on the type of body motion from the identification information received by the personal information receiving means.
前記中央制御装置は、
前記判断手段によって判断された判断結果が一致しないときに、前記個人情報受信手段によって受信された音声を前記記憶媒体によって記憶された前記操作端末の操作者の言語情報に基づいて翻訳する音声翻訳手段、および
前記音声翻訳手段によって翻訳された翻訳結果を前記操作端末に送信する翻訳結果送信手段をさらに備え、
前記操作端末は、
前記翻訳音声結果送信手段によって送信された翻訳結果を受信する翻訳結果受信手段、および
前記翻訳結果受信手段によって受信された翻訳結果を出力する出力手段をさらに備える、請求項4ないし7のいずれかに記載のロボット遠隔操作システム。
The central controller is
Speech translation means for translating the speech received by the personal information receiving means based on the language information of the operator of the operation terminal stored in the storage medium when the judgment results judged by the judgment means do not match And a translation result transmitting means for transmitting the translation result translated by the speech translation means to the operation terminal,
The operation terminal is
The translation result receiving means for receiving the translation result transmitted by the translated speech result transmitting means, and the output means for outputting the translation result received by the translation result receiving means, further comprising: The robot remote control system described.
遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボットと、ネットワークを介して前記ロボットの遠隔操作を行う複数の操作端末と、前記ネットワークを介して前記ロボットと前記複数の操作端末のうち1台のとの仲介を行う中央制御装置とを備える、ロボット遠隔操作システムにおいて、
前記ロボットは、
前記人間の個人情報を取得する個人情報取得手段、
前記個人情報取得手段によって取得された前記個人情報を前記操作端末に送信する個人情報送信手段、
前記操作端末からの第1遠隔操作情報を受信する第1遠隔操作情報受信手段、および
前記第1遠隔操作情報受信手段によって受信した前記第1遠隔操作情報に基づくコミュニケーション行動を実行する実行手段を備え、
前記操作端末は、
前記操作端末自身の操作者のコミュニケーション情報を記憶する記憶媒体、
前記個人情報送信手段によって送信された個人情報を受信する個人情報受信手段、
前記個人情報受信手段によって受信された個人情報からコミュニケーション情報を特定するコミュニケーション情報特定手段、
前記コミュニケーション情報特定手段によって特定されたコミュニケーション情報と前記記憶媒体によって記憶された前記操作端末の操作者のコミュニケーション情報とが一致するか否かを判断する判断手段、
前記判断手段によって判断された判断結果が一致しないときに、前記ロボットを遠隔操作するための第2遠隔操作情報を前記コミュニケーション情報特定手段によって特定されたコミュニケーション情報に基づいて第1遠隔操作情報に変換する変換手段、および
前記変換手段によって変換された前記第1遠隔操作情報を前記ロボットに送信する第1遠隔操作情報送信手段を備える、ロボット遠隔操作システム。
A robot that performs communication with humans through at least one of body movement and voice by remote control or autonomous control, a plurality of operation terminals that perform remote control of the robot via a network, and the network via the network In a robot remote control system comprising a central controller that mediates between a robot and one of the plurality of operation terminals,
The robot is
Personal information acquisition means for acquiring the human personal information;
Personal information transmitting means for transmitting the personal information acquired by the personal information acquiring means to the operation terminal;
First remote operation information receiving means for receiving first remote operation information from the operation terminal, and execution means for executing a communication action based on the first remote operation information received by the first remote operation information receiving means. ,
The operation terminal is
A storage medium for storing communication information of an operator of the operation terminal itself;
Personal information receiving means for receiving personal information transmitted by the personal information transmitting means;
Communication information specifying means for specifying communication information from personal information received by the personal information receiving means;
Determining means for determining whether the communication information specified by the communication information specifying means and the communication information of the operator of the operating terminal stored by the storage medium match;
When the determination result determined by the determination means does not match, the second remote operation information for remotely operating the robot is converted into the first remote operation information based on the communication information specified by the communication information specifying means A robot remote operation system, comprising: a conversion unit that transmits the first remote operation information converted by the conversion unit to the robot.
遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボットと、ネットワークを介して前記ロボットの遠隔操作を行う複数の操作端末と、前記ネットワークを介して前記ロボットと前記複数の操作端末のうち1台との仲介を行う中央制御装置とを備える、ロボット遠隔操作システムにおいて、
前記操作端末は、
前記ロボットを遠隔操作するための第1遠隔操作情報を前記ロボットに送信する第1遠隔操作送信手段を備え、
前記ロボットは、
前記操作端末の操作者のコミュニケーション情報を記憶する記憶媒体、
前記人間の個人情報を取得する個人情報取得手段、
前記個人情報受信手段によって受信された個人情報からコミュニケーション情報を特定するコミュニケーション情報特定手段、
前記操作端末からの第1遠隔操作情報を受信する第1遠隔操作情報受信手段、
前記コミュニケーション情報特定手段によって特定されたコミュニケーション情報と前記記憶媒体によって記憶された前記操作端末の操作者のコミュニケーション情報とが一致するか否かを判断する判断手段、
前記判断手段によって判断された判断結果が一致しないときに、前記第1遠隔操作情報受信手段によって受信された第1遠隔操作情報を前記コミュニケーション情報特定手段によって特定されたコミュニケーション情報に基づいて第2遠隔操作情報に変換する変換手段、および
前記変換手段によって変換された前記第2遠隔操作情報に基づくコミュニケーション行動を実行する実行手段を備える、ロボット遠隔操作システム。
A robot that performs communication with humans through at least one of body movement and voice by remote control or autonomous control, a plurality of operation terminals that perform remote control of the robot via a network, and the network via the network In a robot remote operation system comprising a central control device that mediates between a robot and one of the plurality of operation terminals,
The operation terminal is
First remote operation transmission means for transmitting first remote operation information for remotely operating the robot to the robot;
The robot is
A storage medium for storing communication information of an operator of the operation terminal;
Personal information acquisition means for acquiring the human personal information;
Communication information specifying means for specifying communication information from personal information received by the personal information receiving means;
First remote operation information receiving means for receiving first remote operation information from the operation terminal;
Determining means for determining whether the communication information specified by the communication information specifying means and the communication information of the operator of the operating terminal stored by the storage medium match;
When the determination results determined by the determining means do not match, the first remote operation information received by the first remote operation information receiving means is changed to the second remote operation information based on the communication information specified by the communication information specifying means. A robot remote operation system comprising: conversion means for converting to operation information; and execution means for executing a communication action based on the second remote operation information converted by the conversion means.
JP2008087610A 2008-03-28 2008-03-28 Robot remote operation system Pending JP2009241166A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008087610A JP2009241166A (en) 2008-03-28 2008-03-28 Robot remote operation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008087610A JP2009241166A (en) 2008-03-28 2008-03-28 Robot remote operation system

Publications (1)

Publication Number Publication Date
JP2009241166A true JP2009241166A (en) 2009-10-22

Family

ID=41303692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008087610A Pending JP2009241166A (en) 2008-03-28 2008-03-28 Robot remote operation system

Country Status (1)

Country Link
JP (1) JP2009241166A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101817182A (en) * 2010-03-30 2010-09-01 杭州电子科技大学 Intelligent moving mechanical arm control system
JP2015164757A (en) * 2010-07-23 2015-09-17 株式会社国際電気通信基礎技術研究所 remote control robot
JP2016101441A (en) * 2014-11-28 2016-06-02 マッスル株式会社 Partner robot and remote control system thereof
JP2016155179A (en) * 2015-02-23 2016-09-01 株式会社国際電気通信基礎技術研究所 Guidance service system, guidance service program, guidance service method and guidance service device
JP2017010179A (en) * 2015-06-19 2017-01-12 Re&Do株式会社 Service providing system
JP2017182700A (en) * 2016-03-31 2017-10-05 Cocoro Sb株式会社 Customer reception control system, customer reception system and program
JP2018041231A (en) * 2016-09-06 2018-03-15 富士通株式会社 Customer service support program, customer service support method, customer service support system and information processor
JP2018067785A (en) * 2016-10-19 2018-04-26 前川 博文 Communication robot system
KR20190023334A (en) * 2017-08-28 2019-03-08 송철호 Service system for performing translation in accommodations
JP2019063216A (en) * 2017-09-29 2019-04-25 株式会社バンダイナムコエンターテインメント Toy system and toy
JP2019162714A (en) * 2016-08-29 2019-09-26 Groove X株式会社 Robot recognizing direction of sound source
JP2020032529A (en) * 2015-02-23 2020-03-05 株式会社国際電気通信基礎技術研究所 System, program, method and device for guide service
CN111086010A (en) * 2018-10-24 2020-05-01 丰田自动车株式会社 Communication robot and computer-readable storage medium
CN112423950A (en) * 2018-08-10 2021-02-26 川崎重工业株式会社 Mediation device and mediation method
JP2021064299A (en) * 2019-10-16 2021-04-22 株式会社サイバーエージェント Control system, terminal device, control method, and computer program
JP2022132166A (en) * 2021-02-26 2022-09-07 株式会社キビテク Robot supporting system
JP7446858B2 (en) 2020-03-04 2024-03-11 清水建設株式会社 Response control device, response control method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01147774A (en) * 1987-12-04 1989-06-09 Toshiba Corp Translation communication system
JP2001357414A (en) * 2000-06-13 2001-12-26 Minolta Co Ltd Animation communicating method and system, and terminal equipment to be used for it
JP2002245038A (en) * 2001-02-21 2002-08-30 Ricoh Co Ltd Multilanguage translation system by portable terminal equipment
JP2004230479A (en) * 2003-01-28 2004-08-19 Advanced Telecommunication Research Institute International Communication robot and communication system using the same
JP2007160442A (en) * 2005-12-12 2007-06-28 Honda Motor Co Ltd Mobile robot
JP2007190659A (en) * 2006-01-20 2007-08-02 Advanced Telecommunication Research Institute International Robot remote operation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01147774A (en) * 1987-12-04 1989-06-09 Toshiba Corp Translation communication system
JP2001357414A (en) * 2000-06-13 2001-12-26 Minolta Co Ltd Animation communicating method and system, and terminal equipment to be used for it
JP2002245038A (en) * 2001-02-21 2002-08-30 Ricoh Co Ltd Multilanguage translation system by portable terminal equipment
JP2004230479A (en) * 2003-01-28 2004-08-19 Advanced Telecommunication Research Institute International Communication robot and communication system using the same
JP2007160442A (en) * 2005-12-12 2007-06-28 Honda Motor Co Ltd Mobile robot
JP2007190659A (en) * 2006-01-20 2007-08-02 Advanced Telecommunication Research Institute International Robot remote operation system

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101817182A (en) * 2010-03-30 2010-09-01 杭州电子科技大学 Intelligent moving mechanical arm control system
JP2015164757A (en) * 2010-07-23 2015-09-17 株式会社国際電気通信基礎技術研究所 remote control robot
JP2016101441A (en) * 2014-11-28 2016-06-02 マッスル株式会社 Partner robot and remote control system thereof
JP2016155179A (en) * 2015-02-23 2016-09-01 株式会社国際電気通信基礎技術研究所 Guidance service system, guidance service program, guidance service method and guidance service device
JP2020032529A (en) * 2015-02-23 2020-03-05 株式会社国際電気通信基礎技術研究所 System, program, method and device for guide service
JP2017010179A (en) * 2015-06-19 2017-01-12 Re&Do株式会社 Service providing system
JP2017182700A (en) * 2016-03-31 2017-10-05 Cocoro Sb株式会社 Customer reception control system, customer reception system and program
JP2019162714A (en) * 2016-08-29 2019-09-26 Groove X株式会社 Robot recognizing direction of sound source
US11376740B2 (en) 2016-08-29 2022-07-05 Groove X, Inc. Autonomously acting robot that recognizes direction of sound source
JP2018041231A (en) * 2016-09-06 2018-03-15 富士通株式会社 Customer service support program, customer service support method, customer service support system and information processor
JP2018067785A (en) * 2016-10-19 2018-04-26 前川 博文 Communication robot system
KR101984960B1 (en) * 2017-08-28 2019-06-03 송철호 Service system for performing translation in accommodations
KR20190023334A (en) * 2017-08-28 2019-03-08 송철호 Service system for performing translation in accommodations
JP2019063216A (en) * 2017-09-29 2019-04-25 株式会社バンダイナムコエンターテインメント Toy system and toy
JP7174373B2 (en) 2017-09-29 2022-11-17 株式会社バンダイナムコエンターテインメント Toy system and toys
CN112423950A (en) * 2018-08-10 2021-02-26 川崎重工业株式会社 Mediation device and mediation method
CN111086010A (en) * 2018-10-24 2020-05-01 丰田自动车株式会社 Communication robot and computer-readable storage medium
CN111086010B (en) * 2018-10-24 2022-11-08 丰田自动车株式会社 Communication robot and computer-readable storage medium
JP2021064299A (en) * 2019-10-16 2021-04-22 株式会社サイバーエージェント Control system, terminal device, control method, and computer program
JP7446858B2 (en) 2020-03-04 2024-03-11 清水建設株式会社 Response control device, response control method, and program
JP2022132166A (en) * 2021-02-26 2022-09-07 株式会社キビテク Robot supporting system

Similar Documents

Publication Publication Date Title
JP2009241166A (en) Robot remote operation system
JP5070441B2 (en) Robot remote control system
JP5429462B2 (en) Communication robot
JP5033994B2 (en) Communication robot
JP4639343B2 (en) Robot remote control system
JP4386367B2 (en) Communication robot improvement system
JP5366048B2 (en) Information provision system
JP4822319B2 (en) Communication robot and attention control system using the same
WO2002045916A1 (en) Robot device, method for controlling motion of robot device, and system for controlling motion of robot device
JP2007260822A (en) Guide robot
WO2019138619A1 (en) Information processing device, information processing method and program
JP4962940B2 (en) Route guidance system
JP2009131914A (en) Robot control system
JP2007160427A (en) Robot control system
CN108942941A (en) A kind of educational robot voice interactive system
US20200269421A1 (en) Information processing device, information processing method, and program
JP2006231497A (en) Communication robot
JP5324956B2 (en) Road guidance robot
JP5163202B2 (en) Article estimation system
WO2020129421A1 (en) Information processing device, information processing method, and program
JP2018075657A (en) Generating program, generation device, control program, control method, robot device and telephone call system
JP5866646B2 (en) Communication system, utterance content generation device, utterance content generation program, and utterance content generation method
JP2017204231A (en) Information processor, information processing method, and information processing program
JP5194314B2 (en) Communication system
JP2001188551A (en) Device and method for information processing and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130326