JP5033994B2 - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP5033994B2
JP5033994B2 JP2006010626A JP2006010626A JP5033994B2 JP 5033994 B2 JP5033994 B2 JP 5033994B2 JP 2006010626 A JP2006010626 A JP 2006010626A JP 2006010626 A JP2006010626 A JP 2006010626A JP 5033994 B2 JP5033994 B2 JP 5033994B2
Authority
JP
Japan
Prior art keywords
operator
robot
call
human
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006010626A
Other languages
Japanese (ja)
Other versions
JP2007190641A (en
Inventor
崇行 神田
智史 小泉
昌裕 塩見
法明 光永
敬宏 宮下
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006010626A priority Critical patent/JP5033994B2/en
Publication of JP2007190641A publication Critical patent/JP2007190641A/en
Application granted granted Critical
Publication of JP5033994B2 publication Critical patent/JP5033994B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

この発明はコミュニケーションロボットに関し、特にたとえば、音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行する、コミュニケーションロボットに関する。   The present invention relates to a communication robot, and more particularly to a communication robot that executes a communication action with a human using at least one of voice and body motion.

従来のこの種のコミュニケーションロボットの一例が特許文献1に開示される。特許文献1の遠隔操作システムによれば、ロボット装置は警備などに利用され、基本的には自律行動を行う。ただし、ロボット動作の修正が必要な場合には自律遠隔協調モードに移行して修正動作を行うことができる。このとき、協調割合が100%遠隔であれば、ロボット装置は完全遠隔動作を行う。   An example of a conventional communication robot of this type is disclosed in Patent Document 1. According to the remote control system of Patent Document 1, the robot device is used for security and basically performs autonomous behavior. However, when the robot operation needs to be corrected, the correction operation can be performed by shifting to the autonomous remote cooperation mode. At this time, if the cooperation ratio is 100% remote, the robot apparatus performs a complete remote operation.

また、この種のコミュニケーションロボットの他の一例が特許文献2に開示される。この特許文献2のメンテナンスロボットシステムでは、メンテナンスロボットは、無人環境や夜間に顧客の施設内で利用されているコンピュータ群を巡回点検し、異常を発見したとき、障害内容を情報管理システムへ報告し、情報管理システムから送られてきた作業手順に従い、該当コンピュータの保守作業を行う。ただし、メンテナンスロボットは、保守作業を3回繰り返し行っても完了しない場合は、コールセンタへ保守員の派遣要請を行い、3回以内に作業が完了した場合は、作業完了をコールセンタへ報告する。   Another example of this type of communication robot is disclosed in Patent Document 2. In the maintenance robot system of Patent Document 2, the maintenance robot patrols the computer group used in the customer's facility in the unattended environment or at night, and when an abnormality is found, reports the failure content to the information management system. Then, according to the work procedure sent from the information management system, the corresponding computer is maintained. However, if the maintenance robot is not completed even after repeating the maintenance work three times, it requests the call center to send maintenance personnel, and if the work is completed within three times, the maintenance robot reports the completion of the work to the call center.

さらに、特許文献3(特許文献4も同様。)には、音声と共に身体動作を伝送することで、遠隔地間の人間同士のコミュニケーションを促進する遠隔地間対話システムが開示されている。特許文献3に開示される意思伝達装置は、話し手又は聞き手として振る舞う共用ロボットと、話し手制御部、聞き手制御部および音声送受信部とから構成され、たとえば電話器に適用される。この意思伝達装置では、電話回線を通じて送受信される音声信号を時系列的な電気信号のON/OFFと捉え、この電気信号のON/OFFから頷き動作タイミングを判断し、ロボットの各部を動作させる。具体的には、話し手としてのロボットは、通話相手の音声信号に応じて、瞬きしたり、口を開閉したり、腕、腰などの身体部位を動かしたりする。一方、聞き手としてのロボットは、本人であるユーザの音声信号に応じて、頷き動作をする。
特開2003−251581号公報[B25J 13/00] 特開2005−153104号公報[B25J 13/00] 特開2000−349920号公報[H04M 11/00] 特開2001−156930号公報[H04M 11/00]
Further, Patent Document 3 (the same applies to Patent Document 4) discloses a remote-to-site dialogue system that promotes communication between humans between remote locations by transmitting body motion together with voice. The intention transmission device disclosed in Patent Document 3 includes a shared robot that behaves as a speaker or a listener, a speaker control unit, a listener control unit, and a voice transmission / reception unit, and is applied to, for example, a telephone. In this intention transmission device, a voice signal transmitted / received through a telephone line is regarded as a time-series electrical signal ON / OFF, and a timing of operation is determined from ON / OFF of the electrical signal to operate each part of the robot. Specifically, a robot as a speaker blinks, opens and closes a mouth, and moves a body part such as an arm and a waist in accordance with a voice signal of a communication partner. On the other hand, the robot as a listener performs a whispering operation according to the voice signal of the user who is the user.
JP 2003-251581 A [B25J 13/00] JP 2005-153104 A [B25J 13/00] JP 2000-349920 A [H04M 11/00] JP 2001-156930 A [H04M 11/00]

特許文献1の発明では、オペレータは、ロボット装置から送信される各種のセンサ情報をモニタリングして、ロボット装置の動作モードを設定するようにしてあるため、オペレータはロボット装置の状態を常に監視する必要があった。すなわち、非効率であった。   In the invention of Patent Document 1, since the operator monitors various sensor information transmitted from the robot apparatus and sets the operation mode of the robot apparatus, the operator needs to constantly monitor the state of the robot apparatus. was there. That is, it was inefficient.

また、特許文献2の発明では、メンテナンスロボットは、保守作業を3回繰り返し行っても完了しない場合は、コールセンタへ保守員の派遣要請を行うだけである。つまり、保守員を現場に呼び出すに過ぎず、オペレータによる遠隔操作によってコンピュータ群の異常を解決しようとするものではなかった。   Further, in the invention of Patent Document 2, if the maintenance robot is not completed even if the maintenance work is repeated three times, it merely requests the call center to dispatch maintenance personnel. In other words, it was merely a call for maintenance personnel to the site, and it was not intended to solve computer group abnormalities by remote operation by an operator.

また、特許文献3および特許文献4の発明は、遠隔地に存在する人間の声や動作に合わせてロボットの頷き動作などが制御(遠隔制御)されるだけであり、必要に応じてオペレータの指示に従ってロボットを遠隔制御するものではなかった。   The inventions of Patent Document 3 and Patent Document 4 only control (remote control) a robot's whirling operation in accordance with a human voice or operation that exists in a remote place. Was not intended to remotely control the robot.

それゆえに、この発明の主たる目的は、効率良くロボットを遠隔操作できる、コミュニケーションロボットを提供することである。   Therefore, a main object of the present invention is to provide a communication robot that can remotely control the robot efficiently.

請求項1の発明は、自律制御またはオペレータ端末からの制御コマンドに従って操縦されることを示す遠隔操作によって、音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行するコミュニケーションロボットであって、少なくとも人間の声を含む周囲情報を検出する検出手段、自律制御では対応が困難な状態であるか否かを判断するための条件を示すオペレータ呼出条件を記憶する記憶手段、検出手段によって検出された周囲情報に基づいて記憶手段に記憶されたオペレータ呼出条件を満たすか否かを判断する呼出判断手段、呼出判断手段によってオペレータ呼出条件を満たすと判断されたとき、当該コミュニケーションロボットの操縦者となるオペレータを呼び出すための呼出信号をオペレータ端末に送信する送信手段、オペレータ端末から送信される制御コマンドを示す遠隔操作情報を受信する受信手段、受信手段によって受信された遠隔操作情報に基づくコミュニケーション行動を実行する実行手段、および人間との間で行われたインタラクションに基づいて、記憶手段にオペレータ呼出条件を自動的に追加する呼出条件追加手段を備える、コミュニケーションロボットである。 The invention according to claim 1 is a communication robot that executes a communication action with a human by using at least one of voice and body movement by remote control indicating that the vehicle is operated in accordance with an autonomous control or a control command from an operator terminal. A detecting means for detecting surrounding information including at least a human voice, a storing means for storing an operator calling condition indicating a condition for determining whether or not it is difficult to cope with autonomous control, and a detecting means. A call determination unit that determines whether or not an operator call condition stored in the storage unit is satisfied based on the detected ambient information. When the call determination unit determines that the operator call condition is satisfied, the operator of the communication robot Calls the operator terminal to call the operator Transmitting means for transmitting, receiving means for receiving the remote operation information indicating a control command transmitted from the operator terminal, execution means for executing the communication action based on the remote operation information received by the receiving means, and with the human The communication robot includes call condition adding means for automatically adding an operator call condition to the storage means based on the interaction performed .

請求項1の発明では、コミュニケーションロボット(10:実施例で相当する参照番号。以下同じ。)は、音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行する。たとえば、コミュニケーションロボットは、或るイベント会場や会社の受付のような様々な場所や状況に配置され、通常は自律制御によって人間との会話などのコミュニケーション行動を実行し、受付や道案内などの役割を果たす(サービスを提供する)。検出手段(28,32,42,46,48,58,72,98,S23)は、少なくとも人間の声を含む周囲情報、すなわち自身の周囲および自身の状況に関する情報などを検出する。記憶手段(100)は、オペレータ呼出条件を記憶する。ここで、オペレータ呼出条件とは、オペレータを呼び出すか否かを判断するための条件をいう。具体的には、自律制御だけでは対応が困難な状況や事態になり、遠隔操作による対応が必要になったことを示す。呼出判断手段(72,S5,S25〜39)は、検出手段によって検出した周囲情報に基づいて、記憶手段に記憶されたオペレータ呼出条件を満たすか否かを判断する。呼出判断手段によってオペレータ呼出条件を満たすと判断されたときには、送信手段(72,96,S7)は、オペレータを呼び出すための呼出信号を、たとえばネットワーク(202)を介してオペレータ端末(204)に送信する。オペレータ端末では、オペレータが遠隔操作情報(制御コマンド)を入力すると、コミュニケーションロボットに送信される。コミュニケーションロボットでは、受信手段(72,96,S11)が、オペレータによって入力された遠隔操作情報を受信する。実行手段(26,40,72,84〜92,S13)は、受信手段によって受信された遠隔操作情報に基づいて、音声および身体動作の少なくとも一方を含むコミュニケーション行動を実行する。また、呼出条件追加手段は、人間との間で行われたインタラクションに基づいて、記憶手段にオペレータ呼出条件を自動的に追加する。 According to the first aspect of the present invention, the communication robot (10: reference number corresponding to the embodiment; the same applies hereinafter) executes communication behavior with a human by using at least one of voice and body movement. For example, communication robots are placed in various places and situations such as certain event venues and company receptions, and usually perform communication behaviors such as conversations with human beings by autonomous control. Fulfill (provide service). The detection means (28, 32, 42, 46, 48, 58, 72, 98, S23) detects ambient information including at least a human voice, that is, information about the surroundings of the person and his / her situation. The storage means (100) stores the operator call condition. Here, the operator calling condition is a condition for determining whether or not to call an operator. Specifically, this indicates that the situation or situation is difficult to handle by autonomous control alone, and that it is necessary to respond by remote control. The call determination means (72, S5, S25 to 39) determines whether or not the operator call condition stored in the storage means is satisfied based on the surrounding information detected by the detection means. When it is determined by the call determination means that the operator call condition is satisfied, the transmission means (72, 96, S7) transmits a call signal for calling the operator to the operator terminal (204) via the network (202), for example. To do. In the operator terminal, when the operator inputs remote operation information (control command), it is transmitted to the communication robot. In the communication robot, the receiving means (72, 96, S11) receives the remote operation information input by the operator. The executing means (26, 40, 72, 84 to 92, S13) executes a communication action including at least one of voice and physical action based on the remote operation information received by the receiving means. The calling condition adding means automatically adds an operator calling condition to the storage means based on the interaction performed with a human.

請求項1の発明によれば、必要に応じてオペレータによる遠隔操作を行えばよいので、効率良くロボットを遠隔操作することができる。   According to the first aspect of the present invention, the robot can be remotely operated efficiently because the operator can perform the remote operation as necessary.

請求項2の発明は、請求項1に従属し、検出手段によって検出された人間の声を認識してキーワードが含まれるか否かを判断するキーワード判断手段をさらに備え、呼出判断手段は、キーワード判断手段によってキーワードが含まれることが判断されたとき、オペレータ呼出条件を満たすと判断する。   The invention of claim 2 is dependent on claim 1, and further comprises keyword determination means for recognizing a human voice detected by the detection means to determine whether or not a keyword is included, and the call determination means includes the keyword When it is determined by the determining means that the keyword is included, it is determined that the operator calling condition is satisfied.

請求項2の発明では、キーワード判断手段(72,S25)は、検出手段によって検出された人間の声を認識(音声認識)し、音声認識した人間の声にキーワードが含まれるか否かを判断する。たとえば、キーワードには、人間がコミュニケーションロボットと会話しているときに、困っていることを表現する場合に使用する言葉(単語,語句)が設定される。具体的には、「責任者を呼んで」や「わからない」などの言葉(単語,語句)が含まれてよい。キーワード判断手段によってキーワードが含まれると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。   In the invention of claim 2, the keyword judging means (72, S25) recognizes (voice recognition) the human voice detected by the detecting means, and judges whether or not the keyword is included in the voice-recognized human voice. To do. For example, a keyword (word, phrase) used to express a problem when a human is talking to a communication robot is set as the keyword. Specifically, words (words, phrases) such as “call the responsible person” and “don't know” may be included. When the keyword determining means determines that the keyword is included, the call determining means determines that the operator calling condition is satisfied.

請求項2の発明によれば、人間が困っている状況などを音声によって認識するので、当該人間の手を煩わすことがなく、適切にオペレータを呼び出すことができる。すなわち、より効率良く遠隔制御することができる。   According to the second aspect of the present invention, since a situation in which a person is in trouble is recognized by voice, the operator can be appropriately called without bothering the person's hand. That is, remote control can be performed more efficiently.

請求項3の発明は、請求項1または2に従属し、検出手段は、人間の顔の表情を取得する顔表情取得手段を含み、顔表情取得手段によって取得された人間の顔の表情が特定の表情であるか否かを判断する顔表情判断手段をさらに備え、呼出判断手段は、顔表情判断手段によって特定の表情であることが判断されたとき、オペレータ呼出条件を満たすと判断する。   The invention of claim 3 is dependent on claim 1 or 2, and the detection means includes a facial expression acquisition means for acquiring a facial expression of the human face, and the facial expression of the human face acquired by the facial expression acquisition means is specified. Facial expression determination means for determining whether or not the expression is a facial expression, and the call determination means determines that the operator call condition is satisfied when the facial expression determination means determines that the expression is a specific expression.

請求項3の発明では、顔表情取得手段(42,48,72,S23)は、人間の顔の表情を取得する。顔表情判断手段(72,S27)は、顔表情取得手段によって取得された人間の顔の表情が特定の表情であるか否かを判断する。特定の表情には、たとえば、コミュニケーションロボットとのコミュニケーション行動がうまくいっていないときに見せる人間の顔の表情を設定することができる。具体的には、怒っている表情や困っている表情などが設定される。顔表情判断手段によって特定の表情であると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。   In the invention of claim 3, the facial expression acquisition means (42, 48, 72, S23) acquires a facial expression of a human face. The facial expression determination means (72, S27) determines whether or not the facial expression of the human face acquired by the facial expression acquisition means is a specific expression. As the specific facial expression, for example, a facial expression of a human face to be shown when communication behavior with the communication robot is not good can be set. Specifically, an angry expression or a troubled expression is set. When the facial expression determination unit determines that the facial expression is a specific expression, the call determination unit determines that the operator calling condition is satisfied.

請求項3の発明によれば、人間とのコミュニケーションが適切に行われていないことを人間の顔の表情によって判断するので、請求項2の発明と同様に、当該人間の手を煩わすことなく、適切にオペレータを呼び出すことができる。   According to the invention of claim 3, since it is determined by the facial expression of the human face that the communication with the human being is not properly performed, similarly to the invention of claim 2, without bothering the human hand, The operator can be called appropriately.

請求項4の発明は、請求項1ないし3のいずれかに従属し、検出手段は、人間を個々に識別する個人識別手段を含み、個人識別手段によって識別された人間が特定の人間であるか否かを判断する人間判断手段をさらに備え、呼出判断手段は、人間判断手段によって特定の人間であることが判断されたとき、オペレータ呼出条件を満たすと判断する。   The invention of claim 4 is dependent on any one of claims 1 to 3, wherein the detection means includes personal identification means for individually identifying a person, and whether the person identified by the personal identification means is a specific person. It further comprises human judgment means for judging whether or not, and the call judgment means judges that the operator call condition is satisfied when the human judgment means determines that the person is a specific person.

請求項4の発明では、個人識別手段(42,48,72,98,S23)は、人間を個々に識別する。人間判断手段(72,S29)は、個人識別手段によって識別された人間が特定の人間であるか否かを判断する。ここで、特定の人間とは、オペレータによる遠隔操作で適切に対応することが望ましい人間を意味する。特定の人間には、たとえば、いわゆるVIP(重要な顧客)や自律制御だけでは対応することが難しい人間(たとえば、幼児)が設定される。人間判断手段によって特定の人間であると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。   In the invention of claim 4, the personal identification means (42, 48, 72, 98, S23) identifies a person individually. The human judgment means (72, S29) judges whether or not the person identified by the personal identification means is a specific person. Here, the specific person means a person who is desired to respond appropriately by remote operation by an operator. As the specific person, for example, a so-called VIP (important customer) or a person (for example, an infant) who is difficult to deal with only by autonomous control is set. When it is determined by the human determination means that the person is a specific person, the call determination means determines that the operator call condition is satisfied.

請求項4の発明によれば、特定の人間を認識した場合には、速やかにオペレータを呼び出すので、より適切に対応することができるとともに、未然にトラブルを防止することもできる。すなわち、状況に応じた適切なサービスを提供することができる。   According to the invention of claim 4, when a specific person is recognized, the operator is quickly called, so that it is possible to cope more appropriately and to prevent troubles in advance. That is, it is possible to provide an appropriate service according to the situation.

請求項5の発明は、請求項1ないし4のいずれかに従属し、検出手段は、少なくとも人間を含む対象物との距離を検出する距離検出手段を含み、距離検出手段によって検出された対象物との距離が所定距離以内であるか否かを判断する距離判断手段をさらに備え、呼出判断手段は、距離判断手段によって所定距離以内であることが判断されたとき、オペレータ呼出条件を満たすと判断する。   The invention of claim 5 is dependent on any one of claims 1 to 4, wherein the detection means includes distance detection means for detecting a distance from an object including at least a human, and the object detected by the distance detection means Distance determining means for determining whether or not the distance is within a predetermined distance, and the call determining means determines that the operator calling condition is satisfied when the distance determining means determines that the distance is within the predetermined distance. To do.

請求項5の発明では、検出手段は、距離検出手段(32,72,S23)を含み、距離検出手段は、少なくとも人間を含む対象物との距離を検出する。距離判断手段(72,S31,S33)は、距離検出手段によって検出された対象物との距離が所定距離以内であるか否かを判断する。距離判断手段によって所定距離以内であると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。つまり、距離検出手段によって検出される距離に基づいて、オペレータによる対応が必要であるような特定の状況を推測するのである。たとえば、人間との距離が1m以内であり、この状態が5分以上継続している場合には、当該人間とコミュニケーションロボットとが長い間会話しており、コミュニケーションロボットによる受付や道案内がうまくできていないことが推測される。また、たとえば、コミュニケーションロボットの移動中に、人間との距離が50cm以下であり、この状態が10秒以上継続している場合には、当該人間に行く手を塞がれていると推測される。   In the invention of claim 5, the detecting means includes a distance detecting means (32, 72, S23), and the distance detecting means detects a distance from an object including at least a human being. The distance determining means (72, S31, S33) determines whether or not the distance from the object detected by the distance detecting means is within a predetermined distance. When the distance determining means determines that the distance is within the predetermined distance, the call determining means determines that the operator calling condition is satisfied. That is, based on the distance detected by the distance detection means, a specific situation that requires an action by the operator is estimated. For example, if the distance to a person is within 1 meter and this state continues for 5 minutes or more, the person and the communication robot have been talking for a long time, and the reception and guidance by the communication robot can be performed well. It is speculated that not. Further, for example, when the distance from the human being is 50 cm or less during the movement of the communication robot and this state continues for 10 seconds or longer, it is estimated that the hand going to the human being is blocked.

請求項5の発明によれば、人間との会話がうまくいっていない状況や人間にいたずらされている状況などを推測して、オペレータを呼び出すので、トラブルに対して適切に対応することができる According to the invention of claim 5, since the operator is called by estimating the situation where the conversation with the human being is not good or the situation where the human being is tampered with, it is possible to appropriately cope with the trouble .

この発明によれば、オペレータによる遠隔操作が必要な状況を適切に判断してオペレータを呼び出すので、オペレータは必要に応じて遠隔操作を行えばよい。つまり、効率良くロボットを遠隔操作でき、状況に応じた適切なサービスを提供することができる。   According to the present invention, the operator is appropriately determined when a situation requiring remote operation by the operator is called, and the operator may perform remote operation as necessary. That is, the robot can be remotely operated efficiently, and an appropriate service according to the situation can be provided.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のコミュニケーションロボット10(以下、単に「ロボット」ということがある。)は、主として人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のもので、音声によって人間と対話することが可能である。また、音声に代えて、或いは音声とともに、身振り手振りのような身体動作を用いてコミュニケーションすることもできる。以下、この明細書において、音声および身体動作の少なくとも一方を用いたコミュニケーションの行動ないし動作をコミュニケーション行動という。   Referring to FIG. 1, a communication robot 10 (hereinafter, simply referred to as a “robot”) of this embodiment is an interaction-oriented one mainly intended to communicate with a communication target such as a human. It is possible to interact with humans by voice. Moreover, it can also communicate using body movements, such as gesture gesture instead of a voice | voice or with a voice | voice. Hereinafter, in this specification, a communication action or action using at least one of voice and body movement is referred to as communication action.

このロボット10は、一例として、受付ロボットや道案内ロボットであり、或るイベント会場や会社の受付などの様々な場所や状況に配置され、通常は自律制御によって、受付や道案内などの役割を果たす(サービスを提供する)。しかし、ロボット10は、自律制御だけでは対応することが困難な事態になった場合、たとえば人間との会話がうまくいっていない状況になったり、より細やかな対応が求められる場面になったりした場合などには、オペレータを呼び出す。そして、ロボット10は、呼び出したオペレータによって入力された制御コマンド(遠隔操作情報)を受信し、当該制御コマンドに従うコミュニケーション行動(動作や発話)を実行する。つまり、ロボット10は、オペレータによって必要に応じて遠隔操作される。   The robot 10 is, for example, a reception robot or a road guidance robot, and is arranged in various places and situations such as a certain event venue or company reception, and normally plays a role such as reception and road guidance by autonomous control. Fulfill (provide service). However, when it becomes difficult for the robot 10 to respond by autonomous control alone, for example, when the conversation with the human is not good, or when it becomes a scene that requires more detailed response, etc. Call the operator. The robot 10 receives a control command (remote operation information) input by the calling operator, and executes a communication action (operation or speech) according to the control command. That is, the robot 10 is remotely operated as necessary by the operator.

図1は、ロボット10の外観を示す正面図である。この図1に示すように、ロボット10は台車22を含み、この台車22の下面にはロボット10を自律移動させる車輪24が設けられる。車輪24は車輪モータ26(図2参照)によって駆動され、台車22すなわちロボット10を前後左右任意の方向に動かすことができる。このように、ロボット10は配置された環境内を移動可能なものであるが、場合によっては環境内の所定位置に固定的に設けられてもよい。   FIG. 1 is a front view showing the appearance of the robot 10. As shown in FIG. 1, the robot 10 includes a carriage 22, and wheels 24 for autonomously moving the robot 10 are provided on the lower surface of the carriage 22. The wheel 24 is driven by a wheel motor 26 (see FIG. 2), and the carriage 22, that is, the robot 10 can be moved in any direction, front, rear, left, and right. As described above, the robot 10 is movable in the environment where it is arranged, but may be fixedly provided at a predetermined position in the environment depending on circumstances.

なお、図1においては省略するが、台車22の前面には、衝突センサ28(図2参照)が取り付けられ、この衝突センサ28は台車22への人や他の障害物の接触を検知する。つまり、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪24の駆動を停止してロボット10の移動を急停止させる。   Although not shown in FIG. 1, a collision sensor 28 (see FIG. 2) is attached to the front surface of the carriage 22, and the collision sensor 28 detects contact of a person and other obstacles with the carriage 22. That is, when contact with an obstacle is detected during the movement of the robot 10, the driving of the wheels 24 is immediately stopped to suddenly stop the movement of the robot 10.

また、この実施例では、ロボット10の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。   In this embodiment, the height of the robot 10 is about 100 cm so as not to intimidate people, particularly children. However, this height can be changed.

台車22の上には、多角形柱のセンサ取付パネル30が設けられ、このセンサ取付パネル30の各面には、超音波距離センサ32が取り付けられる。この超音波距離センサ32は、センサ取付パネル30すなわちロボット10の周囲の主として人との距離を計測するものである。   A polygonal column sensor mounting panel 30 is provided on the carriage 22, and an ultrasonic distance sensor 32 is mounted on each surface of the sensor mounting panel 30. The ultrasonic distance sensor 32 measures the distance between the sensor mounting panel 30, that is, the person around the robot 10 mainly.

また、台車22の上には、さらに、その下部がセンサ取付パネル30に囲まれて、ロボット10の胴体が直立するように設けられる。この胴体は、下部胴体34と上部胴体36とによって構成され、下部胴体34および上部胴体36は、連結部38によって互いに連結される。図示は省略するが、連結部38には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体36の高さすなわちロボット10の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ40(図2参照)によって駆動される。   Moreover, the lower part of the robot 22 is surrounded by the sensor mounting panel 30 so that the body of the robot 10 stands upright. This body is constituted by a lower body 34 and an upper body 36, and the lower body 34 and the upper body 36 are connected to each other by a connecting portion 38. Although illustration is omitted, the connecting portion 38 has a built-in lifting mechanism, and the height of the upper body 36, that is, the height of the robot 10 can be changed by using this lifting mechanism. As will be described later, the lifting mechanism is driven by a waist motor 40 (see FIG. 2).

なお、上述したロボット10の背の高さは、上部胴体36をそれの最下位置にしたときのものである。したがって、ロボット10の背の高さは、100cm以上にすることも可能である。   The height of the robot 10 described above is that when the upper body 36 is at its lowest position. Therefore, the height of the robot 10 can be 100 cm or more.

上部胴体36には、1つの全方位カメラ42が設けられる。全方位カメラ42は、たとえば背面側上端部のほぼ中央からのびる支柱44上に設置される。全方位カメラ42は、ロボット10の周囲を撮影するものであり、後述する眼カメラ48とは区別される。この全方位カメラ42としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。また、上部胴体36の正面側のほぼ中央には、1つのマイク46が設けられる。マイク46は、周囲の音、とりわけコミュニケーション対象である人間の声を取り込む。なお、これら全方位カメラ42およびマイク46の設置位置は上部胴体36に限られず適宜変更され得る。   The upper body 36 is provided with one omnidirectional camera 42. The omnidirectional camera 42 is installed, for example, on a support column 44 extending from substantially the center of the upper end on the back side. The omnidirectional camera 42 photographs the surroundings of the robot 10 and is distinguished from an eye camera 48 described later. As this omnidirectional camera 42, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. In addition, one microphone 46 is provided substantially at the center of the front side of the upper body 36. The microphone 46 captures ambient sounds, particularly human voices that are communication targets. The installation positions of the omnidirectional camera 42 and the microphone 46 are not limited to the upper body 36 and can be changed as appropriate.

上部胴体36の両肩には、それぞれ、肩関節50Rおよび50Lによって、上腕52Rおよび52Lが設けられる。肩関節50Rおよび50Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節50Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕52Rの角度を制御できる。Y軸は、上腕52Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節50Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕52Lの角度を制御できる。B軸は、上腕52Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。   Upper arms 52R and 52L are provided on both shoulders of the upper body 36 by shoulder joints 50R and 50L, respectively. The shoulder joints 50R and 50L each have three axes of freedom. That is, the shoulder joint 50R can control the angle of the upper arm 52R around each of the X axis, the Y axis, and the Z axis. The Y axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 52R, and the X axis and the Z axis are orthogonal to the Y axis from different directions. On the other hand, the shoulder joint 50L can control the angle of the upper arm 52L around each of the A axis, the B axis, and the C axis. The B axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 52L, and the A axis and the C axis are axes orthogonal to the B axis from different directions.

また、上腕52Rおよび52Lのそれぞれの先端には、肘関節54Rおよび54Lを介して、前腕56Rおよび56Lが設けられる。肘関節54Rおよび54Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕56Rおよび56Lの角度を制御できる。   Further, forearms 56R and 56L are provided at the respective distal ends of the upper arms 52R and 52L via elbow joints 54R and 54L. The elbow joints 54R and 54L can control the angles of the forearms 56R and 56L around the axes of the W axis and the D axis, respectively.

なお、上腕52Rおよび52Lならびに前腕56Rおよび56Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図1に示すように、上腕52Rおよび52Lならびに前腕56Rおよび56Lは下方に向けられる。   In the X axis, Y axis, Z axis, W axis, A axis, B axis, C axis, and D axis that control the displacement of the upper arms 52R and 52L and the forearms 56R and 56L, "0 degree" is the home position, respectively. In this home position, as shown in FIG. 1, the upper arms 52R and 52L and the forearms 56R and 56L are directed downward.

また、図示は省略するが、上部胴体36の肩関節50Rおよび50Lを含む肩の部分や上述の上腕52Rおよび52Lならびに前腕56Rおよび56Lには、それぞれ、タッチセンサ(図2で包括的に示す。:58)が設けられていて、これらのタッチセンサ58は、人がロボット10の当該各部位に触れたかどうかを検知する。   Although not shown in the drawings, touch sensors (shown comprehensively in FIG. 2) are respectively provided on the shoulder portion of the upper body 36 including the shoulder joints 50R and 50L, the upper arms 52R and 52L, and the forearms 56R and 56L. : 58), and these touch sensors 58 detect whether or not a person touches each part of the robot 10.

前腕56Rおよび56Lのそれぞれの先端には、手に相当する球体60Rおよび60Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。   Spheres 60R and 60L corresponding to hands are fixedly provided at the tips of the forearms 56R and 56L, respectively. However, if a finger or palm function is required, a “hand” in the shape of a human hand can be used.

上部胴体36の中央上方には、首関節62を介して頭部64が設けられる。首関節62は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部64には、人の口に相当する位置に、スピーカ66が設けられる。スピーカ66は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーション行動を実行するために用いられる。ただし、スピーカ66は、ロボット10の他の部位、たとえば胴体などに設けられてもよい。   A head 64 is provided above the center of the upper body 36 via a neck joint 62. The neck joint 62 has a degree of freedom of three axes, and the angle can be controlled around each of the S axis, the T axis, and the U axis. The S-axis is an axis that extends from the neck directly upward (vertically upward), and the T-axis and the U-axis are axes that are orthogonal to the S-axis in different directions. The head 64 is provided with a speaker 66 at a position corresponding to a human mouth. The speaker 66 is used by the robot 10 to execute communication behaviors by voice or sound with respect to people around it. However, the speaker 66 may be provided in another part of the robot 10, for example, the trunk.

また、頭部64には、目に相当する位置に眼球部68Rおよび68Lが設けられる。眼球部68Rおよび68Lは、それぞれ眼カメラ48Rおよび48Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがあり、また、右の眼カメラ48Rと左の眼カメラ48Lとをまとめて眼カメラ48ということもある。   The head 64 is provided with eyeballs 68R and 68L at positions corresponding to the eyes. Eyeball portions 68R and 68L include eye cameras 48R and 48L, respectively. Hereinafter, the right eyeball portion 68R and the left eyeball portion 68L may be collectively referred to as the eyeball portion 68, and the right eye camera 48R and the left eye camera 48L may be collectively referred to as the eye camera 48.

眼カメラ48は、ロボット10に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。眼カメラ48としては、上述した全方位カメラ42と同様のカメラを用いることができる。   The eye camera 48 captures a human face approaching the robot 10, other parts or objects, and captures a corresponding video signal. As the eye camera 48, a camera similar to the omnidirectional camera 42 described above can be used.

たとえば、眼カメラ48は眼球部68内に固定され、眼球部68は眼球支持部(図示せず)を介して頭部64内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部64に対して設けられる軸であり、α軸は頭部64の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部64の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部64がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部64において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ48の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。   For example, the eye camera 48 is fixed in the eyeball part 68, and the eyeball part 68 is attached to a predetermined position in the head 64 via an eyeball support part (not shown). The eyeball support unit has two degrees of freedom and can be controlled in angle around each of the α axis and the β axis. The α axis and the β axis are axes provided with respect to the head 64, the α axis is an axis in a direction toward the top of the head 64, the β axis is orthogonal to the α axis and the front side of the head 64 ( It is an axis in a direction perpendicular to the direction in which the face is facing. In this embodiment, when the head 64 is at the home position, the α axis is set to be parallel to the S axis, and the β axis is set to be parallel to the U axis. In such a head 64, when the eyeball support portion is rotated around each of the α axis and the β axis, the tip (front) side of the eyeball portion 68 or the eye camera 48 is displaced, and the camera axis, that is, the line-of-sight direction is changed. Moved.

なお、眼カメラ48の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図1に示すように、眼カメラ48のカメラ軸は頭部64の正面側(顔)が向く方向に向けられ、視線は正視状態となる。   In the α axis and β axis that control the displacement of the eye camera 48, “0 degree” is the home position. At this home position, the camera axis of the eye camera 48 is the head 64 as shown in FIG. The direction of the front side (face) is directed, and the line of sight is in the normal viewing state.

図2はロボット10の電気的な構成を示すブロック図であり、この図2を参照して、ロボット10は、全体を制御するCPU72を含む。CPU72は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス74を介して、メモリ76、モータ制御ボード78、センサ入力/出力ボード80および音声入力/出力ボード82に接続される。   FIG. 2 is a block diagram showing an electrical configuration of the robot 10. With reference to FIG. 2, the robot 10 includes a CPU 72 for controlling the whole. The CPU 72 is also called a microcomputer or a processor, and is connected to the memory 76, the motor control board 78, the sensor input / output board 80, and the audio input / output board 82 via the bus 74.

メモリ76は、図示は省略するが、ROMやHDDおよびRAMを含み、ROMやHDDには、ロボット10の動作を制御する制御プログラムなどのプログラムが予め記憶される。他のプログラムとしては、各センサ28,32,42,46,48,58の出力を検出する検出プログラム、オペレータを呼び出すための呼出プログラムおよび外部コンピュータすなわちオペレータ端末204(図3参照)との間で必要なデータないしコマンドを送受信するための通信プログラムなどが該当する。また、メモリ76には、コミュニケーション行動を実行する際にスピーカ66から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データなども記憶される。ただし、RAMは、ワークメモリやバッファメモリとして用いられる。   Although not shown, the memory 76 includes a ROM, an HDD, and a RAM, and programs such as a control program for controlling the operation of the robot 10 are stored in advance in the ROM and the HDD. Other programs include a detection program for detecting the output of each sensor 28, 32, 42, 46, 48, 58, a calling program for calling an operator, and an external computer, that is, an operator terminal 204 (see FIG. 3). This corresponds to a communication program for transmitting / receiving necessary data or commands. The memory 76 also stores voice data or voice data (voice synthesis data) to be generated from the speaker 66 when performing a communication action, angle data for presenting a predetermined gesture, and the like. However, the RAM is used as a work memory or a buffer memory.

制御プログラムとしては、ロボット10の身体動作を制御するための複数のプログラム(行動モジュールと呼ばれる。)の各々がコマンド名(制御コマンド)に対応して記憶される。たとえば、行動モジュールが示す身体動作としては、「なーに」、「わーい」、「待機」…などがある。   As the control program, each of a plurality of programs (referred to as action modules) for controlling the body motion of the robot 10 is stored in correspondence with a command name (control command). For example, the body movements indicated by the behavior module include “what”, “wow”, “standby”, and so on.

行動モジュールが示す身体動作が「なーに」である場合には、「なーに」と発話して首を傾げる。具体的には、CPU72は、メモリ76から「なーに」に対応する音声データ(音声合成データ)を読み出し、音声入力/出力ボード82を介してスピーカ66から出力する。これと同時或いはほぼ同時に、CPU72は、メモリ76から首62を傾げる場合の角度データを読み出し、モータ制御ボード78に与える。すると、首を傾げるように、頭部モータ92が回転される。   When the body motion indicated by the behavior module is “what”, say “what” and tilt the head. Specifically, the CPU 72 reads out voice data (voice synthesis data) corresponding to “Nani” from the memory 76 and outputs it from the speaker 66 via the voice input / output board 82. At the same time or almost the same time, the CPU 72 reads out the angle data when the neck 62 is tilted from the memory 76 and supplies it to the motor control board 78. Then, the head motor 92 is rotated so as to tilt the neck.

また、行動モジュールが示す身体動作が「わーい」である場合には、「わーい」と発話して両手を挙げる。具体的には、CPU72は、メモリ76から「わーい」に対応する音声合成データを読み出し、音声入力/出力ボード82を介してスピーカ66から出力する。これと同時或いはほぼ同時に、CPU72は、メモリ76から両手を挙げる場合の角度データを読み出し、モータ制御ボード78に与える。すると、両手を挙げるように、右腕モータ88および左腕モータ90が所定角度だけ回転される。   Also, if the body motion indicated by the behavior module is “Wai”, utter “Wai” and raise both hands. Specifically, the CPU 72 reads out the voice synthesis data corresponding to “Wai” from the memory 76 and outputs it from the speaker 66 via the voice input / output board 82. At the same time or almost the same time, the CPU 72 reads out the angle data for raising both hands from the memory 76, and gives it to the motor control board 78. Then, the right arm motor 88 and the left arm motor 90 are rotated by a predetermined angle so as to raise both hands.

さらに、行動モジュールが示す身体動作が「待機」である場合には、「暇だな」と発話したり、「あそぼ」と発話したり、辺りを見渡すように動作したりする。具体的には、CPU72は、メモリ76から一定時間毎に、「暇だな」或いは「あそぼ」に対応する音声合成データを読みだし、音声入力/出力ボード82を介してスピーカ66から出力する。これと同時或いはほぼ同時に、CPU72は、メモリ76から首62を左右に振る場合の角度データを読み出し、モータ制御ボード78に与える。すると、首62を左右に振るように、頭部モータ92が回転される。   Further, when the physical motion indicated by the behavior module is “standby”, the user speaks “I am free”, speaks “Play”, or operates to look around. Specifically, the CPU 72 reads out speech synthesis data corresponding to “free time” or “play” from the memory 76 at regular intervals, and outputs it from the speaker 66 via the voice input / output board 82. At the same time or almost the same time, the CPU 72 reads out angle data when the neck 62 is swung left and right from the memory 76 and supplies it to the motor control board 78. Then, the head motor 92 is rotated so as to swing the neck 62 left and right.

モータ制御ボード78は、たとえばDSPで構成され、各腕や頭部および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード78は、CPU72からの制御データを受け、右眼球部68Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「右眼球モータ」と示す。)84の回転角度を制御する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左眼球部68Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「左眼球モータ」と示す。)86の回転角度を制御する。   The motor control board 78 is constituted by, for example, a DSP, and controls driving of each axis motor such as each arm, head, and eyeball. That is, the motor control board 78 receives the control data from the CPU 72 and controls two angles of the α axis and β axis of the right eyeball portion 68R (in FIG. 2, collectively referred to as “right eyeball motor”). .) Control the rotation angle of 84. Similarly, the motor control board 78 receives control data from the CPU 72, and controls two angles of the α axis and β axis of the left eyeball portion 68L (in FIG. 2, collectively referred to as “left eyeball motor”). Controls the rotation angle of 86.

また、モータ制御ボード78は、CPU72からの制御データを受け、右肩関節50RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節54RのW軸の角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「右腕モータ」と示す。)88の回転角度を調節する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左肩関節50LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節54LのD軸の角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「左腕モータ」と示す。)90の回転角度を調整する。   The motor control board 78 receives the control data from the CPU 72, and controls the angles of the X axis, Y axis and Z axis of the right shoulder joint 50R and the W axis angle of the right elbow joint 54R. The rotation angles of a total of four motors (one collectively shown as “right arm motor” in FIG. 2) 88 with one motor to be controlled are adjusted. Similarly, the motor control board 78 receives the control data from the CPU 72 and determines the angles of the three motors for controlling the angles of the A-axis, B-axis and C-axis of the left shoulder joint 50L and the D-axis angle of the left elbow joint 54L. The rotation angle of a total of four motors (one collectively shown as “left arm motor” in FIG. 2) 90 with one motor to be controlled is adjusted.

さらに、モータ制御ボード78は、CPU72からの制御データを受け、頭部64のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図2では、まとめて「頭部モータ」と示す。)92の回転角度を制御する。さらにまた、モータ制御ボード78は、CPU72からの制御データを受け、腰モータ40および車輪24を駆動する2つのモータ(図2では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。   Further, the motor control board 78 receives control data from the CPU 72 and controls three motors for controlling the angles of the S-axis, the T-axis, and the U-axis of the head 64 (collectively “head motor” in FIG. 2). The rotation angle of 92 is controlled. Furthermore, the motor control board 78 receives the control data from the CPU 72 and controls the rotation angle of two motors 26 (hereinafter collectively referred to as “wheel motors”) 26 that drive the waist motor 40 and the wheels 24. To do.

なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。   In this embodiment, stepping motors or pulse motors are used for the motors other than the wheel motor 26 in order to simplify the control. However, as with the wheel motor 26, a DC motor may be used.

センサ入力/出力ボード80もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU72に与える。すなわち、超音波距離センサ32のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード80を通してCPU72に入力される。また、全方位カメラ42からの映像信号が、必要に応じてこのセンサ入力/出力ボード80で所定の処理を施された後、CPU72に入力される。眼カメラ48からの映像信号も、同様にして、CPU72に入力される。また、上述した複数のタッチセンサ(図2では、まとめて「タッチセンサ58」と示す。)、および衝突センサ28からの信号がセンサ入力/出力ボード80を介してCPU72に与えられる。   Similarly, the sensor input / output board 80 is also constituted by a DSP, and takes in signals from each sensor and gives them to the CPU 72. That is, data relating to the reflection time from each of the ultrasonic distance sensors 32 is input to the CPU 72 through the sensor input / output board 80. Further, a video signal from the omnidirectional camera 42 is input to the CPU 72 after being subjected to predetermined processing by the sensor input / output board 80 as required. Similarly, the video signal from the eye camera 48 is also input to the CPU 72. Further, the plurality of touch sensors described above (collectively indicated as “touch sensor 58” in FIG. 2) and signals from the collision sensor 28 are provided to the CPU 72 via the sensor input / output board 80.

音声入力/出力ボード82もまた、同様に、DSPで構成され、CPU72から与えられる音声合成データに従った音声または声がスピーカ66から出力される。また、マイク46からの音声入力が、音声入力/出力ボード82を介してCPU72に取り込まれる。   Similarly, the voice input / output board 82 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the CPU 72 is output from the speaker 66. Also, the voice input from the microphone 46 is taken into the CPU 72 via the voice input / output board 82.

また、CPU72は、バス74を介して通信LANボード94および無線通信装置96に接続される。また、通信LANボード94および無線通信装置96は、図示は省略するが、たとえば、無線LANアクセスポイントを介してLANやインターネットのようなネットワーク202(図3参照)に接続される。通信LANボード94は、DSPで構成され、CPU72から送られる送信データを無線通信装置96に与え、無線通信装置96から送信データを、ネットワーク202を介してオペレータ端末204に送信する。また、通信LANボード94は、無線通信装置96を介してオペレータ端末204からの遠隔操作情報(制御コマンド)を受信し、受信した遠隔操作情報をCPU72に与える。なお、ロボット10が移動不可能に設置されている場合には、ネットワーク202へは有線で接続されてもよい。また、ロボット10とオペレータ端末204とが無線もしくは有線により直接通信するように構成してもよい。   The CPU 72 is connected to the communication LAN board 94 and the wireless communication device 96 via the bus 74. Although not shown, the communication LAN board 94 and the wireless communication device 96 are connected to a network 202 (see FIG. 3) such as a LAN or the Internet via a wireless LAN access point. The communication LAN board 94 is configured by a DSP, applies transmission data sent from the CPU 72 to the wireless communication device 96, and transmits the transmission data from the wireless communication device 96 to the operator terminal 204 via the network 202. Further, the communication LAN board 94 receives remote operation information (control command) from the operator terminal 204 via the wireless communication device 96 and gives the received remote operation information to the CPU 72. When the robot 10 is installed so as not to move, it may be connected to the network 202 by wire. Further, the robot 10 and the operator terminal 204 may be configured to directly communicate with each other wirelessly or by wire.

また、CPU72には無線タグ読取装置98が接続される。無線タグ読取装置98は、無線タグ(RFIDタグ)から送信される識別情報の重畳された電波を、アンテナを介して受信し、電波信号を増幅し、当該電波信号から識別情報を分離し、当該識別情報を復調(デコード)してCPU72に与える。無線タグはイベント会場や会社などにいる人間に装着されており、無線タグ読取装置98は通信可能範囲内の無線タグを検出する。なお、無線タグはアクティブ型であってもよいし、無線タグ読取装置98から発信される電波に応じて駆動されるパッシブ型であってもよい。   Further, a wireless tag reader 98 is connected to the CPU 72. The wireless tag reader 98 receives a radio wave superimposed with identification information transmitted from a radio tag (RFID tag) via an antenna, amplifies the radio signal, separates the identification information from the radio signal, and The identification information is demodulated (decoded) and given to the CPU 72. The wireless tag is attached to a person in an event venue or company, and the wireless tag reader 98 detects a wireless tag within a communicable range. Note that the wireless tag may be an active type or a passive type that is driven in accordance with radio waves transmitted from the wireless tag reader 98.

さらに、CPU72は、バス74を介して呼出条件データベース(呼出条件DB)100に接続される。呼出条件DB100は、オペレータを呼び出すか否かを判断するための条件(オペレータ呼出条件)を記憶したデータベースである。ここで、オペレータ呼出条件は、上述したように、トラブル(音声認識が不能など)が生じたり、より細やかな対応(コミュニケーションなど)が求められる場面になったりしたことを判断するための条件である。   Further, the CPU 72 is connected to a call condition database (call condition DB) 100 via a bus 74. The calling condition DB 100 is a database that stores conditions (operator calling conditions) for determining whether or not to call an operator. Here, as described above, the operator calling condition is a condition for determining whether a trouble (such as speech recognition is impossible) has occurred or a scene in which a more detailed response (such as communication) is required. .

たとえば、オペレータ呼出条件は、(1)或るキーワードを検出したり、(2)人間の怒っている表情や困っている表情のような特定の表情を取得したり、(3)特定の人間を検出したり、(4)人間と長時間会話したり、(5)行く手を塞がれたり、(6)周囲にたくさんの人間が居たり、(7)オペレータ呼出ボタンが操作されたりすると、満たすと判断される。   For example, the operator calling condition may be (1) detecting a certain keyword, (2) obtaining a specific facial expression such as an angry facial expression or a troubled facial expression, or (3) To detect, (4) talk with a person for a long time, (5) block the way to go, (6) have many people around, (7) operate the operator call button, and so on It is judged.

(1)具体的には、ロボット10は、マイク46を通して入力される人間の声(音声)を検出し、これを認識する。図示は省略するが、メモリ76には、音声認識用の辞書データが記憶されており、この辞書データを参照して、DPマッチング或いはHMM(隠れマルコフモデル)の方法により、入力された音声を認識する。ここで、たとえば、「責任者を呼んで」、「違う」、「そうじゃない」、「わからない」などの特定のキーワードを検出すると、オペレータ呼出条件を満たすと判断する。ただし、特定のキーワードは、メモリ76に予め登録される。また、特定のキーワードは単なる例示であり、限定されるべきではなく、ロボット10の適応環境などによって適宜変更(決定)される。さらに、特定のキーワードは、1つでもよく、複数であってもよい。さらに、キーワード毎に回数を設定しておき、キーワードを検出した回数が設定した回数(設定回数)になったときに、オペレータの呼出条件を満たすと判断するようにしてもよい。たとえば、「責任者を呼んで」のように、直接的にオペレータを呼び出すようなキーワードの場合には、設定回数が「1」に設定される。また、「違う」、「そうじゃない」、「わからない」などのように、間接的にオペレータを呼び出すようなキーワードの場合には、設定回数が「3」に設定される。   (1) Specifically, the robot 10 detects and recognizes a human voice (voice) input through the microphone 46. Although illustration is omitted, dictionary data for speech recognition is stored in the memory 76, and input speech is recognized by referring to this dictionary data by DP matching or HMM (Hidden Markov Model) method. To do. Here, for example, when a specific keyword such as “call the person in charge”, “different”, “not so”, or “don't know” is detected, it is determined that the operator calling condition is satisfied. However, the specific keyword is registered in the memory 76 in advance. Further, the specific keyword is merely an example and should not be limited, and may be changed (determined) as appropriate depending on the adaptation environment of the robot 10 and the like. Furthermore, the number of specific keywords may be one or plural. Furthermore, the number of times may be set for each keyword, and it may be determined that the operator's calling condition is satisfied when the number of times the keyword is detected reaches the set number (set number). For example, in the case of a keyword that directly calls an operator, such as “call the responsible person”, the set number of times is set to “1”. In the case of a keyword that indirectly calls the operator, such as “different”, “not so”, “don't know”, etc., the set number of times is set to “3”.

(2)また、ロボット10は、全方位カメラ42ないし眼カメラ48で撮影された顔画像に基づいて顔の表情を取得し、特定の表情であるか否かを判断することができる。上述したように、特定の顔の表情は、人間が怒っている顔の表情や困っている顔の表情などであり、このような特定の表情を取得すると、オペレータ呼出条件を満たすと判断する。顔の表情を認識する手法は、たとえば、“電子情報通信学会論文誌D-II,Vol.J80-D-II,No.6,pp.1547-1554(1997年6月)”に発表されている。簡単に説明すると、2次元離散コサイン変換によって画像を空間周波数領域に変換し、顔部位の変化に対応する各周波数帯域での電力変化を捉えることによって、顔の表情を認識するものである。つまり、目および口の形状変化を検出することで、顔の表情の認識を行う。   (2) Further, the robot 10 can acquire facial expressions based on face images taken by the omnidirectional camera 42 or the eye camera 48 and determine whether or not the facial expression is a specific expression. As described above, the facial expression of a specific face is a facial expression of a human being angry or a face that is in trouble. When such a specific facial expression is acquired, it is determined that the operator calling condition is satisfied. A method for recognizing facial expressions has been published in, for example, “The Institute of Electronics, Information and Communication Engineers Journal D-II, Vol.J80-D-II, No.6, pp.1547-1554 (June 1997)”. Yes. Briefly, facial expressions are recognized by converting an image into a spatial frequency domain by two-dimensional discrete cosine transform and capturing power changes in each frequency band corresponding to changes in the facial part. That is, facial expressions are recognized by detecting changes in the shape of the eyes and mouth.

ただし、人間が怒っていることは、顔の表情を取得することに変えて、マイク46で検出される音声に基づいて判断することもできる。たとえば、一定値以上の音量の音声が一定時間(たとえば、5秒)以上継続して入力される場合には、人間が怒鳴っていると推測して、人間が怒っていると判断することができる。   However, it can be determined that the person is angry based on the sound detected by the microphone 46 instead of acquiring the facial expression. For example, when a sound having a volume higher than a certain value is continuously input for a certain time (for example, 5 seconds) or more, it can be determined that the person is angry by assuming that the person is yelling. .

(3)さらに、ロボット10は、無線タグ読取装置98を用いて、各人間が装着ないし所持している無線タグの識別情報(たとえば、RFID)を検出する。図示は省略するが、ロボット10は、メモリ76に識別情報に対応する人間の名称やその属性(性別、年齢、重要度など)を記憶しており、検出した識別情報に基づいて、人間の名称およびその属性の少なくとも一方を知ることができる。ここで、たとえば、いわゆるVIP(重要な顧客)や対応が困難な人間(幼児など)のような特定の人間を検出すると、オペレータ呼出条件を満たすと判断する。   (3) Further, the robot 10 uses the wireless tag reader 98 to detect identification information (for example, RFID) of a wireless tag worn or possessed by each person. Although illustration is omitted, the robot 10 stores a human name and its attributes (gender, age, importance, etc.) corresponding to the identification information in the memory 76, and the human name is based on the detected identification information. And at least one of its attributes. Here, for example, when a specific person such as a so-called VIP (important customer) or a person who is difficult to deal with (such as an infant) is detected, it is determined that the operator calling condition is satisfied.

この実施例では、無線タグを用いて人間を個別に識別するようにしてあるが、映像に基づいて特定の人間か否かを判断するようにしてもよい。かかる場合には、特定の人間についての顔画像を予めメモリ76に登録(記憶)しておき、全方位カメラ42ないし眼カメラ48で撮影された顔画像と比較(同定)することにより、特定の人間か否かを判断することもできる。ただし、映像処理(画像処理)により人間の顔を識別する場合には処理が膨大になるため、たとえば、各人間の衣服に異なる特定のマーク(文字、記号、図形など)を付しておき、当該マークに基づいて特定の人間か否かを判断するようにしてもよい。   In this embodiment, a person is individually identified using a wireless tag, but it may be determined whether the person is a specific person based on the video. In such a case, a face image of a specific person is registered (stored) in the memory 76 in advance, and the face image taken by the omnidirectional camera 42 or the eye camera 48 is compared (identified) to obtain a specific image. It is also possible to determine whether or not a person is human. However, when human faces are identified by video processing (image processing), the processing becomes enormous. For example, different specific marks (characters, symbols, figures, etc.) are attached to each person's clothes, It may be determined whether or not the person is a specific person based on the mark.

(4)さらにまた、ロボット10は、無線タグ検出装置98で検出したRFIDまたは全方位カメラ42ないし眼カメラ48で撮影された顔画像に基づいて人間を特定するとともに、超音波センサ32の出力に基づいて当該人間との距離を検出することができる。したがって、たとえば、人間と長時間会話しているか否かを判断することができる。この実施例では、ロボット10は、人間との距離が1m以内であり、この状態が5分以上継続している場合には、当該人間とロボット10とが長い間会話していると推測して、オペレータ呼出条件を満たすと判断する。長時間の会話には、人間とのコミュニケーションがうまくいっていない可能性や1人の人間によってロボット10が独占されている可能性があるため、オペレータの指示による適切な行動が実行されるべきであるからである。ただし、距離や時間は一例であり、これに限定される必要はない。なお、図2では省略したが、時間は内部タイマでカウントされる。   (4) Furthermore, the robot 10 specifies a human based on the RFID detected by the wireless tag detection device 98 or the face image taken by the omnidirectional camera 42 or the eye camera 48, and outputs the ultrasonic sensor 32. Based on this, the distance to the person can be detected. Therefore, for example, it can be determined whether or not the user has a long conversation. In this embodiment, the robot 10 assumes that the person and the robot 10 have been talking for a long time if the distance to the person is within 1 m and this state continues for 5 minutes or longer. It is determined that the operator calling condition is satisfied. For long conversations, there is a possibility that communication with humans may not be successful, and there is a possibility that the robot 10 is monopolized by one person. Because. However, the distance and time are examples, and need not be limited to these. Although omitted in FIG. 2, the time is counted by an internal timer.

(5)また、ロボット10は、移動中に、人間との距離が50cm以下であり、この状態が10秒以上継続した場合には、当該人間に行く手を塞がれていると推測して、オペレータ呼出条件を満たすと判断する。かかる場合にも、人間がロボット10に接近し過ぎるのを回避したり、人間によってロボット10の行く手を塞がれた状態から脱出したりするために、オペレータの指示による適切な行動が実行されるべきだからである。   (5) Also, when the robot 10 is moving and the distance to the human being is 50 cm or less and this state continues for 10 seconds or more, it is assumed that the hand going to the human being is blocked, It is determined that the operator calling condition is satisfied. Even in such a case, in order to avoid that the human is too close to the robot 10 or to escape from the state where the robot 10 is obstructed by the human, an appropriate action according to the instruction of the operator is executed. Because it should.

(6)さらに、ロボット10は、無線タグ読出装置98で検出されるRFIDの数が所定値(たとえば、5)以上であれば、周囲に人間が多数存在すると判断し、オペレータ呼出条件を満たすと判断する。これは、人間が多数存在する場合には、音声認識が困難であり、各人間に対して適切に対応することができないからである。ただし、人間が多数存在するか否かは、全方位カメラ42や眼カメラ48で撮影された映像に基づいて判断するようにしてもよい。   (6) Furthermore, if the number of RFIDs detected by the wireless tag reading device 98 is equal to or greater than a predetermined value (for example, 5), the robot 10 determines that there are a large number of people around and satisfies the operator calling condition. to decide. This is because when there are a large number of humans, speech recognition is difficult and it is impossible to appropriately deal with each human. However, whether or not there are a large number of humans may be determined based on images taken by the omnidirectional camera 42 or the eye camera 48.

(7)さらにまた、図1および図2では省略したが、ロボット10に設けられたオペレータ呼出ボタンが操作された(押された)場合にもオペレータ呼出条件を満たすと判断する。ただし、オペレータ呼出ボタンはロボット10に設ける必要はなく、その周囲(環境)に設けるようにしてもよい。   (7) Furthermore, although omitted in FIGS. 1 and 2, it is determined that the operator call condition is satisfied even when an operator call button provided on the robot 10 is operated (pressed). However, the operator call button does not need to be provided on the robot 10, and may be provided around the environment (environment).

なお、これらは単なる例示であり、オペレータ呼出条件としては、上述のいずれか1つ以上が採用されればよく、また、他の条件を設定することも可能である。たとえば、ロボット10は、上述の(4)の場合において、人間との距離が10cm以内であり、この状態が10秒以上継続した場合には、当該人間と接近し過ぎているため、オペレータ呼出条件を満たすと判断する。これは、たとえば、人間の衣服がロボット10の手などに引っかかってしまうなどの危険な状態になってしまう恐れがあり、かかる場合には、オペレータの指示に従って適切な行動が実行されるべきであるからである。   Note that these are merely examples, and any one or more of the above-mentioned conditions may be adopted as the operator calling condition, and other conditions may be set. For example, in the case of the above (4), the robot 10 is within a distance of 10 cm, and if this state continues for 10 seconds or more, the robot 10 is too close to the person. Judge that it satisfies. For example, there is a risk that human clothes may be in a dangerous state such as being caught by the hand of the robot 10. In such a case, appropriate actions should be performed according to instructions from the operator. Because.

また、図示は省略するが、ロボット10に、タッチセンサ58に代えてピエゾ素子を用いたシート状の圧力センサを設ければ、その出力(圧力)に基づいて、叩かれたり殴られたりするような状況を判断することができる。このような状況についてもオペレータ呼出条件を満たすと判断する。かかる場合には、ロット10の損壊を防止すべく、オペレータが対処すべきだからである。   Although not shown, if the robot 10 is provided with a sheet-like pressure sensor using a piezo element instead of the touch sensor 58, the robot 10 may be hit or beaten based on the output (pressure). The situation can be judged. It is determined that such a situation also satisfies the operator calling condition. In such a case, the operator should deal with it to prevent the lot 10 from being damaged.

さらに、図示は省略するが、ロボット10に振動センサを設ければ、ロボット10が揺さぶられている状況を判断し、上述の場合と同様に、ロボット10の損壊を防止すべく、オペレータ呼出条件を満たすと判断することができる。   Furthermore, although illustration is omitted, if a vibration sensor is provided in the robot 10, it is determined whether the robot 10 is being shaken, and in the same manner as described above, an operator call condition is set to prevent the robot 10 from being damaged. It can be determined that it will be satisfied.

このような構成のロボット10は、たとえば、上述したように、受付ロボット或いは道案内ロボットとして機能し、図3に示すようなシステム200に適用される。このシステム200はロボット10を含み、ロボット10はインターネットやLANのようなネットワーク202を介してオペレータ端末204に接続される。   For example, as described above, the robot 10 having such a configuration functions as a reception robot or a road guide robot, and is applied to a system 200 as shown in FIG. The system 200 includes a robot 10 that is connected to an operator terminal 204 via a network 202 such as the Internet or a LAN.

なお、オペレータ端末204は、汎用のパーソナルコンピュータ或いはワークステーションまたはPDAのようなコンピュータであり、図示は省略するが、オペレータ端末204には、CRTやLCDのような表示装置、キーボードやコンピュータマウスなどの入力装置、スピーカおよび通信装置などが接続される。オペレータ端末204は、通信装置を介してネットワーク202に有線または無線で接続されている。また、オペレータ端末204に内蔵されるHDDないしROMのようなメモリには、ロボット10を遠隔制御するための制御プログラムおよび必要なデータが記憶される。   The operator terminal 204 is a general-purpose personal computer or a computer such as a workstation or a PDA. Although not shown, the operator terminal 204 includes a display device such as a CRT or LCD, a keyboard, a computer mouse, or the like. An input device, a speaker, a communication device, and the like are connected. The operator terminal 204 is connected to the network 202 via a communication device in a wired or wireless manner. In addition, a control program and necessary data for remotely controlling the robot 10 are stored in a memory such as an HDD or a ROM built in the operator terminal 204.

また、この実施例では、ロボット10とオペレータ端末204とはネットワーク202を介して接続されるようにしてあるが、直接的に接続するようにしてもよい。かかる場合には、Bluetooth(登録商標)のような近距離無線を利用することができる。   In this embodiment, the robot 10 and the operator terminal 204 are connected via the network 202, but may be connected directly. In such a case, short-range radio such as Bluetooth (registered trademark) can be used.

上述したように、ロボット10は、通常は自律制御によって、人間との間で対話などのコミュニケーション行動を行い、受付や道案内などを行う。たとえば、ロボット10は、自律制御を行っている場合には、ランダムに選択された制御コマンドに従うコミュニケーション行動を実行したり、人間とのインタラクションに応じて選択された制御コマンドに従うコミュニケーション行動を実行したりする。後者の具体例としては、ロボット10は、人間に肩を触れられると、「なーに」と発話して首を傾げる。つまり、CPU72は、タッチセンサ58の出力に基づいて肩を触られていることを検出すると、「なーに」に対応する制御コマンドを選択し、これに従うコミュニケーション行動を実行する。ただし、これは単なる一例であり、限定されるべきでなく、ロボット10は様々な自律行動が可能である。   As described above, the robot 10 performs communication behavior such as dialogue with humans, usually by autonomous control, and performs reception and route guidance. For example, when performing autonomous control, the robot 10 executes a communication action according to a control command selected at random, or executes a communication action according to a control command selected according to an interaction with a human. To do. As a specific example of the latter, when the robot 10 touches the shoulder, the robot 10 speaks “what” and tilts the head. That is, when detecting that the shoulder is touched based on the output of the touch sensor 58, the CPU 72 selects a control command corresponding to “what” and executes a communication action according to the control command. However, this is only an example and should not be limited, and the robot 10 can perform various autonomous actions.

しかし、上述したようなオペレータ呼出条件を満たす場合には、人間(ユーザ)とのコミュニケーション行動が円滑に行われていなかったり、自律制御だけでは解決することが難しい問題が生じていたりすると考えられるため、ロボット10が自律制御を行うことは妥当ではないと言える。   However, when the operator calling conditions as described above are satisfied, it is considered that communication behavior with a human (user) is not performed smoothly, or that it is difficult to solve by autonomous control alone. It can be said that it is not appropriate for the robot 10 to perform autonomous control.

これを回避するため、この実施例では、ロボット10は、オペレータ呼出条件を満たすと判断した場合には、オペレータ端末204に呼出要求を送信するようにしてある。簡単に説明すると、CPU72が、オペレータの呼出要求を、通信LANボード94および無線通信装置96を介して出力する。すると、ネットワーク202を経由して、オペレ−タ端末204に送信される。   In order to avoid this, in this embodiment, the robot 10 transmits a call request to the operator terminal 204 when it is determined that the operator call condition is satisfied. In brief, the CPU 72 outputs an operator call request via the communication LAN board 94 and the wireless communication device 96. Then, it is transmitted to the operator terminal 204 via the network 202.

オペレータ端末204では、ロボット10からの呼出要求を受信すると、上述した制御プログラムが起動され、表示装置(図示せず)に、図4に示すような遠隔操作画面210が表示される。これによって、オペレータ端末204のオペレータは呼出要求が有る旨を知ることができる。ただし、オペレータ端末204に設けられた(接続された)スピーカから警告音を出力するようにして、オペレータに対して遠隔操作の必要性を通知することもできる。かかる場合には、制御プログラムは、オペレータが入力装置を用いて起動するようにしてもよい。そして、オペレータはロボット10の遠隔操作を開始する。   When the operator terminal 204 receives a call request from the robot 10, the above-described control program is activated, and a remote operation screen 210 as shown in FIG. 4 is displayed on a display device (not shown). Thus, the operator of the operator terminal 204 can know that there is a call request. However, it is also possible to notify the operator of the necessity for remote operation by outputting a warning sound from a speaker provided (connected) to the operator terminal 204. In such a case, the control program may be activated by an operator using an input device. Then, the operator starts remote operation of the robot 10.

ここで、図4に示すように、遠隔操作画面210は、表示領域212、214および216を含む。表示領域212は、たとえばロボット10の眼カメラ48で撮影した画像(ロボットカメラ画像)を表示する。表示領域214は、ロボット情報を表示する。たとえば、ロボット情報は、ロボット10の配置された場所(施設、会場、会社など)の名称(ここでは、受付や玄関)、当該ロボット10の名前(もしくは識別情報)、当該ロボット10の配置された場所の地図および当該ロボット10が対話している人間の情報(名前、年齢および重要度など)などである。また、ロボット10と人間とが会話している場合には、ロボット10はそのマイク46から入力される音声を検出して、その音声信号をオペレータ端末204に送信するようにしてもよい。このようにすれば、オペレータ端末204では、ロボット10と会話している人間の音声を再生することができ、オペレータはその内容を把握して、適切な対応をすることができるからである。なお、これらオペレータに提示される情報は一例であり、遠隔操作画面210には適宜適切な情報が表示される。   Here, as shown in FIG. 4, the remote operation screen 210 includes display areas 212, 214 and 216. The display area 212 displays, for example, an image (robot camera image) captured by the eye camera 48 of the robot 10. The display area 214 displays robot information. For example, the robot information includes the name of the place (facility, venue, company, etc.) where the robot 10 is located (here, reception or entrance), the name (or identification information) of the robot 10, and the placement of the robot 10. A map of a place and information (name, age, importance, etc.) of a person with whom the robot 10 is interacting. Further, when the robot 10 and a human are talking, the robot 10 may detect a voice input from the microphone 46 and transmit the voice signal to the operator terminal 204. In this way, the operator terminal 204 can reproduce the voice of a person who is conversing with the robot 10, and the operator can grasp the contents and take appropriate actions. The information presented to these operators is an example, and appropriate information is displayed on the remote operation screen 210 as appropriate.

したがって、オペレータは、表示領域212および214を見ながら、ロボット10の遠隔操作を行うことができる。表示領域216は、ロボット10を遠隔操作する場合に、当該ロボット10に送信する制御コマンドを入力するための操作パネルを表示する。操作パネルには、制御コマンドが記載された複数のアイコンないしボタン(GUI)が表示される。たとえば、移動を指示するためのボタン(前進、後退など)、コミュニケーション行動を指示するためのボタン(お辞儀、右指差しなど)および遠隔操作の終了を指示するためのボタンなどが設けられる。オペレータが、入力装置を用いて、いずれかのボタンを指示することにより、指示されたボタンに対応する所望の制御コマンドを入力することができる。そして、入力された制御コマンドが、ネットワーク202を介してロボット10に送信される。ロボット10は、オペレータ端末204から送信された制御コマンドを受信すると、当該制御コマンドに従うコミュニケーション行動を実行する。   Therefore, the operator can remotely operate the robot 10 while looking at the display areas 212 and 214. The display area 216 displays an operation panel for inputting a control command to be transmitted to the robot 10 when the robot 10 is remotely operated. On the operation panel, a plurality of icons or buttons (GUIs) describing control commands are displayed. For example, a button for instructing movement (forward, backward, etc.), a button for instructing communication behavior (bowing, right pointing, etc.), a button for instructing the end of remote operation, and the like are provided. The operator can input a desired control command corresponding to the instructed button by instructing any button using the input device. Then, the input control command is transmitted to the robot 10 via the network 202. When the robot 10 receives the control command transmitted from the operator terminal 204, the robot 10 executes a communication action according to the control command.

なお、図示は省略するが、ロボットカメラ画像やロボット情報に含まれる映像(画像)は、ロボット10や環境カメラからネットワーク202を介してオペレータ端末204に送信される。


具体的には、図2に示したCPU72が図5に示すフロー図に従って全体処理を実行する。図5に示すように、CPU72は、全体処理を開始すると、ステップS1で、停止命令が有るかどうかを判断する。たとえば、停止命令は、オペレータの操作に従ってオペレータ端末204からネットワーク202を介してロボット10に送信される。ただし、ロボット10に停止ボタンを設けておき、当該ボタンを操作するようにしてもよい。ステップS1で“YES”であれば、つまり、停止命令が有れば、そのまま全体処理を終了する。一方、ステップS1で“NO”であれば、つまり、停止命令が無ければ、ステップS3に進む。
Although illustration is omitted, an image (image) included in the robot camera image and the robot information is transmitted from the robot 10 and the environmental camera to the operator terminal 204 via the network 202.


Specifically, the CPU 72 shown in FIG. 2 executes the entire process according to the flowchart shown in FIG. As shown in FIG. 5, when starting the entire process, the CPU 72 determines whether or not there is a stop command in step S1. For example, the stop command is transmitted from the operator terminal 204 to the robot 10 via the network 202 according to the operation of the operator. However, a stop button may be provided in the robot 10 and the button may be operated. If “YES” in the step S1, that is, if there is a stop instruction, the entire processing is ended as it is. On the other hand, if “NO” in the step S1, that is, if there is no stop command, the process proceeds to a step S3.

次のステップS3では、後述する、オペレータ呼出条件判定処理(図6参照)を実行し、ステップS5では、オペレータの呼出フラグがオンであるか否かを判断する。図示は省略するが、オペレータの呼出フラグは、1ビットのレジスタで構成され、メモリ76(RAM)に設けられる。この呼出フラグは、オペレータ呼出条件判定処理を実行することにより、オン/オフされる。具体的には、オペレータ呼出条件を満たす場合には、呼出フラグはオンされ、逆に、オペレータ呼出条件を満たさない場合には、呼出フラグはオフされる。呼出フラグがオンされると、レジスタにデータ値「1」が設定され、逆に、呼出フラグがオフされると、レジスタにデータ値「0」が設定される。   In the next step S3, an operator call condition determination process (see FIG. 6), which will be described later, is executed. In step S5, it is determined whether or not the operator's call flag is on. Although not shown in the figure, the operator call flag is composed of a 1-bit register and is provided in the memory 76 (RAM). This call flag is turned on / off by executing an operator call condition determination process. Specifically, if the operator call condition is satisfied, the call flag is turned on. Conversely, if the operator call condition is not satisfied, the call flag is turned off. When the call flag is turned on, the data value “1” is set in the register. Conversely, when the call flag is turned off, the data value “0” is set in the register.

ステップS5で“NO”であれば、つまり呼出フラグがオフであれば、ステップS9で、自律行動処理を実行し、ステップS1に戻る。なお、上述したように、ステップS9では、CPU72は、自律制御によって、必要に応じて人間との間でコミュニケーション行動を実行する。たとえば、人間に道案内を求められた場合は、道案内を行う。一方、ステップS5で“YES”であれば、つまり呼出フラグがオンであれば、ステップS7で、オペレータを呼び出す。つまり、CPU72は、オペレータ端末204に対して呼出要求を送信する。   If “NO” in the step S5, that is, if the calling flag is turned off, an autonomous action process is executed in a step S9, and the process returns to the step S1. Note that, as described above, in step S9, the CPU 72 executes a communication action with a human as needed by autonomous control. For example, when a person is asked for route guidance, the route guidance is performed. On the other hand, if “YES” in the step S5, that is, if the calling flag is on, the operator is called in a step S7. That is, the CPU 72 transmits a call request to the operator terminal 204.

続くステップS11では、オペレータ端末204から制御コマンドが有るか否かを判断する。ステップS11で“NO”であれば、つまり制御コマンドが無ければ、そのままステップS15に進む。一方、ステップS11で“YES”であれば、つまり制御コマンドが有れば、ステップS13で制御コマンドに従うコミュニケーション行動を実行して、ステップS15に進む。   In a succeeding step S11, it is determined whether or not there is a control command from the operator terminal 204. If “NO” in the step S11, that is, if there is no control command, the process proceeds to a step S15 as it is. On the other hand, if “YES” in the step S11, that is, if there is a control command, a communication action according to the control command is executed in a step S13, and the process proceeds to a step S15.

ステップS15では、オペレータ端末204からの遠隔操作の終了要求(終了コマンド)が有るかどうかを判断する。ステップS15で“NO”であれば、つまり終了コマンドが無ければ、遠隔操作を継続すると判断して、ステップS11に戻る。一方、ステップS15で“YES”であれば、つまり終了コマンドが有れば、遠隔操作を終了すると判断して、ステップS1に戻る。   In step S15, it is determined whether there is a remote operation end request (end command) from the operator terminal 204. If “NO” in the step S15, that is, if there is no end command, it is determined that the remote operation is continued, and the process returns to the step S11. On the other hand, if “YES” in the step S15, that is, if there is an end command, it is determined that the remote operation is ended, and the process returns to the step S1.

なお、この実施例では、オペレータ端末204からの制御コマンドが有ると、直に当該制御コマンドに従うコミュニケーション行動を実行するようにしてある。ただし、オペレータ端末204からの制御コマンドを受信したときに、コミュニケーション行動を実行中である場合には、当該コミュニケーション行動の実行を終了してから、制御コマンドに従うコミュニケーション行動を実行するようにしてもよい。   In this embodiment, when there is a control command from the operator terminal 204, a communication action according to the control command is executed immediately. However, when the communication action is being executed when the control command is received from the operator terminal 204, the communication action according to the control command may be executed after the execution of the communication action is ended. .

図6は、図5に示したステップS3のオペレータ呼出条件判定処理のフロー図である。図6に示すように、CPU72は、オペレータ呼出条件判定処理を開始すると、ステップS21で、呼出条件フラグをオフし、ステップS23で、周囲情報を検出する。このステップS23では、CPU72は、オペレータ呼出条件の判定に必要なセンサ(超音波距離センサ32、全方位カメラ42、マイク46、眼カメラ48、タッチセンサ58、無線タグ読取装置98)の出力を検出し、周囲および自身の状況(状態)を認識する。   FIG. 6 is a flowchart of the operator call condition determination process in step S3 shown in FIG. As shown in FIG. 6, when starting the operator calling condition determination process, the CPU 72 turns off the calling condition flag in step S21, and detects surrounding information in step S23. In step S23, the CPU 72 detects the outputs of the sensors (ultrasonic distance sensor 32, omnidirectional camera 42, microphone 46, eye camera 48, touch sensor 58, wireless tag reader 98) necessary for determining the operator calling condition. And recognize their surroundings and their own situation (state).

続くステップS25では、特定のキーワードを検出したか否かを判断する。ステップS25で“YES”であれば、つまり、特定のキーワードを検出すれば、オペレータ呼出条件を満たすと判断して、ステップS39で、呼出条件フラグをオンして、オペレータ呼出条件判定処理を全体処理のプログラムにリターンする。一方、ステップS25で“NO”であれば、つまり特定のキーワードを検出していなければ、ステップS27で、特定の顔の表情を取得したか否かを判断する。ステップS27で“YES”であれば、つまり、特定の顔の表情を取得すれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。   In a succeeding step S25, it is determined whether or not a specific keyword is detected. If “YES” in the step S25, that is, if a specific keyword is detected, it is determined that the operator calling condition is satisfied. In a step S39, the calling condition flag is turned on, and the operator calling condition determining process is entirely processed. Return to the program. On the other hand, if “NO” in the step S25, that is, if a specific keyword is not detected, it is determined whether or not a specific facial expression is acquired in a step S27. If “YES” in the step S27, that is, if a specific facial expression is acquired, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S39.

しかし、ステップS27で“NO”であれば、つまり、特定の顔の表情を取得していなければ、ステップS29で、特定の人間を検出したか否かを判断する。ステップS29で“YES”であれば、つまり特定の人間を検出すれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS29で“NO”であれば、つまり特定の人間を検出していなければ、ステップS31で、人間と長時間会話している状況であるか否かを判断する。   However, if “NO” in the step S27, that is, if a specific facial expression is not acquired, it is determined whether or not a specific human is detected in a step S29. If “YES” in the step S29, that is, if a specific person is detected, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S39. On the other hand, if “NO” in the step S29, that is, if a specific human being is not detected, it is determined whether or not it is a situation in which the user has a long conversation with the human in a step S31.

ステップS31で“YES”であれば、つまり人間と長時間会話している状況であれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS31で“NO”であれば、つまり人間と長時間会話している状況でなければ、ステップS33で、行く手を塞がれた状況であるか否かを判断する。ステップS33で“YES”であれば、つまり行く手を塞がれた状況であれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS33で“NO”であれば、つまり行く手を塞がれていない状況であれば、ステップS35で、周囲に人が多く存在する状況であるか否かを判断する。   If “YES” in the step S31, that is, if it is a situation in which a conversation with a human is performed for a long time, it is determined that the operator calling condition is satisfied, and the process proceeds to a step S39. On the other hand, if “NO” in the step S31, that is, if it is not a situation where the user is talking for a long time, it is determined whether or not the going hand is blocked in a step S33. If “YES” in the step S33, that is, if the going hand is blocked, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S39. On the other hand, if “NO” in the step S33, that is, if the hand is not blocked, it is determined in a step S35 whether or not there are many people around.

ステップS35で“YES”であれば、つまり周囲に人が多く存在する状況であれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS35で“NO”であれば、つまり周囲に人が多く存在していない状況であれば、ステップS37で、オペレータ呼出ボタンが押されたかどうかを判断する。ステップS37で“YES”であれば、つまりオペレータ呼出ボタンが押されていれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS37で“NO”であれば、つまりオペレータ呼出ボタンが押されていなければ、オペレータ呼出条件判定処理を全体処理のプログラムにリターンする。   If “YES” in the step S35, that is, if there are many people around, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S39. On the other hand, if “NO” in the step S35, that is, if there are not many people around, it is determined whether or not the operator call button has been pressed in a step S37. If “YES” in the step S37, that is, if the operator call button is pressed, it is determined that the operator call condition is satisfied, and the process proceeds to the step S39. On the other hand, if “NO” in the step S37, that is, if the operator call button is not pressed, the operator call condition determination process is returned to the overall process program.

この実施例によれば、必要に応じてオペレータ呼び出し、オペレータからの指示に従ってコミュニケーション行動(動作や発話)を実行するので、適切なサービスを提供することができる。また、常にオペレータが操作する必要はないため、効率良く遠隔操作することができる。さらには、1人のオペレータが複数のロボットを担当するような効率化を図ることもできる。   According to this embodiment, since an operator call is performed as necessary and a communication action (operation or speech) is executed in accordance with an instruction from the operator, an appropriate service can be provided. Further, since it is not always necessary for the operator to operate, it can be remotely operated efficiently. Furthermore, the efficiency can be improved so that one operator is in charge of a plurality of robots.

なお、この実施例では、オペレータ呼出条件は、予め設定してデータベースに記憶するようにしておいたが、ロボットと人間とのインタラクションに基づいて、ロボット自身がオペレータ呼出条件を登録(追加)するようにしてもよい。たとえば、「オペレータ呼出ボタン」が押される前に頻繁に行われる動作(人間の動作)を記憶しておけば、当該動作を検出したときに、オペレータ呼出条件を満たすと判断することができる。   In this embodiment, the operator calling conditions are set in advance and stored in the database. However, the robot itself registers (adds) the operator calling conditions based on the interaction between the robot and the human. It may be. For example, if an action (human action) frequently performed before the “operator call button” is pressed is stored, it can be determined that the operator call condition is satisfied when the action is detected.

また、この実施例では、1台のロボットの遠隔操作を1台のオペレータ端末(1人のオペレータ)が担当するようにした。ただし、ロボットからの呼び出しが有った場合にのみ、オペレータは当該ロボットを遠隔操作すれば足りるため、1台のオペレータ端末に対してロボットを複数台設けるようにしてもよい。   In this embodiment, one operator terminal (one operator) is in charge of remote control of one robot. However, since it is sufficient for the operator to remotely control the robot only when there is a call from the robot, a plurality of robots may be provided for one operator terminal.

さらに、この実施例では、ロボットが発話する際には、予めメモリに記憶した音声合成データを読み出して出力するようにした。しかし、オペレータ端末にオペレータの声(音声)を入力するマイクを設け、オペレータの音声をロボットに送信して、これをロボットのスピーカから出力するようにしてもよい。かかる場合には、オペレータがロボットの会話相手と直接会話することができる。   Further, in this embodiment, when the robot speaks, the speech synthesis data stored in the memory in advance is read and output. However, a microphone for inputting the operator's voice (voice) may be provided in the operator terminal, and the operator's voice may be transmitted to the robot and output from the robot speaker. In such a case, the operator can directly talk with the conversation partner of the robot.

図1はこの発明の一実施例のコミュニケーションロボットの外観を示す図解図である。FIG. 1 is an illustrative view showing an appearance of a communication robot according to an embodiment of the present invention. 図2は図1のコミュニケーションロボットの電気的な構成を示すブロック図である。FIG. 2 is a block diagram showing an electrical configuration of the communication robot of FIG. 図3は図1に示すコミュニケーションロボットが適用されるシステムの一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a system to which the communication robot shown in FIG. 1 is applied. 図4は図3に示すオペレータ端末の表示装置に表示される遠隔操作画面の一例を示す図解図である。FIG. 4 is an illustrative view showing one example of a remote operation screen displayed on the display device of the operator terminal shown in FIG. 図5は図2に示すCPUが全体処理を行うときの一例を示すフロー図である。FIG. 5 is a flowchart showing an example when the CPU shown in FIG. 図6は図2に示すCPUがオペレータ呼出条件判定処理を行うときの一例を示すフロー図である。FIG. 6 is a flowchart showing an example when the CPU shown in FIG. 2 performs an operator call condition determination process.

符号の説明Explanation of symbols

10 …コミュニケーションロボット
32 …超音波距離センサ
42 …全方位カメラ
46 …マイク
48 …眼カメラ
58 …タッチセンサ
72 …CPU
76 …メモリ
96 …無線通信装置
98 …無線タグ読取装置
100 …データベース
200 …コミュニケーションロボット遠隔操作システム
202 …ネットワーク
204 …オペレータ端末
DESCRIPTION OF SYMBOLS 10 ... Communication robot 32 ... Ultrasonic distance sensor 42 ... Omnidirectional camera 46 ... Microphone 48 ... Eye camera 58 ... Touch sensor 72 ... CPU
76 ... Memory 96 ... Wireless communication device 98 ... Wireless tag reader 100 ... Database 200 ... Communication robot remote control system 202 ... Network 204 ... Operator terminal

Claims (5)

自律制御またはオペレータ端末からの制御コマンドに従って操縦されることを示す遠隔操作によって、音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行するコミュニケーションロボットであって、
少なくとも人間の声を含む周囲情報を検出する検出手段、
自律制御では対応が困難な状態であるか否かを判断するための条件を示すオペレータ呼出条件を記憶する記憶手段、
前記検出手段によって検出された周囲情報に基づいて前記記憶手段に記憶されたオペレータ呼出条件を満たすか否かを判断する呼出判断手段、
前記呼出判断手段によってオペレータ呼出条件を満たすと判断されたとき、当該コミュニケーションロボットの操縦者となるオペレータを呼び出すための呼出信号を前記オペレータ端末に送信する送信手段、
前記オペレータ端末から送信される制御コマンドを示す遠隔操作情報を受信する受信手段
前記受信手段によって受信された遠隔操作情報に基づくコミュニケーション行動を実行する実行手段、および
前記人間との間で行われたインタラクションに基づいて、前記記憶手段に前記オペレータ呼出条件を自動的に追加する呼出条件追加手段を備える、コミュニケーションロボット。
A communication robot that performs a communication action with a human by using at least one of voice and physical movement by remote control indicating that the vehicle is operated according to a control command from an autonomous control or an operator terminal,
Detection means for detecting ambient information including at least a human voice;
Storage means for storing an operator call condition indicating a condition for determining whether or not the autonomous control is in a difficult state;
Call determination means for determining whether or not an operator call condition stored in the storage means is satisfied based on ambient information detected by the detection means;
A transmission means for transmitting a call signal for calling an operator who is a pilot of the communication robot to the operator terminal when the call determination means determines that the operator call condition is satisfied;
Receiving means for receiving remote operation information indicating a control command transmitted from the operator terminal ;
Execution means for executing a communication action based on remote operation information received by the receiving means ; and
A communication robot comprising calling condition adding means for automatically adding the operator calling condition to the storage means based on an interaction with the human .
前記検出手段によって検出された人間の声を認識してキーワードが含まれるか否かを判断するキーワード判断手段をさらに備え、
前記呼出判断手段は、前記キーワード判断手段によってキーワードが含まれることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1記載のコミュニケーションロボット。
Recognizing a human voice detected by the detecting means and further determining whether or not a keyword is included;
The communication robot according to claim 1, wherein the call determination unit determines that the operator call condition is satisfied when the keyword determination unit determines that a keyword is included.
前記検出手段は、人間の顔の表情を取得する顔表情取得手段を含み、
前記顔表情取得手段によって取得された人間の顔の表情が特定の表情であるか否かを判断する顔表情判断手段をさらに備え、
前記呼出判断手段は、前記顔表情判断手段によって特定の表情であることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1または2記載のコミュニケーションロボット。
The detection means includes facial expression acquisition means for acquiring a facial expression of a human face,
A facial expression determination means for determining whether or not the facial expression of the human face acquired by the facial expression acquisition means is a specific expression;
The communication robot according to claim 1, wherein the call determination unit determines that the operator call condition is satisfied when the facial expression determination unit determines that the expression is a specific expression.
前記検出手段は、人間を個々に識別する個人識別手段を含み、
前記個人識別手段によって識別された人間が特定の人間であるか否かを判断する人間判断手段をさらに備え、
前記呼出判断手段は、前記人間判断手段によって特定の人間であることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1ないし3のいずれかに記載のコミュニケーションロボット。
The detection means includes personal identification means for individually identifying humans,
Human judgment means for judging whether or not the person identified by the personal identification means is a specific person,
The communication robot according to claim 1, wherein the call determination unit determines that the operator call condition is satisfied when the human determination unit determines that the person is a specific person.
前記検出手段は、少なくとも人間を含む対象物との距離を検出する距離検出手段を含み、
前記距離検出手段によって検出された対象物との距離が所定距離以内であるか否かを判断する距離判断手段をさらに備え、
前記呼出判断手段は、前記距離判断手段によって所定距離以内であることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1ないし4のいずれかに記載のコミュニケーションロボット。
The detection means includes distance detection means for detecting a distance from an object including at least a human,
Distance determining means for determining whether or not the distance to the object detected by the distance detecting means is within a predetermined distance;
The communication robot according to claim 1, wherein the call determination unit determines that the operator call condition is satisfied when the distance determination unit determines that the distance is within a predetermined distance.
JP2006010626A 2006-01-19 2006-01-19 Communication robot Active JP5033994B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006010626A JP5033994B2 (en) 2006-01-19 2006-01-19 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006010626A JP5033994B2 (en) 2006-01-19 2006-01-19 Communication robot

Publications (2)

Publication Number Publication Date
JP2007190641A JP2007190641A (en) 2007-08-02
JP5033994B2 true JP5033994B2 (en) 2012-09-26

Family

ID=38446722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006010626A Active JP5033994B2 (en) 2006-01-19 2006-01-19 Communication robot

Country Status (1)

Country Link
JP (1) JP5033994B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12094196B2 (en) 2019-12-03 2024-09-17 Samsung Electronics Co., Ltd. Robot and method for controlling thereof

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5184853B2 (en) * 2007-09-28 2013-04-17 綜合警備保障株式会社 Autonomous mobile
JP2009131914A (en) * 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International Robot control system
JP5453908B2 (en) * 2009-05-08 2014-03-26 日本電気株式会社 Robot equipment
US8260460B2 (en) * 2009-09-22 2012-09-04 GM Global Technology Operations LLC Interactive robot control system and method of use
JP5515173B2 (en) * 2010-02-22 2014-06-11 株式会社国際電気通信基礎技術研究所 Head movement control information generator
GB2507073B (en) 2012-10-17 2017-02-01 China Ind Ltd Interactive toy
EP2952299A1 (en) * 2014-06-05 2015-12-09 Aldebaran Robotics Standby mode of a humanoid robot
US10373116B2 (en) 2014-10-24 2019-08-06 Fellow, Inc. Intelligent inventory management and related systems and methods
US10311400B2 (en) 2014-10-24 2019-06-04 Fellow, Inc. Intelligent service robot and related systems and methods
US9796093B2 (en) * 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods
JP2017087411A (en) * 2015-11-11 2017-05-25 グローリー株式会社 Operation guidance system, and robot
JP6810533B2 (en) * 2016-04-07 2021-01-06 シャープ株式会社 Control terminals, robots, control methods for control terminals, and their programs
JP6719072B2 (en) * 2016-08-10 2020-07-08 パナソニックIpマネジメント株式会社 Customer service device, service method and service system
CN107731225A (en) * 2016-08-10 2018-02-23 松下知识产权经营株式会社 Receive guests device, method of receiving guests and system of receiving guests
JP6952453B2 (en) * 2016-11-24 2021-10-20 田嶋 雅美 Customer service system and customer service method
JP7045020B2 (en) * 2017-02-28 2022-03-31 国立大学法人東北大学 Dialogue support device and dialogue device
JP7000759B2 (en) * 2017-09-14 2022-01-19 大日本印刷株式会社 Guidance device, guidance system, guidance method and program
CN108363745B (en) * 2018-01-26 2020-06-30 阿里巴巴集团控股有限公司 Method and device for changing robot customer service into manual customer service
US10845975B2 (en) * 2018-03-29 2020-11-24 Universal City Studios Llc Interactive animated character head systems and methods
US10586082B1 (en) 2019-05-29 2020-03-10 Fellow, Inc. Advanced micro-location of RFID tags in spatial environments
JP2021064299A (en) * 2019-10-16 2021-04-22 株式会社サイバーエージェント Control system, terminal device, control method, and computer program
JP2022063707A (en) * 2020-10-12 2022-04-22 東京ロボティクス株式会社 Robot system, control method and program for the same, and system
EP4400844A1 (en) * 2021-09-10 2024-07-17 Hitachi High-Tech Corporation Automated analysis support robot, and automated analysis system
KR102486848B1 (en) * 2022-05-13 2023-01-10 주식회사 파이엇 an autonomous mobile transport service robot with protect a customer

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63204A (en) * 1986-06-20 1988-01-05 株式会社クボタ Running control apparatus of automatic running working vehicle
JPH03178789A (en) * 1989-12-02 1991-08-02 Ryoichi Sekiguchi Communication control unit of robot
JP2818234B2 (en) * 1989-12-21 1998-10-30 株式会社東芝 Police box system
JPH1034570A (en) * 1996-07-19 1998-02-10 Fujitsu Ltd Robot remote control system
JP4642287B2 (en) * 2001-08-07 2011-03-02 本田技研工業株式会社 Autonomous mobile robot
JP4072033B2 (en) * 2002-09-24 2008-04-02 本田技研工業株式会社 Reception guidance robot device
JP4355158B2 (en) * 2003-04-01 2009-10-28 本田技研工業株式会社 Reception information system
JP4595436B2 (en) * 2004-03-25 2010-12-08 日本電気株式会社 Robot, control method thereof and control program
JP4713846B2 (en) * 2004-04-30 2011-06-29 独立行政法人科学技術振興機構 Robot remote control system
JP4588359B2 (en) * 2004-05-07 2010-12-01 富士通株式会社 Network robot function providing system and function providing method
JP2006003263A (en) * 2004-06-18 2006-01-05 Hitachi Ltd Visual information processor and application system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12094196B2 (en) 2019-12-03 2024-09-17 Samsung Electronics Co., Ltd. Robot and method for controlling thereof

Also Published As

Publication number Publication date
JP2007190641A (en) 2007-08-02

Similar Documents

Publication Publication Date Title
JP5033994B2 (en) Communication robot
JP4639343B2 (en) Robot remote control system
JP5429462B2 (en) Communication robot
JP4386367B2 (en) Communication robot improvement system
JP4822319B2 (en) Communication robot and attention control system using the same
JP5366048B2 (en) Information provision system
US11338429B2 (en) Robot
US7689319B2 (en) Communication robot control system
JP4599522B2 (en) Communication robot
JP5732632B2 (en) Robot system and space formation recognition device used therefor
JP7243110B2 (en) Information processing device and information processing method, computer program, and package reception support system
JP4024683B2 (en) Communication robot
JP2009241166A (en) Robot remote operation system
JP5145569B2 (en) Object identification method and apparatus
JP2007196300A (en) Robot control system
KR20130060952A (en) Remote control system for service robot
JP2007160427A (en) Robot control system
JP2007152470A (en) Robot with self-diagnostic function
JP2009131914A (en) Robot control system
JP2015066624A (en) Robot control system, robot control program, and explanation robot
JP4798581B2 (en) Robot system
JP4793904B2 (en) Communication robot system and communication robot
JP2007320033A (en) Communication robot
JP2007156689A (en) Light source position detection device and face recognition device using the same and self-propelled robot
JP2006243555A (en) Response determination system, robot, event output server, and response determining method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120502

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5033994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250