JP5033994B2 - Communication robot - Google Patents
Communication robot Download PDFInfo
- Publication number
- JP5033994B2 JP5033994B2 JP2006010626A JP2006010626A JP5033994B2 JP 5033994 B2 JP5033994 B2 JP 5033994B2 JP 2006010626 A JP2006010626 A JP 2006010626A JP 2006010626 A JP2006010626 A JP 2006010626A JP 5033994 B2 JP5033994 B2 JP 5033994B2
- Authority
- JP
- Japan
- Prior art keywords
- operator
- robot
- call
- human
- condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 title claims description 81
- 241000282414 Homo sapiens Species 0.000 claims description 69
- 230000008921 facial expression Effects 0.000 claims description 38
- 230000009471 action Effects 0.000 claims description 32
- 238000001514 detection method Methods 0.000 claims description 16
- 230000033001 locomotion Effects 0.000 claims description 16
- 230000014509 gene expression Effects 0.000 claims description 11
- 241000282412 Homo Species 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 7
- 230000003993 interaction Effects 0.000 claims description 5
- 238000000034 method Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 23
- 210000001508 eye Anatomy 0.000 description 21
- 210000003128 head Anatomy 0.000 description 17
- 210000005252 bulbus oculi Anatomy 0.000 description 16
- 230000006399 behavior Effects 0.000 description 12
- 238000012423 maintenance Methods 0.000 description 10
- 210000000323 shoulder joint Anatomy 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 210000000245 forearm Anatomy 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 4
- 210000002310 elbow joint Anatomy 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Description
この発明はコミュニケーションロボットに関し、特にたとえば、音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行する、コミュニケーションロボットに関する。 The present invention relates to a communication robot, and more particularly to a communication robot that executes a communication action with a human using at least one of voice and body motion.
従来のこの種のコミュニケーションロボットの一例が特許文献1に開示される。特許文献1の遠隔操作システムによれば、ロボット装置は警備などに利用され、基本的には自律行動を行う。ただし、ロボット動作の修正が必要な場合には自律遠隔協調モードに移行して修正動作を行うことができる。このとき、協調割合が100%遠隔であれば、ロボット装置は完全遠隔動作を行う。
An example of a conventional communication robot of this type is disclosed in
また、この種のコミュニケーションロボットの他の一例が特許文献2に開示される。この特許文献2のメンテナンスロボットシステムでは、メンテナンスロボットは、無人環境や夜間に顧客の施設内で利用されているコンピュータ群を巡回点検し、異常を発見したとき、障害内容を情報管理システムへ報告し、情報管理システムから送られてきた作業手順に従い、該当コンピュータの保守作業を行う。ただし、メンテナンスロボットは、保守作業を3回繰り返し行っても完了しない場合は、コールセンタへ保守員の派遣要請を行い、3回以内に作業が完了した場合は、作業完了をコールセンタへ報告する。 Another example of this type of communication robot is disclosed in Patent Document 2. In the maintenance robot system of Patent Document 2, the maintenance robot patrols the computer group used in the customer's facility in the unattended environment or at night, and when an abnormality is found, reports the failure content to the information management system. Then, according to the work procedure sent from the information management system, the corresponding computer is maintained. However, if the maintenance robot is not completed even after repeating the maintenance work three times, it requests the call center to send maintenance personnel, and if the work is completed within three times, the maintenance robot reports the completion of the work to the call center.
さらに、特許文献3(特許文献4も同様。)には、音声と共に身体動作を伝送することで、遠隔地間の人間同士のコミュニケーションを促進する遠隔地間対話システムが開示されている。特許文献3に開示される意思伝達装置は、話し手又は聞き手として振る舞う共用ロボットと、話し手制御部、聞き手制御部および音声送受信部とから構成され、たとえば電話器に適用される。この意思伝達装置では、電話回線を通じて送受信される音声信号を時系列的な電気信号のON/OFFと捉え、この電気信号のON/OFFから頷き動作タイミングを判断し、ロボットの各部を動作させる。具体的には、話し手としてのロボットは、通話相手の音声信号に応じて、瞬きしたり、口を開閉したり、腕、腰などの身体部位を動かしたりする。一方、聞き手としてのロボットは、本人であるユーザの音声信号に応じて、頷き動作をする。
特許文献1の発明では、オペレータは、ロボット装置から送信される各種のセンサ情報をモニタリングして、ロボット装置の動作モードを設定するようにしてあるため、オペレータはロボット装置の状態を常に監視する必要があった。すなわち、非効率であった。
In the invention of
また、特許文献2の発明では、メンテナンスロボットは、保守作業を3回繰り返し行っても完了しない場合は、コールセンタへ保守員の派遣要請を行うだけである。つまり、保守員を現場に呼び出すに過ぎず、オペレータによる遠隔操作によってコンピュータ群の異常を解決しようとするものではなかった。 Further, in the invention of Patent Document 2, if the maintenance robot is not completed even if the maintenance work is repeated three times, it merely requests the call center to dispatch maintenance personnel. In other words, it was merely a call for maintenance personnel to the site, and it was not intended to solve computer group abnormalities by remote operation by an operator.
また、特許文献3および特許文献4の発明は、遠隔地に存在する人間の声や動作に合わせてロボットの頷き動作などが制御(遠隔制御)されるだけであり、必要に応じてオペレータの指示に従ってロボットを遠隔制御するものではなかった。
The inventions of
それゆえに、この発明の主たる目的は、効率良くロボットを遠隔操作できる、コミュニケーションロボットを提供することである。 Therefore, a main object of the present invention is to provide a communication robot that can remotely control the robot efficiently.
請求項1の発明は、自律制御またはオペレータ端末からの制御コマンドに従って操縦されることを示す遠隔操作によって、音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行するコミュニケーションロボットであって、少なくとも人間の声を含む周囲情報を検出する検出手段、自律制御では対応が困難な状態であるか否かを判断するための条件を示すオペレータ呼出条件を記憶する記憶手段、検出手段によって検出された周囲情報に基づいて記憶手段に記憶されたオペレータ呼出条件を満たすか否かを判断する呼出判断手段、呼出判断手段によってオペレータ呼出条件を満たすと判断されたとき、当該コミュニケーションロボットの操縦者となるオペレータを呼び出すための呼出信号をオペレータ端末に送信する送信手段、オペレータ端末から送信される制御コマンドを示す遠隔操作情報を受信する受信手段、受信手段によって受信された遠隔操作情報に基づくコミュニケーション行動を実行する実行手段、および人間との間で行われたインタラクションに基づいて、記憶手段にオペレータ呼出条件を自動的に追加する呼出条件追加手段を備える、コミュニケーションロボットである。
The invention according to
請求項1の発明では、コミュニケーションロボット(10:実施例で相当する参照番号。以下同じ。)は、音声および身体動作の少なくとも一方を用いて人間との間でコミュニケーション行動を実行する。たとえば、コミュニケーションロボットは、或るイベント会場や会社の受付のような様々な場所や状況に配置され、通常は自律制御によって人間との会話などのコミュニケーション行動を実行し、受付や道案内などの役割を果たす(サービスを提供する)。検出手段(28,32,42,46,48,58,72,98,S23)は、少なくとも人間の声を含む周囲情報、すなわち自身の周囲および自身の状況に関する情報などを検出する。記憶手段(100)は、オペレータ呼出条件を記憶する。ここで、オペレータ呼出条件とは、オペレータを呼び出すか否かを判断するための条件をいう。具体的には、自律制御だけでは対応が困難な状況や事態になり、遠隔操作による対応が必要になったことを示す。呼出判断手段(72,S5,S25〜39)は、検出手段によって検出した周囲情報に基づいて、記憶手段に記憶されたオペレータ呼出条件を満たすか否かを判断する。呼出判断手段によってオペレータ呼出条件を満たすと判断されたときには、送信手段(72,96,S7)は、オペレータを呼び出すための呼出信号を、たとえばネットワーク(202)を介してオペレータ端末(204)に送信する。オペレータ端末では、オペレータが遠隔操作情報(制御コマンド)を入力すると、コミュニケーションロボットに送信される。コミュニケーションロボットでは、受信手段(72,96,S11)が、オペレータによって入力された遠隔操作情報を受信する。実行手段(26,40,72,84〜92,S13)は、受信手段によって受信された遠隔操作情報に基づいて、音声および身体動作の少なくとも一方を含むコミュニケーション行動を実行する。また、呼出条件追加手段は、人間との間で行われたインタラクションに基づいて、記憶手段にオペレータ呼出条件を自動的に追加する。 According to the first aspect of the present invention, the communication robot (10: reference number corresponding to the embodiment; the same applies hereinafter) executes communication behavior with a human by using at least one of voice and body movement. For example, communication robots are placed in various places and situations such as certain event venues and company receptions, and usually perform communication behaviors such as conversations with human beings by autonomous control. Fulfill (provide service). The detection means (28, 32, 42, 46, 48, 58, 72, 98, S23) detects ambient information including at least a human voice, that is, information about the surroundings of the person and his / her situation. The storage means (100) stores the operator call condition. Here, the operator calling condition is a condition for determining whether or not to call an operator. Specifically, this indicates that the situation or situation is difficult to handle by autonomous control alone, and that it is necessary to respond by remote control. The call determination means (72, S5, S25 to 39) determines whether or not the operator call condition stored in the storage means is satisfied based on the surrounding information detected by the detection means. When it is determined by the call determination means that the operator call condition is satisfied, the transmission means (72, 96, S7) transmits a call signal for calling the operator to the operator terminal (204) via the network (202), for example. To do. In the operator terminal, when the operator inputs remote operation information (control command), it is transmitted to the communication robot. In the communication robot, the receiving means (72, 96, S11) receives the remote operation information input by the operator. The executing means (26, 40, 72, 84 to 92, S13) executes a communication action including at least one of voice and physical action based on the remote operation information received by the receiving means. The calling condition adding means automatically adds an operator calling condition to the storage means based on the interaction performed with a human.
請求項1の発明によれば、必要に応じてオペレータによる遠隔操作を行えばよいので、効率良くロボットを遠隔操作することができる。 According to the first aspect of the present invention, the robot can be remotely operated efficiently because the operator can perform the remote operation as necessary.
請求項2の発明は、請求項1に従属し、検出手段によって検出された人間の声を認識してキーワードが含まれるか否かを判断するキーワード判断手段をさらに備え、呼出判断手段は、キーワード判断手段によってキーワードが含まれることが判断されたとき、オペレータ呼出条件を満たすと判断する。
The invention of claim 2 is dependent on
請求項2の発明では、キーワード判断手段(72,S25)は、検出手段によって検出された人間の声を認識(音声認識)し、音声認識した人間の声にキーワードが含まれるか否かを判断する。たとえば、キーワードには、人間がコミュニケーションロボットと会話しているときに、困っていることを表現する場合に使用する言葉(単語,語句)が設定される。具体的には、「責任者を呼んで」や「わからない」などの言葉(単語,語句)が含まれてよい。キーワード判断手段によってキーワードが含まれると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。 In the invention of claim 2, the keyword judging means (72, S25) recognizes (voice recognition) the human voice detected by the detecting means, and judges whether or not the keyword is included in the voice-recognized human voice. To do. For example, a keyword (word, phrase) used to express a problem when a human is talking to a communication robot is set as the keyword. Specifically, words (words, phrases) such as “call the responsible person” and “don't know” may be included. When the keyword determining means determines that the keyword is included, the call determining means determines that the operator calling condition is satisfied.
請求項2の発明によれば、人間が困っている状況などを音声によって認識するので、当該人間の手を煩わすことがなく、適切にオペレータを呼び出すことができる。すなわち、より効率良く遠隔制御することができる。 According to the second aspect of the present invention, since a situation in which a person is in trouble is recognized by voice, the operator can be appropriately called without bothering the person's hand. That is, remote control can be performed more efficiently.
請求項3の発明は、請求項1または2に従属し、検出手段は、人間の顔の表情を取得する顔表情取得手段を含み、顔表情取得手段によって取得された人間の顔の表情が特定の表情であるか否かを判断する顔表情判断手段をさらに備え、呼出判断手段は、顔表情判断手段によって特定の表情であることが判断されたとき、オペレータ呼出条件を満たすと判断する。
The invention of
請求項3の発明では、顔表情取得手段(42,48,72,S23)は、人間の顔の表情を取得する。顔表情判断手段(72,S27)は、顔表情取得手段によって取得された人間の顔の表情が特定の表情であるか否かを判断する。特定の表情には、たとえば、コミュニケーションロボットとのコミュニケーション行動がうまくいっていないときに見せる人間の顔の表情を設定することができる。具体的には、怒っている表情や困っている表情などが設定される。顔表情判断手段によって特定の表情であると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。
In the invention of
請求項3の発明によれば、人間とのコミュニケーションが適切に行われていないことを人間の顔の表情によって判断するので、請求項2の発明と同様に、当該人間の手を煩わすことなく、適切にオペレータを呼び出すことができる。
According to the invention of
請求項4の発明は、請求項1ないし3のいずれかに従属し、検出手段は、人間を個々に識別する個人識別手段を含み、個人識別手段によって識別された人間が特定の人間であるか否かを判断する人間判断手段をさらに備え、呼出判断手段は、人間判断手段によって特定の人間であることが判断されたとき、オペレータ呼出条件を満たすと判断する。
The invention of claim 4 is dependent on any one of
請求項4の発明では、個人識別手段(42,48,72,98,S23)は、人間を個々に識別する。人間判断手段(72,S29)は、個人識別手段によって識別された人間が特定の人間であるか否かを判断する。ここで、特定の人間とは、オペレータによる遠隔操作で適切に対応することが望ましい人間を意味する。特定の人間には、たとえば、いわゆるVIP(重要な顧客)や自律制御だけでは対応することが難しい人間(たとえば、幼児)が設定される。人間判断手段によって特定の人間であると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。 In the invention of claim 4, the personal identification means (42, 48, 72, 98, S23) identifies a person individually. The human judgment means (72, S29) judges whether or not the person identified by the personal identification means is a specific person. Here, the specific person means a person who is desired to respond appropriately by remote operation by an operator. As the specific person, for example, a so-called VIP (important customer) or a person (for example, an infant) who is difficult to deal with only by autonomous control is set. When it is determined by the human determination means that the person is a specific person, the call determination means determines that the operator call condition is satisfied.
請求項4の発明によれば、特定の人間を認識した場合には、速やかにオペレータを呼び出すので、より適切に対応することができるとともに、未然にトラブルを防止することもできる。すなわち、状況に応じた適切なサービスを提供することができる。 According to the invention of claim 4, when a specific person is recognized, the operator is quickly called, so that it is possible to cope more appropriately and to prevent troubles in advance. That is, it is possible to provide an appropriate service according to the situation.
請求項5の発明は、請求項1ないし4のいずれかに従属し、検出手段は、少なくとも人間を含む対象物との距離を検出する距離検出手段を含み、距離検出手段によって検出された対象物との距離が所定距離以内であるか否かを判断する距離判断手段をさらに備え、呼出判断手段は、距離判断手段によって所定距離以内であることが判断されたとき、オペレータ呼出条件を満たすと判断する。
The invention of
請求項5の発明では、検出手段は、距離検出手段(32,72,S23)を含み、距離検出手段は、少なくとも人間を含む対象物との距離を検出する。距離判断手段(72,S31,S33)は、距離検出手段によって検出された対象物との距離が所定距離以内であるか否かを判断する。距離判断手段によって所定距離以内であると判断されたときには、呼出判断手段は、オペレータ呼出条件を満たすと判断する。つまり、距離検出手段によって検出される距離に基づいて、オペレータによる対応が必要であるような特定の状況を推測するのである。たとえば、人間との距離が1m以内であり、この状態が5分以上継続している場合には、当該人間とコミュニケーションロボットとが長い間会話しており、コミュニケーションロボットによる受付や道案内がうまくできていないことが推測される。また、たとえば、コミュニケーションロボットの移動中に、人間との距離が50cm以下であり、この状態が10秒以上継続している場合には、当該人間に行く手を塞がれていると推測される。
In the invention of
請求項5の発明によれば、人間との会話がうまくいっていない状況や人間にいたずらされている状況などを推測して、オペレータを呼び出すので、トラブルに対して適切に対応することができる。
According to the invention of
この発明によれば、オペレータによる遠隔操作が必要な状況を適切に判断してオペレータを呼び出すので、オペレータは必要に応じて遠隔操作を行えばよい。つまり、効率良くロボットを遠隔操作でき、状況に応じた適切なサービスを提供することができる。 According to the present invention, the operator is appropriately determined when a situation requiring remote operation by the operator is called, and the operator may perform remote operation as necessary. That is, the robot can be remotely operated efficiently, and an appropriate service according to the situation can be provided.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のコミュニケーションロボット10(以下、単に「ロボット」ということがある。)は、主として人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のもので、音声によって人間と対話することが可能である。また、音声に代えて、或いは音声とともに、身振り手振りのような身体動作を用いてコミュニケーションすることもできる。以下、この明細書において、音声および身体動作の少なくとも一方を用いたコミュニケーションの行動ないし動作をコミュニケーション行動という。 Referring to FIG. 1, a communication robot 10 (hereinafter, simply referred to as a “robot”) of this embodiment is an interaction-oriented one mainly intended to communicate with a communication target such as a human. It is possible to interact with humans by voice. Moreover, it can also communicate using body movements, such as gesture gesture instead of a voice | voice or with a voice | voice. Hereinafter, in this specification, a communication action or action using at least one of voice and body movement is referred to as communication action.
このロボット10は、一例として、受付ロボットや道案内ロボットであり、或るイベント会場や会社の受付などの様々な場所や状況に配置され、通常は自律制御によって、受付や道案内などの役割を果たす(サービスを提供する)。しかし、ロボット10は、自律制御だけでは対応することが困難な事態になった場合、たとえば人間との会話がうまくいっていない状況になったり、より細やかな対応が求められる場面になったりした場合などには、オペレータを呼び出す。そして、ロボット10は、呼び出したオペレータによって入力された制御コマンド(遠隔操作情報)を受信し、当該制御コマンドに従うコミュニケーション行動(動作や発話)を実行する。つまり、ロボット10は、オペレータによって必要に応じて遠隔操作される。
The
図1は、ロボット10の外観を示す正面図である。この図1に示すように、ロボット10は台車22を含み、この台車22の下面にはロボット10を自律移動させる車輪24が設けられる。車輪24は車輪モータ26(図2参照)によって駆動され、台車22すなわちロボット10を前後左右任意の方向に動かすことができる。このように、ロボット10は配置された環境内を移動可能なものであるが、場合によっては環境内の所定位置に固定的に設けられてもよい。
FIG. 1 is a front view showing the appearance of the
なお、図1においては省略するが、台車22の前面には、衝突センサ28(図2参照)が取り付けられ、この衝突センサ28は台車22への人や他の障害物の接触を検知する。つまり、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪24の駆動を停止してロボット10の移動を急停止させる。
Although not shown in FIG. 1, a collision sensor 28 (see FIG. 2) is attached to the front surface of the
また、この実施例では、ロボット10の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。
In this embodiment, the height of the
台車22の上には、多角形柱のセンサ取付パネル30が設けられ、このセンサ取付パネル30の各面には、超音波距離センサ32が取り付けられる。この超音波距離センサ32は、センサ取付パネル30すなわちロボット10の周囲の主として人との距離を計測するものである。
A polygonal column
また、台車22の上には、さらに、その下部がセンサ取付パネル30に囲まれて、ロボット10の胴体が直立するように設けられる。この胴体は、下部胴体34と上部胴体36とによって構成され、下部胴体34および上部胴体36は、連結部38によって互いに連結される。図示は省略するが、連結部38には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体36の高さすなわちロボット10の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ40(図2参照)によって駆動される。
Moreover, the lower part of the
なお、上述したロボット10の背の高さは、上部胴体36をそれの最下位置にしたときのものである。したがって、ロボット10の背の高さは、100cm以上にすることも可能である。
The height of the
上部胴体36には、1つの全方位カメラ42が設けられる。全方位カメラ42は、たとえば背面側上端部のほぼ中央からのびる支柱44上に設置される。全方位カメラ42は、ロボット10の周囲を撮影するものであり、後述する眼カメラ48とは区別される。この全方位カメラ42としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。また、上部胴体36の正面側のほぼ中央には、1つのマイク46が設けられる。マイク46は、周囲の音、とりわけコミュニケーション対象である人間の声を取り込む。なお、これら全方位カメラ42およびマイク46の設置位置は上部胴体36に限られず適宜変更され得る。
The
上部胴体36の両肩には、それぞれ、肩関節50Rおよび50Lによって、上腕52Rおよび52Lが設けられる。肩関節50Rおよび50Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節50Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕52Rの角度を制御できる。Y軸は、上腕52Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節50Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕52Lの角度を制御できる。B軸は、上腕52Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。
また、上腕52Rおよび52Lのそれぞれの先端には、肘関節54Rおよび54Lを介して、前腕56Rおよび56Lが設けられる。肘関節54Rおよび54Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕56Rおよび56Lの角度を制御できる。
Further, forearms 56R and 56L are provided at the respective distal ends of the
なお、上腕52Rおよび52Lならびに前腕56Rおよび56Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図1に示すように、上腕52Rおよび52Lならびに前腕56Rおよび56Lは下方に向けられる。
In the X axis, Y axis, Z axis, W axis, A axis, B axis, C axis, and D axis that control the displacement of the
また、図示は省略するが、上部胴体36の肩関節50Rおよび50Lを含む肩の部分や上述の上腕52Rおよび52Lならびに前腕56Rおよび56Lには、それぞれ、タッチセンサ(図2で包括的に示す。:58)が設けられていて、これらのタッチセンサ58は、人がロボット10の当該各部位に触れたかどうかを検知する。
Although not shown in the drawings, touch sensors (shown comprehensively in FIG. 2) are respectively provided on the shoulder portion of the
前腕56Rおよび56Lのそれぞれの先端には、手に相当する球体60Rおよび60Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
上部胴体36の中央上方には、首関節62を介して頭部64が設けられる。首関節62は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部64には、人の口に相当する位置に、スピーカ66が設けられる。スピーカ66は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーション行動を実行するために用いられる。ただし、スピーカ66は、ロボット10の他の部位、たとえば胴体などに設けられてもよい。
A
また、頭部64には、目に相当する位置に眼球部68Rおよび68Lが設けられる。眼球部68Rおよび68Lは、それぞれ眼カメラ48Rおよび48Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがあり、また、右の眼カメラ48Rと左の眼カメラ48Lとをまとめて眼カメラ48ということもある。
The
眼カメラ48は、ロボット10に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。眼カメラ48としては、上述した全方位カメラ42と同様のカメラを用いることができる。
The
たとえば、眼カメラ48は眼球部68内に固定され、眼球部68は眼球支持部(図示せず)を介して頭部64内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部64に対して設けられる軸であり、α軸は頭部64の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部64の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部64がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部64において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ48の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
For example, the
なお、眼カメラ48の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図1に示すように、眼カメラ48のカメラ軸は頭部64の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
In the α axis and β axis that control the displacement of the
図2はロボット10の電気的な構成を示すブロック図であり、この図2を参照して、ロボット10は、全体を制御するCPU72を含む。CPU72は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス74を介して、メモリ76、モータ制御ボード78、センサ入力/出力ボード80および音声入力/出力ボード82に接続される。
FIG. 2 is a block diagram showing an electrical configuration of the
メモリ76は、図示は省略するが、ROMやHDDおよびRAMを含み、ROMやHDDには、ロボット10の動作を制御する制御プログラムなどのプログラムが予め記憶される。他のプログラムとしては、各センサ28,32,42,46,48,58の出力を検出する検出プログラム、オペレータを呼び出すための呼出プログラムおよび外部コンピュータすなわちオペレータ端末204(図3参照)との間で必要なデータないしコマンドを送受信するための通信プログラムなどが該当する。また、メモリ76には、コミュニケーション行動を実行する際にスピーカ66から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データなども記憶される。ただし、RAMは、ワークメモリやバッファメモリとして用いられる。
Although not shown, the
制御プログラムとしては、ロボット10の身体動作を制御するための複数のプログラム(行動モジュールと呼ばれる。)の各々がコマンド名(制御コマンド)に対応して記憶される。たとえば、行動モジュールが示す身体動作としては、「なーに」、「わーい」、「待機」…などがある。
As the control program, each of a plurality of programs (referred to as action modules) for controlling the body motion of the
行動モジュールが示す身体動作が「なーに」である場合には、「なーに」と発話して首を傾げる。具体的には、CPU72は、メモリ76から「なーに」に対応する音声データ(音声合成データ)を読み出し、音声入力/出力ボード82を介してスピーカ66から出力する。これと同時或いはほぼ同時に、CPU72は、メモリ76から首62を傾げる場合の角度データを読み出し、モータ制御ボード78に与える。すると、首を傾げるように、頭部モータ92が回転される。
When the body motion indicated by the behavior module is “what”, say “what” and tilt the head. Specifically, the
また、行動モジュールが示す身体動作が「わーい」である場合には、「わーい」と発話して両手を挙げる。具体的には、CPU72は、メモリ76から「わーい」に対応する音声合成データを読み出し、音声入力/出力ボード82を介してスピーカ66から出力する。これと同時或いはほぼ同時に、CPU72は、メモリ76から両手を挙げる場合の角度データを読み出し、モータ制御ボード78に与える。すると、両手を挙げるように、右腕モータ88および左腕モータ90が所定角度だけ回転される。
Also, if the body motion indicated by the behavior module is “Wai”, utter “Wai” and raise both hands. Specifically, the
さらに、行動モジュールが示す身体動作が「待機」である場合には、「暇だな」と発話したり、「あそぼ」と発話したり、辺りを見渡すように動作したりする。具体的には、CPU72は、メモリ76から一定時間毎に、「暇だな」或いは「あそぼ」に対応する音声合成データを読みだし、音声入力/出力ボード82を介してスピーカ66から出力する。これと同時或いはほぼ同時に、CPU72は、メモリ76から首62を左右に振る場合の角度データを読み出し、モータ制御ボード78に与える。すると、首62を左右に振るように、頭部モータ92が回転される。
Further, when the physical motion indicated by the behavior module is “standby”, the user speaks “I am free”, speaks “Play”, or operates to look around. Specifically, the
モータ制御ボード78は、たとえばDSPで構成され、各腕や頭部および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード78は、CPU72からの制御データを受け、右眼球部68Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「右眼球モータ」と示す。)84の回転角度を制御する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左眼球部68Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図2では、まとめて「左眼球モータ」と示す。)86の回転角度を制御する。
The
また、モータ制御ボード78は、CPU72からの制御データを受け、右肩関節50RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節54RのW軸の角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「右腕モータ」と示す。)88の回転角度を調節する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左肩関節50LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節54LのD軸の角度を制御する1つのモータとの計4つのモータ(図2では、まとめて「左腕モータ」と示す。)90の回転角度を調整する。
The
さらに、モータ制御ボード78は、CPU72からの制御データを受け、頭部64のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図2では、まとめて「頭部モータ」と示す。)92の回転角度を制御する。さらにまた、モータ制御ボード78は、CPU72からの制御データを受け、腰モータ40および車輪24を駆動する2つのモータ(図2では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。
Further, the
なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。
In this embodiment, stepping motors or pulse motors are used for the motors other than the
センサ入力/出力ボード80もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU72に与える。すなわち、超音波距離センサ32のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード80を通してCPU72に入力される。また、全方位カメラ42からの映像信号が、必要に応じてこのセンサ入力/出力ボード80で所定の処理を施された後、CPU72に入力される。眼カメラ48からの映像信号も、同様にして、CPU72に入力される。また、上述した複数のタッチセンサ(図2では、まとめて「タッチセンサ58」と示す。)、および衝突センサ28からの信号がセンサ入力/出力ボード80を介してCPU72に与えられる。
Similarly, the sensor input /
音声入力/出力ボード82もまた、同様に、DSPで構成され、CPU72から与えられる音声合成データに従った音声または声がスピーカ66から出力される。また、マイク46からの音声入力が、音声入力/出力ボード82を介してCPU72に取り込まれる。
Similarly, the voice input /
また、CPU72は、バス74を介して通信LANボード94および無線通信装置96に接続される。また、通信LANボード94および無線通信装置96は、図示は省略するが、たとえば、無線LANアクセスポイントを介してLANやインターネットのようなネットワーク202(図3参照)に接続される。通信LANボード94は、DSPで構成され、CPU72から送られる送信データを無線通信装置96に与え、無線通信装置96から送信データを、ネットワーク202を介してオペレータ端末204に送信する。また、通信LANボード94は、無線通信装置96を介してオペレータ端末204からの遠隔操作情報(制御コマンド)を受信し、受信した遠隔操作情報をCPU72に与える。なお、ロボット10が移動不可能に設置されている場合には、ネットワーク202へは有線で接続されてもよい。また、ロボット10とオペレータ端末204とが無線もしくは有線により直接通信するように構成してもよい。
The
また、CPU72には無線タグ読取装置98が接続される。無線タグ読取装置98は、無線タグ(RFIDタグ)から送信される識別情報の重畳された電波を、アンテナを介して受信し、電波信号を増幅し、当該電波信号から識別情報を分離し、当該識別情報を復調(デコード)してCPU72に与える。無線タグはイベント会場や会社などにいる人間に装着されており、無線タグ読取装置98は通信可能範囲内の無線タグを検出する。なお、無線タグはアクティブ型であってもよいし、無線タグ読取装置98から発信される電波に応じて駆動されるパッシブ型であってもよい。
Further, a
さらに、CPU72は、バス74を介して呼出条件データベース(呼出条件DB)100に接続される。呼出条件DB100は、オペレータを呼び出すか否かを判断するための条件(オペレータ呼出条件)を記憶したデータベースである。ここで、オペレータ呼出条件は、上述したように、トラブル(音声認識が不能など)が生じたり、より細やかな対応(コミュニケーションなど)が求められる場面になったりしたことを判断するための条件である。
Further, the
たとえば、オペレータ呼出条件は、(1)或るキーワードを検出したり、(2)人間の怒っている表情や困っている表情のような特定の表情を取得したり、(3)特定の人間を検出したり、(4)人間と長時間会話したり、(5)行く手を塞がれたり、(6)周囲にたくさんの人間が居たり、(7)オペレータ呼出ボタンが操作されたりすると、満たすと判断される。 For example, the operator calling condition may be (1) detecting a certain keyword, (2) obtaining a specific facial expression such as an angry facial expression or a troubled facial expression, or (3) To detect, (4) talk with a person for a long time, (5) block the way to go, (6) have many people around, (7) operate the operator call button, and so on It is judged.
(1)具体的には、ロボット10は、マイク46を通して入力される人間の声(音声)を検出し、これを認識する。図示は省略するが、メモリ76には、音声認識用の辞書データが記憶されており、この辞書データを参照して、DPマッチング或いはHMM(隠れマルコフモデル)の方法により、入力された音声を認識する。ここで、たとえば、「責任者を呼んで」、「違う」、「そうじゃない」、「わからない」などの特定のキーワードを検出すると、オペレータ呼出条件を満たすと判断する。ただし、特定のキーワードは、メモリ76に予め登録される。また、特定のキーワードは単なる例示であり、限定されるべきではなく、ロボット10の適応環境などによって適宜変更(決定)される。さらに、特定のキーワードは、1つでもよく、複数であってもよい。さらに、キーワード毎に回数を設定しておき、キーワードを検出した回数が設定した回数(設定回数)になったときに、オペレータの呼出条件を満たすと判断するようにしてもよい。たとえば、「責任者を呼んで」のように、直接的にオペレータを呼び出すようなキーワードの場合には、設定回数が「1」に設定される。また、「違う」、「そうじゃない」、「わからない」などのように、間接的にオペレータを呼び出すようなキーワードの場合には、設定回数が「3」に設定される。
(1) Specifically, the
(2)また、ロボット10は、全方位カメラ42ないし眼カメラ48で撮影された顔画像に基づいて顔の表情を取得し、特定の表情であるか否かを判断することができる。上述したように、特定の顔の表情は、人間が怒っている顔の表情や困っている顔の表情などであり、このような特定の表情を取得すると、オペレータ呼出条件を満たすと判断する。顔の表情を認識する手法は、たとえば、“電子情報通信学会論文誌D-II,Vol.J80-D-II,No.6,pp.1547-1554(1997年6月)”に発表されている。簡単に説明すると、2次元離散コサイン変換によって画像を空間周波数領域に変換し、顔部位の変化に対応する各周波数帯域での電力変化を捉えることによって、顔の表情を認識するものである。つまり、目および口の形状変化を検出することで、顔の表情の認識を行う。
(2) Further, the
ただし、人間が怒っていることは、顔の表情を取得することに変えて、マイク46で検出される音声に基づいて判断することもできる。たとえば、一定値以上の音量の音声が一定時間(たとえば、5秒)以上継続して入力される場合には、人間が怒鳴っていると推測して、人間が怒っていると判断することができる。
However, it can be determined that the person is angry based on the sound detected by the
(3)さらに、ロボット10は、無線タグ読取装置98を用いて、各人間が装着ないし所持している無線タグの識別情報(たとえば、RFID)を検出する。図示は省略するが、ロボット10は、メモリ76に識別情報に対応する人間の名称やその属性(性別、年齢、重要度など)を記憶しており、検出した識別情報に基づいて、人間の名称およびその属性の少なくとも一方を知ることができる。ここで、たとえば、いわゆるVIP(重要な顧客)や対応が困難な人間(幼児など)のような特定の人間を検出すると、オペレータ呼出条件を満たすと判断する。
(3) Further, the
この実施例では、無線タグを用いて人間を個別に識別するようにしてあるが、映像に基づいて特定の人間か否かを判断するようにしてもよい。かかる場合には、特定の人間についての顔画像を予めメモリ76に登録(記憶)しておき、全方位カメラ42ないし眼カメラ48で撮影された顔画像と比較(同定)することにより、特定の人間か否かを判断することもできる。ただし、映像処理(画像処理)により人間の顔を識別する場合には処理が膨大になるため、たとえば、各人間の衣服に異なる特定のマーク(文字、記号、図形など)を付しておき、当該マークに基づいて特定の人間か否かを判断するようにしてもよい。
In this embodiment, a person is individually identified using a wireless tag, but it may be determined whether the person is a specific person based on the video. In such a case, a face image of a specific person is registered (stored) in the
(4)さらにまた、ロボット10は、無線タグ検出装置98で検出したRFIDまたは全方位カメラ42ないし眼カメラ48で撮影された顔画像に基づいて人間を特定するとともに、超音波センサ32の出力に基づいて当該人間との距離を検出することができる。したがって、たとえば、人間と長時間会話しているか否かを判断することができる。この実施例では、ロボット10は、人間との距離が1m以内であり、この状態が5分以上継続している場合には、当該人間とロボット10とが長い間会話していると推測して、オペレータ呼出条件を満たすと判断する。長時間の会話には、人間とのコミュニケーションがうまくいっていない可能性や1人の人間によってロボット10が独占されている可能性があるため、オペレータの指示による適切な行動が実行されるべきであるからである。ただし、距離や時間は一例であり、これに限定される必要はない。なお、図2では省略したが、時間は内部タイマでカウントされる。
(4) Furthermore, the
(5)また、ロボット10は、移動中に、人間との距離が50cm以下であり、この状態が10秒以上継続した場合には、当該人間に行く手を塞がれていると推測して、オペレータ呼出条件を満たすと判断する。かかる場合にも、人間がロボット10に接近し過ぎるのを回避したり、人間によってロボット10の行く手を塞がれた状態から脱出したりするために、オペレータの指示による適切な行動が実行されるべきだからである。
(5) Also, when the
(6)さらに、ロボット10は、無線タグ読出装置98で検出されるRFIDの数が所定値(たとえば、5)以上であれば、周囲に人間が多数存在すると判断し、オペレータ呼出条件を満たすと判断する。これは、人間が多数存在する場合には、音声認識が困難であり、各人間に対して適切に対応することができないからである。ただし、人間が多数存在するか否かは、全方位カメラ42や眼カメラ48で撮影された映像に基づいて判断するようにしてもよい。
(6) Furthermore, if the number of RFIDs detected by the wireless
(7)さらにまた、図1および図2では省略したが、ロボット10に設けられたオペレータ呼出ボタンが操作された(押された)場合にもオペレータ呼出条件を満たすと判断する。ただし、オペレータ呼出ボタンはロボット10に設ける必要はなく、その周囲(環境)に設けるようにしてもよい。
(7) Furthermore, although omitted in FIGS. 1 and 2, it is determined that the operator call condition is satisfied even when an operator call button provided on the
なお、これらは単なる例示であり、オペレータ呼出条件としては、上述のいずれか1つ以上が採用されればよく、また、他の条件を設定することも可能である。たとえば、ロボット10は、上述の(4)の場合において、人間との距離が10cm以内であり、この状態が10秒以上継続した場合には、当該人間と接近し過ぎているため、オペレータ呼出条件を満たすと判断する。これは、たとえば、人間の衣服がロボット10の手などに引っかかってしまうなどの危険な状態になってしまう恐れがあり、かかる場合には、オペレータの指示に従って適切な行動が実行されるべきであるからである。
Note that these are merely examples, and any one or more of the above-mentioned conditions may be adopted as the operator calling condition, and other conditions may be set. For example, in the case of the above (4), the
また、図示は省略するが、ロボット10に、タッチセンサ58に代えてピエゾ素子を用いたシート状の圧力センサを設ければ、その出力(圧力)に基づいて、叩かれたり殴られたりするような状況を判断することができる。このような状況についてもオペレータ呼出条件を満たすと判断する。かかる場合には、ロット10の損壊を防止すべく、オペレータが対処すべきだからである。
Although not shown, if the
さらに、図示は省略するが、ロボット10に振動センサを設ければ、ロボット10が揺さぶられている状況を判断し、上述の場合と同様に、ロボット10の損壊を防止すべく、オペレータ呼出条件を満たすと判断することができる。
Furthermore, although illustration is omitted, if a vibration sensor is provided in the
このような構成のロボット10は、たとえば、上述したように、受付ロボット或いは道案内ロボットとして機能し、図3に示すようなシステム200に適用される。このシステム200はロボット10を含み、ロボット10はインターネットやLANのようなネットワーク202を介してオペレータ端末204に接続される。
For example, as described above, the
なお、オペレータ端末204は、汎用のパーソナルコンピュータ或いはワークステーションまたはPDAのようなコンピュータであり、図示は省略するが、オペレータ端末204には、CRTやLCDのような表示装置、キーボードやコンピュータマウスなどの入力装置、スピーカおよび通信装置などが接続される。オペレータ端末204は、通信装置を介してネットワーク202に有線または無線で接続されている。また、オペレータ端末204に内蔵されるHDDないしROMのようなメモリには、ロボット10を遠隔制御するための制御プログラムおよび必要なデータが記憶される。
The
また、この実施例では、ロボット10とオペレータ端末204とはネットワーク202を介して接続されるようにしてあるが、直接的に接続するようにしてもよい。かかる場合には、Bluetooth(登録商標)のような近距離無線を利用することができる。
In this embodiment, the
上述したように、ロボット10は、通常は自律制御によって、人間との間で対話などのコミュニケーション行動を行い、受付や道案内などを行う。たとえば、ロボット10は、自律制御を行っている場合には、ランダムに選択された制御コマンドに従うコミュニケーション行動を実行したり、人間とのインタラクションに応じて選択された制御コマンドに従うコミュニケーション行動を実行したりする。後者の具体例としては、ロボット10は、人間に肩を触れられると、「なーに」と発話して首を傾げる。つまり、CPU72は、タッチセンサ58の出力に基づいて肩を触られていることを検出すると、「なーに」に対応する制御コマンドを選択し、これに従うコミュニケーション行動を実行する。ただし、これは単なる一例であり、限定されるべきでなく、ロボット10は様々な自律行動が可能である。
As described above, the
しかし、上述したようなオペレータ呼出条件を満たす場合には、人間(ユーザ)とのコミュニケーション行動が円滑に行われていなかったり、自律制御だけでは解決することが難しい問題が生じていたりすると考えられるため、ロボット10が自律制御を行うことは妥当ではないと言える。
However, when the operator calling conditions as described above are satisfied, it is considered that communication behavior with a human (user) is not performed smoothly, or that it is difficult to solve by autonomous control alone. It can be said that it is not appropriate for the
これを回避するため、この実施例では、ロボット10は、オペレータ呼出条件を満たすと判断した場合には、オペレータ端末204に呼出要求を送信するようにしてある。簡単に説明すると、CPU72が、オペレータの呼出要求を、通信LANボード94および無線通信装置96を介して出力する。すると、ネットワーク202を経由して、オペレ−タ端末204に送信される。
In order to avoid this, in this embodiment, the
オペレータ端末204では、ロボット10からの呼出要求を受信すると、上述した制御プログラムが起動され、表示装置(図示せず)に、図4に示すような遠隔操作画面210が表示される。これによって、オペレータ端末204のオペレータは呼出要求が有る旨を知ることができる。ただし、オペレータ端末204に設けられた(接続された)スピーカから警告音を出力するようにして、オペレータに対して遠隔操作の必要性を通知することもできる。かかる場合には、制御プログラムは、オペレータが入力装置を用いて起動するようにしてもよい。そして、オペレータはロボット10の遠隔操作を開始する。
When the
ここで、図4に示すように、遠隔操作画面210は、表示領域212、214および216を含む。表示領域212は、たとえばロボット10の眼カメラ48で撮影した画像(ロボットカメラ画像)を表示する。表示領域214は、ロボット情報を表示する。たとえば、ロボット情報は、ロボット10の配置された場所(施設、会場、会社など)の名称(ここでは、受付や玄関)、当該ロボット10の名前(もしくは識別情報)、当該ロボット10の配置された場所の地図および当該ロボット10が対話している人間の情報(名前、年齢および重要度など)などである。また、ロボット10と人間とが会話している場合には、ロボット10はそのマイク46から入力される音声を検出して、その音声信号をオペレータ端末204に送信するようにしてもよい。このようにすれば、オペレータ端末204では、ロボット10と会話している人間の音声を再生することができ、オペレータはその内容を把握して、適切な対応をすることができるからである。なお、これらオペレータに提示される情報は一例であり、遠隔操作画面210には適宜適切な情報が表示される。
Here, as shown in FIG. 4, the remote operation screen 210 includes
したがって、オペレータは、表示領域212および214を見ながら、ロボット10の遠隔操作を行うことができる。表示領域216は、ロボット10を遠隔操作する場合に、当該ロボット10に送信する制御コマンドを入力するための操作パネルを表示する。操作パネルには、制御コマンドが記載された複数のアイコンないしボタン(GUI)が表示される。たとえば、移動を指示するためのボタン(前進、後退など)、コミュニケーション行動を指示するためのボタン(お辞儀、右指差しなど)および遠隔操作の終了を指示するためのボタンなどが設けられる。オペレータが、入力装置を用いて、いずれかのボタンを指示することにより、指示されたボタンに対応する所望の制御コマンドを入力することができる。そして、入力された制御コマンドが、ネットワーク202を介してロボット10に送信される。ロボット10は、オペレータ端末204から送信された制御コマンドを受信すると、当該制御コマンドに従うコミュニケーション行動を実行する。
Therefore, the operator can remotely operate the
なお、図示は省略するが、ロボットカメラ画像やロボット情報に含まれる映像(画像)は、ロボット10や環境カメラからネットワーク202を介してオペレータ端末204に送信される。
具体的には、図2に示したCPU72が図5に示すフロー図に従って全体処理を実行する。図5に示すように、CPU72は、全体処理を開始すると、ステップS1で、停止命令が有るかどうかを判断する。たとえば、停止命令は、オペレータの操作に従ってオペレータ端末204からネットワーク202を介してロボット10に送信される。ただし、ロボット10に停止ボタンを設けておき、当該ボタンを操作するようにしてもよい。ステップS1で“YES”であれば、つまり、停止命令が有れば、そのまま全体処理を終了する。一方、ステップS1で“NO”であれば、つまり、停止命令が無ければ、ステップS3に進む。
Although illustration is omitted, an image (image) included in the robot camera image and the robot information is transmitted from the
Specifically, the
次のステップS3では、後述する、オペレータ呼出条件判定処理(図6参照)を実行し、ステップS5では、オペレータの呼出フラグがオンであるか否かを判断する。図示は省略するが、オペレータの呼出フラグは、1ビットのレジスタで構成され、メモリ76(RAM)に設けられる。この呼出フラグは、オペレータ呼出条件判定処理を実行することにより、オン/オフされる。具体的には、オペレータ呼出条件を満たす場合には、呼出フラグはオンされ、逆に、オペレータ呼出条件を満たさない場合には、呼出フラグはオフされる。呼出フラグがオンされると、レジスタにデータ値「1」が設定され、逆に、呼出フラグがオフされると、レジスタにデータ値「0」が設定される。 In the next step S3, an operator call condition determination process (see FIG. 6), which will be described later, is executed. In step S5, it is determined whether or not the operator's call flag is on. Although not shown in the figure, the operator call flag is composed of a 1-bit register and is provided in the memory 76 (RAM). This call flag is turned on / off by executing an operator call condition determination process. Specifically, if the operator call condition is satisfied, the call flag is turned on. Conversely, if the operator call condition is not satisfied, the call flag is turned off. When the call flag is turned on, the data value “1” is set in the register. Conversely, when the call flag is turned off, the data value “0” is set in the register.
ステップS5で“NO”であれば、つまり呼出フラグがオフであれば、ステップS9で、自律行動処理を実行し、ステップS1に戻る。なお、上述したように、ステップS9では、CPU72は、自律制御によって、必要に応じて人間との間でコミュニケーション行動を実行する。たとえば、人間に道案内を求められた場合は、道案内を行う。一方、ステップS5で“YES”であれば、つまり呼出フラグがオンであれば、ステップS7で、オペレータを呼び出す。つまり、CPU72は、オペレータ端末204に対して呼出要求を送信する。
If “NO” in the step S5, that is, if the calling flag is turned off, an autonomous action process is executed in a step S9, and the process returns to the step S1. Note that, as described above, in step S9, the
続くステップS11では、オペレータ端末204から制御コマンドが有るか否かを判断する。ステップS11で“NO”であれば、つまり制御コマンドが無ければ、そのままステップS15に進む。一方、ステップS11で“YES”であれば、つまり制御コマンドが有れば、ステップS13で制御コマンドに従うコミュニケーション行動を実行して、ステップS15に進む。
In a succeeding step S11, it is determined whether or not there is a control command from the
ステップS15では、オペレータ端末204からの遠隔操作の終了要求(終了コマンド)が有るかどうかを判断する。ステップS15で“NO”であれば、つまり終了コマンドが無ければ、遠隔操作を継続すると判断して、ステップS11に戻る。一方、ステップS15で“YES”であれば、つまり終了コマンドが有れば、遠隔操作を終了すると判断して、ステップS1に戻る。
In step S15, it is determined whether there is a remote operation end request (end command) from the
なお、この実施例では、オペレータ端末204からの制御コマンドが有ると、直に当該制御コマンドに従うコミュニケーション行動を実行するようにしてある。ただし、オペレータ端末204からの制御コマンドを受信したときに、コミュニケーション行動を実行中である場合には、当該コミュニケーション行動の実行を終了してから、制御コマンドに従うコミュニケーション行動を実行するようにしてもよい。
In this embodiment, when there is a control command from the
図6は、図5に示したステップS3のオペレータ呼出条件判定処理のフロー図である。図6に示すように、CPU72は、オペレータ呼出条件判定処理を開始すると、ステップS21で、呼出条件フラグをオフし、ステップS23で、周囲情報を検出する。このステップS23では、CPU72は、オペレータ呼出条件の判定に必要なセンサ(超音波距離センサ32、全方位カメラ42、マイク46、眼カメラ48、タッチセンサ58、無線タグ読取装置98)の出力を検出し、周囲および自身の状況(状態)を認識する。
FIG. 6 is a flowchart of the operator call condition determination process in step S3 shown in FIG. As shown in FIG. 6, when starting the operator calling condition determination process, the
続くステップS25では、特定のキーワードを検出したか否かを判断する。ステップS25で“YES”であれば、つまり、特定のキーワードを検出すれば、オペレータ呼出条件を満たすと判断して、ステップS39で、呼出条件フラグをオンして、オペレータ呼出条件判定処理を全体処理のプログラムにリターンする。一方、ステップS25で“NO”であれば、つまり特定のキーワードを検出していなければ、ステップS27で、特定の顔の表情を取得したか否かを判断する。ステップS27で“YES”であれば、つまり、特定の顔の表情を取得すれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。 In a succeeding step S25, it is determined whether or not a specific keyword is detected. If “YES” in the step S25, that is, if a specific keyword is detected, it is determined that the operator calling condition is satisfied. In a step S39, the calling condition flag is turned on, and the operator calling condition determining process is entirely processed. Return to the program. On the other hand, if “NO” in the step S25, that is, if a specific keyword is not detected, it is determined whether or not a specific facial expression is acquired in a step S27. If “YES” in the step S27, that is, if a specific facial expression is acquired, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S39.
しかし、ステップS27で“NO”であれば、つまり、特定の顔の表情を取得していなければ、ステップS29で、特定の人間を検出したか否かを判断する。ステップS29で“YES”であれば、つまり特定の人間を検出すれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS29で“NO”であれば、つまり特定の人間を検出していなければ、ステップS31で、人間と長時間会話している状況であるか否かを判断する。 However, if “NO” in the step S27, that is, if a specific facial expression is not acquired, it is determined whether or not a specific human is detected in a step S29. If “YES” in the step S29, that is, if a specific person is detected, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S39. On the other hand, if “NO” in the step S29, that is, if a specific human being is not detected, it is determined whether or not it is a situation in which the user has a long conversation with the human in a step S31.
ステップS31で“YES”であれば、つまり人間と長時間会話している状況であれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS31で“NO”であれば、つまり人間と長時間会話している状況でなければ、ステップS33で、行く手を塞がれた状況であるか否かを判断する。ステップS33で“YES”であれば、つまり行く手を塞がれた状況であれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS33で“NO”であれば、つまり行く手を塞がれていない状況であれば、ステップS35で、周囲に人が多く存在する状況であるか否かを判断する。 If “YES” in the step S31, that is, if it is a situation in which a conversation with a human is performed for a long time, it is determined that the operator calling condition is satisfied, and the process proceeds to a step S39. On the other hand, if “NO” in the step S31, that is, if it is not a situation where the user is talking for a long time, it is determined whether or not the going hand is blocked in a step S33. If “YES” in the step S33, that is, if the going hand is blocked, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S39. On the other hand, if “NO” in the step S33, that is, if the hand is not blocked, it is determined in a step S35 whether or not there are many people around.
ステップS35で“YES”であれば、つまり周囲に人が多く存在する状況であれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS35で“NO”であれば、つまり周囲に人が多く存在していない状況であれば、ステップS37で、オペレータ呼出ボタンが押されたかどうかを判断する。ステップS37で“YES”であれば、つまりオペレータ呼出ボタンが押されていれば、オペレータ呼出条件を満たすと判断して、ステップS39に進む。一方、ステップS37で“NO”であれば、つまりオペレータ呼出ボタンが押されていなければ、オペレータ呼出条件判定処理を全体処理のプログラムにリターンする。 If “YES” in the step S35, that is, if there are many people around, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S39. On the other hand, if “NO” in the step S35, that is, if there are not many people around, it is determined whether or not the operator call button has been pressed in a step S37. If “YES” in the step S37, that is, if the operator call button is pressed, it is determined that the operator call condition is satisfied, and the process proceeds to the step S39. On the other hand, if “NO” in the step S37, that is, if the operator call button is not pressed, the operator call condition determination process is returned to the overall process program.
この実施例によれば、必要に応じてオペレータ呼び出し、オペレータからの指示に従ってコミュニケーション行動(動作や発話)を実行するので、適切なサービスを提供することができる。また、常にオペレータが操作する必要はないため、効率良く遠隔操作することができる。さらには、1人のオペレータが複数のロボットを担当するような効率化を図ることもできる。 According to this embodiment, since an operator call is performed as necessary and a communication action (operation or speech) is executed in accordance with an instruction from the operator, an appropriate service can be provided. Further, since it is not always necessary for the operator to operate, it can be remotely operated efficiently. Furthermore, the efficiency can be improved so that one operator is in charge of a plurality of robots.
なお、この実施例では、オペレータ呼出条件は、予め設定してデータベースに記憶するようにしておいたが、ロボットと人間とのインタラクションに基づいて、ロボット自身がオペレータ呼出条件を登録(追加)するようにしてもよい。たとえば、「オペレータ呼出ボタン」が押される前に頻繁に行われる動作(人間の動作)を記憶しておけば、当該動作を検出したときに、オペレータ呼出条件を満たすと判断することができる。 In this embodiment, the operator calling conditions are set in advance and stored in the database. However, the robot itself registers (adds) the operator calling conditions based on the interaction between the robot and the human. It may be. For example, if an action (human action) frequently performed before the “operator call button” is pressed is stored, it can be determined that the operator call condition is satisfied when the action is detected.
また、この実施例では、1台のロボットの遠隔操作を1台のオペレータ端末(1人のオペレータ)が担当するようにした。ただし、ロボットからの呼び出しが有った場合にのみ、オペレータは当該ロボットを遠隔操作すれば足りるため、1台のオペレータ端末に対してロボットを複数台設けるようにしてもよい。 In this embodiment, one operator terminal (one operator) is in charge of remote control of one robot. However, since it is sufficient for the operator to remotely control the robot only when there is a call from the robot, a plurality of robots may be provided for one operator terminal.
さらに、この実施例では、ロボットが発話する際には、予めメモリに記憶した音声合成データを読み出して出力するようにした。しかし、オペレータ端末にオペレータの声(音声)を入力するマイクを設け、オペレータの音声をロボットに送信して、これをロボットのスピーカから出力するようにしてもよい。かかる場合には、オペレータがロボットの会話相手と直接会話することができる。 Further, in this embodiment, when the robot speaks, the speech synthesis data stored in the memory in advance is read and output. However, a microphone for inputting the operator's voice (voice) may be provided in the operator terminal, and the operator's voice may be transmitted to the robot and output from the robot speaker. In such a case, the operator can directly talk with the conversation partner of the robot.
10 …コミュニケーションロボット
32 …超音波距離センサ
42 …全方位カメラ
46 …マイク
48 …眼カメラ
58 …タッチセンサ
72 …CPU
76 …メモリ
96 …無線通信装置
98 …無線タグ読取装置
100 …データベース
200 …コミュニケーションロボット遠隔操作システム
202 …ネットワーク
204 …オペレータ端末
DESCRIPTION OF
76 ...
Claims (5)
少なくとも人間の声を含む周囲情報を検出する検出手段、
自律制御では対応が困難な状態であるか否かを判断するための条件を示すオペレータ呼出条件を記憶する記憶手段、
前記検出手段によって検出された周囲情報に基づいて前記記憶手段に記憶されたオペレータ呼出条件を満たすか否かを判断する呼出判断手段、
前記呼出判断手段によってオペレータ呼出条件を満たすと判断されたとき、当該コミュニケーションロボットの操縦者となるオペレータを呼び出すための呼出信号を前記オペレータ端末に送信する送信手段、
前記オペレータ端末から送信される制御コマンドを示す遠隔操作情報を受信する受信手段、
前記受信手段によって受信された遠隔操作情報に基づくコミュニケーション行動を実行する実行手段、および
前記人間との間で行われたインタラクションに基づいて、前記記憶手段に前記オペレータ呼出条件を自動的に追加する呼出条件追加手段を備える、コミュニケーションロボット。 A communication robot that performs a communication action with a human by using at least one of voice and physical movement by remote control indicating that the vehicle is operated according to a control command from an autonomous control or an operator terminal,
Detection means for detecting ambient information including at least a human voice;
Storage means for storing an operator call condition indicating a condition for determining whether or not the autonomous control is in a difficult state;
Call determination means for determining whether or not an operator call condition stored in the storage means is satisfied based on ambient information detected by the detection means;
A transmission means for transmitting a call signal for calling an operator who is a pilot of the communication robot to the operator terminal when the call determination means determines that the operator call condition is satisfied;
Receiving means for receiving remote operation information indicating a control command transmitted from the operator terminal ;
Execution means for executing a communication action based on remote operation information received by the receiving means ; and
A communication robot comprising calling condition adding means for automatically adding the operator calling condition to the storage means based on an interaction with the human .
前記呼出判断手段は、前記キーワード判断手段によってキーワードが含まれることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1記載のコミュニケーションロボット。 Recognizing a human voice detected by the detecting means and further determining whether or not a keyword is included;
The communication robot according to claim 1, wherein the call determination unit determines that the operator call condition is satisfied when the keyword determination unit determines that a keyword is included.
前記顔表情取得手段によって取得された人間の顔の表情が特定の表情であるか否かを判断する顔表情判断手段をさらに備え、
前記呼出判断手段は、前記顔表情判断手段によって特定の表情であることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1または2記載のコミュニケーションロボット。 The detection means includes facial expression acquisition means for acquiring a facial expression of a human face,
A facial expression determination means for determining whether or not the facial expression of the human face acquired by the facial expression acquisition means is a specific expression;
The communication robot according to claim 1, wherein the call determination unit determines that the operator call condition is satisfied when the facial expression determination unit determines that the expression is a specific expression.
前記個人識別手段によって識別された人間が特定の人間であるか否かを判断する人間判断手段をさらに備え、
前記呼出判断手段は、前記人間判断手段によって特定の人間であることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1ないし3のいずれかに記載のコミュニケーションロボット。 The detection means includes personal identification means for individually identifying humans,
Human judgment means for judging whether or not the person identified by the personal identification means is a specific person,
The communication robot according to claim 1, wherein the call determination unit determines that the operator call condition is satisfied when the human determination unit determines that the person is a specific person.
前記距離検出手段によって検出された対象物との距離が所定距離以内であるか否かを判断する距離判断手段をさらに備え、
前記呼出判断手段は、前記距離判断手段によって所定距離以内であることが判断されたとき、前記オペレータ呼出条件を満たすと判断する、請求項1ないし4のいずれかに記載のコミュニケーションロボット。 The detection means includes distance detection means for detecting a distance from an object including at least a human,
Distance determining means for determining whether or not the distance to the object detected by the distance detecting means is within a predetermined distance;
The communication robot according to claim 1, wherein the call determination unit determines that the operator call condition is satisfied when the distance determination unit determines that the distance is within a predetermined distance.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006010626A JP5033994B2 (en) | 2006-01-19 | 2006-01-19 | Communication robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006010626A JP5033994B2 (en) | 2006-01-19 | 2006-01-19 | Communication robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007190641A JP2007190641A (en) | 2007-08-02 |
JP5033994B2 true JP5033994B2 (en) | 2012-09-26 |
Family
ID=38446722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006010626A Active JP5033994B2 (en) | 2006-01-19 | 2006-01-19 | Communication robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5033994B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12094196B2 (en) | 2019-12-03 | 2024-09-17 | Samsung Electronics Co., Ltd. | Robot and method for controlling thereof |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5184853B2 (en) * | 2007-09-28 | 2013-04-17 | 綜合警備保障株式会社 | Autonomous mobile |
JP2009131914A (en) * | 2007-11-29 | 2009-06-18 | Advanced Telecommunication Research Institute International | Robot control system |
JP5453908B2 (en) * | 2009-05-08 | 2014-03-26 | 日本電気株式会社 | Robot equipment |
US8260460B2 (en) * | 2009-09-22 | 2012-09-04 | GM Global Technology Operations LLC | Interactive robot control system and method of use |
JP5515173B2 (en) * | 2010-02-22 | 2014-06-11 | 株式会社国際電気通信基礎技術研究所 | Head movement control information generator |
GB2507073B (en) | 2012-10-17 | 2017-02-01 | China Ind Ltd | Interactive toy |
EP2952299A1 (en) * | 2014-06-05 | 2015-12-09 | Aldebaran Robotics | Standby mode of a humanoid robot |
US10373116B2 (en) | 2014-10-24 | 2019-08-06 | Fellow, Inc. | Intelligent inventory management and related systems and methods |
US10311400B2 (en) | 2014-10-24 | 2019-06-04 | Fellow, Inc. | Intelligent service robot and related systems and methods |
US9796093B2 (en) * | 2014-10-24 | 2017-10-24 | Fellow, Inc. | Customer service robot and related systems and methods |
JP2017087411A (en) * | 2015-11-11 | 2017-05-25 | グローリー株式会社 | Operation guidance system, and robot |
JP6810533B2 (en) * | 2016-04-07 | 2021-01-06 | シャープ株式会社 | Control terminals, robots, control methods for control terminals, and their programs |
JP6719072B2 (en) * | 2016-08-10 | 2020-07-08 | パナソニックIpマネジメント株式会社 | Customer service device, service method and service system |
CN107731225A (en) * | 2016-08-10 | 2018-02-23 | 松下知识产权经营株式会社 | Receive guests device, method of receiving guests and system of receiving guests |
JP6952453B2 (en) * | 2016-11-24 | 2021-10-20 | 田嶋 雅美 | Customer service system and customer service method |
JP7045020B2 (en) * | 2017-02-28 | 2022-03-31 | 国立大学法人東北大学 | Dialogue support device and dialogue device |
JP7000759B2 (en) * | 2017-09-14 | 2022-01-19 | 大日本印刷株式会社 | Guidance device, guidance system, guidance method and program |
CN108363745B (en) * | 2018-01-26 | 2020-06-30 | 阿里巴巴集团控股有限公司 | Method and device for changing robot customer service into manual customer service |
US10845975B2 (en) * | 2018-03-29 | 2020-11-24 | Universal City Studios Llc | Interactive animated character head systems and methods |
US10586082B1 (en) | 2019-05-29 | 2020-03-10 | Fellow, Inc. | Advanced micro-location of RFID tags in spatial environments |
JP2021064299A (en) * | 2019-10-16 | 2021-04-22 | 株式会社サイバーエージェント | Control system, terminal device, control method, and computer program |
JP2022063707A (en) * | 2020-10-12 | 2022-04-22 | 東京ロボティクス株式会社 | Robot system, control method and program for the same, and system |
EP4400844A1 (en) * | 2021-09-10 | 2024-07-17 | Hitachi High-Tech Corporation | Automated analysis support robot, and automated analysis system |
KR102486848B1 (en) * | 2022-05-13 | 2023-01-10 | 주식회사 파이엇 | an autonomous mobile transport service robot with protect a customer |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63204A (en) * | 1986-06-20 | 1988-01-05 | 株式会社クボタ | Running control apparatus of automatic running working vehicle |
JPH03178789A (en) * | 1989-12-02 | 1991-08-02 | Ryoichi Sekiguchi | Communication control unit of robot |
JP2818234B2 (en) * | 1989-12-21 | 1998-10-30 | 株式会社東芝 | Police box system |
JPH1034570A (en) * | 1996-07-19 | 1998-02-10 | Fujitsu Ltd | Robot remote control system |
JP4642287B2 (en) * | 2001-08-07 | 2011-03-02 | 本田技研工業株式会社 | Autonomous mobile robot |
JP4072033B2 (en) * | 2002-09-24 | 2008-04-02 | 本田技研工業株式会社 | Reception guidance robot device |
JP4355158B2 (en) * | 2003-04-01 | 2009-10-28 | 本田技研工業株式会社 | Reception information system |
JP4595436B2 (en) * | 2004-03-25 | 2010-12-08 | 日本電気株式会社 | Robot, control method thereof and control program |
JP4713846B2 (en) * | 2004-04-30 | 2011-06-29 | 独立行政法人科学技術振興機構 | Robot remote control system |
JP4588359B2 (en) * | 2004-05-07 | 2010-12-01 | 富士通株式会社 | Network robot function providing system and function providing method |
JP2006003263A (en) * | 2004-06-18 | 2006-01-05 | Hitachi Ltd | Visual information processor and application system |
-
2006
- 2006-01-19 JP JP2006010626A patent/JP5033994B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12094196B2 (en) | 2019-12-03 | 2024-09-17 | Samsung Electronics Co., Ltd. | Robot and method for controlling thereof |
Also Published As
Publication number | Publication date |
---|---|
JP2007190641A (en) | 2007-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5033994B2 (en) | Communication robot | |
JP4639343B2 (en) | Robot remote control system | |
JP5429462B2 (en) | Communication robot | |
JP4386367B2 (en) | Communication robot improvement system | |
JP4822319B2 (en) | Communication robot and attention control system using the same | |
JP5366048B2 (en) | Information provision system | |
US11338429B2 (en) | Robot | |
US7689319B2 (en) | Communication robot control system | |
JP4599522B2 (en) | Communication robot | |
JP5732632B2 (en) | Robot system and space formation recognition device used therefor | |
JP7243110B2 (en) | Information processing device and information processing method, computer program, and package reception support system | |
JP4024683B2 (en) | Communication robot | |
JP2009241166A (en) | Robot remote operation system | |
JP5145569B2 (en) | Object identification method and apparatus | |
JP2007196300A (en) | Robot control system | |
KR20130060952A (en) | Remote control system for service robot | |
JP2007160427A (en) | Robot control system | |
JP2007152470A (en) | Robot with self-diagnostic function | |
JP2009131914A (en) | Robot control system | |
JP2015066624A (en) | Robot control system, robot control program, and explanation robot | |
JP4798581B2 (en) | Robot system | |
JP4793904B2 (en) | Communication robot system and communication robot | |
JP2007320033A (en) | Communication robot | |
JP2007156689A (en) | Light source position detection device and face recognition device using the same and self-propelled robot | |
JP2006243555A (en) | Response determination system, robot, event output server, and response determining method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120424 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120502 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150713 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5033994 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |