JP4822319B2 - Communication robot and attention control system using the same - Google Patents
Communication robot and attention control system using the same Download PDFInfo
- Publication number
- JP4822319B2 JP4822319B2 JP2005313470A JP2005313470A JP4822319B2 JP 4822319 B2 JP4822319 B2 JP 4822319B2 JP 2005313470 A JP2005313470 A JP 2005313470A JP 2005313470 A JP2005313470 A JP 2005313470A JP 4822319 B2 JP4822319 B2 JP 4822319B2
- Authority
- JP
- Japan
- Prior art keywords
- attention
- controlled
- communication
- person
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 title claims description 256
- 230000009471 action Effects 0.000 claims description 159
- 241000282414 Homo sapiens Species 0.000 claims description 104
- 241000282412 Homo Species 0.000 claims description 41
- 238000001514 detection method Methods 0.000 claims description 20
- 230000033001 locomotion Effects 0.000 claims description 16
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 claims description 2
- 238000000034 method Methods 0.000 description 57
- 230000008569 process Effects 0.000 description 53
- 230000006399 behavior Effects 0.000 description 36
- 210000001508 eye Anatomy 0.000 description 26
- 210000005252 bulbus oculi Anatomy 0.000 description 15
- 210000003128 head Anatomy 0.000 description 15
- 210000000323 shoulder joint Anatomy 0.000 description 11
- 230000001419 dependent effect Effects 0.000 description 8
- 210000000245 forearm Anatomy 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 210000002310 elbow joint Anatomy 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007480 spreading Effects 0.000 description 2
- 230000003028 elevating effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Description
この発明はコミュニケーションロボットおよびそれを用いた注意制御システムに関し、特にたとえば、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動して人間の注意を制御する、コミュニケーションロボットおよびそれを用いた注意制御システムに関する。 The present invention relates to a communication robot and an attention control system using the communication robot, and more particularly, for example, a communication robot that controls human attention by performing communication with a human using at least one of body motion and voice. Related to the attention control system.
この種の従来のコミュニケーションロボットの一例が特許文献1に開示される。この特許文献1によれば、コミュニケーションロボットは、ロボット本体自身の視点から展示会場の状況、説明員および訪問者の状況等を観測し、観測した赤外線タグ等のID番号およびXY座標や映像データ、音声データおよび触覚データ等のインタラクションデータに時間情報等を付加して、データ取得サーバに送信する。また、ロボット本体によって、環境内の人間に対して、そのインタラクションデータに応じたコミュニケーション行動(案内や推薦等)が提示される。たとえば、ロボット本体は、或る展示物の方に指差し動作をしながら、「展示物も見るといいよ」と発話するなどの推薦を行う。つまり、対話相手の行動等の履歴に基づいて、当該対話相手の注意を制御(誘導)することができる。
この背景技術では、対話相手が1人である場合には、その注意を制御することができる。したがって、対話相手が多数である場合には、各人に対して個別に注意を制御することとなり、多大な時間がかかってしまう。つまり、適切なコミュニケーション行動(注意制御)が行われているとは言えない。かかる場合には、対話相手を1つの集団と捉えて、コミュニケーション行動を行うべきである。 In this background art, when there is only one conversation partner, the attention can be controlled. Therefore, when there are a large number of conversation partners, attention is individually controlled for each person, which takes a lot of time. That is, it cannot be said that appropriate communication behavior (attention control) is performed. In such a case, the communication partner should be considered as one group and perform communication behavior.
それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットおよびそれを用いた注意制御システムを提供することである。 Therefore, a main object of the present invention is to provide a novel communication robot and an attention control system using the communication robot.
この発明の他の目的は、人数に応じて適切な注意制御を実行できる、コミュニケーションロボットおよびそれを用いた注意制御システムを提供することである。 Another object of the present invention is to provide a communication robot and an attention control system using the same that can execute appropriate attention control according to the number of people.
請求項1の発明は、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動して人間の注意を制御するコミュニケーションロボットである。このコミュニケーションロボットは、周囲に存在する人間の人数を検出する人数検出手段、周囲に存在する所定人数以上の人間の注意を制御する集団注意制御手段、および周囲に存在する所定人数未満の人間の注意を個別に制御する個人注意制御手段を備え、人数検出手段の検出結果に基づいて集団注意制御手段または個人注意制御手段を選択的に実行し、集団注意制御手段は、周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する集団存在判断手段、集団存在判断手段によって前方の第1所定角度外に制御対象の人間が存在することが判断されたとき、制御対象のすべての人間を当該第1所定角度以内に移動させる第1コミュニケーション行動を実行する第1コミュニケーション行動実行手段、集団存在判断手段によって制御対象のすべての人間が前方の第1所定角度以内に存在することが判断されたとき、水平面において、制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを制御対象のすべての人間について判断することにより、当該制御対象のすべての人間が自身の方を見ているか否かを判断する集団注目判断手段、および集団注目判断手段によって自身の方を見ていない制御対象の人間が存在することが判断されたとき、制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する第2コミュニケーション行動実行手段を含む。
The invention according to
請求項1の発明では、このコミュニケーションロボット(12:実施例で相当する参照符号。以下、同じ。)は、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動して人間の注意を制御する。人数検出手段(76,S11)は、自身の周囲に存在する人間の人数を検出する。また、コミュニケーションロボット(12)は、集団注意制御手段(76,S15)および個人注意制御手段(76,S19)を備え、人数検出手段(76,S11)の検出結果に基づいていずれか一方を選択的に実行する。集団注意制御手段(76,S15)は、周囲に存在する所定人数以上の人間を1つの集団として注意制御する。また、個人注意制御手段(76,S19)は、周囲に存在する所定数未満の人間の注意を個別に制御する。たとえば、集団注意制御手段(76,S15)を実行すると、コミュニケーションロボット(12)は、すべての人間(全体)を見渡しながら、周囲に存在するすべての人間に話し掛けるように行動する。一方、個人注意制御手段(76,S19)を実行すると、コミュニケーションロボット(12)は、制御対象の人間を見て、個別に話し掛けるように行動する。集団注意制御手段(76,S15)は、集団存在判断手段(76,S33)、第1コミュニケーション行動実行手段(76,S35,S37,S39,S41)、集団注目判断手段および第2コミュニケーション行動実行手段(76,S49,S51,S53,S55)を含む。集団存在判断手段(76,S33)は、周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する。第1コミュニケーション行動実行手段(76,S35−S41)は、集団存在判断手段(76,S33)によって前方の第1所定角度外に制御対象の人間が存在することが判断されたとき、つまり制御対象の人間のうち、いずれか1人でも自身の前方の第1所定角度以内に存在しない場合には、制御対象のすべての人間を第1所定角度以内に移動させる第1コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、周囲を見渡しながら、自身の前に集まるように、集団(制御対象のすべての人間)に対して呼び掛ける。集団注目判断手段(76,S47)は、集団存在判断手段(S33)によって制御対象のすべての人間が自身の前方の第1所定角度以内に存在するとき、当該制御対象のすべての人間が自身の方を見ているか否かを判断する。ここでは、水平面において、制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを制御対象のすべての人間について判断することにより、制御対象のすべての人間がコミュニケーションロボット(12)に注目しているかどうかを判断するのである。第2コミュニケーション行動実行手段(76,S49−S55)は、集団注目判断手段(76,S47)によって自身の方を見ていない制御対象の人間が存在することが判断されたとき、つまり制御対象の人間のうち、いずれか1人でも自身に注目していない場合には、制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、周囲を見渡しながら、自身に注目するように、集団に対して呼び掛ける。 According to the first aspect of the present invention, this communication robot (12: reference numeral corresponding to the embodiment; the same applies hereinafter) acts to communicate with a human by using at least one of body movement and voice. To control. The number of persons detecting means (76, S11) detects the number of persons existing around the person. The communication robot (12) includes group attention control means (76, S15) and individual attention control means (76, S19), and selects either one based on the detection result of the number of persons detection means (76, S11). Run it. The group attention control means (76, S15) controls the attention of a predetermined number or more of people around as one group. Further, the personal attention control means (76, S19) individually controls the attentions of less than a predetermined number of people present in the surroundings. For example, when the group attention control means (76, S15) is executed, the communication robot (12) behaves so as to talk to all the humans present around while looking over all the humans (the whole). On the other hand, when the personal attention control means (76, S19) is executed, the communication robot (12) behaves so as to talk individually while looking at the person to be controlled. The group attention control means (76, S15) is a group presence determination means (76, S33), a first communication action execution means (76, S35, S37, S39, S41), a group attention determination means, and a second communication action execution means. (76, S49, S51, S53, S55). The group presence determination means (76, S33) determines whether or not all the persons to be controlled existing around are present within the first predetermined angle ahead. The first communication action execution means (76, S35-S41) is determined when the group existence determination means (76, S33) determines that the person to be controlled exists outside the first predetermined angle ahead, that is, the control object. If any one of the humans does not exist within the first predetermined angle in front of himself / herself, the first communication action is performed to move all the persons to be controlled within the first predetermined angle. For example, the communication robot (12) calls on a group (all persons to be controlled) to gather in front of itself while looking around. The group attention determination unit (76, S47) is configured such that when all the persons to be controlled are present within the first predetermined angle in front of the group presence determination unit (S33), all the persons to be controlled are Judge whether or not you are looking. Here, in the horizontal plane, whether or not the angle formed by the line-of-sight direction of the control target human and the straight line connecting the position of the human eye of the control target and the own position is equal to or less than the second predetermined angle is determined. In other words, it is determined whether or not all the persons to be controlled are paying attention to the communication robot (12). The second communication action execution means (76, S49-S55) is determined by the group attention determination means (76, S47) that there is a person to be controlled who is not looking at the person, that is, the control object. If any one of the humans is not paying attention to itself, the second communication action is executed to make all the controlled humans pay attention to themselves. For example, the communication robot (12) calls on the group to pay attention to itself while looking around.
請求項1の発明によれば、周囲に存在する人間の人数に応じて異なる注意制御を実行するので、適切な注意制御を実行することができる。
また、いずれか1人でも自身の前方の第1所定角度以内に存在しない場合には、制御対象のすべての人間を第1所定角度以内に移動させるコミュニケーション行動を実行するので、所定人数以上の集団を自身の前方へ移動させることができる。
さらに、いずれか1人でも自身に注目していない場合には、制御対象のすべての人間を自身に注目させるコミュニケーション行動を実行するので、所定人数以上の集団を自身に注目させることができる。
According to the first aspect of the present invention, different attention control is executed depending on the number of humans present in the surrounding area, so that appropriate attention control can be executed.
Further, if any one person does not exist within the first predetermined angle in front of himself / herself, a communication action is performed to move all persons to be controlled within the first predetermined angle. Can be moved forward.
Furthermore, when any one of them is not paying attention to himself / herself, a communication action that causes all persons to be controlled to pay attention to himself / herself is executed, so that a group of a predetermined number or more can be noted by himself / herself.
請求項2の発明は請求項1に従属し、集団注目判断手段は、第1コミュニケーション行動実行手段によって第1コミュニケーション行動が第1所定回数実行されたとき、集団存在判断手段の判断結果に拘わらず、制御対象のすべての人間が自身の方を見ているか否かを判断する。
The invention of claim 2 is dependent on
請求項2の発明では、集団注目判断手段(76,S47)は、第1コミュニケーション行動実行手段(76,S35−S39)によって第1コミュニケーション行動が第1所定回数実行されたとき(S45で“YES”)、集団存在判断手段(76,S33)の判断結果に拘わらず、制御対象のすべての人間が自身の方を見ているか否かを判断する。つまり、制御対象の人間が、第1コミュニケーション行動によるコミュニケーションロボット(12)の誘導に従わない場合、その誘導に従わない人間を無視することにより、第1コミュニケーションが半永久的に繰り返されてしまうのを回避してある。 In the invention of claim 2 , the group attention determining means (76, S47) is executed when the first communication action is executed for the first predetermined number of times by the first communication action executing means (76, S35-S39) ("YES" in S45). "), Regardless of the determination result of the group existence determination means (76, S33), it is determined whether or not all the persons to be controlled are looking at themselves. In other words, if the person to be controlled does not follow the guidance of the communication robot (12) by the first communication behavior, the first communication is semipermanently repeated by ignoring the person who does not follow the guidance. It has been avoided.
請求項2の発明によれば、同じコミュニケーション行動が半永久的に繰り返されるのを回避するので、適切なコミュニケーション行動を実行することができる。 According to the invention of claim 2 , since the same communication behavior is avoided semi-permanently, appropriate communication behavior can be executed.
請求項3の発明は請求項1または2に従属し、集団注意制御手段は、集団注目判断手段によって制御対象のすべての人間が自身の方を見ていることが判断されたとき、当該制御対象のすべての人間との距離が一定範囲内であるか否かを判断する集団距離判断手段、および集団距離判断手段の判断結果に基づいて制御対象のすべての人間を一定範囲内に移動させる第3コミュニケーション行動を実行する第3コミュニケーション行動実行手段をさらに含む。
The invention of claim 3 is dependent on
請求項3の発明では、集団注意制御手段(76,S15)は、集団距離判断手段(76,S61,S75)および第3コミュニケーション実行手段(76,S63,S65,S67,S69,S77,S79,S81,S83)を備える。集団距離判断手段(76,S61,S75)は、集団注目判断手段(76,S47)によって制御対象のすべての人間が自身の方を見ていることが判断されたとき、つまり制御対象のすべての人間が自身を注目しているとき、当該制御対象のすべての人間との距離が一定範囲内であるか否かを判断する。第3コミュニケーション行動実行手段(76,S63−S69,S77−S83)は、集団距離判断手段(76,S61,S75)の判断結果に基づいて制御対象のすべての人間を一定範囲内に移動させる第3コミュニケーション行動を実行する。たとえば、いずれか1人でも、コミュニケーションロボット(12)から遠すぎたり、近すぎたりすると、周囲を見渡しながら、制御対象のすべての人間に自身に近づくように呼び掛けたり、制御対象のすべての人間に自身から少し離れるように呼び掛けたりする。 In the invention of claim 3 , the group attention control means (76, S15) includes the group distance determination means (76, S61, S75) and the third communication execution means (76, S63, S65, S67, S69, S77, S79, S81, S83). The collective distance determining means (76, S61, S75) is determined when it is determined by the collective attention determining means (76, S47) that all the persons to be controlled are looking at themselves , that is, all of the controlled objects. When a human is paying attention to himself / herself, it is determined whether or not the distance between all the control target humans is within a certain range. The third communication action execution means (76, S63-S69, S77-S83) moves all persons to be controlled within a certain range based on the determination result of the collective distance determination means (76, S61, S75). 3 Perform communication behavior. For example, if any one person is too far from or too close to the communication robot (12), he / she calls all the people to be controlled to approach himself / herself while looking around the surroundings. Invite them to move away from themselves.
請求項3の発明によれば、いずれか1人でも一定範囲内に存在しない場合には、制御対象のすべての人間を一定範囲内に移動させるコミュニケーション行動を実行するので、制御対象のすべての人間を一定範囲内に移動させることができる。 According to the invention of claim 3 , if any one person does not exist within a certain range, the communication action for moving all the persons to be controlled within the certain range is executed. Can be moved within a certain range.
請求項4の発明は請求項3に従属し、集団距離判断手段は、第2コミュニケーション行動実行手段によって第2コミュニケーション行動が第2所定回数実行されたとき、集団注目判断手段の判断結果に拘わらず、制御対象のすべての人間との距離が一定範囲内であるか否かを判断する。 The invention of claim 4 is dependent on claim 3 , and the group distance determination means is independent of the determination result of the group attention determination means when the second communication action is executed a second predetermined number of times by the second communication action execution means. Then, it is determined whether or not the distances between all persons to be controlled are within a certain range.
請求項4の発明では、集団距離判断手段(76,S61,S75)は、第2コミュニケーション行動実行手段(76,S49−S55)によって第2コミュニケーション行動が第2所定回数実行されたとき(S59で“YES”)、集団注目判断手段(76,S47)の判断結果に拘わらず、制御対象のすべての人間との距離が一定範囲内であるか否かを判断する。つまり、制御対象の人間が、第2コミュニケーション行動によるコミュニケーションロボット(12)の誘導に従わない場合、その誘導に従わない人間を無視することにより、第2コミュニケーションが半永久的に繰り返されてしまうのを回避してある。 In the invention of claim 4 , the collective distance determining means (76, S61, S75) is executed when the second communication action is executed a second predetermined number of times by the second communication action executing means (76, S49-S55) (in S59). “YES”), regardless of the determination result of the group attention determination means (76, S47), it is determined whether or not the distances to all persons to be controlled are within a certain range. In other words, if the person to be controlled does not follow the guidance of the communication robot (12) by the second communication action, the second communication is semipermanently repeated by ignoring the person who does not follow the guidance. It has been avoided.
請求項4の発明によれば、請求項2の発明と同様に、適切なコミュニケーション行動を実行することができる。 According to the invention of claim 4, as in the invention of claim 2 , an appropriate communication action can be executed.
請求項5の発明は請求項3に従属し、集団注意制御手段は、第3コミュニケーション行動実行手段によって第3コミュニケーション行動が第3所定回数実行されたとき、制御対象のすべての人間についての注意の制御を終了する。
The invention of
請求項5の発明では、集団注意制御手段(76,S15)は、第3コミュニケーション行動実行手段(76,S63−S69,S77−S83)によって第3コミュニケーション行動が第3所定回数実行されたとき(S87で“YES”)、制御対象のすべての人間についての注意の制御を終了する。
In the invention of
請求項5の発明においても、請求項2の発明と同様に、適切なコミュニケーション行動を実行することができる。
In the invention of
請求項6の発明は請求項1に従属し、個人注意制御手段は、周囲に存在する人間が前方の第3所定角度以内に存在するか否かを判断する個人存在判断手段、および個人存在判断手段によって制御対象の人間が前方の第3所定角度以内に存在しないことが判断されたとき、制御対象の人間を第3所定角度以内に移動させる第4コミュニケーション行動を実行する第4コミュニケーション行動実行手段を含む。
The invention of claim 6 is dependent on
請求項6の発明では、個人注意制御手段(76,S19)は、個人存在判断手段(76,S103)および第4コミュニケーション行動実行手段(76,S105,S107)を含む。個人存在判断手段(76,S103)は、周囲に存在する人間が前方の第3所定角度以内に存在するか否かを判断する。つまり、注意制御すべき人間が自身の前方の第3所定角度以内に存在するかどうかを判断するのである。第4コミュニケーション行動実行手段(76,S105,S107)は、個人存在判断手段(76,S103)によって制御対象の人間が前方の第3所定角度以内に存在しないことが判断されたとき、制御対象の人間を第3所定角度以内に移動させる第4コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、制御対象の人間の方を見て、自身の前方に移動するように呼び掛ける。 In the invention of claim 6 , the personal attention control means (76, S19) includes a personal presence determination means (76, S103) and a fourth communication action execution means (76, S105, S107). The individual presence determination means (76, S103) determines whether or not a person existing in the vicinity exists within a third predetermined angle ahead. That is, it is determined whether or not the person to be controlled is present within the third predetermined angle in front of him / her. Fourth Communication action executing means (76, S105, S107), when the controlled object by personal presence determining means (76, S103) humans the absence within a third predetermined angle in front is determined, the control target A fourth communication action that moves the person within a third predetermined angle is executed. For example, the communication robot (12) calls on the person to be controlled to move in front of the communication robot (12).
請求項6の発明によれば、制御対象の人間が自身の前方の第3所定角度以内に存在しない場合には、当該制御対象の人間を第3所定角度以内に移動させるコミュニケーション行動を実行するので、当該制御対象の人間を自身の前方へ移動させることができる。 According to the invention of claim 6 , when the person to be controlled does not exist within the third predetermined angle in front of itself, the communication action for moving the person to be controlled within the third predetermined angle is executed. The person to be controlled can be moved in front of himself / herself.
請求項7の発明は請求項6に従属し、個人注意制御手段は、個人存在判断手段によって制御対象の人間が前方の第3所定角度以内に存在することが判断されたとき、水平面において、当該制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第4所定角度以下かどうかを判断することにより、当該制御対象の人間が自身の方を見ているか否かを判断する個人注目判断手段、および個人注目判断手段によって制御対象の人間が自身の方を見ていないことが判断されたとき、当該制御対象の人間を自身に注目させる第5コミュニケーション行動を実行する第5コミュニケーション行動実行手段をさらに含む。
The invention of
請求項7の発明では、個人注意制御手段(76,S19)は、個人注目判断手段(76,S113)および第5コミュニケーション行動実行手段(76,S115,S117)をさらに含む。個人注目判断手段(76,S113)は、個人存在判断手段(76,S103)によって制御対象の人間が前方の第3所定角度以内に存在することが判断されたとき、水平面において、当該制御対象の人間の視線方向と、当該制御人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第4所定角度以下かどうかを判断することにより、当該制御対象の人間が自身の方を見ているか否かを判断する。つまり、制御対象の人間が自身に注目しているかどうかを判断するのである。第5コミュニケーション行動実行手段(76,S115,S117)は、個人注目判断手段(76,S113)によって制御対象の人間が自身の方を見ていないことが判断されたとき、当該制御対象の人間を自身に注目させる第5コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、制御対象の人間の方を見て、自身の方を見るように呼び掛ける。
In the invention of
請求項7の発明によれば、制御対象の人間が自身に注目していない場合には、当該制御対象の人間を自身に注目させるコミュニケーション行動を実行するので、当該制御対象の人間を自身に注目させることができる。
According to the invention of
請求項8の発明は請求項7に従属し、個人注目判断手段は、第4コミュニケーション行動実行手段によって第4コミュニケーション行動が第4所定回数実行されたとき、個人存在判断手段の判断結果に拘わらず、制御対象の人間が自身の方を見ているか否かを判断する。
The invention according to claim 8 is dependent on
請求項8の発明では、個人注目判断手段(76,S113)は、第4コミュニケーション行動実行手段(76,S105,S107)によって第4コミュニケーション行動が第4所定回数実行されたとき(S111で“YES”)、個人存在判断手段(S103)の判断結果に拘わらず、制御対象の人間が自身の方を見ているか否かを判断する。 In the invention of claim 8 , the individual attention determining means (76, S113) is executed when the fourth communication action is executed a fourth predetermined number of times by the fourth communication action executing means (76, S105, S107) ("YES" in S111). "), Regardless of the determination result of the individual presence determination means (S103), it is determined whether or not the person to be controlled is looking at himself / herself.
請求項8の発明によれば、請求項2の発明と同様に、適切なコミュニケーション行動を実行することができる。 According to the invention of claim 8, as in the invention of claim 2 , an appropriate communication action can be executed.
請求項9の発明は請求項7または8に従属し、個人注意制御手段は、個人注目判断手段によって制御対象の人間が自身の方を見ていることが判断されたとき、当該制御対象の人間との距離が一定範囲内であるか否かを判断する個人距離判断手段、および個人距離判断手段の判断結果に基づいて人間を一定範囲内に移動させる第6コミュニケーション行動を実行する第6コミュニケーション行動実行手段をさらに含む。
The invention of claim 9 is dependent on
請求項9の発明では、個人注意制御手段(76,S19)は、個人距離判断手段(76,S123,S133)および第6コミュニケーション行動実行手段(76,S125,S127,S135,S137)をさらに含む。個人距離判断手段(76,S123,S133)は、個人注目判断手段(76,S113)によって制御対象の人間が自身の方を見ていることが判断されたとき、当該制御対象の人間との距離が一定範囲内であるか否かを判断する。つまり、制御対象の人間がコミュニケーションロボット(12)の位置から一定範囲内に存在するかどうかを判断するのである。第6コミュニケーション行動実行手段(76,S125,S127,S135,S137)は、個人距離判断手段(76,S123,S133)の判断結果に基づいて人間を一定範囲内に移動させる第6コミュニケーション行動を実行する。たとえば、制御対象の人間が、コミュニケーションロボット(12)から遠すぎたり、近すぎたりすると、当該制御対象の人間の方を見て、自身に近づくように呼び掛けたり、自身から少し離れるように呼び掛けたりする。 In the invention of claim 9 , the personal attention control means (76, S19) further includes a personal distance determination means (76, S123, S133) and a sixth communication action execution means (76, S125, S127, S135, S137). . The personal distance determination means (76, S123, S133) is a distance from the control target person when the individual attention determination means (76, S113) determines that the control target person is looking at the person. Is determined to be within a certain range. That is, it is determined whether the person to be controlled is within a certain range from the position of the communication robot (12). The sixth communication action execution means (76, S125, S127, S135, S137) executes the sixth communication action that moves the person within a certain range based on the determination result of the personal distance determination means (76, S123, S133). To do. For example, if the person to be controlled is too far or too close to the communication robot (12), he / she looks at the person to be controlled and calls to approach himself / herself or slightly away from himself / herself. To do.
請求項9の発明によれば、制御対象の人間が一定範囲内に存在しない場合には、当該制御対象の人間を一定範囲内に移動させるコミュニケーション行動を実行するので、当該制御対象の人間を一定範囲内に移動させることができる。 According to the invention of claim 9, when a person of the controlled object does not exist in the predetermined range, so executes the communication behavior of moving human of the control object within a certain range, a constant human of the control object Can be moved within range.
請求項10の発明は請求項9に従属し、個人距離判断手段は、第5コミュニケーション行動実行手段によって第5コミュニケーション行動が第5所定回数実行されたとき、個人注目判断手段の判断結果に拘わらず、制御対象の人間との距離が一定範囲内であるか否かを判断する。
The invention of
請求項10の発明では、個人距離判断手段(76,S123,S133)は、第5コミュニケーション行動実行手段(76,S115,S117)によって第5コミュニケーション行動が第5所定回数実行されたとき(S121で“YES”)、個人注目判断手段(76,S113)の判断結果に拘わらず、制御対象の人間との距離が一定範囲内であるか否かを判断する。
In the invention of
請求項10の発明においても、請求項2の発明と同様に、適切なコミュニケーション行動を実行することができる。
In the invention of
請求項11の発明は請求項9に従属し、個人注意制御手段は、第6コミュニケーション行動実行手段によって第6コミュニケーション行動が第6所定回数実行されたとき、制御対象の人間についての注意の制御を終了する。
The invention of
請求項11の発明では、個人注意制御手段(76,S19)は、第6コミュニケーション行動実行手段(76,S125,S127,S135,S137)によって第6コミュニケーション行動が第6所定回数実行されたとき(S141で“YES”)、制御対象の人間についての注意の制御を終了する。
In the invention of
請求項11の発明においても、請求項2の発明と同様に、適切なコミュニケーション行動を実行することができる。
In the invention of
請求項12の発明は、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動するコミュニケーションロボットを用いて人間の注意を制御する注意制御システムである。注意制御システムは、コミュニケーションロボットの周囲に存在する人間の人数を検出する人数検出手段を備える。コミュニケーションロボットは、周囲に存在する所定人数以上の人間の注意を制御する集団注意制御手段、および周囲に存在する所定人数未満の人間の注意を個別に制御する個人注意制御手段を備え、人数検出手段の検出結果に基づいて集団注意制御手段または個人注意制御手段を選択的に実行し、集団注意制御手段は、周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する集団存在判断手段、集団存在判断手段によって前記前方の第1所定角度外に前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を当該第1所定角度以内に移動させる第1コミュニケーション行動を実行する第1コミュニケーション行動実行手段、集団存在判断手段によって前記制御対象のすべての人間が前記前方の第1所定角度以内に存在することが判断されたとき、水平面において、前記制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを前記制御対象のすべての人間について判断することにより、当該制御対象のすべての人間が自身の方を見ているか否かを判断する集団注目判断手段、および集団注目判断手段によって自身の方を見ていない前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する第2コミュニケーション行動実行手段を含む。 A twelfth aspect of the present invention is a caution control system that controls human attention using a communication robot that performs communication behavior with a human using at least one of body movement and voice. The attention control system includes a number detection means for detecting the number of people present around the communication robot. The communication robot is provided with group attention control means for controlling the attention of a person of a predetermined number or more existing in the surroundings, and individual attention control means for individually controlling the attention of a human being less than a predetermined number of persons in the surroundings, and the number detection means The group attention control means or the personal attention control means is selectively executed based on the detection result, and the group attention control means determines whether all the persons to be controlled around exist within the first predetermined angle in front. When it is determined by the group presence determination means and the group presence determination means that determine whether or not the control target person exists outside the first predetermined angle in front, all the control target persons are assigned to the first control object. The first communication action execution means for executing the first communication action to be moved within a predetermined angle and the group existence determination means all of the control objects. Is determined to be within the first predetermined angle in front of the person, the line of sight of the control target human eye and the position of the control target human eye and its own position are connected in a horizontal plane. Collective attention for determining whether or not all the persons to be controlled are looking at themselves by determining whether or not the angle formed by the straight line is equal to or smaller than a second predetermined angle for all the persons to be controlled. When the determination means and the group attention determination means determine that there is a person to be controlled who does not look at the person, the second communication action is executed to cause all the persons to be controlled to pay attention to themselves. 2nd communication action execution means is included.
請求項14の発明では、注意制御システム(10)は、コミュニケーションロボット(12)を用いて人間の注意を制御する。このコミュニケーションロボット(12)は、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動する。人数検出手段(14,16,76,S11)は、コミュニケーションロボット(12)の周囲に存在する人間の人数を検出する。コミュニケーションロボット(12)は、集団注意制御手段(76,S15)および個人注意制御手段(76,S19)を備え、人数検出手段(14,16,76,S11)の検出結果に基づいていずれか一方を選択的に実行する。集団注意制御手段(76,S15)は、周囲に存在する所定人数以上の人間を1つの集団として注意制御する。また、個人注意制御手段(76,S19)は、周囲に存在する所定数未満の人間の注意を個別に制御する。たとえば、集団注意制御手段(76,S15)を実行すると、コミュニケーションロボット(12)は、制御対象のすべての人間(全体)を見渡しながら、周囲に存在するすべての人間に話し掛けるように行動する。一方、個人注意制御手段(76,S19)を実行すると、コミュニケーションロボット(12)は、制御対象の人間を見て、個別に話し掛けるように行動する。集団注意制御手段(76,S15)は、集団存在判断手段(76,S33)、第1コミュニケーション行動実行手段(76,S35,S37,S39,S41)、集団注目判断手段および第2コミュニケーション行動実行手段(76,S49,S51,S53,S55)を含む。集団存在判断手段(76,S33)は、周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する。第1コミュニケーション行動実行手段(76,S35−S41)は、集団存在判断手段(76,S33)によって前方の第1所定角度外に制御対象の人間が存在することが判断されたとき、つまり制御対象の人間のうち、いずれか1人でも自身の前方の第1所定角度以内に存在しない場合には、制御対象のすべての人間を第1所定角度以内に移動させる第1コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、周囲を見渡しながら、自身の前に集まるように、集団(制御対象のすべての人間)に対して呼び掛ける。集団注目判断手段(76,S47)は、集団存在判断手段(S33)によって制御対象のすべての人間が自身の前方の第1所定角度以内に存在するとき、当該制御対象のすべての人間が自身の方を見ているか否かを判断する。ここでは、水平面において、制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを制御対象のすべての人間について判断することにより、制御対象のすべての人間がコミュニケーションロボット(12)に注目しているかどうかを判断するのである。第2コミュニケーション行動実行手段(76,S49−S55)は、集団注目判断手段(76,S47)によって自身の方を見ていない制御対象の人間が存在することが判断されたとき、つまり制御対象の人間のうち、いずれか1人でも自身に注目していない場合には、制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、周囲を見渡しながら、自身に注目するように、集団に対して呼び掛ける。
In the invention of
請求項12の発明においても、請求項1の発明と同様に、適切な注意制御を実行することができる。 Also in the twelfth aspect of the invention, similar to the first aspect of the invention, appropriate attention control can be executed.
この発明によれば、周囲に存在する人間の人数に応じて異なる注意制御を選択的に実行するので、適切な注意制御を実行することができる。 According to the present invention, different attention control is selectively executed depending on the number of humans present in the surrounding area, so that appropriate attention control can be executed.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例の注意制御システム(以下、単に「システム」という。)10は、コミュニケーションロボット(以下、単に「ロボット」という。)12を備える。ロボット12は、人間との間で、身振り手振りのような身体動作ないし行動(以下、「コミュニケーション行動」ということがある。)を取ることができる。ただし、コミュニケーション行動としては、ロボット12と人間との間における会話(発話)が含まれる場合もある。
Referring to FIG. 1, an attention control system (hereinafter simply referred to as “system”) 10 of this embodiment includes a communication robot (hereinafter simply referred to as “robot”) 12. The
また、システム10はPC或いはワークステーションのような汎用のコンピュータ14を含み、このコンピュータ14は図示しない無線LANのようなネットワークを介して、ロボット12に通信可能に接続される。ただし、後述するように、コンピュータ14からロボット12に座標信号を送信するだけなので、ネットワークを介さずに、直接的に信号を送信するようにしてもよい。かかる場合には、コンピュータ14は、たとえば、Bluetooth(登録商標)のような近距離無線によって座標信号を送信することができる。
The
さらに、システム10は床センサ16を含み、この床センサ16がコンピュータ14に接続される。図示は省略するが、床センサ(床圧力センサ)16は多数の検出素子(感圧センサ)を含み、この多数の検出素子はシステム10が適用される部屋ないし会場の床に埋め込まれる(敷き詰められる)。この実施例では、床センサ16は、ロボット12や人間が部屋ないし会場に存在するとき、その圧力による信号(検出信号)をコンピュータ14に出力する。コンピュータ14は、検出信号に基づいて2次元座標を検出し、検出した2次元座標の信号(座標信号)をロボット12に送信する。この座標信号によって、ロボット12は、自身の周囲に人間が存在するか否かを知ることができ、さらに、人間が存在する場合にはその人数および各人間との距離を知ることができる。
In addition, the
なお、ロボット12は、このシステム10が適用される会場等のマップデータ(2次元データ)を内部メモリ(メモリ80:図3参照)に記憶している。そして、ロボット12は、任意に設定された原点位置を基準として、マップデータを参照して、会場内を移動する。ただし、ロボット12が参照するマップデータの座標系と、コンピュータ14で算出される2次元座標の座標系とは同じに設定される。
Note that the
また、詳細な説明は省略するが、この実施例では、ロボット12の周囲には、立った状態で人間が存在することを前提とするため、コンピュータ14は、床センサ16からの出力に基づいて、2本の足の中点についての座標を人間の座標として算出するようにしてある。また、コンピュータ14は、2つの車輪34(図2参照)の中点についての座標をロボット12の位置座標として算出する。
Although detailed description is omitted, in this embodiment, since it is assumed that a human is present around the
ロボット12は、人間のような身体を有し、その身体を用いてコミュニケーションのために必要な複雑な身体動作を生成する。具体的には、図2を参照して、ロボット12は台車32を含み、この台車32の下面には、このロボット12を自律移動させる車輪34が設けられる。この車輪34は、車輪モータ(ロボット12の内部構成を示す図3において参照番号「36」で示す。)によって駆動され、台車32すなわちロボット12を前後左右任意の方向に動かすことができる。
The
なお、図2では示さないが、この台車32の前面には、衝突センサ(図3において参照番号「38」で示す。)が取り付けられ、この衝突センサ38は、台車32への人や他の障害物の接触を検知する。そして、ロボット12の移動中に障害物との接触を検知すると、直ちに車輪34の駆動を停止してロボット12の移動を急停止させる。
Although not shown in FIG. 2, a collision sensor (indicated by reference numeral “38” in FIG. 3) is attached to the front surface of the
また、ロボット12の背の高さは、この実施例では、人、特に子供に威圧感を与えることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。
In this embodiment, the height of the
台車32の上には、多角形柱のセンサ取付パネル40が設けられ、このセンサ取付パネル40の各面には、超音波距離センサ42が取り付けられる。この超音波距離センサ42は、取付パネル40すなわちロボット12の周囲の主として人との間の距離を計測するものである。
A polygonal column
台車32の上には、さらに、ロボット12の胴体が、その下部が上述の取付パネル40に囲まれて、直立するように取り付けられる。この胴体は下部胴体44と上部胴体46とから構成され、これら下部胴体44および上部胴体46は、連結部48によって連結される。連結部48には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体46の高さすなわちロボット12の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図3において参照番号「50」で示す。)によって駆動される。上で述べたロボット12の身長100cmは、上部胴体46をそれの最下位置にしたときの値である。したがって、ロボット12の身長は100cm以上にすることができる。
Further, the body of the
上部胴体46のほぼ中央には、1つの全方位カメラ52と、1つのマイク16とが設けられる。全方位カメラ52は、ロボット12の周囲を撮影するもので、後述の眼カメラ54と区別される。マイク16は、周囲の音、とりわけ人の声を取り込む。
One
上部胴体46の両肩には、それぞれ、肩関節56Rおよび56Lによって、上腕58Rおよび58Lが取り付けられる。肩関節56Rおよび56Lは、それぞれ3軸の自由度を有する。すなわち、右肩関節56Rは、X軸,Y軸およびZ軸の各軸廻りにおいて上腕58Rの角度を制御できる。Y軸は、上腕58Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。左肩関節56Lは、A軸,B軸およびC軸の各軸廻りにおいて上腕58Lの角度を制御できる。B軸は、上腕58Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。
上腕58Rおよび58Lのそれぞれの先端には、肘関節60Rおよび60Lを介して、前腕62Rおよび62Lが取り付けられる。肘関節60Rおよび60Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕62Rおよび62Lの角度を制御できる。
なお、上腕58Rおよび58Lならびに前腕62Rおよび62L(いずれも図2)の変位を制御するX,Y,Z,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕58Rおよび58Lならびに前腕62Rおよび62Lは下方向に向けられる。
In the X, Y, Z, W axes and the A, B, C, D axes that control the displacement of the
また、図2では示さないが、上部胴体46の肩関節56Rおよび56Lを含む肩の部分や上述の上腕58Rおよび58Lならびに前腕62Rおよび62Lを含む腕の部分には、それぞれ、タッチセンサ(図3において参照番号64で包括的に示す。)が設けられていて、これらのタッチセンサ64は、人がロボット12のこれらの部位に接触したかどうかを検知する。
Although not shown in FIG. 2, a touch sensor (FIG. 3) is provided on the shoulder portion including the
前腕62Rおよび62Lのそれぞれの先端には、手に相当する球体66Rおよび66Lがそれぞれ固定的に取り付けられる。なお、この球体66Rおよび66Lに代えて、この実施例のロボット12と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
上部胴体46の中央上方には、首関節68を介して、頭部70が取り付けられる。この首関節68は、3軸の自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部70には、人の口に相当する位置に、スピーカ72が設けられる。スピーカ72は、ロボット12が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。ただし、スピーカ72は、ロボット12の他の部位たとえば胴体に設けられてもよい。
A
また、頭部70には、目に相当する位置に眼球部74Rおよび74Lが設けられる。眼球部74Rおよび74Lは、それぞれ眼カメラ54Rおよび54Lを含む。なお、右の眼球部74Rおよび左の眼球部74Lをまとめて眼球部74といい、右の眼カメラ54Rおよび左の眼カメラ54Lをまとめて眼カメラ54ということもある。眼カメラ54は、ロボット12に接近した人の顔や他の部分ないし物体等を撮影してその映像信号を取り込む。
The
なお、上述の全方位カメラ52および眼カメラ54のいずれも、たとえばCCDやCMOSのような固体撮像素子を用いるカメラであってよい。
Note that each of the
たとえば、眼カメラ54は眼球部74内に固定され、眼球部74は眼球支持部(図示せず)を介して頭部70内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部70に対して設定される軸であり、α軸は頭部70の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部70の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部70がホームポジションにあるとき、α軸はS軸に平行し、β軸はU軸に平行するように設定されている。このような頭部70において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部74ないし眼カメラ54の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
For example, the
なお、眼カメラ54の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ54のカメラ軸は頭部70の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
In the α axis and β axis that control the displacement of the
図3には、ロボット12の内部構成を示すブロック図が示される。この図3に示すように、ロボット12は、全体の制御のためにマイクロコンピュータまたはCPU76を含み、このCPU76には、バス78を通して、メモリ80,モータ制御ボード82,センサ入力/出力ボード84および音声入力/出力ボード86が接続される。
FIG. 3 is a block diagram showing the internal configuration of the
メモリ80は、図示しないが、ROMやHDD、RAM等を含み、ROMまたはHDDにはこのロボット12の制御プログラムおよびデータ等が予め格納されている。CPU76は、このプログラムに従って処理を実行する。具体的には、ロボット12の身体動作を制御するための複数のプログラム(行動モジュールと呼ばれる。)が記憶される。たとえば、行動モジュールが示す身体動作としては、「握手」、「抱っこ」、「万歳」…などがある。行動モジュールが示す身体動作が「握手」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、右手を前に差し出す。また、行動モジュールが示す身体動作が「抱っこ」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、両手を前に差し出す。さらに、行動モジュールが示す身体動作が「万歳」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、両手を数回(たとえば、2回)上下させる。また、RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。
Although not shown, the
モータ制御ボード82は、たとえばDSP(Digital Signal Processor)で構成され、右腕、左腕、頭および眼等の身体部位を駆動するためのモータを制御する。すなわち、モータ制御ボード82は、CPU76からの制御データを受け、右肩関節56RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節60Rの軸Wの角度を制御する1つのモータを含む計4つのモータ(図3ではまとめて、「右腕モータ」として示す。)88の回転角度を調節する。また、モータ制御ボード82は、左肩関節56LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節60LのD軸の角度を制御する1つのモータとを含む計4つのモータ(図3ではまとめて、「左腕モータ」として示す。)90の回転角度を調節する。モータ制御ボード82は、また、首関節68のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図3ではまとめて、「頭部モータ」として示す。)92の回転角度を調節する。モータ制御ボード82は、また、腰モータ50、および車輪34を駆動する2つのモータ(図3ではまとめて、「車輪モータ」として示す。)36を制御する。さらに、モータ制御ボード82は、右眼球部74Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3ではまとめて、「右眼球モータ」として示す。)94の回転角度を調節し、また、左眼球部74Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3ではまとめて、「左眼球モータ」として示す。)96の回転角度を調節する。
The
なお、この実施例の上述のモータは、車輪モータ36を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ36と同様に、直流モータであってよい。
The above-described motors of this embodiment are stepping motors or pulse motors for simplifying the control except for the
センサ入力/出力ボード84も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU76に与える。すなわち、超音波距離センサ42の各々からの反射時間に関するデータがこのセンサ入力/出力ボード84を通して、CPU76に入力される。また、全方位カメラ52からの映像信号が、必要に応じてこのセンサ入力/出力ボード84で所定の処理が施された後、CPU76に入力される。眼カメラ54からの映像信号も、同様にして、CPU76に与えられる。また、タッチセンサ64からの信号がセンサ入力/出力ボード84を介してCPU76に与えられる。
Similarly, the sensor input /
スピーカ72には音声入力/出力ボード86を介して、CPU76から、合成音声データが与えられ、それに応じて、スピーカ72からはそのデータに従った音声または声が出力される。また、マイク24からの音声入力が、音声入力/出力ボード86を介してCPU76に取り込まれる。
Synthetic voice data is given to the
また、CPU76には、バス78を通して、通信LANボード98が接続される。この通信LANボード98も、同様に、DSPで構成され、CPU76から与えられた送信データを無線通信装置100に与え、無線通信装置100から送信データを送信させる。また、通信LANボード98は無線通信装置100を介してデータを受信し、受信データをCPU76に与える。
Further, a
たとえば、ロボット12は、或る会場の展示物を説明したり、或る会場の道案内をしたりするなどのサービスを提供する。図4は、ロボット12が或る展示物OBを複数の人間(ここでは、3人の人間A,B,C)に説明している様子を示す。
For example, the
このようなサービスを提供するロボット12では、少数の人間(たとえば、1〜2人程度)に対しては、個別に注意を制御(以下、「個人注意制御」という。)し、多数の人間(たとえば、3人以上)に対しては、多数の人間を1つの集団と考えて、当該集団の注意を制御(以下、「集団注意制御」という。)して、展示物OBやロボット12に注目させる。このように、人間の数に応じた注意制御を実行するので、自然な注意制御が可能である。これは、たとえば、個人注意制御のみを行う場合には、30人の人間であっても、個別に注意を制御することとなり、注意制御に多大な時間がかかってしまうためである。また、たとえば、集団注意制御のみを行う場合には、人間が1人であっても、1つの集団として注意を制御することとなり、注意を制御される人間に、違和感を与えてしまったり、親しみを感じさせられなかったりする恐れがあるためでもある。
In the
図5〜図7を用いて、ロボット12の注意制御について説明する。ただし、図5〜図7においては、ロボット12(R)および人間(H)は二等辺三角形で模式的に示し、その底辺から垂直に頂点に向かう方向がロボット12および人間の正面方向(視線方向)と仮定する。また、二等辺三角形の頂点が視点(眼)の位置であり、二等辺三角形の中心(重心)がロボット12ないし人間の位置である。
The attention control of the
まず、ロボット12は、自身を中心として、半径Rm(たとえば、6m)以内に人間が存在するか否かを判断する。具体的には、コンピュータ14から送信されるロボット12の2次元座標を(xR,yR)とし、同じくコンピュータ14から送信される人間の2次元座標を(xH,yH)とすると、数1に従って半径Rm以内に人間が存在するか否かが判断される。ただし、ロボット12の2次元座標は、ロボット12自身がマップデータに従って移動するため、自身で更新(管理)している2次元座標を用いるようにしてもよい。
First, the
[数1]
(xR−xH)2+(yR−yH)2≦R2
ここで、半径Rm以内に人間が存在する場合には、ロボット12は、その人数に応じて、個人注意制御または集団注意制御を選択的に実行する。この実施例では、上述したように、人間が3人未満(1〜2人)であれば、個人注意制御が実行され、人間が3人以上であれば、集団注意制御が実行される。ただし、個人注意制御と集団注意制御とを選択するための人数(閾値)は、3人に限定されるべきではなく、2人以上であれば、ロボット12を用いて提供するサービスに応じて任意に設定することができる。また、人間が存在しない場合には、一定時間(たとえば、2〜3分)が経過した後に、再度半径Rm以内に人間が存在するか否かを判断する。
[Equation 1]
(X R -x H) 2 + (y R -y H) 2 ≦ R 2
Here, when a human is present within the radius Rm, the
図5(A)に示すように、ロボット12の周囲であり、半径Rm以内に人間が3人存在する場合には、集団注意制御が実行される。集団注意制御が開始されると、まず、注意制御する対象(制御対象)の人間がすべて自身の前方に存在するかどうかを判断する。この実施例では、ロボット12は、自身が正面を向いた状態を基準(0度)として、その右方向および左方向に第1所定角度Degf(たとえば、60度)以内に人間が存在するとき、当該人間が自身の前方に存在すると判断するようにしてある。
As shown in FIG. 5A, when there are three persons around the
具体的には、数2に従って算出された直線と、ロボット12の正面方向を基準とする直線となす角度θFが60度以下かどうかを判断する。つまり、数3を満たすかどうかを判断する。ただし、この実施例では、ロボット12の正面方向を基準として、第1所定角度DegFおよび角度θFの符号を、右前方をプラスとし、左前方をマイナスとしてある。
Specifically, it is determined whether or not the angle θF formed between the straight line calculated according to Equation 2 and a straight line based on the front direction of the
[数2]
Y=(xR−xH)/(yR−yH)×X
[数3]
θF≦DegF
ここで、制御対象のうち、いずれか1人でも、第1所定角度DegF以内に存在しない場合には、制御対象のすべての人間を自身の前方の第1所定角度DegF以内に移動させるコミュニケーション行動を実行する。
[Equation 2]
Y = (x R -x H) / (y R -y H) × X
[Equation 3]
θF ≦ DegF
Here, when any one of the control objects does not exist within the first predetermined angle DegF, a communication action for moving all the persons to be controlled within the first predetermined angle DegF in front of itself is performed. Execute.
たとえば、前方の左端に存在する人間を見て、両手を広げて、「皆、僕の前に集まってよ」と発話して、前方の右端に存在する人間を見た後、正面を向く。具体的には、CPU76は、頭部モータ92を駆動制御して、首関節68をS軸周りに角度θLeftMaxだけ回動させる。以下、ロボット12の向きを変える場合、つまり首を動かす場合には、同様の処理が実行される。これにより、ロボット12は、前方の左端に存在する人間の方を見る。ここで、角度θLeftMaxは、図5(A)に示すように、ロボット12の正面方向を基準として、ロボット12の位置座標とロボット12の前方の左端に存在する人間の位置座標とを結ぶ直線がなす角度である。ただし、前方の左端に存在する人間は、半径Rm以内に存在する人間である。次に、CPU76は、右腕モータ88および左腕モータ90を駆動制御して、肩関節56Rおよび肩関節56Lを回動させる。これと同時或いは略同時に、CPU76は、「皆、僕の前に集まってよ」に対応する合成音声を再生し、スピーカ72から出力する。以下、同様にして、ロボット12は発話する。これにより、ロボット12は、両手を広げて、「皆、僕の前に集まってよ」と発話する。そして、CPU76は、首の角度をθRightMaxに設定し、首の角度を0度に設定する。これにより、ロボット12は、前方の右端に存在する人間を見た後、正面を向く。ここで、角度θRightMaxは、図5(A)に示すように、ロボット12の正面方向を基準として、ロボット12の位置座標とロボット12の前方の右端に存在する人間の位置座標とを結ぶ直線がなす角度である。ただし、前方の右端に存在する人間は、半径Rm以内に存在する人間である。
For example, look at the person at the left end of the front, spread your hands, say "Everyone gather in front of me", look at the person at the right end of the front, and then turn to the front. Specifically, the
なお、上述した制御対象のすべての人間を自身の前方に移動させるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、右端から左端を見渡すようにしてもよく、「皆、こっちに集まってよ」と発話するようにしてもよい。 Note that the above-described communication behavior for moving all persons to be controlled to move forward is merely an example, and should not be limited to this. As another example, you may make it look over the left end from the right end, and you may make it say "Everyone gather here."
制御対象のすべての人間がロボット12の前方の第1所定角度DegF以内に存在(移動)すると、ロボット12は、当該制御対象のすべての人間が自身を見ているかどうかを判断する。この実施例では、図6(A)に示すように、人間の視線方向と、人間の眼の位置とロボットの位置とを結ぶ直線の方向とがなす角度θLが第2所定角度(この実施例では、±10度)以下である場合には、当該人間は自身(ロボット12)を見ていると判断する。しかし、角度θLが第2所定角度以上であれば、当該人間は自身を見ていないと判断する。
When all the persons to be controlled exist (move) within the first predetermined angle DegF in front of the
ここで、いずれか1人でも、自身(ロボット12)を見ていないと判断すると、制御対象のすべての人間を自身に注目させるコミュニケーション行動を実行する。たとえば、ロボット12は、前方の左端の人間を見て、両手を広げて、「皆、僕の方を見てね」と発話し、前方の右端の人間を見て、その後、正面を向く。
Here, if any one of them determines that he / she is not looking at himself / herself (robot 12), a communication action is executed that causes all persons to be controlled to pay attention to himself / herself. For example, the
なお、上述した制御対象のすべての人間を自身に注目させるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、右端から左端を見渡すようにしてもよく、「皆、こっちを見てよ」と発話するようにしてもよい。 Note that the above-described communication behavior that causes all persons to be controlled to pay attention to themselves is merely an example, and should not be limited to this. As another example, the left end may be looked at from the right end, or “everyone look at this” may be spoken.
制御対象のすべての人間がロボット12に注目すると、ロボット12は、当該すべての人間が適当な距離に存在するかどうかを判断する。これは、ロボット12が複数の人間に対してサービスの説明を行う(提供する)場合に、当該人間がロボット12から離れ過ぎると、当該ロボット12の音声が聴こえ難く、一方、当該人間がロボット12に近づき過ぎると、ロボット12の手が人間に当たってしまうなどの不都合が発生してしまう恐れがあるからである。
When all the persons to be controlled pay attention to the
そこで、ロボット12は、各人間との距離dが、図6(B)に示すような最小距離DistMin(たとえば、0.5m)と最大距離DistMax(たとえば、3m)とで決定される範囲内であるかどうかを判断するようにしてある。具体的には、数4に従って、ロボット12と各人間との距離dをそれぞれ算出し、算出した各距離dが数5を満たすかどうかを判断する。
Therefore, the
[数4]
d=√{(xR−xH)2+(yR−yH)2}
[数5]
DistMin≦d≦DistMax
たとえば、いずれか1人でも、数5の中辺と右辺とで示される条件を満たさない場合には、ロボット12は、制御対象のすべての人間を自身に近づかせるコミュニケーション行動を実行する。具体的には、ロボット12は、前方の左端の人間を見て、両手を広げて、「皆、もう少し近づいてね」と発話し、前方の右端の人間を見て、その後、正面を向く。
[Equation 4]
d = √ {(x R −x H ) 2 + (y R −y H ) 2 }
[Equation 5]
DistMin ≦ d ≦ DistMax
For example, if any one of them does not satisfy the condition indicated by the middle side and the right side of
なお、上述した制御対象のすべての人間を自身に近づかせるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、右端から左端を見渡すようにしてもよく、「後ろの人は前に詰めてね」と発話するようにしてもよい。 Note that the above-described communication behavior that brings all persons to be controlled closer to themselves is merely an example, and should not be limited to this. As another example, the left end may be looked over from the right end, and “the person behind should be put forward” may be spoken.
一方、いずれか1人でも、数5の左辺と中辺とで示される条件を満たさない場合には、ロボット12は、制御対象のすべての人間を自身から離れさせるコミュニケーション行動を実行する。具体的には、ロボット12は、前方の左端の人間を見て、両手を広げて、「皆、もう少し離れてね」と発話し、前方の右端の人間を見て、その後、正面を向く。
On the other hand, if any one of them does not satisfy the condition indicated by the left side and the middle side of
なお、上述した制御対象のすべての人間を自身から離れさせるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、右端から左端を見渡すようにしてもよく、「前の人は少し下がってね」と発話するようにしてもよい。 Note that the above-described communication behavior that causes all persons to be controlled to move away from themselves is merely an example, and should not be limited to this. As another example, the left end may be looked over from the right end, and “the previous person should lower a little” may be spoken.
なお、上述したように、集団注意制御では、制御対象のすべての人間が自身の前方に移動したり、自身に注目したり、自身との距離を一定範囲内に移動したりすることを前提として説明した。ただし、制御対象のすべての人間がロボット12の誘導に従わない場合も当然にあり得る。かかる場合に、同じコミュニケーション行動を何度も繰り返すことは適切でない場合もある。したがって、この実施例では、同じコミュニケーション行動を所定回数実行すると、制御対象のすべての人間がロボット12の前方に存在していなかったり、ロボット12に注目していなかったり、ロボット12との距離が一定範囲内でなかったりしても、当該コミュニケーション行動を実行しないようにようにしてある。たとえば、制御対象の人間が10人存在し、そのうち8人の人間が自身の前方に移動したが、前方に移動させるコミュニケーション行動を所定回数(たとえば、3回)実行しても、他の2人はロボット12の前方に移動しない場合には、当該前方に移動させるコミュニケーション行動は実行せずに、制御対象のすべての人間が自身に注目しているか否かを判断するようにしてある。このことは、手段注意制御における他のコミュニケーション行動についても同様である。また、かかる場合には、ロボット12の誘導(コミュニケーション行動)に従って移動等した人間を、それ以降における制御対象の人間としてもよい。
Note that, as described above, in group attention control, it is assumed that all humans to be controlled move in front of themselves, pay attention to themselves, or move within a certain distance from themselves. explained. However, there are naturally cases where all the persons to be controlled do not follow the guidance of the
また、ロボット12は、半径Rm以内に人間が1〜2人存在する場合には、個人注意制御を実行する。個人注意制御は、集団注意制御とほぼ同じであるため、以下では簡単に説明するが、注意制御の対象が複数(ここでは、2人)であっても、個別に注意制御を実行する点で大きく異なる。この個人注意制御では、個別に注意制御を実行するため、ロボット12は、現在注意制御を行っている人間の方を見て、コミュニケーション行動を実行するようにしてある。具体的には、図7に示すように、ロボット12は、正面方向を基準として、自身の位置と制御対象の人間の位置とを結ぶ直線がなす角度θHDegを算出し、この角度θHDegだけ首を動かし、当該人間の方を見るようにしてある。
Moreover, the
たとえば、制御対象の人間が自身の前方の第1所定角度DegF以内に存在しない場合には、当該人間を自身の前方の第1所定角度DegF以内に移動させるコミュニケーション行動を実行する。たとえば、首の角度をθHDegに設定し、手を角度θHDegに向けて、「ねえ、僕の前に来てよ」と発話する。つまり、CPU76は、頭部モータ92を駆動制御して、首関節68をS軸周りに角度θHDegだけ回動させる。次に、CPU76は、右腕モータ88または左腕モータ90を駆動制御して、肩関節56Rまたは肩関節56Lを回動させる。これと同時或いは略同時に、CPU76は、「ねぇ、僕の前に来てよ」に対応する合成音声を再生し、スピーカ72から出力する。以下、同様である。
For example, when the person to be controlled does not exist within the first predetermined angle DegF in front of himself / herself, a communication action for moving the person within the first predetermined angle DegF in front of himself / herself is executed. For example, the angle of the neck is set to θHDeg, and the hand is directed to the angle θHDeg and “Hey, come in front of me” is spoken. That is, the
このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身の前方に当該人間を移動させるコミュニケーション行動が実行される。ただし、これは単なる例示であり、限定されるべきではない。他の例としては、手をθHDegに向けた後に、手招きさせるようにしてもよい。また、「〇〇さん、僕の前に来てよ」と名前を用いて発話するようにしてもよい。かかる場合には、たとえば、各人間に無線タグ(周波数タグ、ICタグなど)を装着(所持)させておき、ロボット12側で当該無線タグの情報を読み取って、個人を識別可能にしておく必要がある。以下、同様である。
In this way, a communication action is performed in which the
また、制御対象の人間が自身の前方の第1所定角度DegF以内に存在(移動)するが、自身の方を見ていない(自身に注目していない)場合には、ロボット12は、当該人間を自身に注目させるコミュニケーション行動を実行する。たとえば、首の角度をθHDegに設定し、手を角度θHDegに向けて、「ねえねえ、僕を見て」と発話する。つまり、ロボット12は、制御対象の人間の方を見て、当該人間を指差しながら声を掛けて、自身に注意を向けるように促しているのである。
In addition, when the person to be controlled exists (moves) within the first predetermined angle DegF ahead of himself / herself but does not look at himself / herself (not paying attention to himself / herself), the
なお、上述した制御対象の人間を自身に注目させるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、手を角度θHDegに向けた後に、自身の顔を指差しさせるようにしてもよく、「〇〇さん、僕を見て」と名前を用いて発話するようにしてもよい。 Note that the above-described communication behavior that causes the control target person to pay attention to himself / herself is merely an example, and should not be limited to this. As another example, after pointing the hand to the angle θHDeg, the user may be allowed to point at his / her face or speak using the name “Look at me,” .
そして、制御対象の人間が自身の前方の第1所定角度DegF以内であり、自身に注目すると、ロボット12は、当該人間との距離dを算出する。算出した距離dが数5を満たさない場合には、サービスを説明するための適切な距離に移動させるコミュニケーション行動を実行する。具体的には、ロボット12と人間との距離dが数5の中辺と右辺とで示される条件を満たさない場合には、ロボット12は、首の角度をθHDegに設定し、手をθHDegに向けて、「ねえ、もう少し近づいて」と発話する。つまり、制御対象の人間を見て、指差しながら声を掛けて、自身に近づくように、当該人間に促している。ただし、これは単なる例示であり、限定されるべきではない。他の例としては、手を角度θHDegn向けた後に、手招きさせるようにしてもよく、「〇〇さん、もう少し近づいて」と名前を用いて発話するようにしてもよい。
Then, when the person to be controlled is within the first predetermined angle DegF in front of himself / herself, paying attention to himself / herself, the
一方、ロボット12と人間との距離dが数5の左辺と中辺とで示される条件を満たさない場合には、ロボット12は、首の角度をθHDegに設定し、手をθHDegに向けて、「ねえ、もう少し離れてね」と発話する。つまり、制御対象の人間を見て、指差しながら声を掛けて、自身から少し離れるように、当該人間に促している。ただし、これは単なる例示であり、限定されるべきではない。他の例としては、手を角度θHDegに向けた後に、当該手を少し上げさせるようにしてもよく、「〇〇さん、もう少し離れてね」と名前を用いて発話するようにしてもよい。
On the other hand, when the distance d between the
なお、個人注意制御の場合にも、必ず制御対象の人間がロボット12の誘導に従って、ロボット12の前方に移動し、ロボット12に注目し、ロボット12との距離が一定範囲になるように移動する前提で説明した。しかし、上述したように、集団注意制御の場合と同様に、同じコミュニケーション行動を所定回数実行した場合には、制御対象の人間がロボット12の誘導に従わない場合であっても、当該コミュニケーション行動の実行を終了するようにしてある。
Even in the case of personal attention control, the person to be controlled always moves in front of the
以上のようにして、注意制御の対象である人間の人数に応じて、異なる注意制御処理が実行される。注意が制御されると、システム10(ロボット12)が提供するサービスの説明が実行される。たとえば、サービスの説明としては、或る展示物についての説明であったり、或る遊戯具の説明であったりなど様々である。また、サービスの説明についてのコミュニケーション行動は、説明対象の人数に応じて異なるようにしてもよく、同じでもよく、サービスの内容に応じて代えるようにしてもよい。 As described above, different attention control processes are executed in accordance with the number of persons who are objects of attention control. When the attention is controlled, a description of the service provided by the system 10 (robot 12) is executed. For example, there are various explanations of services such as explanation of a certain exhibit or explanation of a certain play equipment. In addition, the communication behavior regarding the description of the service may be different depending on the number of people to be explained, may be the same, or may be changed depending on the content of the service.
図8は図3に示したCPU76の全体処理を示すフロー図である。この図8を参照して、CPU76は全体処理を開始すると、ステップS1で、オペレータによる停止命令があるかどうかを判断する。たとえば、停止命令は、コンピュータ14を用いて遠隔的に入力することができ、ロボット12に運転/停止ボタンを設けておき、これを操作することにより入力することもできる。ステップS1で“YES”であれば、つまりオペレータによる停止命令があれば、そのまま全体処理を終了する。一方、ステップS1で“NO”であれば、つまりオペレータによる停止命令がなければ、ステップS3で、周囲に人間が存在するかどうかを判断する。具体的には、コンピュータ14からロボット12についての座標データ以外の座標データが入力されたか否かで、周囲に人間が存在するかどうかを判断する。
FIG. 8 is a flowchart showing the overall processing of the
ステップS3で“YES”であれば、つまり周囲に人間が存在すれば、ステップS5で、後述する注意制御およびサービスの提供処理(図9参照)を実行して、ステップS1に戻る。一方、ステップS3で“NO”であれば、つまり周囲に人間が存在しなければ、ステップS7で、待機行動を実行して、ステップS1に戻る。たとえば、ステップS7では、CPU76は、頭部モータ92を駆動制御して、首関節68をS軸周りに回動させる。これにより、ロボット12が、首を左右に振って周りを見渡しているように動作させることができる。
If “YES” in the step S3, that is, if there is a human in the surroundings, a caution control and service providing process (see FIG. 9) described later is executed in a step S5, and the process returns to the step S1. On the other hand, if “NO” in the step S3, that is, if there is no human being around, a waiting action is executed in a step S7, and the process returns to the step S1. For example, in step S7, the
図9は図8に示したステップS5の注意制御およびサービスの提供処理を示すフロー図である。図9に示すように、CPU76は、注意制御およびサービスの提供処理を開始すると、ステップS11で、周囲に存在する人間の人数を検出する。ここでは、コンピュータ14から入力される座標信号の個数をカウントし、そのカウント値から1減算した数を人間の人数として決定(検出)する。つまり、ロボット12の数が排除される。続くステップS13では、ロボット12の半径Rm(たとえば、6m)以内にN人(たとえば、3人)以上の人間が存在するかどうかを判断する。ここでは、ロボット12は、自身の座標信号と人間の座標信号とが示す位置座標を用いて、自身と人間との距離が数1を満たすかどうかを判断し、数1を満たす人間が3人以上存在するかどうかを判断するのである。
FIG. 9 is a flowchart showing the attention control and service provision processing in step S5 shown in FIG. As shown in FIG. 9, when the
ステップS13で“YES”であれば、つまり半径6m以内に3人以上の人間が存在する場合には、ステップS15で、後述する集団注意制御処理(図10および図11参照)を実行し、ステップS17で、サービスの説明を行うコミュニケーション行動を実行し、注意制御およびサービスの提供処理をリターンする。 If “YES” in the step S13, that is, if there are three or more persons within a radius of 6 m, a group attention control process (see FIG. 10 and FIG. 11) described later is executed in a step S15. In S17, the communication action for explaining the service is executed, and the attention control and the service providing process are returned.
一方、ステップS13で“NO”であれば、つまり半径6m以内に1〜2人の人間が存在する場合には、ステップS19で、後述する個人注意制御処理(図12および図13参照)を実行し、ステップS21で、周囲に存在する制御対象のすべての人間についての注意を制御したかどうかを判断する。ステップS21で“NO”であれば、つまり周囲に存在する制御対象のすべての人間についての注意を制御していなければ、次の人間(未だ注意を制御していない人間)の注意を制御すべく、ステップS19に戻る。詳細な説明は省略するが、たとえば、ロボット12は、人間との距離が近い順に個人注意制御処理を実行する。一方、ステップS21で“YES”であれば、つまり周囲に存在する制御対象のすべての人間についての注意を制御すれば、ステップS23で、サービスの説明を行うコミュニケーション行動を実行し、注意制御およびサービスの提供処理をリターンする。
On the other hand, if “NO” in the step S13, that is, if one or two persons exist within a radius of 6 m, a personal attention control process (see FIGS. 12 and 13) described later is executed in a step S19. In step S21, it is determined whether or not attention is controlled for all the control target persons existing around. If “NO” in the step S21, that is, if the cautions about all the persons to be controlled existing in the vicinity are not controlled, the attention of the next person (the person who has not yet controlled the caution) should be controlled. Return to step S19. Although detailed description is omitted, for example, the
図10〜図13は、図9に示したステップS15の集団注意制御処理を示すフロー図である。図10を参照して、CPU76は、集団注意制御処理を開始すると、ステップS31で、変数a,b,c,dを初期化する(a,b,c,d=0)。つまり、前方に制御対象のすべての人間を集めるコミュニケーション行動の実行回数a、制御対象のすべての人間を自身に注目させるコミュニケーション行動の実行回数b、制御対象のすべての人間との距離dをDistMax以下にするコミュニケーション行動の実行回数c、および制御対象のすべての人間との距離dをDistMin以下にするコミュニケーション行動の実行回数dが「0」に設定される。
10 to 13 are flowcharts showing the group attention control process in step S15 shown in FIG. Referring to FIG. 10, when starting the group attention control process,
続くステップS33では、前方の第1所定角度DegF内に制御対象のすべての人間が存在するかどうかを判断する。つまり、制御対象のすべての人間について、数2に従って算出した角度θFが数3を満たすかどうかを判断する。ただし、ここで言う「制御対象のすべての人間」は、ロボット12からの距離がRm以内と判断された人間を意味する。以下、集団注意制御処理において同様である。ただし、上述したように、ロボット12がコミュニケーション行動を実行して制御対象の人間を誘導したが、それに応じなかった人間は制御対象から外される場合もある。
In a succeeding step S33, it is determined whether or not all persons to be controlled exist within the first predetermined angle DegF ahead. That is, it is determined whether or not the angle θF calculated according to Equation 2 satisfies Equation 3 for all humans to be controlled. However, “all human beings to be controlled” mentioned here means humans whose distance from the
ステップS33で“YES”であれば、つまり前方の第1所定角度DegF内に制御対象のすべての人間が存在する場合には、そのまま図11に示すステップS47に進む。しかし、ステップS33で“NO”であれば、つまり前方の第1所定角度DegF内にいずれか1人でも存在していなければ、前方に制御対象のすべての人間を集める(移動させる)コミュニケーション行動を実行する。具体的には、ステップS35で、首の角度をθLeftMaxに設定する。次にステップS37で、両手を広げて、「皆、僕の前に集まってよ」と発話する。続いて、ステップS39で、首の角度をθRightMaxに設定し、その後、ステップS41で、首の角度を0度に設定する。このように、ステップS35〜ステップS41の処理によって、両手を広げてすべての人間に自身の前方に集まるように声を掛けながら、前方で最も左端に存在する人間から右端に存在する人間を見渡し、その後、前を向くといったコミュニケーション行動が実行される。 If “YES” in the step S33, that is, if all the persons to be controlled exist within the first predetermined angle DegF ahead, the process proceeds to a step S47 shown in FIG. 11 as it is. However, if “NO” in the step S33, that is, if any one person is not present within the first predetermined angle DegF in the front, the communication action of collecting (moving) all the persons to be controlled in the front is performed. Execute. Specifically, in step S35, the neck angle is set to θLeftMax. Next, in step S37, open both hands and say "Everyone gather in front of me". Subsequently, in step S39, the neck angle is set to θRightMax, and then in step S41, the neck angle is set to 0 degrees. In this way, by the processing of step S35 to step S41, looking over all the human beings to gather in front of themselves, overlooking the human being present at the right end from the human being present at the leftmost front, After that, a communication action such as facing forward is performed.
そして、ステップS43で、前方に制御対象のすべての人間を移動させるコミュニケーション行動の実行回数aをインクリメント(a=a+1)して、ステップS45で、実行回数aが所定回数M1(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が前方に制御対象のすべての人間を移動させるコミュニケーション行動を3回(以上)実行したかどうかを判断する。ステップS45で“NO”であれば、つまり実行回数aが2以下であれば、そのままステップS33に戻る。一方、ステップS45で“YES”であれば、つまり実行回数aが3以上であれば、前方の第1所定角度DegF内に制御対象のすべての人間が存在するか否かに拘わらず、ステップS47に進む。
In step S43, the execution number a of the communication action for moving all persons to be controlled forward is incremented (a = a + 1). In step S45, the execution number a is equal to or greater than the predetermined number M1 (for example, 3). It is determined whether or not. That is, it is determined whether or not the
図11に示すステップS47では、制御対象のすべての人間が自身を見ているかどうかを判断する。つまり、制御対象のすべての人間について、算出した角度θLの絶対値が第2所定角度DegL(10度)以下であるかどうかを判断する。ステップS47で“YES”であれば、つまりすべての人間が自身を見ている(自身に注目している)場合には、そのまま図12に示すステップS61に進む。しかし、ステップS47で“NO”であれば、つまりいずれか1人でも自身を見ていない(自身に注目していない)場合には、制御対象のすべての人間を自身に注目させるコミュニケーション行動を実行する。 In step S47 shown in FIG. 11, it is determined whether all the persons to be controlled are looking at themselves. That is, it is determined whether or not the absolute value of the calculated angle θL is equal to or smaller than the second predetermined angle DegL (10 degrees) for all humans to be controlled. If “YES” in the step S47, that is, if all humans are looking at themselves (watching themselves), the process proceeds to a step S61 shown in FIG. 12 as it is. However, if “NO” in step S47, that is, if any one person is not looking at himself (not paying attention to himself), a communication action is executed that causes all persons to be controlled to pay attention to himself / herself. To do.
具体的には、ステップS49で、首の角度をθLeftMaxに設定し、ステップS51で、両手を広げて、「皆、僕を見てね」と発話し、ステップS53で、首の角度をθRightMaxに設定し、そして、ステップS55で、首の角度を0度に設定する。つまり、ステップS49〜ステップS55の処理によって、両手を広げて制御対象のすべての人間に自身の方を見るように声を掛けながら、前方で最も左端に存在する人間から右端に存在する人間を見渡し、その後、前を向くといったコミュニケーション行動が実行される。 Specifically, in step S49, the neck angle is set to θLeftMax, and in step S51, both hands are spread out and “everyone look at me” is spoken. In step S53, the neck angle is set to θRightMax. In step S55, the neck angle is set to 0 degree. In other words, the process from step S49 to step S55 overlooks the person at the right end from the person at the left end in front of the person while spreading his hands and calling out to all the persons to be controlled looking at himself. Then, the communication action of facing forward is executed.
そして、ステップS57で、制御対象のすべての人間を自身に注目させるコミュニケーション行動の実行回数bをインクリメントする(b=b+1)。続くステップS59では、実行回数bが所定回数M2(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、制御対象のすべての人間を自身に注目させるコミュニケーション行動を3回(以上)実行したかどうかを判断する。ステップS59で“NO”であれば、つまり実行回数bが2以下であれば、そのままステップS47に戻る。一方、ステップS59で“YES”であれば、つまり実行回数bが3以上であれば、制御対象のすべての人間が自身に注目しているか否かに拘わらず、ステップS61に進む。
Then, in step S57, the execution number b of the communication action that causes all persons to be controlled to pay attention to itself is incremented (b = b + 1). In a succeeding step S59, it is determined whether or not the number of executions b is a predetermined number M2 (for example, 3) or more. That is, it is determined whether or not the
図12に示すように、ステップS61では、制御対象のすべての人間との距離dがDistMax(たとえば、3m)以下であるかどうかを判断する。つまり、制御対象のすべての人間について、数4を用いて算出した距離dが数5の中辺および右辺で示される不等式(条件)を満たすかどうかを判断する。ステップS61で“YES”であれば、つまり制御対象のすべての人間との距離が3m以下であれば、そのまま図13に示すステップS75に進む。一方、ステップS61で“NO”であれば、つまりいずれか1人でもロボット12との距離dが3mを超えていれば、制御対象のすべての人間との距離dを3m以下にするコミュニケーション行動を実行する。
As shown in FIG. 12, in step S <b> 61, it is determined whether or not the distance d to all the persons to be controlled is DistMax (for example, 3 m) or less. That is, it is determined whether or not the distance d calculated using Equation 4 satisfies the inequalities (conditions) indicated by the middle side and the right side of
具体的には、ステップS63で、首の角度をθLeftMaxに設定し、ステップS65で、両手を広げて、「皆、もう少し近づいてね」と発話し、ステップS67で、首の角度をθRightMaxに設定し、そして、ステップS69で、首の角度を0度に設定する。つまり、ステップS63〜ステップS69の処理によって、両手を広げてすべての人間に自身に近づくように声を掛けながら、前方で最も左端に存在する人間から右端に存在する人間を見渡し、その後、前を向くといったコミュニケーション行動が実行される。 Specifically, in step S63, the neck angle is set to θLeftMax, and in step S65, both hands are spread out, saying “Everyone should be a little closer”, and in step S67, the neck angle is set to θRightMax. In step S69, the neck angle is set to 0 degree. That is, by the processing of step S63 to step S69, looking out to the human being at the left end from the human being at the left end in front, looking over all the human beings with their hands wide open and approaching themselves, Communication behavior such as facing is executed.
そして、ステップS71で、制御対象のすべての人間との距離dを3m以下にするコミュニケーション行動の実行回数cをインクリメントする(c=c+1)。次のステップS73では、実行回数cが所定回数M3(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、制御対象のすべての人間との距離dを3m以下にするコミュニケーション行動を3回(以上)実行したかどうかを判断するのである。ステップS73で“NO”であれば、つまり実行回数cが2以下であれば、ステップS61に戻る。一方、ステップS73で“YES”であれば、つまり実行回数cが3以上であれば、制御対象のすべての人間との距離dが3m以下であるか否かに拘わらず、ステップS75に進む。
Then, in step S71, the number of executions c of the communication action for setting the distance d to all control target humans to 3 m or less is incremented (c = c + 1). In the next step S73, it is determined whether or not the number of executions c is a predetermined number M3 (for example, 3) or more. That is, it is determined whether or not the
図13に示すステップS75では、制御対象のすべての人間との距離dがDistMin(たとえば、0.5m)以上であるかどうかを判断する。つまり、制御対象のすべての人間について、数4に従って算出した距離dが数5の左辺および中辺で示される不等式(条件)を満たすかどうかを判断する。ステップS61で“YES”であれば、つまり制御対象のすべての人間との距離dが0.5m以上であれば、制御対象のすべての人間が自身の前方に存在し、自身に注目し、一定範囲内に存在すると判断して、集団注意制御処理をリターンする。
In step S75 shown in FIG. 13, it is determined whether or not the distance d to all the control target humans is DistMin (for example, 0.5 m) or more. That is, it is determined whether or not the distance d calculated according to Equation 4 satisfies the inequalities (conditions) indicated by the left side and the middle side of
しかし、ステップS75で“NO”であれば、つまりいずれかの人間との距離dが0.5m未満であれば、制御対象のすべての人間との距離dを0.5m以上にするコミュニケーション行動を実行する。具体的には、ステップS77で、首の角度をθLeftMaxに設定し、ステップS79で、両手を広げて、「皆、もう少し離れてね」と発話し、ステップS81で、首の角度をθRightMaxに設定し、そして、ステップS83で、首の角度を0度に設定する。つまり、ステップS77〜ステップS83の処理によって、両手を広げてすべての人間に自身から離れるように声を掛けながら、前方で最も左端に存在する人間から右端に存在する人間を見渡し、その後、前を向くといったコミュニケーション行動が実行される。 However, if “NO” in the step S75, that is, if the distance d to any human being is less than 0.5 m, the communication action for setting the distance d to all human beings to be controlled to 0.5 m or more is performed. Execute. Specifically, in step S77, the neck angle is set to θLeftMax, in step S79, both hands are spread out and "everyone is a little further away", and in step S81, the neck angle is set to θRightMax. In step S83, the neck angle is set to 0 degree. That is, by the processing of step S77 to step S83, looking out to the human being at the left end from the human being at the left end in the front, spreading all hands and calling out to all human beings away from themselves, Communication behavior such as facing is executed.
そして、ステップS85で、制御対象のすべての人間との距離dを0.5m以上にするコミュニケーション行動の実行回数dが所定回数M4(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、制御対象のすべての人間との距離dを0.5m以上にするコミュニケーション行動を3回(以上)実行したかどうかを判断するのである。ステップS87で“NO”であれば、つまり実行回数dが2以下であれば、ステップS75に戻る。一方、ステップS87で“YES”であれば、つまり実行回数dが3以上であれば、制御対象のすべての人間との距離dが0.5m以上であるか否かに拘わらず、集団注意制御処理をリターンする。
Then, in step S85, it is determined whether or not the number of executions d of the communication action that sets the distance d to all control target humans to 0.5 m or more is a predetermined number M4 (for example, 3) or more. In other words, it is determined whether or not the
図14〜図16は、図9に示したステップS19の個人注意制御処理を示すフロー図である。ただし、個人注意制御処理においては、集団注意制御処理に含まれる処理と同様の処理については、簡単に説明することにする。図14を参照して、CPU76は、個人注意制御処理を開始すると、ステップS101で、変数e,f,g,hを初期化する(e,f,g,h=0)。つまり、自身の前方に当該人間を移動させるコミュニケーション行動の実行回数e、当該人間の注意を自身に向けさせるコミュニケーション行動の実行回数f、自身に当該人間を近づかせるコミュニケーション行動の実行回数g、および自身から当該人間を少し遠ざけるためのコミュニケーション行動の実行回数hが「0」に設定される。
14 to 16 are flowcharts showing the personal attention control process in step S19 shown in FIG. However, in the personal attention control process, a process similar to the process included in the group attention control process will be briefly described. Referring to FIG. 14, when starting the personal attention control process,
続くステップS103では、前方の第1所定角度DegF内に制御対象の人間(以下、「当該人間」という。)が存在するかどうかを判断する。ステップS103で“YES”であれば、つまり前方の第1所定角度DegF内に当該人間が存在する場合には、そのまま図15に示すステップS113に進む。 In the subsequent step S103, it is determined whether or not there is a person to be controlled (hereinafter referred to as “the person”) within the first predetermined angle DegF ahead. If “YES” in the step S103, that is, if the person exists within the first predetermined angle DegF ahead, the process proceeds to a step S113 shown in FIG. 15 as it is.
しかし、ステップS103で“NO”であれば、つまり前方の第1所定角度DegF内に当該人間が存在しない場合には、ステップS105で、首の角度をθHDegに設定し、ステップS107で、手を角度θHDegに向けて、「ねぇ、僕の前に来てよ」と発話する。このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身の前方に当該人間を移動させるコミュニケーション行動が実行される。
However, if “NO” in the step S103, that is, if the person is not present within the first predetermined angle DegF ahead, the neck angle is set to θHDeg in a step S105, and the hand is moved in a step S107. Say “Hey, come in front of me” toward the angle θHDeg. In this way, a communication action is performed in which the
そして、ステップS109で、自身の前方に当該人間を移動させるコミュニケーション行動の実行回数eをインクリメントする(e=e+1)。続くステップS111では、実行回数eが所定回数N1(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、自身の前方に当該人間を移動させるコミュニケーション行動を3回(以上)実行したか否かを判断するのである。ステップS111で“NO”であれば、つまり実行回数eが2以下であれば、ステップS103に戻る。一方、ステップS111で“YES”であれば、つまり実行回数eが3以上であれば、自身の前方に当該人間が存在するか否かに拘わらず、ステップS113に進む。
In step S109, the execution number e of the communication action for moving the person in front of itself is incremented (e = e + 1). In a succeeding step S111, it is determined whether or not the number of executions e is a predetermined number N1 (for example, 3) or more. That is, it is determined whether or not the
図15に示すように、ステップS113では、当該人間が自身の方を見ているかどうかを判断する。ステップS113で“YES”であれば、つまり当該人間が自身の方を見ている(自身に注目している)場合には、そのままステップS123に進む。一方、ステップS113で“NO”であれば、つまり当該人間が自身の方を見ていない(自身に注目していない)場合には、当該人間の注意を自身に向けさせるコミュニケーション行動を実行する。具体的には、ステップS115で、首の角度をθHDegに設定し、ステップS117で、手を角度θHDegに向けて、「ねえねえ、僕を見て」と発話する。このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身の方に当該人間を注目させるコミュニケーション行動が実行される。
As shown in FIG. 15, in step S113, it is determined whether or not the person is looking at the person. If “YES” in the step S113, that is, if the person is looking at himself (ie paying attention to himself), the process proceeds to a step S123 as it is. On the other hand, if “NO” in the step S113, that is, if the person is not looking at the person (not paying attention to the person), a communication action for directing the person's attention to the person is executed. Specifically, in step S115, the neck angle is set to θHDeg, and in step S117, the hand is directed to the angle θHDeg and “Hey, look at me” is spoken. In this way, the communication action is performed in which the
そして、ステップS119で、当該人間の注意を自身に向けさせるコミュニケーション行動の実行回数fをインクリメントする(f=f+1)。続くステップS121では、実行回数fが所定回数N2(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、当該人間の注意を自身に向けさせるコミュニケーション行動を3回(以上)実行したかどうかを判断するのである。ステップS121で“NO”であれば、つまり実行回数fが2以下であれば、そのままステップS113に戻る。一方、ステップS121で“YES”であれば、つまり実行回数fが3以上であれば、当該人間が自身に注目しているか否かにかかわらず、ステップS123に進む。
Then, in step S119, the number of executions f of the communication action for directing the person's attention to himself is incremented (f = f + 1). In a succeeding step S121, it is determined whether or not the number of executions f is a predetermined number N2 (for example, 3) or more. In other words, it is determined whether or not the
ステップS123では、当該人間との距離dがDistMax(たとえば、3m)以下であるかどうかを判断する。ステップS123で“YES”であれば、つまり当該人間との距離dが3m以下であれば、そのまま図16に示すステップS133に進む。しかし、ステップS123で“NO”であれば、つまり当該人間との距離dが3mを越えていれば、当該人間を自身に近づかせるコミュニケーション行動を実行する。具体的には、ステップS125で、首の角度をθHDegに設定し、ステップS127で、手をθHDegに向けて、「ねえ、もう少し近づいて」と発話する。このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身に当該人間を近づかせるコミュニケーション行動が実行される。
In step S123, it is determined whether the distance d to the person is equal to or less than DistMax (for example, 3 m). If “YES” in the step S123, that is, if the distance d to the person is 3 m or less, the process proceeds to a step S133 shown in FIG. 16 as it is. However, if “NO” in the step S123, that is, if the distance d with the person exceeds 3 m, a communication action is performed to bring the person closer to the person. Specifically, in step S125, the neck angle is set to θHDeg, and in step S127, the hand is directed to θHDeg and “Hey, a little closer” is spoken. In this way, the communication action is performed in which the
そして、ステップS129で、自身に当該人間を近づかせるコミュニケーション行動の実行回数gをインクリメントする(g=g+1)。続くステップS131では、実行回数gが所定回数N3(たとえば、3)以上であるか動かを判断する。つまり、ロボット12が、自身に当該人間を近づかせるコミュニケーション行動を3回(以上)実行したか否かを判断するのである。ステップS131で“NO”であれば、つまり実行回数gが2以下であれば、ステップS123に戻る。一方、ステップS131で“YES”であれば、つまり実行回数gが3以上であれば、当該人間との距離dが3mを超えていても、ステップS133に進む。
In step S129, the number of executions g of the communication action that brings the person closer to itself is incremented (g = g + 1). In subsequent step S131, it is determined whether or not the number of executions g is a predetermined number N3 (for example, 3) or more. That is, it is determined whether or not the
図16に示すように、ステップS133では、当該人間との距離dがDistMin(たとえば、0.5m)以上かどうかを判断する。ステップS133で“YES”であれば、つまり当該人間との距離dが0.5m以上であれば、当該人間が自身の前方に存在し、自身に注目し、一定範囲内に存在すると判断して、個人注意制御処理をリターンする。 As shown in FIG. 16, in step S133, it is determined whether or not the distance d to the person is DistMin (for example, 0.5 m) or more. If “YES” in the step S133, that is, if the distance d to the person is 0.5 m or more, it is determined that the person exists in front of him, pays attention to himself and is within a certain range. Return the personal attention control process.
一方、ステップS133で“NO”であれば、つまり当該人間との距離dが0.5m未満であれば、当該人間を自身から少し遠ざけるためのコミュニケーション行動を実行する。具体的には、ステップS135で、首の角度をθHDegに設定し、ステップS137で、手を角度θHDegに向けて、「ねえ、もう少し離れてね」と発話する。このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身から遠ざけるためのコミュニケーション行動が実行される。
On the other hand, if “NO” in the step S133, that is, if the distance d to the person is less than 0.5 m, a communication action for moving the person a little away from the person is executed. Specifically, in step S135, the neck angle is set to θHDeg, and in step S137, the hand is directed to the angle θHDeg and “Hey, say a little further away”. In this way, the communication action is performed so that the
そして、ステップS139で、当該人間を自身から少し遠ざけるためのコミュニケーション行動の実行回数hをインクリメントする(h=h+1)。続くステップS141では、実行回数hが所定回数N4(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、当該人間を自身から少し遠ざけるためのコミュニケーション行動を3回(以上)実行したか否かを判断するのである。ステップS141で“NO”であれば、つまり実行回数hが2以下であれば、ステップS133に戻る。一方、ステップS141で“YES”であれば、つまり実行回数hが3以上であれば、当該人間との距離dが0.5m未満であっても、個人注意制御処理をリターンする。
In step S139, the communication action execution count h for keeping the person a little away from him is incremented (h = h + 1). In subsequent step S141, it is determined whether or not the number of executions h is a predetermined number N4 (for example, 3) or more. That is, it is determined whether or not the
この実施例によれば、制御対象の人数に応じて、注意制御を選択的に実行するので、適切な注意制御が可能である。したがって、ロボットが人間社会に自然に解け込むことができる。 According to this embodiment, since attention control is selectively executed according to the number of persons to be controlled, appropriate attention control is possible. Therefore, the robot can naturally dissolve into human society.
なお、この実施例では、人間の存在や位置を検出するために床センサを設け、この床センサの出力に基づいてコンピュータで座標信号を求め、コンピュータからロボットに座標信号を与えるようにした。ただし、ロボットに全方位カメラを設けるようにすれば、床センサおよびコンピュータを用いずに、ロボット単体で注意制御を実行することも可能である。かかる場合には、全方位カメラの映像を解析することにより、ロボットの周囲に存在する人間の人数や前方の所定角度内に存在するかどうかを判断することができる。また、かかる場合には、超音波距離センサ(42)の出力に基づいて、周囲に存在する人間との距離を検出することができる。 In this embodiment, a floor sensor is provided to detect the presence and position of a person, a coordinate signal is obtained by a computer based on the output of the floor sensor, and the coordinate signal is given from the computer to the robot. However, if the robot is provided with an omnidirectional camera, it is possible to execute the caution control by the robot alone without using the floor sensor and the computer. In such a case, by analyzing the image of the omnidirectional camera, it is possible to determine the number of humans existing around the robot and whether or not it exists within a predetermined angle in front. Further, in such a case, the distance to the human being existing around can be detected based on the output of the ultrasonic distance sensor (42).
また、この実施例では、人間の存在や位置を検出するために床センサを設けるようにしたが、これに限定されるべきでない。たとえば、床センサに代えて、天井カメラを設け、当該天井カメラの映像を解析するようにしてもよい。かかる場合には、人間の向き(ロボットの方を向いているかどうか)も知ることができる。また、無線タグを人間に装着し、当該無線タグのリーダをロボットに装備するようにしてもよい。かかる場合には、システムに含まれるコンピュータを省略することも可能である。 In this embodiment, a floor sensor is provided to detect the presence and position of a person, but should not be limited to this. For example, instead of a floor sensor, a ceiling camera may be provided and an image of the ceiling camera may be analyzed. In such a case, it is possible to know the direction of the human (whether the robot is facing). Alternatively, a wireless tag may be attached to a human and a reader of the wireless tag may be equipped on the robot. In such a case, the computer included in the system can be omitted.
さらに、この実施例では、眼カメラの映像を解析することにより、人間がロボットの方を見ているかどうかを判断するようにした。しかし、人間の視線方向に赤外線を照射する赤外LEDを人間に装着し、赤外カメラをロボットに装備しておけば、赤外光を検出したかどうかで人間がロボットの方を見ているかどうかを判断することもできる。 Further, in this embodiment, it is determined whether or not a human is looking at the robot by analyzing the image of the eye camera. However, if an infrared LED that irradiates infrared rays in the direction of the human line of sight is attached to the human and the robot is equipped with an infrared camera, whether the human is looking at the robot depending on whether infrared light is detected. It can also be judged.
さらにまた、この実施例では、身長が100cm程度のロボットを用いた場合についての角度や距離を例示した。しかし、それらの数値は適宜変更可能である。 Furthermore, in this embodiment, the angles and distances when a robot having a height of about 100 cm is used are exemplified. However, these numerical values can be changed as appropriate.
また、この実施例では、注意制御においては、無限ループを回避するため、同一のコミュニケーション行動は所定回数だけ実行するようにして、制御対象の人間がロボット12の誘導に従わない場合であっても、それを無視するようにした。しかし、ロボット12が提供するサービスが機密事項のような重要な事項であり、制御対象の人間がロボット12の誘導(指示や命令)に従うべきものである場合には、すべての人間がロボット12の誘導に従わない限り、同じコミュニケーション行動を繰り返すようにしてもよい。かかる場合には、図10−図13に示した集団注意制御処理において、ステップS31,S43,S45,S57,S59,S71,S73,S83,S85を削除し、図14−図16に示した個人注意制御処理において、ステップS109,S111,S119,S121,S129,S131,S139,S141を削除するようにすればよい。ただし、一部のコミュニケーション行動のみを繰り返し実行するようにしてもよい。たとえば、ロボット12に制御対象の人間が注目するまでは、当該制御対象の人間を自身に注目させるためのコミュニケーション行動を繰り返し実行するが、他のコミュニケーション行動は、所定回数だけ実行するようにすることも可能である。
Further, in this embodiment, in the attention control, in order to avoid an infinite loop, the same communication action is executed a predetermined number of times, even when the control target person does not follow the guidance of the
さらに、この実施例では、所定回数M1〜M4,N1〜N2は、すべての同じ回数にしたが、集団注意制御と個人注意制御とで、異なる回数にしてもよく、提供するサービスに応じて適宜設定するようにしてもよく、さらに、各々異なる回数に設定するようにしてもよい。 Further, in this embodiment, the predetermined number of times M1 to M4 and N1 to N2 are all the same number, but the group attention control and the personal attention control may be different times, and are appropriately determined according to the service to be provided. You may make it set, and also you may make it set to each different frequency | count.
10 …注意制御システム
12 …コミュニケーションロボット
14 …コンピュータ
16 …床センサ
38 …衝突センサ
42 …超音波距離センサ
52 …全方位カメラ
54 …眼カメラ
64 …タッチセンサ
76 …CPU
80 …メモリ
82 …モータ制御ボード
84 …センサ入力/出力ボード
86 …音声入力/出力ボード
88−96 …モータ
98 …通信LANボード
100 …無線通信装置
DESCRIPTION OF
DESCRIPTION OF
Claims (12)
周囲に存在する人間の人数を検出する人数検出手段、
周囲に存在する所定人数以上の人間の注意を制御する集団注意制御手段、および
周囲に存在する前記所定人数未満の人間の注意を個別に制御する個人注意制御手段を備え、
前記人数検出手段の検出結果に基づいて集団注意制御手段または個人注意制御手段を選択的に実行し、
前記集団注意制御手段は、
周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する集団存在判断手段、
前記集団存在判断手段によって前記前方の第1所定角度外に前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を当該第1所定角度以内に移動させる第1コミュニケーション行動を実行する第1コミュニケーション行動実行手段、
前記集団存在判断手段によって前記制御対象のすべての人間が前記前方の第1所定角度以内に存在することが判断されたとき、水平面において、前記制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを前記制御対象のすべての人間について判断することにより、当該制御対象のすべての人間が自身の方を見ているか否かを判断する集団注目判断手段、および
前記集団注目判断手段によって自身の方を見ていない前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する第2コミュニケーション行動実行手段を含む、コミュニケーションロボット。 A communication robot that controls human attention by communicating with humans using at least one of body movement and voice,
Number detection means for detecting the number of human beings around,
A group attention control means for controlling the attention of more than a predetermined number of persons around, and an individual attention control means for individually controlling the attention of persons less than the number of persons around
Selectively executing group attention control means or individual attention control means based on the detection result of the number of persons detection means ,
The group attention control means includes
Group existence determination means for determining whether or not all human beings to be controlled exist within a first predetermined angle ahead;
When the group presence determination means determines that the person to be controlled exists outside the first predetermined angle ahead, the first communication moves all the persons to be controlled within the first predetermined angle. A first communication action execution means for executing an action;
When it is determined by the group presence determination means that all the persons to be controlled are present within the first predetermined angle in front, the human eye direction of the target to be controlled and the human being to be controlled in the horizontal plane Determining whether or not the angle formed by the straight line connecting the position of the eye and the position of the eye is equal to or smaller than a second predetermined angle, so that all the persons to be controlled have their own Group attention determination means for determining whether or not
When the group attention determination unit determines that there is a person to be controlled who is not looking at the second person, the second communication that executes the second communication action that causes all the persons to be controlled to pay attention to itself Communication robot including action execution means .
前記コミュニケーションロボットの周囲に存在する人間の人数を検出する人数検出手段を備え、
前記コミュニケーションロボットは、
周囲に存在する所定人数以上の人間の注意を制御する集団注意制御手段、および
周囲に存在する前記所定人数未満の人間の注意を個別に制御する個人注意制御手段を備え、
前記人数検出手段の検出結果に基づいて集団注意制御手段または個人注意制御手段を選択的に実行し、
前記集団注意制御手段は、
周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する集団存在判断手段、
前記集団存在判断手段によって前記前方の第1所定角度外に前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を当該第1所定角度以内に移動させる第1コミュニケーション行動を実行する第1コミュニケーション行動実行手段、
前記集団存在判断手段によって前記制御対象のすべての人間が前記前方の第1所定角度以内に存在することが判断されたとき、水平面において、前記制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを前記制御対象のすべての人間について判断することにより、当該制御対象のすべての人間が自身の方を見ているか否かを判断する集団注目判断手段、および
前記集団注目判断手段によって自身の方を見ていない前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する第2コミュニケーション行動実行手段を含む、注意制御システム。 An attention control system that controls human attention using a communication robot that performs communication with humans using at least one of body movement and voice,
Comprising number-of-people detection means for detecting the number of humans present around the communication robot;
The communication robot is
A group attention control means for controlling the attention of more than a predetermined number of persons around, and an individual attention control means for individually controlling the attention of persons less than the number of persons around
Selectively executing group attention control means or individual attention control means based on the detection result of the number of persons detection means ,
The group attention control means includes
Group existence determination means for determining whether or not all human beings to be controlled exist within a first predetermined angle ahead;
When the group presence determination means determines that the person to be controlled exists outside the first predetermined angle ahead, the first communication moves all the persons to be controlled within the first predetermined angle. A first communication action execution means for executing an action;
When it is determined by the group presence determination means that all the persons to be controlled are present within the first predetermined angle in front, the human eye direction of the target to be controlled and the human being to be controlled in the horizontal plane Determining whether or not the angle formed by the straight line connecting the position of the eye and the position of the eye is equal to or smaller than a second predetermined angle, so that all the persons to be controlled have their own Group attention determination means for determining whether or not
When the group attention determination unit determines that there is a person to be controlled who is not looking at the second person, the second communication that executes the second communication action that causes all the persons to be controlled to pay attention to itself Attention control system including action execution means .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005313470A JP4822319B2 (en) | 2005-10-27 | 2005-10-27 | Communication robot and attention control system using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005313470A JP4822319B2 (en) | 2005-10-27 | 2005-10-27 | Communication robot and attention control system using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007118129A JP2007118129A (en) | 2007-05-17 |
JP4822319B2 true JP4822319B2 (en) | 2011-11-24 |
Family
ID=38142519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005313470A Active JP4822319B2 (en) | 2005-10-27 | 2005-10-27 | Communication robot and attention control system using the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4822319B2 (en) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009166184A (en) * | 2008-01-17 | 2009-07-30 | Saitama Univ | Guide robot |
JP5157595B2 (en) * | 2008-04-01 | 2013-03-06 | トヨタ自動車株式会社 | Customer service system and customer service method |
JP5077077B2 (en) * | 2008-05-30 | 2012-11-21 | 富士通株式会社 | Movement explanation device and movement explanation program |
JP5336896B2 (en) * | 2009-03-24 | 2013-11-06 | 株式会社国際電気通信基礎技術研究所 | Objective behavior estimation apparatus and service providing system |
JP5751610B2 (en) * | 2010-09-30 | 2015-07-22 | 学校法人早稲田大学 | Conversation robot |
JP2012213828A (en) * | 2011-03-31 | 2012-11-08 | Fujitsu Ltd | Robot control device and program |
AU2012368731A1 (en) | 2012-02-03 | 2014-08-21 | Nec Corporation | Communication draw-in system, communication draw-in method, and communication draw-in program |
JP5439549B2 (en) * | 2012-07-09 | 2014-03-12 | 株式会社東芝 | Information processing apparatus, information processing system, service providing system, and information processing method |
JP5862585B2 (en) | 2013-03-22 | 2016-02-16 | トヨタ自動車株式会社 | Communication system and robot |
JP6142306B2 (en) * | 2013-09-27 | 2017-06-07 | 株式会社国際電気通信基礎技術研究所 | Robot control system, robot, output control program, and output control method |
JP5948359B2 (en) * | 2014-03-11 | 2016-07-06 | 本田技研工業株式会社 | Robot and robot control method |
JP6203696B2 (en) * | 2014-09-30 | 2017-09-27 | 富士ソフト株式会社 | robot |
JP6531867B2 (en) * | 2016-04-28 | 2019-06-19 | 富士通株式会社 | Communication control device, method and system |
GB2552981B (en) * | 2016-08-17 | 2020-04-01 | Univ Of Hertfordshire Higher Education Corporation | An Interactive Humanoid Robot using RFID Tagged Objects |
JP6893410B2 (en) * | 2016-11-28 | 2021-06-23 | 株式会社G−グロボット | Communication robot |
US11400601B2 (en) | 2017-01-19 | 2022-08-02 | Sharp Kabushiki Kaisha | Speech and behavior control device, robot, storage medium storing control program, and control method for speech and behavior control device |
JP6726145B2 (en) * | 2017-09-12 | 2020-07-22 | 株式会社日立ビルシステム | Elevator hall guidance system |
JP7174673B2 (en) * | 2019-06-17 | 2022-11-17 | 株式会社日立ビルシステム | Guide robot |
CN111273833B (en) * | 2020-03-25 | 2022-02-01 | 北京百度网讯科技有限公司 | Man-machine interaction control method, device and system and electronic equipment |
JP7530247B2 (en) | 2020-07-31 | 2024-08-07 | 日本信号株式会社 | robot |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2993867B2 (en) * | 1995-05-24 | 1999-12-27 | 中小企業事業団 | Robot system that responds variously from audience information |
JPH08318052A (en) * | 1995-05-24 | 1996-12-03 | Ricoh Elemex Corp | Robot system coping with reaction of unspecified many number of audience |
JPH10289006A (en) * | 1997-04-11 | 1998-10-27 | Yamaha Motor Co Ltd | Method for controlling object to be controlled using artificial emotion |
JP2002207924A (en) * | 2001-01-12 | 2002-07-26 | Maiteku:Kk | System, method, and device for advertisement sales, managing device, and storage medium |
JP2005131713A (en) * | 2003-10-28 | 2005-05-26 | Advanced Telecommunication Research Institute International | Communication robot |
JP4431757B2 (en) * | 2004-03-30 | 2010-03-17 | 株式会社国際電気通信基礎技術研究所 | Robot system |
JP4206052B2 (en) * | 2004-03-31 | 2009-01-07 | 本田技研工業株式会社 | Detection target detection system |
-
2005
- 2005-10-27 JP JP2005313470A patent/JP4822319B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2007118129A (en) | 2007-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4822319B2 (en) | Communication robot and attention control system using the same | |
JP5033994B2 (en) | Communication robot | |
JP5186723B2 (en) | Communication robot system and communication robot gaze control method | |
JP4639343B2 (en) | Robot remote control system | |
JP5366048B2 (en) | Information provision system | |
JP5070441B2 (en) | Robot remote control system | |
JP4386367B2 (en) | Communication robot improvement system | |
JP5318623B2 (en) | Remote control device and remote control program | |
JP4599522B2 (en) | Communication robot | |
JP2006247780A (en) | Communication robot | |
JP6134895B2 (en) | Robot control system, robot control program, and explanation robot | |
JP5145569B2 (en) | Object identification method and apparatus | |
JP2007160427A (en) | Robot control system | |
JP2007196300A (en) | Robot control system | |
JP4617428B2 (en) | Motion generation system | |
JP4565196B2 (en) | Communication robot | |
JP4399603B2 (en) | Communication robot | |
JP2005131713A (en) | Communication robot | |
JP2008080431A (en) | Robot system | |
JP2006205343A (en) | Communication robot system, and robot control device | |
JP2007130691A (en) | Communication robot | |
JP6142307B2 (en) | Attention target estimation system, robot and control program | |
JP2004042151A (en) | Communication robot | |
JP4793904B2 (en) | Communication robot system and communication robot | |
JP4779114B2 (en) | Communication robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080331 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110823 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110901 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4822319 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140916 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |