JP4822319B2 - Communication robot and attention control system using the same - Google Patents

Communication robot and attention control system using the same Download PDF

Info

Publication number
JP4822319B2
JP4822319B2 JP2005313470A JP2005313470A JP4822319B2 JP 4822319 B2 JP4822319 B2 JP 4822319B2 JP 2005313470 A JP2005313470 A JP 2005313470A JP 2005313470 A JP2005313470 A JP 2005313470A JP 4822319 B2 JP4822319 B2 JP 4822319B2
Authority
JP
Japan
Prior art keywords
attention
controlled
communication
person
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005313470A
Other languages
Japanese (ja)
Other versions
JP2007118129A (en
Inventor
昌裕 塩見
崇行 神田
智史 小泉
浩 石黒
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005313470A priority Critical patent/JP4822319B2/en
Publication of JP2007118129A publication Critical patent/JP2007118129A/en
Application granted granted Critical
Publication of JP4822319B2 publication Critical patent/JP4822319B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明はコミュニケーションロボットおよびそれを用いた注意制御システムに関し、特にたとえば、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動して人間の注意を制御する、コミュニケーションロボットおよびそれを用いた注意制御システムに関する。   The present invention relates to a communication robot and an attention control system using the communication robot, and more particularly, for example, a communication robot that controls human attention by performing communication with a human using at least one of body motion and voice. Related to the attention control system.

この種の従来のコミュニケーションロボットの一例が特許文献1に開示される。この特許文献1によれば、コミュニケーションロボットは、ロボット本体自身の視点から展示会場の状況、説明員および訪問者の状況等を観測し、観測した赤外線タグ等のID番号およびXY座標や映像データ、音声データおよび触覚データ等のインタラクションデータに時間情報等を付加して、データ取得サーバに送信する。また、ロボット本体によって、環境内の人間に対して、そのインタラクションデータに応じたコミュニケーション行動(案内や推薦等)が提示される。たとえば、ロボット本体は、或る展示物の方に指差し動作をしながら、「展示物も見るといいよ」と発話するなどの推薦を行う。つまり、対話相手の行動等の履歴に基づいて、当該対話相手の注意を制御(誘導)することができる。
特開2005−131713号
An example of this type of conventional communication robot is disclosed in Patent Document 1. According to this patent document 1, the communication robot observes the status of the exhibition hall, the status of the instructors and visitors from the viewpoint of the robot body itself, and the ID number and XY coordinates and video data of the observed infrared tag, Time information or the like is added to the interaction data such as voice data and tactile data, and transmitted to the data acquisition server. Further, the robot body presents communication behavior (guidance, recommendation, etc.) according to the interaction data to the person in the environment. For example, the robot body performs a pointing operation toward a certain exhibit and makes a recommendation such as saying “You should see the exhibit”. That is, it is possible to control (guide) the attention of the conversation partner based on the history of the behavior of the conversation partner.
JP 2005-131713 A

この背景技術では、対話相手が1人である場合には、その注意を制御することができる。したがって、対話相手が多数である場合には、各人に対して個別に注意を制御することとなり、多大な時間がかかってしまう。つまり、適切なコミュニケーション行動(注意制御)が行われているとは言えない。かかる場合には、対話相手を1つの集団と捉えて、コミュニケーション行動を行うべきである。   In this background art, when there is only one conversation partner, the attention can be controlled. Therefore, when there are a large number of conversation partners, attention is individually controlled for each person, which takes a lot of time. That is, it cannot be said that appropriate communication behavior (attention control) is performed. In such a case, the communication partner should be considered as one group and perform communication behavior.

それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットおよびそれを用いた注意制御システムを提供することである。   Therefore, a main object of the present invention is to provide a novel communication robot and an attention control system using the communication robot.

この発明の他の目的は、人数に応じて適切な注意制御を実行できる、コミュニケーションロボットおよびそれを用いた注意制御システムを提供することである。   Another object of the present invention is to provide a communication robot and an attention control system using the same that can execute appropriate attention control according to the number of people.

請求項1の発明は、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動して人間の注意を制御するコミュニケーションロボットである。このコミュニケーションロボットは、周囲に存在する人間の人数を検出する人数検出手段、周囲に存在する所定人数以上の人間の注意を制御する集団注意制御手段、および周囲に存在する所定人数未満の人間の注意を個別に制御する個人注意制御手段を備え、人数検出手段の検出結果に基づいて集団注意制御手段または個人注意制御手段を選択的に実行し、集団注意制御手段は、周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する集団存在判断手段、集団存在判断手段によって前方の第1所定角度外に制御対象の人間が存在することが判断されたとき、制御対象のすべての人間を当該第1所定角度以内に移動させる第1コミュニケーション行動を実行する第1コミュニケーション行動実行手段、集団存在判断手段によって制御対象のすべての人間が前方の第1所定角度以内に存在することが判断されたとき、水平面において、制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを制御対象のすべての人間について判断することにより、当該制御対象のすべての人間が自身の方を見ているか否かを判断する集団注目判断手段、および集団注目判断手段によって自身の方を見ていない制御対象の人間が存在することが判断されたとき、制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する第2コミュニケーション行動実行手段を含むThe invention according to claim 1 is a communication robot that controls human attention by performing communication behavior with a human using at least one of physical movement and voice. This communication robot includes a number detection means for detecting the number of human beings in the surrounding area, a group attention control means for controlling the attention of a predetermined number of human beings in the surrounding area, and the attention of a human being less than the predetermined number existing in the surrounding area. Personal attention control means for individually controlling the group attention control means or the group attention control means based on the detection result of the number detection means . It is determined by the group existence judging means for judging whether or not all human beings are within the first predetermined angle ahead, and the group existence judging means is that the person to be controlled exists outside the first predetermined angle ahead. A first communication action execution means for executing a first communication action for moving all persons to be controlled within the first predetermined angle; When it is determined by the presence determination means that all the persons to be controlled are present within the first predetermined angle ahead, the direction of the line of sight of the person to be controlled and the position of the eyes of the person to be controlled are Whether or not all of the control target humans are looking at themselves by judging whether or not the angle formed by the straight line connecting with their own position is equal to or less than the second predetermined angle. Group attention determination means for determining the second communication behavior, and when the group attention determination means determines that there is a control target person who does not look at himself / herself, the second communication action causes all control target persons to pay attention to themselves A second communication action executing means for executing

請求項1の発明では、このコミュニケーションロボット(12:実施例で相当する参照符号。以下、同じ。)は、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動して人間の注意を制御する。人数検出手段(76,S11)は、自身の周囲に存在する人間の人数を検出する。また、コミュニケーションロボット(12)は、集団注意制御手段(76,S15)および個人注意制御手段(76,S19)を備え、人数検出手段(76,S11)の検出結果に基づいていずれか一方を選択的に実行する。集団注意制御手段(76,S15)は、周囲に存在する所定人数以上の人間を1つの集団として注意制御する。また、個人注意制御手段(76,S19)は、周囲に存在する所定数未満の人間の注意を個別に制御する。たとえば、集団注意制御手段(76,S15)を実行すると、コミュニケーションロボット(12)は、すべての人間(全体)を見渡しながら、周囲に存在するすべての人間に話し掛けるように行動する。一方、個人注意制御手段(76,S19)を実行すると、コミュニケーションロボット(12)は、制御対象の人間を見て、個別に話し掛けるように行動する。集団注意制御手段(76,S15)は、集団存在判断手段(76,S33)、第1コミュニケーション行動実行手段(76,S35,S37,S39,S41)、集団注目判断手段および第2コミュニケーション行動実行手段(76,S49,S51,S53,S55)を含む。集団存在判断手段(76,S33)は、周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する。第1コミュニケーション行動実行手段(76,S35−S41)は、集団存在判断手段(76,S33)によって前方の第1所定角度外に制御対象の人間が存在することが判断されたとき、つまり制御対象の人間のうち、いずれか1人でも自身の前方の第1所定角度以内に存在しない場合には、制御対象のすべての人間を第1所定角度以内に移動させる第1コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、周囲を見渡しながら、自身の前に集まるように、集団(制御対象のすべての人間)に対して呼び掛ける。集団注目判断手段(76,S47)は、集団存在判断手段(S33)によって制御対象のすべての人間が自身の前方の第1所定角度以内に存在するとき、当該制御対象のすべての人間が自身の方を見ているか否かを判断する。ここでは、水平面において、制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを制御対象のすべての人間について判断することにより、制御対象のすべての人間がコミュニケーションロボット(12)に注目しているかどうかを判断するのである。第2コミュニケーション行動実行手段(76,S49−S55)は、集団注目判断手段(76,S47)によって自身の方を見ていない制御対象の人間が存在することが判断されたとき、つまり制御対象の人間のうち、いずれか1人でも自身に注目していない場合には、制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、周囲を見渡しながら、自身に注目するように、集団に対して呼び掛ける。 According to the first aspect of the present invention, this communication robot (12: reference numeral corresponding to the embodiment; the same applies hereinafter) acts to communicate with a human by using at least one of body movement and voice. To control. The number of persons detecting means (76, S11) detects the number of persons existing around the person. The communication robot (12) includes group attention control means (76, S15) and individual attention control means (76, S19), and selects either one based on the detection result of the number of persons detection means (76, S11). Run it. The group attention control means (76, S15) controls the attention of a predetermined number or more of people around as one group. Further, the personal attention control means (76, S19) individually controls the attentions of less than a predetermined number of people present in the surroundings. For example, when the group attention control means (76, S15) is executed, the communication robot (12) behaves so as to talk to all the humans present around while looking over all the humans (the whole). On the other hand, when the personal attention control means (76, S19) is executed, the communication robot (12) behaves so as to talk individually while looking at the person to be controlled. The group attention control means (76, S15) is a group presence determination means (76, S33), a first communication action execution means (76, S35, S37, S39, S41), a group attention determination means, and a second communication action execution means. (76, S49, S51, S53, S55). The group presence determination means (76, S33) determines whether or not all the persons to be controlled existing around are present within the first predetermined angle ahead. The first communication action execution means (76, S35-S41) is determined when the group existence determination means (76, S33) determines that the person to be controlled exists outside the first predetermined angle ahead, that is, the control object. If any one of the humans does not exist within the first predetermined angle in front of himself / herself, the first communication action is performed to move all the persons to be controlled within the first predetermined angle. For example, the communication robot (12) calls on a group (all persons to be controlled) to gather in front of itself while looking around. The group attention determination unit (76, S47) is configured such that when all the persons to be controlled are present within the first predetermined angle in front of the group presence determination unit (S33), all the persons to be controlled are Judge whether or not you are looking. Here, in the horizontal plane, whether or not the angle formed by the line-of-sight direction of the control target human and the straight line connecting the position of the human eye of the control target and the own position is equal to or less than the second predetermined angle is determined. In other words, it is determined whether or not all the persons to be controlled are paying attention to the communication robot (12). The second communication action execution means (76, S49-S55) is determined by the group attention determination means (76, S47) that there is a person to be controlled who is not looking at the person, that is, the control object. If any one of the humans is not paying attention to itself, the second communication action is executed to make all the controlled humans pay attention to themselves. For example, the communication robot (12) calls on the group to pay attention to itself while looking around.

請求項1の発明によれば、周囲に存在する人間の人数に応じて異なる注意制御を実行するので、適切な注意制御を実行することができる。
また、いずれか1人でも自身の前方の第1所定角度以内に存在しない場合には、制御対象のすべての人間を第1所定角度以内に移動させるコミュニケーション行動を実行するので、所定人数以上の集団を自身の前方へ移動させることができる。
さらに、いずれか1人でも自身に注目していない場合には、制御対象のすべての人間を自身に注目させるコミュニケーション行動を実行するので、所定人数以上の集団を自身に注目させることができる。
According to the first aspect of the present invention, different attention control is executed depending on the number of humans present in the surrounding area, so that appropriate attention control can be executed.
Further, if any one person does not exist within the first predetermined angle in front of himself / herself, a communication action is performed to move all persons to be controlled within the first predetermined angle. Can be moved forward.
Furthermore, when any one of them is not paying attention to himself / herself, a communication action that causes all persons to be controlled to pay attention to himself / herself is executed, so that a group of a predetermined number or more can be noted by himself / herself.

請求項の発明は請求項に従属し、集団注目判断手段は、第1コミュニケーション行動実行手段によって第1コミュニケーション行動が第1所定回数実行されたとき、集団存在判断手段の判断結果に拘わらず、制御対象のすべての人間が自身の方を見ているか否かを判断する。 The invention of claim 2 is dependent on claim 1 , and the group attention determination means is independent of the determination result of the group presence determination means when the first communication action is executed by the first communication action execution means for the first predetermined number of times. , It is determined whether all the persons to be controlled are looking at themselves.

請求項の発明では、集団注目判断手段(76,S47)は、第1コミュニケーション行動実行手段(76,S35−S39)によって第1コミュニケーション行動が第1所定回数実行されたとき(S45で“YES”)、集団存在判断手段(76,S33)の判断結果に拘わらず、制御対象のすべての人間が自身の方を見ているか否かを判断する。つまり、制御対象の人間が、第1コミュニケーション行動によるコミュニケーションロボット(12)の誘導に従わない場合、その誘導に従わない人間を無視することにより、第1コミュニケーションが半永久的に繰り返されてしまうのを回避してある。 In the invention of claim 2 , the group attention determining means (76, S47) is executed when the first communication action is executed for the first predetermined number of times by the first communication action executing means (76, S35-S39) ("YES" in S45). "), Regardless of the determination result of the group existence determination means (76, S33), it is determined whether or not all the persons to be controlled are looking at themselves. In other words, if the person to be controlled does not follow the guidance of the communication robot (12) by the first communication behavior, the first communication is semipermanently repeated by ignoring the person who does not follow the guidance. It has been avoided.

請求項の発明によれば、同じコミュニケーション行動が半永久的に繰り返されるのを回避するので、適切なコミュニケーション行動を実行することができる。 According to the invention of claim 2 , since the same communication behavior is avoided semi-permanently, appropriate communication behavior can be executed.

請求項の発明は請求項またはに従属し、集団注意制御手段は、集団注目判断手段によって制御対象のすべての人間が自身の方を見ていることが判断されたとき、当該制御対象のすべての人間との距離が一定範囲内であるか否かを判断する集団距離判断手段、および集団距離判断手段の判断結果に基づいて制御対象のすべての人間を一定範囲内に移動させる第3コミュニケーション行動を実行する第3コミュニケーション行動実行手段をさらに含む。 The invention of claim 3 is dependent on claim 1 or 2 , and the group attention control means determines that when the group attention determination means determines that all persons to be controlled are looking at itself, the control object Collective distance determining means for determining whether or not the distances to all humans are within a certain range, and a third method for moving all control target human beings within a certain range based on the determination result of the collective distance determining means It further includes third communication action execution means for executing the communication action.

請求項の発明では、集団注意制御手段(76,S15)は、集団距離判断手段(76,S61,S75)および第3コミュニケーション実行手段(76,S63,S65,S67,S69,S77,S79,S81,S83)を備える。集団距離判断手段(76,S61,S75)は、集団注目判断手段(76,S47)によって制御対象のすべての人間が自身の方を見ていることが判断されたとき、つまり制御対象のすべての人間が自身を注目しているとき、当該制御対象のすべての人間との距離が一定範囲内であるか否かを判断する。第3コミュニケーション行動実行手段(76,S63−S69,S77−S83)は、集団距離判断手段(76,S61,S75)の判断結果に基づいて制御対象のすべての人間を一定範囲内に移動させる第3コミュニケーション行動を実行する。たとえば、いずれか1人でも、コミュニケーションロボット(12)から遠すぎたり、近すぎたりすると、周囲を見渡しながら、制御対象のすべての人間に自身に近づくように呼び掛けたり、制御対象のすべての人間に自身から少し離れるように呼び掛けたりする。 In the invention of claim 3 , the group attention control means (76, S15) includes the group distance determination means (76, S61, S75) and the third communication execution means (76, S63, S65, S67, S69, S77, S79, S81, S83). The collective distance determining means (76, S61, S75) is determined when it is determined by the collective attention determining means (76, S47) that all the persons to be controlled are looking at themselves , that is, all of the controlled objects. When a human is paying attention to himself / herself, it is determined whether or not the distance between all the control target humans is within a certain range. The third communication action execution means (76, S63-S69, S77-S83) moves all persons to be controlled within a certain range based on the determination result of the collective distance determination means (76, S61, S75). 3 Perform communication behavior. For example, if any one person is too far from or too close to the communication robot (12), he / she calls all the people to be controlled to approach himself / herself while looking around the surroundings. Invite them to move away from themselves.

請求項の発明によれば、いずれか1人でも一定範囲内に存在しない場合には、制御対象のすべての人間を一定範囲内に移動させるコミュニケーション行動を実行するので、制御対象のすべての人間を一定範囲内に移動させることができる。 According to the invention of claim 3 , if any one person does not exist within a certain range, the communication action for moving all the persons to be controlled within the certain range is executed. Can be moved within a certain range.

請求項の発明は請求項に従属し、集団距離判断手段は、第2コミュニケーション行動実行手段によって第2コミュニケーション行動が第2所定回数実行されたとき、集団注目判断手段の判断結果に拘わらず、制御対象のすべての人間との距離が一定範囲内であるか否かを判断する。 The invention of claim 4 is dependent on claim 3 , and the group distance determination means is independent of the determination result of the group attention determination means when the second communication action is executed a second predetermined number of times by the second communication action execution means. Then, it is determined whether or not the distances between all persons to be controlled are within a certain range.

請求項の発明では、集団距離判断手段(76,S61,S75)は、第2コミュニケーション行動実行手段(76,S49−S55)によって第2コミュニケーション行動が第2所定回数実行されたとき(S59で“YES”)、集団注目判断手段(76,S47)の判断結果に拘わらず、制御対象のすべての人間との距離が一定範囲内であるか否かを判断する。つまり、制御対象の人間が、第2コミュニケーション行動によるコミュニケーションロボット(12)の誘導に従わない場合、その誘導に従わない人間を無視することにより、第2コミュニケーションが半永久的に繰り返されてしまうのを回避してある。 In the invention of claim 4 , the collective distance determining means (76, S61, S75) is executed when the second communication action is executed a second predetermined number of times by the second communication action executing means (76, S49-S55) (in S59). “YES”), regardless of the determination result of the group attention determination means (76, S47), it is determined whether or not the distances to all persons to be controlled are within a certain range. In other words, if the person to be controlled does not follow the guidance of the communication robot (12) by the second communication action, the second communication is semipermanently repeated by ignoring the person who does not follow the guidance. It has been avoided.

請求項の発明によれば、請求項の発明と同様に、適切なコミュニケーション行動を実行することができる。 According to the invention of claim 4, as in the invention of claim 2 , an appropriate communication action can be executed.

請求項の発明は請求項に従属し、集団注意制御手段は、第3コミュニケーション行動実行手段によって第3コミュニケーション行動が第3所定回数実行されたとき、制御対象のすべての人間についての注意の制御を終了する。 The invention of claim 5 is dependent on claim 3 , and the group attention control means is configured to issue a warning for all human beings to be controlled when the third communication action is executed a third predetermined number of times by the third communication action executing means. End control.

請求項の発明では、集団注意制御手段(76,S15)は、第3コミュニケーション行動実行手段(76,S63−S69,S77−S83)によって第3コミュニケーション行動が第3所定回数実行されたとき(S87で“YES”)、制御対象のすべての人間についての注意の制御を終了する。 In the invention of claim 5 , the group attention control means (76, S15) is executed when the third communication action is executed a third predetermined number of times by the third communication action executing means (76, S63-S69, S77-S83) ( In S87, “YES”), the control of attention for all the persons to be controlled is terminated.

請求項の発明においても、請求項の発明と同様に、適切なコミュニケーション行動を実行することができる。 In the invention of claim 5, as in the invention of claim 2 , an appropriate communication action can be executed.

請求項の発明は請求項1に従属し、個人注意制御手段は、周囲に存在する人間が前方の第3所定角度以内に存在するか否かを判断する個人存在判断手段、および個人存在判断手段によって制御対象の人間が前方の第3所定角度以内に存在しないことが判断されたとき、制御対象の人間を第3所定角度以内に移動させる第4コミュニケーション行動を実行する第4コミュニケーション行動実行手段を含む。 The invention of claim 6 is dependent on claim 1, and the personal attention control means is a personal presence determination means for determining whether or not a human being present is within a third predetermined angle ahead, and a personal presence determination. When the means determines that the person to be controlled does not exist within the third predetermined angle ahead, the fourth communication action executing means for executing the fourth communication action for moving the person to be controlled within the third predetermined angle. including.

請求項の発明では、個人注意制御手段(76,S19)は、個人存在判断手段(76,S103)および第4コミュニケーション行動実行手段(76,S105,S107)を含む。個人存在判断手段(76,S103)は、周囲に存在する人間が前方の第3所定角度以内に存在するか否かを判断する。つまり、注意制御すべき人間が自身の前方の第3所定角度以内に存在するかどうかを判断するのである。第4コミュニケーション行動実行手段(76,S105,S107)は、個人存在判断手段(76,S103)によって制御対象の人間が前方の第3所定角度以内に存在しないことが判断されたとき制御対象の人間を第3所定角度以内に移動させる第4コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、制御対象の人間の方を見て、自身の前方に移動するように呼び掛ける。 In the invention of claim 6 , the personal attention control means (76, S19) includes a personal presence determination means (76, S103) and a fourth communication action execution means (76, S105, S107). The individual presence determination means (76, S103) determines whether or not a person existing in the vicinity exists within a third predetermined angle ahead. That is, it is determined whether or not the person to be controlled is present within the third predetermined angle in front of him / her. Fourth Communication action executing means (76, S105, S107), when the controlled object by personal presence determining means (76, S103) humans the absence within a third predetermined angle in front is determined, the control target A fourth communication action that moves the person within a third predetermined angle is executed. For example, the communication robot (12) calls on the person to be controlled to move in front of the communication robot (12).

請求項の発明によれば、制御対象の人間が自身の前方の第3所定角度以内に存在しない場合には、当該制御対象の人間第3所定角度以内に移動させるコミュニケーション行動を実行するので、当該制御対象の人間を自身の前方へ移動させることができる。 According to the invention of claim 6 , when the person to be controlled does not exist within the third predetermined angle in front of itself, the communication action for moving the person to be controlled within the third predetermined angle is executed. The person to be controlled can be moved in front of himself / herself.

請求項の発明は請求項に従属し、個人注意制御手段は、個人存在判断手段によって制御対象の人間が前方の第3所定角度以内に存在することが判断されたとき、水平面において、当該制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第4所定角度以下かどうかを判断することにより、当該制御対象の人間が自身の方を見ているか否かを判断する個人注目判断手段、および個人注目判断手段によって制御対象の人間が自身の方を見ていないことが判断されたとき、当該制御対象の人間を自身に注目させる第5コミュニケーション行動を実行する第5コミュニケーション行動実行手段をさらに含む。 The invention of claim 7 is according to claim 6, personal care control means, when the controlled object by personal presence determination means humans to be present within a third predetermined angle in front is determined, in the horizontal plane, the By determining whether or not the angle formed by the line-of-sight direction of the control target human and the straight line connecting the position of the control target human eye and the own position is equal to or smaller than a fourth predetermined angle, the control target human Individual attention determination means for determining whether or not he / she is looking at himself / herself, and when it is determined by the personal attention determination means that the person being controlled is not looking at himself / herself, It further includes fifth communication action execution means for executing the fifth communication action to be noticed.

請求項の発明では、個人注意制御手段(76,S19)は、個人注目判断手段(76,S113)および第5コミュニケーション行動実行手段(76,S115,S117)をさらに含む。個人注目判断手段(76,S113)は、個人存在判断手段(76,S103)によって制御対象の人間が前方の第3所定角度以内に存在することが判断されたとき、水平面において、当該制御対象の人間の視線方向と、当該制御人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第4所定角度以下かどうかを判断することにより、当該制御対象の人間が自身の方を見ているか否かを判断する。つまり、制御対象の人間が自身に注目しているかどうかを判断するのである。第5コミュニケーション行動実行手段(76,S115,S117)は、個人注目判断手段(76,S113)によって制御対象の人間が自身の方を見ていないことが判断されたとき、当該制御対象の人間を自身に注目させる第5コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、制御対象の人間の方を見て、自身の方を見るように呼び掛ける。 In the invention of claim 7 , the personal attention control means (76, S19) further includes a personal attention determination means (76, S113) and a fifth communication action execution means (76, S115, S117). The personal attention determination means (76, S113) determines that the person to be controlled exists within the third predetermined angle ahead by the personal presence determination means (76, S103) . By determining whether or not the angle formed by the human gaze direction and the straight line connecting the position of the controlling human eye and its own position is equal to or smaller than a fourth predetermined angle, the control target human is looking at him. Judge whether or not. That is, it is determined whether or not the person to be controlled is paying attention to itself. The fifth communication action execution means (76, S115, S117), when the individual attention determination means (76, S113) determines that the person to be controlled is not looking at the person, controls the person to be controlled. Execute the fifth communication action that draws attention to itself. For example, the communication robot (12) calls on the person to be controlled to look at him / herself.

請求項の発明によれば、制御対象の人間が自身に注目していない場合には、当該制御対象の人間を自身に注目させるコミュニケーション行動を実行するので、当該制御対象の人間を自身に注目させることができる。 According to the invention of claim 7, when a person of the controlled object is not focused on itself, so to perform the communication behavior to attention human of the control object to itself, attention human of the control object to itself Can be made.

請求項の発明は請求項に従属し、個人注目判断手段は、第4コミュニケーション行動実行手段によって第4コミュニケーション行動が第4所定回数実行されたとき、個人存在判断手段の判断結果に拘わらず、制御対象の人間が自身の方を見ているか否かを判断する。 The invention according to claim 8 is dependent on claim 7 , and the individual attention determination means is independent of the determination result of the individual presence determination means when the fourth communication action is executed a fourth predetermined number of times by the fourth communication action execution means. Then, it is determined whether or not the person to be controlled is looking at himself / herself.

請求項の発明では、個人注目判断手段(76,S113)は、第4コミュニケーション行動実行手段(76,S105,S107)によって第4コミュニケーション行動が第4所定回数実行されたとき(S111で“YES”)、個人存在判断手段(S103)の判断結果に拘わらず、制御対象の人間が自身の方を見ているか否かを判断する。 In the invention of claim 8 , the individual attention determining means (76, S113) is executed when the fourth communication action is executed a fourth predetermined number of times by the fourth communication action executing means (76, S105, S107) ("YES" in S111). "), Regardless of the determination result of the individual presence determination means (S103), it is determined whether or not the person to be controlled is looking at himself / herself.

請求項の発明によれば、請求項の発明と同様に、適切なコミュニケーション行動を実行することができる。 According to the invention of claim 8, as in the invention of claim 2 , an appropriate communication action can be executed.

請求項の発明は請求項またはに従属し、個人注意制御手段は、個人注目判断手段によって制御対象の人間が自身の方を見ていることが判断されたとき、当該制御対象の人間との距離が一定範囲内であるか否かを判断する個人距離判断手段、および個人距離判断手段の判断結果に基づいて人間を一定範囲内に移動させる第6コミュニケーション行動を実行する第6コミュニケーション行動実行手段をさらに含む。 The invention of claim 9 is dependent on claim 7 or 8 , and the personal attention control means, when it is determined by the personal attention determination means that the person to be controlled is looking at the person to be controlled, Personal distance determining means for determining whether or not the distance to the distance is within a certain range, and sixth communication action for executing a sixth communication action for moving a person within a certain range based on the determination result of the personal distance determining means Execution means is further included.

請求項の発明では、個人注意制御手段(76,S19)は、個人距離判断手段(76,S123,S133)および第6コミュニケーション行動実行手段(76,S125,S127,S135,S137)をさらに含む。個人距離判断手段(76,S123,S133)は、個人注目判断手段(76,S113)によって制御対象の人間が自身の方を見ていることが判断されたとき、当該制御対象の人間との距離が一定範囲内であるか否かを判断する。つまり、制御対象の人間がコミュニケーションロボット(12)の位置から一定範囲内に存在するかどうかを判断するのである。第6コミュニケーション行動実行手段(76,S125,S127,S135,S137)は、個人距離判断手段(76,S123,S133)の判断結果に基づいて人間を一定範囲内に移動させる第6コミュニケーション行動を実行する。たとえば、制御対象の人間が、コミュニケーションロボット(12)から遠すぎたり、近すぎたりすると、当該制御対象の人間の方を見て、自身に近づくように呼び掛けたり、自身から少し離れるように呼び掛けたりする。 In the invention of claim 9 , the personal attention control means (76, S19) further includes a personal distance determination means (76, S123, S133) and a sixth communication action execution means (76, S125, S127, S135, S137). . The personal distance determination means (76, S123, S133) is a distance from the control target person when the individual attention determination means (76, S113) determines that the control target person is looking at the person. Is determined to be within a certain range. That is, it is determined whether the person to be controlled is within a certain range from the position of the communication robot (12). The sixth communication action execution means (76, S125, S127, S135, S137) executes the sixth communication action that moves the person within a certain range based on the determination result of the personal distance determination means (76, S123, S133). To do. For example, if the person to be controlled is too far or too close to the communication robot (12), he / she looks at the person to be controlled and calls to approach himself / herself or slightly away from himself / herself. To do.

請求項の発明によれば、制御対象の人間が一定範囲内に存在しない場合には、当該制御対象の人間を一定範囲内に移動させるコミュニケーション行動を実行するので、当該制御対象の人間を一定範囲内に移動させることができる。 According to the invention of claim 9, when a person of the controlled object does not exist in the predetermined range, so executes the communication behavior of moving human of the control object within a certain range, a constant human of the control object Can be moved within range.

請求項10の発明は請求項に従属し、個人距離判断手段は、第5コミュニケーション行動実行手段によって第5コミュニケーション行動が第5所定回数実行されたとき、個人注目判断手段の判断結果に拘わらず、制御対象の人間との距離が一定範囲内であるか否かを判断する。 The invention of claim 10 is dependent on claim 9 , and the personal distance determination means is independent of the determination result of the individual attention determination means when the fifth communication action is executed by the fifth communication action execution means for the fifth predetermined number of times. Then, it is determined whether or not the distance to the person to be controlled is within a certain range.

請求項10の発明では、個人距離判断手段(76,S123,S133)は、第5コミュニケーション行動実行手段(76,S115,S117)によって第5コミュニケーション行動が第5所定回数実行されたとき(S121で“YES”)、個人注目判断手段(76,S113)の判断結果に拘わらず、制御対象の人間との距離が一定範囲内であるか否かを判断する。 In the invention of claim 10 , the personal distance determining means (76, S123, S133) is executed when the fifth communication action is executed a fifth predetermined number of times by the fifth communication action executing means (76, S115, S117) (in S121). “YES”), regardless of the determination result of the individual attention determination means (76, S113), it is determined whether or not the distance to the control target person is within a certain range.

請求項10の発明においても、請求項の発明と同様に、適切なコミュニケーション行動を実行することができる。 In the invention of claim 10 as well, as in the invention of claim 2 , an appropriate communication action can be executed.

請求項11の発明は請求項に従属し、個人注意制御手段は、第6コミュニケーション行動実行手段によって第6コミュニケーション行動が第6所定回数実行されたとき、制御対象の人間についての注意の制御を終了する。 The invention of claim 11 depends on claim 9, personal care control means, when the sixth communication behavior is performed sixth predetermined number of times by the sixth communication action executing means, the control of attention for human control subjects finish.

請求項11の発明では、個人注意制御手段(76,S19)は、第6コミュニケーション行動実行手段(76,S125,S127,S135,S137)によって第6コミュニケーション行動が第6所定回数実行されたとき(S141で“YES”)、制御対象の人間についての注意の制御を終了する。 In the invention of claim 11 , the personal attention control means (76, S19) is executed when the sixth communication action is executed a sixth predetermined number of times by the sixth communication action execution means (76, S125, S127, S135, S137) ( In S141, “YES”), the control of attention for the control target person is terminated.

請求項11の発明においても、請求項の発明と同様に、適切なコミュニケーション行動を実行することができる。 In the invention of claim 11 as well, as in the invention of claim 2 , an appropriate communication action can be executed.

請求項12の発明は、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動するコミュニケーションロボットを用いて人間の注意を制御する注意制御システムである。注意制御システムは、コミュニケーションロボットの周囲に存在する人間の人数を検出する人数検出手段を備える。コミュニケーションロボットは、周囲に存在する所定人数以上の人間の注意を制御する集団注意制御手段、および周囲に存在する所定人数未満の人間の注意を個別に制御する個人注意制御手段を備え、人数検出手段の検出結果に基づいて集団注意制御手段または個人注意制御手段を選択的に実行し、集団注意制御手段は、周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する集団存在判断手段、集団存在判断手段によって前記前方の第1所定角度外に前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を当該第1所定角度以内に移動させる第1コミュニケーション行動を実行する第1コミュニケーション行動実行手段、集団存在判断手段によって前記制御対象のすべての人間が前記前方の第1所定角度以内に存在することが判断されたとき、水平面において、前記制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを前記制御対象のすべての人間について判断することにより、当該制御対象のすべての人間が自身の方を見ているか否かを判断する集団注目判断手段、および集団注目判断手段によって自身の方を見ていない前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する第2コミュニケーション行動実行手段を含む。 A twelfth aspect of the present invention is a caution control system that controls human attention using a communication robot that performs communication behavior with a human using at least one of body movement and voice. The attention control system includes a number detection means for detecting the number of people present around the communication robot. The communication robot is provided with group attention control means for controlling the attention of a person of a predetermined number or more existing in the surroundings, and individual attention control means for individually controlling the attention of a human being less than a predetermined number of persons in the surroundings, and the number detection means The group attention control means or the personal attention control means is selectively executed based on the detection result, and the group attention control means determines whether all the persons to be controlled around exist within the first predetermined angle in front. When it is determined by the group presence determination means and the group presence determination means that determine whether or not the control target person exists outside the first predetermined angle in front, all the control target persons are assigned to the first control object. The first communication action execution means for executing the first communication action to be moved within a predetermined angle and the group existence determination means all of the control objects. Is determined to be within the first predetermined angle in front of the person, the line of sight of the control target human eye and the position of the control target human eye and its own position are connected in a horizontal plane. Collective attention for determining whether or not all the persons to be controlled are looking at themselves by determining whether or not the angle formed by the straight line is equal to or smaller than a second predetermined angle for all the persons to be controlled. When the determination means and the group attention determination means determine that there is a person to be controlled who does not look at the person, the second communication action is executed to cause all the persons to be controlled to pay attention to themselves. 2nd communication action execution means is included.

請求項14の発明では、注意制御システム(10)は、コミュニケーションロボット(12)を用いて人間の注意を制御する。このコミュニケーションロボット(12)は、身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動する。人数検出手段(14,16,76,S11)は、コミュニケーションロボット(12)の周囲に存在する人間の人数を検出する。コミュニケーションロボット(12)は、集団注意制御手段(76,S15)および個人注意制御手段(76,S19)を備え、人数検出手段(14,16,76,S11)の検出結果に基づいていずれか一方を選択的に実行する。集団注意制御手段(76,S15)は、周囲に存在する所定人数以上の人間を1つの集団として注意制御する。また、個人注意制御手段(76,S19)は、周囲に存在する所定数未満の人間の注意を個別に制御する。たとえば、集団注意制御手段(76,S15)を実行すると、コミュニケーションロボット(12)は、制御対象のすべての人間(全体)を見渡しながら、周囲に存在するすべての人間に話し掛けるように行動する。一方、個人注意制御手段(76,S19)を実行すると、コミュニケーションロボット(12)は、制御対象の人間を見て、個別に話し掛けるように行動する。集団注意制御手段(76,S15)は、集団存在判断手段(76,S33)、第1コミュニケーション行動実行手段(76,S35,S37,S39,S41)、集団注目判断手段および第2コミュニケーション行動実行手段(76,S49,S51,S53,S55)を含む。集団存在判断手段(76,S33)は、周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する。第1コミュニケーション行動実行手段(76,S35−S41)は、集団存在判断手段(76,S33)によって前方の第1所定角度外に制御対象の人間が存在することが判断されたとき、つまり制御対象の人間のうち、いずれか1人でも自身の前方の第1所定角度以内に存在しない場合には、制御対象のすべての人間を第1所定角度以内に移動させる第1コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、周囲を見渡しながら、自身の前に集まるように、集団(制御対象のすべての人間)に対して呼び掛ける。集団注目判断手段(76,S47)は、集団存在判断手段(S33)によって制御対象のすべての人間が自身の前方の第1所定角度以内に存在するとき、当該制御対象のすべての人間が自身の方を見ているか否かを判断する。ここでは、水平面において、制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを制御対象のすべての人間について判断することにより、制御対象のすべての人間がコミュニケーションロボット(12)に注目しているかどうかを判断するのである。第2コミュニケーション行動実行手段(76,S49−S55)は、集団注目判断手段(76,S47)によって自身の方を見ていない制御対象の人間が存在することが判断されたとき、つまり制御対象の人間のうち、いずれか1人でも自身に注目していない場合には、制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する。たとえば、コミュニケーションロボット(12)は、周囲を見渡しながら、自身に注目するように、集団に対して呼び掛ける。 In the invention of claim 14, the attention control system (10) controls human attention using the communication robot (12). The communication robot (12) performs communication behavior with a human by using at least one of body movement and voice. The number of persons detecting means (14, 16, 76, S11) detects the number of persons existing around the communication robot (12). The communication robot (12) includes group attention control means (76, S15) and individual attention control means (76, S19), and one of them is based on the detection result of the number of persons detection means (14, 16, 76, S11). Is selectively executed. The group attention control means (76, S15) controls the attention of a predetermined number or more of people around as one group. Further, the personal attention control means (76, S19) individually controls the attentions of less than a predetermined number of people present in the surroundings. For example, when the group attention control means (76, S15) is executed, the communication robot (12) behaves so as to talk to all the humans present around while looking over all the humans (the whole) to be controlled. On the other hand, when the personal attention control means (76, S19) is executed, the communication robot (12) behaves so as to talk individually while looking at the person to be controlled. The group attention control means (76, S15) is a group presence determination means (76, S33), a first communication action execution means (76, S35, S37, S39, S41), a group attention determination means, and a second communication action execution means. (76, S49, S51, S53, S55). The group presence determination means (76, S33) determines whether or not all the persons to be controlled existing around are present within the first predetermined angle ahead. The first communication action execution means (76, S35-S41) is determined when the group existence determination means (76, S33) determines that the person to be controlled exists outside the first predetermined angle ahead, that is, the control object. If any one of the humans does not exist within the first predetermined angle in front of himself / herself, the first communication action is performed to move all the persons to be controlled within the first predetermined angle. For example, the communication robot (12) calls on a group (all persons to be controlled) to gather in front of itself while looking around. The group attention determination unit (76, S47) is configured such that when all the persons to be controlled are present within the first predetermined angle in front of the group presence determination unit (S33), all the persons to be controlled are Judge whether or not you are looking. Here, in the horizontal plane, whether or not the angle formed by the line-of-sight direction of the control target human and the straight line connecting the position of the human eye of the control target and the own position is equal to or less than the second predetermined angle is determined. In other words, it is determined whether or not all the persons to be controlled are paying attention to the communication robot (12). The second communication action execution means (76, S49-S55) is determined by the group attention determination means (76, S47) that there is a person to be controlled who is not looking at the person, that is, the control object. If any one of the humans is not paying attention to itself, the second communication action is executed to make all the controlled humans pay attention to themselves. For example, the communication robot (12) calls on the group to pay attention to itself while looking around.

請求項12の発明においても、請求項1の発明と同様に、適切な注意制御を実行することができる。 Also in the twelfth aspect of the invention, similar to the first aspect of the invention, appropriate attention control can be executed.

この発明によれば、周囲に存在する人間の人数に応じて異なる注意制御を選択的に実行するので、適切な注意制御を実行することができる。   According to the present invention, different attention control is selectively executed depending on the number of humans present in the surrounding area, so that appropriate attention control can be executed.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例の注意制御システム(以下、単に「システム」という。)10は、コミュニケーションロボット(以下、単に「ロボット」という。)12を備える。ロボット12は、人間との間で、身振り手振りのような身体動作ないし行動(以下、「コミュニケーション行動」ということがある。)を取ることができる。ただし、コミュニケーション行動としては、ロボット12と人間との間における会話(発話)が含まれる場合もある。   Referring to FIG. 1, an attention control system (hereinafter simply referred to as “system”) 10 of this embodiment includes a communication robot (hereinafter simply referred to as “robot”) 12. The robot 12 can take a body motion or action (hereinafter sometimes referred to as “communication action”) such as gestures with a human. However, the communication behavior may include a conversation (utterance) between the robot 12 and a human.

また、システム10はPC或いはワークステーションのような汎用のコンピュータ14を含み、このコンピュータ14は図示しない無線LANのようなネットワークを介して、ロボット12に通信可能に接続される。ただし、後述するように、コンピュータ14からロボット12に座標信号を送信するだけなので、ネットワークを介さずに、直接的に信号を送信するようにしてもよい。かかる場合には、コンピュータ14は、たとえば、Bluetooth(登録商標)のような近距離無線によって座標信号を送信することができる。   The system 10 includes a general-purpose computer 14 such as a PC or a workstation, and the computer 14 is communicably connected to the robot 12 via a network such as a wireless LAN (not shown). However, as will be described later, since the coordinate signal is only transmitted from the computer 14 to the robot 12, the signal may be directly transmitted without going through the network. In such a case, the computer 14 can transmit the coordinate signal by short-range radio such as Bluetooth (registered trademark).

さらに、システム10は床センサ16を含み、この床センサ16がコンピュータ14に接続される。図示は省略するが、床センサ(床圧力センサ)16は多数の検出素子(感圧センサ)を含み、この多数の検出素子はシステム10が適用される部屋ないし会場の床に埋め込まれる(敷き詰められる)。この実施例では、床センサ16は、ロボット12や人間が部屋ないし会場に存在するとき、その圧力による信号(検出信号)をコンピュータ14に出力する。コンピュータ14は、検出信号に基づいて2次元座標を検出し、検出した2次元座標の信号(座標信号)をロボット12に送信する。この座標信号によって、ロボット12は、自身の周囲に人間が存在するか否かを知ることができ、さらに、人間が存在する場合にはその人数および各人間との距離を知ることができる。   In addition, the system 10 includes a floor sensor 16 that is connected to the computer 14. Although not shown, the floor sensor (floor pressure sensor) 16 includes a large number of detection elements (pressure-sensitive sensors), and the large number of detection elements are embedded (laid down) on the floor of a room or venue to which the system 10 is applied. ). In this embodiment, the floor sensor 16 outputs a signal (detection signal) based on the pressure to the computer 14 when the robot 12 or a person is present in a room or a venue. The computer 14 detects a two-dimensional coordinate based on the detection signal, and transmits a signal (coordinate signal) of the detected two-dimensional coordinate to the robot 12. From this coordinate signal, the robot 12 can know whether or not a human is present around the robot, and can further know the number of people and the distance from each human if a human is present.

なお、ロボット12は、このシステム10が適用される会場等のマップデータ(2次元データ)を内部メモリ(メモリ80:図3参照)に記憶している。そして、ロボット12は、任意に設定された原点位置を基準として、マップデータを参照して、会場内を移動する。ただし、ロボット12が参照するマップデータの座標系と、コンピュータ14で算出される2次元座標の座標系とは同じに設定される。   Note that the robot 12 stores map data (two-dimensional data) such as a venue to which the system 10 is applied in an internal memory (memory 80: see FIG. 3). Then, the robot 12 moves in the venue with reference to the map data with reference to the arbitrarily set origin position. However, the coordinate system of map data referred to by the robot 12 and the coordinate system of two-dimensional coordinates calculated by the computer 14 are set to be the same.

また、詳細な説明は省略するが、この実施例では、ロボット12の周囲には、立った状態で人間が存在することを前提とするため、コンピュータ14は、床センサ16からの出力に基づいて、2本の足の中点についての座標を人間の座標として算出するようにしてある。また、コンピュータ14は、2つの車輪34(図2参照)の中点についての座標をロボット12の位置座標として算出する。   Although detailed description is omitted, in this embodiment, since it is assumed that a human is present around the robot 12, the computer 14 is based on the output from the floor sensor 16. The coordinates about the midpoint of the two legs are calculated as human coordinates. Further, the computer 14 calculates the coordinates about the midpoint of the two wheels 34 (see FIG. 2) as the position coordinates of the robot 12.

ロボット12は、人間のような身体を有し、その身体を用いてコミュニケーションのために必要な複雑な身体動作を生成する。具体的には、図2を参照して、ロボット12は台車32を含み、この台車32の下面には、このロボット12を自律移動させる車輪34が設けられる。この車輪34は、車輪モータ(ロボット12の内部構成を示す図3において参照番号「36」で示す。)によって駆動され、台車32すなわちロボット12を前後左右任意の方向に動かすことができる。   The robot 12 has a human-like body and generates complex body movements necessary for communication using the body. Specifically, referring to FIG. 2, the robot 12 includes a carriage 32, and wheels 34 for autonomously moving the robot 12 are provided on the lower surface of the carriage 32. The wheel 34 is driven by a wheel motor (indicated by reference numeral “36” in FIG. 3 showing the internal configuration of the robot 12), and the carriage 32, that is, the robot 12 can be moved in any direction.

なお、図2では示さないが、この台車32の前面には、衝突センサ(図3において参照番号「38」で示す。)が取り付けられ、この衝突センサ38は、台車32への人や他の障害物の接触を検知する。そして、ロボット12の移動中に障害物との接触を検知すると、直ちに車輪34の駆動を停止してロボット12の移動を急停止させる。   Although not shown in FIG. 2, a collision sensor (indicated by reference numeral “38” in FIG. 3) is attached to the front surface of the carriage 32, and the collision sensor 38 is connected to a person or other person to the carriage 32. Detect obstacle contact. When contact with an obstacle is detected during the movement of the robot 12, the driving of the wheels 34 is immediately stopped and the movement of the robot 12 is suddenly stopped.

また、ロボット12の背の高さは、この実施例では、人、特に子供に威圧感を与えることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。   In this embodiment, the height of the robot 12 is about 100 cm so as not to intimidate people, particularly children. However, this height can be arbitrarily changed.

台車32の上には、多角形柱のセンサ取付パネル40が設けられ、このセンサ取付パネル40の各面には、超音波距離センサ42が取り付けられる。この超音波距離センサ42は、取付パネル40すなわちロボット12の周囲の主として人との間の距離を計測するものである。   A polygonal column sensor mounting panel 40 is provided on the carriage 32, and an ultrasonic distance sensor 42 is mounted on each surface of the sensor mounting panel 40. The ultrasonic distance sensor 42 measures the distance between the mounting panel 40, that is, the person around the robot 12 mainly.

台車32の上には、さらに、ロボット12の胴体が、その下部が上述の取付パネル40に囲まれて、直立するように取り付けられる。この胴体は下部胴体44と上部胴体46とから構成され、これら下部胴体44および上部胴体46は、連結部48によって連結される。連結部48には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体46の高さすなわちロボット12の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図3において参照番号「50」で示す。)によって駆動される。上で述べたロボット12の身長100cmは、上部胴体46をそれの最下位置にしたときの値である。したがって、ロボット12の身長は100cm以上にすることができる。   Further, the body of the robot 12 is mounted on the carriage 32 so that the lower portion thereof is surrounded by the mounting panel 40 described above and stands upright. The body is composed of a lower body 44 and an upper body 46, and the lower body 44 and the upper body 46 are connected by a connecting portion 48. Although not shown, the connecting portion 48 has a built-in lifting mechanism, and the height of the upper body 46, that is, the height of the robot 12 can be changed by using the lifting mechanism. As will be described later, the elevating mechanism is driven by a waist motor (indicated by reference numeral “50” in FIG. 3). The height 100 cm of the robot 12 described above is a value when the upper body 46 is at its lowest position. Therefore, the height of the robot 12 can be 100 cm or more.

上部胴体46のほぼ中央には、1つの全方位カメラ52と、1つのマイク16とが設けられる。全方位カメラ52は、ロボット12の周囲を撮影するもので、後述の眼カメラ54と区別される。マイク16は、周囲の音、とりわけ人の声を取り込む。   One omnidirectional camera 52 and one microphone 16 are provided in the approximate center of the upper body 46. The omnidirectional camera 52 photographs the surroundings of the robot 12 and is distinguished from an eye camera 54 described later. The microphone 16 captures ambient sounds, particularly human voice.

上部胴体46の両肩には、それぞれ、肩関節56Rおよび56Lによって、上腕58Rおよび58Lが取り付けられる。肩関節56Rおよび56Lは、それぞれ3軸の自由度を有する。すなわち、右肩関節56Rは、X軸,Y軸およびZ軸の各軸廻りにおいて上腕58Rの角度を制御できる。Y軸は、上腕58Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。左肩関節56Lは、A軸,B軸およびC軸の各軸廻りにおいて上腕58Lの角度を制御できる。B軸は、上腕58Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。   Upper arms 58R and 58L are attached to both shoulders of the upper body 46 by shoulder joints 56R and 56L, respectively. The shoulder joints 56R and 56L each have three degrees of freedom. That is, the right shoulder joint 56R can control the angle of the upper arm 58R around each of the X, Y, and Z axes. The Y axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 58R, and the X axis and the Z axis are axes orthogonal to the Y axis from different directions. The left shoulder joint 56L can control the angle of the upper arm 58L around each of the A, B, and C axes. The B axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 58L, and the A axis and the C axis are axes orthogonal to the B axis from different directions.

上腕58Rおよび58Lのそれぞれの先端には、肘関節60Rおよび60Lを介して、前腕62Rおよび62Lが取り付けられる。肘関節60Rおよび60Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕62Rおよび62Lの角度を制御できる。   Forearms 62R and 62L are attached to the respective distal ends of upper arms 58R and 58L via elbow joints 60R and 60L. The elbow joints 60R and 60L can control the angles of the forearms 62R and 62L around the W axis and the D axis, respectively.

なお、上腕58Rおよび58Lならびに前腕62Rおよび62L(いずれも図2)の変位を制御するX,Y,Z,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕58Rおよび58Lならびに前腕62Rおよび62Lは下方向に向けられる。   In the X, Y, Z, W axes and the A, B, C, D axes that control the displacement of the upper arms 58R and 58L and the forearms 62R and 62L (FIG. 2), “0 degree” is the home position. In this home position, the upper arms 58R and 58L and the forearms 62R and 62L are directed downward.

また、図2では示さないが、上部胴体46の肩関節56Rおよび56Lを含む肩の部分や上述の上腕58Rおよび58Lならびに前腕62Rおよび62Lを含む腕の部分には、それぞれ、タッチセンサ(図3において参照番号64で包括的に示す。)が設けられていて、これらのタッチセンサ64は、人がロボット12のこれらの部位に接触したかどうかを検知する。   Although not shown in FIG. 2, a touch sensor (FIG. 3) is provided on the shoulder portion including the shoulder joints 56R and 56L of the upper body 46 and the arm portion including the upper arms 58R and 58L and the forearms 62R and 62L. The touch sensor 64 detects whether or not a person has touched these parts of the robot 12.

前腕62Rおよび62Lのそれぞれの先端には、手に相当する球体66Rおよび66Lがそれぞれ固定的に取り付けられる。なお、この球体66Rおよび66Lに代えて、この実施例のロボット12と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。   Spheres 66R and 66L corresponding to hands are fixedly attached to the tips of the forearms 62R and 62L, respectively. In place of the spheres 66R and 66L, a “hand” in the shape of a human hand can be used when a finger function is required unlike the robot 12 of this embodiment.

上部胴体46の中央上方には、首関節68を介して、頭部70が取り付けられる。この首関節68は、3軸の自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部70には、人の口に相当する位置に、スピーカ72が設けられる。スピーカ72は、ロボット12が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。ただし、スピーカ72は、ロボット12の他の部位たとえば胴体に設けられてもよい。   A head 70 is attached to an upper center of the upper body 46 via a neck joint 68. The neck joint 68 has three degrees of freedom and can be controlled in angle around each of the S, T, and U axes. The S-axis is an axis that goes directly from the neck, and the T-axis and the U-axis are axes that are orthogonal to the S-axis in different directions. The head 70 is provided with a speaker 72 at a position corresponding to a human mouth. The speaker 72 is used for the robot 12 to communicate with a person around it by voice or voice. However, the speaker 72 may be provided in another part of the robot 12, for example, the trunk.

また、頭部70には、目に相当する位置に眼球部74Rおよび74Lが設けられる。眼球部74Rおよび74Lは、それぞれ眼カメラ54Rおよび54Lを含む。なお、右の眼球部74Rおよび左の眼球部74Lをまとめて眼球部74といい、右の眼カメラ54Rおよび左の眼カメラ54Lをまとめて眼カメラ54ということもある。眼カメラ54は、ロボット12に接近した人の顔や他の部分ないし物体等を撮影してその映像信号を取り込む。   The head 70 is provided with eyeball portions 74R and 74L at positions corresponding to the eyes. Eyeball portions 74R and 74L include eye cameras 54R and 54L, respectively. The right eyeball portion 74R and the left eyeball portion 74L may be collectively referred to as an eyeball portion 74, and the right eye camera 54R and the left eye camera 54L may be collectively referred to as an eye camera 54. The eye camera 54 captures the video signal by photographing the face of the person approaching the robot 12 and other parts or objects.

なお、上述の全方位カメラ52および眼カメラ54のいずれも、たとえばCCDやCMOSのような固体撮像素子を用いるカメラであってよい。   Note that each of the omnidirectional camera 52 and the eye camera 54 described above may be a camera using a solid-state imaging device such as a CCD or a CMOS.

たとえば、眼カメラ54は眼球部74内に固定され、眼球部74は眼球支持部(図示せず)を介して頭部70内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部70に対して設定される軸であり、α軸は頭部70の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部70の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部70がホームポジションにあるとき、α軸はS軸に平行し、β軸はU軸に平行するように設定されている。このような頭部70において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部74ないし眼カメラ54の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。   For example, the eye camera 54 is fixed in the eyeball part 74, and the eyeball part 74 is attached to a predetermined position in the head 70 via an eyeball support part (not shown). The eyeball support unit has two degrees of freedom and can be controlled in angle around each of the α axis and the β axis. The α axis and the β axis are axes set with respect to the head 70, the α axis is an axis in a direction toward the top of the head 70, the β axis is orthogonal to the α axis and the front side of the head 70 It is an axis in a direction orthogonal to the direction in which (face) faces. In this embodiment, when the head 70 is at the home position, the α axis is set to be parallel to the S axis and the β axis is set to be parallel to the U axis. In such a head 70, when the eyeball support portion is rotated around each of the α axis and the β axis, the tip (front) side of the eyeball portion 74 or the eye camera 54 is displaced, and the camera axis, that is, the line-of-sight direction is changed. Moved.

なお、眼カメラ54の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ54のカメラ軸は頭部70の正面側(顔)が向く方向に向けられ、視線は正視状態となる。   In the α axis and β axis that control the displacement of the eye camera 54, “0 degree” is the home position. At this home position, the camera axis of the eye camera 54 is the head 70 as shown in FIG. The direction of the front side (face) is directed, and the line of sight is in the normal viewing state.

図3には、ロボット12の内部構成を示すブロック図が示される。この図3に示すように、ロボット12は、全体の制御のためにマイクロコンピュータまたはCPU76を含み、このCPU76には、バス78を通して、メモリ80,モータ制御ボード82,センサ入力/出力ボード84および音声入力/出力ボード86が接続される。   FIG. 3 is a block diagram showing the internal configuration of the robot 12. As shown in FIG. 3, the robot 12 includes a microcomputer or a CPU 76 for overall control. The CPU 76 is connected to a memory 80, a motor control board 82, a sensor input / output board 84, and a voice through a bus 78. An input / output board 86 is connected.

メモリ80は、図示しないが、ROMやHDD、RAM等を含み、ROMまたはHDDにはこのロボット12の制御プログラムおよびデータ等が予め格納されている。CPU76は、このプログラムに従って処理を実行する。具体的には、ロボット12の身体動作を制御するための複数のプログラム(行動モジュールと呼ばれる。)が記憶される。たとえば、行動モジュールが示す身体動作としては、「握手」、「抱っこ」、「万歳」…などがある。行動モジュールが示す身体動作が「握手」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、右手を前に差し出す。また、行動モジュールが示す身体動作が「抱っこ」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、両手を前に差し出す。さらに、行動モジュールが示す身体動作が「万歳」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、両手を数回(たとえば、2回)上下させる。また、RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。   Although not shown, the memory 80 includes a ROM, an HDD, a RAM, and the like, and the control program and data for the robot 12 are stored in the ROM or the HDD in advance. The CPU 76 executes processing according to this program. Specifically, a plurality of programs (referred to as action modules) for controlling the body movement of the robot 12 are stored. For example, the body motions indicated by the behavior module include “handshake”, “cuckling”, “many years”, and so on. When the body motion indicated by the behavior module is “handshake”, when the behavior module is executed, the robot 12 presents the right hand forward, for example. Further, when the body motion indicated by the behavior module is “cuddle”, when the behavior module is executed, the robot 12 presents both hands forward, for example. Further, when the body motion indicated by the behavior module is “many years”, when the behavior module is executed, the robot 12 raises and lowers both hands several times (for example, twice), for example. The RAM can be used as a working memory as well as a temporary storage memory.

モータ制御ボード82は、たとえばDSP(Digital Signal Processor)で構成され、右腕、左腕、頭および眼等の身体部位を駆動するためのモータを制御する。すなわち、モータ制御ボード82は、CPU76からの制御データを受け、右肩関節56RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節60Rの軸Wの角度を制御する1つのモータを含む計4つのモータ(図3ではまとめて、「右腕モータ」として示す。)88の回転角度を調節する。また、モータ制御ボード82は、左肩関節56LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節60LのD軸の角度を制御する1つのモータとを含む計4つのモータ(図3ではまとめて、「左腕モータ」として示す。)90の回転角度を調節する。モータ制御ボード82は、また、首関節68のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図3ではまとめて、「頭部モータ」として示す。)92の回転角度を調節する。モータ制御ボード82は、また、腰モータ50、および車輪34を駆動する2つのモータ(図3ではまとめて、「車輪モータ」として示す。)36を制御する。さらに、モータ制御ボード82は、右眼球部74Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3ではまとめて、「右眼球モータ」として示す。)94の回転角度を調節し、また、左眼球部74Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3ではまとめて、「左眼球モータ」として示す。)96の回転角度を調節する。   The motor control board 82 is composed of, for example, a DSP (Digital Signal Processor) and controls a motor for driving body parts such as the right arm, the left arm, the head, and the eyes. That is, the motor control board 82 receives control data from the CPU 76, and controls the angles of the three motors for controlling the X, Y, and Z axes of the right shoulder joint 56R and the axis W of the right elbow joint 60R. The rotation angle of a total of four motors including one motor (collectively shown as “right arm motor” in FIG. 3) 88 is adjusted. The motor control board 82 includes a total of four motors including three motors that control the angles of the A, B, and C axes of the left shoulder joint 56L and one motor that controls the angle of the D axis of the left elbow joint 60L. The rotation angle of the motor (collectively shown as “left arm motor” in FIG. 3) 90 is adjusted. The motor control board 82 also adjusts the rotation angle of three motors 92 (collectively shown as “head motors” in FIG. 3) that control the angles of the S, T, and U axes of the neck joint 68. To do. The motor control board 82 also controls the waist motor 50 and the two motors 36 that drive the wheels 34 (collectively shown as “wheel motors” in FIG. 3). Further, the motor control board 82 adjusts the rotation angle of two motors 94 (collectively shown as “right eyeball motor” in FIG. 3) that control the angles of the α axis and β axis of the right eyeball portion 74R. In addition, the rotation angles of two motors 96 that collectively control the angles of the α axis and β axis of the left eyeball portion 74L (collectively shown as “left eyeball motor” in FIG. 3) 96 are adjusted.

なお、この実施例の上述のモータは、車輪モータ36を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ36と同様に、直流モータであってよい。   The above-described motors of this embodiment are stepping motors or pulse motors for simplifying the control except for the wheel motors 36, but may be direct-current motors as with the wheel motors 36.

センサ入力/出力ボード84も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU76に与える。すなわち、超音波距離センサ42の各々からの反射時間に関するデータがこのセンサ入力/出力ボード84を通して、CPU76に入力される。また、全方位カメラ52からの映像信号が、必要に応じてこのセンサ入力/出力ボード84で所定の処理が施された後、CPU76に入力される。眼カメラ54からの映像信号も、同様にして、CPU76に与えられる。また、タッチセンサ64からの信号がセンサ入力/出力ボード84を介してCPU76に与えられる。   Similarly, the sensor input / output board 84 is also constituted by a DSP, and takes in signals from each sensor and camera and gives them to the CPU 76. That is, data relating to the reflection time from each of the ultrasonic distance sensors 42 is input to the CPU 76 through the sensor input / output board 84. The video signal from the omnidirectional camera 52 is input to the CPU 76 after being subjected to predetermined processing by the sensor input / output board 84 as necessary. Similarly, the video signal from the eye camera 54 is also supplied to the CPU 76. Further, a signal from the touch sensor 64 is given to the CPU 76 via the sensor input / output board 84.

スピーカ72には音声入力/出力ボード86を介して、CPU76から、合成音声データが与えられ、それに応じて、スピーカ72からはそのデータに従った音声または声が出力される。また、マイク24からの音声入力が、音声入力/出力ボード86を介してCPU76に取り込まれる。   Synthetic voice data is given to the speaker 72 from the CPU 76 via the voice input / output board 86, and accordingly, voice or voice according to the data is outputted from the speaker 72. Further, the voice input from the microphone 24 is taken into the CPU 76 via the voice input / output board 86.

また、CPU76には、バス78を通して、通信LANボード98が接続される。この通信LANボード98も、同様に、DSPで構成され、CPU76から与えられた送信データを無線通信装置100に与え、無線通信装置100から送信データを送信させる。また、通信LANボード98は無線通信装置100を介してデータを受信し、受信データをCPU76に与える。   Further, a communication LAN board 98 is connected to the CPU 76 through the bus 78. Similarly, the communication LAN board 98 is also configured by a DSP, and sends the transmission data given from the CPU 76 to the wireless communication apparatus 100 and causes the wireless communication apparatus 100 to transmit the transmission data. The communication LAN board 98 receives data via the wireless communication device 100 and provides the received data to the CPU 76.

たとえば、ロボット12は、或る会場の展示物を説明したり、或る会場の道案内をしたりするなどのサービスを提供する。図4は、ロボット12が或る展示物OBを複数の人間(ここでは、3人の人間A,B,C)に説明している様子を示す。   For example, the robot 12 provides a service such as explaining an exhibit at a certain venue or providing route guidance for a certain venue. FIG. 4 shows a state in which the robot 12 explains a certain exhibit OB to a plurality of people (here, three people A, B, and C).

このようなサービスを提供するロボット12では、少数の人間(たとえば、1〜2人程度)に対しては、個別に注意を制御(以下、「個人注意制御」という。)し、多数の人間(たとえば、3人以上)に対しては、多数の人間を1つの集団と考えて、当該集団の注意を制御(以下、「集団注意制御」という。)して、展示物OBやロボット12に注目させる。このように、人間の数に応じた注意制御を実行するので、自然な注意制御が可能である。これは、たとえば、個人注意制御のみを行う場合には、30人の人間であっても、個別に注意を制御することとなり、注意制御に多大な時間がかかってしまうためである。また、たとえば、集団注意制御のみを行う場合には、人間が1人であっても、1つの集団として注意を制御することとなり、注意を制御される人間に、違和感を与えてしまったり、親しみを感じさせられなかったりする恐れがあるためでもある。   In the robot 12 that provides such a service, attention is individually controlled (hereinafter referred to as “individual attention control”) for a small number of persons (for example, about 1 to 2 persons), and a large number of persons ( For example, for three or more people, a large number of people are considered as one group, and the attention of the group is controlled (hereinafter referred to as “group attention control”), and attention is paid to the exhibit OB and the robot 12. Let Thus, since attention control according to the number of people is executed, natural attention control is possible. This is because, for example, when only personal attention control is performed, attention is individually controlled even for 30 persons, and it takes a lot of time for attention control. Also, for example, when only group attention control is performed, even if there is only one person, the attention is controlled as one group, which may give a sense of incongruity to the person whose attention is controlled, It is also because there is a risk of not being able to feel.

図5〜図7を用いて、ロボット12の注意制御について説明する。ただし、図5〜図7においては、ロボット12(R)および人間(H)は二等辺三角形で模式的に示し、その底辺から垂直に頂点に向かう方向がロボット12および人間の正面方向(視線方向)と仮定する。また、二等辺三角形の頂点が視点(眼)の位置であり、二等辺三角形の中心(重心)がロボット12ないし人間の位置である。   The attention control of the robot 12 will be described with reference to FIGS. However, in FIGS. 5 to 7, the robot 12 (R) and the human (H) are schematically shown as isosceles triangles, and the direction from the bottom to the vertex vertically is the front direction of the robot 12 and the human (line-of-sight direction). ). The vertex of the isosceles triangle is the position of the viewpoint (eye), and the center (center of gravity) of the isosceles triangle is the position of the robot 12 or human.

まず、ロボット12は、自身を中心として、半径Rm(たとえば、6m)以内に人間が存在するか否かを判断する。具体的には、コンピュータ14から送信されるロボット12の2次元座標を(x,y)とし、同じくコンピュータ14から送信される人間の2次元座標を(x,y)とすると、数1に従って半径Rm以内に人間が存在するか否かが判断される。ただし、ロボット12の2次元座標は、ロボット12自身がマップデータに従って移動するため、自身で更新(管理)している2次元座標を用いるようにしてもよい。 First, the robot 12 determines whether or not a human is present within a radius Rm (for example, 6 m) around itself. Specifically, when the two-dimensional coordinates of the robot 12 transmitted from the computer 14 are (x R , y R ) and the two-dimensional coordinates of the human being transmitted from the computer 14 are (x H , y H ), It is determined whether or not there is a person within the radius Rm according to Equation 1. However, since the robot 12 itself moves according to the map data, the two-dimensional coordinates updated (managed) by itself may be used as the two-dimensional coordinates of the robot 12.

[数1]
(x−x+(y−y≦R
ここで、半径Rm以内に人間が存在する場合には、ロボット12は、その人数に応じて、個人注意制御または集団注意制御を選択的に実行する。この実施例では、上述したように、人間が3人未満(1〜2人)であれば、個人注意制御が実行され、人間が3人以上であれば、集団注意制御が実行される。ただし、個人注意制御と集団注意制御とを選択するための人数(閾値)は、3人に限定されるべきではなく、2人以上であれば、ロボット12を用いて提供するサービスに応じて任意に設定することができる。また、人間が存在しない場合には、一定時間(たとえば、2〜3分)が経過した後に、再度半径Rm以内に人間が存在するか否かを判断する。
[Equation 1]
(X R -x H) 2 + (y R -y H) 2 ≦ R 2
Here, when a human is present within the radius Rm, the robot 12 selectively executes individual attention control or group attention control according to the number of persons. In this embodiment, as described above, personal attention control is executed if there are fewer than three persons (1 to 2 persons), and group attention control is executed if there are three or more persons. However, the number of persons (threshold value) for selecting the personal attention control and the group attention control should not be limited to three people, and if it is two or more, it is arbitrary according to the service provided using the robot 12 Can be set to If no human is present, it is determined again whether or not a human is present within the radius Rm after a predetermined time (for example, 2 to 3 minutes) has elapsed.

図5(A)に示すように、ロボット12の周囲であり、半径Rm以内に人間が3人存在する場合には、集団注意制御が実行される。集団注意制御が開始されると、まず、注意制御する対象(制御対象)の人間がすべて自身の前方に存在するかどうかを判断する。この実施例では、ロボット12は、自身が正面を向いた状態を基準(0度)として、その右方向および左方向に第1所定角度Degf(たとえば、60度)以内に人間が存在するとき、当該人間が自身の前方に存在すると判断するようにしてある。   As shown in FIG. 5A, when there are three persons around the robot 12 and within the radius Rm, the group attention control is executed. When the group attention control is started, first, it is determined whether or not all the persons to be controlled for attention (control target) exist in front of themselves. In this embodiment, the robot 12 has a human face within a first predetermined angle Degf (for example, 60 degrees) in the right direction and the left direction with reference to a state in which the robot 12 is facing the front (0 degrees). It is determined that the person is in front of him.

具体的には、数2に従って算出された直線と、ロボット12の正面方向を基準とする直線となす角度θFが60度以下かどうかを判断する。つまり、数3を満たすかどうかを判断する。ただし、この実施例では、ロボット12の正面方向を基準として、第1所定角度DegFおよび角度θFの符号を、右前方をプラスとし、左前方をマイナスとしてある。   Specifically, it is determined whether or not the angle θF formed between the straight line calculated according to Equation 2 and a straight line based on the front direction of the robot 12 is 60 degrees or less. That is, it is determined whether or not Expression 3 is satisfied. However, in this embodiment, with reference to the front direction of the robot 12, the signs of the first predetermined angle DegF and the angle θF are positive for the right front and negative for the left front.

[数2]
Y=(x−x)/(y−y)×X
[数3]
θF≦DegF
ここで、制御対象のうち、いずれか1人でも、第1所定角度DegF以内に存在しない場合には、制御対象のすべての人間を自身の前方の第1所定角度DegF以内に移動させるコミュニケーション行動を実行する。
[Equation 2]
Y = (x R -x H) / (y R -y H) × X
[Equation 3]
θF ≦ DegF
Here, when any one of the control objects does not exist within the first predetermined angle DegF, a communication action for moving all the persons to be controlled within the first predetermined angle DegF in front of itself is performed. Execute.

たとえば、前方の左端に存在する人間を見て、両手を広げて、「皆、僕の前に集まってよ」と発話して、前方の右端に存在する人間を見た後、正面を向く。具体的には、CPU76は、頭部モータ92を駆動制御して、首関節68をS軸周りに角度θLeftMaxだけ回動させる。以下、ロボット12の向きを変える場合、つまり首を動かす場合には、同様の処理が実行される。これにより、ロボット12は、前方の左端に存在する人間の方を見る。ここで、角度θLeftMaxは、図5(A)に示すように、ロボット12の正面方向を基準として、ロボット12の位置座標とロボット12の前方の左端に存在する人間の位置座標とを結ぶ直線がなす角度である。ただし、前方の左端に存在する人間は、半径Rm以内に存在する人間である。次に、CPU76は、右腕モータ88および左腕モータ90を駆動制御して、肩関節56Rおよび肩関節56Lを回動させる。これと同時或いは略同時に、CPU76は、「皆、僕の前に集まってよ」に対応する合成音声を再生し、スピーカ72から出力する。以下、同様にして、ロボット12は発話する。これにより、ロボット12は、両手を広げて、「皆、僕の前に集まってよ」と発話する。そして、CPU76は、首の角度をθRightMaxに設定し、首の角度を0度に設定する。これにより、ロボット12は、前方の右端に存在する人間を見た後、正面を向く。ここで、角度θRightMaxは、図5(A)に示すように、ロボット12の正面方向を基準として、ロボット12の位置座標とロボット12の前方の右端に存在する人間の位置座標とを結ぶ直線がなす角度である。ただし、前方の右端に存在する人間は、半径Rm以内に存在する人間である。   For example, look at the person at the left end of the front, spread your hands, say "Everyone gather in front of me", look at the person at the right end of the front, and then turn to the front. Specifically, the CPU 76 controls the head motor 92 to rotate the neck joint 68 about the S axis by an angle θLeftMax. Hereinafter, when the direction of the robot 12 is changed, that is, when the neck is moved, the same processing is executed. As a result, the robot 12 looks at the person existing at the front left end. Here, as shown in FIG. 5A, the angle θLeftMax is a straight line connecting the position coordinates of the robot 12 and the position coordinates of the human being existing at the left end in front of the robot 12 with the front direction of the robot 12 as a reference. It is an angle to make. However, the person existing at the front left end is a person existing within the radius Rm. Next, the CPU 76 drives and controls the right arm motor 88 and the left arm motor 90 to rotate the shoulder joint 56R and the shoulder joint 56L. At the same time or substantially the same time, the CPU 76 reproduces the synthesized voice corresponding to “Everyone gather in front of me” and outputs it from the speaker 72. Thereafter, the robot 12 speaks in the same manner. As a result, the robot 12 spreads its hands and speaks, “Everyone gather in front of me.” Then, the CPU 76 sets the neck angle to θRightMax and sets the neck angle to 0 degrees. Thereby, the robot 12 turns to the front after seeing the person who exists in the front right end. Here, as shown in FIG. 5A, the angle θRightMax is a straight line connecting the position coordinates of the robot 12 and the position coordinates of the human being present at the right end in front of the robot 12 with the front direction of the robot 12 as a reference. It is an angle to make. However, the person existing at the front right end is a person existing within the radius Rm.

なお、上述した制御対象のすべての人間を自身の前方に移動させるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、右端から左端を見渡すようにしてもよく、「皆、こっちに集まってよ」と発話するようにしてもよい。   Note that the above-described communication behavior for moving all persons to be controlled to move forward is merely an example, and should not be limited to this. As another example, you may make it look over the left end from the right end, and you may make it say "Everyone gather here."

制御対象のすべての人間がロボット12の前方の第1所定角度DegF以内に存在(移動)すると、ロボット12は、当該制御対象のすべての人間が自身を見ているかどうかを判断する。この実施例では、図6(A)に示すように、人間の視線方向と、人間の眼の位置とロボットの位置とを結ぶ直線の方向とがなす角度θLが第2所定角度(この実施例では、±10度)以下である場合には、当該人間は自身(ロボット12)を見ていると判断する。しかし、角度θLが第2所定角度以上であれば、当該人間は自身を見ていないと判断する。   When all the persons to be controlled exist (move) within the first predetermined angle DegF in front of the robot 12, the robot 12 determines whether all the persons to be controlled are looking at themselves. In this embodiment, as shown in FIG. 6 (A), the angle θL formed by the human eye direction and the direction of the straight line connecting the position of the human eye and the position of the robot is a second predetermined angle (this embodiment). Then, if it is ± 10 degrees or less, it is determined that the person is looking at himself (robot 12). However, if the angle θL is equal to or greater than the second predetermined angle, it is determined that the person is not looking at himself / herself.

ここで、いずれか1人でも、自身(ロボット12)を見ていないと判断すると、制御対象のすべての人間を自身に注目させるコミュニケーション行動を実行する。たとえば、ロボット12は、前方の左端の人間を見て、両手を広げて、「皆、僕の方を見てね」と発話し、前方の右端の人間を見て、その後、正面を向く。   Here, if any one of them determines that he / she is not looking at himself / herself (robot 12), a communication action is executed that causes all persons to be controlled to pay attention to himself / herself. For example, the robot 12 looks at the person at the left end in front, spreads his hands, speaks, “Look at me, everyone,” sees the person at the right end in front, and then turns to the front.

なお、上述した制御対象のすべての人間を自身に注目させるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、右端から左端を見渡すようにしてもよく、「皆、こっちを見てよ」と発話するようにしてもよい。   Note that the above-described communication behavior that causes all persons to be controlled to pay attention to themselves is merely an example, and should not be limited to this. As another example, the left end may be looked at from the right end, or “everyone look at this” may be spoken.

制御対象のすべての人間がロボット12に注目すると、ロボット12は、当該すべての人間が適当な距離に存在するかどうかを判断する。これは、ロボット12が複数の人間に対してサービスの説明を行う(提供する)場合に、当該人間がロボット12から離れ過ぎると、当該ロボット12の音声が聴こえ難く、一方、当該人間がロボット12に近づき過ぎると、ロボット12の手が人間に当たってしまうなどの不都合が発生してしまう恐れがあるからである。   When all the persons to be controlled pay attention to the robot 12, the robot 12 determines whether all the persons are present at an appropriate distance. This is because when the robot 12 explains (provides) a service to a plurality of humans, if the human is too far away from the robot 12, it is difficult to hear the voice of the robot 12. This is because there is a risk that inconveniences such as the hand of the robot 12 hitting a human being will occur if the distance is too close.

そこで、ロボット12は、各人間との距離dが、図6(B)に示すような最小距離DistMin(たとえば、0.5m)と最大距離DistMax(たとえば、3m)とで決定される範囲内であるかどうかを判断するようにしてある。具体的には、数4に従って、ロボット12と各人間との距離dをそれぞれ算出し、算出した各距離dが数5を満たすかどうかを判断する。   Therefore, the robot 12 is within a range in which the distance d to each person is determined by the minimum distance DistMin (for example, 0.5 m) and the maximum distance DistMax (for example, 3 m) as shown in FIG. Judgment is made whether there is. Specifically, the distance d between the robot 12 and each person is calculated according to Equation 4, and it is determined whether each calculated distance d satisfies Equation 5.

[数4]
d=√{(x−x+(y−y
[数5]
DistMin≦d≦DistMax
たとえば、いずれか1人でも、数5の中辺と右辺とで示される条件を満たさない場合には、ロボット12は、制御対象のすべての人間を自身に近づかせるコミュニケーション行動を実行する。具体的には、ロボット12は、前方の左端の人間を見て、両手を広げて、「皆、もう少し近づいてね」と発話し、前方の右端の人間を見て、その後、正面を向く。
[Equation 4]
d = √ {(x R −x H ) 2 + (y R −y H ) 2 }
[Equation 5]
DistMin ≦ d ≦ DistMax
For example, if any one of them does not satisfy the condition indicated by the middle side and the right side of Formula 5, the robot 12 performs a communication action that brings all the persons to be controlled closer to itself. Specifically, the robot 12 looks at the person at the left end in front, spreads both hands, speaks, “Everyone should be a little closer,” sees the person at the right end in front, and then turns to the front.

なお、上述した制御対象のすべての人間を自身に近づかせるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、右端から左端を見渡すようにしてもよく、「後ろの人は前に詰めてね」と発話するようにしてもよい。   Note that the above-described communication behavior that brings all persons to be controlled closer to themselves is merely an example, and should not be limited to this. As another example, the left end may be looked over from the right end, and “the person behind should be put forward” may be spoken.

一方、いずれか1人でも、数5の左辺と中辺とで示される条件を満たさない場合には、ロボット12は、制御対象のすべての人間を自身から離れさせるコミュニケーション行動を実行する。具体的には、ロボット12は、前方の左端の人間を見て、両手を広げて、「皆、もう少し離れてね」と発話し、前方の右端の人間を見て、その後、正面を向く。   On the other hand, if any one of them does not satisfy the condition indicated by the left side and the middle side of Formula 5, the robot 12 executes a communication action that causes all the persons to be controlled to be separated from themselves. Specifically, the robot 12 sees the person at the left end in the front, spreads both hands, speaks “Everyone is a little further away”, looks at the person at the right end in the front, and then turns to the front.

なお、上述した制御対象のすべての人間を自身から離れさせるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、右端から左端を見渡すようにしてもよく、「前の人は少し下がってね」と発話するようにしてもよい。   Note that the above-described communication behavior that causes all persons to be controlled to move away from themselves is merely an example, and should not be limited to this. As another example, the left end may be looked over from the right end, and “the previous person should lower a little” may be spoken.

なお、上述したように、集団注意制御では、制御対象のすべての人間が自身の前方に移動したり、自身に注目したり、自身との距離を一定範囲内に移動したりすることを前提として説明した。ただし、制御対象のすべての人間がロボット12の誘導に従わない場合も当然にあり得る。かかる場合に、同じコミュニケーション行動を何度も繰り返すことは適切でない場合もある。したがって、この実施例では、同じコミュニケーション行動を所定回数実行すると、制御対象のすべての人間がロボット12の前方に存在していなかったり、ロボット12に注目していなかったり、ロボット12との距離が一定範囲内でなかったりしても、当該コミュニケーション行動を実行しないようにようにしてある。たとえば、制御対象の人間が10人存在し、そのうち8人の人間が自身の前方に移動したが、前方に移動させるコミュニケーション行動を所定回数(たとえば、3回)実行しても、他の2人はロボット12の前方に移動しない場合には、当該前方に移動させるコミュニケーション行動は実行せずに、制御対象のすべての人間が自身に注目しているか否かを判断するようにしてある。このことは、手段注意制御における他のコミュニケーション行動についても同様である。また、かかる場合には、ロボット12の誘導(コミュニケーション行動)に従って移動等した人間を、それ以降における制御対象の人間としてもよい。   Note that, as described above, in group attention control, it is assumed that all humans to be controlled move in front of themselves, pay attention to themselves, or move within a certain distance from themselves. explained. However, there are naturally cases where all the persons to be controlled do not follow the guidance of the robot 12. In such a case, it may not be appropriate to repeat the same communication action many times. Therefore, in this embodiment, when the same communication action is executed a predetermined number of times, not all humans to be controlled are present in front of the robot 12, attention is not paid to the robot 12, or the distance to the robot 12 is constant. Even if it is not within the range, the communication action is not executed. For example, there are 10 humans to be controlled, and 8 of them have moved in front of themselves, but even if a communication action for moving forward is performed a predetermined number of times (for example, 3 times), the other two people When the robot 12 does not move in front of the robot 12, the communication action for moving the robot 12 forward is not executed, and it is determined whether or not all the persons to be controlled are paying attention to themselves. The same applies to other communication actions in means attention control. In such a case, a person who has moved according to the guidance (communication behavior) of the robot 12 may be a person to be controlled thereafter.

また、ロボット12は、半径Rm以内に人間が1〜2人存在する場合には、個人注意制御を実行する。個人注意制御は、集団注意制御とほぼ同じであるため、以下では簡単に説明するが、注意制御の対象が複数(ここでは、2人)であっても、個別に注意制御を実行する点で大きく異なる。この個人注意制御では、個別に注意制御を実行するため、ロボット12は、現在注意制御を行っている人間の方を見て、コミュニケーション行動を実行するようにしてある。具体的には、図7に示すように、ロボット12は、正面方向を基準として、自身の位置と制御対象の人間の位置とを結ぶ直線がなす角度θHDegを算出し、この角度θHDegだけ首を動かし、当該人間の方を見るようにしてある。   Moreover, the robot 12 performs personal attention control when one or two persons exist within the radius Rm. Since the personal attention control is almost the same as the group attention control, it will be briefly described below. However, even if there are a plurality of attention control targets (here, two people), the attention control is executed individually. to differ greatly. In this individual attention control, since the attention control is executed individually, the robot 12 performs communication behavior by looking at the person currently performing the attention control. Specifically, as shown in FIG. 7, the robot 12 calculates an angle θHDeg formed by a straight line connecting its own position and the position of the person to be controlled with the front direction as a reference, and the neck is tilted by this angle θHDeg. It moves and looks at the person.

たとえば、制御対象の人間が自身の前方の第1所定角度DegF以内に存在しない場合には、当該人間を自身の前方の第1所定角度DegF以内に移動させるコミュニケーション行動を実行する。たとえば、首の角度をθHDegに設定し、手を角度θHDegに向けて、「ねえ、僕の前に来てよ」と発話する。つまり、CPU76は、頭部モータ92を駆動制御して、首関節68をS軸周りに角度θHDegだけ回動させる。次に、CPU76は、右腕モータ88または左腕モータ90を駆動制御して、肩関節56Rまたは肩関節56Lを回動させる。これと同時或いは略同時に、CPU76は、「ねぇ、僕の前に来てよ」に対応する合成音声を再生し、スピーカ72から出力する。以下、同様である。   For example, when the person to be controlled does not exist within the first predetermined angle DegF in front of himself / herself, a communication action for moving the person within the first predetermined angle DegF in front of himself / herself is executed. For example, the angle of the neck is set to θHDeg, and the hand is directed to the angle θHDeg and “Hey, come in front of me” is spoken. That is, the CPU 76 drives and controls the head motor 92 to rotate the neck joint 68 about the S axis by an angle θHDeg. Next, the CPU 76 drives and controls the right arm motor 88 or the left arm motor 90 to rotate the shoulder joint 56R or the shoulder joint 56L. At the same time or substantially the same time, the CPU 76 reproduces the synthesized voice corresponding to “Hey, come to me” and outputs it from the speaker 72. The same applies hereinafter.

このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身の前方に当該人間を移動させるコミュニケーション行動が実行される。ただし、これは単なる例示であり、限定されるべきではない。他の例としては、手をθHDegに向けた後に、手招きさせるようにしてもよい。また、「〇〇さん、僕の前に来てよ」と名前を用いて発話するようにしてもよい。かかる場合には、たとえば、各人間に無線タグ(周波数タグ、ICタグなど)を装着(所持)させておき、ロボット12側で当該無線タグの情報を読み取って、個人を識別可能にしておく必要がある。以下、同様である。   In this way, a communication action is performed in which the robot 12 turns to the person, makes a voice while pointing, and moves the person in front of himself / herself. However, this is merely an example and should not be limited. As another example, the user may be invited after pointing his hand toward θHDeg. Also, you may be allowed to speak with a name such as “Mr. OO, come in front of me”. In such a case, for example, it is necessary to make each person wear (carry) a wireless tag (frequency tag, IC tag, etc.) and read information on the wireless tag on the robot 12 side so that an individual can be identified. There is. The same applies hereinafter.

また、制御対象の人間が自身の前方の第1所定角度DegF以内に存在(移動)するが、自身の方を見ていない(自身に注目していない)場合には、ロボット12は、当該人間を自身に注目させるコミュニケーション行動を実行する。たとえば、首の角度をθHDegに設定し、手を角度θHDegに向けて、「ねえねえ、僕を見て」と発話する。つまり、ロボット12は、制御対象の人間の方を見て、当該人間を指差しながら声を掛けて、自身に注意を向けるように促しているのである。   In addition, when the person to be controlled exists (moves) within the first predetermined angle DegF ahead of himself / herself but does not look at himself / herself (not paying attention to himself / herself), the robot 12 Execute communication behaviors that make you pay attention to yourself. For example, the angle of the neck is set to θHDeg, and the hand is turned to the angle θHDeg, and “Hey, look at me” is spoken. That is, the robot 12 looks at the person to be controlled, utters a voice while pointing at the person, and prompts the user to pay attention.

なお、上述した制御対象の人間を自身に注目させるコミュニケーション行動は単なる例示であり、これに限定されるべきではない。他の例としては、手を角度θHDegに向けた後に、自身の顔を指差しさせるようにしてもよく、「〇〇さん、僕を見て」と名前を用いて発話するようにしてもよい。   Note that the above-described communication behavior that causes the control target person to pay attention to himself / herself is merely an example, and should not be limited to this. As another example, after pointing the hand to the angle θHDeg, the user may be allowed to point at his / her face or speak using the name “Look at me,” .

そして、制御対象の人間が自身の前方の第1所定角度DegF以内であり、自身に注目すると、ロボット12は、当該人間との距離dを算出する。算出した距離dが数5を満たさない場合には、サービスを説明するための適切な距離に移動させるコミュニケーション行動を実行する。具体的には、ロボット12と人間との距離dが数5の中辺と右辺とで示される条件を満たさない場合には、ロボット12は、首の角度をθHDegに設定し、手をθHDegに向けて、「ねえ、もう少し近づいて」と発話する。つまり、制御対象の人間を見て、指差しながら声を掛けて、自身に近づくように、当該人間に促している。ただし、これは単なる例示であり、限定されるべきではない。他の例としては、手を角度θHDegn向けた後に、手招きさせるようにしてもよく、「〇〇さん、もう少し近づいて」と名前を用いて発話するようにしてもよい。   Then, when the person to be controlled is within the first predetermined angle DegF in front of himself / herself, paying attention to himself / herself, the robot 12 calculates the distance d to the person. If the calculated distance d does not satisfy Equation 5, a communication action for moving to an appropriate distance for explaining the service is executed. Specifically, when the distance d between the robot 12 and the human does not satisfy the condition indicated by the middle side and the right side of Formula 5, the robot 12 sets the neck angle to θHDeg and sets the hand to θHDeg. He says, “Hey, get a little closer”. In other words, the person is urged to look at the person to be controlled, scream while pointing, and approach the person. However, this is merely an example and should not be limited. As another example, a hand may be invited after turning to the angle θHDegn, or “Mr. OO, approach a little more” may be used to speak.

一方、ロボット12と人間との距離dが数5の左辺と中辺とで示される条件を満たさない場合には、ロボット12は、首の角度をθHDegに設定し、手をθHDegに向けて、「ねえ、もう少し離れてね」と発話する。つまり、制御対象の人間を見て、指差しながら声を掛けて、自身から少し離れるように、当該人間に促している。ただし、これは単なる例示であり、限定されるべきではない。他の例としては、手を角度θHDegに向けた後に、当該手を少し上げさせるようにしてもよく、「〇〇さん、もう少し離れてね」と名前を用いて発話するようにしてもよい。   On the other hand, when the distance d between the robot 12 and the human does not satisfy the condition indicated by the left side and the middle side of Equation 5, the robot 12 sets the neck angle to θHDeg and points the hand to θHDeg, “Hey, get a little further away.” In other words, the person who is to be controlled is urged to make a voice while pointing and pointing away from him. However, this is merely an example and should not be limited. As another example, after the hand is turned to the angle θHDeg, the hand may be raised a little, or “Mr. OO, a little further away” may be used to speak.

なお、個人注意制御の場合にも、必ず制御対象の人間がロボット12の誘導に従って、ロボット12の前方に移動し、ロボット12に注目し、ロボット12との距離が一定範囲になるように移動する前提で説明した。しかし、上述したように、集団注意制御の場合と同様に、同じコミュニケーション行動を所定回数実行した場合には、制御対象の人間がロボット12の誘導に従わない場合であっても、当該コミュニケーション行動の実行を終了するようにしてある。   Even in the case of personal attention control, the person to be controlled always moves in front of the robot 12 according to the guidance of the robot 12, pays attention to the robot 12, and moves so that the distance from the robot 12 is within a certain range. I explained in the premise. However, as described above, as in the case of group attention control, when the same communication action is executed a predetermined number of times, even if the control target person does not follow the guidance of the robot 12, the communication action Execution is terminated.

以上のようにして、注意制御の対象である人間の人数に応じて、異なる注意制御処理が実行される。注意が制御されると、システム10(ロボット12)が提供するサービスの説明が実行される。たとえば、サービスの説明としては、或る展示物についての説明であったり、或る遊戯具の説明であったりなど様々である。また、サービスの説明についてのコミュニケーション行動は、説明対象の人数に応じて異なるようにしてもよく、同じでもよく、サービスの内容に応じて代えるようにしてもよい。   As described above, different attention control processes are executed in accordance with the number of persons who are objects of attention control. When the attention is controlled, a description of the service provided by the system 10 (robot 12) is executed. For example, there are various explanations of services such as explanation of a certain exhibit or explanation of a certain play equipment. In addition, the communication behavior regarding the description of the service may be different depending on the number of people to be explained, may be the same, or may be changed depending on the content of the service.

図8は図3に示したCPU76の全体処理を示すフロー図である。この図8を参照して、CPU76は全体処理を開始すると、ステップS1で、オペレータによる停止命令があるかどうかを判断する。たとえば、停止命令は、コンピュータ14を用いて遠隔的に入力することができ、ロボット12に運転/停止ボタンを設けておき、これを操作することにより入力することもできる。ステップS1で“YES”であれば、つまりオペレータによる停止命令があれば、そのまま全体処理を終了する。一方、ステップS1で“NO”であれば、つまりオペレータによる停止命令がなければ、ステップS3で、周囲に人間が存在するかどうかを判断する。具体的には、コンピュータ14からロボット12についての座標データ以外の座標データが入力されたか否かで、周囲に人間が存在するかどうかを判断する。   FIG. 8 is a flowchart showing the overall processing of the CPU 76 shown in FIG. Referring to FIG. 8, when starting the entire process, CPU 76 determines whether or not there is a stop command from the operator in step S1. For example, the stop command can be input remotely using the computer 14, and can also be input by providing a run / stop button on the robot 12 and operating it. If “YES” in the step S1, that is, if there is a stop command by the operator, the entire process is ended as it is. On the other hand, if “NO” in the step S1, that is, if there is no stop command by the operator, it is determined whether or not there is a human in the surrounding in a step S3. Specifically, it is determined whether or not a person is present around the computer 14 based on whether coordinate data other than the coordinate data for the robot 12 has been input.

ステップS3で“YES”であれば、つまり周囲に人間が存在すれば、ステップS5で、後述する注意制御およびサービスの提供処理(図9参照)を実行して、ステップS1に戻る。一方、ステップS3で“NO”であれば、つまり周囲に人間が存在しなければ、ステップS7で、待機行動を実行して、ステップS1に戻る。たとえば、ステップS7では、CPU76は、頭部モータ92を駆動制御して、首関節68をS軸周りに回動させる。これにより、ロボット12が、首を左右に振って周りを見渡しているように動作させることができる。   If “YES” in the step S3, that is, if there is a human in the surroundings, a caution control and service providing process (see FIG. 9) described later is executed in a step S5, and the process returns to the step S1. On the other hand, if “NO” in the step S3, that is, if there is no human being around, a waiting action is executed in a step S7, and the process returns to the step S1. For example, in step S7, the CPU 76 controls the head motor 92 to rotate the neck joint 68 around the S axis. As a result, the robot 12 can be operated so as to look around by swinging its neck left and right.

図9は図8に示したステップS5の注意制御およびサービスの提供処理を示すフロー図である。図9に示すように、CPU76は、注意制御およびサービスの提供処理を開始すると、ステップS11で、周囲に存在する人間の人数を検出する。ここでは、コンピュータ14から入力される座標信号の個数をカウントし、そのカウント値から1減算した数を人間の人数として決定(検出)する。つまり、ロボット12の数が排除される。続くステップS13では、ロボット12の半径Rm(たとえば、6m)以内にN人(たとえば、3人)以上の人間が存在するかどうかを判断する。ここでは、ロボット12は、自身の座標信号と人間の座標信号とが示す位置座標を用いて、自身と人間との距離が数1を満たすかどうかを判断し、数1を満たす人間が3人以上存在するかどうかを判断するのである。   FIG. 9 is a flowchart showing the attention control and service provision processing in step S5 shown in FIG. As shown in FIG. 9, when the CPU 76 starts the attention control and service providing process, the CPU 76 detects the number of humans present in the surrounding area in step S <b> 11. Here, the number of coordinate signals input from the computer 14 is counted, and the number obtained by subtracting 1 from the count value is determined (detected) as the number of humans. That is, the number of robots 12 is eliminated. In the subsequent step S13, it is determined whether or not there are N (for example, three) or more people within the radius Rm (for example, 6 m) of the robot 12. Here, the robot 12 uses the position coordinates indicated by its own coordinate signal and the human coordinate signal to determine whether the distance between itself and the human satisfies Equation 1, and there are three humans who satisfy Equation 1. It is judged whether or not it exists.

ステップS13で“YES”であれば、つまり半径6m以内に3人以上の人間が存在する場合には、ステップS15で、後述する集団注意制御処理(図10および図11参照)を実行し、ステップS17で、サービスの説明を行うコミュニケーション行動を実行し、注意制御およびサービスの提供処理をリターンする。   If “YES” in the step S13, that is, if there are three or more persons within a radius of 6 m, a group attention control process (see FIG. 10 and FIG. 11) described later is executed in a step S15. In S17, the communication action for explaining the service is executed, and the attention control and the service providing process are returned.

一方、ステップS13で“NO”であれば、つまり半径6m以内に1〜2人の人間が存在する場合には、ステップS19で、後述する個人注意制御処理(図12および図13参照)を実行し、ステップS21で、周囲に存在する制御対象のすべての人間についての注意を制御したかどうかを判断する。ステップS21で“NO”であれば、つまり周囲に存在する制御対象のすべての人間についての注意を制御していなければ、次の人間(未だ注意を制御していない人間)の注意を制御すべく、ステップS19に戻る。詳細な説明は省略するが、たとえば、ロボット12は、人間との距離が近い順に個人注意制御処理を実行する。一方、ステップS21で“YES”であれば、つまり周囲に存在する制御対象のすべての人間についての注意を制御すれば、ステップS23で、サービスの説明を行うコミュニケーション行動を実行し、注意制御およびサービスの提供処理をリターンする。   On the other hand, if “NO” in the step S13, that is, if one or two persons exist within a radius of 6 m, a personal attention control process (see FIGS. 12 and 13) described later is executed in a step S19. In step S21, it is determined whether or not attention is controlled for all the control target persons existing around. If “NO” in the step S21, that is, if the cautions about all the persons to be controlled existing in the vicinity are not controlled, the attention of the next person (the person who has not yet controlled the caution) should be controlled. Return to step S19. Although detailed description is omitted, for example, the robot 12 executes the personal attention control process in the order from the closest to the human. On the other hand, if “YES” is determined in the step S21, that is, if attention is controlled for all the persons to be controlled present in the surrounding area, the communication action for explaining the service is executed in the step S23, and the attention control and service are performed. Returns the provision process.

図10〜図13は、図9に示したステップS15の集団注意制御処理を示すフロー図である。図10を参照して、CPU76は、集団注意制御処理を開始すると、ステップS31で、変数a,b,c,dを初期化する(a,b,c,d=0)。つまり、前方に制御対象のすべての人間を集めるコミュニケーション行動の実行回数a、制御対象のすべての人間を自身に注目させるコミュニケーション行動の実行回数b、制御対象のすべての人間との距離dをDistMax以下にするコミュニケーション行動の実行回数c、および制御対象のすべての人間との距離dをDistMin以下にするコミュニケーション行動の実行回数dが「0」に設定される。   10 to 13 are flowcharts showing the group attention control process in step S15 shown in FIG. Referring to FIG. 10, when starting the group attention control process, CPU 76 initializes variables a, b, c, d (a, b, c, d = 0) in step S31. That is, the number of executions of a communication action a that collects all persons to be controlled in the forward direction a, the number of executions of communication action b that causes all persons to be controlled to pay attention to itself, and the distance d between all persons to be controlled are less than DistMax. The number of executions c of the communication action to be performed and the number of executions d of the communication action to set the distance d to all humans to be controlled to be DistMin or less are set to “0”.

続くステップS33では、前方の第1所定角度DegF内に制御対象のすべての人間が存在するかどうかを判断する。つまり、制御対象のすべての人間について、数2に従って算出した角度θFが数3を満たすかどうかを判断する。ただし、ここで言う「制御対象のすべての人間」は、ロボット12からの距離がRm以内と判断された人間を意味する。以下、集団注意制御処理において同様である。ただし、上述したように、ロボット12がコミュニケーション行動を実行して制御対象の人間を誘導したが、それに応じなかった人間は制御対象から外される場合もある。   In a succeeding step S33, it is determined whether or not all persons to be controlled exist within the first predetermined angle DegF ahead. That is, it is determined whether or not the angle θF calculated according to Equation 2 satisfies Equation 3 for all humans to be controlled. However, “all human beings to be controlled” mentioned here means humans whose distance from the robot 12 is determined to be within Rm. The same applies to the group attention control process. However, as described above, the robot 12 performs a communication action to guide a person to be controlled, but a person who does not respond may be excluded from the control target.

ステップS33で“YES”であれば、つまり前方の第1所定角度DegF内に制御対象のすべての人間が存在する場合には、そのまま図11に示すステップS47に進む。しかし、ステップS33で“NO”であれば、つまり前方の第1所定角度DegF内にいずれか1人でも存在していなければ、前方に制御対象のすべての人間を集める(移動させる)コミュニケーション行動を実行する。具体的には、ステップS35で、首の角度をθLeftMaxに設定する。次にステップS37で、両手を広げて、「皆、僕の前に集まってよ」と発話する。続いて、ステップS39で、首の角度をθRightMaxに設定し、その後、ステップS41で、首の角度を0度に設定する。このように、ステップS35〜ステップS41の処理によって、両手を広げてすべての人間に自身の前方に集まるように声を掛けながら、前方で最も左端に存在する人間から右端に存在する人間を見渡し、その後、前を向くといったコミュニケーション行動が実行される。   If “YES” in the step S33, that is, if all the persons to be controlled exist within the first predetermined angle DegF ahead, the process proceeds to a step S47 shown in FIG. 11 as it is. However, if “NO” in the step S33, that is, if any one person is not present within the first predetermined angle DegF in the front, the communication action of collecting (moving) all the persons to be controlled in the front is performed. Execute. Specifically, in step S35, the neck angle is set to θLeftMax. Next, in step S37, open both hands and say "Everyone gather in front of me". Subsequently, in step S39, the neck angle is set to θRightMax, and then in step S41, the neck angle is set to 0 degrees. In this way, by the processing of step S35 to step S41, looking over all the human beings to gather in front of themselves, overlooking the human being present at the right end from the human being present at the leftmost front, After that, a communication action such as facing forward is performed.

そして、ステップS43で、前方に制御対象のすべての人間を移動させるコミュニケーション行動の実行回数aをインクリメント(a=a+1)して、ステップS45で、実行回数aが所定回数M1(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が前方に制御対象のすべての人間を移動させるコミュニケーション行動を3回(以上)実行したかどうかを判断する。ステップS45で“NO”であれば、つまり実行回数aが2以下であれば、そのままステップS33に戻る。一方、ステップS45で“YES”であれば、つまり実行回数aが3以上であれば、前方の第1所定角度DegF内に制御対象のすべての人間が存在するか否かに拘わらず、ステップS47に進む。   In step S43, the execution number a of the communication action for moving all persons to be controlled forward is incremented (a = a + 1). In step S45, the execution number a is equal to or greater than the predetermined number M1 (for example, 3). It is determined whether or not. That is, it is determined whether or not the robot 12 has executed communication behavior for moving all control target persons forward (three times or more). If “NO” in the step S45, that is, if the execution count a is 2 or less, the process returns to the step S33 as it is. On the other hand, if “YES” in the step S45, that is, if the number of executions a is 3 or more, the step S47 is performed regardless of whether or not all the persons to be controlled exist within the first predetermined angle DegF ahead. Proceed to

図11に示すステップS47では、制御対象のすべての人間が自身を見ているかどうかを判断する。つまり、制御対象のすべての人間について、算出した角度θLの絶対値が第2所定角度DegL(10度)以下であるかどうかを判断する。ステップS47で“YES”であれば、つまりすべての人間が自身を見ている(自身に注目している)場合には、そのまま図12に示すステップS61に進む。しかし、ステップS47で“NO”であれば、つまりいずれか1人でも自身を見ていない(自身に注目していない)場合には、制御対象のすべての人間を自身に注目させるコミュニケーション行動を実行する。   In step S47 shown in FIG. 11, it is determined whether all the persons to be controlled are looking at themselves. That is, it is determined whether or not the absolute value of the calculated angle θL is equal to or smaller than the second predetermined angle DegL (10 degrees) for all humans to be controlled. If “YES” in the step S47, that is, if all humans are looking at themselves (watching themselves), the process proceeds to a step S61 shown in FIG. 12 as it is. However, if “NO” in step S47, that is, if any one person is not looking at himself (not paying attention to himself), a communication action is executed that causes all persons to be controlled to pay attention to himself / herself. To do.

具体的には、ステップS49で、首の角度をθLeftMaxに設定し、ステップS51で、両手を広げて、「皆、僕を見てね」と発話し、ステップS53で、首の角度をθRightMaxに設定し、そして、ステップS55で、首の角度を0度に設定する。つまり、ステップS49〜ステップS55の処理によって、両手を広げて制御対象のすべての人間に自身の方を見るように声を掛けながら、前方で最も左端に存在する人間から右端に存在する人間を見渡し、その後、前を向くといったコミュニケーション行動が実行される。   Specifically, in step S49, the neck angle is set to θLeftMax, and in step S51, both hands are spread out and “everyone look at me” is spoken. In step S53, the neck angle is set to θRightMax. In step S55, the neck angle is set to 0 degree. In other words, the process from step S49 to step S55 overlooks the person at the right end from the person at the left end in front of the person while spreading his hands and calling out to all the persons to be controlled looking at himself. Then, the communication action of facing forward is executed.

そして、ステップS57で、制御対象のすべての人間を自身に注目させるコミュニケーション行動の実行回数bをインクリメントする(b=b+1)。続くステップS59では、実行回数bが所定回数M2(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、制御対象のすべての人間を自身に注目させるコミュニケーション行動を3回(以上)実行したかどうかを判断する。ステップS59で“NO”であれば、つまり実行回数bが2以下であれば、そのままステップS47に戻る。一方、ステップS59で“YES”であれば、つまり実行回数bが3以上であれば、制御対象のすべての人間が自身に注目しているか否かに拘わらず、ステップS61に進む。   Then, in step S57, the execution number b of the communication action that causes all persons to be controlled to pay attention to itself is incremented (b = b + 1). In a succeeding step S59, it is determined whether or not the number of executions b is a predetermined number M2 (for example, 3) or more. That is, it is determined whether or not the robot 12 has executed a communication action that causes all persons to be controlled to pay attention to itself three times (or more). If “NO” in the step S59, that is, if the execution count b is 2 or less, the process returns to the step S47 as it is. On the other hand, if “YES” in the step S59, that is, if the execution count b is 3 or more, the process proceeds to a step S61 regardless of whether or not all the persons to be controlled pay attention to themselves.

図12に示すように、ステップS61では、制御対象のすべての人間との距離dがDistMax(たとえば、3m)以下であるかどうかを判断する。つまり、制御対象のすべての人間について、数4を用いて算出した距離dが数5の中辺および右辺で示される不等式(条件)を満たすかどうかを判断する。ステップS61で“YES”であれば、つまり制御対象のすべての人間との距離が3m以下であれば、そのまま図13に示すステップS75に進む。一方、ステップS61で“NO”であれば、つまりいずれか1人でもロボット12との距離dが3mを超えていれば、制御対象のすべての人間との距離dを3m以下にするコミュニケーション行動を実行する。   As shown in FIG. 12, in step S <b> 61, it is determined whether or not the distance d to all the persons to be controlled is DistMax (for example, 3 m) or less. That is, it is determined whether or not the distance d calculated using Equation 4 satisfies the inequalities (conditions) indicated by the middle side and the right side of Equation 5 for all humans to be controlled. If “YES” in the step S61, that is, if the distances to all the persons to be controlled are 3 m or less, the process directly proceeds to a step S75 shown in FIG. On the other hand, if “NO” in the step S61, that is, if any one of the distances d to the robot 12 exceeds 3 m, the communication action to make the distances d to all the persons to be controlled 3 m or less. Execute.

具体的には、ステップS63で、首の角度をθLeftMaxに設定し、ステップS65で、両手を広げて、「皆、もう少し近づいてね」と発話し、ステップS67で、首の角度をθRightMaxに設定し、そして、ステップS69で、首の角度を0度に設定する。つまり、ステップS63〜ステップS69の処理によって、両手を広げてすべての人間に自身に近づくように声を掛けながら、前方で最も左端に存在する人間から右端に存在する人間を見渡し、その後、前を向くといったコミュニケーション行動が実行される。   Specifically, in step S63, the neck angle is set to θLeftMax, and in step S65, both hands are spread out, saying “Everyone should be a little closer”, and in step S67, the neck angle is set to θRightMax. In step S69, the neck angle is set to 0 degree. That is, by the processing of step S63 to step S69, looking out to the human being at the left end from the human being at the left end in front, looking over all the human beings with their hands wide open and approaching themselves, Communication behavior such as facing is executed.

そして、ステップS71で、制御対象のすべての人間との距離dを3m以下にするコミュニケーション行動の実行回数cをインクリメントする(c=c+1)。次のステップS73では、実行回数cが所定回数M3(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、制御対象のすべての人間との距離dを3m以下にするコミュニケーション行動を3回(以上)実行したかどうかを判断するのである。ステップS73で“NO”であれば、つまり実行回数cが2以下であれば、ステップS61に戻る。一方、ステップS73で“YES”であれば、つまり実行回数cが3以上であれば、制御対象のすべての人間との距離dが3m以下であるか否かに拘わらず、ステップS75に進む。   Then, in step S71, the number of executions c of the communication action for setting the distance d to all control target humans to 3 m or less is incremented (c = c + 1). In the next step S73, it is determined whether or not the number of executions c is a predetermined number M3 (for example, 3) or more. That is, it is determined whether or not the robot 12 has executed (or more) three times (or more) a communication action that sets the distance d to all the control target humans to 3 m or less. If “NO” in the step S73, that is, if the execution count c is 2 or less, the process returns to the step S61. On the other hand, if “YES” in the step S73, that is, if the execution count c is 3 or more, the process proceeds to a step S75 regardless of whether or not the distance d to all the persons to be controlled is 3 m or less.

図13に示すステップS75では、制御対象のすべての人間との距離dがDistMin(たとえば、0.5m)以上であるかどうかを判断する。つまり、制御対象のすべての人間について、数4に従って算出した距離dが数5の左辺および中辺で示される不等式(条件)を満たすかどうかを判断する。ステップS61で“YES”であれば、つまり制御対象のすべての人間との距離dが0.5m以上であれば、制御対象のすべての人間が自身の前方に存在し、自身に注目し、一定範囲内に存在すると判断して、集団注意制御処理をリターンする。   In step S75 shown in FIG. 13, it is determined whether or not the distance d to all the control target humans is DistMin (for example, 0.5 m) or more. That is, it is determined whether or not the distance d calculated according to Equation 4 satisfies the inequalities (conditions) indicated by the left side and the middle side of Equation 5 for all humans to be controlled. If “YES” in the step S61, that is, if the distance d to all the persons to be controlled is 0.5 m or more, all the persons to be controlled exist in front of themselves, pay attention to themselves, and are constant. The group attention control process is determined to be determined to exist within the range.

しかし、ステップS75で“NO”であれば、つまりいずれかの人間との距離dが0.5m未満であれば、制御対象のすべての人間との距離dを0.5m以上にするコミュニケーション行動を実行する。具体的には、ステップS77で、首の角度をθLeftMaxに設定し、ステップS79で、両手を広げて、「皆、もう少し離れてね」と発話し、ステップS81で、首の角度をθRightMaxに設定し、そして、ステップS83で、首の角度を0度に設定する。つまり、ステップS77〜ステップS83の処理によって、両手を広げてすべての人間に自身から離れるように声を掛けながら、前方で最も左端に存在する人間から右端に存在する人間を見渡し、その後、前を向くといったコミュニケーション行動が実行される。   However, if “NO” in the step S75, that is, if the distance d to any human being is less than 0.5 m, the communication action for setting the distance d to all human beings to be controlled to 0.5 m or more is performed. Execute. Specifically, in step S77, the neck angle is set to θLeftMax, in step S79, both hands are spread out and "everyone is a little further away", and in step S81, the neck angle is set to θRightMax. In step S83, the neck angle is set to 0 degree. That is, by the processing of step S77 to step S83, looking out to the human being at the left end from the human being at the left end in the front, spreading all hands and calling out to all human beings away from themselves, Communication behavior such as facing is executed.

そして、ステップS85で、制御対象のすべての人間との距離dを0.5m以上にするコミュニケーション行動の実行回数dが所定回数M4(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、制御対象のすべての人間との距離dを0.5m以上にするコミュニケーション行動を3回(以上)実行したかどうかを判断するのである。ステップS87で“NO”であれば、つまり実行回数dが2以下であれば、ステップS75に戻る。一方、ステップS87で“YES”であれば、つまり実行回数dが3以上であれば、制御対象のすべての人間との距離dが0.5m以上であるか否かに拘わらず、集団注意制御処理をリターンする。   Then, in step S85, it is determined whether or not the number of executions d of the communication action that sets the distance d to all control target humans to 0.5 m or more is a predetermined number M4 (for example, 3) or more. In other words, it is determined whether or not the robot 12 has executed the communication action for making the distance d with all the control target humans d 0.5 m or more three times (or more). If “NO” in the step S87, that is, if the execution count d is 2 or less, the process returns to the step S75. On the other hand, if “YES” in the step S87, that is, if the number of executions d is 3 or more, the group attention control is performed regardless of whether or not the distance d to all human beings to be controlled is 0.5 m or more. Return processing.

図14〜図16は、図9に示したステップS19の個人注意制御処理を示すフロー図である。ただし、個人注意制御処理においては、集団注意制御処理に含まれる処理と同様の処理については、簡単に説明することにする。図14を参照して、CPU76は、個人注意制御処理を開始すると、ステップS101で、変数e,f,g,hを初期化する(e,f,g,h=0)。つまり、自身の前方に当該人間を移動させるコミュニケーション行動の実行回数e、当該人間の注意を自身に向けさせるコミュニケーション行動の実行回数f、自身に当該人間を近づかせるコミュニケーション行動の実行回数g、および自身から当該人間を少し遠ざけるためのコミュニケーション行動の実行回数hが「0」に設定される。   14 to 16 are flowcharts showing the personal attention control process in step S19 shown in FIG. However, in the personal attention control process, a process similar to the process included in the group attention control process will be briefly described. Referring to FIG. 14, when starting the personal attention control process, CPU 76 initializes variables e, f, g, h (e, f, g, h = 0) in step S101. That is, the execution number e of the communication action that moves the person in front of the person, the execution number f of the communication action that directs the person's attention to the person, the execution number g of the communication action that brings the person closer to the person, and the self The execution number h of the communication action for keeping the person a little away from is set to “0”.

続くステップS103では、前方の第1所定角度DegF内に制御対象の人間(以下、「当該人間」という。)が存在するかどうかを判断する。ステップS103で“YES”であれば、つまり前方の第1所定角度DegF内に当該人間が存在する場合には、そのまま図15に示すステップS113に進む。   In the subsequent step S103, it is determined whether or not there is a person to be controlled (hereinafter referred to as “the person”) within the first predetermined angle DegF ahead. If “YES” in the step S103, that is, if the person exists within the first predetermined angle DegF ahead, the process proceeds to a step S113 shown in FIG. 15 as it is.

しかし、ステップS103で“NO”であれば、つまり前方の第1所定角度DegF内に当該人間が存在しない場合には、ステップS105で、首の角度をθHDegに設定し、ステップS107で、手を角度θHDegに向けて、「ねぇ、僕の前に来てよ」と発話する。このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身の前方に当該人間を移動させるコミュニケーション行動が実行される。   However, if “NO” in the step S103, that is, if the person is not present within the first predetermined angle DegF ahead, the neck angle is set to θHDeg in a step S105, and the hand is moved in a step S107. Say “Hey, come in front of me” toward the angle θHDeg. In this way, a communication action is performed in which the robot 12 turns to the person, makes a voice while pointing, and moves the person in front of himself / herself.

そして、ステップS109で、自身の前方に当該人間を移動させるコミュニケーション行動の実行回数eをインクリメントする(e=e+1)。続くステップS111では、実行回数eが所定回数N1(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、自身の前方に当該人間を移動させるコミュニケーション行動を3回(以上)実行したか否かを判断するのである。ステップS111で“NO”であれば、つまり実行回数eが2以下であれば、ステップS103に戻る。一方、ステップS111で“YES”であれば、つまり実行回数eが3以上であれば、自身の前方に当該人間が存在するか否かに拘わらず、ステップS113に進む。   In step S109, the execution number e of the communication action for moving the person in front of itself is incremented (e = e + 1). In a succeeding step S111, it is determined whether or not the number of executions e is a predetermined number N1 (for example, 3) or more. That is, it is determined whether or not the robot 12 has executed the communication action for moving the person in front of itself three times (or more). If “NO” in the step S111, that is, if the execution count e is 2 or less, the process returns to the step S103. On the other hand, if “YES” in the step S111, that is, if the execution count e is 3 or more, the process proceeds to the step S113 regardless of whether or not the person exists in front of the user.

図15に示すように、ステップS113では、当該人間が自身の方を見ているかどうかを判断する。ステップS113で“YES”であれば、つまり当該人間が自身の方を見ている(自身に注目している)場合には、そのままステップS123に進む。一方、ステップS113で“NO”であれば、つまり当該人間が自身の方を見ていない(自身に注目していない)場合には、当該人間の注意を自身に向けさせるコミュニケーション行動を実行する。具体的には、ステップS115で、首の角度をθHDegに設定し、ステップS117で、手を角度θHDegに向けて、「ねえねえ、僕を見て」と発話する。このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身の方に当該人間を注目させるコミュニケーション行動が実行される。   As shown in FIG. 15, in step S113, it is determined whether or not the person is looking at the person. If “YES” in the step S113, that is, if the person is looking at himself (ie paying attention to himself), the process proceeds to a step S123 as it is. On the other hand, if “NO” in the step S113, that is, if the person is not looking at the person (not paying attention to the person), a communication action for directing the person's attention to the person is executed. Specifically, in step S115, the neck angle is set to θHDeg, and in step S117, the hand is directed to the angle θHDeg and “Hey, look at me” is spoken. In this way, the communication action is performed in which the robot 12 turns to the person, calls out while pointing, and causes the person to pay attention to the person.

そして、ステップS119で、当該人間の注意を自身に向けさせるコミュニケーション行動の実行回数fをインクリメントする(f=f+1)。続くステップS121では、実行回数fが所定回数N2(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、当該人間の注意を自身に向けさせるコミュニケーション行動を3回(以上)実行したかどうかを判断するのである。ステップS121で“NO”であれば、つまり実行回数fが2以下であれば、そのままステップS113に戻る。一方、ステップS121で“YES”であれば、つまり実行回数fが3以上であれば、当該人間が自身に注目しているか否かにかかわらず、ステップS123に進む。   Then, in step S119, the number of executions f of the communication action for directing the person's attention to himself is incremented (f = f + 1). In a succeeding step S121, it is determined whether or not the number of executions f is a predetermined number N2 (for example, 3) or more. In other words, it is determined whether or not the robot 12 has executed the communication action for directing the attention of the person to itself three times (or more). If “NO” in the step S121, that is, if the execution frequency f is 2 or less, the process returns to the step S113 as it is. On the other hand, if “YES” in the step S121, that is, if the execution frequency f is 3 or more, the process proceeds to a step S123 regardless of whether or not the person is paying attention to himself / herself.

ステップS123では、当該人間との距離dがDistMax(たとえば、3m)以下であるかどうかを判断する。ステップS123で“YES”であれば、つまり当該人間との距離dが3m以下であれば、そのまま図16に示すステップS133に進む。しかし、ステップS123で“NO”であれば、つまり当該人間との距離dが3mを越えていれば、当該人間を自身に近づかせるコミュニケーション行動を実行する。具体的には、ステップS125で、首の角度をθHDegに設定し、ステップS127で、手をθHDegに向けて、「ねえ、もう少し近づいて」と発話する。このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身に当該人間を近づかせるコミュニケーション行動が実行される。   In step S123, it is determined whether the distance d to the person is equal to or less than DistMax (for example, 3 m). If “YES” in the step S123, that is, if the distance d to the person is 3 m or less, the process proceeds to a step S133 shown in FIG. 16 as it is. However, if “NO” in the step S123, that is, if the distance d with the person exceeds 3 m, a communication action is performed to bring the person closer to the person. Specifically, in step S125, the neck angle is set to θHDeg, and in step S127, the hand is directed to θHDeg and “Hey, a little closer” is spoken. In this way, the communication action is performed in which the robot 12 turns to the person and makes a voice while pointing at the person to approach the person.

そして、ステップS129で、自身に当該人間を近づかせるコミュニケーション行動の実行回数gをインクリメントする(g=g+1)。続くステップS131では、実行回数gが所定回数N3(たとえば、3)以上であるか動かを判断する。つまり、ロボット12が、自身に当該人間を近づかせるコミュニケーション行動を3回(以上)実行したか否かを判断するのである。ステップS131で“NO”であれば、つまり実行回数gが2以下であれば、ステップS123に戻る。一方、ステップS131で“YES”であれば、つまり実行回数gが3以上であれば、当該人間との距離dが3mを超えていても、ステップS133に進む。   In step S129, the number of executions g of the communication action that brings the person closer to itself is incremented (g = g + 1). In subsequent step S131, it is determined whether or not the number of executions g is a predetermined number N3 (for example, 3) or more. That is, it is determined whether or not the robot 12 has executed the communication action that brings the person closer to itself three times (or more). If “NO” in the step S131, that is, if the execution count g is 2 or less, the process returns to the step S123. On the other hand, if “YES” in the step S131, that is, if the execution count g is 3 or more, the process proceeds to a step S133 even if the distance d to the person exceeds 3 m.

図16に示すように、ステップS133では、当該人間との距離dがDistMin(たとえば、0.5m)以上かどうかを判断する。ステップS133で“YES”であれば、つまり当該人間との距離dが0.5m以上であれば、当該人間が自身の前方に存在し、自身に注目し、一定範囲内に存在すると判断して、個人注意制御処理をリターンする。   As shown in FIG. 16, in step S133, it is determined whether or not the distance d to the person is DistMin (for example, 0.5 m) or more. If “YES” in the step S133, that is, if the distance d to the person is 0.5 m or more, it is determined that the person exists in front of him, pays attention to himself and is within a certain range. Return the personal attention control process.

一方、ステップS133で“NO”であれば、つまり当該人間との距離dが0.5m未満であれば、当該人間を自身から少し遠ざけるためのコミュニケーション行動を実行する。具体的には、ステップS135で、首の角度をθHDegに設定し、ステップS137で、手を角度θHDegに向けて、「ねえ、もう少し離れてね」と発話する。このようにして、ロボット12が当該人間の方を向き、さらに指差しながら声を掛けて、自身から遠ざけるためのコミュニケーション行動が実行される。   On the other hand, if “NO” in the step S133, that is, if the distance d to the person is less than 0.5 m, a communication action for moving the person a little away from the person is executed. Specifically, in step S135, the neck angle is set to θHDeg, and in step S137, the hand is directed to the angle θHDeg and “Hey, say a little further away”. In this way, the communication action is performed so that the robot 12 turns to the person, makes a voice while pointing, and moves away from the robot 12.

そして、ステップS139で、当該人間を自身から少し遠ざけるためのコミュニケーション行動の実行回数hをインクリメントする(h=h+1)。続くステップS141では、実行回数hが所定回数N4(たとえば、3)以上であるかどうかを判断する。つまり、ロボット12が、当該人間を自身から少し遠ざけるためのコミュニケーション行動を3回(以上)実行したか否かを判断するのである。ステップS141で“NO”であれば、つまり実行回数hが2以下であれば、ステップS133に戻る。一方、ステップS141で“YES”であれば、つまり実行回数hが3以上であれば、当該人間との距離dが0.5m未満であっても、個人注意制御処理をリターンする。   In step S139, the communication action execution count h for keeping the person a little away from him is incremented (h = h + 1). In subsequent step S141, it is determined whether or not the number of executions h is a predetermined number N4 (for example, 3) or more. That is, it is determined whether or not the robot 12 has executed the communication action for moving the person a little away from himself / herself three times (or more). If “NO” in the step S141, that is, if the execution count h is 2 or less, the process returns to the step S133. On the other hand, if “YES” in the step S141, that is, if the execution count h is 3 or more, the personal attention control process is returned even if the distance d to the person is less than 0.5 m.

この実施例によれば、制御対象の人数に応じて、注意制御を選択的に実行するので、適切な注意制御が可能である。したがって、ロボットが人間社会に自然に解け込むことができる。   According to this embodiment, since attention control is selectively executed according to the number of persons to be controlled, appropriate attention control is possible. Therefore, the robot can naturally dissolve into human society.

なお、この実施例では、人間の存在や位置を検出するために床センサを設け、この床センサの出力に基づいてコンピュータで座標信号を求め、コンピュータからロボットに座標信号を与えるようにした。ただし、ロボットに全方位カメラを設けるようにすれば、床センサおよびコンピュータを用いずに、ロボット単体で注意制御を実行することも可能である。かかる場合には、全方位カメラの映像を解析することにより、ロボットの周囲に存在する人間の人数や前方の所定角度内に存在するかどうかを判断することができる。また、かかる場合には、超音波距離センサ(42)の出力に基づいて、周囲に存在する人間との距離を検出することができる。   In this embodiment, a floor sensor is provided to detect the presence and position of a person, a coordinate signal is obtained by a computer based on the output of the floor sensor, and the coordinate signal is given from the computer to the robot. However, if the robot is provided with an omnidirectional camera, it is possible to execute the caution control by the robot alone without using the floor sensor and the computer. In such a case, by analyzing the image of the omnidirectional camera, it is possible to determine the number of humans existing around the robot and whether or not it exists within a predetermined angle in front. Further, in such a case, the distance to the human being existing around can be detected based on the output of the ultrasonic distance sensor (42).

また、この実施例では、人間の存在や位置を検出するために床センサを設けるようにしたが、これに限定されるべきでない。たとえば、床センサに代えて、天井カメラを設け、当該天井カメラの映像を解析するようにしてもよい。かかる場合には、人間の向き(ロボットの方を向いているかどうか)も知ることができる。また、無線タグを人間に装着し、当該無線タグのリーダをロボットに装備するようにしてもよい。かかる場合には、システムに含まれるコンピュータを省略することも可能である。   In this embodiment, a floor sensor is provided to detect the presence and position of a person, but should not be limited to this. For example, instead of a floor sensor, a ceiling camera may be provided and an image of the ceiling camera may be analyzed. In such a case, it is possible to know the direction of the human (whether the robot is facing). Alternatively, a wireless tag may be attached to a human and a reader of the wireless tag may be equipped on the robot. In such a case, the computer included in the system can be omitted.

さらに、この実施例では、眼カメラの映像を解析することにより、人間がロボットの方を見ているかどうかを判断するようにした。しかし、人間の視線方向に赤外線を照射する赤外LEDを人間に装着し、赤外カメラをロボットに装備しておけば、赤外光を検出したかどうかで人間がロボットの方を見ているかどうかを判断することもできる。   Further, in this embodiment, it is determined whether or not a human is looking at the robot by analyzing the image of the eye camera. However, if an infrared LED that irradiates infrared rays in the direction of the human line of sight is attached to the human and the robot is equipped with an infrared camera, whether the human is looking at the robot depending on whether infrared light is detected. It can also be judged.

さらにまた、この実施例では、身長が100cm程度のロボットを用いた場合についての角度や距離を例示した。しかし、それらの数値は適宜変更可能である。   Furthermore, in this embodiment, the angles and distances when a robot having a height of about 100 cm is used are exemplified. However, these numerical values can be changed as appropriate.

また、この実施例では、注意制御においては、無限ループを回避するため、同一のコミュニケーション行動は所定回数だけ実行するようにして、制御対象の人間がロボット12の誘導に従わない場合であっても、それを無視するようにした。しかし、ロボット12が提供するサービスが機密事項のような重要な事項であり、制御対象の人間がロボット12の誘導(指示や命令)に従うべきものである場合には、すべての人間がロボット12の誘導に従わない限り、同じコミュニケーション行動を繰り返すようにしてもよい。かかる場合には、図10−図13に示した集団注意制御処理において、ステップS31,S43,S45,S57,S59,S71,S73,S83,S85を削除し、図14−図16に示した個人注意制御処理において、ステップS109,S111,S119,S121,S129,S131,S139,S141を削除するようにすればよい。ただし、一部のコミュニケーション行動のみを繰り返し実行するようにしてもよい。たとえば、ロボット12に制御対象の人間が注目するまでは、当該制御対象の人間を自身に注目させるためのコミュニケーション行動を繰り返し実行するが、他のコミュニケーション行動は、所定回数だけ実行するようにすることも可能である。   Further, in this embodiment, in the attention control, in order to avoid an infinite loop, the same communication action is executed a predetermined number of times, even when the control target person does not follow the guidance of the robot 12. I tried to ignore it. However, if the service provided by the robot 12 is an important matter such as a confidential matter, and if the person to be controlled should follow the guidance (instructions or commands) of the robot 12, all humans As long as the guidance is not followed, the same communication behavior may be repeated. In such a case, in the group attention control process shown in FIGS. 10 to 13, steps S31, S43, S45, S57, S59, S71, S73, S83, and S85 are deleted, and the individuals shown in FIGS. In the attention control process, steps S109, S111, S119, S121, S129, S131, S139, and S141 may be deleted. However, only some communication actions may be repeatedly executed. For example, until the control target person pays attention to the robot 12, a communication action for causing the control target person to pay attention to the robot 12 is repeatedly executed, but other communication actions are executed a predetermined number of times. Is also possible.

さらに、この実施例では、所定回数M1〜M4,N1〜N2は、すべての同じ回数にしたが、集団注意制御と個人注意制御とで、異なる回数にしてもよく、提供するサービスに応じて適宜設定するようにしてもよく、さらに、各々異なる回数に設定するようにしてもよい。   Further, in this embodiment, the predetermined number of times M1 to M4 and N1 to N2 are all the same number, but the group attention control and the personal attention control may be different times, and are appropriately determined according to the service to be provided. You may make it set, and also you may make it set to each different frequency | count.

図1はこの発明の注意制御システムの一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the attention control system of the present invention. 図2は図1実施例に示すロボットの外観を説明するための図解図である。FIG. 2 is an illustrative view for explaining the appearance of the robot shown in FIG. 1 embodiment. 図3は図1および図2に示すロボットの電気的な構成を示す図解図である。FIG. 3 is an illustrative view showing an electrical configuration of the robot shown in FIGS. 1 and 2. 図4はシステムの適用の一例を示す図解図である。FIG. 4 is an illustrative view showing an example of application of the system. 図5はロボットが集団注意制御を実行する方法を説明するための図解図である。FIG. 5 is an illustrative view for explaining a method in which the robot executes group attention control. 図6はロボットが集団注意制御を実行する方法を説明するための図解図である。FIG. 6 is an illustrative view for explaining a method in which the robot executes group attention control. 図7はロボットが個人注意制御を実行する方法を説明するための図解図である。FIG. 7 is an illustrative view for explaining a method in which the robot executes personal attention control. 図8は図3に示すCPUの全体処理を示すフロー図である。FIG. 8 is a flowchart showing the overall processing of the CPU shown in FIG. 図9は図3に示すCPUの注意制御およびサービスの提供処理を示すフロー図である。FIG. 9 is a flowchart showing the attention control and service provision processing of the CPU shown in FIG. 図10は図3に示すCPUの集団注意制御処理の一部を示すフロー図である。FIG. 10 is a flowchart showing a part of the group attention control process of the CPU shown in FIG. 図11は図3に示すCPUの集団注意制御処理の他の一部であり、図10に後続するフロー図である。FIG. 11 is another part of the group attention control process of the CPU shown in FIG. 3, and is a flowchart subsequent to FIG. 図12は図3に示すCPUの集団注意制御処理のその他の一部であり、図11に後続するフロー図である。FIG. 12 is another part of the group attention control process of the CPU shown in FIG. 3, and is a flowchart subsequent to FIG. 図13は図3に示すCPUの集団注意制御処理のさらに他の一部であり、図12に後続するフロー図である。FIG. 13 is still another part of the group attention control process of the CPU shown in FIG. 3, and is a flowchart subsequent to FIG. 図14は図3に示すCPUの個人注意制御処理の一部を示すフロー図である。FIG. 14 is a flowchart showing a part of the personal attention control process of the CPU shown in FIG. 図15は図3に示すCPUの個人注意制御処理の他の一部であり、図14に後続するフロー図である。15 is another part of the personal attention control process of the CPU shown in FIG. 3, and is a flowchart subsequent to FIG. 図16は図3に示すCPUの個人注意制御処理のその他の一部であり、図15に後続するフロー図である。FIG. 16 is another part of the personal attention control process of the CPU shown in FIG. 3, and is a flowchart subsequent to FIG.

符号の説明Explanation of symbols

10 …注意制御システム
12 …コミュニケーションロボット
14 …コンピュータ
16 …床センサ
38 …衝突センサ
42 …超音波距離センサ
52 …全方位カメラ
54 …眼カメラ
64 …タッチセンサ
76 …CPU
80 …メモリ
82 …モータ制御ボード
84 …センサ入力/出力ボード
86 …音声入力/出力ボード
88−96 …モータ
98 …通信LANボード
100 …無線通信装置
DESCRIPTION OF SYMBOLS 10 ... Attention control system 12 ... Communication robot 14 ... Computer 16 ... Floor sensor 38 ... Collision sensor 42 ... Ultrasonic distance sensor 52 ... Omnidirectional camera 54 ... Eye camera 64 ... Touch sensor 76 ... CPU
DESCRIPTION OF SYMBOLS 80 ... Memory 82 ... Motor control board 84 ... Sensor input / output board 86 ... Voice input / output board 88-96 ... Motor 98 ... Communication LAN board 100 ... Wireless communication apparatus

Claims (12)

身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動して人間の注意を制御するコミュニケーションロボットであって、
周囲に存在する人間の人数を検出する人数検出手段、
周囲に存在する所定人数以上の人間の注意を制御する集団注意制御手段、および
周囲に存在する前記所定人数未満の人間の注意を個別に制御する個人注意制御手段を備え、
前記人数検出手段の検出結果に基づいて集団注意制御手段または個人注意制御手段を選択的に実行し、
前記集団注意制御手段は、
周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する集団存在判断手段、
前記集団存在判断手段によって前記前方の第1所定角度外に前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を当該第1所定角度以内に移動させる第1コミュニケーション行動を実行する第1コミュニケーション行動実行手段、
前記集団存在判断手段によって前記制御対象のすべての人間が前記前方の第1所定角度以内に存在することが判断されたとき、水平面において、前記制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを前記制御対象のすべての人間について判断することにより、当該制御対象のすべての人間が自身の方を見ているか否かを判断する集団注目判断手段、および
前記集団注目判断手段によって自身の方を見ていない前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する第2コミュニケーション行動実行手段を含む、コミュニケーションロボット。
A communication robot that controls human attention by communicating with humans using at least one of body movement and voice,
Number detection means for detecting the number of human beings around,
A group attention control means for controlling the attention of more than a predetermined number of persons around, and an individual attention control means for individually controlling the attention of persons less than the number of persons around
Selectively executing group attention control means or individual attention control means based on the detection result of the number of persons detection means ,
The group attention control means includes
Group existence determination means for determining whether or not all human beings to be controlled exist within a first predetermined angle ahead;
When the group presence determination means determines that the person to be controlled exists outside the first predetermined angle ahead, the first communication moves all the persons to be controlled within the first predetermined angle. A first communication action execution means for executing an action;
When it is determined by the group presence determination means that all the persons to be controlled are present within the first predetermined angle in front, the human eye direction of the target to be controlled and the human being to be controlled in the horizontal plane Determining whether or not the angle formed by the straight line connecting the position of the eye and the position of the eye is equal to or smaller than a second predetermined angle, so that all the persons to be controlled have their own Group attention determination means for determining whether or not
When the group attention determination unit determines that there is a person to be controlled who is not looking at the second person, the second communication that executes the second communication action that causes all the persons to be controlled to pay attention to itself Communication robot including action execution means .
前記集団注目判断手段は、前記第1コミュニケーション行動実行手段によって前記第1コミュニケーション行動が第1所定回数実行されたとき、前記集団存在判断手段の判断結果に拘わらず、前記制御対象のすべての人間が自身の方を見ているか否かを判断する、請求項記載のコミュニケーションロボット。 When the first communication action is executed for the first predetermined number of times by the first communication action executing means, the group attention determining means is configured to determine that all human beings to be controlled are independent of the determination result of the group presence determining means. It determines whether looking towards its own claim 1, wherein the communication robot. 前記集団注意制御手段は、前記集団注目判断手段によって前記制御対象のすべての人間が自身の方を見ていることが判断されたとき、当該制御対象のすべての人間との距離が一定範囲内であるか否かを判断する集団距離判断手段、および前記集団距離判断手段の判断結果に基づいて前記制御対象のすべての人間を前記一定範囲内に移動させる第3コミュニケーション行動を実行する第3コミュニケーション行動実行手段をさらに含む、請求項1または2記載のコミュニケーションロボット。 The group attention control means, when the group attention determination means determines that all the persons to be controlled are looking at themselves, the distance from all the persons to be controlled is within a certain range. Group distance determining means for determining whether or not there is, and third communication action for executing a third communication action for moving all the control target persons within the predetermined range based on the determination result of the group distance determining means further comprising, according to claim 1 or 2 communication robot execution means. 前記集団距離判断手段は、前記第2コミュニケーション行動実行手段によって前記第2コミュニケーション行動が第2所定回数実行されたとき、前記集団注目判断手段の判断結果に拘わらず、前記制御対象のすべての人間との距離が一定範囲内であるか否かを判断する、請求項記載のコミュニケーションロボット。 When the second communication action is executed a second predetermined number of times by the second communication action executing means, the group distance determining means is connected to all the control target human beings regardless of the determination result of the group attention determining means. The communication robot according to claim 3 , wherein it is determined whether or not the distance is within a certain range. 前記集団注意制御手段は、前記第3コミュニケーション行動実行手段によって前記第3コミュニケーション行動が第3所定回数実行されたとき、前記制御対象のすべての人間についての注意の制御を終了する、請求項3または4記載のコミュニケーションロボット。 The population Note control means, when the third communication behavior is performed a third predetermined number of times by the third communication action executing means ends the control of attention for all human the controlled object, according to claim 3 or 4. The communication robot according to 4 . 前記個人注意制御手段は、周囲に存在する制御対象の人間が前方の第3所定角度以内に存在するか否かを判断する個人存在判断手段、および前記個人存在判断手段によって前記制御対象の人間が前記前方の第3所定角度以内に存在しないことが判断されたとき、前記制御対象の人間を前記第3所定角度以内に移動させる第4コミュニケーション行動を実行する第4コミュニケーション行動実行手段を含む、請求項1記載のコミュニケーションロボット。 Said personal care control means, the human said controlled object by personal presence determining means, and the personal presence determining means human control subjects to determine whether there within third predetermined angle of forward existing around And a fourth communication action executing means for executing a fourth communication action for moving the person to be controlled within the third predetermined angle when it is determined that it does not exist within the third predetermined angle ahead. Item 1. The communication robot according to item 1. 前記個人注意制御手段は、前記個人存在判断手段によって前記制御対象の人間が前記前方の第3所定角度以内に存在することが判断されたとき、水平面において、当該制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第4所定角度以下かどうかを判断することにより、当該制御対象の人間が自身の方を見ているか否かを判断する個人注目判断手段、および前記個人注目判断手段によって前記制御対象の人間が自身の方を見ていないことが判断されたとき、当該制御対象の人間を自身に注目させる第5コミュニケーション行動を実行する第5コミュニケーション行動実行手段をさらに含む、請求項記載のコミュニケーションロボット。 The personal attention control means, when it is determined by the personal presence determination means that the person to be controlled is present within the third predetermined angle ahead, in the horizontal plane, the line-of-sight direction of the person to be controlled, Whether or not the person being controlled is looking at himself / herself by determining whether or not the angle formed by the straight line connecting the position of the person's eye and the position of the person being controlled is a fourth predetermined angle or less . And a fifth communication action that causes the person to be controlled to pay attention to himself / herself when the person to be controlled is judged not to look at the person by the person's attention determination means . The communication robot according to claim 6 , further comprising fifth communication action execution means for executing. 前記個人注目判断手段は、前記第4コミュニケーション行動実行手段によって前記第4コミュニケーション行動が第4所定回数実行されたとき、前記個人存在判断手段の判断結果に拘わらず、前記制御対象の人間が自身の方を見ているか否かを判断する、請求項記載のコミュニケーションロボット。 When the fourth communication action is executed by the fourth communication action executing means for a fourth predetermined number of times, the individual attention determining means determines whether the person to be controlled is his / her own regardless of the determination result of the individual presence determining means. The communication robot according to claim 7 , wherein it is determined whether or not the person is looking. 前記個人注意制御手段は、前記個人注目判断手段によって前記制御対象の人間が自身の方を見ていることが判断されたとき、当該制御対象の人間との距離が一定範囲内であるか否かを判断する個人距離判断手段、および前記個人距離判断手段の判断結果に基づいて前記制御対象の人間を前記一定範囲内に移動させる第6コミュニケーション行動を実行する第6コミュニケーション行動実行手段をさらに含む、請求項または記載のコミュニケーションロボット。 The personal attention control means determines whether the distance to the control target person is within a certain range when the personal attention determination means determines that the control target person is looking at the person. And a sixth communication action executing means for executing a sixth communication action for moving the person to be controlled within the predetermined range based on a determination result of the personal distance determination means. The communication robot according to claim 7 or 8 . 前記個人距離判断手段は、前記第5コミュニケーション行動実行手段によって前記第5コミュニケーション行動が第5所定回数実行されたとき、前記個人注目判断手段の判断結果に拘わらず、前記制御対象の人間との距離が一定範囲内であるか否かを判断する、請求項記載のコミュニケーションロボット。 When the fifth communication action is executed by the fifth communication action execution means for a fifth predetermined number of times, the personal distance determination means is a distance from the control target person regardless of the determination result of the individual attention determination means. The communication robot according to claim 9 , wherein it is determined whether or not is within a certain range. 前記個人注意制御手段は、前記第6コミュニケーション行動実行手段によって前記第6コミュニケーション行動が第6所定回数実行されたとき、前記制御対象の人間についての注意の制御を終了する、請求項記載のコミュニケーションロボット。 It said personal care control means, when said sixth communication behavior is performed sixth predetermined number of times by said sixth communication action executing means ends the control of attention for human the control target, communication according to claim 9, wherein robot. 身体動作および音声の少なくとも一方を用いて人間との間でコミュニケーション行動するコミュニケーションロボットを用いて人間の注意を制御する注意制御システムであって、
前記コミュニケーションロボットの周囲に存在する人間の人数を検出する人数検出手段を備え、
前記コミュニケーションロボットは、
周囲に存在する所定人数以上の人間の注意を制御する集団注意制御手段、および
周囲に存在する前記所定人数未満の人間の注意を個別に制御する個人注意制御手段を備え、
前記人数検出手段の検出結果に基づいて集団注意制御手段または個人注意制御手段を選択的に実行し、
前記集団注意制御手段は、
周囲に存在する制御対象のすべての人間が前方の第1所定角度以内に存在するか否かを判断する集団存在判断手段、
前記集団存在判断手段によって前記前方の第1所定角度外に前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を当該第1所定角度以内に移動させる第1コミュニケーション行動を実行する第1コミュニケーション行動実行手段、
前記集団存在判断手段によって前記制御対象のすべての人間が前記前方の第1所定角度以内に存在することが判断されたとき、水平面において、前記制御対象の人間の視線方向と、当該制御対象の人間の眼の位置と自身の位置とを結ぶ直線とがなす角度が第2所定角度以下か否かを前記制御対象のすべての人間について判断することにより、当該制御対象のすべての人間が自身の方を見ているか否かを判断する集団注目判断手段、および
前記集団注目判断手段によって自身の方を見ていない前記制御対象の人間が存在することが判断されたとき、前記制御対象のすべての人間を自身に注目させる第2コミュニケーション行動を実行する第2コミュニケーション行動実行手段を含む、注意制御システム。
An attention control system that controls human attention using a communication robot that performs communication with humans using at least one of body movement and voice,
Comprising number-of-people detection means for detecting the number of humans present around the communication robot;
The communication robot is
A group attention control means for controlling the attention of more than a predetermined number of persons around, and an individual attention control means for individually controlling the attention of persons less than the number of persons around
Selectively executing group attention control means or individual attention control means based on the detection result of the number of persons detection means ,
The group attention control means includes
Group existence determination means for determining whether or not all human beings to be controlled exist within a first predetermined angle ahead;
When the group presence determination means determines that the person to be controlled exists outside the first predetermined angle ahead, the first communication moves all the persons to be controlled within the first predetermined angle. A first communication action execution means for executing an action;
When it is determined by the group presence determination means that all the persons to be controlled are present within the first predetermined angle in front, the human eye direction of the target to be controlled and the human being to be controlled in the horizontal plane Determining whether or not the angle formed by the straight line connecting the position of the eye and the position of the eye is equal to or smaller than a second predetermined angle, so that all the persons to be controlled have their own Group attention determination means for determining whether or not
When the group attention determination unit determines that there is a person to be controlled who is not looking at the second person, the second communication that executes the second communication action that causes all the persons to be controlled to pay attention to itself Attention control system including action execution means .
JP2005313470A 2005-10-27 2005-10-27 Communication robot and attention control system using the same Active JP4822319B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005313470A JP4822319B2 (en) 2005-10-27 2005-10-27 Communication robot and attention control system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005313470A JP4822319B2 (en) 2005-10-27 2005-10-27 Communication robot and attention control system using the same

Publications (2)

Publication Number Publication Date
JP2007118129A JP2007118129A (en) 2007-05-17
JP4822319B2 true JP4822319B2 (en) 2011-11-24

Family

ID=38142519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005313470A Active JP4822319B2 (en) 2005-10-27 2005-10-27 Communication robot and attention control system using the same

Country Status (1)

Country Link
JP (1) JP4822319B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009166184A (en) * 2008-01-17 2009-07-30 Saitama Univ Guide robot
JP5157595B2 (en) * 2008-04-01 2013-03-06 トヨタ自動車株式会社 Customer service system and customer service method
JP5077077B2 (en) * 2008-05-30 2012-11-21 富士通株式会社 Movement explanation device and movement explanation program
JP5336896B2 (en) * 2009-03-24 2013-11-06 株式会社国際電気通信基礎技術研究所 Objective behavior estimation apparatus and service providing system
JP5751610B2 (en) * 2010-09-30 2015-07-22 学校法人早稲田大学 Conversation robot
JP2012213828A (en) * 2011-03-31 2012-11-08 Fujitsu Ltd Robot control device and program
EP2810748A4 (en) * 2012-02-03 2016-09-07 Nec Corp Communication draw-in system, communication draw-in method, and communication draw-in program
JP5439549B2 (en) * 2012-07-09 2014-03-12 株式会社東芝 Information processing apparatus, information processing system, service providing system, and information processing method
JP5862585B2 (en) * 2013-03-22 2016-02-16 トヨタ自動車株式会社 Communication system and robot
JP6142306B2 (en) * 2013-09-27 2017-06-07 株式会社国際電気通信基礎技術研究所 Robot control system, robot, output control program, and output control method
JP5948359B2 (en) * 2014-03-11 2016-07-06 本田技研工業株式会社 Robot and robot control method
JP6203696B2 (en) * 2014-09-30 2017-09-27 富士ソフト株式会社 robot
WO2017187614A1 (en) * 2016-04-28 2017-11-02 富士通株式会社 Communication control device, method, and system
GB2552981B (en) * 2016-08-17 2020-04-01 Univ Of Hertfordshire Higher Education Corporation An Interactive Humanoid Robot using RFID Tagged Objects
JP6893410B2 (en) * 2016-11-28 2021-06-23 株式会社G−グロボット Communication robot
CN110177660B (en) * 2017-01-19 2022-06-14 夏普株式会社 Language control device, robot, storage medium, and control method
JP6726145B2 (en) * 2017-09-12 2020-07-22 株式会社日立ビルシステム Elevator hall guidance system
JP7174673B2 (en) * 2019-06-17 2022-11-17 株式会社日立ビルシステム Guide robot
CN111273833B (en) * 2020-03-25 2022-02-01 北京百度网讯科技有限公司 Man-machine interaction control method, device and system and electronic equipment

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2993867B2 (en) * 1995-05-24 1999-12-27 中小企業事業団 Robot system that responds variously from audience information
JPH08318052A (en) * 1995-05-24 1996-12-03 Ricoh Elemex Corp Robot system coping with reaction of unspecified many number of audience
JPH10289006A (en) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd Method for controlling object to be controlled using artificial emotion
JP2002207924A (en) * 2001-01-12 2002-07-26 Maiteku:Kk System, method, and device for advertisement sales, managing device, and storage medium
JP2005131713A (en) * 2003-10-28 2005-05-26 Advanced Telecommunication Research Institute International Communication robot
JP4431757B2 (en) * 2004-03-30 2010-03-17 株式会社国際電気通信基礎技術研究所 Robot system
JP4206052B2 (en) * 2004-03-31 2009-01-07 本田技研工業株式会社 Detection target detection system

Also Published As

Publication number Publication date
JP2007118129A (en) 2007-05-17

Similar Documents

Publication Publication Date Title
JP4822319B2 (en) Communication robot and attention control system using the same
JP5033994B2 (en) Communication robot
JP5186723B2 (en) Communication robot system and communication robot gaze control method
JP4639343B2 (en) Robot remote control system
JP5366048B2 (en) Information provision system
JP4386367B2 (en) Communication robot improvement system
JP5070441B2 (en) Robot remote control system
JP5318623B2 (en) Remote control device and remote control program
JP4599522B2 (en) Communication robot
JP2006247780A (en) Communication robot
JP5145569B2 (en) Object identification method and apparatus
JP2007160427A (en) Robot control system
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
JP2007196300A (en) Robot control system
JP4617428B2 (en) Motion generation system
JP4565196B2 (en) Communication robot
JP4399603B2 (en) Communication robot
JP2005131713A (en) Communication robot
JP2006205343A (en) Communication robot system, and robot control device
JP2007130691A (en) Communication robot
JP4798581B2 (en) Robot system
JP4793904B2 (en) Communication robot system and communication robot
JP2004042151A (en) Communication robot
JP2015066625A (en) Attention object estimation system, robot, and control program
JP4779114B2 (en) Communication robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110901

R150 Certificate of patent or registration of utility model

Ref document number: 4822319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250