JP2012161851A - Robot system and space formation recognizing device used in the same - Google Patents

Robot system and space formation recognizing device used in the same Download PDF

Info

Publication number
JP2012161851A
JP2012161851A JP2011021940A JP2011021940A JP2012161851A JP 2012161851 A JP2012161851 A JP 2012161851A JP 2011021940 A JP2011021940 A JP 2011021940A JP 2011021940 A JP2011021940 A JP 2011021940A JP 2012161851 A JP2012161851 A JP 2012161851A
Authority
JP
Japan
Prior art keywords
robot
person
state
dialog
formation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011021940A
Other languages
Japanese (ja)
Other versions
JP5732632B2 (en
Inventor
Cho Ishi
超 石
Takayuki Kanda
崇行 神田
Tomohiro Shimada
倫博 嶋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2011021940A priority Critical patent/JP5732632B2/en
Publication of JP2012161851A publication Critical patent/JP2012161851A/en
Application granted granted Critical
Publication of JP5732632B2 publication Critical patent/JP5732632B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To make a robot naturally start a dialogue with a human body, and to progress smooth communication by making the robot perform a salutation speed after a space formation in which the robot and the human body are brought into dialogue participation states is generated.SOLUTION: This robot system 100 includes the robot 10 and a motion capture system 12. In the robot system 100, the space formation between the robot 10 and the human body is analyzed by using positions of the robot 10 and the human beings, the orientation of the body and a direction of a view, and the dialogue participation states of the robot 10 and the human body are recognized. Then, after the robot 10 and the human body are brought into the dialogue participation states by an effect that the robot 10 takes proper motion according to the recognized dialogue participation states, the robot 10 performs the salutation speech to the human body.

Description

この発明はロボットシステムおよびそれに用いる空間陣形認識装置に関し、特にたとえば、少なくとも発話を用いて人との間でコミュニケーションを実行するロボットを含む、ロボットシステムおよびそれに用いる空間陣形認識装置に関する。   The present invention relates to a robot system and a space formation recognition apparatus used therefor, and more particularly to a robot system including a robot that performs communication with a person using at least speech and a space formation recognition apparatus used therefor.

近年、発話や身体動作などを用いて、展示案内や客引きなどの多様なサービスを提供するロボット(コミュニケーションロボット)が開発されている。ここで、ロボットが展示案内や客引きなどのサービスを提供する場合には、人とのインタラクション(コミュニケーション)をどのように引き起こすかが重要となる。ロボットが目新しい存在である場合には、人の方からインタラクションを開始してくれるかもしれないが、近い将来、ロボットの目新しさが薄れるであろうことを考慮すると、ロボット側から働きかけてインタラクションを開始する必要があると考えられるからである。   In recent years, robots (communication robots) that provide various services such as exhibition guidance and customer attraction using speech and body movements have been developed. Here, when a robot provides services such as exhibition guidance and customer attraction, how to cause interaction (communication) with a person is important. If the robot is a novelty, it may start interaction from a person, but considering that the novelty of the robot will fade in the near future, work from the robot side to start the interaction Because it is thought that it is necessary to do.

すなわち、人とのコミュニケーションをより円滑に遂行し、サービスをより効率良く提供するためには、ロボットが、適切なタイミングおよび位置で人に話しかける機能、つまり人と対話(会話)を自然に始める機能を身に付けることが重要であると考えられる。   In other words, in order to perform communication with people more smoothly and provide services more efficiently, the function that the robot speaks to people at the appropriate timing and position, that is, the function that starts conversation with the person naturally. It is thought that it is important to acquire.

たとえば、特許文献1には、従来の会話ロボットの一例が開示されている。特許文献1の会話ロボットは、人の顔または体の正面方向を検出し、検出した人の顔または体の正面方向に移動した後、人の目を見て人に話しかけるようにしている。   For example, Patent Document 1 discloses an example of a conventional conversation robot. The conversation robot of Patent Document 1 detects the front direction of a person's face or body, moves to the front direction of the detected person's face or body, and then talks to the person by looking at the person's eyes.

一方、非特許文献1には、人同士がインタラクションを行う際に、F陣形と呼ばれる特定の空間陣形を維持することが開示されている。また、非特許文献2には、非特許文献1の空間陣形に関する考えを、人とロボットとのインタラクションに利用することが開示されている。
特開2004−34274号公報 [G05D 1/02] Kendon,A., 1990, Spatial Organization in Social Encounters: the F-formation System, in Conducting Interaction: Patterns of Behavior in Focused Encounters, A. Kendon ed., Cambridge University Press, pp. 209-238. Kuzuoka, H., Suzuki, Y., Yamashita, J. and Yamazaki, K., 2010, Reconfiguring Spatial Formation Arrangement by Robot Body Orientation, ACM/IEEE Int. Conf. on Human-Robot Interaction (HRI2010), pp. 285-292.
On the other hand, Non-Patent Document 1 discloses that a specific space formation called an F formation is maintained when people interact with each other. Non-Patent Document 2 discloses that the idea about the spatial formation of Non-Patent Document 1 is used for interaction between a human and a robot.
JP 2004-34274 A [G05D 1/2] Kendon, A., 1990, Spatial Organization in Social Encounters: the F-formation System, in Conducting Interaction: Patterns of Behavior in Focused Encounters, A. Kendon ed., Cambridge University Press, pp. 209-238. Kuzuoka, H., Suzuki, Y., Yamashita, J. and Yamazaki, K., 2010, Reconfiguring Spatial Formation Arrangement by Robot Body Orientation, ACM / IEEE Int. Conf. On Human-Robot Interaction (HRI2010), pp. 285 -292.

特許文献1の技術では、人の真正面に移動してから対話を開始している。人の真正面で人の目を見ながら話すことによって親近感は増すかもしれないが、人に声をかけるタイミングおよび位置としては、人の真正面に移動したときが常に適切であるとは限らない。たとえば、人間同士が対話をするときにいつでも、わざわざ相手の真正面に移動してから対話を始めるかというと、そうではないので、特許文献1の技術のようなロボットの行動は、不自然なものとなってしまう。すなわち、ロボットが人に話しかける状況というのは、様々であり、たとえば、人の正面方向から近づいて話しかける状況があれば、横方向や背後方向から近づいて話しかける状況もある。また、単に人との対話を目的とするだけの状況があれば、人に商品の説明をしたり、人を商品の近くまで誘導したりしなければならない状況もある。特許文献1の技術では、このような様々な状況に対して適切に対応することができない。   In the technique of Patent Document 1, the conversation is started after moving in front of a person. Talking while looking at the person's eyes directly in front of the person may increase intimacy, but the timing and position of speaking to the person is not always appropriate when moving in front of the person. For example, whenever a person talks with each other, it is not always the case that the conversation is started after moving to the front of the other party. Therefore, the behavior of the robot as in the technique of Patent Document 1 is unnatural. End up. That is, there are various situations in which the robot talks to a person. For example, if there is a situation where the robot approaches from the front direction of the person and talks, the situation may approach from the lateral direction or the rear direction. In addition, if there is a situation that is simply for the purpose of dialogue with a person, there are situations in which the product must be explained to the person or the person must be guided close to the product. The technique of Patent Document 1 cannot appropriately cope with such various situations.

また、非特許文献1および2の技術では、人同士、或いは人とロボットとが、既にインタラクションを開始していることを前提としている。つまり、様々な状況が起こり得る中で、ロボットが、人に対してどのようなタイミングおよび位置で話しかけて対話を開始すればよいかについては、明らかにされていない。   In the techniques of Non-Patent Documents 1 and 2, it is assumed that people or people and a robot have already started interaction. In other words, it is not clarified at what timing and position the robot should speak to a person and start a conversation in a variety of situations.

それゆえに、この発明の主たる目的は、新規な、ロボットシステムおよびそれに用いる空間陣形認識装置を提供することである。   Therefore, a main object of the present invention is to provide a novel robot system and a space formation recognition apparatus used therefor.

この発明の他の目的は、人との対話を自然に開始できる、ロボットシステムおよびそれに用いる空間陣形認識装置を提供することである。   Another object of the present invention is to provide a robot system and a spatial formation recognition device used therefor that can naturally start a dialogue with a person.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses and supplementary explanations indicate correspondence with embodiments described later in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、少なくとも発話を用いて人との間でコミュニケーションを実行するロボットを含むロボットシステムであって、位置、体の向きおよび視線方向を含む人およびロボットの配置情報を検出する検出手段、検出手段によって検出された配置情報に基づいて人とロボットとの空間陣形を分析し、人およびロボットの対話参加状態を判定する判定手段、判定手段によって人およびロボットの少なくとも一方が対話参加状態でないと判断されたとき、人およびロボットの双方が対話参加状態となるようにロボットの動作を制御する空間陣形調整手段、および判定手段によって人およびロボットの双方が対話参加状態であると判断されたとき、人に対する挨拶発話をロボットに実行させる挨拶実行手段を備える、ロボットシステムである。   A first invention is a robot system including a robot that performs communication with a person using at least an utterance, and detecting means for detecting arrangement information of a person and a robot including a position, a body direction, and a gaze direction , A determination means for analyzing a spatial formation between the person and the robot based on the arrangement information detected by the detection means, and determining a dialog participation state of the person and the robot, and at least one of the person and the robot is not in the dialog participation state by the determination means When it is determined that both the person and the robot are in the dialog participation state, the space formation adjusting means for controlling the operation of the robot so that both the person and the robot are in the dialog participation state, and the determination means are determined that both the person and the robot are in the dialog participation state. The robot system includes a greeting execution means for causing the robot to execute a greeting utterance to a person.

第1の発明では、ロボットシステム(100)は、少なくとも発話を用いて人との間でコミュニケーションを実行するロボット(10)を含む。このロボットは、配置された環境内において、人に対して自ら話しかけて人とのインタラクションを引き起こす。検出手段(12,62,66,84,86,S1)は、人およびロボットの配置情報、たとえば位置、体の向きおよび視線方向を検出する。判定手段(62,66,S3)は、人およびロボットの配置情報に基づいて空間陣形(空間的な配置関係)を分析することによって、人およびロボットの対話参加状態を判定する。ここで、対話参加状態とは、対話への参加に対して暗黙的に同意した状態(心的同意状態)をいい、たとえば、人および自身に対して予め定義される視線領域(gz)、正面領域(bz)、視野領域(sz)および視野(fv)を用いて表される空間陣形に基づいて推定(認識)される。空間陣形調整手段(26,54,62,66,82,S5−17)は、人およびロボットの対話参加状態に応じてロボットの動作を制御し、人およびロボットの双方が対話参加状態となる空間陣形を形成する。挨拶実行手段(54,62,66,S19)は、人およびロボットの双方が対話参加状態(双方参加状態)になったとき、「こんにちは」や「いらっしゃいませ」等の挨拶発話をロボットに実行させる。   In the first invention, the robot system (100) includes a robot (10) that performs communication with a person using at least speech. The robot talks to the person himself / herself in the environment where the robot is arranged and causes interaction with the person. The detection means (12, 62, 66, 84, 86, S1) detects arrangement information of the person and the robot, for example, the position, the body direction, and the line-of-sight direction. The determination means (62, 66, S3) determines the dialogue participation state of the person and the robot by analyzing the space formation (spatial arrangement relationship) based on the arrangement information of the person and the robot. Here, the dialogue participation state refers to a state (mental agreement state) implicitly agreed to participation in the dialogue, for example, a line-of-sight area (gz) defined in advance for a person and himself, front view It is estimated (recognized) based on the spatial formation represented by using the region (bz), the visual field region (sz), and the visual field (fv). The space formation adjusting means (26, 54, 62, 66, 82, S5-17) controls the operation of the robot according to the dialogue participation state of the person and the robot, and the space where both the person and the robot are in the dialogue participation state. Form a formation. Greeting execution means (54,62,66, S19) is, when both of human and robot has become interactive participation state (both participating state), to perform a greeting speech such as "Hello" or "May I help you?" The robot .

第1の発明によれば、双方が対話参加状態となる空間陣形を生成した後に挨拶発話を実行するので、人との対話を自然に開始でき、円滑にコミュニケーションを図ることができる。   According to the first invention, since the greeting utterance is executed after generating the spatial formation in which both parties are in the dialogue participation state, the dialogue with the person can be started naturally and smooth communication can be achieved.

第2の発明は、第1の発明に従属し、判定手段は、人の頭部およびロボットの頭部が共に相手の視線領域に入る状態の空間陣形になったとき、人およびロボットの双方が対話参加状態であると判断する。   The second invention is dependent on the first invention, and the determination means is configured such that when both the human head and the robot head are in a space formation in a state where they enter the line-of-sight area of the opponent, It is determined that the user is in a dialog participation state.

第2の発明では、判定手段(62,66,S3)は、人の頭部がロボット(10)の視線領域(gz)に入り、かつロボットの頭部(52)が人の視線領域に入る状態の空間陣形になったとき、つまり所定距離内で人およびロボットの視線が合ったとき、双方参加状態であると判断する。これによって、双方参加状態を適切に認識できる。   In the second invention, the judging means (62, 66, S3) has the human head in the line-of-sight region (gz) of the robot (10) and the robot head (52) in the human line-of-sight region. When the space form of the state is reached, that is, when the line of sight of the person and the robot is within a predetermined distance, it is determined that both are in a participating state. As a result, it is possible to appropriately recognize the both-participation state.

第3の発明は、第1または第2の発明に従属し、判定手段は、人およびロボットが共に相手の正面領域に入る状態の空間陣形になったとき、人およびロボットの双方が対話参加状態であると判断する。   The third invention is dependent on the first or second invention, and the determination means is in a state where both the person and the robot participate in the dialogue when both the person and the robot enter a space formation state in which the person enters the front area of the opponent. It is judged that.

第3の発明では、判定手段(62,66,S3)は、ロボット(10)の正面領域(bz)に人が入り、かつ人の正面領域にロボットが入る状態の空間陣形になったとき、双方参加状態であると判断する。これによって、双方参加状態を適切に認識できる。   In the third invention, when the determination means (62, 66, S3) has a space shape in which a person enters the front area (bz) of the robot (10) and the robot enters the front area of the person, It is determined that both parties are participating. As a result, it is possible to appropriately recognize the both-participation state.

第4の発明は、第1ないし第3のいずれかの発明に従属し、判定手段は、人の頭部およびロボットの頭部が共に相手の視線領域に入る状態ではなく、人の正面領域にロボットが入り、ロボットの正面領域に人が入らず、かつロボットの視野に人が入る状態の空間陣形になったとき、人のみが対話参加状態であると判断する。   The fourth invention is dependent on any one of the first to third inventions, and the determination means is not in a state where the head of the person and the head of the robot are both in the line-of-sight area of the opponent, but in the front area of the person. When the robot enters, a space formation is formed in which the person does not enter the front area of the robot and the person enters the field of view of the robot, it is determined that only the person is in the conversation participation state.

第4の発明では、判定手段(62,66,S3)は、所定距離内で人およびロボット(10)の視線が合う状態ではなく、人の正面領域(bz)にロボットが入り、ロボットの正面領域に人が入らず、かつロボットの視野(fv)に人が入る状態の空間陣形になったとき、人のみが対話参加状態であると判断する。これによって、人のみが対話参加状態であることを適切に認識できる。   In the fourth invention, the determination means (62, 66, S3) is not in a state in which the line of sight of the person and the robot (10) is within a predetermined distance, but the robot enters the front area (bz) of the person and the front of the robot. When a space is formed in a state where no person enters the area and a person enters the field of view (fv) of the robot, it is determined that only the person is in the conversation participation state. This makes it possible to appropriately recognize that only a person is in a dialog participation state.

第5の発明は、第1ないし第4のいずれかの発明に従属し、判定手段は、人の頭部およびロボットの頭部が共に相手の視線領域に入る状態ではなく、ロボットの正面領域に人が入り、人の正面領域にロボットが入らず、かつ人の視野領域にロボットが入る状態の空間陣形になったとき、ロボットのみが対話参加状態であると判断する。   The fifth invention is dependent on any one of the first to fourth inventions, and the determination means is not in a state where both the human head and the robot head enter the partner's line-of-sight region, but in the front region of the robot. When a space is formed such that a person enters, a robot does not enter the person's front area, and a robot enters the person's visual field area, it is determined that only the robot is in the conversation participation state.

第5の発明では、判定手段(62,66,S3)は、所定距離内で人およびロボット(10)の視線が合う状態ではなく、ロボットの正面領域(bz)に人が入り、人の正面領域にロボットが入らず、かつ人の視野領域(sz)にロボットが入る状態の空間陣形になったとき、ロボットのみが対話参加状態であると判断する。これによって、ロボットのみが対話参加状態であることを適切に認識できる。   In the fifth invention, the determination means (62, 66, S3) is not in a state in which the line of sight of the person and the robot (10) are aligned within a predetermined distance, and the person enters the front area (bz) of the robot. When a space is formed in a state where the robot does not enter the region and the robot enters the human visual field region (sz), it is determined that only the robot is in the dialog participation state. This makes it possible to appropriately recognize that only the robot is in the dialog participation state.

第6の発明は、第1ないし第5のいずれかの発明に従属し、空間陣形調整手段は、判定手段によって人およびロボットの双方が対話参加状態でないと判断されたとき、空間陣形の主動調整移動をロボットに実行させる主動調整手段を含む。   The sixth invention is dependent on any one of the first to fifth inventions, and the spatial formation adjusting means adjusts the main movement of the spatial formation when it is determined by the determination means that neither the person nor the robot is in the dialogue participation state. It includes a main adjustment means for causing the robot to execute the movement.

第6の発明では、空間陣形調整手段(26,54,62,66,82,S5−17)は、主動調整手段(26,62,66,82,S5,S7)を含む。主動調整手段は、判定手段(62,66,S3)によって、人およびロボット(10)の双方が対話参加状態でない、すなわち双方非参加状態である判断されたとき、ロボットに空間陣形の主動調整移動を実行させる。たとえば、空間陣形の主動調整移動では、ロボットの正面領域(fz)に人が入り、かつ人の視野領域(fv)にロボットが入るような地点(或いは配置状態)を移動目標位置として設定してロボットを移動させる。   In the sixth invention, the space formation adjusting means (26, 54, 62, 66, 82, S5-17) includes main movement adjusting means (26, 62, 66, 82, S5, S7). When the determination means (62, 66, S3) determines that both the person and the robot (10) are not participating in the dialogue, that is, both are not participating, the main movement adjustment means moves the robot into a space-form main movement adjustment movement. Is executed. For example, in the main movement adjustment movement of the space formation, a point (or arrangement state) where a person enters the front area (fz) of the robot and the robot enters the human field of view (fv) is set as the movement target position. Move the robot.

第6の発明によれば、少なくともロボットが対話参加状態になる空間陣形が確保される。   According to the sixth aspect of the invention, at least a space formation in which the robot is in a dialog participation state is secured.

第7の発明は、第6の発明に従属し、主動調整手段は、説明すべき対象物があるとき、対象物の説明を行い易い地点をロボットの移動目標位置として選択する。   The seventh invention is dependent on the sixth invention, and when there is an object to be explained, the main adjustment means selects a point where the object can be easily explained as a movement target position of the robot.

第7の発明では、主動調整手段(26,62,66,82,S5,S7)は、説明すべき対象物があるとき、対象物の説明を行い易い地点をロボット(10)の移動目標位置として設定する。たとえば、ロボットの正面領域(fz)に人が入り、かつ人の視野領域(fv)にロボットが入るような地点を移動目標位置として設定するという条件を満たす上で、さらに、対象物がロボットおよび人の双方の視野(fv)に入る空間陣形となるように、移動目標位置が設定される。   In the seventh invention, the main motion adjusting means (26, 62, 66, 82, S5, S7), when there is an object to be explained, sets a point where the object can be easily explained as the movement target position of the robot (10). Set as. For example, in order to satisfy the condition that a point where a person enters the front area (fz) of the robot and the robot enters the field of view (fv) of the person is set as a movement target position, The movement target position is set so as to form a spatial formation that falls within both fields of view (fv) of the person.

第7の発明によれば、対象物の説明を行い易い地点をロボットの移動目標位置として選択するので、ロボットは、対話を始めた後の位置や体の向き等の調整を極力避けることができ、より自然で円滑なインタラクションを人との間で実行できる。   According to the seventh aspect, since the point where the object can be easily explained is selected as the movement target position of the robot, the robot can avoid the adjustment of the position and the body orientation after starting the dialogue as much as possible. , More natural and smooth interaction with people.

第8の発明は、第1ないし第7のいずれかの発明に従属し、空間陣形調整手段は、判定手段によって人のみが対話参加状態であると判断されたとき、空間陣形の受動調整移動をロボットに実行させる受動調整手段を含む。   The eighth invention is dependent on any one of the first to seventh inventions, and the spatial formation adjusting means performs the passive adjustment movement of the spatial formation when the determination means determines that only the person is in the dialogue participation state. Passive adjustment means to be executed by the robot is included.

第8の発明では、空間陣形調整手段(26,54,62,66,82,S5−17)は、受動調整手段(26,62,66,82,S9,S11)を含む。受動調整手段は、判定手段(62,66,S3)によって、人のみが対話参加状態であると判断されたとき、ロボット(10)に空間陣形の受動調整移動を実行させる。たとえば、空間陣形の受動調整移動では、ロボットの正面領域(fz)に人が入るように体の向きを調整することによって、ロボットも対話参加状態になるようにされる。   In the eighth invention, the spatial formation adjusting means (26, 54, 62, 66, 82, S5-17) includes passive adjusting means (26, 62, 66, 82, S9, S11). The passive adjustment means causes the robot (10) to execute a spatial adjustment passive adjustment movement when it is determined by the determination means (62, 66, S3) that only a person is in the dialog participation state. For example, in the passive adjustment movement of the spatial formation, the robot is also brought into a dialog participation state by adjusting the body direction so that a person enters the front area (fz) of the robot.

第8の発明によれば、人の方からロボットに働きかけようとした場合に、ロボットが人に興味を持っていることを人に示すことができるので、人が途中で諦めてロボットから離れてしまうことを防止できる。   According to the eighth invention, when a person tries to work on the robot, the person can be shown that the robot is interested in the person. Can be prevented.

第9の発明は、第1ないし第8のいずれかの発明に従属し、空間陣形調整手段は、判定手段によってロボットのみが対話参加状態であると判断されたとき、注意喚起発話をロボットに実行させる注意喚起実行手段を含む。   A ninth invention is dependent on any one of the first to eighth inventions, and the spatial formation adjusting means executes a warning utterance to the robot when it is judged by the judging means that only the robot is in the dialogue participation state. Including an alerting execution means.

第9の発明では、空間陣形調整手段(26,54,62,66,82,S5−17)は、注意喚起実行手段(54,62,66,S13,S15)を含む。注意喚起実行手段は、判定手段(62,66,S3)によって、ロボット(10)のみが対話参加状態であると判断されたとき、ロボットに「すみません」等の注意喚起発話を実行させる。この注意喚起発話によって、人に位置や体の向き等を調整してもらうことができるので、双方参加状態を実現できる。   In the ninth invention, the space formation adjusting means (26, 54, 62, 66, 82, S5-17) includes alerting executing means (54, 62, 66, S13, S15). The alerting execution means causes the robot to execute an alerting utterance such as “I am sorry” when it is determined by the determining means (62, 66, S3) that only the robot (10) is in the dialog participation state. This alerting utterance allows the person to adjust the position, body orientation, etc., so that the participation state can be realized.

第9の発明によれば、人の前方の空間が狭い等して、ロボットが人の正面領域に回り込めない状況にも柔軟に対応でき、より自然で円滑なインタラクションを人との間で実行できる。   According to the ninth aspect of the invention, it is possible to flexibly cope with a situation in which the robot cannot go around the front area of the person because the space in front of the person is narrow, and more natural and smooth interaction is performed with the person. it can.

第10の発明は、第1ないし第9のいずれかの発明に従属し、判定手段によって人およびロボットの双方が対話参加状態であると判断されたとき、対話に適した空間陣形となるようにロボットの動作を制御する対話陣形調整手段をさらに備える。   The tenth invention is dependent on any one of the first to ninth inventions, and when the determination means determines that both the person and the robot are in the dialog participation state, the space form is suitable for the dialog. It further includes dialog formation adjusting means for controlling the operation of the robot.

第10の発明では、対話陣形調整手段(26,62,66,82,S21)をさらに備える。対話陣形調整手段は、対話のためにより適切な場所への調整移動をロボット(10)に実行させる。たとえば、双方参加状態となる空間陣形を維持しながら、人との距離が1.1−1.5mとなる領域にロボットを移動させる。   In a tenth aspect of the present invention, a dialogue shape adjusting means (26, 62, 66, 82, S21) is further provided. The dialogue formation adjustment means causes the robot (10) to perform adjustment movement to a more appropriate place for dialogue. For example, the robot is moved to an area where the distance from the person is 1.1 to 1.5 m while maintaining a space formation in which both sides are participating.

第10の発明によれば、その後の人との対話をより快適に実行することができ、より自然で円滑なインタラクションを人との間で実行できる。   According to the tenth aspect, the subsequent dialogue with the person can be executed more comfortably, and a more natural and smooth interaction can be executed with the person.

第11の発明は、少なくとも発話を用いて人との間でコミュニケーションを実行するロボットの動作制御に用いられる空間陣形認識装置であって、位置、体の向きおよび視線方向を含む人およびロボットの配置情報を検出する検出手段、および検出手段によって検出された配置情報に基づいて人とロボットとの空間陣形を分析し、人およびロボットの対話参加状態を判定する判定手段を備える、空間陣形認識装置である。   An eleventh aspect of the present invention is a spatial formation recognition apparatus used for motion control of a robot that performs communication with a person using at least an utterance, the arrangement of the person and the robot including a position, a body direction, and a line-of-sight direction A space formation recognition device comprising: detection means for detecting information; and a determination means for analyzing a spatial formation of a person and a robot based on arrangement information detected by the detection means and determining a dialog participation state of the person and the robot is there.

第11の発明では、空間陣形認識装置(10,62,66)は、少なくとも発話を用いて人との間でコミュニケーションを実行するロボット(10)の動作制御に用いられ、検出手段(12,62,66,84,86,S1)および判定手段(62,66,S3)を含む。検出手段(12,62,66,84,86,S1)は、人およびロボットの配置情報、たとえば位置、体の向きおよび視線方向を検出する。判定手段(62,66,S3)は、人およびロボットの配置情報に基づいて空間陣形(空間的な配置関係)を分析することによって、人およびロボットの対話参加状態を判定する。ここで、対話参加状態とは、対話への参加に対して暗黙的に同意した状態(心的同意状態)をいい、たとえば、人および自身に対して予め定義される視線領域(gz)、正面領域(bz)、視野領域(sz)および視野(fv)を用いて表される空間陣形に基づいて推定(認識)される。   In the eleventh aspect of the invention, the space formation recognizing device (10, 62, 66) is used for controlling the operation of the robot (10) that performs communication with a person using at least speech, and the detecting means (12, 62). , 66, 84, 86, S1) and determination means (62, 66, S3). The detection means (12, 62, 66, 84, 86, S1) detects arrangement information of the person and the robot, for example, the position, the body direction, and the line-of-sight direction. The determination means (62, 66, S3) determines the dialogue participation state of the person and the robot by analyzing the space formation (spatial arrangement relationship) based on the arrangement information of the person and the robot. Here, the dialogue participation state refers to a state (mental agreement state) implicitly agreed to participation in the dialogue, for example, a line-of-sight area (gz) defined in advance for a person and himself, front view It is estimated (recognized) based on the spatial formation represented by using the region (bz), the visual field region (sz), and the visual field (fv).

第11の発明によれば、人およびロボットの対話参加状態を判定できるので、この判定結果に合わせてロボットの動作を制御することによって、人との対話を自然に開始できるロボットを実現できる。   According to the eleventh aspect, since the conversation participation state of the person and the robot can be determined, it is possible to realize a robot that can naturally start a conversation with a person by controlling the operation of the robot in accordance with the determination result.

この発明によれば、双方が対話参加状態となる空間陣形を生成した後に挨拶発話を実行するので、人との対話を自然に開始でき、円滑にコミュニケーションを図ることができる。   According to the present invention, since the greeting speech is executed after generating the spatial formation in which both parties are in the dialogue participation state, the dialogue with the person can be started naturally, and smooth communication can be achieved.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う後述の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例のロボットシステムの構成を示す図解図である。It is an illustration figure which shows the structure of the robot system of one Example of this invention. 図1のロボットの外観を正面から見た様子を示す図解図である。It is an illustration figure which shows a mode that the external appearance of the robot of FIG. 1 was seen from the front. 図1のロボットの電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of the robot of FIG. 視線領域の定義の一例を示す図解図である。It is an illustration figure which shows an example of a definition of a gaze area | region. 正面領域の定義の一例を示す図解図である。It is an illustration figure which shows an example of the definition of a front area | region. 視線領域および視線の定義の一例を示す図解図である。It is an illustration figure which shows an example of a visual line area | region and a definition of a visual line. 双方参加状態となる空間陣形の一例を示す図解図である。It is an illustration figure which shows an example of the space formation which will be in a both-participation state. 双方参加状態となる空間陣形の他の一例を示す図解図である。It is an illustration figure which shows another example of the space formation which will be in a both-participation state. 人のみ参加状態となる空間陣形の一例を示す図解図である。It is an illustration figure which shows an example of the space formation which only a person will be in a participating state. ロボットのみ参加状態となる空間陣形の一例を示す図解図である。It is an illustration figure which shows an example of the space formation which only a robot will be in a participating state. 対象物が無い場合の主動調整移動の目標位置の一例を示す図解図である。It is an illustration figure which shows an example of the target position of the main adjustment movement when there is no target object. 対象物がある場合の主動調整移動の目標位置の一例を示す図解図である。It is an illustration figure which shows an example of the target position of the main adjustment movement when there exists a target object. 受動調整移動の目標位置の一例を示す図解図である。It is an illustration figure which shows an example of the target position of passive adjustment movement. 対話陣形の調整移動の目標位置の一例を示す図解図である。It is an illustration figure which shows an example of the target position of the adjustment movement of a dialog formation. 図3のCPUが実行する全体処理の一例を示すフロー図である。It is a flowchart which shows an example of the whole process which CPU of FIG. 3 performs.

図1を参照して、この発明の一実施例であるロボットシステム100は、通信可能に接続されるロボット10とモーションキャプチャシステム12とを含む。ロボット10は、発話やジェスチャ等を用いて人との間でコミュニケーション行動を実行する相互作用指向のロボット(コミュニケーションロボット)であり、店舗やイベント会場などの様々な環境に配置される。そして、配置された環境内において、人に対して自ら話しかけて人とのインタラクションを引き起こし、展示案内、客引きおよびエンタテインメントなどの様々なサービスを提供する。ロボットシステム100では、詳細は後述するように、ロボット10と人との空間陣形を適切に調整することによって、ロボット10が人(対話者)との対話を自然に開始できるようにしている。   Referring to FIG. 1, a robot system 100 according to an embodiment of the present invention includes a robot 10 and a motion capture system 12 that are communicably connected. The robot 10 is an interaction-oriented robot (communication robot) that performs communication actions with people using speech, gestures, and the like, and is arranged in various environments such as stores and event venues. Then, in the arranged environment, the user talks to the person himself / herself to cause interaction with the person, and provides various services such as exhibition guide, customer attraction and entertainment. In the robot system 100, as will be described in detail later, the robot 10 can naturally start a conversation with a person (interactive person) by appropriately adjusting the space formation between the robot 10 and the person.

図2は、ロボット10の外観を示す正面図である。この図2を参照して、ロボット10のハードウェアの構成について説明する。   FIG. 2 is a front view showing the appearance of the robot 10. The hardware configuration of the robot 10 will be described with reference to FIG.

ロボット10は、台車20を含み、この台車20の下面には、ロボット10を自律移動させる2つの車輪22および1つの従輪24が設けられる。2つの車輪22は車輪モータ26(図3参照)によってそれぞれ独立に駆動され、ロボット10を前後左右任意の方向に動かすことができる。また、従輪24は車輪22を補助する補助輪である。このように、ロボット10は、配置された環境内を自由に移動可能なものである。ただし、ロボット10の移動機構は、車輪タイプに限定されず、公知の移動機構を適宜採用でき、たとえば2足歩行タイプの移動機構を採用することもできる。   The robot 10 includes a carriage 20, and two wheels 22 and one slave wheel 24 that autonomously move the robot 10 are provided on the lower surface of the carriage 20. The two wheels 22 are independently driven by a wheel motor 26 (see FIG. 3), and can move the robot 10 in any direction, front, back, left, and right. The slave wheel 24 is an auxiliary wheel that assists the wheel 22. Thus, the robot 10 can move freely within the environment in which it is placed. However, the movement mechanism of the robot 10 is not limited to the wheel type, and a known movement mechanism can be appropriately employed. For example, a biped walking type movement mechanism can also be employed.

なお、ロボット10は、このロボットシステム100が適用される環境の地図データを内部メモリ(メモリ66:図3参照)に記憶している。そして、ロボット10は、任意に設定された原点位置を基準として、地図データを参照して環境内を移動する。この際、ロボット10が参照する地図データの座標系と、モーションキャプチャシステム12のコンピュータ14で算出される座標の座標系とは同じに設定される。   The robot 10 stores map data of an environment to which the robot system 100 is applied in an internal memory (memory 66: see FIG. 3). Then, the robot 10 moves in the environment with reference to the map data with reference to the arbitrarily set origin position. At this time, the coordinate system of the map data referred to by the robot 10 and the coordinate system of the coordinates calculated by the computer 14 of the motion capture system 12 are set to be the same.

台車20の上には、円柱形のセンサ取付パネル28が設けられ、このセンサ取付パネル28には、赤外線距離センサ30が取り付けられる。この赤外線距離センサ30は、ロボット10と周囲の物体(人や障害物など)との距離を計測するものである。   A cylindrical sensor mounting panel 28 is provided on the carriage 20, and an infrared distance sensor 30 is mounted on the sensor mounting panel 28. The infrared distance sensor 30 measures the distance between the robot 10 and a surrounding object (such as a person or an obstacle).

また、センサ取付パネル28の上には、胴体32が直立するように設けられる。胴体32の前方中央上部(胸に相当する位置)には、上述した赤外線距離センサ30がさらに設けられる。これは、ロボット10の前方の主として人との距離を計測する。また、胴体32には、1つの全方位カメラ34が設けられる。全方位カメラ34は、たとえば背面側上端部のほぼ中央から延びる支柱36上に設けられる。全方位カメラ34は、ロボット10の周囲を撮影するものであり、後述する眼カメラ60とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ30および全方位カメラ34の設置位置は当該部位に限られず適宜変更され得る。   Further, the body 32 is provided on the sensor mounting panel 28 so as to stand upright. The above-described infrared distance sensor 30 is further provided on the front center upper portion of the body 32 (a position corresponding to the chest). This measures the distance to the person mainly in front of the robot 10. The body 32 is provided with one omnidirectional camera 34. The omnidirectional camera 34 is provided, for example, on a support column 36 extending from substantially the center of the upper end on the back side. The omnidirectional camera 34 captures the surroundings of the robot 10 and is distinguished from an eye camera 60 described later. As this omnidirectional camera 34, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. In addition, the installation positions of the infrared distance sensor 30 and the omnidirectional camera 34 are not limited to the portions, and can be changed as appropriate.

胴体32の両側面上端部(肩に相当する位置)のそれぞれには、肩関節38Rおよび38Lによって、上腕40Rおよび40Lが設けられる。図示は省略するが、肩関節38Rおよび38Lのそれぞれは、直交する3軸の自由度を有する。すなわち、肩関節38Rは、直交する3軸のそれぞれの軸廻りにおいて上腕40Rの角度を制御できる。肩関節38Rの或る軸(ヨー軸)は、上腕40Rの長手方向に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。同様に、肩関節38Lは、直交する3軸のそれぞれの軸廻りにおいて上腕40Lの角度を制御できる。肩関節38Lの或る軸(ヨー軸)は、上腕40Lの長手方向に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。   Upper arms 40R and 40L are provided by shoulder joints 38R and 38L, respectively, at upper end portions (positions corresponding to shoulders) on both side surfaces of the body 32. Although illustration is omitted, each of the shoulder joints 38R and 38L has three orthogonal degrees of freedom. That is, the shoulder joint 38R can control the angle of the upper arm 40R around each of the three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 38R is an axis parallel to the longitudinal direction of the upper arm 40R, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other from different directions. Similarly, the shoulder joint 38L can control the angle of the upper arm 40L around each of the three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 38L is an axis parallel to the longitudinal direction of the upper arm 40L, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other from different directions.

また、上腕40Rおよび40Lのそれぞれの先端には、肘関節42Rおよび42Lを介して、前腕44Rおよび44Lが設けられる。図示は省略するが、肘関節42Rおよび42Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸廻りにおいて前腕44Rおよび44Lの角度を制御できる。   Further, forearms 44R and 44L are provided at the tips of the upper arms 40R and 40L via elbow joints 42R and 42L, respectively. Although illustration is omitted, each of the elbow joints 42R and 42L has one degree of freedom, and the angle of the forearms 44R and 44L can be controlled around the axis (pitch axis).

前腕44Rおよび44Lのそれぞれの先端には、手に相当する球体46Rおよび46Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。   Spheres 46R and 46L corresponding to hands are fixedly provided at the tips of the forearms 44R and 44L, respectively. However, if a finger or palm function is required, a “hand” in the shape of a human hand can be used.

また、図示は省略するが、台車20の前面、肩関節38R,38Lを含む肩に相当する部位、上腕40R,40L、前腕44R,44Lおよび球体46R,46Lには、それぞれ、接触センサ(図3で接触センサ48として包括的に示す。)が設けられている。台車20の前面の接触センサ48は、台車20への人や他の障害物の接触を検知する。したがって、ロボット10の移動中に障害物との接触があると、それを検知し、直ちに車輪22の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ48は、主に、人がロボット10の当該各部位に触れたかどうかを検知する。なお、接触センサ48の設置位置はこれらに限定されず、適宜な位置(胸、腹、脇、背中、腰など)に設けられてよい。   Although illustration is omitted, a contact sensor (FIG. 3) is provided on each of the front surface of the carriage 20, a portion corresponding to the shoulder including the shoulder joints 38R and 38L, the upper arms 40R and 40L, the forearms 44R and 44L, and the spheres 46R and 46L. Is comprehensively shown as a contact sensor 48.). The contact sensor 48 on the front surface of the carriage 20 detects contact of a person or another obstacle to the carriage 20. Therefore, if there is contact with an obstacle while the robot 10 is moving, it can be detected, and the driving of the wheel 22 can be immediately stopped to suddenly stop the movement of the robot 10. The other contact sensors 48 mainly detect whether or not a person has touched each part of the robot 10. The installation position of the contact sensor 48 is not limited to these, and may be provided at an appropriate position (chest, abdomen, side, back, waist, etc.).

胴体32の中央上部(首に相当する位置)には首関節50が設けられ、さらにその上には頭部52が設けられる。図示は省略するが、首関節50は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 50 is provided at the upper center of the body 32 (a position corresponding to the neck), and a head 52 is further provided thereon. Although illustration is omitted, the neck joint 50 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 10, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部52には、口に相当する位置に、スピーカ54が設けられる。スピーカ54は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。また、耳に相当する位置には、マイク56Rおよび56Lが設けられる。以下、右耳に相当するマイク56Rと左耳に相当するマイク56Lとをまとめて「マイク56」ということがある。マイク56は、周囲の音、とりわけコミュニケーションを実行する対象である人の声を取り込む。さらに、目に相当する位置には、眼球部58Rおよび58Lが設けられる。眼球部58Rおよび58Lは、それぞれ眼カメラ60Rおよび60Lを含む。以下、右の眼球部58Rと左の眼球部58Lとをまとめて「眼球部58」ということがあり、また、右の眼カメラ60Rと左の眼カメラ60Lとをまとめて「眼カメラ60」ということがある。   The head 52 is provided with a speaker 54 at a position corresponding to the mouth. The speaker 54 is used for the robot 10 to communicate with people around it by voice or sound. Further, microphones 56R and 56L are provided at positions corresponding to the ears. Hereinafter, the microphone 56R corresponding to the right ear and the microphone 56L corresponding to the left ear may be collectively referred to as “microphone 56”. The microphone 56 captures ambient sounds, particularly a voice of a person who is a target of communication. Further, eyeball portions 58R and 58L are provided at positions corresponding to the eyes. Eyeball portions 58R and 58L include eye cameras 60R and 60L, respectively. Hereinafter, the right eyeball portion 58R and the left eyeball portion 58L may be collectively referred to as “eyeball portion 58”, and the right eye camera 60R and the left eye camera 60L are collectively referred to as “eye camera 60”. Sometimes.

眼カメラ60は、ロボット10に接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。眼カメラ60としては、上述した全方位カメラ34と同様のカメラを用いることができる。たとえば、眼カメラ60は眼球部58内に固定され、眼球部58は眼球支持部(図示せず)を介して頭部52内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部52の上へ向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部52の正面側(顔)が向く方向に直交する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部58ないし眼カメラ60の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ54、マイク56および眼カメラ60の設置位置は、これらに限定されず、適宜な位置に設けてられてよい。   The eye camera 60 captures a human face approaching the robot 10, other parts or objects, and captures a corresponding video signal. As the eye camera 60, a camera similar to the omnidirectional camera 34 described above can be used. For example, the eye camera 60 is fixed in the eyeball part 58, and the eyeball part 58 is attached to a predetermined position in the head 52 via an eyeball support part (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 52, and the other is orthogonal to one axis and the direction in which the front side (face) of the head 52 faces. It is an axis (pitch axis) in the direction to be. By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 58 or the eye camera 60 is displaced, and the camera axis, that is, the line-of-sight direction is moved. The installation positions of the speaker 54, the microphone 56, and the eye camera 60 described above are not limited to these, and may be provided at appropriate positions.

なお、ロボット10は、人(特に子供)に威圧感を与えることのないように、大人よりも一回り小さい大きさになるように設計されており、その身長は120cmであり、半径は50cmである。   The robot 10 is designed to be slightly smaller than an adult so as not to give intimidation to a person (especially a child), and has a height of 120 cm and a radius of 50 cm. is there.

図3は、ロボット10の電気的な構成を示すブロック図である。図3に示すように、ロボット10は、全体を制御するCPU62を含む。CPU62は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス64を介して、メモリ66、モータ制御ボード68、センサ入力/出力ボード70および音声入力/出力ボード72等に接続される。   FIG. 3 is a block diagram showing an electrical configuration of the robot 10. As shown in FIG. 3, the robot 10 includes a CPU 62 that controls the whole. The CPU 62 is also called a microcomputer or a processor, and is connected to the memory 66, the motor control board 68, the sensor input / output board 70, the audio input / output board 72, and the like via the bus 64.

メモリ66は、図示は省略するが、ROMやHDDおよびRAMを含む。ROMやHDDには、ロボット10の制御プログラムが予め記憶される。たとえば、人との間でコミュニケーション行動を実行するための行動制御プログラム、外部コンピュータ(モーションキャプチャシステム12)との間で必要な情報を送受信するための通信プログラム、モーションキャプチャシステム12等からのデータに基づいて人と自身との空間陣形を分析して人および自身の対話参加状態を判定する判定プログラム、および所定の空間陣形を形成するための空間陣形調整プログラム等である。また、ROMやHDDには、各行動を実行する際に発生すべき音声または声の音声データ(音声合成データ)、所定の身振りを提示するための角度データ、環境の地図データ、および説明すべき商品(対象物)に関するデータなどのデータも適宜記憶される。また、RAMは、ワークメモリやバッファメモリとして用いられる。   Although not shown, the memory 66 includes a ROM, an HDD, and a RAM. A control program for the robot 10 is stored in advance in the ROM and HDD. For example, an action control program for executing a communication action with a person, a communication program for transmitting / receiving necessary information to / from an external computer (motion capture system 12), data from the motion capture system 12, etc. A determination program for analyzing a space formation between the person and himself based on the person and his / her own conversation participation state, a space formation adjustment program for forming a predetermined space formation, and the like. In addition, in the ROM or HDD, voice or voice data (voice synthesis data) to be generated when each action is executed, angle data for presenting a predetermined gesture, map data of the environment, and explanation Data such as data relating to the product (object) is also stored as appropriate. The RAM is used as a work memory or a buffer memory.

モータ制御ボード68は、たとえばDSPで構成され、各腕や首関節50および眼球部58などの各軸モータの駆動を制御する。すなわち、モータ制御ボード68は、CPU62からの制御データを受け、右眼球部58Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)74の回転角度を制御する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左眼球部58Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)76の回転角度を制御する。   The motor control board 68 is configured by, for example, a DSP, and controls driving of motors of the axes such as the arms, the neck joint 50, and the eyeball unit 58. That is, the motor control board 68 receives two control data from the CPU 62 and controls two motors for controlling the respective angles of the two axes of the right eyeball portion 58R (collectively, “right eyeball motor” in FIG. 3) 74. Control the rotation angle. Similarly, the motor control board 68 receives control data from the CPU 62, and controls two angles of the two axes of the left eyeball part 58L (in FIG. 3, collectively referred to as “left eyeball motor”). The rotation angle of 76 is controlled.

また、モータ制御ボード68は、CPU62からの制御データを受け、右肩関節38Rの直交する3軸のそれぞれの角度を制御する3つのモータと右肘関節42Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)78の回転角度を調節する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左肩関節38Lの直交する3軸のそれぞれの角度を制御する3つのモータと左肘関節42Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)80の回転角度を調節する。   The motor control board 68 receives control data from the CPU 62, and includes three motors for controlling the angles of the three orthogonal axes of the right shoulder joint 38R and one motor for controlling the angle of the right elbow joint 42R. The rotation angles of a total of four motors 78 (collectively referred to as “right arm motor” in FIG. 3) 78 are adjusted. Similarly, the motor control board 68 receives control data from the CPU 62 and includes three motors for controlling the angles of the three orthogonal axes of the left shoulder joint 38L and one motor for controlling the angle of the left elbow joint 42L. The rotation angles of a total of four motors (collectively referred to as “left arm motor” in FIG. 3) 80 are adjusted.

さらに、モータ制御ボード68は、CPU62からの制御データを受け、首関節50の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)82の回転角度を制御する。さらにまた、モータ制御ボード68は、CPU62からの制御データを受け、車輪22を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。   Furthermore, the motor control board 68 receives the control data from the CPU 62 and controls three motors for controlling the angles of the three orthogonal axes of the neck joint 50 (in FIG. 3, collectively referred to as “head motors”). The rotation angle of 82 is controlled. Furthermore, the motor control board 68 receives control data from the CPU 62 and controls the rotation angle of two motors 26 (hereinafter collectively referred to as “wheel motors”) 26 that drive the wheels 22.

なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。   In this embodiment, stepping motors or pulse motors are used for the motors other than the wheel motor 26 in order to simplify the control. However, as with the wheel motor 26, a DC motor may be used.

センサ入力/出力ボード70もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU62に与える。すなわち、赤外線距離センサ30のそれぞれからの反射時間に関するデータが、センサ入力/出力ボード70を通してCPU62に入力される。また、全方位カメラ34からの映像信号が、必要に応じてセンサ入力/出力ボード70で所定の処理を施された後、CPU62に入力される。眼カメラ60からの映像信号も、同様にして、CPU62に入力される。また、上述した複数の接触センサ48からの信号がセンサ入力/出力ボード70を介してCPU62に与えられる。   Similarly, the sensor input / output board 70 is also configured by a DSP, and takes in signals from each sensor and gives them to the CPU 62. That is, data relating to the reflection time from each of the infrared distance sensors 30 is input to the CPU 62 through the sensor input / output board 70. The video signal from the omnidirectional camera 34 is input to the CPU 62 after being subjected to predetermined processing by the sensor input / output board 70 as necessary. Similarly, the video signal from the eye camera 60 is also input to the CPU 62. Further, signals from the plurality of contact sensors 48 described above are given to the CPU 62 via the sensor input / output board 70.

音声入力/出力ボード72もまた、同様に、DSPで構成され、CPU62から与えられる音声合成データに従った音声または声がスピーカ54から出力される。また、マイク56からの音声入力が、音声入力/出力ボード56を介してCPU62に取り込まれる。   Similarly, the voice input / output board 72 is also configured by a DSP, and a voice or voice according to voice synthesis data provided from the CPU 62 is output from the speaker 54. Also, the voice input from the microphone 56 is taken into the CPU 62 via the voice input / output board 56.

また、CPU62は、バス64を介して通信LANボード84に接続される。通信LANボード84は、DSPで構成され、CPU62から送られる送信データを無線通信装置86に与え、無線通信装置86から送信データを、たとえば、無線LANのようなネットワークを介して外部コンピュータに送信する。また、通信LANボード84は、無線通信装置86を介してデータを受信し、受信したデータをCPU62に与える。つまり、この通信LANボード84および無線通信装置86によって、ロボット10は外部コンピュータなどと無線通信を行うことができる。   The CPU 62 is connected to the communication LAN board 84 via the bus 64. The communication LAN board 84 is constituted by a DSP, gives transmission data sent from the CPU 62 to the wireless communication device 86, and transmits the transmission data from the wireless communication device 86 to an external computer via a network such as a wireless LAN. . The communication LAN board 84 receives data via the wireless communication device 86 and gives the received data to the CPU 62. That is, the communication LAN board 84 and the wireless communication device 86 allow the robot 10 to perform wireless communication with an external computer or the like.

図1に戻って、モーションキャプチャシステム12は、ロボット10および人の位置、体の方向および視線方向などを検出するために用いられ、PC等の汎用のコンピュータ14と環境に設置される複数のカメラ(赤外線カメラ)16とを備える。また、図示は省略するが、ロボット10および人には、複数の赤外線反射マーカが装着される。この実施例では、ロボット10および人のそれぞれ対して、頭部、胴体部および腕部などの適宜な位置に、合計23個の赤外線反射マーカが取り付けられる。また、ロボット10が人に対して説明(紹介)すべき対象物(商品など)にも、赤外線反射マーカが装着される。モーションキャプチャシステム12としては、公知のモーションキャプチャシステムが適用でき、たとえば、VICON社の光学式のモーションキャプチャシステムを用いることができる。   Returning to FIG. 1, the motion capture system 12 is used to detect the position of the robot 10 and a person, the direction of the body, the direction of the line of sight, etc., and a plurality of cameras installed in the environment with a general-purpose computer 14 such as a PC. (Infrared camera) 16. Although not shown, a plurality of infrared reflection markers are attached to the robot 10 and the person. In this embodiment, a total of 23 infrared reflection markers are attached to appropriate positions such as a head, a trunk, and an arm for each of the robot 10 and a person. An infrared reflective marker is also attached to an object (such as a product) that the robot 10 should explain (introduce) to a person. As the motion capture system 12, a known motion capture system can be applied. For example, an optical motion capture system manufactured by VICON can be used.

モーションキャプチャシステム12のコンピュータ14は、カメラ16から画像データをたとえば60Hz(1秒間に60フレーム)で取得し、画像データを画像処理することによって、その計測時の全ての画像データにおける各赤外線反射マーカの2次元位置を抽出する。そして、コンピュータ14は、画像データにおける各赤外線反射マーカの2次元位置に基づいて、実空間における各赤外線反射マーカの3次元位置を算出することによって、ロボット10および人の位置(座標)、体の方向、および顔(視線)の方向を算出する。そして、コンピュータ14は、算出したロボット10および人の位置データ(座標データ)、体方向データおよび視線方向データ等の配置情報を、ロボット10(CPU62)からの要求に応じてロボット10に送信する。   The computer 14 of the motion capture system 12 acquires image data from the camera 16 at, for example, 60 Hz (60 frames per second), and performs image processing on the image data so that each infrared reflection marker in all image data at the time of measurement is obtained. Are extracted. Then, the computer 14 calculates the three-dimensional position of each infrared reflection marker in the real space based on the two-dimensional position of each infrared reflection marker in the image data, whereby the robot 10 and the position (coordinates) of the person, the body The direction and the direction of the face (line of sight) are calculated. Then, the computer 14 transmits arrangement information such as the calculated position data (coordinate data) of the robot 10 and the person, body direction data, and line-of-sight direction data to the robot 10 in response to a request from the robot 10 (CPU 62).

なお、ロボット10の位置、体の向きおよび視線方向は、必ずしもモーションキャプチャシステム12を用いなくても把握できる。たとえば、上述の車輪モータ26および頭部モータ66の回転角度などから、ロボット10の位置、体の向きおよび視線方向を計算によって求めることもできる。しかしながら、実施例では、CPU62のリアルタイムの計算量を軽減するために、モーションキャプチャ12を用いるようにした。   Note that the position, body direction, and line-of-sight direction of the robot 10 can be grasped without necessarily using the motion capture system 12. For example, the position, body direction, and line-of-sight direction of the robot 10 can also be obtained by calculation from the rotation angles of the wheel motor 26 and the head motor 66 described above. However, in the embodiment, the motion capture 12 is used in order to reduce the real-time calculation amount of the CPU 62.

このようなロボットシステム100では、ロボット10は、配置された環境内において、人に対して自ら働きかけて人とのインタラクションを引き起こし、展示案内、客引きおよびエンタテインメントなどの様々なサービスを提供する。ここで、ロボット10がサービスをより効率良く提供するためには、ロボット10が、適切なタイミングおよび位置で人に話しかける機能、つまり人と対話を自然に始める機能を身に付けることが重要である。   In such a robot system 100, the robot 10 works on the person himself / herself in the environment in which the robot 10 is arranged to cause interaction with the person, and provides various services such as exhibition guidance, customer attraction and entertainment. Here, in order for the robot 10 to provide a service more efficiently, it is important that the robot 10 acquire a function of talking to a person at an appropriate timing and position, that is, a function of starting a conversation with a person naturally. .

本発明者らは、人同士が対話を始めるときの様子を注意深く観察したところ、人同士は、特定の空間陣形(つまり空間的な配置関係)を形成してから対話を始めることを見出した。そこで、この実施例では、それをモデル化してロボット10に実行させることによって、人と対話を自然に始めることができるロボットシステム100(ロボット10)を実現した。   The inventors of the present invention have carefully observed how people start to interact with each other. As a result, they have found that they form a specific spatial formation (that is, a spatial arrangement relationship) and then start the conversation. Therefore, in this embodiment, the robot system 100 (robot 10) that can naturally start a conversation with a person is realized by modeling it and causing the robot 10 to execute it.

具体的には、本発明者らが、ロボット10がサービスを提供する際に幅広く利用できると考えられる、店員が客に対して話しかける状況を観察したところ、以下の4つの点が確認された。(1)客が店員の存在に気付いたとき(2人の視線が合ったとき)は、店員は、客との距離が所定距離(たとえば2.5m)に近づいたときに挨拶をし、その後対話をするときにはもう少し近づく(たとえば1.5m以内まで)。ただし、この際の所定距離は状況や環境などに依存する。(2)客の前方(正面方向を中心とする120°の範囲)から近づいてくる店員は、約2mの距離まで近づいたときに挨拶をし、その後対話をするときには1.5m以内まで近づく。(3)客の前方以外から近づいてくる店員は、客の視野(正面方向を中心とする270°の範囲)内に入るように移動し、約1.5mの距離まで近づく。そして、客が店員の接近に気付かない場合には、「すいません」等の注意喚起の言葉を発し、客に自身の存在を気付かせてから挨拶をする。(4)店員に次の計画、たとえば商品の説明をしたり、商品の場所まで客を誘導したりする必要があるときであって、客が店員の存在に気づいていないときには、店員は、商品の説明などの次の行動を起こし易い場所で挨拶を行う。   Specifically, when the present inventors observed a situation where a store clerk talks to a customer, which is considered to be widely used when the robot 10 provides a service, the following four points were confirmed. (1) When a customer notices the presence of a store clerk (when two people are in line of sight), the store clerk greets when the customer approaches a predetermined distance (for example, 2.5 m), and then A little closer (for example, up to 1.5m) when talking. However, the predetermined distance at this time depends on the situation and environment. (2) A store clerk approaching from the front of the customer (in the range of 120 ° centered on the front direction) greets when approaching a distance of about 2 m and approaches 1.5 m or less when talking thereafter. (3) The store clerk approaching from outside the front of the customer moves so as to be within the customer's field of view (a range of 270 ° centered on the front direction) and approaches a distance of about 1.5 m. When the customer does not notice the approach of the store clerk, he / she greets the customer with a word such as “I'm sorry” and makes the customer aware of his / her presence. (4) When it is necessary to explain the next plan to the store clerk, for example, to guide the customer to the place of the product, and the customer is not aware of the store clerk, Say hello in a place where you can easily take the next action.

以上の観察結果から、人同士が挨拶をして対話を始めるときには必ず、特定の空間陣形を形成することによって、双方が相手の存在を認識している状態、すなわち対話への参加に対して暗黙的に同意した状態(心的同意状態)が双方に対して形成されていることが分かる。この実施例では、この心的同意状態を「対話参加状態」と名付ける。また、観察結果からは、対話を始めるための空間陣形と対話をするための空間陣形とは、必ずしも同じではないことも分かる。つまり、ロボット10が人との対話を自然に開始するためには、先ず、ロボット10および人の双方を対話参加状態にする、つまり双方が対話参加状態となる空間陣形を形成することが重要であり、状況に応じて、対話をするのに適した空間陣形に調整することが必要であると言える。   From the above observations, whenever a person greets each other and starts a dialogue, by forming a specific spatial formation, both parties recognize the existence of the other party, that is, implicit in participating in the dialogue It can be seen that a state of mutual agreement (mental consent state) is formed for both sides. In this embodiment, this mental consent state is named “dialog participation state”. From the observation results, it can also be seen that the spatial formation for starting the conversation is not necessarily the same as the spatial formation for the conversation. In other words, in order for the robot 10 to naturally start a conversation with a person, it is important to first make both the robot 10 and the person into a conversation participation state, that is, form a space formation in which both of them are in a conversation participation state. Yes, it can be said that it is necessary to adjust the space formation suitable for dialogue depending on the situation.

そこで、この実施例では、ロボット10が自ら働きかけて人との対話(インタラクション)を開始する際には、先ず、ロボット10と人との空間陣形を分析して、ロボット10および人の対話参加状態を認識(推定)する。そして、認識した対話参加状態に応じて、ロボット10が適宜の行動を取ることによって、ロボット10および人の双方が対話参加状態になるようにした後、ロボット10が人に対して挨拶発話を行うようにしている。以下、具体的に説明する。   Therefore, in this embodiment, when the robot 10 works on its own to start a dialogue (interaction) with a person, first, the space formation between the robot 10 and the person is analyzed, and the dialogue participation state of the robot 10 and the person. Is recognized (estimated). Then, after the robot 10 takes an appropriate action according to the recognized dialog participation state, both the robot 10 and the person enter the dialog participation state, and then the robot 10 greets and speaks to the person. I am doing so. This will be specifically described below.

空間陣形に基づいて対話参加状態を認識するために、視線領域gz、正面領域fz、視野領域szおよび視野fvを次のように定義する。   In order to recognize the dialogue participation state based on the spatial formation, the line-of-sight region gz, the front region fz, the visual field region sz, and the visual field fv are defined as follows.

図4に示すように、視線領域gzは、視線方向gdを中心軸として、頭部(顔)の中心から顔正面方向に向かって延びる円錐形の領域であって、その頂角θが30°であり、頂点から底面までの距離が2.5mである領域とする。また、図5に示すように、正面領域fzは、体の正面方向bdを中心とする120°の範囲であって、体の中心からの距離が2m以内である扇形の領域とする。さらに、図6に示すように、視野領域szは、体の正面方向bdを中心とする270°の範囲であって、体の中心からの距離が1.5m以内である領域とする。また、視野fvは、体の正面方向bdを中心とする270°の範囲であって、体の中心からの距離制限がない領域とする。   As shown in FIG. 4, the line-of-sight area gz is a conical area extending from the center of the head (face) toward the face front direction with the line-of-sight direction gd as the central axis, and the apex angle θ is 30 °. It is assumed that the distance from the apex to the bottom surface is 2.5 m. As shown in FIG. 5, the front area fz is a fan-shaped area having a range of 120 ° centering on the front direction bd of the body and having a distance of 2 m or less from the center of the body. Furthermore, as shown in FIG. 6, the visual field region sz is a region having a range of 270 ° centered on the front direction bd of the body and a distance from the center of the body within 1.5 m. The field of view fv is a range of 270 ° centered on the front direction bd of the body and has no distance limitation from the center of the body.

そして、次の所定の空間条件を満たすと、対話参加状態にあると判断する。   Then, when the next predetermined space condition is satisfied, it is determined that the user is in the dialog participation state.

(1)図7に示すように、ロボット10の視線領域gzに人の頭部(顔)が入り、かつ人の視線領域gzにロボット10の頭部52が入る状態の空間陣形になったとき、すなわち、ロボット10と人とが所定距離内で視線を合わせた状態になったときには、ロボット10および人の双方が対話参加状態である(双方参加状態)と判断する。(2)図8に示すように、ロボット10と人との視線が合わない状態で、ロボット10の正面領域fzに人が入り、かつ人の正面領域fzにロボット10が入る状態の空間陣形になったときには、ロボット10および人の双方が対話参加状態であると判断する。(3)図9に示すように、ロボット10と人との視線が合わない状態で、人の正面領域fzにロボット10が入り、ロボット10の正面領域fzに人が入らず、かつロボット10の視野fvに人が入る状態の空間陣形になったときには、人のみが対話参加状態(人のみ参加状態)であると判断する。(4)図10に示すように、ロボット10と人との視線が合わない状態で、ロボット10の正面領域fzに人が入り、人の正面領域fzにロボット10が入らず、かつ人の視野領域szにロボット10が入る状態の空間陣形になったときには、ロボット10のみが対話参加状態(ロボットのみ参加状態)であると判断する。(5)以上の空間条件1−4を満たさない空間陣形のときには、ロボット10および人の双方が対話参加状態でない(双方非参加状態)と判断する。   (1) As shown in FIG. 7, when the human head (face) enters the line-of-sight area gz of the robot 10 and the head 52 of the robot 10 enters the line-of-sight area gz of the robot 10 That is, when the robot 10 and the person are in a state where their eyes are aligned within a predetermined distance, it is determined that both the robot 10 and the person are in a dialog participation state (both participation state). (2) As shown in FIG. 8, in a state where the robot 10 and the person are not aligned, the person enters the front area fz of the robot 10 and the robot 10 enters the person's front area fz. When this happens, it is determined that both the robot 10 and the person are in a dialog participation state. (3) As shown in FIG. 9, the robot 10 enters the front area fz of the person, the person does not enter the front area fz of the robot 10, and the robot 10 When the space formation is such that a person enters the field of view fv, it is determined that only the person is in the dialog participation state (only the person is in the participation state). (4) As shown in FIG. 10, in a state where the line of sight between the robot 10 and the person does not match, the person enters the front area fz of the robot 10, the robot 10 does not enter the person's front area fz, and the field of view of the person When the space formation is such that the robot 10 enters the area sz, it is determined that only the robot 10 is in the dialogue participation state (the robot only participation state). (5) In the case of a space formation that does not satisfy the above-described space conditions 1-4, it is determined that both the robot 10 and the person are not in the dialogue participation state (both are in a non-participation state).

なお、各領域を定義する具体的数値(閾値)は、人同士のコミュニケーションを観察した結果に基づいて決定した数値ではあるが、これらの最適値はロボット10を配置する環境や対話相手などによって変動する数値でもあるので、必要に応じて適宜変更するようにしてもよい。たとえば、見晴らしのよい広い場所では、視線領域gzを定義する距離の大きさは、2.5mよりも大きく設定してもよいし、ロボット10や対話相手の人の身長が高い場合には、各領域の距離設定を大きくとるようにしてもよい。また、或る領域内に入ったか否かの判断は、体(または頭部)の中心がその領域内に入ったか否かで判断してもよいし、体(または頭部)の全体がその領域内に入ったか否かで判断してもよい。   The specific numerical values (threshold values) that define each area are values determined based on the results of observing communication between people, but these optimum values vary depending on the environment in which the robot 10 is placed, the conversation partner, and the like. Since it is a numerical value to be used, it may be changed as necessary. For example, in a wide place with a good view, the distance that defines the line-of-sight area gz may be set to be larger than 2.5 m, and when the height of the robot 10 or the person of the conversation partner is high, You may make it take the distance setting of an area | region large. In addition, whether or not the user has entered a certain area may be determined by whether or not the center of the body (or head) has entered the area. You may judge by having entered into the area.

ロボット10および人の対話参加状態を認識すると、その認識結果に応じてロボット10の行動(動作)が決定される。すなわち、ロボット10は、双方参加状態となる所定の空間陣形(つまり対話を始めるための空間陣形)を形成するための行動を行う。   When the dialogue participation state of the robot 10 and the person is recognized, the action (motion) of the robot 10 is determined according to the recognition result. That is, the robot 10 performs an action to form a predetermined space formation (that is, a space formation for starting a conversation) that is in a participation state.

具体的には、双方非参加状態であると判断されたときには、ロボット10は、空間陣形の主動調整移動(Proactive adjustment of spatial formation)を行う。空間陣形の主動調整移動では、ロボット10は、ロボット10の正面領域fzに人が入り、かつ人の視野領域fvにロボット10が入るような地点(或いは配置状態)を移動目標位置として設定して移動する。   Specifically, when it is determined that both are in a non-participating state, the robot 10 performs a proactive adjustment of spatial formation. In the space movement main adjustment movement, the robot 10 sets a point (or arrangement state) where a person enters the front area fz of the robot 10 and the robot 10 enters the person's visual field area fv as a movement target position. Moving.

この際、ロボット10に次の計画が無い場合、つまり単に人と対話をすることだけが目的の場合には、図11に示すように、自身の位置から最短距離となる地点が移動目標位置として選択される。ただし、図11から分かるように、ロボット10が人の正面領域fzの方向から近づく場合には、人の正面領域fzに入った時点で双方参加状態となるので、ロボット10は人の正面領域fzに入るだけでよい。また、人の視線領域gzの方向から近づく場合には、人の視線領域gzに入った時点で双方参加状態となるので、ロボット10は人の視線領域gzに入るだけでよい。   At this time, if the robot 10 does not have the next plan, that is, if the purpose is simply to interact with a person, the point that is the shortest distance from its own position is set as the movement target position, as shown in FIG. Selected. However, as can be seen from FIG. 11, when the robot 10 approaches from the direction of the person's front area fz, the robot 10 enters the person's front area fz. Just enter. Further, when approaching from the direction of the person's line-of-sight area gz, the robot 10 only needs to enter the person's line-of-sight area gz because both enter the state when entering the person's line-of-sight region gz.

一方、ロボット10に次の計画がある場合、たとえば商品の説明をしたり、商品の場所まで人を誘導したりする必要があるときには、空間陣形の主動調整移動は、次の行動を考慮した態様とされる。たとえば、説明すべき対象物がある場合には、ロボット10の正面領域fzに人が入り、かつ人の視野領域fvにロボット10が入るような地点を移動目標位置として設定するという条件を満たす上で、さらに、対象物の説明を行い易い地点が移動目標位置として選択される。具体的には、図12に示すように、対象物がロボット10および人の双方の視野fvに入る空間陣形となるように、移動目標位置が設定される。   On the other hand, when the robot 10 has the next plan, for example, when it is necessary to explain the product or to guide a person to the place of the product, the main movement adjustment movement of the space formation is an aspect in consideration of the next action. It is said. For example, when there is an object to be described, the condition that a person enters the front area fz of the robot 10 and the point where the robot 10 enters the person's visual field area fv is set as the movement target position. Further, a point where the object can be easily explained is selected as the movement target position. Specifically, as shown in FIG. 12, the movement target position is set so that the object has a spatial formation that falls within the field of view fv of both the robot 10 and the person.

ただし、空間陣形の主動調整移動の実行途中に、人が移動したり、体の向きや視線方向を変えたりすることによって、双方参加状態になったり、人のみ参加状態になったりすると、ロボット10は、空間陣形の主動調整移動をそこで終了し、ロボット10および人の対話参加状態に応じた次の行動に移る。上述のような空間陣形の主動調整移動によって、少なくともロボット10が対話参加状態になる空間陣形が確保される。   However, if the person moves or changes the direction of the body or the line of sight during the execution of the main adjustment movement of the space formation, the robot 10 becomes a participatory state or only the person enters the state. Ends the main movement adjustment movement of the space formation, and moves to the next action according to the dialogue participation state of the robot 10 and the person. As a result of the main movement adjustment movement of the space formation as described above, at least a space formation in which the robot 10 is in a dialog participation state is secured.

人のみ参加状態であると判断されたときには、ロボット10は、空間陣形の受動調整移動(Reactive adjustment of spatial formation)を行う。空間陣形の受動調整移動では、図13に示すように、ロボット10の正面領域fzに人が入るように体の向きを調整することによって、ロボット10も対話参加状態になるようにする。この際には、ロボット10の視線領域gzに人の頭部(顔)が入るように視線方向も調整するとよい。なお、人のみが対話参加状態になる空間陣形は、空間陣形の主動調整移動の途中に、人が移動したり、体の向きや視線方向を変えたりしたときに生じる状況、つまり人の方からロボット10に働きかけようとしている状況が想定されるので、対話のためにより適切な場所への調整移動(詳細は後述)も、空間陣形の受動調整移動において同時に行うようにしてもよい。この空間陣形の受動調整移動によって、ロボット10が人に興味を持っていることを人に示すことができるので、人の方からロボット10に働きかけようとした場合に、人が途中で諦めてロボット10から離れてしまうことを防止できる。   When it is determined that only a person is participating, the robot 10 performs a reactive adjustment of spatial formation. As shown in FIG. 13, in the passive adjustment movement of the space formation, the robot 10 is also in a dialog participation state by adjusting the body direction so that a person enters the front area fz of the robot 10. At this time, the line-of-sight direction may be adjusted so that the human head (face) enters the line-of-sight area gz of the robot 10. In addition, the space formation in which only people are in the conversation participation state is the situation that occurs when a person moves or changes the body direction or line of sight during the main movement adjustment movement of the space formation, that is, from the person's side. Since it is assumed that the robot 10 is going to work, the adjustment movement (details will be described later) to a more appropriate place for the dialogue may be performed simultaneously in the passive adjustment movement of the space formation. This space formation passive adjustment movement can indicate to the person that the robot 10 is interested in the person. Therefore, when the person tries to work on the robot 10, the person gives up on the way and the robot gives up. It is possible to prevent the distance from 10.

ロボットのみ参加状態であると判断されたときには、ロボット10は、注意喚起発話を行う。ロボット10のみが対話参加状態になる空間陣形は、ロボット10が近づいたことを人が気づいていない状況が想定される。そこで、ロボット10は、「すみません」等の注意喚起発話を行うことによって、人に体の向きや視線方向を調整してもらい、双方参加状態の空間陣形を形成する。ここで重要なことは、ロボット10がすでに人の視野領域szに入っていることであり、これによって、人にとって不意打ちとなる話しかけが極力防止される。この注意喚起発話によって、人に体の向きや視線方向を調整してもらうことができるので、人の正面側の空間が狭い等して、ロボット10が人の正面領域fzに回り込めないような状況にも柔軟に対応できる。   When it is determined that only the robot is in the participation state, the robot 10 performs an alert utterance. The space formation in which only the robot 10 is in a dialog participation state is assumed to be a situation in which a person is not aware that the robot 10 has approached. Therefore, the robot 10 causes the person to adjust the direction of the body and the direction of the line of sight by making a cautionary utterance such as “I'm sorry”, and forms a space formation with both participating states. What is important here is that the robot 10 is already in the visual field region sz of the person, and this prevents as much as possible talking that is unexpected for the person. This alerting utterance allows the person to adjust the body direction and line-of-sight direction, so that the space on the front side of the person is narrow and the robot 10 cannot go around the front area fz of the person. It can respond flexibly to the situation.

そして、双方参加状態であると判断されたときには、ロボット10は、人に対して「こんにちは」や「いらっしゃいませ」等の挨拶発話を実行する。双方参加状態は、ロボット10および人の双方が対話への参加に対して暗黙的に同意した状態である。すなわち、人側からすると、自身と対話したい(或いは自身との対話を受け入れる)という意思をロボット10から示された状態であり、かつロボット10との対話を受け入れる(或いはロボット10と対話したい)という意思をロボット10に示した状態となる。したがって、双方参加状態となったときのロボット10の挨拶発話は、極めて自然に人に受け入れられ、ロボット10は人との対話を自然に始めることができる。   Then, when it is determined that both participating state, the robot 10, to run the greeting speech such as "Hello" or "May I help you?" To the people. The bilateral participation state is a state where both the robot 10 and the person implicitly agree to participate in the dialogue. That is, from the human side, the robot 10 is in the state indicated by the robot 10 that it wants to talk with itself (or accept the dialogue with itself) and accepts the dialogue with the robot 10 (or wants to talk with the robot 10). The intention is indicated to the robot 10. Therefore, the greeting utterance of the robot 10 when the two-participants are in the participation state is accepted by the person very naturally, and the robot 10 can start the conversation with the person naturally.

また、上述の人同士の対話の観察結果から、対話をするのに適した空間陣形(対話陣形)があることも分かったので、この実施例ではさらに、ロボット10が人と対話をする際には、対話のためにより適切な場所への調整移動(対話陣形の調整移動)も実行する。具体的には、図14に示すように、双方参加状態となる空間陣形を維持しながら、人との距離が、1.1−1.5mとなる領域に移動する。この対話陣形の調整移動によって、その後の人との対話をより快適に実行することができる。なお、対話陣形の調整移動は、ロボット10の挨拶発話が終わった後の次の発話を行う前に実行してもよいし、人との対話を行いながら実行してもよい。   Further, from the observation result of the dialogue between the above-mentioned people, it has been found that there is a suitable space formation (dialog formation), so in this embodiment, the robot 10 further interacts with the person. Also performs coordinated movements (dialogue-shaped coordinated movements) to more appropriate locations for dialogue. Specifically, as shown in FIG. 14, the distance from the person moves to an area where the distance is 1.1 to 1.5 m while maintaining a space formation in which both players are participating. By this adjustment movement of the dialog formation, the subsequent dialog with the person can be executed more comfortably. The adjustment movement of the dialogue formation may be performed before the next utterance after the greeting utterance of the robot 10 is finished, or may be performed while performing a dialogue with a person.

続いて、フロー図を用いて、人とのインタラクション(対話)を開始する際のロボット10(ロボットシステム100)の動作を説明する。具体的には、図3に示したロボット10のCPU62が、図15に示すフロー図に従って全体処理を実行する。図15を参照して、CPU62は、ステップS1において、ロボット10および人の位置、体の向きおよび視線方向を検出する。すなわち、ロボット10および人の位置データ、体方向データおよび視線方向データ等の配置情報を、無線通信装置86および通信LANボード84を介してモーションキャプチャシステム12から取得する。   Next, the operation of the robot 10 (robot system 100) when starting an interaction with a person will be described using a flowchart. Specifically, the CPU 62 of the robot 10 shown in FIG. 3 executes the entire process according to the flowchart shown in FIG. Referring to FIG. 15, in step S <b> 1, the CPU 62 detects the position of the robot 10 and the person, the body direction, and the line-of-sight direction. That is, arrangement information such as position data, body direction data, and gaze direction data of the robot 10 and the person is acquired from the motion capture system 12 via the wireless communication device 86 and the communication LAN board 84.

次のステップS3では、空間陣形からロボット10および人の対話参加状態を認識する。すなわち、ステップS1で取得した配置情報に基づいて、ロボット10と人との空間陣形を分析することによって、ロボット10および人の対話参加状態が、双方非参加状態、人のみ参加状態、ロボットのみ参加状態、および双方参加状態のいずれであるかを認識(判断)する。たとえば、双方の頭部が互いに相手の視線領域gzに入る状態の空間陣形になったとき(互いの視線が合ったとき)や、双方が互いの正面領域fzに入る状態の空間陣形になったときには、双方参加状態であると認識する。また、たとえば、互いの視線が合わない状態で、人の正面領域fzにロボット10が入り、ロボット10の正面領域fzに人が入らず、かつロボット10の視野fvに人が入る状態の空間陣形になったときには、人のみ参加状態であると判断する。さらに、たとえば、互いの視線が合わない状態で、ロボット10の正面領域fzに人が入り、人の正面領域fzにロボット10が入らず、かつ人の視野領域szにロボット10が入る状態の空間陣形になったときには、ロボットのみ参加状態であると判断する。また、人のみ参加状態、ロボットのみ参加状態、および双方参加状態となるいずれの空間条件(空間陣形)にも当てはまらない場合には、双方非参加状態であると判断する。なお、ステップS1およびS3の処理は、所定時間毎に繰り返し実行される。   In the next step S3, the dialogue participation state of the robot 10 and the person is recognized from the space formation. That is, by analyzing the spatial formation between the robot 10 and the person based on the arrangement information acquired in step S1, the dialogue participation state of the robot 10 and the person is in the non-participation state, only the person participation state, only the robot participation Recognize (determine) whether the state or both-participation state. For example, when both heads are in a space formation in a state where they enter each other's line-of-sight region gz (when each other's line-of-sight matches), they both enter a space formation in a state where they enter each other's front region fz. Sometimes it is recognized that both are participating. Further, for example, in a state where the lines of sight do not match each other, the robot 10 enters the front area fz of the person, the person does not enter the front area fz of the robot 10, and the person is in the field of view fv of the robot 10. When it becomes, it is judged that only a person is in a participating state. Further, for example, a space in which a person enters the front area fz of the robot 10, the robot 10 does not enter the person's front area fz, and the robot 10 enters the person's visual field area sz in a state where the lines of sight do not match each other. When it becomes a formation, it is determined that only the robot is in a participating state. Further, when neither of the space conditions (spatial formation) in which only the person participates, only the robot participates, or both participates, it is determined that both are not participating. Note that the processes in steps S1 and S3 are repeatedly executed at predetermined time intervals.

次のステップS5では、ステップS3で認識されたロボット10および人の対話参加状態が、双方共に非参加状態であるか否かを判定する。ステップS5で“YES”の場合、すなわち双方共に非参加状態である場合には、ステップS7に進み、ステップS5で“NO”の場合、すなわち双方共に非参加状態でない場合には、ステップS9に進む。   In the next step S5, it is determined whether the dialog participation state of the robot 10 and the person recognized in step S3 are both non-participation states. If “YES” in step S5, that is, if both are in a non-participating state, the process proceeds to step S7. If “NO” in step S5, that is, if both are not in a non-participating state, the process proceeds to step S9. .

ステップS7では、空間陣形の主動調整移動を実行する。すなわち、ロボット10の正面領域fzに人が入り、かつ人の視野領域fvにロボット10が入るような地点(或いは配置状態)を移動目標位置として設定し、その移動目標位置までロボット10が移動するように、車輪モータ26の回転角度を制御する制御データをモータ制御ボード68に対して送信する。この際、ロボット10に次の計画が無い場合、つまり単に人と対話をすることだけが目的の場合には、自身の位置から最短距離となる地点(或いは配置状態)が移動目標位置として選択される。一方、ロボット10に次の計画がある場合、たとえば商品の説明をしたり、商品の場所まで人を誘導したりする必要があるときには、その商品(対象物)がロボット10および人の双方の視野fvに入る空間陣形となるような地点が移動目標位置として設定される。ステップS7が終了すると、処理はステップS1に戻る。   In step S7, the main movement adjustment movement of the space formation is executed. That is, a point (or arrangement state) where a person enters the front area fz of the robot 10 and the robot 10 enters the human visual field area fv is set as a movement target position, and the robot 10 moves to the movement target position. As described above, the control data for controlling the rotation angle of the wheel motor 26 is transmitted to the motor control board 68. At this time, if the robot 10 does not have the next plan, that is, if it is only intended to interact with a person, the point (or arrangement state) that is the shortest distance from its own position is selected as the movement target position. The On the other hand, when the robot 10 has the next plan, for example, when it is necessary to explain the product or guide a person to the place of the product, the product (target) is the field of view of both the robot 10 and the person. A point that forms a space formation entering fv is set as the movement target position. When step S7 ends, the process returns to step S1.

ステップS9では、ステップS3で認識されたロボット10および人の対話参加状態が、人のみ参加状態であるか否かを判定する。ステップS9で“YES”の場合、すなわち人のみ参加状態である場合には、ステップS11に進み、ステップS9で“NO”の場合、すなわち人のみ参加状態でない場合には、ステップS13に進む。   In step S9, it is determined whether or not the dialog participation state of the robot 10 and the person recognized in step S3 is only a person participation state. If “YES” in the step S9, that is, if only a person is in a participating state, the process proceeds to a step S11. If “NO” in step S9, that is, if only a person is not in a participating state, the process proceeds to a step S13.

ステップS11では、空間陣形の受動調整移動を実行する。すなわち、ロボット10の正面領域fzに人が入るように、車輪モータ26の回転角度を制御する制御データをモータ制御ボード68に対して送信して、ロボット10の体の向きを調整したり、ロボット10の視線領域gzに人の頭部が入るように、頭部モータ82の回転角度を制御する制御データをモータ制御ボード68に対して送信して、ロボット10の視線方向を調整したりして、ロボット10も対話参加状態になるようにする。この際には、対話のためにより適切な場所への調整移動も同時に行うようにしてもよい。ステップS11が終了すると、処理はステップS1に戻る。   In step S11, the passive adjustment movement of the space formation is executed. That is, control data for controlling the rotation angle of the wheel motor 26 is transmitted to the motor control board 68 so that a person enters the front area fz of the robot 10 to adjust the body direction of the robot 10, Control data for controlling the rotation angle of the head motor 82 is transmitted to the motor control board 68 so that the human head enters the 10 line-of-sight area gz, and the line-of-sight direction of the robot 10 is adjusted. The robot 10 is also in a dialog participation state. At this time, adjustment movement to a more appropriate place for dialogue may be performed at the same time. When step S11 ends, the process returns to step S1.

ステップS13では、ステップS3で認識されたロボット10および人の対話参加状態が、ロボットのみ参加状態であるか否かを判定する。ステップS13で“YES”の場合、すなわちロボットのみ参加状態である場合には、ステップS15に進み、ステップS13で“NO”の場合、すなわちロボットのみ参加状態でない場合には、ステップS17に進む。   In step S13, it is determined whether the dialogue participation state of the robot 10 and the person recognized in step S3 is a participation state of only the robot. If “YES” in the step S13, that is, if only the robot is in a participating state, the process proceeds to a step S15. If “NO” in step S13, that is, if only the robot is not in a participating state, the process proceeds to the step S17.

ステップS15では、注意喚起発話を実行する。すなわち、「すみません」等の注意喚起発話を行うための音声データを音声入力/出力ボード72に送信して、スピーカ54から注意喚起発話を出力する。ステップS15が終了すると、処理はステップS1に戻る。   In step S15, a warning utterance is executed. That is, voice data for performing a caution utterance such as “I'm sorry” is transmitted to the voice input / output board 72, and a caution utterance is output from the speaker 54. When step S15 ends, the process returns to step S1.

ステップS17では、ステップS3で認識されたロボット10および人の対話参加状態が、双方参加状態であるか否かを判定する。ステップS17で“YES”の場合、すなわち双方参加状態である場合には、ステップS19に進み、ステップS17で“NO”の場合、すなわち双方参加状態でない場合には、ステップS1に戻る。   In step S17, it is determined whether or not the dialog participation state of the robot 10 and the person recognized in step S3 is a both participation state. If “YES” in the step S17, that is, if both are in a participating state, the process proceeds to a step S19. If “NO” in step S17, that is, if not in a both participating state, the process returns to the step S1.

ステップS19では、挨拶発話を実行する。すなわち、「こんにちは」や「いらっしゃいませ」等のその状況に応じた挨拶発話を実行するための音声データを音声入力/出力ボード72に送信して、スピーカ54から注意喚起発話を出力する。この際には、挨拶発話と連動させて、お辞儀などの身体動作を実行するための制御データをモータ制御ボード68に対して送信するようにしてもよい。   In step S19, a greeting utterance is executed. In other words, by sending "Hello" and the voice data to perform a greeting speech in accordance with the status of "not Welcome" and the like to the audio input / output board 72, and outputs a warning speech from the speaker 54. At this time, control data for executing a physical action such as bowing may be transmitted to the motor control board 68 in conjunction with the greeting utterance.

続くステップS21では、対話陣形の調整移動を実行する。すなわち、双方参加状態となる空間陣形を維持しながら、人との距離が1.1−1.5mとなる領域に移動するように、車輪モータ26の回転角度を制御する制御データをモータ制御ボード68に対して送信する。そして、ステップS21の処理によって、対話をするための空間陣形が確立されると、この全体処理を終了する。   In the following step S21, adjustment movement of the dialog formation is executed. That is, the control data for controlling the rotation angle of the wheel motor 26 is transferred to the motor control board so as to move to a region where the distance to the person is 1.1 to 1.5 m while maintaining the space formation in which both sides are in a participating state. 68. When the space formation for dialogue is established by the processing in step S21, the entire processing is terminated.

この実施例によれば、ロボット10および人の双方が対話参加状態となる空間陣形を生成した後に、ロボット10が挨拶発話を実行する。つまり、人間同士の対話により近い挨拶発話を実行するので、ロボット10の挨拶発話は、極めて自然に人に受け入れられる。したがって、ロボット10は、人との対話を自然に始めることができ、円滑に人とのコミュニケーションを図ることができる。   According to this embodiment, the robot 10 executes a greeting utterance after generating a spatial formation in which both the robot 10 and a person are in a dialog participation state. That is, since the greeting utterance closer to the dialogue between humans is executed, the greeting utterance of the robot 10 is accepted by humans very naturally. Therefore, the robot 10 can naturally start a conversation with a person and can smoothly communicate with the person.

また、この実施例によれば、ロボット10に次の計画がある場合には、ロボット10の空間陣形の主動調整移動は、次の行動を考慮した態様とされる。すなわち、説明すべき対象物がある場合には、対象物の説明を行い易い地点がロボット10の移動目標位置として選択される。これによって、ロボット10は、対話を始めた後の位置や体の向き等の調整を極力避けることができるので、より自然で円滑なインタラクションを人との間で実行できる。特に、ロボット10、人および対象物の空間関係が直線状に並んでしまうと、ロボット10が指差しジェスチャを用いて対象物を指し示すことが困難になってしまうが、この問題を回避できる。   Further, according to this embodiment, when the robot 10 has the next plan, the main movement adjustment movement of the space formation of the robot 10 is set in a mode that considers the next action. That is, when there is an object to be explained, a point where the object can be easily explained is selected as the movement target position of the robot 10. As a result, the robot 10 can avoid adjustments such as the position and body orientation after starting the conversation as much as possible, so that a more natural and smooth interaction can be performed with a person. In particular, if the spatial relationship between the robot 10, the person, and the object is aligned in a straight line, it becomes difficult for the robot 10 to point to the object using a pointing gesture, but this problem can be avoided.

さらに、この実施例では、人のみが対話参加状態である判断されたときには、ロボット10は空間陣形の受動調整移動を行う。これによって、人の方からロボット10に働きかけようとした場合に、ロボット10が人に興味を持っていることを人に示すことができるので、人が途中で諦めてロボット10から離れてしまうことを防止できる。   Further, in this embodiment, when it is determined that only a person is participating in the dialogue, the robot 10 performs a spatial adjustment passive movement. As a result, when a person tries to work on the robot 10, the person can be shown that the robot 10 is interested in the person, so that the person gives up on the way and leaves the robot 10. Can be prevented.

また、この実施例では、ロボット10のみが対話参加状態であると判断されたときには、ロボット10は注意喚起発話を行い、人に体の向きや視線方向を調整してもらう。これによって、人の前方の空間が狭い等して、ロボット10が人の正面領域fzに回り込めない状況にも柔軟に対応でき、より自然で円滑なインタラクションを人との間で実行できる。   Further, in this embodiment, when it is determined that only the robot 10 is in the dialog participation state, the robot 10 performs a cautionary utterance and asks a person to adjust the body direction and the line-of-sight direction. Accordingly, it is possible to flexibly cope with a situation in which the robot 10 cannot go around the front area fz of the person due to a narrow space in front of the person, and more natural and smooth interaction can be performed with the person.

さらに、この実施例では、対話のためにより適切な場所への調整移動(対話陣形の調整移動)も実行する。これは、対話を始めるための空間陣形と対話をするための空間陣形とは、必ずしも同じになるとは限らないからであり、対話陣形の調整移動を行うことによって、より自然で円滑なインタラクションを人との間で実行できる。   Further, in this embodiment, adjustment movement to a more appropriate place for dialogue (dialogue-shaped adjustment movement) is also executed. This is because the spatial formation for starting a conversation is not necessarily the same as the spatial formation for performing a conversation. By performing coordinated movement of the dialog formation, more natural and smooth interaction is achieved. Can be executed between.

なお、上述の実施例では、モーションキャプチャシステム12を利用して、ロボット10および人の配置情報、つまり位置、体の向きおよび視線方向を検出するようにしたが、これに限定されず、公知の方法を適宜利用することができる。たとえば、人およびロボット10の位置検出および体の向きの検出については、この発明者らが先に出願した特開2009−168578号公報に開示したLRFを用いる方法を利用することができる。また、視線方向を計測する装置の一例として、株式会社ナックイメージテクノロジーの視線計測システム「アイマークレコーダ」の技術を利用することができる。   In the above-described embodiment, the motion capture system 12 is used to detect the arrangement information of the robot 10 and the person, that is, the position, the body direction, and the line-of-sight direction. The method can be used as appropriate. For example, the method using the LRF disclosed in Japanese Patent Application Laid-Open No. 2009-168578 previously filed by the present inventors can be used for the position detection of the person and the robot 10 and the detection of the body orientation. In addition, as an example of an apparatus for measuring the line-of-sight direction, the technology of the line-of-sight measurement system “eye mark recorder” of NAC Image Technology Co., Ltd. can be used.

また、上述の実施例では、ロボット10のCPU62が、ロボット10と人との空間陣形を分析して対話参加状態を認識する処理(ステップS3に相当)、および対話参加状態に応じて次の動作を制御する処理(ステップS5−S17に相当)を行うようにしたが、これに限定されない。たとえば、ロボット制御装置(或いは空間陣形認識装置)としての外部コンピュータを別に設け、空間陣形を分析してロボット10の動作を決定するこれらの処理の一部または全部を外部コンピュータに実行させて、外部コンピュータからロボット10に対して動作制御データを送信するようにしてもよい。   In the above-described embodiment, the CPU 62 of the robot 10 recognizes the dialogue participation state by analyzing the space formation between the robot 10 and the person (corresponding to step S3), and the next operation according to the dialogue participation state. However, the present invention is not limited to this. For example, an external computer is separately provided as a robot control device (or space formation recognition device), and the external computer is caused to execute part or all of these processes for determining the operation of the robot 10 by analyzing the space formation. Operation control data may be transmitted from the computer to the robot 10.

なお、上で挙げた所定距離などの具体的数値は、いずれも単なる一例であり、必要に応じて適宜変更可能である。   Note that the specific numerical values such as the predetermined distance mentioned above are merely examples, and can be appropriately changed as necessary.

10 …コミュニケーションロボット
12 …モーションキャプチャシステム
22 …車輪
26 …車輪モータ
54 …スピーカ
62 …CPU
66 …メモリ
100 …ロボットシステム
DESCRIPTION OF SYMBOLS 10 ... Communication robot 12 ... Motion capture system 22 ... Wheel 26 ... Wheel motor 54 ... Speaker 62 ... CPU
66 ... Memory 100 ... Robot system

Claims (11)

少なくとも発話を用いて人との間でコミュニケーションを実行するロボットを含むロボットシステムであって、
位置、体の向きおよび視線方向を含む前記人および前記ロボットの配置情報を検出する検出手段、
前記検出手段によって検出された前記配置情報に基づいて前記人と前記ロボットとの空間陣形を分析し、前記人および前記ロボットの対話参加状態を判定する判定手段、
前記判定手段によって前記人および前記ロボットの少なくとも一方が対話参加状態でないと判断されたとき、前記人および前記ロボットの双方が対話参加状態となるように前記ロボットの動作を制御する空間陣形調整手段、および
前記判定手段によって前記人および前記ロボットの双方が対話参加状態であると判断されたとき、前記人に対する挨拶発話を前記ロボットに実行させる挨拶実行手段を備える、ロボットシステム。
A robot system including a robot that performs communication with a person using at least speech,
Detecting means for detecting arrangement information of the person and the robot including a position, a body direction, and a line-of-sight direction;
Determination means for analyzing a spatial formation of the person and the robot based on the arrangement information detected by the detection means, and for determining a dialog participation state of the person and the robot;
Spatial shape adjustment means for controlling the operation of the robot so that both the person and the robot enter a dialog participation state when the determination means determines that at least one of the person and the robot is not in the dialog participation state; And a robot system comprising greeting execution means for causing the robot to execute a greeting utterance to the person when the determination means determines that both the person and the robot are in a dialog participation state.
前記判定手段は、前記人の頭部および前記ロボットの頭部が共に相手の視線領域に入る状態の空間陣形になったとき、前記人および前記ロボットの双方が対話参加状態であると判断する、請求項1記載のロボットシステム。   The determination means determines that both the person and the robot are in a dialog participation state when both the person's head and the robot's head are in a space formation in a state where they enter the line-of-sight area of the opponent. The robot system according to claim 1. 前記判定手段は、前記人および前記ロボットが共に相手の正面領域に入る状態の空間陣形になったとき、前記人および前記ロボットの双方が対話参加状態であると判断する、請求項1または2記載のロボットシステム。   The said determination means determines that both the said person and the said robot are dialog participation states, when the said person and the said robot become the space formation form of the state which enters into the front area of the other party. Robot system. 前記判定手段は、前記人の頭部および前記ロボットの頭部が共に相手の視線領域に入る状態ではなく、前記人の正面領域に前記ロボットが入り、前記ロボットの正面領域に前記人が入らず、かつ前記ロボットの視野に前記人が入る状態の空間陣形になったとき、前記人のみが対話参加状態であると判断する、請求項1ないし3のいずれかに記載のロボットシステム。   The determination means is not in a state where the head of the person and the head of the robot are in the line-of-sight area of the opponent, the robot enters the front area of the person, and the person does not enter the front area of the robot. The robot system according to any one of claims 1 to 3, wherein only the person is determined to be in a dialog participation state when the space is formed so that the person enters the field of view of the robot. 前記判定手段は、前記人の頭部および前記ロボットの頭部が共に相手の視線領域に入る状態ではなく、前記ロボットの正面領域に前記人が入り、前記人の正面領域に前記ロボットが入らず、かつ前記人の視野領域に前記ロボットが入る状態の空間陣形になったとき、前記ロボットのみが対話参加状態であると判断する、請求項1ないし4のいずれかに記載のロボットシステム。   The determination means is not in a state where the head of the person and the head of the robot are both in the line-of-sight area of the opponent, the person enters the front area of the robot, and the robot does not enter the front area of the person. 5. The robot system according to claim 1, wherein only the robot is determined to be in a dialog participation state when the robot is in a space formation state in which the robot enters the visual field region of the person. 前記空間陣形調整手段は、前記判定手段によって前記人および前記ロボットの双方が対話参加状態でないと判断されたとき、空間陣形の主動調整移動を前記ロボットに実行させる主動調整手段を含む、請求項1ないし5のいずれかに記載のロボットシステム。   The space formation adjusting means includes main movement adjusting means for causing the robot to perform a main movement adjustment movement of a space formation when it is determined by the determination means that neither the person nor the robot is in a dialog participation state. 6. The robot system according to any one of 5 to 5. 前記主動調整手段は、説明すべき対象物があるとき、前記対象物の説明を行い易い地点を前記ロボットの移動目標位置として選択する、請求項6記載のロボットシステム。   The robot system according to claim 6, wherein when there is an object to be explained, the main motion adjusting unit selects a point where the object is easily explained as a movement target position of the robot. 前記空間陣形調整手段は、前記判定手段によって前記人のみが対話参加状態であると判断されたとき、空間陣形の受動調整移動を前記ロボットに実行させる受動調整手段を含む、請求項1ないし7のいずれかに記載のロボットシステム。   The space formation adjusting means includes passive adjustment means for causing the robot to perform a space adjustment passive adjustment movement when it is determined by the determination means that only the person is in a dialog participation state. The robot system according to any one of the above. 前記空間陣形調整手段は、前記判定手段によって前記ロボットのみが対話参加状態であると判断されたとき、注意喚起発話を前記ロボットに実行させる注意喚起実行手段を含む、請求項1ないし8のいずれかに記載のロボットシステム。   9. The space formation adjusting means according to any one of claims 1 to 8, wherein said space formation adjusting means includes attention executing means for causing said robot to execute a warning utterance when it is determined by said determining means that only said robot is in a dialog participation state. The robot system described in 1. 前記判定手段によって前記人および前記ロボットの双方が対話参加状態であると判断されたとき、対話に適した空間陣形となるように前記ロボットの動作を制御する対話陣形調整手段をさらに備える、請求項1ないし9のいずれかに記載のロボットシステム。   The apparatus further comprises dialogue shape adjusting means for controlling the operation of the robot so as to obtain a space shape suitable for dialogue when both of the person and the robot are judged to be in a dialogue participation state by the decision means. The robot system according to any one of 1 to 9. 少なくとも発話を用いて人との間でコミュニケーションを実行するロボットの動作制御に用いられる空間陣形認識装置であって、
位置、体の向きおよび視線方向を含む前記人および前記ロボットの配置情報を検出する検出手段、および
前記検出手段によって検出された前記配置情報に基づいて前記人と前記ロボットとの空間陣形を分析し、前記人および前記ロボットの対話参加状態を判定する判定手段を備える、空間陣形認識装置。
A spatial formation recognition device used for motion control of a robot that performs communication with a person using at least speech,
Detecting means for detecting arrangement information of the person and the robot including a position, a body direction and a line-of-sight direction, and analyzing a spatial formation of the person and the robot based on the arrangement information detected by the detecting means. A spatial formation recognizing device, comprising: determination means for determining a dialog participation state of the person and the robot.
JP2011021940A 2011-02-03 2011-02-03 Robot system and space formation recognition device used therefor Active JP5732632B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011021940A JP5732632B2 (en) 2011-02-03 2011-02-03 Robot system and space formation recognition device used therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011021940A JP5732632B2 (en) 2011-02-03 2011-02-03 Robot system and space formation recognition device used therefor

Publications (2)

Publication Number Publication Date
JP2012161851A true JP2012161851A (en) 2012-08-30
JP5732632B2 JP5732632B2 (en) 2015-06-10

Family

ID=46841797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011021940A Active JP5732632B2 (en) 2011-02-03 2011-02-03 Robot system and space formation recognition device used therefor

Country Status (1)

Country Link
JP (1) JP5732632B2 (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104772748A (en) * 2015-04-03 2015-07-15 华东师范大学 Social robot
JP2015184384A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
JP2015184351A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
WO2016170808A1 (en) * 2015-04-22 2016-10-27 ソニー株式会社 Moving body control system, control method, and storage medium
JP2016224302A (en) * 2015-06-01 2016-12-28 日本電信電話株式会社 Visual line guide apparatus, visual line guide method, and visual line guide program
WO2017008182A1 (en) * 2015-07-15 2017-01-19 深圳市优必选科技有限公司 Control system for intelligent robot
WO2017086108A1 (en) * 2015-11-16 2017-05-26 大日本印刷株式会社 Information presentation apparatus, information presentation method, program, information processing apparatus, and guide robot control system
JP2017159396A (en) * 2016-03-09 2017-09-14 大日本印刷株式会社 Guide robot control system, program, and guide robot
JP2017159410A (en) * 2016-03-10 2017-09-14 大日本印刷株式会社 Guide robot control system, program, and guide robot
CN107206601A (en) * 2014-10-24 2017-09-26 费洛有限公司 Customer service robot and related systems and methods
JP2017226047A (en) * 2016-06-23 2017-12-28 カシオ計算機株式会社 Robot, robot control system, robot control method, and program
EP3279754A1 (en) 2016-07-15 2018-02-07 Hitachi, Ltd. Control apparatus, control system, and control method
JP2018094645A (en) * 2016-12-08 2018-06-21 株式会社国際電気通信基礎技術研究所 Behavior command generation system, response system and behavior command generation method
JP2018109986A (en) * 2016-12-28 2018-07-12 本田技研工業株式会社 Method for operating autonomous mobile body
JP2018109989A (en) * 2016-12-28 2018-07-12 本田技研工業株式会社 Method for operating autonomous mobile body
JP2018109987A (en) * 2016-12-28 2018-07-12 本田技研工業株式会社 Method for operating autonomous mobile body
JP2018109990A (en) * 2016-12-28 2018-07-12 本田技研工業株式会社 Method for operating autonomous mobile body
JP2019021166A (en) * 2017-07-20 2019-02-07 日本信号株式会社 Image processing device
JP2019147234A (en) * 2018-02-28 2019-09-05 パナソニックIpマネジメント株式会社 Device, robot, method, and program
US10576633B2 (en) 2016-09-29 2020-03-03 Toyota Jidosha Kabushiki Kaisha Communication device
JP2021013964A (en) * 2019-07-10 2021-02-12 株式会社国際電気通信基礎技術研究所 Robot, robot control program, and robot control method
WO2021220614A1 (en) * 2020-04-28 2021-11-04 ソニーグループ株式会社 Control device, control method, and computer program
JP2022507447A (en) * 2018-11-13 2022-01-18 北京猟戸星空科技有限公司 Methods, devices and storage media for controlling intelligent devices
WO2023145284A1 (en) * 2022-01-28 2023-08-03 ソニーグループ株式会社 Information processing device, information processing method, and computer program

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105975945A (en) * 2016-05-23 2016-09-28 浙江鑫网电子科技有限公司 Intelligent lucky machine cat
CN106078805A (en) * 2016-08-01 2016-11-09 美的机器人产业发展有限公司 display device and service robot for service robot
CN108748172A (en) * 2018-05-29 2018-11-06 塔米智能科技(北京)有限公司 A kind of robot welcome method, apparatus, equipment and medium
CN112578909A (en) * 2020-12-15 2021-03-30 北京百度网讯科技有限公司 Equipment interaction method and device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004034274A (en) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd Conversation robot and its operation method
JP2005131713A (en) * 2003-10-28 2005-05-26 Advanced Telecommunication Research Institute International Communication robot
JP2005238382A (en) * 2004-02-26 2005-09-08 Advanced Telecommunication Research Institute International Communication robot
JP2005313291A (en) * 2004-04-30 2005-11-10 Mitsubishi Heavy Ind Ltd Image display method linked with robot action, and device thereof
JP2008254122A (en) * 2007-04-05 2008-10-23 Honda Motor Co Ltd Robot
JP2009168578A (en) * 2008-01-15 2009-07-30 Advanced Telecommunication Research Institute International Measurement device and measurement method
JP2009248193A (en) * 2008-04-01 2009-10-29 Toyota Motor Corp Reception system and reception method
US20120061155A1 (en) * 2010-04-09 2012-03-15 Willow Garage, Inc. Humanoid robotics system and methods

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004034274A (en) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd Conversation robot and its operation method
JP2005131713A (en) * 2003-10-28 2005-05-26 Advanced Telecommunication Research Institute International Communication robot
JP2005238382A (en) * 2004-02-26 2005-09-08 Advanced Telecommunication Research Institute International Communication robot
JP2005313291A (en) * 2004-04-30 2005-11-10 Mitsubishi Heavy Ind Ltd Image display method linked with robot action, and device thereof
JP2008254122A (en) * 2007-04-05 2008-10-23 Honda Motor Co Ltd Robot
JP2009168578A (en) * 2008-01-15 2009-07-30 Advanced Telecommunication Research Institute International Measurement device and measurement method
JP2009248193A (en) * 2008-04-01 2009-10-29 Toyota Motor Corp Reception system and reception method
US20120061155A1 (en) * 2010-04-09 2012-03-15 Willow Garage, Inc. Humanoid robotics system and methods

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
佐竹 聡 SATORU SATAKE: "対話ロボットの人間へのアプローチ方法", 日本ロボット学会誌 第28巻 第3号 JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 第28巻, JPN6015007007, JP, ISSN: 0003012820 *
山岡 史享 FUMITAKA YAMAOKA: "協調的移動に基づく対話ロボットによる注意共有の実現 Developing a Model of Robot Behavior to Identify", 日本ロボット学会誌 第28巻 第3号 JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 第28巻, JPN6015007010, JP, ISSN: 0003012821 *
山岡 史享 FUMITAKA YAMAOKA: "情報提示ロボットのための立ち位置モデル A Model of Proximity Control for Information-presenting Robo", 日本ロボット学会誌 第27巻 第2号 JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 第27巻, JPN6015007005, JP, ISSN: 0003012819 *

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184384A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
JP2015184351A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
CN107206601A (en) * 2014-10-24 2017-09-26 费洛有限公司 Customer service robot and related systems and methods
CN104772748A (en) * 2015-04-03 2015-07-15 华东师范大学 Social robot
US11385647B2 (en) 2015-04-22 2022-07-12 Sony Corporation Mobile body control system, control method, and storage medium
WO2016170808A1 (en) * 2015-04-22 2016-10-27 ソニー株式会社 Moving body control system, control method, and storage medium
US10613538B2 (en) 2015-04-22 2020-04-07 Sony Corporation Mobile body control system, control method, and storage medium
JP2016224302A (en) * 2015-06-01 2016-12-28 日本電信電話株式会社 Visual line guide apparatus, visual line guide method, and visual line guide program
WO2017008182A1 (en) * 2015-07-15 2017-01-19 深圳市优必选科技有限公司 Control system for intelligent robot
WO2017086108A1 (en) * 2015-11-16 2017-05-26 大日本印刷株式会社 Information presentation apparatus, information presentation method, program, information processing apparatus, and guide robot control system
JP2017159396A (en) * 2016-03-09 2017-09-14 大日本印刷株式会社 Guide robot control system, program, and guide robot
JP2017159410A (en) * 2016-03-10 2017-09-14 大日本印刷株式会社 Guide robot control system, program, and guide robot
JP2017226047A (en) * 2016-06-23 2017-12-28 カシオ計算機株式会社 Robot, robot control system, robot control method, and program
EP3279754A1 (en) 2016-07-15 2018-02-07 Hitachi, Ltd. Control apparatus, control system, and control method
US10339381B2 (en) 2016-07-15 2019-07-02 Hitachi, Ltd. Control apparatus, control system, and control method
US10576633B2 (en) 2016-09-29 2020-03-03 Toyota Jidosha Kabushiki Kaisha Communication device
JP2018094645A (en) * 2016-12-08 2018-06-21 株式会社国際電気通信基礎技術研究所 Behavior command generation system, response system and behavior command generation method
JP2018109990A (en) * 2016-12-28 2018-07-12 本田技研工業株式会社 Method for operating autonomous mobile body
JP7029956B2 (en) 2016-12-28 2022-03-04 本田技研工業株式会社 How to operate an autonomous mobile body
JP2018109986A (en) * 2016-12-28 2018-07-12 本田技研工業株式会社 Method for operating autonomous mobile body
JP2018109987A (en) * 2016-12-28 2018-07-12 本田技研工業株式会社 Method for operating autonomous mobile body
JP2018109989A (en) * 2016-12-28 2018-07-12 本田技研工業株式会社 Method for operating autonomous mobile body
JP7016696B2 (en) 2016-12-28 2022-02-07 本田技研工業株式会社 How to operate an autonomous mobile body
JP6993802B2 (en) 2017-07-20 2022-02-04 日本信号株式会社 Image processing equipment
JP2019021166A (en) * 2017-07-20 2019-02-07 日本信号株式会社 Image processing device
JP2019147234A (en) * 2018-02-28 2019-09-05 パナソニックIpマネジメント株式会社 Device, robot, method, and program
JP7102169B2 (en) 2018-02-28 2022-07-19 パナソニックホールディングス株式会社 Equipment, robots, methods, and programs
JP2022507447A (en) * 2018-11-13 2022-01-18 北京猟戸星空科技有限公司 Methods, devices and storage media for controlling intelligent devices
JP7204912B2 (en) 2018-11-13 2023-01-16 北京猟戸星空科技有限公司 Method, device and storage medium for controlling intelligent equipment
JP2021013964A (en) * 2019-07-10 2021-02-12 株式会社国際電気通信基礎技術研究所 Robot, robot control program, and robot control method
JP7258438B2 (en) 2019-07-10 2023-04-17 株式会社国際電気通信基礎技術研究所 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
WO2021220614A1 (en) * 2020-04-28 2021-11-04 ソニーグループ株式会社 Control device, control method, and computer program
WO2023145284A1 (en) * 2022-01-28 2023-08-03 ソニーグループ株式会社 Information processing device, information processing method, and computer program

Also Published As

Publication number Publication date
JP5732632B2 (en) 2015-06-10

Similar Documents

Publication Publication Date Title
JP5732632B2 (en) Robot system and space formation recognition device used therefor
JP4849244B2 (en) Mobile robot and moving speed estimation method
JP5429462B2 (en) Communication robot
JP4822319B2 (en) Communication robot and attention control system using the same
JP5366048B2 (en) Information provision system
JP5751610B2 (en) Conversation robot
JP5764795B2 (en) Mobile robot, mobile robot learning system, and mobile robot behavior learning method
JPWO2007132571A1 (en) robot
JP2006247780A (en) Communication robot
JP2009222969A (en) Speech recognition robot and control method for speech recognition robot
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
EP3300841B1 (en) Communication device
JP5145569B2 (en) Object identification method and apparatus
JP2006272471A (en) Communication robot
JP4399603B2 (en) Communication robot
JP4617428B2 (en) Motion generation system
JP2011000656A (en) Guide robot
JP2004034274A (en) Conversation robot and its operation method
JP4793904B2 (en) Communication robot system and communication robot
JP2017170568A (en) Service providing robot system
JP2007130691A (en) Communication robot
Tee et al. Gesture-based attention direction for a telepresence robot: Design and experimental study
JP5842245B2 (en) Communication robot
JP2008080431A (en) Robot system
JP5324956B2 (en) Road guidance robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150302

R150 Certificate of patent or registration of utility model

Ref document number: 5732632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250