JP2012161851A - Robot system and space formation recognizing device used in the same - Google Patents
Robot system and space formation recognizing device used in the same Download PDFInfo
- Publication number
- JP2012161851A JP2012161851A JP2011021940A JP2011021940A JP2012161851A JP 2012161851 A JP2012161851 A JP 2012161851A JP 2011021940 A JP2011021940 A JP 2011021940A JP 2011021940 A JP2011021940 A JP 2011021940A JP 2012161851 A JP2012161851 A JP 2012161851A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- person
- state
- dialog
- formation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 119
- 230000033001 locomotion Effects 0.000 claims abstract description 93
- 238000004891 communication Methods 0.000 claims abstract description 30
- 230000000007 visual effect Effects 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 8
- 241000282414 Homo sapiens Species 0.000 abstract description 22
- 210000003128 head Anatomy 0.000 description 24
- 238000000034 method Methods 0.000 description 21
- 230000003993 interaction Effects 0.000 description 18
- 210000005252 bulbus oculi Anatomy 0.000 description 16
- 210000001508 eye Anatomy 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 230000009471 action Effects 0.000 description 11
- 230000001419 dependent effect Effects 0.000 description 9
- 210000000323 shoulder joint Anatomy 0.000 description 9
- 238000013459 approach Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 210000002310 elbow joint Anatomy 0.000 description 4
- 210000000245 forearm Anatomy 0.000 description 4
- 239000003550 marker Substances 0.000 description 4
- 230000003340 mental effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- QBWCMBCROVPCKQ-UHFFFAOYSA-N chlorous acid Chemical compound OCl=O QBWCMBCROVPCKQ-UHFFFAOYSA-N 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Abstract
Description
この発明はロボットシステムおよびそれに用いる空間陣形認識装置に関し、特にたとえば、少なくとも発話を用いて人との間でコミュニケーションを実行するロボットを含む、ロボットシステムおよびそれに用いる空間陣形認識装置に関する。 The present invention relates to a robot system and a space formation recognition apparatus used therefor, and more particularly to a robot system including a robot that performs communication with a person using at least speech and a space formation recognition apparatus used therefor.
近年、発話や身体動作などを用いて、展示案内や客引きなどの多様なサービスを提供するロボット(コミュニケーションロボット)が開発されている。ここで、ロボットが展示案内や客引きなどのサービスを提供する場合には、人とのインタラクション(コミュニケーション)をどのように引き起こすかが重要となる。ロボットが目新しい存在である場合には、人の方からインタラクションを開始してくれるかもしれないが、近い将来、ロボットの目新しさが薄れるであろうことを考慮すると、ロボット側から働きかけてインタラクションを開始する必要があると考えられるからである。 In recent years, robots (communication robots) that provide various services such as exhibition guidance and customer attraction using speech and body movements have been developed. Here, when a robot provides services such as exhibition guidance and customer attraction, how to cause interaction (communication) with a person is important. If the robot is a novelty, it may start interaction from a person, but considering that the novelty of the robot will fade in the near future, work from the robot side to start the interaction Because it is thought that it is necessary to do.
すなわち、人とのコミュニケーションをより円滑に遂行し、サービスをより効率良く提供するためには、ロボットが、適切なタイミングおよび位置で人に話しかける機能、つまり人と対話(会話)を自然に始める機能を身に付けることが重要であると考えられる。 In other words, in order to perform communication with people more smoothly and provide services more efficiently, the function that the robot speaks to people at the appropriate timing and position, that is, the function that starts conversation with the person naturally. It is thought that it is important to acquire.
たとえば、特許文献1には、従来の会話ロボットの一例が開示されている。特許文献1の会話ロボットは、人の顔または体の正面方向を検出し、検出した人の顔または体の正面方向に移動した後、人の目を見て人に話しかけるようにしている。
For example,
一方、非特許文献1には、人同士がインタラクションを行う際に、F陣形と呼ばれる特定の空間陣形を維持することが開示されている。また、非特許文献2には、非特許文献1の空間陣形に関する考えを、人とロボットとのインタラクションに利用することが開示されている。
特許文献1の技術では、人の真正面に移動してから対話を開始している。人の真正面で人の目を見ながら話すことによって親近感は増すかもしれないが、人に声をかけるタイミングおよび位置としては、人の真正面に移動したときが常に適切であるとは限らない。たとえば、人間同士が対話をするときにいつでも、わざわざ相手の真正面に移動してから対話を始めるかというと、そうではないので、特許文献1の技術のようなロボットの行動は、不自然なものとなってしまう。すなわち、ロボットが人に話しかける状況というのは、様々であり、たとえば、人の正面方向から近づいて話しかける状況があれば、横方向や背後方向から近づいて話しかける状況もある。また、単に人との対話を目的とするだけの状況があれば、人に商品の説明をしたり、人を商品の近くまで誘導したりしなければならない状況もある。特許文献1の技術では、このような様々な状況に対して適切に対応することができない。
In the technique of
また、非特許文献1および2の技術では、人同士、或いは人とロボットとが、既にインタラクションを開始していることを前提としている。つまり、様々な状況が起こり得る中で、ロボットが、人に対してどのようなタイミングおよび位置で話しかけて対話を開始すればよいかについては、明らかにされていない。
In the techniques of
それゆえに、この発明の主たる目的は、新規な、ロボットシステムおよびそれに用いる空間陣形認識装置を提供することである。 Therefore, a main object of the present invention is to provide a novel robot system and a space formation recognition apparatus used therefor.
この発明の他の目的は、人との対話を自然に開始できる、ロボットシステムおよびそれに用いる空間陣形認識装置を提供することである。 Another object of the present invention is to provide a robot system and a spatial formation recognition device used therefor that can naturally start a dialogue with a person.
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明などは、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、この発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses and supplementary explanations indicate correspondence with embodiments described later in order to help understanding of the present invention, and do not limit the present invention.
第1の発明は、少なくとも発話を用いて人との間でコミュニケーションを実行するロボットを含むロボットシステムであって、位置、体の向きおよび視線方向を含む人およびロボットの配置情報を検出する検出手段、検出手段によって検出された配置情報に基づいて人とロボットとの空間陣形を分析し、人およびロボットの対話参加状態を判定する判定手段、判定手段によって人およびロボットの少なくとも一方が対話参加状態でないと判断されたとき、人およびロボットの双方が対話参加状態となるようにロボットの動作を制御する空間陣形調整手段、および判定手段によって人およびロボットの双方が対話参加状態であると判断されたとき、人に対する挨拶発話をロボットに実行させる挨拶実行手段を備える、ロボットシステムである。 A first invention is a robot system including a robot that performs communication with a person using at least an utterance, and detecting means for detecting arrangement information of a person and a robot including a position, a body direction, and a gaze direction , A determination means for analyzing a spatial formation between the person and the robot based on the arrangement information detected by the detection means, and determining a dialog participation state of the person and the robot, and at least one of the person and the robot is not in the dialog participation state by the determination means When it is determined that both the person and the robot are in the dialog participation state, the space formation adjusting means for controlling the operation of the robot so that both the person and the robot are in the dialog participation state, and the determination means are determined that both the person and the robot are in the dialog participation state. The robot system includes a greeting execution means for causing the robot to execute a greeting utterance to a person.
第1の発明では、ロボットシステム(100)は、少なくとも発話を用いて人との間でコミュニケーションを実行するロボット(10)を含む。このロボットは、配置された環境内において、人に対して自ら話しかけて人とのインタラクションを引き起こす。検出手段(12,62,66,84,86,S1)は、人およびロボットの配置情報、たとえば位置、体の向きおよび視線方向を検出する。判定手段(62,66,S3)は、人およびロボットの配置情報に基づいて空間陣形(空間的な配置関係)を分析することによって、人およびロボットの対話参加状態を判定する。ここで、対話参加状態とは、対話への参加に対して暗黙的に同意した状態(心的同意状態)をいい、たとえば、人および自身に対して予め定義される視線領域(gz)、正面領域(bz)、視野領域(sz)および視野(fv)を用いて表される空間陣形に基づいて推定(認識)される。空間陣形調整手段(26,54,62,66,82,S5−17)は、人およびロボットの対話参加状態に応じてロボットの動作を制御し、人およびロボットの双方が対話参加状態となる空間陣形を形成する。挨拶実行手段(54,62,66,S19)は、人およびロボットの双方が対話参加状態(双方参加状態)になったとき、「こんにちは」や「いらっしゃいませ」等の挨拶発話をロボットに実行させる。 In the first invention, the robot system (100) includes a robot (10) that performs communication with a person using at least speech. The robot talks to the person himself / herself in the environment where the robot is arranged and causes interaction with the person. The detection means (12, 62, 66, 84, 86, S1) detects arrangement information of the person and the robot, for example, the position, the body direction, and the line-of-sight direction. The determination means (62, 66, S3) determines the dialogue participation state of the person and the robot by analyzing the space formation (spatial arrangement relationship) based on the arrangement information of the person and the robot. Here, the dialogue participation state refers to a state (mental agreement state) implicitly agreed to participation in the dialogue, for example, a line-of-sight area (gz) defined in advance for a person and himself, front view It is estimated (recognized) based on the spatial formation represented by using the region (bz), the visual field region (sz), and the visual field (fv). The space formation adjusting means (26, 54, 62, 66, 82, S5-17) controls the operation of the robot according to the dialogue participation state of the person and the robot, and the space where both the person and the robot are in the dialogue participation state. Form a formation. Greeting execution means (54,62,66, S19) is, when both of human and robot has become interactive participation state (both participating state), to perform a greeting speech such as "Hello" or "May I help you?" The robot .
第1の発明によれば、双方が対話参加状態となる空間陣形を生成した後に挨拶発話を実行するので、人との対話を自然に開始でき、円滑にコミュニケーションを図ることができる。 According to the first invention, since the greeting utterance is executed after generating the spatial formation in which both parties are in the dialogue participation state, the dialogue with the person can be started naturally and smooth communication can be achieved.
第2の発明は、第1の発明に従属し、判定手段は、人の頭部およびロボットの頭部が共に相手の視線領域に入る状態の空間陣形になったとき、人およびロボットの双方が対話参加状態であると判断する。 The second invention is dependent on the first invention, and the determination means is configured such that when both the human head and the robot head are in a space formation in a state where they enter the line-of-sight area of the opponent, It is determined that the user is in a dialog participation state.
第2の発明では、判定手段(62,66,S3)は、人の頭部がロボット(10)の視線領域(gz)に入り、かつロボットの頭部(52)が人の視線領域に入る状態の空間陣形になったとき、つまり所定距離内で人およびロボットの視線が合ったとき、双方参加状態であると判断する。これによって、双方参加状態を適切に認識できる。 In the second invention, the judging means (62, 66, S3) has the human head in the line-of-sight region (gz) of the robot (10) and the robot head (52) in the human line-of-sight region. When the space form of the state is reached, that is, when the line of sight of the person and the robot is within a predetermined distance, it is determined that both are in a participating state. As a result, it is possible to appropriately recognize the both-participation state.
第3の発明は、第1または第2の発明に従属し、判定手段は、人およびロボットが共に相手の正面領域に入る状態の空間陣形になったとき、人およびロボットの双方が対話参加状態であると判断する。 The third invention is dependent on the first or second invention, and the determination means is in a state where both the person and the robot participate in the dialogue when both the person and the robot enter a space formation state in which the person enters the front area of the opponent. It is judged that.
第3の発明では、判定手段(62,66,S3)は、ロボット(10)の正面領域(bz)に人が入り、かつ人の正面領域にロボットが入る状態の空間陣形になったとき、双方参加状態であると判断する。これによって、双方参加状態を適切に認識できる。 In the third invention, when the determination means (62, 66, S3) has a space shape in which a person enters the front area (bz) of the robot (10) and the robot enters the front area of the person, It is determined that both parties are participating. As a result, it is possible to appropriately recognize the both-participation state.
第4の発明は、第1ないし第3のいずれかの発明に従属し、判定手段は、人の頭部およびロボットの頭部が共に相手の視線領域に入る状態ではなく、人の正面領域にロボットが入り、ロボットの正面領域に人が入らず、かつロボットの視野に人が入る状態の空間陣形になったとき、人のみが対話参加状態であると判断する。 The fourth invention is dependent on any one of the first to third inventions, and the determination means is not in a state where the head of the person and the head of the robot are both in the line-of-sight area of the opponent, but in the front area of the person. When the robot enters, a space formation is formed in which the person does not enter the front area of the robot and the person enters the field of view of the robot, it is determined that only the person is in the conversation participation state.
第4の発明では、判定手段(62,66,S3)は、所定距離内で人およびロボット(10)の視線が合う状態ではなく、人の正面領域(bz)にロボットが入り、ロボットの正面領域に人が入らず、かつロボットの視野(fv)に人が入る状態の空間陣形になったとき、人のみが対話参加状態であると判断する。これによって、人のみが対話参加状態であることを適切に認識できる。 In the fourth invention, the determination means (62, 66, S3) is not in a state in which the line of sight of the person and the robot (10) is within a predetermined distance, but the robot enters the front area (bz) of the person and the front of the robot. When a space is formed in a state where no person enters the area and a person enters the field of view (fv) of the robot, it is determined that only the person is in the conversation participation state. This makes it possible to appropriately recognize that only a person is in a dialog participation state.
第5の発明は、第1ないし第4のいずれかの発明に従属し、判定手段は、人の頭部およびロボットの頭部が共に相手の視線領域に入る状態ではなく、ロボットの正面領域に人が入り、人の正面領域にロボットが入らず、かつ人の視野領域にロボットが入る状態の空間陣形になったとき、ロボットのみが対話参加状態であると判断する。 The fifth invention is dependent on any one of the first to fourth inventions, and the determination means is not in a state where both the human head and the robot head enter the partner's line-of-sight region, but in the front region of the robot. When a space is formed such that a person enters, a robot does not enter the person's front area, and a robot enters the person's visual field area, it is determined that only the robot is in the conversation participation state.
第5の発明では、判定手段(62,66,S3)は、所定距離内で人およびロボット(10)の視線が合う状態ではなく、ロボットの正面領域(bz)に人が入り、人の正面領域にロボットが入らず、かつ人の視野領域(sz)にロボットが入る状態の空間陣形になったとき、ロボットのみが対話参加状態であると判断する。これによって、ロボットのみが対話参加状態であることを適切に認識できる。 In the fifth invention, the determination means (62, 66, S3) is not in a state in which the line of sight of the person and the robot (10) are aligned within a predetermined distance, and the person enters the front area (bz) of the robot. When a space is formed in a state where the robot does not enter the region and the robot enters the human visual field region (sz), it is determined that only the robot is in the dialog participation state. This makes it possible to appropriately recognize that only the robot is in the dialog participation state.
第6の発明は、第1ないし第5のいずれかの発明に従属し、空間陣形調整手段は、判定手段によって人およびロボットの双方が対話参加状態でないと判断されたとき、空間陣形の主動調整移動をロボットに実行させる主動調整手段を含む。 The sixth invention is dependent on any one of the first to fifth inventions, and the spatial formation adjusting means adjusts the main movement of the spatial formation when it is determined by the determination means that neither the person nor the robot is in the dialogue participation state. It includes a main adjustment means for causing the robot to execute the movement.
第6の発明では、空間陣形調整手段(26,54,62,66,82,S5−17)は、主動調整手段(26,62,66,82,S5,S7)を含む。主動調整手段は、判定手段(62,66,S3)によって、人およびロボット(10)の双方が対話参加状態でない、すなわち双方非参加状態である判断されたとき、ロボットに空間陣形の主動調整移動を実行させる。たとえば、空間陣形の主動調整移動では、ロボットの正面領域(fz)に人が入り、かつ人の視野領域(fv)にロボットが入るような地点(或いは配置状態)を移動目標位置として設定してロボットを移動させる。 In the sixth invention, the space formation adjusting means (26, 54, 62, 66, 82, S5-17) includes main movement adjusting means (26, 62, 66, 82, S5, S7). When the determination means (62, 66, S3) determines that both the person and the robot (10) are not participating in the dialogue, that is, both are not participating, the main movement adjustment means moves the robot into a space-form main movement adjustment movement. Is executed. For example, in the main movement adjustment movement of the space formation, a point (or arrangement state) where a person enters the front area (fz) of the robot and the robot enters the human field of view (fv) is set as the movement target position. Move the robot.
第6の発明によれば、少なくともロボットが対話参加状態になる空間陣形が確保される。 According to the sixth aspect of the invention, at least a space formation in which the robot is in a dialog participation state is secured.
第7の発明は、第6の発明に従属し、主動調整手段は、説明すべき対象物があるとき、対象物の説明を行い易い地点をロボットの移動目標位置として選択する。 The seventh invention is dependent on the sixth invention, and when there is an object to be explained, the main adjustment means selects a point where the object can be easily explained as a movement target position of the robot.
第7の発明では、主動調整手段(26,62,66,82,S5,S7)は、説明すべき対象物があるとき、対象物の説明を行い易い地点をロボット(10)の移動目標位置として設定する。たとえば、ロボットの正面領域(fz)に人が入り、かつ人の視野領域(fv)にロボットが入るような地点を移動目標位置として設定するという条件を満たす上で、さらに、対象物がロボットおよび人の双方の視野(fv)に入る空間陣形となるように、移動目標位置が設定される。 In the seventh invention, the main motion adjusting means (26, 62, 66, 82, S5, S7), when there is an object to be explained, sets a point where the object can be easily explained as the movement target position of the robot (10). Set as. For example, in order to satisfy the condition that a point where a person enters the front area (fz) of the robot and the robot enters the field of view (fv) of the person is set as a movement target position, The movement target position is set so as to form a spatial formation that falls within both fields of view (fv) of the person.
第7の発明によれば、対象物の説明を行い易い地点をロボットの移動目標位置として選択するので、ロボットは、対話を始めた後の位置や体の向き等の調整を極力避けることができ、より自然で円滑なインタラクションを人との間で実行できる。 According to the seventh aspect, since the point where the object can be easily explained is selected as the movement target position of the robot, the robot can avoid the adjustment of the position and the body orientation after starting the dialogue as much as possible. , More natural and smooth interaction with people.
第8の発明は、第1ないし第7のいずれかの発明に従属し、空間陣形調整手段は、判定手段によって人のみが対話参加状態であると判断されたとき、空間陣形の受動調整移動をロボットに実行させる受動調整手段を含む。 The eighth invention is dependent on any one of the first to seventh inventions, and the spatial formation adjusting means performs the passive adjustment movement of the spatial formation when the determination means determines that only the person is in the dialogue participation state. Passive adjustment means to be executed by the robot is included.
第8の発明では、空間陣形調整手段(26,54,62,66,82,S5−17)は、受動調整手段(26,62,66,82,S9,S11)を含む。受動調整手段は、判定手段(62,66,S3)によって、人のみが対話参加状態であると判断されたとき、ロボット(10)に空間陣形の受動調整移動を実行させる。たとえば、空間陣形の受動調整移動では、ロボットの正面領域(fz)に人が入るように体の向きを調整することによって、ロボットも対話参加状態になるようにされる。 In the eighth invention, the spatial formation adjusting means (26, 54, 62, 66, 82, S5-17) includes passive adjusting means (26, 62, 66, 82, S9, S11). The passive adjustment means causes the robot (10) to execute a spatial adjustment passive adjustment movement when it is determined by the determination means (62, 66, S3) that only a person is in the dialog participation state. For example, in the passive adjustment movement of the spatial formation, the robot is also brought into a dialog participation state by adjusting the body direction so that a person enters the front area (fz) of the robot.
第8の発明によれば、人の方からロボットに働きかけようとした場合に、ロボットが人に興味を持っていることを人に示すことができるので、人が途中で諦めてロボットから離れてしまうことを防止できる。 According to the eighth invention, when a person tries to work on the robot, the person can be shown that the robot is interested in the person. Can be prevented.
第9の発明は、第1ないし第8のいずれかの発明に従属し、空間陣形調整手段は、判定手段によってロボットのみが対話参加状態であると判断されたとき、注意喚起発話をロボットに実行させる注意喚起実行手段を含む。 A ninth invention is dependent on any one of the first to eighth inventions, and the spatial formation adjusting means executes a warning utterance to the robot when it is judged by the judging means that only the robot is in the dialogue participation state. Including an alerting execution means.
第9の発明では、空間陣形調整手段(26,54,62,66,82,S5−17)は、注意喚起実行手段(54,62,66,S13,S15)を含む。注意喚起実行手段は、判定手段(62,66,S3)によって、ロボット(10)のみが対話参加状態であると判断されたとき、ロボットに「すみません」等の注意喚起発話を実行させる。この注意喚起発話によって、人に位置や体の向き等を調整してもらうことができるので、双方参加状態を実現できる。 In the ninth invention, the space formation adjusting means (26, 54, 62, 66, 82, S5-17) includes alerting executing means (54, 62, 66, S13, S15). The alerting execution means causes the robot to execute an alerting utterance such as “I am sorry” when it is determined by the determining means (62, 66, S3) that only the robot (10) is in the dialog participation state. This alerting utterance allows the person to adjust the position, body orientation, etc., so that the participation state can be realized.
第9の発明によれば、人の前方の空間が狭い等して、ロボットが人の正面領域に回り込めない状況にも柔軟に対応でき、より自然で円滑なインタラクションを人との間で実行できる。 According to the ninth aspect of the invention, it is possible to flexibly cope with a situation in which the robot cannot go around the front area of the person because the space in front of the person is narrow, and more natural and smooth interaction is performed with the person. it can.
第10の発明は、第1ないし第9のいずれかの発明に従属し、判定手段によって人およびロボットの双方が対話参加状態であると判断されたとき、対話に適した空間陣形となるようにロボットの動作を制御する対話陣形調整手段をさらに備える。 The tenth invention is dependent on any one of the first to ninth inventions, and when the determination means determines that both the person and the robot are in the dialog participation state, the space form is suitable for the dialog. It further includes dialog formation adjusting means for controlling the operation of the robot.
第10の発明では、対話陣形調整手段(26,62,66,82,S21)をさらに備える。対話陣形調整手段は、対話のためにより適切な場所への調整移動をロボット(10)に実行させる。たとえば、双方参加状態となる空間陣形を維持しながら、人との距離が1.1−1.5mとなる領域にロボットを移動させる。 In a tenth aspect of the present invention, a dialogue shape adjusting means (26, 62, 66, 82, S21) is further provided. The dialogue formation adjustment means causes the robot (10) to perform adjustment movement to a more appropriate place for dialogue. For example, the robot is moved to an area where the distance from the person is 1.1 to 1.5 m while maintaining a space formation in which both sides are participating.
第10の発明によれば、その後の人との対話をより快適に実行することができ、より自然で円滑なインタラクションを人との間で実行できる。 According to the tenth aspect, the subsequent dialogue with the person can be executed more comfortably, and a more natural and smooth interaction can be executed with the person.
第11の発明は、少なくとも発話を用いて人との間でコミュニケーションを実行するロボットの動作制御に用いられる空間陣形認識装置であって、位置、体の向きおよび視線方向を含む人およびロボットの配置情報を検出する検出手段、および検出手段によって検出された配置情報に基づいて人とロボットとの空間陣形を分析し、人およびロボットの対話参加状態を判定する判定手段を備える、空間陣形認識装置である。 An eleventh aspect of the present invention is a spatial formation recognition apparatus used for motion control of a robot that performs communication with a person using at least an utterance, the arrangement of the person and the robot including a position, a body direction, and a line-of-sight direction A space formation recognition device comprising: detection means for detecting information; and a determination means for analyzing a spatial formation of a person and a robot based on arrangement information detected by the detection means and determining a dialog participation state of the person and the robot is there.
第11の発明では、空間陣形認識装置(10,62,66)は、少なくとも発話を用いて人との間でコミュニケーションを実行するロボット(10)の動作制御に用いられ、検出手段(12,62,66,84,86,S1)および判定手段(62,66,S3)を含む。検出手段(12,62,66,84,86,S1)は、人およびロボットの配置情報、たとえば位置、体の向きおよび視線方向を検出する。判定手段(62,66,S3)は、人およびロボットの配置情報に基づいて空間陣形(空間的な配置関係)を分析することによって、人およびロボットの対話参加状態を判定する。ここで、対話参加状態とは、対話への参加に対して暗黙的に同意した状態(心的同意状態)をいい、たとえば、人および自身に対して予め定義される視線領域(gz)、正面領域(bz)、視野領域(sz)および視野(fv)を用いて表される空間陣形に基づいて推定(認識)される。 In the eleventh aspect of the invention, the space formation recognizing device (10, 62, 66) is used for controlling the operation of the robot (10) that performs communication with a person using at least speech, and the detecting means (12, 62). , 66, 84, 86, S1) and determination means (62, 66, S3). The detection means (12, 62, 66, 84, 86, S1) detects arrangement information of the person and the robot, for example, the position, the body direction, and the line-of-sight direction. The determination means (62, 66, S3) determines the dialogue participation state of the person and the robot by analyzing the space formation (spatial arrangement relationship) based on the arrangement information of the person and the robot. Here, the dialogue participation state refers to a state (mental agreement state) implicitly agreed to participation in the dialogue, for example, a line-of-sight area (gz) defined in advance for a person and himself, front view It is estimated (recognized) based on the spatial formation represented by using the region (bz), the visual field region (sz), and the visual field (fv).
第11の発明によれば、人およびロボットの対話参加状態を判定できるので、この判定結果に合わせてロボットの動作を制御することによって、人との対話を自然に開始できるロボットを実現できる。 According to the eleventh aspect, since the conversation participation state of the person and the robot can be determined, it is possible to realize a robot that can naturally start a conversation with a person by controlling the operation of the robot in accordance with the determination result.
この発明によれば、双方が対話参加状態となる空間陣形を生成した後に挨拶発話を実行するので、人との対話を自然に開始でき、円滑にコミュニケーションを図ることができる。 According to the present invention, since the greeting speech is executed after generating the spatial formation in which both parties are in the dialogue participation state, the dialogue with the person can be started naturally, and smooth communication can be achieved.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う後述の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この発明の一実施例であるロボットシステム100は、通信可能に接続されるロボット10とモーションキャプチャシステム12とを含む。ロボット10は、発話やジェスチャ等を用いて人との間でコミュニケーション行動を実行する相互作用指向のロボット(コミュニケーションロボット)であり、店舗やイベント会場などの様々な環境に配置される。そして、配置された環境内において、人に対して自ら話しかけて人とのインタラクションを引き起こし、展示案内、客引きおよびエンタテインメントなどの様々なサービスを提供する。ロボットシステム100では、詳細は後述するように、ロボット10と人との空間陣形を適切に調整することによって、ロボット10が人(対話者)との対話を自然に開始できるようにしている。
Referring to FIG. 1, a
図2は、ロボット10の外観を示す正面図である。この図2を参照して、ロボット10のハードウェアの構成について説明する。
FIG. 2 is a front view showing the appearance of the
ロボット10は、台車20を含み、この台車20の下面には、ロボット10を自律移動させる2つの車輪22および1つの従輪24が設けられる。2つの車輪22は車輪モータ26(図3参照)によってそれぞれ独立に駆動され、ロボット10を前後左右任意の方向に動かすことができる。また、従輪24は車輪22を補助する補助輪である。このように、ロボット10は、配置された環境内を自由に移動可能なものである。ただし、ロボット10の移動機構は、車輪タイプに限定されず、公知の移動機構を適宜採用でき、たとえば2足歩行タイプの移動機構を採用することもできる。
The
なお、ロボット10は、このロボットシステム100が適用される環境の地図データを内部メモリ(メモリ66:図3参照)に記憶している。そして、ロボット10は、任意に設定された原点位置を基準として、地図データを参照して環境内を移動する。この際、ロボット10が参照する地図データの座標系と、モーションキャプチャシステム12のコンピュータ14で算出される座標の座標系とは同じに設定される。
The
台車20の上には、円柱形のセンサ取付パネル28が設けられ、このセンサ取付パネル28には、赤外線距離センサ30が取り付けられる。この赤外線距離センサ30は、ロボット10と周囲の物体(人や障害物など)との距離を計測するものである。
A cylindrical
また、センサ取付パネル28の上には、胴体32が直立するように設けられる。胴体32の前方中央上部(胸に相当する位置)には、上述した赤外線距離センサ30がさらに設けられる。これは、ロボット10の前方の主として人との距離を計測する。また、胴体32には、1つの全方位カメラ34が設けられる。全方位カメラ34は、たとえば背面側上端部のほぼ中央から延びる支柱36上に設けられる。全方位カメラ34は、ロボット10の周囲を撮影するものであり、後述する眼カメラ60とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ30および全方位カメラ34の設置位置は当該部位に限られず適宜変更され得る。
Further, the body 32 is provided on the
胴体32の両側面上端部(肩に相当する位置)のそれぞれには、肩関節38Rおよび38Lによって、上腕40Rおよび40Lが設けられる。図示は省略するが、肩関節38Rおよび38Lのそれぞれは、直交する3軸の自由度を有する。すなわち、肩関節38Rは、直交する3軸のそれぞれの軸廻りにおいて上腕40Rの角度を制御できる。肩関節38Rの或る軸(ヨー軸)は、上腕40Rの長手方向に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。同様に、肩関節38Lは、直交する3軸のそれぞれの軸廻りにおいて上腕40Lの角度を制御できる。肩関節38Lの或る軸(ヨー軸)は、上腕40Lの長手方向に平行な軸であり、他の2軸(ピッチ軸、ロール軸)は、それにそれぞれ異なる方向から直交する軸である。
また、上腕40Rおよび40Lのそれぞれの先端には、肘関節42Rおよび42Lを介して、前腕44Rおよび44Lが設けられる。図示は省略するが、肘関節42Rおよび42Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸廻りにおいて前腕44Rおよび44Lの角度を制御できる。
Further, forearms 44R and 44L are provided at the tips of the
前腕44Rおよび44Lのそれぞれの先端には、手に相当する球体46Rおよび46Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
また、図示は省略するが、台車20の前面、肩関節38R,38Lを含む肩に相当する部位、上腕40R,40L、前腕44R,44Lおよび球体46R,46Lには、それぞれ、接触センサ(図3で接触センサ48として包括的に示す。)が設けられている。台車20の前面の接触センサ48は、台車20への人や他の障害物の接触を検知する。したがって、ロボット10の移動中に障害物との接触があると、それを検知し、直ちに車輪22の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ48は、主に、人がロボット10の当該各部位に触れたかどうかを検知する。なお、接触センサ48の設置位置はこれらに限定されず、適宜な位置(胸、腹、脇、背中、腰など)に設けられてよい。
Although illustration is omitted, a contact sensor (FIG. 3) is provided on each of the front surface of the
胴体32の中央上部(首に相当する位置)には首関節50が設けられ、さらにその上には頭部52が設けられる。図示は省略するが、首関節50は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
A neck joint 50 is provided at the upper center of the body 32 (a position corresponding to the neck), and a
頭部52には、口に相当する位置に、スピーカ54が設けられる。スピーカ54は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。また、耳に相当する位置には、マイク56Rおよび56Lが設けられる。以下、右耳に相当するマイク56Rと左耳に相当するマイク56Lとをまとめて「マイク56」ということがある。マイク56は、周囲の音、とりわけコミュニケーションを実行する対象である人の声を取り込む。さらに、目に相当する位置には、眼球部58Rおよび58Lが設けられる。眼球部58Rおよび58Lは、それぞれ眼カメラ60Rおよび60Lを含む。以下、右の眼球部58Rと左の眼球部58Lとをまとめて「眼球部58」ということがあり、また、右の眼カメラ60Rと左の眼カメラ60Lとをまとめて「眼カメラ60」ということがある。
The
眼カメラ60は、ロボット10に接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。眼カメラ60としては、上述した全方位カメラ34と同様のカメラを用いることができる。たとえば、眼カメラ60は眼球部58内に固定され、眼球部58は眼球支持部(図示せず)を介して頭部52内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部52の上へ向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部52の正面側(顔)が向く方向に直交する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部58ないし眼カメラ60の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ54、マイク56および眼カメラ60の設置位置は、これらに限定されず、適宜な位置に設けてられてよい。
The
なお、ロボット10は、人(特に子供)に威圧感を与えることのないように、大人よりも一回り小さい大きさになるように設計されており、その身長は120cmであり、半径は50cmである。
The
図3は、ロボット10の電気的な構成を示すブロック図である。図3に示すように、ロボット10は、全体を制御するCPU62を含む。CPU62は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス64を介して、メモリ66、モータ制御ボード68、センサ入力/出力ボード70および音声入力/出力ボード72等に接続される。
FIG. 3 is a block diagram showing an electrical configuration of the
メモリ66は、図示は省略するが、ROMやHDDおよびRAMを含む。ROMやHDDには、ロボット10の制御プログラムが予め記憶される。たとえば、人との間でコミュニケーション行動を実行するための行動制御プログラム、外部コンピュータ(モーションキャプチャシステム12)との間で必要な情報を送受信するための通信プログラム、モーションキャプチャシステム12等からのデータに基づいて人と自身との空間陣形を分析して人および自身の対話参加状態を判定する判定プログラム、および所定の空間陣形を形成するための空間陣形調整プログラム等である。また、ROMやHDDには、各行動を実行する際に発生すべき音声または声の音声データ(音声合成データ)、所定の身振りを提示するための角度データ、環境の地図データ、および説明すべき商品(対象物)に関するデータなどのデータも適宜記憶される。また、RAMは、ワークメモリやバッファメモリとして用いられる。
Although not shown, the
モータ制御ボード68は、たとえばDSPで構成され、各腕や首関節50および眼球部58などの各軸モータの駆動を制御する。すなわち、モータ制御ボード68は、CPU62からの制御データを受け、右眼球部58Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)74の回転角度を制御する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左眼球部58Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)76の回転角度を制御する。
The
また、モータ制御ボード68は、CPU62からの制御データを受け、右肩関節38Rの直交する3軸のそれぞれの角度を制御する3つのモータと右肘関節42Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)78の回転角度を調節する。同様に、モータ制御ボード68は、CPU62からの制御データを受け、左肩関節38Lの直交する3軸のそれぞれの角度を制御する3つのモータと左肘関節42Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)80の回転角度を調節する。
The
さらに、モータ制御ボード68は、CPU62からの制御データを受け、首関節50の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)82の回転角度を制御する。さらにまた、モータ制御ボード68は、CPU62からの制御データを受け、車輪22を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。
Furthermore, the
なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。
In this embodiment, stepping motors or pulse motors are used for the motors other than the
センサ入力/出力ボード70もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU62に与える。すなわち、赤外線距離センサ30のそれぞれからの反射時間に関するデータが、センサ入力/出力ボード70を通してCPU62に入力される。また、全方位カメラ34からの映像信号が、必要に応じてセンサ入力/出力ボード70で所定の処理を施された後、CPU62に入力される。眼カメラ60からの映像信号も、同様にして、CPU62に入力される。また、上述した複数の接触センサ48からの信号がセンサ入力/出力ボード70を介してCPU62に与えられる。
Similarly, the sensor input /
音声入力/出力ボード72もまた、同様に、DSPで構成され、CPU62から与えられる音声合成データに従った音声または声がスピーカ54から出力される。また、マイク56からの音声入力が、音声入力/出力ボード56を介してCPU62に取り込まれる。
Similarly, the voice input /
また、CPU62は、バス64を介して通信LANボード84に接続される。通信LANボード84は、DSPで構成され、CPU62から送られる送信データを無線通信装置86に与え、無線通信装置86から送信データを、たとえば、無線LANのようなネットワークを介して外部コンピュータに送信する。また、通信LANボード84は、無線通信装置86を介してデータを受信し、受信したデータをCPU62に与える。つまり、この通信LANボード84および無線通信装置86によって、ロボット10は外部コンピュータなどと無線通信を行うことができる。
The
図1に戻って、モーションキャプチャシステム12は、ロボット10および人の位置、体の方向および視線方向などを検出するために用いられ、PC等の汎用のコンピュータ14と環境に設置される複数のカメラ(赤外線カメラ)16とを備える。また、図示は省略するが、ロボット10および人には、複数の赤外線反射マーカが装着される。この実施例では、ロボット10および人のそれぞれ対して、頭部、胴体部および腕部などの適宜な位置に、合計23個の赤外線反射マーカが取り付けられる。また、ロボット10が人に対して説明(紹介)すべき対象物(商品など)にも、赤外線反射マーカが装着される。モーションキャプチャシステム12としては、公知のモーションキャプチャシステムが適用でき、たとえば、VICON社の光学式のモーションキャプチャシステムを用いることができる。
Returning to FIG. 1, the motion capture system 12 is used to detect the position of the
モーションキャプチャシステム12のコンピュータ14は、カメラ16から画像データをたとえば60Hz(1秒間に60フレーム)で取得し、画像データを画像処理することによって、その計測時の全ての画像データにおける各赤外線反射マーカの2次元位置を抽出する。そして、コンピュータ14は、画像データにおける各赤外線反射マーカの2次元位置に基づいて、実空間における各赤外線反射マーカの3次元位置を算出することによって、ロボット10および人の位置(座標)、体の方向、および顔(視線)の方向を算出する。そして、コンピュータ14は、算出したロボット10および人の位置データ(座標データ)、体方向データおよび視線方向データ等の配置情報を、ロボット10(CPU62)からの要求に応じてロボット10に送信する。
The
なお、ロボット10の位置、体の向きおよび視線方向は、必ずしもモーションキャプチャシステム12を用いなくても把握できる。たとえば、上述の車輪モータ26および頭部モータ66の回転角度などから、ロボット10の位置、体の向きおよび視線方向を計算によって求めることもできる。しかしながら、実施例では、CPU62のリアルタイムの計算量を軽減するために、モーションキャプチャ12を用いるようにした。
Note that the position, body direction, and line-of-sight direction of the
このようなロボットシステム100では、ロボット10は、配置された環境内において、人に対して自ら働きかけて人とのインタラクションを引き起こし、展示案内、客引きおよびエンタテインメントなどの様々なサービスを提供する。ここで、ロボット10がサービスをより効率良く提供するためには、ロボット10が、適切なタイミングおよび位置で人に話しかける機能、つまり人と対話を自然に始める機能を身に付けることが重要である。
In such a
本発明者らは、人同士が対話を始めるときの様子を注意深く観察したところ、人同士は、特定の空間陣形(つまり空間的な配置関係)を形成してから対話を始めることを見出した。そこで、この実施例では、それをモデル化してロボット10に実行させることによって、人と対話を自然に始めることができるロボットシステム100(ロボット10)を実現した。
The inventors of the present invention have carefully observed how people start to interact with each other. As a result, they have found that they form a specific spatial formation (that is, a spatial arrangement relationship) and then start the conversation. Therefore, in this embodiment, the robot system 100 (robot 10) that can naturally start a conversation with a person is realized by modeling it and causing the
具体的には、本発明者らが、ロボット10がサービスを提供する際に幅広く利用できると考えられる、店員が客に対して話しかける状況を観察したところ、以下の4つの点が確認された。(1)客が店員の存在に気付いたとき(2人の視線が合ったとき)は、店員は、客との距離が所定距離(たとえば2.5m)に近づいたときに挨拶をし、その後対話をするときにはもう少し近づく(たとえば1.5m以内まで)。ただし、この際の所定距離は状況や環境などに依存する。(2)客の前方(正面方向を中心とする120°の範囲)から近づいてくる店員は、約2mの距離まで近づいたときに挨拶をし、その後対話をするときには1.5m以内まで近づく。(3)客の前方以外から近づいてくる店員は、客の視野(正面方向を中心とする270°の範囲)内に入るように移動し、約1.5mの距離まで近づく。そして、客が店員の接近に気付かない場合には、「すいません」等の注意喚起の言葉を発し、客に自身の存在を気付かせてから挨拶をする。(4)店員に次の計画、たとえば商品の説明をしたり、商品の場所まで客を誘導したりする必要があるときであって、客が店員の存在に気づいていないときには、店員は、商品の説明などの次の行動を起こし易い場所で挨拶を行う。
Specifically, when the present inventors observed a situation where a store clerk talks to a customer, which is considered to be widely used when the
以上の観察結果から、人同士が挨拶をして対話を始めるときには必ず、特定の空間陣形を形成することによって、双方が相手の存在を認識している状態、すなわち対話への参加に対して暗黙的に同意した状態(心的同意状態)が双方に対して形成されていることが分かる。この実施例では、この心的同意状態を「対話参加状態」と名付ける。また、観察結果からは、対話を始めるための空間陣形と対話をするための空間陣形とは、必ずしも同じではないことも分かる。つまり、ロボット10が人との対話を自然に開始するためには、先ず、ロボット10および人の双方を対話参加状態にする、つまり双方が対話参加状態となる空間陣形を形成することが重要であり、状況に応じて、対話をするのに適した空間陣形に調整することが必要であると言える。
From the above observations, whenever a person greets each other and starts a dialogue, by forming a specific spatial formation, both parties recognize the existence of the other party, that is, implicit in participating in the dialogue It can be seen that a state of mutual agreement (mental consent state) is formed for both sides. In this embodiment, this mental consent state is named “dialog participation state”. From the observation results, it can also be seen that the spatial formation for starting the conversation is not necessarily the same as the spatial formation for the conversation. In other words, in order for the
そこで、この実施例では、ロボット10が自ら働きかけて人との対話(インタラクション)を開始する際には、先ず、ロボット10と人との空間陣形を分析して、ロボット10および人の対話参加状態を認識(推定)する。そして、認識した対話参加状態に応じて、ロボット10が適宜の行動を取ることによって、ロボット10および人の双方が対話参加状態になるようにした後、ロボット10が人に対して挨拶発話を行うようにしている。以下、具体的に説明する。
Therefore, in this embodiment, when the
空間陣形に基づいて対話参加状態を認識するために、視線領域gz、正面領域fz、視野領域szおよび視野fvを次のように定義する。 In order to recognize the dialogue participation state based on the spatial formation, the line-of-sight region gz, the front region fz, the visual field region sz, and the visual field fv are defined as follows.
図4に示すように、視線領域gzは、視線方向gdを中心軸として、頭部(顔)の中心から顔正面方向に向かって延びる円錐形の領域であって、その頂角θが30°であり、頂点から底面までの距離が2.5mである領域とする。また、図5に示すように、正面領域fzは、体の正面方向bdを中心とする120°の範囲であって、体の中心からの距離が2m以内である扇形の領域とする。さらに、図6に示すように、視野領域szは、体の正面方向bdを中心とする270°の範囲であって、体の中心からの距離が1.5m以内である領域とする。また、視野fvは、体の正面方向bdを中心とする270°の範囲であって、体の中心からの距離制限がない領域とする。 As shown in FIG. 4, the line-of-sight area gz is a conical area extending from the center of the head (face) toward the face front direction with the line-of-sight direction gd as the central axis, and the apex angle θ is 30 °. It is assumed that the distance from the apex to the bottom surface is 2.5 m. As shown in FIG. 5, the front area fz is a fan-shaped area having a range of 120 ° centering on the front direction bd of the body and having a distance of 2 m or less from the center of the body. Furthermore, as shown in FIG. 6, the visual field region sz is a region having a range of 270 ° centered on the front direction bd of the body and a distance from the center of the body within 1.5 m. The field of view fv is a range of 270 ° centered on the front direction bd of the body and has no distance limitation from the center of the body.
そして、次の所定の空間条件を満たすと、対話参加状態にあると判断する。 Then, when the next predetermined space condition is satisfied, it is determined that the user is in the dialog participation state.
(1)図7に示すように、ロボット10の視線領域gzに人の頭部(顔)が入り、かつ人の視線領域gzにロボット10の頭部52が入る状態の空間陣形になったとき、すなわち、ロボット10と人とが所定距離内で視線を合わせた状態になったときには、ロボット10および人の双方が対話参加状態である(双方参加状態)と判断する。(2)図8に示すように、ロボット10と人との視線が合わない状態で、ロボット10の正面領域fzに人が入り、かつ人の正面領域fzにロボット10が入る状態の空間陣形になったときには、ロボット10および人の双方が対話参加状態であると判断する。(3)図9に示すように、ロボット10と人との視線が合わない状態で、人の正面領域fzにロボット10が入り、ロボット10の正面領域fzに人が入らず、かつロボット10の視野fvに人が入る状態の空間陣形になったときには、人のみが対話参加状態(人のみ参加状態)であると判断する。(4)図10に示すように、ロボット10と人との視線が合わない状態で、ロボット10の正面領域fzに人が入り、人の正面領域fzにロボット10が入らず、かつ人の視野領域szにロボット10が入る状態の空間陣形になったときには、ロボット10のみが対話参加状態(ロボットのみ参加状態)であると判断する。(5)以上の空間条件1−4を満たさない空間陣形のときには、ロボット10および人の双方が対話参加状態でない(双方非参加状態)と判断する。
(1) As shown in FIG. 7, when the human head (face) enters the line-of-sight area gz of the
なお、各領域を定義する具体的数値(閾値)は、人同士のコミュニケーションを観察した結果に基づいて決定した数値ではあるが、これらの最適値はロボット10を配置する環境や対話相手などによって変動する数値でもあるので、必要に応じて適宜変更するようにしてもよい。たとえば、見晴らしのよい広い場所では、視線領域gzを定義する距離の大きさは、2.5mよりも大きく設定してもよいし、ロボット10や対話相手の人の身長が高い場合には、各領域の距離設定を大きくとるようにしてもよい。また、或る領域内に入ったか否かの判断は、体(または頭部)の中心がその領域内に入ったか否かで判断してもよいし、体(または頭部)の全体がその領域内に入ったか否かで判断してもよい。
The specific numerical values (threshold values) that define each area are values determined based on the results of observing communication between people, but these optimum values vary depending on the environment in which the
ロボット10および人の対話参加状態を認識すると、その認識結果に応じてロボット10の行動(動作)が決定される。すなわち、ロボット10は、双方参加状態となる所定の空間陣形(つまり対話を始めるための空間陣形)を形成するための行動を行う。
When the dialogue participation state of the
具体的には、双方非参加状態であると判断されたときには、ロボット10は、空間陣形の主動調整移動(Proactive adjustment of spatial formation)を行う。空間陣形の主動調整移動では、ロボット10は、ロボット10の正面領域fzに人が入り、かつ人の視野領域fvにロボット10が入るような地点(或いは配置状態)を移動目標位置として設定して移動する。
Specifically, when it is determined that both are in a non-participating state, the
この際、ロボット10に次の計画が無い場合、つまり単に人と対話をすることだけが目的の場合には、図11に示すように、自身の位置から最短距離となる地点が移動目標位置として選択される。ただし、図11から分かるように、ロボット10が人の正面領域fzの方向から近づく場合には、人の正面領域fzに入った時点で双方参加状態となるので、ロボット10は人の正面領域fzに入るだけでよい。また、人の視線領域gzの方向から近づく場合には、人の視線領域gzに入った時点で双方参加状態となるので、ロボット10は人の視線領域gzに入るだけでよい。
At this time, if the
一方、ロボット10に次の計画がある場合、たとえば商品の説明をしたり、商品の場所まで人を誘導したりする必要があるときには、空間陣形の主動調整移動は、次の行動を考慮した態様とされる。たとえば、説明すべき対象物がある場合には、ロボット10の正面領域fzに人が入り、かつ人の視野領域fvにロボット10が入るような地点を移動目標位置として設定するという条件を満たす上で、さらに、対象物の説明を行い易い地点が移動目標位置として選択される。具体的には、図12に示すように、対象物がロボット10および人の双方の視野fvに入る空間陣形となるように、移動目標位置が設定される。
On the other hand, when the
ただし、空間陣形の主動調整移動の実行途中に、人が移動したり、体の向きや視線方向を変えたりすることによって、双方参加状態になったり、人のみ参加状態になったりすると、ロボット10は、空間陣形の主動調整移動をそこで終了し、ロボット10および人の対話参加状態に応じた次の行動に移る。上述のような空間陣形の主動調整移動によって、少なくともロボット10が対話参加状態になる空間陣形が確保される。
However, if the person moves or changes the direction of the body or the line of sight during the execution of the main adjustment movement of the space formation, the
人のみ参加状態であると判断されたときには、ロボット10は、空間陣形の受動調整移動(Reactive adjustment of spatial formation)を行う。空間陣形の受動調整移動では、図13に示すように、ロボット10の正面領域fzに人が入るように体の向きを調整することによって、ロボット10も対話参加状態になるようにする。この際には、ロボット10の視線領域gzに人の頭部(顔)が入るように視線方向も調整するとよい。なお、人のみが対話参加状態になる空間陣形は、空間陣形の主動調整移動の途中に、人が移動したり、体の向きや視線方向を変えたりしたときに生じる状況、つまり人の方からロボット10に働きかけようとしている状況が想定されるので、対話のためにより適切な場所への調整移動(詳細は後述)も、空間陣形の受動調整移動において同時に行うようにしてもよい。この空間陣形の受動調整移動によって、ロボット10が人に興味を持っていることを人に示すことができるので、人の方からロボット10に働きかけようとした場合に、人が途中で諦めてロボット10から離れてしまうことを防止できる。
When it is determined that only a person is participating, the
ロボットのみ参加状態であると判断されたときには、ロボット10は、注意喚起発話を行う。ロボット10のみが対話参加状態になる空間陣形は、ロボット10が近づいたことを人が気づいていない状況が想定される。そこで、ロボット10は、「すみません」等の注意喚起発話を行うことによって、人に体の向きや視線方向を調整してもらい、双方参加状態の空間陣形を形成する。ここで重要なことは、ロボット10がすでに人の視野領域szに入っていることであり、これによって、人にとって不意打ちとなる話しかけが極力防止される。この注意喚起発話によって、人に体の向きや視線方向を調整してもらうことができるので、人の正面側の空間が狭い等して、ロボット10が人の正面領域fzに回り込めないような状況にも柔軟に対応できる。
When it is determined that only the robot is in the participation state, the
そして、双方参加状態であると判断されたときには、ロボット10は、人に対して「こんにちは」や「いらっしゃいませ」等の挨拶発話を実行する。双方参加状態は、ロボット10および人の双方が対話への参加に対して暗黙的に同意した状態である。すなわち、人側からすると、自身と対話したい(或いは自身との対話を受け入れる)という意思をロボット10から示された状態であり、かつロボット10との対話を受け入れる(或いはロボット10と対話したい)という意思をロボット10に示した状態となる。したがって、双方参加状態となったときのロボット10の挨拶発話は、極めて自然に人に受け入れられ、ロボット10は人との対話を自然に始めることができる。
Then, when it is determined that both participating state, the
また、上述の人同士の対話の観察結果から、対話をするのに適した空間陣形(対話陣形)があることも分かったので、この実施例ではさらに、ロボット10が人と対話をする際には、対話のためにより適切な場所への調整移動(対話陣形の調整移動)も実行する。具体的には、図14に示すように、双方参加状態となる空間陣形を維持しながら、人との距離が、1.1−1.5mとなる領域に移動する。この対話陣形の調整移動によって、その後の人との対話をより快適に実行することができる。なお、対話陣形の調整移動は、ロボット10の挨拶発話が終わった後の次の発話を行う前に実行してもよいし、人との対話を行いながら実行してもよい。
Further, from the observation result of the dialogue between the above-mentioned people, it has been found that there is a suitable space formation (dialog formation), so in this embodiment, the
続いて、フロー図を用いて、人とのインタラクション(対話)を開始する際のロボット10(ロボットシステム100)の動作を説明する。具体的には、図3に示したロボット10のCPU62が、図15に示すフロー図に従って全体処理を実行する。図15を参照して、CPU62は、ステップS1において、ロボット10および人の位置、体の向きおよび視線方向を検出する。すなわち、ロボット10および人の位置データ、体方向データおよび視線方向データ等の配置情報を、無線通信装置86および通信LANボード84を介してモーションキャプチャシステム12から取得する。
Next, the operation of the robot 10 (robot system 100) when starting an interaction with a person will be described using a flowchart. Specifically, the
次のステップS3では、空間陣形からロボット10および人の対話参加状態を認識する。すなわち、ステップS1で取得した配置情報に基づいて、ロボット10と人との空間陣形を分析することによって、ロボット10および人の対話参加状態が、双方非参加状態、人のみ参加状態、ロボットのみ参加状態、および双方参加状態のいずれであるかを認識(判断)する。たとえば、双方の頭部が互いに相手の視線領域gzに入る状態の空間陣形になったとき(互いの視線が合ったとき)や、双方が互いの正面領域fzに入る状態の空間陣形になったときには、双方参加状態であると認識する。また、たとえば、互いの視線が合わない状態で、人の正面領域fzにロボット10が入り、ロボット10の正面領域fzに人が入らず、かつロボット10の視野fvに人が入る状態の空間陣形になったときには、人のみ参加状態であると判断する。さらに、たとえば、互いの視線が合わない状態で、ロボット10の正面領域fzに人が入り、人の正面領域fzにロボット10が入らず、かつ人の視野領域szにロボット10が入る状態の空間陣形になったときには、ロボットのみ参加状態であると判断する。また、人のみ参加状態、ロボットのみ参加状態、および双方参加状態となるいずれの空間条件(空間陣形)にも当てはまらない場合には、双方非参加状態であると判断する。なお、ステップS1およびS3の処理は、所定時間毎に繰り返し実行される。
In the next step S3, the dialogue participation state of the
次のステップS5では、ステップS3で認識されたロボット10および人の対話参加状態が、双方共に非参加状態であるか否かを判定する。ステップS5で“YES”の場合、すなわち双方共に非参加状態である場合には、ステップS7に進み、ステップS5で“NO”の場合、すなわち双方共に非参加状態でない場合には、ステップS9に進む。
In the next step S5, it is determined whether the dialog participation state of the
ステップS7では、空間陣形の主動調整移動を実行する。すなわち、ロボット10の正面領域fzに人が入り、かつ人の視野領域fvにロボット10が入るような地点(或いは配置状態)を移動目標位置として設定し、その移動目標位置までロボット10が移動するように、車輪モータ26の回転角度を制御する制御データをモータ制御ボード68に対して送信する。この際、ロボット10に次の計画が無い場合、つまり単に人と対話をすることだけが目的の場合には、自身の位置から最短距離となる地点(或いは配置状態)が移動目標位置として選択される。一方、ロボット10に次の計画がある場合、たとえば商品の説明をしたり、商品の場所まで人を誘導したりする必要があるときには、その商品(対象物)がロボット10および人の双方の視野fvに入る空間陣形となるような地点が移動目標位置として設定される。ステップS7が終了すると、処理はステップS1に戻る。
In step S7, the main movement adjustment movement of the space formation is executed. That is, a point (or arrangement state) where a person enters the front area fz of the
ステップS9では、ステップS3で認識されたロボット10および人の対話参加状態が、人のみ参加状態であるか否かを判定する。ステップS9で“YES”の場合、すなわち人のみ参加状態である場合には、ステップS11に進み、ステップS9で“NO”の場合、すなわち人のみ参加状態でない場合には、ステップS13に進む。
In step S9, it is determined whether or not the dialog participation state of the
ステップS11では、空間陣形の受動調整移動を実行する。すなわち、ロボット10の正面領域fzに人が入るように、車輪モータ26の回転角度を制御する制御データをモータ制御ボード68に対して送信して、ロボット10の体の向きを調整したり、ロボット10の視線領域gzに人の頭部が入るように、頭部モータ82の回転角度を制御する制御データをモータ制御ボード68に対して送信して、ロボット10の視線方向を調整したりして、ロボット10も対話参加状態になるようにする。この際には、対話のためにより適切な場所への調整移動も同時に行うようにしてもよい。ステップS11が終了すると、処理はステップS1に戻る。
In step S11, the passive adjustment movement of the space formation is executed. That is, control data for controlling the rotation angle of the
ステップS13では、ステップS3で認識されたロボット10および人の対話参加状態が、ロボットのみ参加状態であるか否かを判定する。ステップS13で“YES”の場合、すなわちロボットのみ参加状態である場合には、ステップS15に進み、ステップS13で“NO”の場合、すなわちロボットのみ参加状態でない場合には、ステップS17に進む。
In step S13, it is determined whether the dialogue participation state of the
ステップS15では、注意喚起発話を実行する。すなわち、「すみません」等の注意喚起発話を行うための音声データを音声入力/出力ボード72に送信して、スピーカ54から注意喚起発話を出力する。ステップS15が終了すると、処理はステップS1に戻る。
In step S15, a warning utterance is executed. That is, voice data for performing a caution utterance such as “I'm sorry” is transmitted to the voice input /
ステップS17では、ステップS3で認識されたロボット10および人の対話参加状態が、双方参加状態であるか否かを判定する。ステップS17で“YES”の場合、すなわち双方参加状態である場合には、ステップS19に進み、ステップS17で“NO”の場合、すなわち双方参加状態でない場合には、ステップS1に戻る。
In step S17, it is determined whether or not the dialog participation state of the
ステップS19では、挨拶発話を実行する。すなわち、「こんにちは」や「いらっしゃいませ」等のその状況に応じた挨拶発話を実行するための音声データを音声入力/出力ボード72に送信して、スピーカ54から注意喚起発話を出力する。この際には、挨拶発話と連動させて、お辞儀などの身体動作を実行するための制御データをモータ制御ボード68に対して送信するようにしてもよい。
In step S19, a greeting utterance is executed. In other words, by sending "Hello" and the voice data to perform a greeting speech in accordance with the status of "not Welcome" and the like to the audio input /
続くステップS21では、対話陣形の調整移動を実行する。すなわち、双方参加状態となる空間陣形を維持しながら、人との距離が1.1−1.5mとなる領域に移動するように、車輪モータ26の回転角度を制御する制御データをモータ制御ボード68に対して送信する。そして、ステップS21の処理によって、対話をするための空間陣形が確立されると、この全体処理を終了する。
In the following step S21, adjustment movement of the dialog formation is executed. That is, the control data for controlling the rotation angle of the
この実施例によれば、ロボット10および人の双方が対話参加状態となる空間陣形を生成した後に、ロボット10が挨拶発話を実行する。つまり、人間同士の対話により近い挨拶発話を実行するので、ロボット10の挨拶発話は、極めて自然に人に受け入れられる。したがって、ロボット10は、人との対話を自然に始めることができ、円滑に人とのコミュニケーションを図ることができる。
According to this embodiment, the
また、この実施例によれば、ロボット10に次の計画がある場合には、ロボット10の空間陣形の主動調整移動は、次の行動を考慮した態様とされる。すなわち、説明すべき対象物がある場合には、対象物の説明を行い易い地点がロボット10の移動目標位置として選択される。これによって、ロボット10は、対話を始めた後の位置や体の向き等の調整を極力避けることができるので、より自然で円滑なインタラクションを人との間で実行できる。特に、ロボット10、人および対象物の空間関係が直線状に並んでしまうと、ロボット10が指差しジェスチャを用いて対象物を指し示すことが困難になってしまうが、この問題を回避できる。
Further, according to this embodiment, when the
さらに、この実施例では、人のみが対話参加状態である判断されたときには、ロボット10は空間陣形の受動調整移動を行う。これによって、人の方からロボット10に働きかけようとした場合に、ロボット10が人に興味を持っていることを人に示すことができるので、人が途中で諦めてロボット10から離れてしまうことを防止できる。
Further, in this embodiment, when it is determined that only a person is participating in the dialogue, the
また、この実施例では、ロボット10のみが対話参加状態であると判断されたときには、ロボット10は注意喚起発話を行い、人に体の向きや視線方向を調整してもらう。これによって、人の前方の空間が狭い等して、ロボット10が人の正面領域fzに回り込めない状況にも柔軟に対応でき、より自然で円滑なインタラクションを人との間で実行できる。
Further, in this embodiment, when it is determined that only the
さらに、この実施例では、対話のためにより適切な場所への調整移動(対話陣形の調整移動)も実行する。これは、対話を始めるための空間陣形と対話をするための空間陣形とは、必ずしも同じになるとは限らないからであり、対話陣形の調整移動を行うことによって、より自然で円滑なインタラクションを人との間で実行できる。 Further, in this embodiment, adjustment movement to a more appropriate place for dialogue (dialogue-shaped adjustment movement) is also executed. This is because the spatial formation for starting a conversation is not necessarily the same as the spatial formation for performing a conversation. By performing coordinated movement of the dialog formation, more natural and smooth interaction is achieved. Can be executed between.
なお、上述の実施例では、モーションキャプチャシステム12を利用して、ロボット10および人の配置情報、つまり位置、体の向きおよび視線方向を検出するようにしたが、これに限定されず、公知の方法を適宜利用することができる。たとえば、人およびロボット10の位置検出および体の向きの検出については、この発明者らが先に出願した特開2009−168578号公報に開示したLRFを用いる方法を利用することができる。また、視線方向を計測する装置の一例として、株式会社ナックイメージテクノロジーの視線計測システム「アイマークレコーダ」の技術を利用することができる。
In the above-described embodiment, the motion capture system 12 is used to detect the arrangement information of the
また、上述の実施例では、ロボット10のCPU62が、ロボット10と人との空間陣形を分析して対話参加状態を認識する処理(ステップS3に相当)、および対話参加状態に応じて次の動作を制御する処理(ステップS5−S17に相当)を行うようにしたが、これに限定されない。たとえば、ロボット制御装置(或いは空間陣形認識装置)としての外部コンピュータを別に設け、空間陣形を分析してロボット10の動作を決定するこれらの処理の一部または全部を外部コンピュータに実行させて、外部コンピュータからロボット10に対して動作制御データを送信するようにしてもよい。
In the above-described embodiment, the
なお、上で挙げた所定距離などの具体的数値は、いずれも単なる一例であり、必要に応じて適宜変更可能である。 Note that the specific numerical values such as the predetermined distance mentioned above are merely examples, and can be appropriately changed as necessary.
10 …コミュニケーションロボット
12 …モーションキャプチャシステム
22 …車輪
26 …車輪モータ
54 …スピーカ
62 …CPU
66 …メモリ
100 …ロボットシステム
DESCRIPTION OF
66 ...
Claims (11)
位置、体の向きおよび視線方向を含む前記人および前記ロボットの配置情報を検出する検出手段、
前記検出手段によって検出された前記配置情報に基づいて前記人と前記ロボットとの空間陣形を分析し、前記人および前記ロボットの対話参加状態を判定する判定手段、
前記判定手段によって前記人および前記ロボットの少なくとも一方が対話参加状態でないと判断されたとき、前記人および前記ロボットの双方が対話参加状態となるように前記ロボットの動作を制御する空間陣形調整手段、および
前記判定手段によって前記人および前記ロボットの双方が対話参加状態であると判断されたとき、前記人に対する挨拶発話を前記ロボットに実行させる挨拶実行手段を備える、ロボットシステム。 A robot system including a robot that performs communication with a person using at least speech,
Detecting means for detecting arrangement information of the person and the robot including a position, a body direction, and a line-of-sight direction;
Determination means for analyzing a spatial formation of the person and the robot based on the arrangement information detected by the detection means, and for determining a dialog participation state of the person and the robot;
Spatial shape adjustment means for controlling the operation of the robot so that both the person and the robot enter a dialog participation state when the determination means determines that at least one of the person and the robot is not in the dialog participation state; And a robot system comprising greeting execution means for causing the robot to execute a greeting utterance to the person when the determination means determines that both the person and the robot are in a dialog participation state.
位置、体の向きおよび視線方向を含む前記人および前記ロボットの配置情報を検出する検出手段、および
前記検出手段によって検出された前記配置情報に基づいて前記人と前記ロボットとの空間陣形を分析し、前記人および前記ロボットの対話参加状態を判定する判定手段を備える、空間陣形認識装置。 A spatial formation recognition device used for motion control of a robot that performs communication with a person using at least speech,
Detecting means for detecting arrangement information of the person and the robot including a position, a body direction and a line-of-sight direction, and analyzing a spatial formation of the person and the robot based on the arrangement information detected by the detecting means. A spatial formation recognizing device, comprising: determination means for determining a dialog participation state of the person and the robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011021940A JP5732632B2 (en) | 2011-02-03 | 2011-02-03 | Robot system and space formation recognition device used therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011021940A JP5732632B2 (en) | 2011-02-03 | 2011-02-03 | Robot system and space formation recognition device used therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012161851A true JP2012161851A (en) | 2012-08-30 |
JP5732632B2 JP5732632B2 (en) | 2015-06-10 |
Family
ID=46841797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011021940A Active JP5732632B2 (en) | 2011-02-03 | 2011-02-03 | Robot system and space formation recognition device used therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5732632B2 (en) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104772748A (en) * | 2015-04-03 | 2015-07-15 | 华东师范大学 | Social robot |
JP2015184384A (en) * | 2014-03-20 | 2015-10-22 | ヤフー株式会社 | Movement control device, movement control method, and movement control system |
JP2015184351A (en) * | 2014-03-20 | 2015-10-22 | ヤフー株式会社 | Movement control device, movement control method, and movement control system |
WO2016170808A1 (en) * | 2015-04-22 | 2016-10-27 | ソニー株式会社 | Moving body control system, control method, and storage medium |
JP2016224302A (en) * | 2015-06-01 | 2016-12-28 | 日本電信電話株式会社 | Visual line guide apparatus, visual line guide method, and visual line guide program |
WO2017008182A1 (en) * | 2015-07-15 | 2017-01-19 | 深圳市优必选科技有限公司 | Control system for intelligent robot |
WO2017086108A1 (en) * | 2015-11-16 | 2017-05-26 | 大日本印刷株式会社 | Information presentation apparatus, information presentation method, program, information processing apparatus, and guide robot control system |
JP2017159396A (en) * | 2016-03-09 | 2017-09-14 | 大日本印刷株式会社 | Guide robot control system, program, and guide robot |
JP2017159410A (en) * | 2016-03-10 | 2017-09-14 | 大日本印刷株式会社 | Guide robot control system, program, and guide robot |
CN107206601A (en) * | 2014-10-24 | 2017-09-26 | 费洛有限公司 | Customer service robot and related systems and methods |
JP2017226047A (en) * | 2016-06-23 | 2017-12-28 | カシオ計算機株式会社 | Robot, robot control system, robot control method, and program |
EP3279754A1 (en) | 2016-07-15 | 2018-02-07 | Hitachi, Ltd. | Control apparatus, control system, and control method |
JP2018094645A (en) * | 2016-12-08 | 2018-06-21 | 株式会社国際電気通信基礎技術研究所 | Behavior command generation system, response system and behavior command generation method |
JP2018109986A (en) * | 2016-12-28 | 2018-07-12 | 本田技研工業株式会社 | Method for operating autonomous mobile body |
JP2018109989A (en) * | 2016-12-28 | 2018-07-12 | 本田技研工業株式会社 | Method for operating autonomous mobile body |
JP2018109987A (en) * | 2016-12-28 | 2018-07-12 | 本田技研工業株式会社 | Method for operating autonomous mobile body |
JP2018109990A (en) * | 2016-12-28 | 2018-07-12 | 本田技研工業株式会社 | Method for operating autonomous mobile body |
JP2019021166A (en) * | 2017-07-20 | 2019-02-07 | 日本信号株式会社 | Image processing device |
JP2019147234A (en) * | 2018-02-28 | 2019-09-05 | パナソニックIpマネジメント株式会社 | Device, robot, method, and program |
US10576633B2 (en) | 2016-09-29 | 2020-03-03 | Toyota Jidosha Kabushiki Kaisha | Communication device |
JP2021013964A (en) * | 2019-07-10 | 2021-02-12 | 株式会社国際電気通信基礎技術研究所 | Robot, robot control program, and robot control method |
WO2021220614A1 (en) * | 2020-04-28 | 2021-11-04 | ソニーグループ株式会社 | Control device, control method, and computer program |
JP2022507447A (en) * | 2018-11-13 | 2022-01-18 | 北京猟戸星空科技有限公司 | Methods, devices and storage media for controlling intelligent devices |
WO2023145284A1 (en) * | 2022-01-28 | 2023-08-03 | ソニーグループ株式会社 | Information processing device, information processing method, and computer program |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105975945A (en) * | 2016-05-23 | 2016-09-28 | 浙江鑫网电子科技有限公司 | Intelligent lucky machine cat |
CN106078805A (en) * | 2016-08-01 | 2016-11-09 | 美的机器人产业发展有限公司 | display device and service robot for service robot |
CN108748172A (en) * | 2018-05-29 | 2018-11-06 | 塔米智能科技(北京)有限公司 | A kind of robot welcome method, apparatus, equipment and medium |
CN112578909A (en) * | 2020-12-15 | 2021-03-30 | 北京百度网讯科技有限公司 | Equipment interaction method and device |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004034274A (en) * | 2002-07-08 | 2004-02-05 | Mitsubishi Heavy Ind Ltd | Conversation robot and its operation method |
JP2005131713A (en) * | 2003-10-28 | 2005-05-26 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005238382A (en) * | 2004-02-26 | 2005-09-08 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005313291A (en) * | 2004-04-30 | 2005-11-10 | Mitsubishi Heavy Ind Ltd | Image display method linked with robot action, and device thereof |
JP2008254122A (en) * | 2007-04-05 | 2008-10-23 | Honda Motor Co Ltd | Robot |
JP2009168578A (en) * | 2008-01-15 | 2009-07-30 | Advanced Telecommunication Research Institute International | Measurement device and measurement method |
JP2009248193A (en) * | 2008-04-01 | 2009-10-29 | Toyota Motor Corp | Reception system and reception method |
US20120061155A1 (en) * | 2010-04-09 | 2012-03-15 | Willow Garage, Inc. | Humanoid robotics system and methods |
-
2011
- 2011-02-03 JP JP2011021940A patent/JP5732632B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004034274A (en) * | 2002-07-08 | 2004-02-05 | Mitsubishi Heavy Ind Ltd | Conversation robot and its operation method |
JP2005131713A (en) * | 2003-10-28 | 2005-05-26 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005238382A (en) * | 2004-02-26 | 2005-09-08 | Advanced Telecommunication Research Institute International | Communication robot |
JP2005313291A (en) * | 2004-04-30 | 2005-11-10 | Mitsubishi Heavy Ind Ltd | Image display method linked with robot action, and device thereof |
JP2008254122A (en) * | 2007-04-05 | 2008-10-23 | Honda Motor Co Ltd | Robot |
JP2009168578A (en) * | 2008-01-15 | 2009-07-30 | Advanced Telecommunication Research Institute International | Measurement device and measurement method |
JP2009248193A (en) * | 2008-04-01 | 2009-10-29 | Toyota Motor Corp | Reception system and reception method |
US20120061155A1 (en) * | 2010-04-09 | 2012-03-15 | Willow Garage, Inc. | Humanoid robotics system and methods |
Non-Patent Citations (3)
Title |
---|
佐竹 聡 SATORU SATAKE: "対話ロボットの人間へのアプローチ方法", 日本ロボット学会誌 第28巻 第3号 JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 第28巻, JPN6015007007, JP, ISSN: 0003012820 * |
山岡 史享 FUMITAKA YAMAOKA: "協調的移動に基づく対話ロボットによる注意共有の実現 Developing a Model of Robot Behavior to Identify", 日本ロボット学会誌 第28巻 第3号 JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 第28巻, JPN6015007010, JP, ISSN: 0003012821 * |
山岡 史享 FUMITAKA YAMAOKA: "情報提示ロボットのための立ち位置モデル A Model of Proximity Control for Information-presenting Robo", 日本ロボット学会誌 第27巻 第2号 JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 第27巻, JPN6015007005, JP, ISSN: 0003012819 * |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015184384A (en) * | 2014-03-20 | 2015-10-22 | ヤフー株式会社 | Movement control device, movement control method, and movement control system |
JP2015184351A (en) * | 2014-03-20 | 2015-10-22 | ヤフー株式会社 | Movement control device, movement control method, and movement control system |
CN107206601A (en) * | 2014-10-24 | 2017-09-26 | 费洛有限公司 | Customer service robot and related systems and methods |
CN104772748A (en) * | 2015-04-03 | 2015-07-15 | 华东师范大学 | Social robot |
US11385647B2 (en) | 2015-04-22 | 2022-07-12 | Sony Corporation | Mobile body control system, control method, and storage medium |
WO2016170808A1 (en) * | 2015-04-22 | 2016-10-27 | ソニー株式会社 | Moving body control system, control method, and storage medium |
US10613538B2 (en) | 2015-04-22 | 2020-04-07 | Sony Corporation | Mobile body control system, control method, and storage medium |
JP2016224302A (en) * | 2015-06-01 | 2016-12-28 | 日本電信電話株式会社 | Visual line guide apparatus, visual line guide method, and visual line guide program |
WO2017008182A1 (en) * | 2015-07-15 | 2017-01-19 | 深圳市优必选科技有限公司 | Control system for intelligent robot |
WO2017086108A1 (en) * | 2015-11-16 | 2017-05-26 | 大日本印刷株式会社 | Information presentation apparatus, information presentation method, program, information processing apparatus, and guide robot control system |
JP2017159396A (en) * | 2016-03-09 | 2017-09-14 | 大日本印刷株式会社 | Guide robot control system, program, and guide robot |
JP2017159410A (en) * | 2016-03-10 | 2017-09-14 | 大日本印刷株式会社 | Guide robot control system, program, and guide robot |
JP2017226047A (en) * | 2016-06-23 | 2017-12-28 | カシオ計算機株式会社 | Robot, robot control system, robot control method, and program |
EP3279754A1 (en) | 2016-07-15 | 2018-02-07 | Hitachi, Ltd. | Control apparatus, control system, and control method |
US10339381B2 (en) | 2016-07-15 | 2019-07-02 | Hitachi, Ltd. | Control apparatus, control system, and control method |
US10576633B2 (en) | 2016-09-29 | 2020-03-03 | Toyota Jidosha Kabushiki Kaisha | Communication device |
JP2018094645A (en) * | 2016-12-08 | 2018-06-21 | 株式会社国際電気通信基礎技術研究所 | Behavior command generation system, response system and behavior command generation method |
JP2018109990A (en) * | 2016-12-28 | 2018-07-12 | 本田技研工業株式会社 | Method for operating autonomous mobile body |
JP7029956B2 (en) | 2016-12-28 | 2022-03-04 | 本田技研工業株式会社 | How to operate an autonomous mobile body |
JP2018109986A (en) * | 2016-12-28 | 2018-07-12 | 本田技研工業株式会社 | Method for operating autonomous mobile body |
JP2018109987A (en) * | 2016-12-28 | 2018-07-12 | 本田技研工業株式会社 | Method for operating autonomous mobile body |
JP2018109989A (en) * | 2016-12-28 | 2018-07-12 | 本田技研工業株式会社 | Method for operating autonomous mobile body |
JP7016696B2 (en) | 2016-12-28 | 2022-02-07 | 本田技研工業株式会社 | How to operate an autonomous mobile body |
JP6993802B2 (en) | 2017-07-20 | 2022-02-04 | 日本信号株式会社 | Image processing equipment |
JP2019021166A (en) * | 2017-07-20 | 2019-02-07 | 日本信号株式会社 | Image processing device |
JP2019147234A (en) * | 2018-02-28 | 2019-09-05 | パナソニックIpマネジメント株式会社 | Device, robot, method, and program |
JP7102169B2 (en) | 2018-02-28 | 2022-07-19 | パナソニックホールディングス株式会社 | Equipment, robots, methods, and programs |
JP2022507447A (en) * | 2018-11-13 | 2022-01-18 | 北京猟戸星空科技有限公司 | Methods, devices and storage media for controlling intelligent devices |
JP7204912B2 (en) | 2018-11-13 | 2023-01-16 | 北京猟戸星空科技有限公司 | Method, device and storage medium for controlling intelligent equipment |
JP2021013964A (en) * | 2019-07-10 | 2021-02-12 | 株式会社国際電気通信基礎技術研究所 | Robot, robot control program, and robot control method |
JP7258438B2 (en) | 2019-07-10 | 2023-04-17 | 株式会社国際電気通信基礎技術研究所 | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD |
WO2021220614A1 (en) * | 2020-04-28 | 2021-11-04 | ソニーグループ株式会社 | Control device, control method, and computer program |
WO2023145284A1 (en) * | 2022-01-28 | 2023-08-03 | ソニーグループ株式会社 | Information processing device, information processing method, and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP5732632B2 (en) | 2015-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5732632B2 (en) | Robot system and space formation recognition device used therefor | |
JP4849244B2 (en) | Mobile robot and moving speed estimation method | |
JP5429462B2 (en) | Communication robot | |
JP4822319B2 (en) | Communication robot and attention control system using the same | |
JP5366048B2 (en) | Information provision system | |
JP5751610B2 (en) | Conversation robot | |
JP5764795B2 (en) | Mobile robot, mobile robot learning system, and mobile robot behavior learning method | |
JPWO2007132571A1 (en) | robot | |
JP2006247780A (en) | Communication robot | |
JP2009222969A (en) | Speech recognition robot and control method for speech recognition robot | |
JP6150429B2 (en) | Robot control system, robot, output control program, and output control method | |
EP3300841B1 (en) | Communication device | |
JP5145569B2 (en) | Object identification method and apparatus | |
JP2006272471A (en) | Communication robot | |
JP4399603B2 (en) | Communication robot | |
JP4617428B2 (en) | Motion generation system | |
JP2011000656A (en) | Guide robot | |
JP2004034274A (en) | Conversation robot and its operation method | |
JP4793904B2 (en) | Communication robot system and communication robot | |
JP2017170568A (en) | Service providing robot system | |
JP2007130691A (en) | Communication robot | |
Tee et al. | Gesture-based attention direction for a telepresence robot: Design and experimental study | |
JP5842245B2 (en) | Communication robot | |
JP2008080431A (en) | Robot system | |
JP5324956B2 (en) | Road guidance robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140716 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140717 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5732632 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |