JP4815940B2 - Robot control system, robot apparatus, and robot control method - Google Patents

Robot control system, robot apparatus, and robot control method Download PDF

Info

Publication number
JP4815940B2
JP4815940B2 JP2005236325A JP2005236325A JP4815940B2 JP 4815940 B2 JP4815940 B2 JP 4815940B2 JP 2005236325 A JP2005236325 A JP 2005236325A JP 2005236325 A JP2005236325 A JP 2005236325A JP 4815940 B2 JP4815940 B2 JP 4815940B2
Authority
JP
Japan
Prior art keywords
robot
viewer
motion
viewers
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005236325A
Other languages
Japanese (ja)
Other versions
JP2007050461A (en
Inventor
新 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2005236325A priority Critical patent/JP4815940B2/en
Publication of JP2007050461A publication Critical patent/JP2007050461A/en
Application granted granted Critical
Publication of JP4815940B2 publication Critical patent/JP4815940B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボット制御システム、ロボット装置、およびロボット制御方法に関する。   The present invention relates to a robot control system, a robot apparatus, and a robot control method.

特許文献1には、音源から発せられた音を検出する音検出手段を有し、呼びかけた人の方向に視線を向けたり、対面者の顔を認識したり、いくつかの命令に応じた行動をとることができる自律行動ロボットが開示されている。   Patent Document 1 has sound detection means for detecting sound emitted from a sound source, directing the line of sight toward the calling person, recognizing the face of the person being faced, and actions according to some commands An autonomous behavior robot that can take the action is disclosed.

特許文献2には、広告情報を蓄積する情報管理基地局に無線または有線を経由してロボットを接続し、ユーザ状況判断部によりユーザがいかなる状況にあるかを判断し、判断結果のユーザ状況に適した広告情報を情報管理基地局から広告情報入手部により入手し、広告情報提示手段によりユーザに提示する技術が開示されている。   In Patent Literature 2, a robot is connected to an information management base station that stores advertisement information via a wireless or wired connection, and a user status determination unit determines a user's status, and the determination result indicates a user status. A technique is disclosed in which suitable advertisement information is obtained from an information management base station by an advertisement information acquisition unit and presented to a user by advertisement information presenting means.

特許文献3には、ユーザ情報を記憶するユーザ情報記憶手段と、ロボットに広告動作を実行させるための動作情報の中から、ユーザ情報記憶手段に記憶されているユーザ情報に対応する動作情報を選択する選択手段と、選択手段により選択された動作情報を、ネットワークを介して情報提供装置から取得する取得手段と、連続する入力音声を認識する音声認識手段と、音声認識手段により入力音声が認識されたと判断された場合、取得手段により取得された動作情報に基づいて、ロボットが広告動作を実行するように制御する広告動作制御手段と、を備えるロボット制御装置が開示されている。
特開2003−62777号公報 特開2004−17200号公報 特開2004−302328号公報
Patent Document 3 selects user information storage means for storing user information and operation information corresponding to user information stored in the user information storage means from operation information for causing the robot to execute an advertisement operation. The input voice is recognized by the selection means, the acquisition means for acquiring the operation information selected by the selection means from the information providing apparatus via the network, the voice recognition means for recognizing continuous input voice, and the voice recognition means. A robot control device is disclosed that includes an advertisement motion control means for controlling the robot to execute an advertisement motion based on the motion information acquired by the acquisition means when it is determined that the robot has been determined to be.
JP 2003-62777 A JP 2004-17200 A JP 2004-302328 A

しかし、従来、ロボットがユーザに対して一方的に説明を行っていたために、ユーザの印象に残らなかったりして、効果的な説明を行うことができなかった。   However, conventionally, since the robot has unilaterally explained to the user, it has not been left in the user's impression and could not be effectively explained.

本発明は上記事情を踏まえてなされたものであり、本発明の目的は、ロボットが、印象に残るような説明を行うようにする技術を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique that allows a robot to make a description that will leave an impression.

本発明によれば、
説明を行うロボットを制御するロボット制御システムであって、
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、
前記視聴者状況把握部が把握した前記視聴者の数に基づき、前記動作パターン記憶部から、いずれかの前記動作パターンを選択する動作パターン選択部と、
前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定部と、
を含むロボット制御システムが提供される。
According to the present invention,
A robot control system for controlling a robot that performs explanation,
A viewer status grasping unit for grasping the number of viewers in the vicinity of the robot;
An operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
An operation pattern selection unit that selects any one of the operation patterns from the operation pattern storage unit based on the number of viewers grasped by the viewer status grasping unit;
An operation determining unit that determines an operation of the robot based on the operation pattern selected by the operation pattern selecting unit;
A robot control system is provided.

本発明によれば、
説明を行うロボットを制御するロボット制御方法であって、
前記ロボットの近傍にいる視聴者の数を把握するステップと、
前記視聴者の数を把握するステップで把握された前記視聴者の数に基づき、前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部から、いずれかの前記動作パターンを選択するステップと、
前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの動作を決定するステップと、
を含むロボット制御方法が提供される。
According to the present invention,
A robot control method for controlling a robot that performs explanation,
Determining the number of viewers in the vicinity of the robot;
Based on the number of viewers grasped in the step of grasping the number of viewers, an operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewers when the robot performs explanation Selecting any one of the operation patterns;
Determining the motion of the robot based on the motion pattern selected in the step of selecting the motion pattern;
A robot control method is provided.

ここで、ロボットは、音声出力、画像出力、または身振りや手話等の動作、あるいはこれらの組合せ等により説明を行うことができる。また、説明は、発表、案内、宣伝、プレゼンテーション、教育、視聴者とのコミュニケーション等、ロボットが視聴者に何らかの情報を意思表示したり伝達することとすることができる。ロボットの近傍とは、たとえばロボットが出力する音声が聞こえるような範囲や、ロボットの画像出力や動作が見えるような範囲等、視聴者がロボットの説明を把握することができる範囲とすることができる。このようにすれば、ロボットの近傍にいる視聴者の数に応じて、ロボットが説明を行う際に、ロボットが視聴者に適切な動作を行うようにすることができる。これにより、ロボットの説明が視聴者の印象に残るようにすることができる。   Here, the robot can be described by voice output, image output, gesture or sign language operation, or a combination thereof. In addition, the explanation may be that the robot intentionally displays or transmits some information to the viewer, such as announcement, guidance, advertisement, presentation, education, communication with the viewer, and the like. The vicinity of the robot can be a range where the viewer can understand the explanation of the robot, such as a range where the voice output by the robot can be heard, a range where the image output and operation of the robot can be seen, etc. . In this way, when the robot makes an explanation according to the number of viewers in the vicinity of the robot, the robot can perform an appropriate operation for the viewer. As a result, the description of the robot can remain in the viewer's impression.

ここで、ロボットは、ロボット装置とすることもでき、またキャラクタで示される仮想ロボットとすることもできる。また、ロボットは、音声認識機能を有する対話型ロボットとすることができる。   Here, the robot can be a robot device or a virtual robot represented by a character. The robot can be an interactive robot having a voice recognition function.

本発明のロボット制御システムにおいて、前記動作パターンは、前記ロボットの前記視聴者への視線を制御する視線動作パターンとすることができ、前記視聴者状況把握部は、前記視聴者の前記ロボットに対する位置も把握することができ、前記動作決定部は、前記視聴者の位置および前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの前記視聴者への視線動作を決定することができる。   In the robot control system of the present invention, the movement pattern may be a line-of-sight movement pattern for controlling a line-of-sight of the robot to the viewer, and the viewer status grasping unit is a position of the viewer relative to the robot. The motion determination unit can determine the line-of-sight motion of the robot to the viewer based on the viewer position and the motion pattern selected by the motion pattern selection unit.

ここで、視線動作パターンは、ロボットの視線を向けるアイコンタクトポイント、各アイコンタクトポイントにロボットの視線を向ける頻度、および各アイコンタクトポイントにロボットの視線を向ける時間等の設定情報を含むことができる。このようにすれば、ロボットの近傍や周囲にいる視聴者の数に応じて、ロボットが説明を行う際に、ロボットが視聴者に適切なアイコンタクト等の視線動作を行うようにすることができる。これにより、ロボットの説明が視聴者の印象に残るようにすることができる。なお、動作決定部は、たとえば、ロボットの視線モーションを生成する視線モーション生成部とすることができる。   Here, the line-of-sight movement pattern can include setting information such as an eye contact point that directs the robot's line of sight, a frequency at which the robot's line of sight is directed to each eye contact point, and a time that the robot's line of sight is directed to each eye contact point. . In this way, according to the number of viewers near or around the robot, the robot can perform a line-of-sight operation such as eye contact appropriate for the viewer when explaining the robot. . As a result, the description of the robot can remain in the viewer's impression. Note that the motion determination unit can be, for example, a gaze motion generation unit that generates a gaze motion of the robot.

本発明のロボット制御システムにおいて、前記動作決定部は、前記視聴者の位置および前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの視線を向けるアイコンタクトポイントを決定することができる。   In the robot control system of the present invention, the motion determination unit may determine an eye contact point that directs the robot's line of sight based on the position of the viewer and the motion pattern selected by the motion pattern selection unit.

このようにすれば、ロボットが視聴者の方向に視線を向けるようにすることができ、ロボットが視聴者に適切なアイコンタクト等の視線動作を行うようにすることができる。ここで、動作決定部は、視聴者の位置に基づき、視聴者の目の位置を推定し、視聴者の目の位置をロボットの視線を向けるアイコンタクトポイントと決定することもできる。   In this way, the robot can direct the line of sight toward the viewer, and the robot can perform a line-of-sight operation such as eye contact appropriate for the viewer. Here, the motion determination unit can estimate the position of the viewer's eyes based on the position of the viewer, and determine the position of the viewer's eyes as an eye contact point that directs the line of sight of the robot.

本発明のロボット制御システムにおいて、前記動作パターンは、前記アイコンタクトポイントに前記ロボットの視線を向ける頻度および当該アイコンタクトポイントに前記ロボットが視線を向ける時間の設定を含むことができ、前記動作決定部は、前記動作パターン選択部が選択した前記動作パターンに基づき、設定された前記頻度および前記時間通りに前記ロボットの視線を前記アイコンタクトポイントに向ける視線動作を決定することができる。
これにより、たとえばロボット近傍の視聴者の数が少ない場合、ロボットが各アイコンタクトポイントに長い時間視線を向けるような丁寧なアイコンタクト動作を行ったり、ロボット近傍の視聴者の数が多い場合、ロボットが各アイコンタクトポイントに視線を向ける時間を短くして、多数の視聴者にまんべんなく視線を向けるようにしたり等、適宜調整することができる。
In the robot control system of the present invention, the operation pattern may include a setting of a frequency of directing the line of sight of the robot to the eye contact point and a time for the robot to direct the line of sight to the eye contact point. Can determine a line-of-sight movement that directs the line of sight of the robot to the eye contact point according to the set frequency and the time based on the movement pattern selected by the movement pattern selection unit.
Thus, for example, when the number of viewers in the vicinity of the robot is small, the robot performs a careful eye contact operation that directs the eyes to each eye contact point for a long time, or when the number of viewers near the robot is large, However, the time for directing the line of sight to each eye contact point can be shortened so that the line of sight is directed evenly to a large number of viewers.

本発明のロボット制御システムにおいて、前記ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成することができ、前記動作決定部は、前記ロボットが前記視線動作を行うように、前記ロボットの前記首、前記胴体、または前記目の一つ以上の動きを決定することができる。   In the robot control system of the present invention, the robot may be configured such that at least one of a neck, a torso, or an eye is movable, and the motion determination unit is configured so that the robot performs the line-of-sight motion. One or more movements of the neck, the torso, or the eye can be determined.

このようにすれば、ロボットが視聴者に適切なアイコンタクト等の視線動作を行うようにすることができる。   In this way, the robot can perform a line-of-sight operation such as eye contact appropriate for the viewer.

本発明のロボット制御システムにおいて、前記動作パターン記憶部は、前記ロボットが、前記視聴者それぞれを動作対象とする第1の動作パターンと、前記視聴者をグループ分けした各グループを動作対象とする第2の動作パターンと、を記憶することができ、前記動作パターン選択部は、前記視聴者状況把握部が把握した前記視聴者の数が所定数以下の場合に前記第1の動作パターンを選択し、前記数が前記所定数より多い場合に前記第2の動作パターンを選択することができる。   In the robot control system of the present invention, the motion pattern storage unit includes a first motion pattern in which the robot targets each of the viewers and a group in which the viewers are grouped. 2, and the operation pattern selection unit selects the first operation pattern when the number of viewers grasped by the viewer status grasping unit is a predetermined number or less. The second operation pattern can be selected when the number is larger than the predetermined number.

ここで、動作パターンが視線動作パターンの場合、第1の動作パターンは、ロボットが、視聴者それぞれをロボットの視線を向けるアイコンタクトポイントとする設定を含み、第2の動作パターンは、ロボットが、視聴者をグループ分けした各グループをロボットの視線を向けるアイコンタクトポイントとする設定を含むようにすることができる。   Here, when the motion pattern is a line-of-sight motion pattern, the first motion pattern includes a setting in which the robot sets each viewer to an eye contact point that directs the viewer's line of sight, and the second motion pattern includes: It is possible to include a setting in which each group into which viewers are grouped is set as an eye contact point for directing the robot's line of sight.

本発明のロボット制御システムにおいて、前記視聴者状況把握部は、前記視聴者の数の変化を検出することができ、前記動作パターン選択部は、前記視聴者状況把握部が前記視聴者の数の変化を検出すると、新たな数に対応する前記動作パターンを選択することができ、前記動作決定部は、前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定することができる。   In the robot control system of the present invention, the viewer status grasping unit can detect a change in the number of viewers, and the operation pattern selecting unit is configured so that the viewer status grasping unit determines the number of viewers. When a change is detected, the motion pattern corresponding to a new number can be selected, and the motion determination unit can determine the motion of the robot based on the motion pattern selected by the motion pattern selection unit. it can.

このようにすれば、ロボットが説明している間に、ロボットの近傍の視聴者の数が変わった場合に、その数に応じて動作パターンを選択しなおすことができ、適宜、ロボットの説明が視聴者の印象に残るようにすることができる。   In this way, when the number of viewers in the vicinity of the robot changes while the robot is explaining, the operation pattern can be reselected according to the number of viewers. It can be left in the viewer's impression.

本発明のロボット制御システムは、所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶する設定記憶部をさらに含むことができ、前記動作パターン記憶部は、前記所定の条件を満たす視聴者を動作対象とする特別な動作パターンを、前記所定の条件に対応付けて記憶することができ、前記視聴者状況把握部は、前記視聴者の中から前記所定の条件を満たす視聴者を検出することができ、前記動作パターン選択部は、前記視聴者状況把握部が前記所定の条件を満たす視聴者を検出した場合であって、前記設定記憶部に前記所定の条件を満たす視聴者を前記特別な動作対象とすることが設定されている場合、当該所定の条件に対応する前記特別な動作パターンを選択することができる。   The robot control system of the present invention may further include a setting storage unit that stores a setting as to whether or not a viewer who satisfies a predetermined condition is to be a special operation target, and the operation pattern storage unit includes the predetermined pattern A special motion pattern targeting a viewer who satisfies the condition can be stored in association with the predetermined condition, and the viewer status grasping unit satisfies the predetermined condition from the viewers A viewer can be detected, and the operation pattern selection unit is a case where the viewer condition grasping unit detects a viewer that satisfies the predetermined condition, and the setting storage unit satisfies the predetermined condition. When it is set that the viewer is set as the special operation target, the special operation pattern corresponding to the predetermined condition can be selected.

ここで、所定の条件とは、たとえばロボットが説明中に新たに加わった新規視聴者が所定数以上把握された場合、ロボットの近傍に所定時間以上いる長時間視聴者が把握された場合、またはロボットの説明等を熱心に聞いていると判断されるアクティブ視聴者が把握された場合等とすることができる。また、動作パターンが視線動作パターンの場合、特別な動作パターンは、所定の条件を満たす視聴者を、他の視聴者とは区別して、ロボットの視線を向けるアイコンタクトポイントとする設定を含むようにすることができる。また、ロボットは、所定の条件を満たす視聴者に、説明のサマリを発話したりすることもできる。   Here, the predetermined condition is, for example, when a predetermined number or more of new viewers newly added during explanation by the robot are grasped, when a long-time viewer who is in the vicinity of the robot for a predetermined time or more is grasped, or For example, an active viewer who is determined to listen to the explanation of the robot eagerly can be recognized. In addition, when the motion pattern is a line-of-sight motion pattern, the special motion pattern includes a setting that sets a viewer who satisfies a predetermined condition as an eye contact point that directs the robot's line of sight to distinguish it from other viewers. can do. The robot can also utter a summary of explanation to a viewer who satisfies a predetermined condition.

本発明のロボット制御システムは、前記ロボットが実行した前記動作パターンに対する前記視聴者の反響を、前記動作パターンを示す情報に対応付けて取得する反響取得部と、前記反響取得部が取得した前記反響を前記動作パターン毎に集計する反響集計部と、をさらに含むことができ、前記動作パターン選択部は、複数の前記動作パターンの反響を比較し、反響の高い前記動作パターンを前記ロボットが実行する動作パターンとして優先的に選択することができる。   The robot control system of the present invention includes an echo acquisition unit that acquires an echo of the viewer with respect to the motion pattern executed by the robot in association with information indicating the motion pattern, and the echo acquired by the echo acquisition unit. And an echo totaling unit that counts the motion patterns for each motion pattern, wherein the motion pattern selection unit compares the echoes of the plurality of motion patterns, and the robot executes the motion pattern having a high echo. The operation pattern can be preferentially selected.

ここで、反響とは、たとえば集客効率や販売効率等とすることができる。また、視聴者の理解度の高低とすることもできる。このようにすれば、ロボットの近傍にいる視聴者の数に応じて、ロボットの動作を適切に選択することができるとともに、反響の高い動作を選択することができるので、ロボットの説明がより効果的に視聴者の印象に残るようにすることができる。   Here, the reverberation can be, for example, customer collection efficiency or sales efficiency. In addition, the level of understanding of the viewer can be increased. In this way, according to the number of viewers in the vicinity of the robot, it is possible to appropriately select the operation of the robot, and it is possible to select the operation with high reverberation. Can be left in the viewer's impression.

本発明のロボット制御システムにおいて、反響取得部は、複数のロボットそれぞれが実行した動作パターンに対する視聴者の反響を、それぞれ、動作パターンを示す情報に対応付けて取得することができ、反響集計部は、これらの反響を集計することができる。反響集計部が集計した結果は、複数のロボットで共有することができる。これにより、反響の高かった動作パターンを、複数のロボット間で共有したり、複数のロボットにフィードバックしたりすることができる。   In the robot control system of the present invention, the echo acquisition unit can acquire the viewer's echo for the motion pattern executed by each of the plurality of robots in association with information indicating the motion pattern. These responses can be totaled. The results counted by the echo tabulation unit can be shared by a plurality of robots. As a result, it is possible to share an action pattern having a high response among a plurality of robots or to feed back to a plurality of robots.

本発明のロボット制御システムは、前記ロボットに再生させる発話ファイルおよびモーションファイルを記憶するコンテンツ記憶部と、前記コンテンツ記憶部から、指定された前記発話ファイルおよび前記モーションファイルを読み出し、前記ロボットに再生させるコンテンツ再生部と、をさらに含むことができ、前記動作決定部は、前記動作パターンに基づき決定する前記動作が、前記コンテンツ再生部が読み出した前記モーションファイルの再生により実行される前記ロボットの動作と矛盾する場合、前記モーションファイルの再生により実行される前記ロボットの動作を優先的に前記ロボットに行わせることができる。   The robot control system according to the present invention includes a content storage unit that stores an utterance file and a motion file to be reproduced by the robot, and reads the designated utterance file and the motion file from the content storage unit, and causes the robot to reproduce them. A content playback unit, wherein the motion determination unit is configured to determine whether the motion determined based on the motion pattern is performed by playback of the motion file read by the content playback unit. When there is a contradiction, it is possible to cause the robot to preferentially perform the operation of the robot that is executed by reproducing the motion file.

このようにすれば、予め設定されたロボットの動作と矛盾しないように、動作パターンに基づき、ロボットの動作を決定することができる。   In this way, the robot motion can be determined based on the motion pattern so as not to contradict the preset robot motion.

動作パターン記憶部は、たとえばロボットがある説明等を行う際に、ロボットが説明する内容自体は同じであるが、そのときのロボットの身振り等の動作や、ロボットのしゃべり方等を変化させる説明ルールを記憶することができる。   For example, when an explanation is given about a robot, the action pattern storage unit has the same content as the explanation of the robot, but the explanation rules that change the behavior of the robot at that time, how to talk about the robot, etc. Can be stored.

本発明によれば、
上記いずれかに記載のロボット制御システムと、
前記動作決定部が決定した前記動作を実行する動作実行部と、
を含むことを特徴とするロボット装置が提供される。
According to the present invention,
A robot control system according to any of the above,
An operation execution unit for executing the operation determined by the operation determination unit;
The robot apparatus characterized by including is provided.

ここで、ロボット装置は自律移動型または対話型とすることができる。また、ロボット装置は、音声出力機能を有することができる。   Here, the robot apparatus can be autonomously moving or interactive. Further, the robot apparatus can have a voice output function.

本発明のロボット制御方法において、前記動作パターンは、前記ロボットの前記視聴者への視線を制御する視線動作パターンであって、ロボット制御方法は、前記視聴者の前記ロボットに対する位置を把握するステップをさらに含むことができ、前記ロボットの動作を決定するステップにおいて、前記視聴者の位置および前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの前記視聴者への視線動作を決定することができる。   In the robot control method of the present invention, the movement pattern is a line-of-sight movement pattern for controlling a line of sight of the robot to the viewer, and the robot control method includes a step of grasping a position of the viewer with respect to the robot. In the step of determining the movement of the robot, a line-of-sight movement of the robot toward the viewer may be performed based on the movement pattern selected in the step of selecting the position of the viewer and the movement pattern. Can be determined.

本発明のロボット制御方法において、前記ロボットの動作を決定するステップは、前記視聴者の位置および前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの視線を向けるアイコンタクトポイントを決定するステップを含むことができる。   In the robot control method of the present invention, the step of determining the motion of the robot includes an eye contact point that directs the robot's line of sight based on the motion pattern selected in the step of selecting the viewer position and the motion pattern. Can be included.

本発明のロボット制御方法において、前記動作パターンは、前記アイコンタクトポイントに前記ロボットの視線を向ける頻度および当該アイコンタクトポイントに前記ロボットが視線を向ける時間の設定を含むことができ、前記ロボットの動作を決定するステップにおいて、前記動作パターンを選択するステップで選択された前記動作パターンに基づき、設定された前記頻度および前記時間通りに前記ロボットの視線を前記アイコンタクトポイントに向ける視線動作を決定することができる。   In the robot control method of the present invention, the operation pattern may include a setting of a frequency of directing the robot's line of sight to the eye contact point and a time for the robot to direct the line of sight to the eye contact point. Determining a line-of-sight movement that directs the robot's line of sight to the eye contact point according to the set frequency and the time based on the movement pattern selected in the step of selecting the movement pattern. Can do.

本発明のロボット制御方法において、前記ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成することができ、前記ロボットの動作を決定するステップにおいて、前記ロボットが前記視線動作を行うように、前記ロボットの前記首、前記胴体、または前記目の一つ以上の動きを決定することができる。   In the robot control method of the present invention, the robot may be configured such that at least one of a neck, a torso, or an eye is movable, and the robot performs the line-of-sight motion in the step of determining the motion of the robot. In addition, one or more movements of the neck, the body, or the eyes of the robot can be determined.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラム等の間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、ロボットが、印象に残るような説明を行うようにすることができる。   According to the present invention, it is possible for the robot to make an explanation that will leave an impression.

次に、発明を実施するための最良の形態について図面を参照して詳細に説明する。なお、以下の図面において、本発明の本質に関わらない部分の構成は省略する。また、同様の構成要素には同様の符号を付し、適宜説明を省略する。   Next, the best mode for carrying out the invention will be described in detail with reference to the drawings. In the following drawings, configurations of parts not related to the essence of the present invention are omitted. Moreover, the same code | symbol is attached | subjected to the same component and description is abbreviate | omitted suitably.

以下の本発明の実施の形態において、ロボットは、たとえば屋内や屋外の商用スペース等で商品等の説明を行う。本実施の形態におけるロボット制御システムは、ロボットがユーザに印象深く内容を伝えるようにロボットの動作を制御する。   In the following embodiments of the present invention, a robot will explain a product in an indoor or outdoor commercial space, for example. The robot control system according to the present embodiment controls the operation of the robot so that the robot conveys the content to the user in an impressive manner.

(第1の実施の形態)
本実施の形態において、ロボット制御システムは、音声出力可能で、音声出力により説明を行うロボットを制御する。ロボット制御システムは、ロボットの近傍や周囲にいる人(以下、視聴者という)の数や位置に応じて、ロボットが音声出力により説明を行う際に、音声出力とともに、ロボットが視聴者に対して行う動作パターンを選択し、ロボットの動作を決定する。本実施の形態において、動作パターンは、ロボットの視聴者への視線を制御する視線動作パターンとすることができる。
(First embodiment)
In the present embodiment, the robot control system can output a voice and controls the robot to be explained by the voice output. The robot control system allows the robot to explain to the viewer along with the voice output when the robot explains by voice output according to the number and positions of people in the vicinity of the robot (hereinafter referred to as viewers). Select the motion pattern to perform and determine the robot motion. In the present embodiment, the movement pattern can be a line-of-sight movement pattern for controlling the line of sight to the viewer of the robot.

たとえば、視聴者が4人程度の少人数であれば、ロボットがすべての人にアイコンタクトとりながら説明を行うようにする。また、たとえば、視聴者が10人以上の大人数であれば、それらの視聴者を左右のグループに分け、ロボットがそれぞれのグループに交互にアイコンタクトをとりながら説明を行うようにする。また、たとえば、新たに加わった新規視聴者等がいる場合、ロボットが新規視聴者に集中的にアイコンタクトをしたり、サマリの説明をしたりするようにする。これにより、視聴者に対して、ロボットの説明を印象深くすることができる。また、ロボットがアイコンタクトを行うことにより、視聴者が一定の緊張感を持って集中してロボットの説明を聞くようにすることができる。   For example, if there are a small number of viewers, such as four viewers, the robot will explain to all people while making eye contact. For example, if there are 10 or more viewers, the viewers are divided into left and right groups, and the robot makes an explanation while alternately making eye contact with each group. Further, for example, when there is a new viewer newly added, the robot makes intensive eye contact with the new viewer or explains the summary. As a result, the explanation of the robot can be made deeper to the viewer. In addition, when the robot makes eye contact, the viewer can concentrate and listen to the explanation of the robot with a certain tension.

図1は、本実施の形態におけるロボット制御システムの構成の一例を示すブロック図である。
ロボット制御システム100は、視聴者状況取得部101、視聴者状況把握部102、動作パターン選択部104、シナリオ読込部106、視線モーション生成部108(動作決定部)、コンテンツ再生部110、動作パターン記憶部112、シナリオ記憶部114、視聴者状況記憶部116およびコンテンツ記憶部118を含む。
FIG. 1 is a block diagram showing an example of the configuration of the robot control system in the present embodiment.
The robot control system 100 includes a viewer status acquisition unit 101, a viewer status grasping unit 102, an operation pattern selection unit 104, a scenario reading unit 106, a gaze motion generation unit 108 (motion determination unit), a content playback unit 110, and an operation pattern storage. Unit 112, scenario storage unit 114, viewer status storage unit 116, and content storage unit 118.

ここで、ロボット制御システム100が制御するロボットは、自律移動可能なロボット装置とすることもでき、キャラクタで示される仮想ロボットとすることもできる。いずれの場合でも、ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成される。ロボットがロボット装置の場合、ロボット制御システム100は、ロボット装置内に組み込まれてもよく、ロボット装置外部に設けられ、外部からロボット装置を制御するようにすることもできる。また、ロボット制御システム100の一部のみがロボット装置内に組み込まれた構成とすることもできる。ロボット制御システム100がロボット装置外部に設けられた場合、無線通信等の種々のネットワークを介して、ロボット装置に制御信号が送信される。また、ロボット制御システム100の一部のみがロボット装置内に組み込まれ、残りがロボット装置外部に設けられた場合、それらの間のデータの授受も、無線通信等の種々のネットワークを介して行うことができる。たとえば、本実施の形態において、視聴者状況取得部101のみロボット装置外部に設け、それ以外の構成をロボット装置内に組み込んだ構成とすることができる。ロボット装置の構成は後述する。   Here, the robot controlled by the robot control system 100 can be a robot device capable of autonomous movement, or can be a virtual robot indicated by a character. In any case, the robot is configured so that at least one of the neck, the torso, and the eyes can move. When the robot is a robot apparatus, the robot control system 100 may be incorporated in the robot apparatus, provided outside the robot apparatus, and controlled from the outside. Further, only a part of the robot control system 100 may be incorporated in the robot apparatus. When the robot control system 100 is provided outside the robot apparatus, a control signal is transmitted to the robot apparatus via various networks such as wireless communication. In addition, when only a part of the robot control system 100 is incorporated in the robot apparatus and the rest is provided outside the robot apparatus, data exchange between them is also performed via various networks such as wireless communication. Can do. For example, in the present embodiment, only the viewer status acquisition unit 101 may be provided outside the robot apparatus, and other configurations may be incorporated in the robot apparatus. The configuration of the robot apparatus will be described later.

視聴者状況取得部101は、ロボットの近傍や周囲にいる視聴者の情報を取得する。視聴者状況取得部101は、たとえば、カメラ、温度センサ等の人体検知センサ、超音波タグセンサ、無線タグセンサ等により構成することができる。   The viewer status acquisition unit 101 acquires information on viewers near or around the robot. The viewer status acquisition unit 101 can be configured by, for example, a human body detection sensor such as a camera or a temperature sensor, an ultrasonic tag sensor, a wireless tag sensor, or the like.

視聴者状況把握部102は、視聴者状況取得部101が取得した視聴者の情報を解析し、ロボットの近傍にいる視聴者の数、およびそれらの視聴者のロボットに対する位置を把握する。   The viewer status grasping unit 102 analyzes the viewer information acquired by the viewer status obtaining unit 101 and grasps the number of viewers in the vicinity of the robot and the positions of those viewers with respect to the robot.

以下、図2を参照して、視聴者状況把握部102が画像認識により視聴者の数や位置を把握する処理を説明する。ここで、視聴者状況取得部101は、ロボットの前方を撮影可能なカメラとすることができる。   Hereinafter, with reference to FIG. 2, processing in which the viewer status grasping unit 102 grasps the number and positions of viewers by image recognition will be described. Here, the viewer status acquisition unit 101 can be a camera capable of photographing the front of the robot.

図2(a)に示すように、視聴者状況把握部102は、視聴者状況取得部101が取得した画像から顔と識別される領域を抜き出す顔検出を行う。つづいて、視聴者状況把握部102は、検出した顔画像の大きさおよび形状、視聴者状況取得部101の位置、ならびにロボットの位置に基づき、ロボットの近傍にいる視聴者の数、各視聴者のロボットに対する位置(角度および距離)を推定する。その結果、たとえば図2(b)に示すように、各視聴者のロボットに対する位置の推定結果が得られる。ここでは、A、B、C、Dの4人の視聴者が把握されている。   As shown in FIG. 2A, the viewer situation grasping unit 102 performs face detection by extracting an area identified as a face from the image obtained by the viewer situation obtaining unit 101. Subsequently, the viewer status grasping unit 102 determines the number of viewers in the vicinity of the robot, each viewer based on the size and shape of the detected face image, the position of the viewer status acquisition unit 101, and the position of the robot. The position (angle and distance) of the robot with respect to the robot is estimated. As a result, as shown in FIG. 2B, for example, a position estimation result of each viewer with respect to the robot is obtained. Here, four viewers A, B, C, and D are grasped.

また、ここで、視聴者状況把握部102は、視聴者状況取得部101が取得した画像に基づき、利用者の性別や年齢等の推定を行うこともできる。また、予め視聴者の顔画像と、その属性情報との対応データ等を取得しておき、視聴者状況把握部102により、顔認識を行い、個人認証を行ってもよい。   Here, the viewer status grasping unit 102 can also estimate the sex, age, etc. of the user based on the image acquired by the viewer status acquisition unit 101. In addition, correspondence data between the viewer's face image and its attribute information may be acquired in advance, and the viewer status grasping unit 102 may perform face recognition and perform personal authentication.

図1に戻り、視聴者状況取得部101は、タグリーダとすることもできる。たとえば、予め視聴者に識別情報や属性情報を記憶したタグを付与しておくことができる。この場合、視聴者状況把握部102は、視聴者状況取得部101により、タグから情報を読み取ることにより、ロボットの近傍にいる視聴者の数、各視聴者のロボットに対する位置を推定することができる。ここで、タグは、たとえば超音波タグとすることができ、視聴者状況取得部101は、超音波タグから情報を読み取るタグリーダとすることができる。この場合、各視聴者に取り付けるタグの位置を、たとえば胸等所定の場所に設定しておくことにより、視聴者状況把握部102は、視聴者状況取得部101が取得したタグの位置から、その人の目の位置を推定することができる。また、タグに各視聴者の年齢等の属性情報を記憶しておくことにより、たとえば胸から目までの距離を推定することができる。たとえば、視聴者が子供(年齢6歳から12歳等)の場合、タグの位置から上約30cmに目の位置があると推定することができる。この場合も、視聴者の属性情報を読み出し、個人認証を行うことができる。   Returning to FIG. 1, the viewer status acquisition unit 101 may be a tag reader. For example, a tag in which identification information and attribute information are stored in advance can be given to the viewer. In this case, the viewer status grasping unit 102 can estimate the number of viewers in the vicinity of the robot and the position of each viewer with respect to the robot by reading information from the tag with the viewer status acquisition unit 101. . Here, the tag can be an ultrasonic tag, for example, and the viewer status acquisition unit 101 can be a tag reader that reads information from the ultrasonic tag. In this case, by setting the position of the tag to be attached to each viewer at a predetermined location such as a chest, for example, the viewer status grasping unit 102 can determine from the tag position acquired by the viewer status acquiring unit 101 The position of the human eye can be estimated. Also, by storing attribute information such as the age of each viewer in the tag, for example, the distance from the chest to the eyes can be estimated. For example, when the viewer is a child (age 6 to 12 years old, etc.), it can be estimated that the eye position is about 30 cm above the tag position. Also in this case, the viewer's attribute information can be read and personal authentication can be performed.

また、視聴者状況取得部101は、タグリーダとカメラとを併用した構成とすることもできる。   In addition, the viewer status acquisition unit 101 can be configured to use both a tag reader and a camera.

視聴者状況把握部102は、把握した視聴者の数や位置等の視聴者状況を視聴者状況記憶部116に記憶する。視聴者状況把握部102は、視聴者状況取得部101が取得する情報および視聴者状況記憶部116に記憶された情報に基づき、視聴者状況の変化も検出する。   The viewer status grasping unit 102 stores the viewer status such as the grasped number and position of viewers in the viewer status storage unit 116. The viewer status grasping unit 102 also detects a change in the viewer status based on the information acquired by the viewer status acquisition unit 101 and the information stored in the viewer status storage unit 116.

シナリオ記憶部114は、ロボットの振る舞いについて記載されたシナリオを記憶する。シナリオは、たとえば、ロボットに再生させるべきモーションファイルや発話ファイル、およびその再生手段等が記述されたプログラムとすることができる。ここで、モーションファイルは、ロボットのモーションを示す。発話ファイルは、ロボットの発話を示す。   The scenario storage unit 114 stores a scenario described about the behavior of the robot. The scenario can be, for example, a program in which a motion file or an utterance file to be reproduced by the robot and a reproduction means thereof are described. Here, the motion file indicates the motion of the robot. The utterance file indicates the utterance of the robot.

また、本実施の形態において、シナリオは、視線制御のオンオフの設定も含む。本実施の形態において、視線制御とは、モーションファイルの動作とは別に、ロボットが音声出力等の説明をする際に、ロボットに視聴者に対してアイコンタクトをとる動作を行わせる処理のことである。モーションファイルに視線モーションが含まれる場合は、視線制御はオフとなるように設定される。視線モーションとは、ロボットの視線を所定の方向に向けたりする動作のことである。たとえば、ロボットにある商品の説明をさせる場合、ロボットが商品の方を向いて商品を指差すというモーションファイルが指定されている場合がある。このような場合は、モーションファイルに、「商品の方を向く」という視線モーションが含まれるため、視線制御がオフとなるように設定される。このようにすれば、モーションファイルで指定された動作と矛盾するような視線制御が行われないようにすることができる。   In the present embodiment, the scenario also includes a setting for turning on / off the line-of-sight control. In the present embodiment, line-of-sight control refers to processing that causes the robot to perform eye contact with the viewer when explaining the voice output, etc., separately from the motion file operation. is there. When the motion file includes a line-of-sight motion, the line-of-sight control is set to be off. The line-of-sight motion is an operation of directing the robot's line of sight in a predetermined direction. For example, when a robot explains a product, there may be a motion file in which the robot points to the product and points to the product. In such a case, since the line-of-sight motion “facing the product” is included in the motion file, the line-of-sight control is set to be off. In this way, it is possible to prevent the line-of-sight control from contradicting the operation specified in the motion file.

図3は、シナリオ記憶部114に記憶されたシナリオの一例を示す図である。ここでは、シナリオ記憶部114は、モーションファイルや発話ファイルを指定し、順番に再生していくためのスクリプト言語を記憶している。   FIG. 3 is a diagram illustrating an example of a scenario stored in the scenario storage unit 114. Here, the scenario storage unit 114 stores a script language for designating a motion file and an utterance file and playing them in order.

このシナリオのシナリオ名は「あいさつ」である。また、このシナリオ再生時には、ロボットの近傍にいる視聴者の数が2以下の場合動作パターン「001」が選択され、視聴者の数が3以上20以下の場合に動作パターン「002」が選択され、視聴者の数が21以上の場合に動作パターン「003」が選択されるよう設定されている。   The scenario name for this scenario is “greeting”. In this scenario playback, the operation pattern “001” is selected when the number of viewers in the vicinity of the robot is 2 or less, and the operation pattern “002” is selected when the number of viewers is 3 or more and 20 or less. The operation pattern “003” is set to be selected when the number of viewers is 21 or more.

図1に戻り、シナリオ読込部106は、設定またはユーザの指示に従い、シナリオ記憶部114からシナリオを選択し、それを読み込む。シナリオ読込部106は、シナリオ記憶部114から読み込んだシナリオに従い、コンテンツ再生部110および視線モーション生成部108に指示を行う。本実施の形態において、シナリオ読込部106は、シナリオ記憶部114から読み出したシナリオにおいて、視線制御がオンと設定されている場合、視線モーション生成部108に通知を行う。   Returning to FIG. 1, the scenario reading unit 106 selects a scenario from the scenario storage unit 114 and reads it in accordance with the setting or user instruction. The scenario reading unit 106 instructs the content reproduction unit 110 and the line-of-sight motion generation unit 108 according to the scenario read from the scenario storage unit 114. In the present embodiment, the scenario reading unit 106 notifies the gaze motion generation unit 108 when the gaze control is set to ON in the scenario read from the scenario storage unit 114.

コンテンツ記憶部118は、モーションファイルおよび発話ファイルを記憶する。コンテンツ再生部110は、シナリオ読込部106の指示を受け、コンテンツ記憶部118から該当するモーションファイルや発話ファイルを読み出し、ロボットのモーション再生のためのメカ駆動コマンドやロボットの発話コマンドを発行してシナリオ再生を実行する。   The content storage unit 118 stores motion files and utterance files. The content reproduction unit 110 receives an instruction from the scenario reading unit 106, reads out a corresponding motion file or utterance file from the content storage unit 118, issues a mechanical drive command for robot motion reproduction or a robot utterance command, and generates a scenario. Perform playback.

動作パターン選択部104は、視聴者状況把握部102が把握した視聴者の数およびシナリオ読込部106が読み込んだシナリオに基づき、動作パターン記憶部112からロボットの動作パターンを選択する。   The motion pattern selection unit 104 selects a robot motion pattern from the motion pattern storage unit 112 based on the number of viewers grasped by the viewer state grasping unit 102 and the scenario read by the scenario reading unit 106.

動作パターン記憶部112には、ロボットが説明を行う際に、効果的なアイコンタクトが実行できるような動作パターンが記憶される。本実施の形態において、動作パターンは、ロボットの視聴者への視線を制御する視線動作パターンである。たとえば、ロボット近傍の視聴者の数が少人数の場合は丁寧にアイコンタクトを行い、視聴者の数が増えたら大勢に対してアイコンタクトを行う等のルールが記憶される。ここで、たとえば視聴者の数が所定数以下の場合、ロボットは、視聴者一人一人をアイコンタクトポイントとして、アイコンタクトを行うようにすることができる。一方、視聴者の数が所定数より多い場合、ロボットは、視聴者をいくつかのグループに分けて、各グループを一つのアイコンタクトポイントとして、アイコンタクトを行うようにすることができる。   The operation pattern storage unit 112 stores an operation pattern that enables effective eye contact when the robot performs an explanation. In the present embodiment, the movement pattern is a line-of-sight movement pattern for controlling the line of sight to the viewer of the robot. For example, a rule is stored such that when the number of viewers near the robot is small, eye contact is carefully performed, and when the number of viewers increases, eye contact is made to a large number. Here, for example, when the number of viewers is equal to or less than a predetermined number, the robot can perform eye contact using each viewer as an eye contact point. On the other hand, when the number of viewers is larger than the predetermined number, the robot can divide the viewers into several groups and perform eye contact using each group as one eye contact point.

動作パターン記憶部112には、ロボットの視線を向けるアイコンタクトポイント、そのポイントにどの程度の頻度で、どの程度の時間視線を向けるか等が記憶される。また、動作パターン記憶部112には、たとえば、新規視聴者、長時間視聴者、またはアクティブ視聴者等への優遇動作を行うか否かの設定等も記憶される。本実施の形態において、動作パターン記憶部112は、所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶する設定記憶部としても機能する。他の例において、設定記憶部は、動作パターン記憶部112とは別に設けられてもよい。ここで、新規視聴者とは、視聴者状況把握部102により、新たにロボットの近傍に来たことが把握された視聴者のことである。長時間視聴者とは、視聴者状況把握部102により、ある程度の時間以上ロボットの近傍にいることが把握された視聴者のことである。また、アクティブ視聴者とは、視聴者状況把握部102により、たとえばうなずいている等、ロボットの説明を積極的に聞いていると判断された視聴者のことである。   The motion pattern storage unit 112 stores an eye contact point at which the line of sight of the robot is directed, how often the line of sight is directed at the point, and how long the line of sight is directed at the point. In addition, the operation pattern storage unit 112 also stores, for example, whether or not to perform a preferential operation for a new viewer, a long-time viewer, an active viewer, or the like. In the present embodiment, the operation pattern storage unit 112 also functions as a setting storage unit that stores a setting as to whether or not a viewer who satisfies a predetermined condition is a special operation target. In another example, the setting storage unit may be provided separately from the operation pattern storage unit 112. Here, the new viewer is a viewer who has been grasped by the viewer status grasping unit 102 that he / she has newly come near the robot. The long-time viewer is a viewer who has been recognized by the viewer status grasping unit 102 to be in the vicinity of the robot for a certain amount of time. The active viewer is a viewer who is judged to be actively listening to the explanation of the robot, such as nodding, by the viewer status grasping unit 102.

アクティブ視聴者か否かの判断は、たとえば視聴者状況取得部101がカメラの場合、視聴者状況把握部102による画像認識により、人の顔の位置の変化に基づき、うなずきを確認して判断することができる。視聴者状況把握部102は、ロボットの近傍にいる視聴者のうち、たとえばうなずいている人や、ロボットに対するアイコンタクト回数や時間が多い人、または肯定的な声を発している視聴者等を認識し、アクティブ視聴者か否かの判断を行うことができる。   For example, when the viewer status acquisition unit 101 is a camera, whether or not the viewer is an active viewer is determined by confirming the nod based on the change in the position of the person's face by image recognition by the viewer status grasping unit 102. be able to. The viewer status grasping unit 102 recognizes, for example, a person who nods, a person who has a lot of eye contact times and time, or a viewer who makes a positive voice among the viewers near the robot. It is possible to determine whether or not the viewer is an active viewer.

図4は、動作パターン記憶部112の内部構成の一例を示す図である。
動作パターン記憶部112は、動作パターン欄、アイコンタクトポイント欄、移動順序/頻度欄、アイコンタクト時間(秒)欄、新規視聴者優遇欄、長時間視聴者優遇欄、およびアクティブ視聴者優遇欄を含む。
FIG. 4 is a diagram illustrating an example of the internal configuration of the operation pattern storage unit 112.
The operation pattern storage unit 112 includes an operation pattern column, an eye contact point column, a movement order / frequency column, an eye contact time (seconds) column, a new viewer preferential column, a long viewer preferential column, and an active viewer preferential column. Including.

動作パターン欄には、動作パターン名が記憶される。アイコンタクトポイント欄には、ロボットがアイコンタクトをするアイコンタクトポイントの数やアイコンタクトポイントとなる視聴者の種類の定義等が記憶される。移動順序/頻度欄には、ロボットが各アイコンタクトポイントに視線を向ける順序、および頻度が記憶される。アイコンタクト時間欄には、ロボットが各アイコンタクトポイントに視線を向ける時間(秒)が記憶される。   An operation pattern name is stored in the operation pattern column. In the eye contact point column, the number of eye contact points with which the robot makes eye contact, the definition of the type of viewer that becomes the eye contact point, and the like are stored. In the movement order / frequency column, the order in which the robot turns its line of sight to each eye contact point and the frequency are stored. The eye contact time column stores the time (seconds) for the robot to turn its line of sight to each eye contact point.

また、新規視聴者優遇欄、長時間視聴者優遇欄、およびアクティブ視聴者優遇欄には、それぞれ、新規視聴者、長時間視聴者、およびアクティブ視聴者への優遇を行うか否かが記憶される。   In addition, the new viewer preferential column, the long-time viewer preferential column, and the active viewer preferential column store whether or not preferential treatment is given to the new viewer, the long-time viewer, and the active viewer, respectively. The

たとえば、動作パターン「001」では、アイコンタクトポイントが「n」となっている。ここで、「n」とは、視聴者状況把握部102により把握された視聴者の数である。動作パターン「001」では、視聴者一人一人がアイコンタクトポイントとして設定される。また、各アイコンタクトポイントには、1カ所2秒間で全アイコンタクトポイントに順番にアイコンタクトが行われるように設定されている。さらに、新規視聴者優遇およびアクティブ視聴者優遇は行われないように設定されている。一方、長時間視聴者優遇が行われるように設定されている。ここでは、2分以上ロボットの近傍にいる視聴者が長時間視聴者で、このような長時間視聴者がいた場合、動作パターンが「001」から「L001」に移行するよう設定されている。   For example, in the operation pattern “001”, the eye contact point is “n”. Here, “n” is the number of viewers grasped by the viewer situation grasping unit 102. In the operation pattern “001”, each viewer is set as an eye contact point. In addition, each eye contact point is set so that eye contact is sequentially performed on all eye contact points in one place for 2 seconds. Further, the new viewer preferential treatment and the active viewer preferential treatment are set not to be performed. On the other hand, it is set so that long-time viewer preferential treatment is performed. Here, when the viewer who is in the vicinity of the robot for 2 minutes or longer is a long-time viewer and there is such a long-time viewer, the operation pattern is set to shift from “001” to “L001”.

また、たとえば、動作パターン「002」では、アイコンタクトポイントが「n」となっている。動作パターン「002」では、視聴者一人一人がアイコンタクトポイントとして設定される。また、移動順序/頻度欄に「ランダム(1/3回)」と記憶されている。ここでは、各アイコンタクトポイントには、1カ所1.3秒間でランダムに1/3回の頻度でアイコンタクトが行われるように設定されている。   For example, in the operation pattern “002”, the eye contact point is “n”. In the operation pattern “002”, each viewer is set as an eye contact point. In addition, “random (1/3)” is stored in the movement order / frequency column. Here, each eye contact point is set so that eye contact is performed at a frequency of 1/3 at random in one place for 1.3 seconds.

また、たとえば、動作パターン「003」では、アイコンタクトポイントが「n/5」となっている。つまり、視聴者の数がnのときに、これらの視聴者が5つのグループに分類され、各グループが一つのアイコンタクトポイントとして設定される。また、各アイコンタクトポイントには、1カ所1秒間で全アイコンタクトポイントに順番にアイコンタクトが行われるように設定されている。ここで、新規視聴者優遇、長時間視聴者優遇、およびアクティブ視聴者優遇のいずれも行われないように設定されている。   For example, in the operation pattern “003”, the eye contact point is “n / 5”. That is, when the number of viewers is n, these viewers are classified into five groups, and each group is set as one eye contact point. In addition, each eye contact point is set so that eye contact is sequentially performed on all eye contact points in one place for 1 second. Here, it is set so that none of the new viewer preferential treatment, the long-time viewer preferential treatment, and the active viewer preferential treatment are performed.

また、たとえば、動作パターン「L001」では、アイコンタクトポイントが「n(L)+n(F)」となっている。ここで、n(L)とは、視聴者状況把握部102により把握された長時間視聴者の数である。また、n(F)とは、視聴者状況把握部102により把握された視聴者の数から長時間視聴者の数n(L)を引いた数である。動作パターン「L001」では、視聴者一人一人がアイコンタクトポイントとして設定される。また、アイコンタクトポイントは、長時間視聴者に対応するアイコンタクトポイントLとそれ以外の視聴者に対応するアイコンタクトポイントFとが区別して設定される。各アイコンタクトポイントには、全アイコンタクトポイントに順番にアイコンタクトが行われるように設定されている。ここで、1回のアイコンタクトは、アイコンタクトポイントLに対しては3秒、アイコンタクトポイントFに対しては1秒行われるように設定されている。また、この動作パターンが選択されている場合に、2分以上ロボットの近傍にいる視聴者がいる限り、この動作パターンを継続することも設定されている。   For example, in the operation pattern “L001”, the eye contact point is “n (L) + n (F)”. Here, n (L) is the number of long-time viewers grasped by the viewer situation grasping unit 102. N (F) is the number obtained by subtracting the number n (L) of long-time viewers from the number of viewers grasped by the viewer situation grasping unit 102. In the operation pattern “L001”, each viewer is set as an eye contact point. The eye contact point is set by distinguishing the eye contact point L corresponding to the long-time viewer and the eye contact point F corresponding to the other viewers. Each eye contact point is set so that eye contact is made in order to all eye contact points. Here, one eye contact is set to be performed for 3 seconds for the eye contact point L and for 1 second for the eye contact point F. Further, when this operation pattern is selected, it is set to continue this operation pattern as long as there is a viewer in the vicinity of the robot for two minutes or more.

また、動作パターン「N001」では、アイコンタクトポイントが「n(N)+n(F)」となっている。ここで、n(N)とは、視聴者状況把握部102により把握された新規視聴者の数である。また、n(F)とは、視聴者状況把握部102により把握された視聴者の数から新規視聴者の数n(N)を引いた数である。また、この動作パターンが選択されている場合、2分間はこの動作パターンを継続することも設定されている。   In the operation pattern “N001”, the eye contact point is “n (N) + n (F)”. Here, n (N) is the number of new viewers grasped by the viewer situation grasping unit 102. N (F) is the number obtained by subtracting the number n (N) of new viewers from the number of viewers grasped by the viewer situation grasping unit 102. Further, when this operation pattern is selected, it is also set to continue this operation pattern for 2 minutes.

また、動作パターン「A001」では、アイコンタクトポイントが「n(A)+n(F)」となっている。ここで、n(A)とは、視聴者状況把握部102により把握されたアクティブ視聴者の数である。また、n(F)とは、視聴者状況把握部102により把握された視聴者の数からアクティブ視聴者の数n(A)を引いた数である。また、この動作パターンが選択されている場合に、アクティブ視聴者がロボットの近傍にいる限り、この動作パターンを継続することも設定されている。   In the operation pattern “A001”, the eye contact point is “n (A) + n (F)”. Here, n (A) is the number of active viewers grasped by the viewer situation grasping unit 102. N (F) is a number obtained by subtracting the number n (A) of active viewers from the number of viewers grasped by the viewer situation grasping unit 102. In addition, when this operation pattern is selected, it is set to continue this operation pattern as long as the active viewer is in the vicinity of the robot.

図1に戻り、視線モーション生成部108は、シナリオ読込部106の指示を受け、動作パターン選択部104が選択した動作パターンに基づき、視線モーションを生成する。具体的には、視線モーション生成部108は、ロボットが適切な視線動作を行うよう、ロボットの首、胴体、または目(目玉)の一つ以上を移動させるための視線モーションファイルを生成する。視線モーション生成部108は、視聴者状況記憶部116に記憶された視聴者の位置、および動作パターン選択部104が選択した動作パターンに基づき、ロボットの視線を向けるアイコンタクトポイントを決定することができる。また、ロボット制御システム100は、ロボットの目の位置を記憶した記憶部を有することができ、視線モーション生成部108は、ロボットの目の位置も考慮して、ロボットの目がアイコンタクトポイントに向くようにすることができる。たとえば、アイコンタクトポイントが、ロボットから見て左右にあり、順番通りにアイコンタクトを行う動作パターンが設定されている場合、視線モーション生成部108は、ロボットが左右交互に視線を向けるような視線モーションを生成する。   Returning to FIG. 1, the line-of-sight motion generation unit 108 receives an instruction from the scenario reading unit 106 and generates a line-of-sight motion based on the operation pattern selected by the operation pattern selection unit 104. Specifically, the line-of-sight motion generation unit 108 generates a line-of-sight motion file for moving one or more of the robot's neck, torso, or eyes (eyeball) so that the robot performs an appropriate line-of-sight movement. The line-of-sight motion generation unit 108 can determine an eye contact point at which the line of sight of the robot is directed based on the viewer position stored in the viewer state storage unit 116 and the motion pattern selected by the motion pattern selection unit 104. . Further, the robot control system 100 can include a storage unit that stores the position of the robot's eyes, and the line-of-sight motion generation unit 108 considers the position of the robot's eyes so that the robot's eyes face the eye contact point. Can be. For example, when the eye contact points are on the left and right when viewed from the robot, and the operation pattern for performing eye contact in the order is set, the line-of-sight motion generation unit 108 causes the line-of-sight motion in which the robot turns the line of sight alternately. Is generated.

また、動作パターン記憶部112は、アイコンタクトポイントにロボットの視線を向ける頻度および当該アイコンタクトポイントにロボットが視線を向ける時間の設定を含むことができ、視線モーション生成部108は、動作パターン選択部104が選択した動作パターンに基づき、設定された頻度および時間通りにロボットの視線をアイコンタクトポイントに向ける視線モーションを生成することができる。さらに、視線モーション生成部108は、どのアイコンタクトポイントまでアイコンタクトを行ったかを記憶しておき、途中で動作パターンを変えた場合等、次の視線モーション作成の際に利用することができる。   In addition, the motion pattern storage unit 112 can include a setting of the frequency of directing the robot's line of sight to the eye contact point and the time for the robot to direct the line of sight to the eye contact point. Based on the operation pattern selected by the user 104, it is possible to generate a line-of-sight motion that directs the robot's line of sight toward the eye contact point according to a set frequency and time. Further, the line-of-sight motion generation unit 108 stores to which eye contact point the eye contact has been performed, and can be used when creating the next line-of-sight motion, such as when the operation pattern is changed during the process.

また、視線モーション生成部108は、視線モーション生成前にコンテンツ再生部110により再生されていたモーションと、生成する視線モーションとの間で不可能、または不自然な動きが発生する場合は、ロボットの顔をセンターポジションに戻す視線モーションを生成した後、動作パターン記憶部112に基づく視線モーションを生成する等、適切な視線モーションを生成するようにする。   In addition, the gaze motion generation unit 108, when impossible or unnatural movement occurs between the motion reproduced by the content reproduction unit 110 before the gaze motion generation and the gaze motion to be generated, After generating a line-of-sight motion that returns the face to the center position, an appropriate line-of-sight motion is generated, such as generating a line-of-sight motion based on the motion pattern storage unit 112.

コンテンツ再生部110は、視線モーション生成部108が生成した視線モーションに基づき、ロボットの視線モーション再生のためのメカ駆動コマンドを発行する。   The content reproduction unit 110 issues a mechanical drive command for reproducing the visual axis motion of the robot based on the visual axis motion generated by the visual axis motion generation unit 108.

なお、視聴者状況取得部101は、コンテンツ再生部110がコマンドを発行中も定期的に周囲の視聴者の状況を取得する。視聴者状況把握部102は、視聴者状況取得部101が取得したデータを解析し、ロボットの近傍にいる視聴者の数、およびそれらの視聴者のロボットに対する位置の変化を検出する。ロボットの移動や視聴者の移動等により、ロボットの近傍にいる視聴者の数や位置に変化があった場合、動作パターン選択部104は、新たな状況に応じて、動作パターン記憶部112から動作パターンを選択しなおす。また、視聴者状況把握部102は、アクティブ視聴者を検出すると、動作パターン記憶部112を参照して、そのときに選択されている動作パターンにおいてアクティブ視聴者優遇の設定がされているか否かを判断する。アクティブ視聴者優遇の設定がされている場合、動作パターン選択部104は、アクティブ視聴者優遇用の動作パターンを選択しなおすことができる。   Note that the viewer status acquisition unit 101 periodically acquires the status of surrounding viewers even while the content playback unit 110 issues a command. The viewer situation grasping unit 102 analyzes the data obtained by the viewer situation obtaining unit 101, and detects the number of viewers in the vicinity of the robot and the change in the position of those viewers with respect to the robot. When there is a change in the number or position of viewers in the vicinity of the robot due to movement of the robot or movement of the viewer, the motion pattern selection unit 104 operates from the motion pattern storage unit 112 according to a new situation. Reselect the pattern. Also, when the viewer status grasping unit 102 detects an active viewer, the viewer status grasping unit 102 refers to the operation pattern storage unit 112 to determine whether or not the active viewer preferential setting is set in the operation pattern selected at that time. to decide. When the active viewer preferential setting is set, the operation pattern selection unit 104 can reselect an active viewer preferential operation pattern.

図5は、視聴者状況記憶部116の内部構成の一例を示す図である。
視聴者状況記憶部116は、時刻欄、動作パターン欄、近傍欄、および変化欄を含む。
たとえば、12:35にはロボットの近傍に視聴者aおよび視聴者bがいることが把握されている。このとき、動作パターン「001」が選択される。つづいて、12:36にはロボットの近傍に視聴者a、視聴者b、および視聴者cがいることが把握されている。ここで、前回の記録から、新規視聴者Nとして、変化欄にN(c)が記憶される。このとき、動作パターンは「001」のまま変化しない。次に、12:37にはロボットの近傍に視聴者bおよび視聴者cがいることが把握されている。ここで、視聴者bはロボットの近傍に2分以上いるので、長時間視聴者Lであると把握され、変化欄にL(b)が記憶される。ここで、図4を参照すると、動作パターン「001」が選択されている場合、2分以上ロボットの近傍にいる長時間視聴者がいる場合、動作パターンが「L001」に移行することが設定されている。そのため、動作パターンが「L001」に移行する。
FIG. 5 is a diagram illustrating an example of the internal configuration of the viewer status storage unit 116.
The viewer status storage unit 116 includes a time field, an action pattern field, a neighborhood field, and a change field.
For example, it is known that the viewer a and the viewer b are in the vicinity of the robot at 12:35. At this time, the operation pattern “001” is selected. Subsequently, at 12:36, it is recognized that there are a viewer a, a viewer b, and a viewer c near the robot. Here, N (c) is stored in the change column as the new viewer N from the previous record. At this time, the operation pattern remains “001” and does not change. Next, at 12:37, it is recognized that there are viewers b and viewers c near the robot. Here, since the viewer b is in the vicinity of the robot for 2 minutes or longer, it is recognized that the viewer b is the viewer L for a long time, and L (b) is stored in the change column. Here, referring to FIG. 4, when the motion pattern “001” is selected, the motion pattern is set to shift to “L001” when there is a long-time viewer who is in the vicinity of the robot for 2 minutes or more. ing. Therefore, the operation pattern shifts to “L001”.

また、以上の実施の形態においては、シナリオ記憶部114に記憶されたシナリオに、動作パターンの番号と、ロボットの近傍にいる視聴者の数の範囲とが対応付けて記述された例を示した。他の例において、シナリオに記述するのではなく、動作パターン記憶部112に、ロボットが近傍にいる視聴者に対して行う動作パターンと、近傍にいる視聴者の数の範囲とを対応付けて記憶することもできる。   In the above embodiment, an example is described in which a scenario stored in the scenario storage unit 114 is described in association with a motion pattern number and a range of the number of viewers near the robot. . In another example, instead of describing the scenario, the motion pattern storage unit 112 stores the motion pattern performed on the viewers in the vicinity of the robot in association with the range of the number of viewers in the vicinity. You can also

また、動作パターン記憶部112は、ロボットの近傍にいる視聴者の数や位置だけでなく、説明が行われている場所、時間帯、これまでの視聴者の増減状況等に対応づけて複数の動作パターンを記憶することができる。たとえば、ロボット近傍の視聴者の数が同じでも、場所や時間帯等に対応づけて、異なる動作パターンを記憶することができる。   In addition, the motion pattern storage unit 112 is not limited to the number and position of viewers in the vicinity of the robot. The operation pattern can be stored. For example, even if the number of viewers near the robot is the same, different operation patterns can be stored in association with places, time zones, and the like.

図6は、本実施の形態におけるロボット制御システム100の処理手順を示すフローチャートである。
まず、ロボットが初期化され、プログラムがスタートすると、シナリオ読込部106は、シナリオ記憶部114からシナリオを読み込む(S100)。どのシナリオを読み込むかは、設定またはユーザの指示に基づき決定される。
FIG. 6 is a flowchart showing a processing procedure of the robot control system 100 in the present embodiment.
First, when the robot is initialized and the program is started, the scenario reading unit 106 reads a scenario from the scenario storage unit 114 (S100). Which scenario is read is determined based on settings or user instructions.

つづいて、視聴者状況取得部101は、視聴者状況を取得する(S102)。視聴者状況把握部102は、視聴者状況取得部101が取得した視聴者状況に基づき、ロボットの近傍にいる視聴者の数および位置を把握する(S104)。視聴者状況把握部102は、把握した情報を視聴者状況記憶部116に記憶する。また、視聴者状況把握部102は、視聴者状況記憶部116を参照し、視聴者の数や位置に変化があったか否かを判断する(S106)。視聴者の数や位置に変化があった場合(S106のYES)、視聴者状況把握部102は、把握した視聴者の数および位置を時間に対応付けて視聴者状況記憶部116に記憶する(S108)。動作パターン選択部104は、視聴者状況把握部102が把握した視聴者の数およびシナリオ読込部106が読み込んだシナリオに基づき、動作パターン記憶部112から動作パターンを選択する(S110)。   Subsequently, the viewer status acquisition unit 101 acquires the viewer status (S102). The viewer status grasping unit 102 grasps the number and positions of viewers in the vicinity of the robot based on the viewer status acquired by the viewer status acquiring unit 101 (S104). The viewer status grasping unit 102 stores the grasped information in the viewer status storage unit 116. Further, the viewer status grasping unit 102 refers to the viewer status storage unit 116 and determines whether or not there is a change in the number or position of viewers (S106). When there is a change in the number or position of viewers (YES in S106), the viewer status grasping unit 102 stores the grasped number and location of viewers in the viewer status storage unit 116 in association with time (see FIG. S108). The operation pattern selection unit 104 selects an operation pattern from the operation pattern storage unit 112 based on the number of viewers grasped by the viewer state grasping unit 102 and the scenario read by the scenario reading unit 106 (S110).

つづいて、シナリオ読込部106は、シナリオのコマンドを解釈して(S112)、視線制御がオンか否かを判断する(S114)。ステップS106で変化がない場合(S106のNO)、そのままステップS112に進む。ステップS114で視線制御がオンの場合(S114のYES)、シナリオ読込部106は、視線モーション生成部108に通知を行う。視線モーション生成部108は、視聴者状況記憶部116を参照して、視聴者の数、位置等を取得する。つづいて、視線モーション生成部108は、動作パターン選択部104が選択した動作パターン、視聴者の数、および位置に基づき、視線モーションを生成する(S116)。コンテンツ再生部110は、シナリオ読込部106の指示に基づき、コンテンツ記憶部118から該当するコンテンツデータを読み出し再生するとともに、視線モーション生成部108により視線モーションが生成された場合は、その視線モーションも再生する(S118)。ステップS114で視線制御がオンでない場合(S114のNO)、そのままステップS118に進む。   Subsequently, the scenario reading unit 106 interprets the scenario command (S112) and determines whether or not the line-of-sight control is on (S114). If there is no change in step S106 (NO in S106), the process directly proceeds to step S112. When the line-of-sight control is on in step S114 (YES in S114), the scenario reading unit 106 notifies the line-of-sight motion generation unit 108. The line-of-sight motion generation unit 108 refers to the viewer status storage unit 116 and acquires the number of viewers, positions, and the like. Subsequently, the line-of-sight motion generation unit 108 generates a line-of-sight motion based on the motion pattern selected by the motion pattern selection unit 104, the number of viewers, and the position (S116). The content reproduction unit 110 reads out and reproduces the corresponding content data from the content storage unit 118 based on an instruction from the scenario reading unit 106, and also reproduces the line-of-sight motion when the line-of-sight motion generation unit 108 generates the line-of-sight motion. (S118). If the line-of-sight control is not on in step S114 (NO in S114), the process proceeds directly to step S118.

図示しない制御部は、シナリオ読込部106が読み込んだシナリオが終了したか否かを判断し(S120)、シナリオが終了していない場合は、ステップS102に戻り、視聴者の状況を取得する。ステップS120において、シナリオが終了したと判断された場合(S120のYES)、次のシナリオを読み込むか否かを判断し(S122)、次のシナリオを読み込む場合(S122のYES)、ステップS100に戻り、新たなシナリオを読み込む。一方、ステップS122において、次のシナリオを読み込まない場合(S122のNO)、処理を終了する。   A control unit (not shown) determines whether or not the scenario read by the scenario reading unit 106 has ended (S120). If the scenario has not ended, the process returns to step S102 to acquire the viewer's situation. If it is determined in step S120 that the scenario has been completed (YES in S120), it is determined whether or not the next scenario is to be read (S122). If the next scenario is to be read (YES in S122), the process returns to step S100. Load a new scenario. On the other hand, if the next scenario is not read in step S122 (NO in S122), the process ends.

以上のように、本実施の形態におけるロボット制御システム100によれば、ロボットの近傍や周囲にいる視聴者の数に応じて、ロボットが説明を行う際に、ロボットが視聴者に適切なアイコンタクトを行うようにすることができる。これにより、ロボットの説明が視聴者の印象に残るようにすることができる。   As described above, according to the robot control system 100 according to the present embodiment, when the robot makes an explanation according to the number of viewers near or around the robot, the robot makes appropriate eye contact with the viewer. Can be done. As a result, the description of the robot can remain in the viewer's impression.

(第2の実施の形態)
本実施の形態において、ロボット制御システムは、第1の実施の形態と同様、ロボットの近傍にいる視聴者の数や位置に応じて、ロボットが音声出力による説明を行う際に、音声出力とともに、ロボットが視聴者に対して行う動作パターンを選択する。さらにそれに加えて、ロボット制御システムは、ロボットが実行した動作パターンに対する視聴者の反響を考慮し、反響の高い動作パターンを優先的に選択する。本実施の形態においても、動作パターンは、視線動作パターンとすることができる。
(Second Embodiment)
In the present embodiment, as in the first embodiment, the robot control system, along with the voice output, when the robot performs explanation by voice output according to the number and positions of viewers in the vicinity of the robot, The operation pattern that the robot performs for the viewer is selected. In addition to this, the robot control system preferentially selects an operation pattern with high reverberation in consideration of the viewer's reverberation with respect to the operation pattern executed by the robot. Also in the present embodiment, the motion pattern can be a line-of-sight motion pattern.

図7は、本実施の形態におけるロボット制御システム100の構成を示すブロック図である。
本実施の形態において、ロボット制御システム100は、第1の実施の形態で説明した構成に加え、さらに反響取得部132、反響集計部134、および反響記憶部142を含む。
FIG. 7 is a block diagram showing the configuration of the robot control system 100 in the present embodiment.
In the present embodiment, the robot control system 100 further includes an echo acquisition unit 132, an echo totaling unit 134, and an echo storage unit 142 in addition to the configuration described in the first embodiment.

反響取得部132は、ロボットが実行した動作パターンに対する視聴者の反響を、動作パターンを示す情報に対応付けて取得する。ここで、反響とは、たとえば集客効率や販売効率、視聴者の理解度の高低等とすることができる。反響集計部134は、反響取得部132が取得した反響を動作パターン毎に集計する。反響取得部132が取得した反響、および反響集計部134が集計した結果は、反響記憶部142に記憶される。   The echo acquisition unit 132 acquires the viewer's echo for the motion pattern executed by the robot in association with information indicating the motion pattern. Here, the reverberation can be, for example, customer collection efficiency, sales efficiency, and the level of understanding of the viewer. The echo tabulation unit 134 tabulates the echoes acquired by the echo acquisition unit 132 for each operation pattern. The echo acquired by the echo acquisition unit 132 and the result totaled by the echo totaling unit 134 are stored in the echo storage unit 142.

本実施の形態において、動作パターン選択部104は、反響集計部134が集計した結果に基づき、複数の動作パターンの反響を比較し、反響の高い動作パターンをロボットが実行する動作パターンとして選択する。   In the present embodiment, the motion pattern selection unit 104 compares the echoes of a plurality of motion patterns based on the results tabulated by the echo tabulation unit 134, and selects a motion pattern with a high echo as the motion pattern to be executed by the robot.

反響取得部132は、たとえば音声認識により、ロボット近傍にいる視聴者の反響を取得する。反響は、たとえば視聴者の理解度とすることができる。たとえば、ロボットに近傍にいる視聴者に質問させ、質問に対する回答を音声認識することにより、その視聴者がどの程度ロボットの説明を理解しているか等の情報を取得する。   The echo acquisition unit 132 acquires the echo of a viewer near the robot, for example, by voice recognition. The response can be, for example, a viewer's level of understanding. For example, by causing a viewer in the vicinity of the robot to ask a question and recognizing an answer to the question by voice, information such as how much the viewer understands the explanation of the robot is acquired.

また、反響取得部132は、視聴者状況把握部102が把握した視聴者状況に基づき、ロボットがどの動作パターンの説明をしたときにどの程度の視聴者が集まったか等の情報も取得する。さらに、たとえば、ロボットに、周囲にいる視聴者に対して「○○のお店に行ってね」等の約束を行わせることができる。ロボットは、握手、指きり、対話等により、視聴者と約束することができる。反響取得部132は、ロボットが何人の視聴者と約束したか、またロボットと約束をした視聴者のうち何人がその約束を実行したか等の情報も取得する。   The echo acquisition unit 132 also acquires information such as how many viewers gathered when the robot explained the operation pattern based on the viewer situation grasped by the viewer situation grasping unit 102. Further, for example, the robot can make a promise such as “Please go to the shop of XX” for the viewers around. The robot can promise to the viewer by shaking hands, fingering, dialogue, etc. The echo acquisition unit 132 also acquires information such as how many viewers the robot has promised and how many of the viewers who have promised the robot have executed the promise.

また、ロボットは、約束をする際に、約束した視聴者を何らかの手法で識別することができる。たとえば、ロボットがテーマパーク内に配置される場合、視聴者に入場券を提示させ、入場券の整理番号等により、視聴者を識別することができる。また、たとえば約束した視聴者に識別情報を付したカード等を渡し、その識別情報を記憶しておくこともできる。さらに、視聴者の顔画像を取得することもできる。   Further, when making a promise, the robot can identify the promised viewer by some method. For example, when the robot is arranged in a theme park, the viewer can be presented with an admission ticket, and the viewer can be identified by the reference number of the admission ticket. Further, for example, a card or the like with identification information can be given to the promised viewer and the identification information can be stored. Furthermore, a viewer's face image can also be acquired.

また、反響取得部132は、ネットワークと通信可能に構成することができ、ネットワークを介して、他の端末から情報を取得することができる。たとえば、店舗に設置された端末から、商品を購入した人の情報が反響取得部132に送信されるようにすることができる。これにより、反響取得部132は、たとえば約束をした視聴者が実際に商品を購入した場合に、それを把握することができる。反響取得部132は、取得した情報を反響記憶部142に記憶する。   The echo acquisition unit 132 can be configured to be able to communicate with a network, and can acquire information from other terminals via the network. For example, information of a person who purchased a product can be transmitted to the echo acquisition unit 132 from a terminal installed in a store. Thereby, the echo acquisition part 132 can grasp | ascertain it, for example, when the viewer who promised actually purchased goods. The echo acquisition unit 132 stores the acquired information in the echo storage unit 142.

図8は、反響記憶部142の内部構成を示す図である。
反響記憶部142は、動作パターン欄、周囲欄、約束欄、購入欄、反響率欄等を含む。ここで、動作パターン欄には、動作パターン選択部104が選択した動作パターンの識別情報が記憶される。周囲欄には、その動作パターンの説明が行われている際に、どの程度の視聴者がロボットの周囲に集まっていたかが記憶される。約束欄には、その動作パターンの説明が行われている際に、どの程度の視聴者がロボットと約束をしたかが記憶される。また、購入欄には、その動作パターンの説明を聞いた視聴者のうち、どの程度の視聴者が商品を購入したかが記憶される。
FIG. 8 is a diagram illustrating an internal configuration of the echo memory unit 142.
The echo storage unit 142 includes an operation pattern column, a surrounding column, a promise column, a purchase column, an echo rate column, and the like. Here, in the operation pattern column, identification information of the operation pattern selected by the operation pattern selection unit 104 is stored. The perimeter column stores how many viewers are gathered around the robot when the operation pattern is being explained. The promise column stores how many viewers have promised the robot when the operation pattern is being explained. Also, the purchase column stores how many viewers who have purchased the product among the viewers who have heard the explanation of the operation pattern.

たとえば、動作パターン「001」の説明が行われていた際に、周囲には視聴者が30人集まり、約束をした視聴者が10人、購入をした視聴者が6人と記憶されている。また、動作パターン「002」の説明が行われていた際に、周囲には視聴者が10人集まり、約束をした視聴者が1人、購入した視聴者が0人と記憶されている。   For example, when the explanation of the operation pattern “001” is performed, 30 viewers gather around, 10 viewers who have made a promise, and 6 viewers who have made a purchase are stored. In addition, when the operation pattern “002” is described, 10 viewers are gathered in the surrounding area, and one promised viewer is stored and 0 purchased viewers are stored.

反響集計部134は、これらの情報に基づき、反響を集計し、反響率を算出する。ここでは、動作パターン「001」の反響率は「○」で、動作パターン「002」の反響率「△」よりも高くなっている。つまり、動作パターン「001」で説明を行った方が、動作パターン「002」で説明を行った場合よりも、反響率が高くなることが推定される。動作パターン選択部104は、反響集計部134の集計結果に基づき、より反響率が高くなるような動作パターンを優先的に選択する。   Based on these pieces of information, the echo tabulation unit 134 tabulates echoes and calculates an echo rate. Here, the echo rate of the motion pattern “001” is “◯”, which is higher than the echo rate “Δ” of the motion pattern “002”. That is, it is estimated that the reverberation rate is higher when the description is made with the operation pattern “001” than when the description is made with the operation pattern “002”. The operation pattern selection unit 104 preferentially selects an operation pattern with a higher echo rate based on the counting result of the echo counting unit 134.

本実施の形態におけるロボット制御システム100においても、第1の実施の形態におけるロボット制御システム100と同様の効果が得られる。さらに、本実施の形態において、視聴者の反響に応じて動作パターンが選択されるので、ロボットの説明を効果的に行うことができる。   Also in the robot control system 100 according to the present embodiment, the same effects as the robot control system 100 according to the first embodiment can be obtained. Further, in the present embodiment, since the operation pattern is selected according to the viewer's response, the robot can be explained effectively.

(第3の実施の形態)
本実施の形態において、ロボット制御システム100は、第2の実施の形態と同様、ロボットが実行した動作パターンに対する視聴者の反響を考慮し、反響の高い動作パターンを優先的に選択する。なお、本実施の形態において、ロボット制御システム100は、複数のロボットが実行した動作パターンに対する視聴者の反響に基づき、反響の高い動作パターンを選択する。これにより、より効果的な動作パターンを、精度よく選択することができる。本実施の形態においても、動作パターンは、視線動作パターンとすることができる。
(Third embodiment)
In the present embodiment, similarly to the second embodiment, the robot control system 100 preferentially selects an operation pattern with high reverberation in consideration of the viewer's reverberation with respect to the operation pattern executed by the robot. In the present embodiment, the robot control system 100 selects an operation pattern with a high response based on the viewer's response to an operation pattern executed by a plurality of robots. Thereby, a more effective operation pattern can be selected with high accuracy. Also in the present embodiment, the motion pattern can be a line-of-sight motion pattern.

図9は、本実施の形態におけるロボット制御システム100の構成を示すブロック図である。
ロボット制御システム100は、複数のロボット制御装置100aおよび100b、ならびに動作パターン選択装置300がネットワーク400を介して接続された構成を有する。ロボット制御装置100aおよびロボット制御装置100bは、それぞれロボット装置に組み込まれ、各ロボット装置を制御する。
FIG. 9 is a block diagram showing a configuration of the robot control system 100 in the present embodiment.
The robot control system 100 has a configuration in which a plurality of robot control devices 100 a and 100 b and an operation pattern selection device 300 are connected via a network 400. The robot control device 100a and the robot control device 100b are each incorporated in the robot device and control each robot device.

ネットワーク400は、無線LANや携帯電話等の各種無線環境、LANやWANや電話回線等の各種有線環境、または共有メモリにより実現できる。   The network 400 can be realized by various wireless environments such as a wireless LAN and a mobile phone, various wired environments such as a LAN, a WAN, and a telephone line, or a shared memory.

ロボット制御装置100aおよびロボット制御装置100bは、同様の構成を有するため、ここではロボット制御装置100aについて説明する。ロボット制御装置100aは、第2の実施の形態において図7を参照して説明したロボット制御システム100とほぼ同様の構成を有する。   Since the robot control device 100a and the robot control device 100b have the same configuration, only the robot control device 100a will be described here. The robot control apparatus 100a has substantially the same configuration as the robot control system 100 described with reference to FIG. 7 in the second embodiment.

ロボット制御装置100aは、送受信部140をさらに含む。また、ロボット制御装置100aは、反響集計部134を有しない構成とすることができる。なお、ここではロボット制御装置100aが視聴者状況取得部101を含む構成を図示しているが、ロボット制御装置100aは、視聴者状況取得部101を含まず、ロボット制御装置100a外部に設けられた視聴者状況取得部101からの情報を送受信部140を介して取得するようにすることもできる。   The robot control apparatus 100a further includes a transmission / reception unit 140. Moreover, the robot control apparatus 100a can be configured not to include the echo totaling unit 134. Here, the configuration in which the robot control device 100a includes the viewer status acquisition unit 101 is illustrated, but the robot control device 100a does not include the viewer status acquisition unit 101 and is provided outside the robot control device 100a. Information from the viewer status acquisition unit 101 can also be acquired via the transmission / reception unit 140.

動作パターン選択装置300は、複数のロボット制御装置100aおよび100b等から各ロボットが実行した動作パターンに対する視聴者の反響を、動作パターンを示す情報に対応付けて取得する。動作パターン選択装置300は、これらを集計して、最も反響の高い動作パターンを選択して、各ロボット制御装置100aおよび100bにフィードバックする。各ロボット制御装置100aおよび100bにおいて、動作パターン選択装置300により選択された動作パターンをロボットに実行させることにより、ロボットが効果的な説明を行うようにすることができる。   The motion pattern selection device 300 acquires the viewer's response to the motion pattern executed by each robot from a plurality of robot control devices 100a and 100b in association with information indicating the motion pattern. The motion pattern selection device 300 counts these, selects the motion pattern with the highest response, and feeds it back to the robot control devices 100a and 100b. In each of the robot control devices 100a and 100b, the robot can perform an effective explanation by causing the robot to execute the motion pattern selected by the motion pattern selection device 300.

動作パターン選択装置300は、送受信部302と、反響取得部304と、反響集計部306と、動作パターン選択部308と、反響記憶部310とを記憶する。送受信部302は、ネットワーク400を介して他の端末とデータの送受信を行う。反響取得部304は、送受信部302を介して、各ロボットが実行した動作パターンに対する視聴者の反響を、動作パターンを示す情報に対応付けて取得する。反響集計部306は、反響取得部304が取得した反響を動作パターン毎に集計する。反響取得部304が取得した反響、および反響集計部306が集計した結果は、反響記憶部310に記憶される。動作パターン選択部308は、反響集計部306が集計した結果に基づき、複数の動作パターンの反響を比較し、反響の高い動作パターンを各ロボットが実行する動作パターンとして選択する。動作パターン選択部308は、送受信部302を介して、ロボット制御装置100aおよび100b等に、選択した動作パターンを通知する。ロボット制御装置100a等において、反響取得部132は、送受信部140を介して動作パターン選択装置300から選択された動作パターンを取得し、動作パターン選択部104に通知する。動作パターン選択部104は、動作パターン選択装置300により選択された反響の高い動作パターンを優先的に選択することができる。   The operation pattern selection device 300 stores a transmission / reception unit 302, an echo acquisition unit 304, an echo totaling unit 306, an operation pattern selection unit 308, and an echo storage unit 310. The transmission / reception unit 302 transmits / receives data to / from other terminals via the network 400. The echo acquisition unit 304 acquires, via the transmission / reception unit 302, the viewer's echo for the motion pattern executed by each robot in association with information indicating the motion pattern. The echo tabulation unit 306 tabulates the echoes acquired by the echo acquisition unit 304 for each operation pattern. The echo acquired by the echo acquisition unit 304 and the result totaled by the echo totaling unit 306 are stored in the echo storage unit 310. The motion pattern selection unit 308 compares the echoes of a plurality of motion patterns based on the results counted by the echo tabulation unit 306, and selects a motion pattern having a high echo as a motion pattern to be executed by each robot. The operation pattern selection unit 308 notifies the selected operation pattern to the robot control devices 100a and 100b via the transmission / reception unit 302. In the robot control device 100a and the like, the echo acquisition unit 132 acquires the motion pattern selected from the motion pattern selection device 300 via the transmission / reception unit 140 and notifies the motion pattern selection unit 104 of the motion pattern. The operation pattern selection unit 104 can preferentially select an operation pattern with a high response selected by the operation pattern selection device 300.

また、ロボットが宣伝を行う場合、宣伝する商品を販売している店舗の店舗端末402もネットワーク400に接続することができる。反響取得部304は、送受信部302を介して、このような店舗端末402等からも、視聴者が商品を購入したか否か等の情報を取得する。また、他の例として、ロボット制御装置100aの反響取得部132が送受信部302を介して、このような店舗端末402等から、視聴者が商品を購入したか否か等の情報を取得し、それらを動作パターン選択装置300に送信するようにすることもできる。   When the robot advertises, the store terminal 402 of the store selling the advertised product can also be connected to the network 400. The echo acquisition unit 304 acquires information such as whether or not the viewer has purchased the product from the store terminal 402 or the like via the transmission / reception unit 302. As another example, the echo acquisition unit 132 of the robot control apparatus 100a acquires information such as whether or not a viewer has purchased a product from the store terminal 402 or the like via the transmission / reception unit 302, They can be transmitted to the operation pattern selection apparatus 300.

動作パターン選択装置300は、ロボット装置外部のサーバとすることもできるが、たとえば複数のロボット装置のいずれかに組み込まれた構成とすることもできる。たとえば、ロボット制御装置100aが動作パターン選択装置300の機能も兼ね備え、他のロボット制御装置100b等から、各ロボットが実行した動作パターンに対する視聴者の反響を、動作パターンを示す情報に対応付けて取得するようにすることもできる。   The motion pattern selection device 300 can be a server outside the robot device, but can also be configured to be incorporated in any of a plurality of robot devices, for example. For example, the robot control device 100a also has the function of the motion pattern selection device 300, and the viewer's response to the motion pattern executed by each robot is acquired from another robot control device 100b or the like in association with information indicating the motion pattern. You can also do it.

このようにすれば、いずれかのロボットにおいて効果的だった動作パターンを他のロボットにも実行させることができ、ロボットにより効果的な説明を実行させることができる。   In this way, it is possible to cause other robots to execute an action pattern that is effective in any of the robots, and it is possible to execute an effective explanation by the robot.

また、反響取得部304は、各ロボットが説明を行った時間や位置等も、反響および動作パターンに対応付けて取得することができる。反響取得部304は、これらの情報を反響記憶部310に記憶する。動作パターン選択部308は、各ロボットに実行させる動作パターンを選択する際に、各ロボットが説明を行う時間や位置も考慮して、動作パターンを選択する。これにより、動作パターン選択部308は、各ロボットにその場に即した略リアルタイムな指示を行うことができる。   The echo acquisition unit 304 can also acquire the time, position, and the like described by each robot in association with the echo and the motion pattern. The echo acquisition unit 304 stores these pieces of information in the echo storage unit 310. When selecting an operation pattern to be executed by each robot, the operation pattern selection unit 308 selects an operation pattern in consideration of the time and position to be explained by each robot. As a result, the operation pattern selection unit 308 can give each robot a substantially real-time instruction in accordance with the situation.

さらに、動作パターン選択部308は、複数のロボットに説明をさせる際、複数のロボットの配置関係に応じて、各ロボットに実行させる動作パターンを選択することができる。たとえば、あるロボットに大人数を対象とする説明をさせるとともに、その周囲に丁寧な説明をするロボットを配置するようにすることもできる。   Furthermore, the operation pattern selection unit 308 can select an operation pattern to be executed by each robot according to the arrangement relationship of the plurality of robots when the plurality of robots are explained. For example, a robot can be explained for a large number of people, and a robot that gives a careful explanation can be arranged around it.

本実施の形態におけるロボット制御システム100においても、第1および第2の実施の形態におけるロボット制御システム100と同様の効果が得られる。さらに、本実施の形態において、ロボットの説明をより効果的に行うことができる。   Also in the robot control system 100 according to the present embodiment, the same effect as the robot control system 100 according to the first and second embodiments can be obtained. Furthermore, in this embodiment, the robot can be explained more effectively.

(ロボット装置)
以上の実施の形態で説明したロボットの一例を説明する。以上の実施の形態で説明したロボット制御システム100、およびロボット制御装置100a(および100b)は、ロボット装置に組み込まれ、ロボット装置を制御する構成とすることができる。また、他の例において、以上の実施の形態で説明したロボット制御システム100、およびロボット制御装置100a(および100b)は、ロボット装置の外部に設けられ、各ロボット装置を制御する構成とすることもできる。
(Robot device)
An example of the robot described in the above embodiment will be described. The robot control system 100 and the robot control apparatus 100a (and 100b) described in the above embodiment can be configured to be incorporated in the robot apparatus and control the robot apparatus. In another example, the robot control system 100 and the robot control device 100a (and 100b) described in the above embodiment may be provided outside the robot device to control each robot device. it can.

図10は、ロボット装置200の電気的構成の一例を示すブロック図である。
ロボット装置200は、胴体部201および頭部202を含む。胴体部201には、ロボット装置全体の制御を行うコントローラ210、ロボット装置200の動力源となるバッテリ211、スピーカ212、マイクロフォン213、2つの車輪を動かすためのアクチュエータ214Aおよびアクチュエータ214B、および通信インターフェース224等が収納される。
FIG. 10 is a block diagram illustrating an example of an electrical configuration of the robot apparatus 200.
The robot apparatus 200 includes a body part 201 and a head part 202. The body unit 201 includes a controller 210 that controls the entire robot apparatus, a battery 211 that is a power source of the robot apparatus 200, a speaker 212, a microphone 213, an actuator 214A and an actuator 214B for moving two wheels, and a communication interface 224. Etc. are stored.

マイクロフォン213は、周囲の音声を集音し、得られた音声データをコントローラ210に送出する。   The microphone 213 collects surrounding sounds and sends the obtained sound data to the controller 210.

コントローラ210は、CPU210Aやメモリ210Bを内蔵しており、CPU210Aにおいて、メモリ210Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。   The controller 210 includes a CPU 210A and a memory 210B. The CPU 210A executes various processes by executing a control program stored in the memory 210B.

通信インターフェース224は、ネットワーク400等のネットワークを介して、他の端末との間で通信を行う。第3の実施の形態で説明した送受信部140は、たとえば、通信インターフェース224により構成することができる。   The communication interface 224 performs communication with other terminals via a network such as the network 400. The transmission / reception unit 140 described in the third embodiment can be configured by the communication interface 224, for example.

頭部202には、CCDカメラ221AおよびCCDカメラ221B、ならびに頭部202を回転するためのアクチュエータ222Aおよびアクチュエータ222B等が収納される。CCDカメラ221A、CCDカメラ221B、アクチュエータ222A、アクチュエータ222B、バッテリ211、スピーカ212、マイクロフォン213、アクチュエータ214A、アクチュエータ214B、および通信インターフェース224等がロボットの動作を実行する動作実行部として機能する。   The head 202 contains a CCD camera 221A and a CCD camera 221B, and an actuator 222A and an actuator 222B for rotating the head 202. The CCD camera 221A, the CCD camera 221B, the actuator 222A, the actuator 222B, the battery 211, the speaker 212, the microphone 213, the actuator 214A, the actuator 214B, the communication interface 224, and the like function as an operation execution unit that executes the operation of the robot.

CCDカメラ221AおよびCCDカメラ221Bは、周囲の状況を撮像し、得られた画像データを、コントローラ210に送出する。第1〜第3の実施の形態で説明した視聴者状況取得部101は、たとえば、CCDカメラ221AやCCDカメラ221Bにより構成することができる。   The CCD camera 221 </ b> A and the CCD camera 221 </ b> B image the surrounding situation and send the obtained image data to the controller 210. The viewer status acquisition unit 101 described in the first to third embodiments can be configured by, for example, a CCD camera 221A or a CCD camera 221B.

アクチュエータ222Aおよびアクチュエータ222Bは、ロボット装置200の頭部202を上下左右に回転させる。   The actuator 222A and the actuator 222B rotate the head 202 of the robot apparatus 200 vertically and horizontally.

コントローラ210は、マイクロフォン213や通信インターフェース224を介して得られる音声データやCCDカメラ221AおよびCCDカメラ221Bから得られる画像データに基づいて、メモリ210Bから適宜情報を読み出し、周囲の状況を取得する。ロボット制御システム100やロボット制御装置100a(または100b)がロボット装置200内に組み込まれる場合、ロボット制御システム100やロボット制御装置100a(または100b)の各機能は、コントローラ210により実現することができる。   The controller 210 appropriately reads information from the memory 210B based on audio data obtained via the microphone 213 and the communication interface 224 and image data obtained from the CCD camera 221A and the CCD camera 221B, and acquires the surrounding conditions. When the robot control system 100 and the robot control apparatus 100a (or 100b) are incorporated in the robot apparatus 200, each function of the robot control system 100 and the robot control apparatus 100a (or 100b) can be realized by the controller 210.

コントローラ210は、アクチュエータ214A、アクチュエータ214B、アクチュエータ222A、およびアクチュエータ222B等を制御してロボット装置200に決定した動作を実行させる。また、コントローラ210は、合成音を生成し、スピーカ212に供給して、ロボット装置200に決定した発話を出力させる。   The controller 210 controls the actuator 214A, the actuator 214B, the actuator 222A, the actuator 222B, and the like to cause the robot device 200 to execute the determined operation. In addition, the controller 210 generates a synthesized sound, supplies the synthesized sound to the speaker 212, and causes the robot apparatus 200 to output the determined utterance.

なお、ここでは図示してないが、ロボット装置200は、アーム部およびそれを駆動するアクチュエータを含む構成とすることもでき、コントローラ210によりアーム部を駆動するアクチュエータを制御して、ロボット装置200に指切りや握手等をさせることもできる。   Although not shown here, the robot apparatus 200 may include an arm unit and an actuator that drives the arm unit. The controller 210 controls the actuator that drives the arm unit to control the robot apparatus 200. It can also be used for finger cutting and shaking hands.

ロボットは、図10に示したようなロボット装置200とすることもできるが、たとえばキャラクタで示される仮想ロボットとすることもできる。この場合、仮想ロボットはモニタ等に表示して実現することができる。ロボットが仮想ロボットの場合、たとえばCGの描画によって仮想ロボットの視線の向きを変更することができる。   The robot can be the robot apparatus 200 as shown in FIG. 10, but can also be a virtual robot shown by a character, for example. In this case, the virtual robot can be realized by displaying it on a monitor or the like. When the robot is a virtual robot, the direction of the line of sight of the virtual robot can be changed by drawing CG, for example.

以上で説明したロボット制御システム100、ロボット制御装置100a(または100b)、および動作パターン選択装置300の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェースを中心にハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。   Each component of the robot control system 100, the robot control device 100a (or 100b), and the operation pattern selection device 300 described above realizes the components of this figure loaded in the CPU, memory, and memory of an arbitrary computer. And a storage unit such as a hard disk for storing the program, and a network connection interface. It will be understood by those skilled in the art that there are various modifications to the implementation method and apparatus.

以上、図面を参照して本発明の実施の形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。   The embodiments of the present invention have been described above with reference to the drawings, but these are exemplifications of the present invention, and various configurations other than those described above can be adopted.

以上の実施の形態において、動作パターンが視線動作パターンで、ロボット制御システム100やロボット制御装置100a等が視線モーション生成部108を有する例を説明した。しかし、他の形態において、ロボット制御システム100やロボット制御装置100a等は、視線モーション生成部108に加えて、または視線モーション生成部108の代わりに視線モーション以外のモーションを生成するモーション生成部や、ロボットの発話ファイルの再生を制御する制御部等を設けた構成とすることができる。たとえば、動作パターンは、ロボットの発話速度やロボットの声の大きさ等とすることもできる。上記制御部により、ロボットの発話ファイルの再生を制御することにより、ロボットの発話速度やロボットの声の大きさを調整することができる。たとえば、ロボットの近傍にいる視聴者の数が所定数以下の少ない場合は、ロボットが小さい声でゆっくり説明を行い、ロボットの近傍にいる視聴者の数が所定数より多い場合は、ロボットが大きい声で早口で説明を行うようにすることもできる。   In the above embodiment, the example in which the motion pattern is the line-of-sight motion pattern and the robot control system 100, the robot control device 100a, and the like have the line-of-sight motion generation unit 108 has been described. However, in other forms, the robot control system 100, the robot control apparatus 100a, etc., in addition to the line-of-sight motion generation unit 108, or instead of the line-of-sight motion generation unit 108, a motion generation unit that generates a motion other than the line-of-sight motion, It can be set as the structure which provided the control part etc. which control reproduction | regeneration of the speech file of a robot. For example, the motion pattern can be the speech rate of the robot, the loudness of the robot's voice, or the like. By controlling the reproduction of the utterance file of the robot by the control unit, it is possible to adjust the utterance speed of the robot and the loudness of the robot voice. For example, if the number of viewers in the vicinity of the robot is less than a predetermined number, the robot will explain slowly with a low voice, and if the number of viewers in the vicinity of the robot is larger than the predetermined number, the robot is large You can also give a quick explanation by voice.

また、本発明は、以下の形態も含むことができる。
音声出力可能なロボットを制御するロボット制御システムであって、
前記ロボットが、当該ロボットの近傍にいる視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、
いずれかの前記動作パターンを前記ロボットに実行させる動作処理部と、
前記ロボットが実行した動作パターンに対する前記視聴者の反響を、前記動作パターンを示す情報に対応付けて取得する反響取得部と、
前記反響取得部が取得した前記反響を前記動作パターン毎に集計する反響集計部と、
複数の前記動作パターンの反響を比較し、反響の高い前記動作パターンをロボットが実行する動作パターンとして選択する動作パターン選択部と、
を含み、
前記動作処理部は、前記動作パターン選択部が選択した動作パターンをロボットに実行させるロボット制御システム。
The present invention can also include the following forms.
A robot control system for controlling a robot capable of outputting voice,
An operation pattern storage unit that stores a plurality of operation patterns performed by the robot on viewers in the vicinity of the robot;
An operation processing unit for causing the robot to execute any one of the operation patterns;
An echo acquisition unit that acquires an echo of the viewer with respect to an action pattern executed by the robot in association with information indicating the action pattern;
An echo totaling unit that tabulates the echoes acquired by the echo acquisition unit for each of the operation patterns;
An action pattern selection unit that compares the echoes of a plurality of the action patterns and selects the action pattern having a high echo as an action pattern to be executed by the robot;
Including
The motion processing unit is a robot control system that causes the robot to execute the motion pattern selected by the motion pattern selection unit.

図11は、ロボット制御システムの他の例を示すブロック図である。
ロボット制御システム130は、シナリオ読込部106、コンテンツ再生部110、シナリオ記憶部114、コンテンツ記憶部118、反響取得部132、反響集計部134、動作パターン選択部136、反響記憶部142、動作パターン記憶部144、およびモーション生成部150を含む。
FIG. 11 is a block diagram illustrating another example of the robot control system.
The robot control system 130 includes a scenario reading unit 106, a content reproduction unit 110, a scenario storage unit 114, a content storage unit 118, an echo acquisition unit 132, an echo totaling unit 134, an operation pattern selection unit 136, an echo storage unit 142, and an operation pattern storage. Unit 144 and motion generation unit 150.

ロボット制御システム130は、視聴者状況取得部101、視聴者状況把握部102、および視聴者状況記憶部116を含まない点で、以上の実施の形態で説明したロボット制御システム100と異なる。   The robot control system 130 differs from the robot control system 100 described in the above embodiment in that it does not include the viewer status acquisition unit 101, the viewer status grasping unit 102, and the viewer status storage unit 116.

動作パターン選択部136は、ロボット近傍にいる視聴者の状況にかかわらず、反響集計部134が集計した結果に基づき、複数の動作パターンの反響を比較し、反響の高い動作パターンをロボットが実行する動作パターンとして選択する。モーション生成部150は、ロボットのモーションを生成する。   The motion pattern selection unit 136 compares the echoes of a plurality of motion patterns on the basis of the results counted by the echo tabulation unit 134, regardless of the situation of the viewers in the vicinity of the robot, and the robot executes the motion patterns with high echoes. Select as operation pattern. The motion generation unit 150 generates a robot motion.

図12は、動作パターン記憶部144の内部構成の一例を示す図である。
動作パターン記憶部144は、動作パターン覧、音楽覧、踊り覧、ランプ覧を含む。ここで、踊り覧は、ロボットに説明させる際に、ロボットに踊らせるか否かを記憶する。音楽覧は、ロボットに説明させる際に、音楽を流すか否かを記憶する。ランプ覧は、ロボットに説明させる際に、ロボットのランプを点灯させるか否かを記憶する。たとえば、動作パターン「001」においては、音楽、踊り、ランプのいずれも実行させるように設定されている。
FIG. 12 is a diagram illustrating an example of an internal configuration of the operation pattern storage unit 144.
The operation pattern storage unit 144 includes an operation pattern list, a music view, a dance view, and a ramp view. Here, the dance table stores whether or not the robot is allowed to dance when the robot is explained. The music view stores whether or not to play music when the robot is explained. The lamp list stores whether or not the robot lamp is turned on when the robot is explained. For example, the operation pattern “001” is set to execute any of music, dance, and lamp.

モーション生成部150は、動作パターン選択部136が選択した動作パターンに応じて、ロボットのモーションを生成する。なお、モーション生成部150は、以上の実施の形態で説明した視線モーション生成部108の機能も含む構成とすることができる。また、動作パターン記憶部144は、以上の実施の形態で説明した動作パターン記憶部112と同様の構成を含むこともできる。   The motion generation unit 150 generates a robot motion according to the operation pattern selected by the operation pattern selection unit 136. Note that the motion generation unit 150 may include the function of the line-of-sight motion generation unit 108 described in the above embodiment. Further, the operation pattern storage unit 144 may include the same configuration as the operation pattern storage unit 112 described in the above embodiment.

また、このような形態においても、第3の実施の形態で図9を参照して説明したように、反響集計部134が、複数のロボットが実行した動作パターンに対する視聴者の反響を集計するようにすることができる。これにより、効果的な動作パターンを、精度よく選択することができる。   Also in such a form, as described with reference to FIG. 9 in the third embodiment, the echo totaling unit 134 counts the viewer's echoes for the motion patterns executed by the plurality of robots. Can be. Thereby, an effective operation pattern can be selected with high accuracy.

本発明は、ロボットに発表、案内、宣伝、プレゼンテーション、教育、視聴者とのコミュニケーション等の説明を行わせる際のロボットの制御に用いることができる。   INDUSTRIAL APPLICABILITY The present invention can be used for controlling a robot when making the robot explain presentation, guidance, advertisement, presentation, education, communication with viewers, and the like.

本発明の実施の形態におけるロボット制御システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the robot control system in embodiment of this invention. 視聴者状況把握部が画像認識により視聴者状況を把握する処理を示す図である。It is a figure which shows the process in which a viewer condition grasping | ascertainment part grasps | ascertains a viewer condition by image recognition. シナリオ記憶部に記憶されたシナリオの一例を示す図である。It is a figure which shows an example of the scenario memorize | stored in the scenario memory | storage part. 動作パターン記憶部の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of an operation pattern memory | storage part. 視聴者状況記憶部の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of a viewer condition memory | storage part. 本発明の実施の形態におけるロボット制御システムの処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the robot control system in embodiment of this invention. 本発明の実施の形態におけるロボット制御システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the robot control system in embodiment of this invention. 反響記憶部の内部構成を示す図である。It is a figure which shows the internal structure of an echo memory | storage part. 本発明の実施の形態におけるロボット制御システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the robot control system in embodiment of this invention. ロボットの電気的構成の一例を示すブロック図である。It is a block diagram which shows an example of the electrical structure of a robot. ロボット制御システムの他の例を示すブロック図である。It is a block diagram which shows the other example of a robot control system. 動作パターン記憶部の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of an operation pattern memory | storage part.

符号の説明Explanation of symbols

100 ロボット制御システム
100a ロボット制御装置
100b ロボット制御装置
101 視聴者状況取得部
102 視聴者状況把握部
104 動作パターン選択部
106 シナリオ読込部
108 視線モーション生成部
110 コンテンツ再生部
112 動作パターン記憶部
114 シナリオ記憶部
116 視聴者状況記憶部
118 コンテンツ記憶部
132 反響取得部
134 反響集計部
136 動作パターン選択部
140 送受信部
142 反響記憶部
144 動作パターン記憶部
150 モーション生成部
200 ロボット装置
201 胴体部
202 頭部
203A、203B 車輪
210 コントローラ
210A CPU
210B メモリ
211 バッテリ
212 スピーカ
213 マイクロフォン
214A、214B アクチュエータ
221A、221B CCDカメラ
222A、222B アクチュエータ
224 通信インターフェース
300 動作パターン選択装置
302 送受信部
304 反響取得部
306 反響集計部
308 動作パターン選択部
310 反響記憶部
400 ネットワーク
402 店舗端末
DESCRIPTION OF SYMBOLS 100 Robot control system 100a Robot control apparatus 100b Robot control apparatus 101 Viewer condition acquisition part 102 Viewer condition grasping part 104 Action pattern selection part 106 Scenario reading part 108 Eye-gaze motion generation part 110 Content reproduction part 112 Action pattern storage part 114 Scenario storage Unit 116 viewer status storage unit 118 content storage unit 132 echo acquisition unit 134 echo totaling unit 136 motion pattern selection unit 140 transmission / reception unit 142 echo storage unit 144 motion pattern storage unit 150 motion generation unit 200 robot apparatus 201 trunk unit 202 head 203A , 203B Wheel 210 Controller 210A CPU
210B Memory 211 Battery 212 Speaker 213 Microphone 214A, 214B Actuator 221A, 221B CCD camera 222A, 222B Actuator 224 Communication interface 300 Operation pattern selection device 302 Transmission / reception unit 304 Echo acquisition unit 306 Echo totalization unit 308 Operation pattern selection unit 310 Echo storage unit 400 Network 402 Store terminal

Claims (20)

説明を行うロボットを制御するロボット制御システムであって、
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、
前記視聴者状況把握部が把握した前記視聴者の数に基づき、前記動作パターン記憶部から、いずれかの前記動作パターンを選択する動作パターン選択部と、
前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定部と、
を含み、
前記視聴者状況把握部は、前記視聴者の数の変化を検出し、
前記動作パターン選択部は、前記視聴者状況把握部が前記視聴者の数の変化を検出すると、新たな数に対応する前記動作パターンを選択し、
前記動作決定部は、前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定するロボット制御システム。
A robot control system for controlling a robot that performs explanation,
A viewer status grasping unit for grasping the number of viewers in the vicinity of the robot;
An operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
An operation pattern selection unit that selects any one of the operation patterns from the operation pattern storage unit based on the number of viewers grasped by the viewer status grasping unit;
An operation determining unit that determines an operation of the robot based on the operation pattern selected by the operation pattern selecting unit;
Only including,
The viewer status grasping unit detects a change in the number of viewers,
When the viewer status grasping unit detects a change in the number of viewers, the operation pattern selection unit selects the operation pattern corresponding to a new number,
The operation determining unit is a robot control system that determines an operation of the robot based on the operation pattern selected by the operation pattern selecting unit .
説明を行うロボットを制御するロボット制御システムであって、  A robot control system for controlling a robot that performs explanation,
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、  A viewer status grasping unit for grasping the number of viewers in the vicinity of the robot;
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、  An operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
前記視聴者状況把握部が把握した前記視聴者の数に基づき、前記動作パターン記憶部から、いずれかの前記動作パターンを選択する動作パターン選択部と、  An operation pattern selection unit that selects any one of the operation patterns from the operation pattern storage unit based on the number of viewers grasped by the viewer status grasping unit;
前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定部と、  An operation determining unit that determines an operation of the robot based on the operation pattern selected by the operation pattern selecting unit;
を含み、Including
所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶する設定記憶部をさらに含み、  A setting storage unit for storing a setting as to whether or not a viewer who satisfies a predetermined condition is a special operation target;
前記動作パターン記憶部は、前記所定の条件を満たす視聴者を動作対象とする特別な動作パターンを、前記所定の条件に対応付けて記憶し、  The motion pattern storage unit stores a special motion pattern targeted for a viewer who satisfies the predetermined condition, in association with the predetermined condition,
前記視聴者状況把握部は、前記視聴者の中から前記所定の条件を満たす視聴者を検出し、  The viewer status grasping unit detects a viewer that satisfies the predetermined condition from the viewers,
前記動作パターン選択部は、前記視聴者状況把握部が前記所定の条件を満たす視聴者を検出した場合であって、前記設定記憶部に前記所定の条件を満たす視聴者を前記特別な動作対象とすることが設定されている場合、当該所定の条件に対応する前記特別な動作パターンを選択し、  The operation pattern selection unit is a case where the viewer condition grasping unit detects a viewer who satisfies the predetermined condition, and the viewer who satisfies the predetermined condition is set as the special operation target in the setting storage unit. If it is set to do, select the special operation pattern corresponding to the predetermined condition,
前記所定の条件は、新規前記視聴者が所定数以上把握された場合、または前記ロボットの近傍に所定時間以上いる長時間視聴者が把握された場合であるロボット制御システム。  The predetermined condition is a robot control system in which a predetermined number or more of new viewers are grasped or a long-time viewer in the vicinity of the robot is grasped for a predetermined time or more.
説明を行うロボットを制御するロボット制御システムであって、  A robot control system for controlling a robot that performs explanation,
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、  A viewer status grasping unit for grasping the number of viewers in the vicinity of the robot;
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、  An operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
前記視聴者状況把握部が把握した前記視聴者の数に基づき、前記動作パターン記憶部から、いずれかの前記動作パターンを選択する動作パターン選択部と、  An operation pattern selection unit that selects any one of the operation patterns from the operation pattern storage unit based on the number of viewers grasped by the viewer status grasping unit;
前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定部と、  An operation determining unit that determines an operation of the robot based on the operation pattern selected by the operation pattern selecting unit;
を含み、Including
前記動作パターン記憶部は、前記ロボットが、前記視聴者それぞれを動作対象とする第1の動作パターンと、前記視聴者が所定数よりも多い場合に前記視聴者を前記所定数未満の人数にグループ分けした各グループを動作対象とする第2の動作パターンと、を記憶し、  The motion pattern storage unit is configured to group the viewers into a number less than the predetermined number when the robot has a first motion pattern in which each of the viewers is a motion target and the viewer has more than a predetermined number. Storing a second operation pattern for each divided group as an operation target;
前記動作パターン選択部は、前記視聴者状況把握部が把握した前記視聴者の数が所定数以下の場合に前記第1の動作パターンを選択し、前記数が前記所定数より多い場合に前記第2の動作パターンを選択するロボット制御システム。  The operation pattern selection unit selects the first operation pattern when the number of the viewers grasped by the viewer status grasping unit is a predetermined number or less, and when the number is larger than the predetermined number, the first operation pattern is selected. A robot control system that selects two motion patterns.
請求項1乃至3いずれかに記載のロボット制御システムにおいて、
前記動作パターンは、前記ロボットの前記視聴者への視線を制御する視線動作パターンであって、
前記視聴者状況把握部は、前記視聴者の前記ロボットに対する位置も把握し、
前記動作決定部は、前記視聴者の位置および前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの前記視聴者への視線動作を決定するロボット制御システム。
The robot control system according to any one of claims 1 to 3 ,
The movement pattern is a line-of-sight movement pattern for controlling the line of sight of the robot to the viewer,
The viewer status grasping unit grasps the position of the viewer with respect to the robot,
The motion determining unit is a robot control system that determines a line-of-sight motion of the robot to the viewer based on the position of the viewer and the motion pattern selected by the motion pattern selection unit.
請求項に記載のロボット制御システムにおいて、
前記動作決定部は、前記視聴者の位置および前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの視線を向けるアイコンタクトポイントを決定するロボット制御システム。
The robot control system according to claim 4 , wherein
The motion determination unit is a robot control system that determines an eye contact point for directing a line of sight of the robot based on the position of the viewer and the motion pattern selected by the motion pattern selection unit.
請求項に記載のロボット制御システムにおいて、
前記動作パターンは、前記アイコンタクトポイントに前記ロボットの視線を向ける頻度および当該アイコンタクトポイントに前記ロボットが視線を向ける時間の設定を含み、
前記動作決定部は、前記動作パターン選択部が選択した前記動作パターンに基づき、設定された前記頻度および前記時間通りに前記ロボットの視線を前記アイコンタクトポイントに向ける視線動作を決定するロボット制御システム。
The robot control system according to claim 5 , wherein
The operation pattern includes a setting of a frequency of directing the line of sight of the robot to the eye contact point and a time for the robot to direct the line of sight to the eye contact point,
The motion determining unit is a robot control system that determines a line-of-sight motion that directs the robot's line of sight toward the eye contact point according to the set frequency and the time based on the motion pattern selected by the motion pattern selection unit.
請求項3乃至6いずれかに記載のロボット制御システムにおいて、
前記ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成され、
前記動作決定部は、前記ロボットが前記視線動作を行うように、前記ロボットの前記首、前記胴体、または前記目の一つ以上の動きを決定するロボット制御システム。
The robot control system according to any one of claims 3 to 6 ,
The robot is configured such that at least one of a neck, a torso, or an eye is movable,
The movement determining unit is a robot control system that determines one or more movements of the neck, the trunk, or the eyes of the robot so that the robot performs the line-of-sight movement.
請求項1乃至いずれかに記載のロボット制御システムにおいて、
前記ロボットが実行した前記動作パターンに対する前記視聴者の反響を、前記動作パターンを示す情報に対応付けて取得する反響取得部と、
前記反響取得部が取得した前記反響を前記動作パターン毎に集計する反響集計部と、
をさらに含み、
前記動作パターン選択部は、複数の前記動作パターンの反響を比較し、反響の高い前記動作パターンを前記ロボットが実行する動作パターンとして優先的に選択するロボット制御システム。
The robot control system according to any one of claims 1 to 7 ,
An echo acquisition unit that acquires an echo of the viewer with respect to the motion pattern executed by the robot in association with information indicating the motion pattern;
An echo totaling unit that tabulates the echoes acquired by the echo acquisition unit for each of the operation patterns;
Further including
The motion pattern selection unit is a robot control system that compares echoes of a plurality of motion patterns and preferentially selects the motion pattern with high echoes as the motion pattern to be executed by the robot.
請求項1乃至いずれかに記載のロボット制御システムにおいて、
前記ロボットに再生させる発話ファイルおよびモーションファイルを記憶するコンテンツ記憶部と、
前記コンテンツ記憶部から、指定された前記発話ファイルおよび前記モーションファイルを読み出し、前記ロボットに再生させるコンテンツ再生部と、
をさらに含み、
前記動作決定部は、前記動作パターンに基づき決定する前記動作が、前記コンテンツ再生部が読み出した前記モーションファイルの再生により実行される前記ロボットの動作と矛盾する場合、前記モーションファイルの再生により実行される前記ロボットの動作を優先的に前記ロボットに行わせるロボット制御システム。
The robot control system according to any one of claims 1 to 8 ,
A content storage unit for storing an utterance file and a motion file to be played by the robot;
A content playback unit that reads the specified utterance file and the motion file from the content storage unit and causes the robot to play back the content file,
Further including
The operation determining unit is executed by reproducing the motion file when the operation determined based on the operation pattern is inconsistent with the operation of the robot executed by reproducing the motion file read by the content reproducing unit. A robot control system for causing the robot to preferentially perform the operation of the robot.
請求項1乃至いずれかに記載のロボット制御システムと、
前記動作決定部が決定した前記動作を実行する動作実行部と、
を含むことを特徴とするロボット装置。
A robot control system according to any one of claims 1 to 9 ,
An operation execution unit for executing the operation determined by the operation determination unit;
The robot apparatus characterized by including.
説明を行うロボットを制御するロボット制御方法であって、
前記ロボットの近傍にいる視聴者の数を把握するステップと、
前記視聴者の数を把握するステップで把握された前記視聴者の数に基づき、前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部から、いずれかの前記動作パターンを選択するステップと、
前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの動作を決定するステップと、
を含み、
前記視聴者数を把握するステップにおいて、前記視聴者の数の変化を検出し、
前記動作パターンを選択するステップにおいて、前記視聴者状況把握部が前記視聴者の数の変化を検出すると、新たな数に対応する前記動作パターンを選択し、
前記動作を決定するステップにおいて、選択された前記動作パターンに基づき、前記ロボットの動作を決定するロボット制御方法。
A robot control method for controlling a robot that performs explanation,
Determining the number of viewers in the vicinity of the robot;
Based on the number of viewers grasped in the step of grasping the number of viewers, an operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewers when the robot performs explanation Selecting any one of the operation patterns;
Determining the motion of the robot based on the motion pattern selected in the step of selecting the motion pattern;
Only including,
In the step of grasping the number of viewers, a change in the number of viewers is detected,
In the step of selecting the operation pattern, when the viewer status grasping unit detects a change in the number of viewers, the operation pattern corresponding to a new number is selected,
A robot control method for determining an operation of the robot based on the selected operation pattern in the step of determining the operation .
説明を行うロボットを制御するロボット制御方法であって、
前記ロボットの近傍にいる視聴者の数を把握するステップと、
前記視聴者の数を把握するステップで把握された前記視聴者の数に基づき、前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部から、いずれかの前記動作パターンを選択するステップと、
前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの動作を決定するステップと、
を含み、
所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶するステップをさらに含み、
前記動作パターンを記憶するステップにおいて、前記所定の条件を満たす視聴者を動作対象とする特別な動作パターンを、前記所定の条件に対応付けて記憶し、
前記視聴者の数を把握するステップにおいて、前記視聴者の中から前記所定の条件を満たす視聴者を検出し、
前記動作パターンを選択するステップにおいて、前記所定の条件を満たす視聴者を検出した場合であって、前記設定を記憶するステップにおいて前記所定の条件を満たす視聴者を前記特別な動作対象とすることが設定されている場合、当該所定の条件に対応する前記特別な動作パターンを選択し、
前記所定の条件は、新規前記視聴者が所定数以上把握された場合、または前記ロボットの近傍に所定時間以上いる長時間視聴者が把握された場合であるロボット制御方法。
A robot control method for controlling a robot that performs explanation,
Determining the number of viewers in the vicinity of the robot;
Based on the number of viewers grasped in the step of grasping the number of viewers, an operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewers when the robot performs explanation Selecting any one of the operation patterns;
Determining the motion of the robot based on the motion pattern selected in the step of selecting the motion pattern;
Including
Storing a setting as to whether or not a viewer who satisfies a predetermined condition is to be a special operation target,
In the step of storing the motion pattern, a special motion pattern intended for a viewer who satisfies the predetermined condition is stored in association with the predetermined condition,
In the step of grasping the number of viewers, a viewer who satisfies the predetermined condition is detected from the viewers,
In the step of selecting the operation pattern, when a viewer who satisfies the predetermined condition is detected, the viewer who satisfies the predetermined condition in the step of storing the setting may be set as the special operation target. If set, select the special operation pattern corresponding to the predetermined condition,
The robot control method in which the predetermined condition is a case where a predetermined number or more of new viewers are grasped or a long time viewer who is present in the vicinity of the robot for a predetermined time or more is grasped .
説明を行うロボットを制御するロボット制御方法であって、
前記ロボットの近傍にいる視聴者の数を把握するステップと、
前記視聴者の数を把握するステップで把握された前記視聴者の数に基づき、前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部から、いずれかの前記動作パターンを選択するステップと、
前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの動作を決定するステップと、
を含み、
前記動作パターン記憶部は、前記ロボットが、前記視聴者それぞれを動作対象とする第1の動作パターンと、前記視聴者が所定数よりも多い場合に前記視聴者を前記所定数未満の人数にグループ分けした各グループを動作対象とする第2の動作パターンと、を記憶し、
前記動作パターンを選択するステップにおいて、前記視聴者数を把握するステップにおいて把握した前記視聴者の数が所定数以下の場合に前記第1の動作パターンを選択し、前記数が前記所定数より多い場合に前記第2の動作パターンを選択するロボット制御方法。
A robot control method for controlling a robot that performs explanation,
Determining the number of viewers in the vicinity of the robot;
Based on the number of viewers grasped in the step of grasping the number of viewers, an operation pattern storage unit that stores a plurality of operation patterns that the robot performs for the viewers when the robot performs explanation Selecting any one of the operation patterns;
Determining the motion of the robot based on the motion pattern selected in the step of selecting the motion pattern;
Only including,
The motion pattern storage unit is configured to group the viewers into a number less than the predetermined number when the robot has a first motion pattern in which each of the viewers is a motion target and the viewer has more than a predetermined number. Storing a second operation pattern for each divided group as an operation target;
In the step of selecting the operation pattern, the first operation pattern is selected when the number of viewers grasped in the step of grasping the number of viewers is equal to or less than a predetermined number, and the number is larger than the predetermined number And a robot control method for selecting the second operation pattern.
請求項11乃至13いずれかに記載のロボット制御方法において、
前記動作パターンは、前記ロボットの前記視聴者への視線を制御する視線動作パターンであって、
前記視聴者の前記ロボットに対する位置を把握するステップをさらに含み、
前記ロボットの動作を決定するステップにおいて、前記視聴者の位置および前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの前記視聴者への視線動作を決定するロボット制御方法。
The robot control method according to any one of claims 11 to 13 ,
The movement pattern is a line-of-sight movement pattern for controlling the line of sight of the robot to the viewer,
Further comprising grasping a position of the viewer with respect to the robot;
A robot control method for determining a gaze motion of the robot to the viewer based on the motion pattern selected in the step of selecting the viewer position and the motion pattern in the step of determining the motion of the robot.
請求項14に記載のロボット制御方法において、
前記ロボットの動作を決定するステップは、前記視聴者の位置および前記動作パターンを選択するステップで選択された前記動作パターンに基づき、前記ロボットの視線を向けるアイコンタクトポイントを決定するステップを含むロボット制御方法。
The robot control method according to claim 14 , wherein
The step of determining the motion of the robot includes the step of determining an eye contact point that directs the robot's line of sight based on the motion pattern selected in the step of selecting the position of the viewer and the motion pattern. Method.
請求項15に記載のロボット制御方法において、
前記動作パターンは、前記アイコンタクトポイントに前記ロボットの視線を向ける頻度および当該アイコンタクトポイントに前記ロボットが視線を向ける時間の設定を含み、
前記ロボットの動作を決定するステップにおいて、前記動作パターンを選択するステップで選択された前記動作パターンに基づき、設定された前記頻度および前記時間通りに前記ロボットの視線を前記アイコンタクトポイントに向ける視線動作を決定するロボット制御方法。
The robot control method according to claim 15 , wherein
The operation pattern includes a setting of a frequency of directing the line of sight of the robot to the eye contact point and a time for the robot to direct the line of sight to the eye contact point,
In the step of determining the movement of the robot, a line-of-sight movement that directs the line of sight of the robot to the eye contact point according to the set frequency and the time based on the movement pattern selected in the step of selecting the movement pattern To determine the robot control method.
請求項13乃至16いずれかに記載のロボット制御方法において、
前記ロボットは、首、胴体、または目の少なくとも一つが移動可能に構成され、
前記ロボットの動作を決定するステップにおいて、前記ロボットが前記視線動作を行うように、前記ロボットの前記首、前記胴体、または前記目の一つ以上の動きを決定するロボット制御方法。
The robot control method according to any one of claims 13 to 16 ,
The robot is configured such that at least one of a neck, a torso, or an eye is movable,
A robot control method for determining one or more movements of the neck, the trunk, or the eyes of the robot so that the robot performs the line-of-sight movement in the step of determining the movement of the robot.
説明を行うロボットを制御するために、コンピュータを、
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握手段、
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶手段、
前記視聴者状況把握手段が把握した前記視聴者の数に基づき、前記動作パターン記憶手段から、いずれかの前記動作パターンを選択する動作パターン選択手段、
前記動作パターン選択手段が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定手段、
として機能させ
前記視聴者状況把握手段は、前記視聴者の数の変化を検出し、
前記動作パターン選択手段は、前記視聴者状況把握部が前記視聴者の数の変化を検出すると、新たな数に対応する前記動作パターンを選択し、
前記動作決定手段は、前記動作パターン選択部が選択した前記動作パターンに基づき、前記ロボットの動作を決定することを特徴とするプログラム。
Computer to control the robot to explain
Viewer status grasping means for grasping the number of viewers in the vicinity of the robot;
An operation pattern storage means for storing a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
An action pattern selection means for selecting any one of the action patterns from the action pattern storage means based on the number of viewers grasped by the viewer status grasping means;
Motion determining means for determining the motion of the robot based on the motion pattern selected by the motion pattern selecting means;
To function as,
The viewer status grasping means detects a change in the number of viewers,
When the viewer status grasping unit detects a change in the number of viewers, the motion pattern selection unit selects the motion pattern corresponding to a new number,
The operation determining means determines an operation of the robot based on the operation pattern selected by the operation pattern selection unit .
説明を行うロボットを制御するために、コンピュータを、  Computer to control the robot to explain
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握手段、  Viewer status grasping means for grasping the number of viewers in the vicinity of the robot;
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶手段、  An operation pattern storage means for storing a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
前記視聴者状況把握手段が把握した前記視聴者の数に基づき、前記動作パターン記憶手段から、いずれかの前記動作パターンを選択する動作パターン選択手段、  An action pattern selection means for selecting any one of the action patterns from the action pattern storage means based on the number of viewers grasped by the viewer status grasping means;
前記動作パターン選択手段が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定手段、  Motion determining means for determining the motion of the robot based on the motion pattern selected by the motion pattern selecting means;
所定の条件を満たす視聴者を特別な動作対象とするか否かの設定を記憶する設定記憶手段、  A setting storage means for storing a setting as to whether or not a viewer who satisfies a predetermined condition is a special operation target;
として機能させ、Function as
前記動作パターン記憶手段は、前記所定の条件を満たす視聴者を動作対象とする特別な動作パターンを、前記所定の条件に対応付けて記憶し、  The operation pattern storage means stores a special operation pattern for a viewer who satisfies the predetermined condition in association with the predetermined condition,
前記視聴者状況把握手段は、前記視聴者の中から前記所定の条件を満たす視聴者を検出し、  The viewer status grasping means detects a viewer that satisfies the predetermined condition from the viewers,
前記動作パターン選択手段は、前記視聴者状況把握部が前記所定の条件を満たす視聴者を検出した場合であって、前記設定記憶部に前記所定の条件を満たす視聴者を前記特別な動作対象とすることが設定されている場合、当該所定の条件に対応する前記特別な動作パターンを選択し、  The operation pattern selection means is a case where the viewer condition grasping unit detects a viewer who satisfies the predetermined condition, and the viewer who satisfies the predetermined condition is set as the special operation target in the setting storage unit. If it is set to do, select the special operation pattern corresponding to the predetermined condition,
前記所定の条件は、新規前記視聴者が所定数以上把握された場合、または前記ロボットの近傍に所定時間以上いる長時間視聴者が把握された場合であることを特徴とするプログラム。  The predetermined condition is a case where a predetermined number or more of new viewers are recognized, or a case where a long-time viewer who is in the vicinity of the robot for a predetermined time or longer is recognized.
説明を行うロボットを制御するために、コンピュータを、  Computer to control the robot to explain
前記ロボットの近傍にいる視聴者の数を把握する視聴者状況把握手段、  Viewer status grasping means for grasping the number of viewers in the vicinity of the robot;
前記ロボットが説明を行う際に前記ロボットが前記視聴者に対して行う動作パターンを複数記憶する動作パターン記憶手段、  An operation pattern storage means for storing a plurality of operation patterns that the robot performs for the viewer when the robot performs explanation;
前記視聴者状況把握手段が把握した前記視聴者の数に基づき、前記動作パターン記憶手段から、いずれかの前記動作パターンを選択する動作パターン選択手段、  An action pattern selection means for selecting any one of the action patterns from the action pattern storage means based on the number of viewers grasped by the viewer status grasping means;
前記動作パターン選択手段が選択した前記動作パターンに基づき、前記ロボットの動作を決定する動作決定手段、  Motion determining means for determining the motion of the robot based on the motion pattern selected by the motion pattern selecting means;
として機能させ、Function as
前記動作パターン記憶手段は、前記ロボットが、前記視聴者それぞれを動作対象とする第1の動作パターンと、前記視聴者が所定数よりも多い場合に前記視聴者を前記所定数未満の人数にグループ分けした各グループを動作対象とする第2の動作パターンと、を記憶し、  The motion pattern storage means includes a first motion pattern in which the robot targets each of the viewers and a group of the viewers less than the predetermined number when the viewers are larger than the predetermined number. Storing a second operation pattern for each divided group as an operation target;
前記動作パターン選択手段は、前記視聴者状況把握手段が把握した前記視聴者の数が所定数以下の場合に前記第1の動作パターンを選択し、前記数が前記所定数より多い場合に前記第2の動作パターンを選択するプログラム。  The operation pattern selection unit selects the first operation pattern when the number of viewers grasped by the viewer state grasping unit is equal to or less than a predetermined number, and when the number is larger than the predetermined number, the first operation pattern is selected. A program for selecting two operation patterns.
JP2005236325A 2005-08-17 2005-08-17 Robot control system, robot apparatus, and robot control method Expired - Fee Related JP4815940B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005236325A JP4815940B2 (en) 2005-08-17 2005-08-17 Robot control system, robot apparatus, and robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005236325A JP4815940B2 (en) 2005-08-17 2005-08-17 Robot control system, robot apparatus, and robot control method

Publications (2)

Publication Number Publication Date
JP2007050461A JP2007050461A (en) 2007-03-01
JP4815940B2 true JP4815940B2 (en) 2011-11-16

Family

ID=37915259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005236325A Expired - Fee Related JP4815940B2 (en) 2005-08-17 2005-08-17 Robot control system, robot apparatus, and robot control method

Country Status (1)

Country Link
JP (1) JP4815940B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104889799A (en) * 2014-03-07 2015-09-09 发那科株式会社 Robot controller for controlling robot which supplies and discharges workpiece

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5157595B2 (en) * 2008-04-01 2013-03-06 トヨタ自動車株式会社 Customer service system and customer service method
FR2947923B1 (en) * 2009-07-10 2016-02-05 Aldebaran Robotics SYSTEM AND METHOD FOR GENERATING CONTEXTUAL BEHAVIOR OF A MOBILE ROBOT
TWI416289B (en) * 2010-05-28 2013-11-21 Compal Communications Inc Automatic machine and method for controlling the same
JP5929061B2 (en) * 2011-09-15 2016-06-01 セイコーエプソン株式会社 Robot controller, robot system, robot
JP5910249B2 (en) * 2012-03-30 2016-04-27 富士通株式会社 Interaction device and interaction control program
JP5975947B2 (en) * 2013-07-08 2016-08-23 ユニロボット株式会社 Program for controlling robot and robot system
JP6203696B2 (en) * 2014-09-30 2017-09-27 富士ソフト株式会社 robot
JP6497185B2 (en) * 2015-04-09 2019-04-10 本田技研工業株式会社 Autonomous mobile device and control method of autonomous mobile device
JP6729424B2 (en) * 2017-01-30 2020-07-22 富士通株式会社 Equipment, output device, output method, and output program
JP6944817B2 (en) * 2017-06-08 2021-10-06 シャープ株式会社 Robot control system
US10970527B2 (en) 2017-09-01 2021-04-06 Digital Dream Labs, Llc Robot attention detection
JP7000759B2 (en) * 2017-09-14 2022-01-19 大日本印刷株式会社 Guidance device, guidance system, guidance method and program
DE102019108670A1 (en) * 2019-04-03 2020-10-08 Hochschule Offenburg Method for controlling a device, in particular a hand prosthesis or a robot arm

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2993867B2 (en) * 1995-05-24 1999-12-27 中小企業事業団 Robot system that responds variously from audience information
JP2004042151A (en) * 2002-07-09 2004-02-12 Advanced Telecommunication Research Institute International Communication robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104889799A (en) * 2014-03-07 2015-09-09 发那科株式会社 Robot controller for controlling robot which supplies and discharges workpiece
US9778646B2 (en) 2014-03-07 2017-10-03 Fanuc Corporation Robot controller for controlling robot which supplies and discharges workpiece

Also Published As

Publication number Publication date
JP2007050461A (en) 2007-03-01

Similar Documents

Publication Publication Date Title
JP4815940B2 (en) Robot control system, robot apparatus, and robot control method
US10798509B1 (en) Wearable electronic device displays a 3D zone from where binaural sound emanates
JP5339900B2 (en) Selective sound source listening by computer interactive processing
KR101576294B1 (en) Apparatus and method to perform processing a sound in a virtual reality system
KR20240011874A (en) Directing live entertainment using biometric sensor data for detection of neurological state
TWI280481B (en) A device for dialog control and a method of communication between a user and an electric apparatus
US20060239471A1 (en) Methods and apparatus for targeted sound detection and characterization
EP1878013A2 (en) Microphone array based selective sound source listening and video game control
EP3891521A1 (en) Audio augmentation using environmental data
JP2022518105A (en) User group based on artificial reality
KR20210065099A (en) Information processing apparatus, information processing method, program, and information processing system
US10820132B2 (en) Voice providing device and voice providing method
WO2020066154A1 (en) Information processing device, information processing method, computer program, and dialogue system
WO2023281820A1 (en) Information processing device, information processing method, and storage medium
JP7053074B1 (en) Appreciation system, appreciation device and program
US20230101693A1 (en) Sound processing apparatus, sound processing system, sound processing method, and non-transitory computer readable medium storing program
JP7151707B2 (en) Information processing device, information processing method, and program
US20220122333A1 (en) Information processing apparatus, information processing method, and program
JP2023132236A (en) Information processing device, sound reproduction device, information processing system, information processing method, and virtual sound source generation device
CN117222364A (en) Method and apparatus for hearing training

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110802

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110815

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140909

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4815940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees