JP2015066622A - Robot control system, robot, output control program and output control method - Google Patents

Robot control system, robot, output control program and output control method Download PDF

Info

Publication number
JP2015066622A
JP2015066622A JP2013202374A JP2013202374A JP2015066622A JP 2015066622 A JP2015066622 A JP 2015066622A JP 2013202374 A JP2013202374 A JP 2013202374A JP 2013202374 A JP2013202374 A JP 2013202374A JP 2015066622 A JP2015066622 A JP 2015066622A
Authority
JP
Japan
Prior art keywords
pointing
robot
utterance content
exhibit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013202374A
Other languages
Japanese (ja)
Other versions
JP6142306B2 (en
Inventor
神田 崇行
Takayuki Kanda
崇行 神田
聡 佐竹
Satoshi Satake
聡 佐竹
尊優 飯尾
Takamasa Iio
尊優 飯尾
林 宏太郎
Kotaro Hayashi
宏太郎 林
フェレリ フローラン
Ferreri Flolan
フェレリ フローラン
横山 太郎
Taro Yokoyama
太郎 横山
浩司 川邊
Koji Kawabe
浩司 川邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
ATR Advanced Telecommunications Research Institute International
Original Assignee
Honda Motor Co Ltd
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, ATR Advanced Telecommunications Research Institute International filed Critical Honda Motor Co Ltd
Priority to JP2013202374A priority Critical patent/JP6142306B2/en
Publication of JP2015066622A publication Critical patent/JP2015066622A/en
Application granted granted Critical
Publication of JP6142306B2 publication Critical patent/JP6142306B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable provision of utterance contents by pointing the finger while efficiently utilizing a body of a robot 10.SOLUTION: The robot control system detects a position and a direction of a person (a user) by a plurality of distance image sensors 12a and 12b arranged in a space. A robot 10 can autonomously move in the space. An explanation starting range corresponds to a display item E. For instance, a center control device of the robot control system, when the user enters the explanation starting range and looks at the display item E, determines whether or not the robot 10 can point to the display item E with the finger thereof, and according to the determination result selects either first utterance contents accompanied by pointing with the finger or second utterance contents not accompanied by the pointing with the finger. Then the selected utterance contents are outputted from the robot 10.

Description

この発明は、ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法に関し、特にたとえば、来場者に展示物の説明をする、ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法に関する。   The present invention relates to a robot control system, a robot, an output control program, and an output control method, and more particularly, to a robot control system, a robot, an output control program, and an output control method for explaining an exhibit to a visitor, for example.

背景技術の一例である非特許文献1では、ロボットが指を指して説明および案内を行う。また、特許文献1の情報提供ロボットは、腕部の手先が指し示している物体を特定し、その物体の情報を提供する。   In Non-Patent Document 1, which is an example of background art, a robot points to a finger for explanation and guidance. In addition, the information providing robot of Patent Document 1 specifies an object pointed by the hand of the arm and provides information on the object.

特開2010-231315号公報[G06Q 50/00]JP 2010-231315 A [G06Q 50/00] O. Sugiyama, T. Kanda, M. Imai, H. Ishiguro, N. Hagita, Humanlike conversation with gestures and verbal cues based on a three-layer attention-drawing model, connection science (Special issues on android science), 18(4), pp. 379-402, 2006.O. Sugiyama, T. Kanda, M. Imai, H. Ishiguro, N. Hagita, Humanlike conversation with gestures and verbal cues based on a three-layer attention-drawing model, connection science (Special issues on android science), 18 ( 4), pp. 379-402, 2006.

ところが、非特許文献1および特許文献1のロボットでは、物体を指し示したときに、ユーザと物体のとの間に障害物などが存在していると、指し示された物体をユーザが正しく認識できない場合がある。この場合、ユーザは、ロボットから情報の提供を受けても、その情報の内容を正しく把握することが出来ない可能性が高い。   However, in the robots of Non-Patent Document 1 and Patent Document 1, when an object is pointed and an obstacle or the like exists between the user and the object, the user cannot correctly recognize the pointed object. There is a case. In this case, even if the user receives provision of information from the robot, there is a high possibility that the content of the information cannot be correctly grasped.

それゆえに、この発明の主たる目的は、新規な、ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法を提供することである。   Therefore, a main object of the present invention is to provide a novel robot control system, robot, output control program, and output control method.

この発明の他の目的は、発話コンテンツを適切に提供することが出来る、ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法を提供することである。   Another object of the present invention is to provide a robot control system, a robot, an output control program, and an output control method capable of appropriately providing speech content.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、展示物が置かれた空間において自律移動可能なロボットを含む、ロボット制御システムであって、展示物をポインティングによって指すことが可能かを判定する判定手段、判定手段による判定結果に基づいて、発話コンテンツを選択する選択手段、および選択された発話コンテンツを、ロボットから出力させる出力手段を備える、ロボット制御システムである。   1st invention is a robot control system including the robot which can move autonomously in the space where the exhibit is placed, the determination means for determining whether the exhibit can be pointed by pointing, the determination result by the determination means Is a robot control system comprising selection means for selecting utterance content and output means for outputting the selected utterance content from the robot.

第1の発明では、ボット制御システム(100:実施例において対応する部分を例示する参照符号。以下、同じ。)のロボット(10)は、展示物(E)が置かれた空間の中を自律移動する。判定手段(16,S11,S31,S33)は、ロボットの腕や指などによるポインティングによって展示物を指すことが可能かを判定する。選択手段(16,S15,S37)は、ポインティングが可能か不可能かという判定結果に基づいて、発話コンテンツを選択する。たとえば、出力手段(16,S17,S41)は、このようにして選択された発話コンテンツの出力命令をロボットに出す。   In the first invention, the robot (10) of the bot control system (100: reference numerals exemplifying corresponding parts in the embodiment; the same applies hereinafter) autonomously moves in the space where the exhibit (E) is placed. Moving. The determination means (16, S11, S31, S33) determines whether or not the exhibit can be pointed by pointing with a robot arm or finger. The selection means (16, S15, S37) selects the utterance content based on the determination result of whether or not pointing is possible. For example, the output means (16, S17, S41) issues an output command for the speech content selected in this way to the robot.

第1の発明によれば、ロボットの体を効率的に利用して、ポインティングを交えた発話コンテンツの提供が出来る。   According to the first aspect of the present invention, it is possible to provide utterance content with pointing using the robot body efficiently.

第2の発明は、第1の発明に従属し、発話コンテンツは、ポインティングを伴う第1発話コンテンツおよびポインティングを伴わない第2発話コンテンツを含み、選択された発話コンテンツにおいてポインティングによって指すことが可能だと判定されているとき、展示物をポインティングによって指すポインティング手段を備え、出力手段は、選択された発話コンテンツにおいてポインティングによって指すことが可能だと判定されているとき第1発話コンテンツを出力し、選択された発話コンテンツにおいてポインティングによって指すことが不可能だと判定されたとき、第2発話コンテンツを出力する。   The second invention is dependent on the first invention, and the utterance content includes the first utterance content with pointing and the second utterance content without pointing, and can be pointed by pointing at the selected utterance content A pointing means for pointing the exhibit by pointing when it is determined, and the output means outputs and selects the first utterance content when it is determined that pointing can be indicated by pointing in the selected utterance content The second utterance content is output when it is determined that it is impossible to point to the uttered content by pointing.

第2の発明では、第1発話コンテンツは、たとえば展示物がポインティングによって指されている状態で出力されることが想定されている。一方、第2発話コンテンツは、展示物がポインティングによって指されていない状態で出力されることが想定されている。たとえば、ポインティング手段(16,S13)は、展示物をポインティングによって指すことが可能だと判定されているとき、ポインティングによって展示物を指す命令をロボットに出す。そして、ロボットは、展示物をポインティングによって指しているときには第1発話コンテンツを出力し、展示物をポインティングによって指していないときには第2発話コンテンツを出力する。   In the second invention, it is assumed that the first utterance content is output in a state where an exhibit is pointed by pointing, for example. On the other hand, it is assumed that the second utterance content is output in a state where the exhibit is not pointed by pointing. For example, when it is determined that the exhibit can be pointed by pointing, the pointing means (16, S13) issues a command to point to the exhibit by pointing to the robot. The robot outputs the first utterance content when the exhibit is pointed by pointing, and outputs the second utterance content when the exhibit is not pointed by pointing.

第2の発明によれば、ポインティングによって指すことが出来ない場合と出来る場合とに応じて、発話コンテンツを変化させることが出来るため、ユーザはロボットの説明を理解しやすくなる。   According to the second invention, since the utterance content can be changed depending on whether the pointing cannot be made or not, the user can easily understand the explanation of the robot.

第3の発明は、第2の発明に従属し、判定手段は、ユーザが所定範囲に入っているかを判定する範囲判定手段およびユーザが所定範囲に入ったと判定されたとき、ポインティングによって指すことが可能だと設定する設定手段を含み、ポインティング手段は、選択された発話コンテンツにおいてポインティングによって指すことが可能だと設定されているとき、展示物をポインティングによって指す。   The third invention is dependent on the second invention, and the determining means points out by pointing when it is determined that the user has entered the predetermined range and the range determining means for determining whether the user has entered the predetermined range. It includes setting means for setting as possible, and the pointing means points to the exhibit by pointing when it is set to be possible to point by pointing in the selected utterance content.

第3の発明では、範囲判定手段(16,S55,S85)は、展示物に対して設定される所定範囲に、ユーザが入っているかを判定する。ユーザが所定範囲に入ると、設定手段(16,S59,S87)は、展示物をポインティングによって指すことが可能だと設定する。そして、このように設定されている状態では、ポインティング手段は展示物をポインティングによって指し、第1発話コンテンツが出力される。   In the third invention, the range determination means (16, S55, S85) determines whether or not the user is within a predetermined range set for the exhibit. When the user enters the predetermined range, the setting means (16, S59, S87) sets that the exhibit can be pointed by pointing. In the state set in this way, the pointing means points to the exhibit by pointing, and the first utterance content is output.

第3の発明によれば、ポインティングが可能を判定する範囲を所定範囲としたため、ユーザは所定範囲内では、ポインティングを交えた説明を受けることが出来る。   According to the third aspect, since the range in which the pointing is possible is determined as the predetermined range, the user can receive an explanation with pointing within the predetermined range.

第4の発明は、第3の発明に従属し、ポインティングは、展示物の一部を指す第1ポインティングを含み、判定手段は、ユーザと展示物との間に障害物が無いかを判定する障害物判定手段をさらに含み、設定手段は、ユーザが所定範囲に入っており、かつ当該ユーザと展示物との間に障害物が無いと判定されたとき、第1ポインティングによって指すことが可能だと設定する第1設定手段を含み、ポインティング手段は、選択された発話コンテンツにおいて第1ポインティングによって指すことが可能だと設定されているとき、展示物の一部を第1ポインティングによって指す。   A fourth invention is dependent on the third invention, and the pointing includes a first pointing indicating a part of the exhibit, and the determination means determines whether there is an obstacle between the user and the exhibit. It further includes an obstacle determination means, and the setting means can be pointed by the first pointing when it is determined that the user is within a predetermined range and there is no obstacle between the user and the exhibit. The pointing means indicates a part of the exhibit by the first pointing when it is set that the selected utterance content can be indicated by the first pointing.

第4の発明では、第1ポインティングは、たとえば指などにっよって展示物の一部を指す。障害物判定手段(16,S57)は、たとえばユーザと展示物との間に他のユーザ(人)が立っていないかを判定する。ユーザが所定範囲に入っていて、かつユーザと展示物との間に他のユーザが立っていなければ、第1設定手段(16,S59)は、展示物を第1ポインティングによって指すことが可能だと設定する。そして、このように設定されている状態では、ポインティング手段は展示物の一部を第1ポインティングによって指す。   In the fourth invention, the first pointing refers to a part of the exhibit with a finger, for example. The obstacle determination means (16, S57) determines whether another user (person) is standing between the user and the exhibit, for example. If the user is within the predetermined range and no other user is standing between the user and the exhibit, the first setting means (16, S59) can point the exhibit by the first pointing. And set. And in the state set in this way, a pointing means points out a part of exhibit by 1st pointing.

第4の発明によれば、第1ポインティングによって展示物の一部を指した状態で説明を行うことが出来る。   According to the fourth invention, the description can be made in a state where a part of the exhibit is pointed to by the first pointing.

第5の発明は、第3の発明または第4の発明に従属し、ポインティングは、展示物の全体を指す第2ポインティングを含み、設定手段は、ユーザが所定範囲に入っていると判定されたとき、第2ポインティングによって指すことが可能だと設定する第2設定手段を含み、ポインティング手段は、選択された発話コンテンツにおいて第2ポインティングによって指すことが可能だと設定されているとき、展示物の全体を第2ポインティングによって指す。   The fifth invention is dependent on the third invention or the fourth invention, and the pointing includes the second pointing indicating the entire exhibit, and the setting means determines that the user is within the predetermined range A second setting means for setting that it can be pointed to by the second pointing, wherein the pointing means is set to be pointable by the second pointing in the selected utterance content. The whole is indicated by the second pointing.

第5の発明では、第2ポインティングは、ロボットの腕など利用して展示物の全体を指す。ユーザが所定範囲に入っているとき、第2設定手段(16,S87)は、第2ポインティングによって指すことが可能だと設定する。そして、このように設定されると、ポインティング手段は、展示物の全体を第2ポインティングによって指す。   In the fifth invention, the second pointing refers to the entire exhibit using the arm of the robot. When the user is within the predetermined range, the second setting means (16, S87) sets that it can be pointed by the second pointing. And if it sets in this way, a pointing means will point out the whole exhibit by 2nd pointing.

第5の発明によれば、第1ポインティングによって展示物の一部を指すことが出来ない場合は、第2ポインティングによって展示物の全体を指した状態で説明を行うことが出来る。   According to the fifth invention, when it is not possible to indicate a part of the exhibit by the first pointing, it is possible to perform the description with the second pointing pointing to the entire exhibit.

第6の発明は、第1の発明ないし第5の発明のいずれかに従属し、判定手段による判定結果に基づいて、発話コンテンツの優先度を計算する計算手段をさらに備え、選択手段は、算出手段によって算出された優先度がもっとも高い発話コンテンツを選択する。   A sixth invention is dependent on any one of the first to fifth inventions, and further comprises a calculation means for calculating the priority of the utterance content based on a determination result by the determination means, and the selection means includes the calculation The utterance content with the highest priority calculated by the means is selected.

第6の発明では、優先度は、複数の発話コンテンツのうち、現在のユーザの状況に適切な発話コンテンツを選択するために計算される。そして、計算手段は(16,S35)、ポインティングによって指すことが可能か不可能化の判定結果に基づいて、発話コンテンツの優先度を計算する。そして、選択手段は、優先度が最も高い発話コンテンツを選択する。   In the sixth invention, the priority is calculated in order to select an utterance content appropriate for the current user's situation from among a plurality of utterance contents. Then, the calculation means (16, S35) calculates the priority of the utterance content based on the determination result indicating whether or not pointing can be performed. And a selection means selects the speech content with the highest priority.

第6の発明によれば、優先度に基づいて発話コンテンツを出力するようにしたため、発話コンテンツを選択する処理を単純にすることが出来る。また、ロボットは、展示物の周囲の状況に合わせて、適切な説明を行うことが出来る。   According to the sixth aspect, since the utterance content is output based on the priority, the process of selecting the utterance content can be simplified. Also, the robot can give an appropriate explanation according to the situation around the exhibit.

第7の発明は、展示物(E)が置かれた空間において自律移動可能なロボット(10)を含む、ロボット制御システム(100)のプロセッサ(16)を、展示物をポインティングによって指すことが可能かを判定する判定手段(S11,S31,S33)、判定手段による判定結果に基づいて、発話コンテンツを選択する選択手段(S15,S37)、および選択された発話コンテンツを、ロボットから出力させる出力手段(S17,S41)として機能させる、出力制御プログラムである。   7th invention can point the exhibit by pointing the processor (16) of the robot control system (100) including the robot (10) autonomously movable in the space where the exhibit (E) is placed. Determination means (S11, S31, S33) for determining whether or not, selection means (S15, S37) for selecting the utterance content based on the determination result by the determination means, and output means for outputting the selected utterance content from the robot This is an output control program that functions as (S17, S41).

第7の発明でも、第1の発明と同様、ロボットの体を効率的に利用して、ポインティングを交えた発話コンテンツの提供が出来る。   In the seventh invention as well, similar to the first invention, it is possible to provide utterance content with pointing by efficiently using the body of the robot.

第8の発明は、展示物(E)が置かれた空間において自律移動可能なロボット(10)を含む、ロボット制御システム(100)における出力制御方法であって、ロボット制御システムのプロセッサ(16)が、展示物をポインティングによって指すことが可能かを判定する判定ステップ(S11,S31,S33)、判定ステップによる判定結果に基づいて、発話コンテンツを選択する選択ステップ(S15,S37)、および選択された発話コンテンツを、ロボットから出力させる出力ステップ(S17,S41)を実行する、出力制御方法である。   The eighth invention is an output control method in the robot control system (100) including the robot (10) capable of autonomous movement in the space where the exhibit (E) is placed, and the processor (16) of the robot control system However, a determination step (S11, S31, S33) for determining whether or not an exhibit can be pointed by pointing, a selection step (S15, S37) for selecting speech content based on a determination result by the determination step, and a selection are selected. This is an output control method for executing an output step (S17, S41) for outputting the uttered content from the robot.

第8の発明でも、第1の発明と同様、ロボットの体を効率的に利用して、ポインティングを交えた発話コンテンツの提供が出来る。   In the eighth invention as well, similar to the first invention, it is possible to provide utterance content with pointing by efficiently using the body of the robot.

第9の発明は、展示物(E)が置かれた空間において自律移動可能な、ロボット(10)であって、展示物をポインティングによって指すことが可能かを判定する判定手段(90,S11,S31,S33)、判定手段による判定結果に基づいて、発話コンテンツを選択する選択手段(90,S15,S37)、および選択された発話コンテンツを出力する出力手段(90,S17,S41)を備える、ロボットである。   A ninth invention is a robot (10) that is autonomously movable in a space where an exhibit (E) is placed, and that determines whether the exhibit can be pointed by pointing (90, S11, S31, S33), selection means (90, S15, S37) for selecting the utterance content based on the determination result by the determination means, and output means (90, S17, S41) for outputting the selected utterance content, It is a robot.

第9の発明でも、第1の発明と同様、ロボットの体を効率的に利用して、ポインティングを交えた発話コンテンツの提供が出来る。   In the ninth invention as well, similar to the first invention, it is possible to provide utterance contents with pointing by efficiently using the body of the robot.

第10の発明は、展示物(E)が置かれた空間において自律移動可能な、ロボット(10)のプロセッサ(90)を、展示物をポインティングによって指すことが可能かを判定する判定手段(S11,S31,S33)、判定手段による判定結果に基づいて、発話コンテンツを選択する選択手段(S15,S37)、および選択された発話コンテンツを出力する出力手段(S17,S41)として機能させる、出力制御プログラムである。   According to a tenth aspect of the present invention, the processor (90) of the robot (10) capable of autonomous movement in the space where the exhibit (E) is placed determines whether the exhibit can be pointed by pointing (S11). , S31, S33), output control for functioning as selection means (S15, S37) for selecting the utterance content and output means (S17, S41) for outputting the selected utterance content based on the determination result by the determination means It is a program.

第10の発明でも、第1の発明と同様、ロボットの体を効率的に利用して、ポインティングを交えた発話コンテンツの提供が出来る。   In the tenth invention as well, similar to the first invention, it is possible to provide utterance content with pointing by efficiently using the body of the robot.

第11の発明は、展示物(E)が置かれた空間において自律移動可能な、ロボット(10)における出力制御方法であって、ロボットのプロセッサ(90)が、展示物をポインティングによって指すことが可能かを判定する判定ステップ(S11,S31,S33)、判定ステップによる判定結果に基づいて、発話コンテンツを選択する選択ステップ(S15,S37)、および選択された発話コンテンツを出力する出力ステップ(S17,S41)を実行する、出力制御方法である。   An eleventh aspect of the invention is an output control method in the robot (10) capable of autonomous movement in the space where the exhibit (E) is placed, wherein the robot processor (90) points to the exhibit by pointing. A determination step (S11, S31, S33) for determining whether it is possible, a selection step (S15, S37) for selecting uttered content based on a determination result by the determination step, and an output step (S17) for outputting the selected utterance content , S41).

第11の発明でも、第1の発明と同様、ロボットの体を効率的に利用して、ポインティングを交えた発話コンテンツの提供が出来る。   In the eleventh invention as well, as in the first invention, it is possible to provide utterance content with pointing by efficiently using the body of the robot.

この発明によれば、発話コンテンツを適切に提供することが出来る。   According to the present invention, utterance content can be provided appropriately.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例のロボット制御システムの概要を示す図解図である。FIG. 1 is an illustrative view showing an outline of a robot control system according to an embodiment of the present invention. 図2は図1に示すロボット制御システムの構成の一例を示す図解図である。FIG. 2 is an illustrative view showing one example of a configuration of the robot control system shown in FIG. 図3は図1に示す中央制御装置の電気的な構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the electrical configuration of the central control unit shown in FIG. 図4は図1に示すロボットの外観を正面から見た図解図である。FIG. 4 is an illustrative view showing the appearance of the robot shown in FIG. 1 from the front. 図5は図1に示すロボットの電気的な構成の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of the electrical configuration of the robot shown in FIG. 図6は図1に示す距離画像センサが設置される或る空間の地図の一例を示す図解図である。FIG. 6 is an illustrative view showing one example of a map of a certain space in which the distance image sensor shown in FIG. 1 is installed. 図7は図3に示す発話コンテンツDBの構成の一例を示す図解図である。FIG. 7 is an illustrative view showing one example of a configuration of the utterance content DB shown in FIG. 3. 図8は図3に示す中央制御装置のメモリのメモリマップの一例を示す図解図である。FIG. 8 is an illustrative view showing one example of a memory map of a memory of the central control unit shown in FIG. 図9は図3に示す中央制御装置のプロセッサの出力制御処理の一例を示すフロー図である。FIG. 9 is a flowchart showing an example of output control processing of the processor of the central control unit shown in FIG. 図10は図1に示す距離画像センサが設置される或る空間の地図の他の一例を示す図解図である。FIG. 10 is an illustrative view showing another example of a map of a certain space where the distance image sensor shown in FIG. 1 is installed. 図11は図3に示す発話コンテンツDBの構成の他の一例を示す図解図である。FIG. 11 is an illustrative view showing another example of the configuration of the utterance content DB shown in FIG. 3. 図12は図3に示す中央制御装置のメモリに記憶される判定テーブルの構成の一例を示す図解図である。FIG. 12 is an illustrative view showing one example of a configuration of a determination table stored in the memory of the central controller shown in FIG. 図13は図3に示す中央制御装置のメモリのメモリマップの他の一例を示す図解図である。FIG. 13 is an illustrative view showing another example of the memory map of the memory of the central control unit shown in FIG. 図14は図3に示す中央制御装置のプロセッサの第2実施例の出力制御処理の一例を示すフロー図である。FIG. 14 is a flowchart showing an example of the output control process of the second embodiment of the processor of the central controller shown in FIG. 図15は図3に示す中央制御装置のプロセッサの第1ポインティング判定処理の一例を示すフロー図である。FIG. 15 is a flowchart showing an example of the first pointing determination process of the processor of the central controller shown in FIG. 図16は図3に示す中央制御装置のプロセッサの第2ポインティング判定処理の一例を示すフロー図である。FIG. 16 is a flowchart showing an example of the second pointing determination process of the processor of the central controller shown in FIG.

<第1実施例>
図1を参照して、この実施例のロボット制御システム100は、展示物Eが置かれた展示会場などの空間(環境)で利用される。展示会場の中では、人(ユーザまたは来場者)およびロボット10が任意に移動することができ、天井には複数の距離画像センサ12(12a,12b,…)が設けられている。
<First embodiment>
With reference to FIG. 1, the robot control system 100 of this embodiment is used in a space (environment) such as an exhibition hall where an exhibit E is placed. Within the exhibition hall, people (users or visitors) and the robot 10 can arbitrarily move, and a plurality of distance image sensors 12 (12a, 12b,...) Are provided on the ceiling.

ロボット10は、相互作用指向のロボット(コミュニケーションロボット)でもあり、ユーザのようなコミュニケーションの対象との間で、音声を含むコミュニケーション行動を実行する機能を備えている。また、ロボット10はコミュニケーションの一環として、展示物Eについての説明(発話コンテンツ)をユーザに対して出力したり、展示会場を案内したりするサービスを行う。ロボット10は、サービスを行う上で必要であれば、展示会場内を自律的に移動したり、中央制御装置14が付与する行動命令に基づいて動作したりする。   The robot 10 is also an interaction-oriented robot (communication robot), and has a function of executing communication behavior including voice with a communication target such as a user. Further, as part of the communication, the robot 10 provides a service for outputting an explanation (uttered content) about the exhibit E to the user and guiding the exhibition hall. The robot 10 autonomously moves within the exhibition hall or operates based on action commands given by the central control device 14 as necessary for providing services.

また、実施例の空間は展示物Eが置かれた展示会場であるが、これに限らずショッピングモール、会社のフロア、博物館またはアトラクション会場などでも、ロボット制御システム100は利用可能である。   The space of the embodiment is an exhibition hall where the exhibition E is placed, but the robot control system 100 can be used not only in this but also in a shopping mall, a company floor, a museum, an attraction hall, or the like.

なお、図1では簡単のため、ユーザは1人しか示していないが、展示会場にはさらに多くのユーザがいてもよい。同様にロボット10も1台しか示していないが、ロボット制御システム100は2台より多くのロボット10を同時に制御することができる。   For simplicity, only one user is shown in FIG. 1, but there may be more users in the exhibition hall. Similarly, although only one robot 10 is shown, the robot control system 100 can control more than two robots 10 simultaneously.

また、ロボット10は、音声に加えて、身振り手振りのような身体動作を含むコミュニケーション行動を行うこともある。   Further, the robot 10 may perform a communication action including a body movement such as gesture gesture in addition to voice.

図2を参照して、ロボット制御システム100の中央制御装置14は、一定時間(たとえば、1秒)毎に距離画像センサ12a,12bによって、任意に移動するユーザの位置を検出すると共に、ユーザの向きを検出する。また、中央制御装置14は、ネットワーク1000を介してロボット10と無線通信を行い、必要であればロボット10の行動を制御する。空間の中で位置が検出されたユーザには、ユーザIDが付与される。   Referring to FIG. 2, the central control device 14 of the robot control system 100 detects the position of a user that is arbitrarily moved by the distance image sensors 12a and 12b every predetermined time (for example, 1 second), and the user's Detect orientation. The central control device 14 performs wireless communication with the robot 10 via the network 1000, and controls the behavior of the robot 10 if necessary. A user ID is given to the user whose position is detected in the space.

図3は中央制御装置14の電気的な構成を示すブロック図である。図3を参照して、中央制御装置14は、距離画像センサ12a,12bおよびプロセッサ16などを含む。プロセッサ16は、マイクロコンピュータ或いはCPUと呼ばれることもある。プロセッサ16には、先述した距離画像センサ12aおよび距離画像センサ12bに加えて、他の距離画像センサ12が接続される。なお、距離画像センサ12a,12bを区別する必要がない場合、単に「距離画像センサ12」と言う。   FIG. 3 is a block diagram showing an electrical configuration of the central controller 14. Referring to FIG. 3, the central controller 14 includes distance image sensors 12a and 12b, a processor 16, and the like. The processor 16 is sometimes called a microcomputer or CPU. In addition to the distance image sensor 12a and the distance image sensor 12b described above, another distance image sensor 12 is connected to the processor 16. When there is no need to distinguish between the distance image sensors 12a and 12b, the distance image sensors 12a and 12b are simply referred to as “distance image sensor 12”.

プロセッサ16にはメモリ18、通信LANボード20が接続されると共に、発話コンテンツデータベース(DB:Database)24も接続される。   A memory 18 and a communication LAN board 20 are connected to the processor 16, and an utterance content database (DB: Database) 24 is also connected to the processor 16.

距離画像センサ12は、赤外光またはレーザーなどの光を照射し、対象物から反射した光(反射光)をCCDセンサなどの光学センサによって捉える。距離画像センサ12は、光が戻るまでの時間を画素ごとに計測することで、対象物までの実際の距離を測距する。実施例の距離画像センサ12には、ASUS(登録商標)社製のXtionと呼ばれる製品が採用されている。なお、他の実施例では、距離画像センサ12は、Microsoft(登録商標)社製のKinect(登録商標)センサ、パナソニック(登録商標)社製の3次元距離画像センサD−IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと呼ばれる場合もある。   The distance image sensor 12 irradiates light such as infrared light or laser, and captures light reflected from the object (reflected light) by an optical sensor such as a CCD sensor. The distance image sensor 12 measures the actual distance to the object by measuring the time until the light returns for each pixel. The distance image sensor 12 of the embodiment employs a product called Xtion manufactured by ASUS (registered trademark). In another embodiment, the distance image sensor 12 is a Kinect (registered trademark) sensor manufactured by Microsoft (registered trademark), a three-dimensional distance image sensor D-IMAGEr (registered trademark) manufactured by Panasonic (registered trademark), or the like. Can also be used. This type of sensor is sometimes called a three-dimensional distance measuring sensor, a 3D scanner, or the like.

プロセッサ16は、このような距離画像センサ12を通じて対象の3次元情報を取得する。距離画像センサ12からの3次元情報には、対象物の形状および対象物までの距離が含まれている。たとえば、ユーザが天井に設けられた距離画像センサ12によってセンシングされると、人を上から見た状態の頭部および両肩の形状と、頭部および両肩までの距離が3次元情報として得られる。   The processor 16 acquires the three-dimensional information of the target through such a distance image sensor 12. The three-dimensional information from the distance image sensor 12 includes the shape of the object and the distance to the object. For example, when the user is sensed by the distance image sensor 12 provided on the ceiling, the shape of the head and both shoulders as seen from above and the distance to the head and both shoulders are obtained as three-dimensional information. It is done.

たとえば、空間には35個の距離画像センサ12が所定の位置(既知)に設置されており、プロセッサ16は、各々から3次元情報を取得して、3次元空間(ワールド座標系)における位置(たとえば、重心など特徴点の位置座標(x,y,z))およびユーザの向き(たとえば、頭部および両肩など特徴部位の向き)を計算することが出来る。   For example, 35 distance image sensors 12 are installed in a predetermined position (known) in the space, and the processor 16 acquires three-dimensional information from each to obtain a position in the three-dimensional space (world coordinate system) ( For example, the position coordinates (x, y, z) of feature points such as the center of gravity, and the user's orientation (for example, the orientation of feature parts such as the head and both shoulders) can be calculated.

なお、他の実施例では、距離画像センサ12にではなく、2次元または3次元のLRFを利用して、ユーザの位置および向きが検出されてもよい。   In another embodiment, the position and orientation of the user may be detected using a two-dimensional or three-dimensional LRF instead of the distance image sensor 12.

メモリ18はROM,HDDおよびRAMを含む。ROMおよびHDDには、中央制御装置14の動作を制御するための制御プログラムが予め記憶される。また、RAMは、プロセッサ16のワークメモリやバッファメモリとして用いられる。   The memory 18 includes a ROM, an HDD, and a RAM. In the ROM and the HDD, a control program for controlling the operation of the central controller 14 is stored in advance. The RAM is used as a work memory or a buffer memory for the processor 16.

通信LANボード20は、たとえばDSPで構成され、プロセッサ16から与えられた送信データを無線通信装置22に与え、無線通信装置22は送信データを、ネットワーク1000を介してロボット10に送信する。たとえば、送信データは、ロボット10の自立移動に必要なデータや、サービスを行うために必要なデータおよびロボット10に指示する行動命令の信号(コマンド)などである。また、通信LANボード20は、無線通信装置22を介してデータを受信し、受信したデータをプロセッサ16に与える。   The communication LAN board 20 is configured by a DSP, for example, and provides transmission data provided from the processor 16 to the wireless communication device 22, and the wireless communication device 22 transmits the transmission data to the robot 10 via the network 1000. For example, the transmission data is data necessary for autonomous movement of the robot 10, data necessary for performing a service, and a signal (command) of an action command instructing the robot 10. The communication LAN board 20 receives data via the wireless communication device 22 and gives the received data to the processor 16.

発話コンテンツDB24は、ロボット10がユーザに対して出力する発話コンテンツが記憶されている。   The utterance content DB 24 stores the utterance content that the robot 10 outputs to the user.

なお、他の実施例では、中央制御装置14は、ディスプレイなどの出力装置と、マウスおよびキーボードなどの入力装置とを備えていてもよい。   In another embodiment, the central controller 14 may include an output device such as a display and input devices such as a mouse and a keyboard.

図4はこの実施例のロボット10の外観を示す正面図である。図4を参照して、ロボット10は台車40を含み、台車40の下面にはロボット10を自律移動させる2つの車輪42および1つの従輪44が設けられる。2つの車輪42は車輪モータ46(図5参照)によってそれぞれ独立に駆動され、台車40すなわちロボット10を前後左右の任意方向に動かすことができる。また、従輪44は車輪42を補助する補助輪である。したがって、ロボット10は、配置された空間内を自律制御によって移動可能である。   FIG. 4 is a front view showing the appearance of the robot 10 of this embodiment. Referring to FIG. 4, robot 10 includes a carriage 40, and two wheels 42 and one slave wheel 44 that autonomously move robot 10 are provided on the lower surface of carriage 40. The two wheels 42 are independently driven by a wheel motor 46 (see FIG. 5), and the carriage 40, that is, the robot 10 can be moved in any direction, front, back, left, and right. The slave wheel 44 is an auxiliary wheel that assists the wheel 42. Therefore, the robot 10 can move in the arranged space by autonomous control.

台車40の上には、円柱形のセンサ取り付けパネル48が設けられ、このセンサ取り付けパネル48には、多数の赤外線距離センサ50が取り付けられる。これらの赤外線距離センサ50は、センサ取り付けパネル48すなわちロボット10の周囲の物体(ユーザや障害物など)との距離を測定するものである。   A cylindrical sensor mounting panel 48 is provided on the carriage 40, and a large number of infrared distance sensors 50 are mounted on the sensor mounting panel 48. These infrared distance sensors 50 measure the distance to the sensor mounting panel 48, that is, the object (user, obstacle, etc.) around the robot 10.

なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、LRFや、超音波距離センサおよびミリ波レーダなどを用いることもできる。   In this embodiment, an infrared distance sensor is used as the distance sensor. However, an LRF, an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.

センサ取り付けパネル48の上には、胴体52が直立するように設けられる。また、胴体52の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ50がさらに設けられ、ロボット10の前方の主としてユーザとの距離を計測する。また、胴体52には、その側面側上端部のほぼ中央から伸びる支柱54が設けられ、支柱54の上には、全方位カメラ56が設けられる。全方位カメラ56は、ロボット10の周囲を撮影するものであり、後述する眼カメラ80とは区別される。この全方位カメラ56としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ50および全方位カメラ56の設置位置は、当該部位に限定されず適宜変更され得る。   On the sensor mounting panel 48, the body 52 is provided so as to stand upright. In addition, the above-described infrared distance sensor 50 is further provided at the front upper center of the body 52 (a position corresponding to a human chest), and measures the distance mainly to the user in front of the robot 10. Further, the body 52 is provided with a support column 54 extending from substantially the center of the upper end of the side surface, and an omnidirectional camera 56 is provided on the support column 54. The omnidirectional camera 56 photographs the surroundings of the robot 10 and is distinguished from an eye camera 80 described later. As the omnidirectional camera 56, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be employed. In addition, the installation positions of the infrared distance sensor 50 and the omnidirectional camera 56 are not limited to the portions, and can be changed as appropriate.

胴体52の両側上端部(人の肩に相当する位置)には、それぞれ、肩関節58Rおよび肩関節58Lによって、上腕60Rおよび上腕60Lが設けられる。図示は省略するが、肩関節58Rおよび肩関節58Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節58Rは、直交する3軸のそれぞれの軸廻りにおいて上腕60Rの角度を制御できる。肩関節58Rの或る軸(ヨー軸)は、上腕60Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節58Lは、直交する3軸のそれぞれの軸廻りにおいて上腕60Lの角度を制御できる。肩関節58Lの或る軸(ヨー軸)は、上腕60Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。   An upper arm 60R and an upper arm 60L are provided at upper end portions on both sides of the body 52 (a position corresponding to a human shoulder) by a shoulder joint 58R and a shoulder joint 58L, respectively. Although illustration is omitted, each of the shoulder joint 58R and the shoulder joint 58L has three orthogonal degrees of freedom. That is, the shoulder joint 58R can control the angle of the upper arm 60R around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 58R is an axis parallel to the longitudinal direction (or axis) of the upper arm 60R, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do. Similarly, the shoulder joint 58L can control the angle of the upper arm 60L around each of the three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 58L is an axis parallel to the longitudinal direction (or axis) of the upper arm 60L, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do.

また、上腕60Rおよび上腕60Lのそれぞれの先端には、肘関節62Rおよび肘関節62Lが設けられる。図示は省略するが、肘関節62Rおよび肘関節62Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕64Rおよび前腕64Lの角度を制御できる。   Further, an elbow joint 62R and an elbow joint 62L are provided at the tips of the upper arm 60R and the upper arm 60L, respectively. Although illustration is omitted, each of the elbow joint 62R and the elbow joint 62L has one degree of freedom, and the angles of the forearm 64R and the forearm 64L can be controlled around the axis (pitch axis).

前腕64Rおよび前腕64Lのそれぞれの先端には、手66Rおよび手66Lがそれぞれ設けられる。各手66には、人と同じように親指、人差し指、中指、薬指および小指が設けられている。手66の親指および人差し指の根本には指関節(図示せず)が設けられており、それぞれを独立して動かすことができる。また、中指、薬指および小指は一体成型され、親指および人差し指と同様、根元に指関節が設けられている。そして、中指、薬指および小指はまとめて動かすことが出来る。   A hand 66R and a hand 66L are provided at the tips of the forearm 64R and the forearm 64L, respectively. Each hand 66 is provided with a thumb, an index finger, a middle finger, a ring finger, and a little finger like a person. Finger joints (not shown) are provided at the base of the thumb and forefinger of the hand 66 and can be moved independently. Further, the middle finger, the ring finger and the little finger are integrally molded, and a finger joint is provided at the base like the thumb and the index finger. The middle finger, ring finger, and little finger can be moved together.

また、手66Rおよび手66Lのそれぞれ根元には、手首が設けられる。図示は省略するが、左右の手首は、それぞれ1軸の自由度を有し、この軸(ヨー軸)の軸回りにおいて手66Rおよび手66Lの角度を制御できる。また、図示は省略するが手66Rおよび手66Lの親指、人差し指および残りの3本の指(中指、薬指および小指)の指関節は、それぞれ1自由度を有し、この軸の軸回りにおいて指の角度を制御できる。   In addition, wrists are provided at the bases of the hands 66R and 66L. Although illustration is omitted, the left and right wrists each have one degree of freedom, and the angles of the hands 66R and 66L can be controlled around the axis (yaw axis). Although not shown, the thumb joints of the hand 66R and hand 66L, the index finger, and the remaining three fingers (middle finger, ring finger, and little finger) each have one degree of freedom, and the fingers around the axis of this axis. Can control the angle.

従って、ロボット10は、親指、中指、薬指および小指が折り曲げられた指さしの状態の手66で任意の対象を指したり、手66を開いた状態で上腕60、前腕64および手66の全体を使って任意の対象を指したりすることが可能となる。ここで、実施例では、ロボット10の手66の指を使った指し方を、指さし、第1ポインティングまたはフィンガーポインティングと呼ぶことがある。また、ロボット10の手66を開いた状態で上腕60、前腕64および手66の全体を使った指し方を、第2ポインティングまたはパームポインティングと呼ぶことがある。   Therefore, the robot 10 points to an arbitrary object with the hand 66 in the state of pointing with the thumb, middle finger, ring finger and pinky finger folded, or uses the entire upper arm 60, forearm 64 and hand 66 with the hand 66 open. It is possible to point to any object. Here, in the embodiment, the pointing method using the finger of the hand 66 of the robot 10 may be referred to as first pointing or finger pointing. In addition, the pointing method using the entire upper arm 60, forearm 64, and hand 66 with the hand 66 of the robot 10 open may be referred to as second pointing or palm pointing.

なお、他の実施例では、人と同じようにそれぞれの指が独立し、かつ人の指と同じ数の指関節を持つ手66が採用されてもよい。この場合、ロボット10は、指さしだけでなく、物を指で掴んだり、手話によるコミュニケーションを行ったりすることが可能となる。   In another embodiment, a hand 66 may be employed in which each finger is independent and has the same number of finger joints as a person's finger, like a person. In this case, the robot 10 can not only point at the finger but also grasp an object with the finger or perform communication by sign language.

また、図示は省略するが、台車40の前面、肩関節58Rと肩関節58Lとを含む肩に相当する部位、上腕60R、上腕60L、前腕64R、前腕64L、手66Rおよび手66Lには、それぞれ、接触センサ68(図5で包括的に示す)が設けられる。台車40の前面の接触センサ68は、台車40へのユーザや他の障害物の接触を検知する。したがって、ロボット10は、自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪42の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ68は、当該各部位に触れたかどうかを検知する。なお、接触センサ68の設置位置は、当該部位に限定されず、適宜な位置(人の胸、腹、脇、背中および腰に相当する位置)に設けられてもよい。   Although not shown, the front surface of the carriage 40, the portion corresponding to the shoulder including the shoulder joint 58R and the shoulder joint 58L, the upper arm 60R, the upper arm 60L, the forearm 64R, the forearm 64L, the hand 66R, and the hand 66L, , A contact sensor 68 (shown generically in FIG. 5) is provided. The contact sensor 68 on the front surface of the carriage 40 detects contact of the user or other obstacles to the carriage 40. Therefore, the robot 10 can detect the contact with the obstacle during its movement and immediately stop the driving of the wheel 42 to stop the movement of the robot 10 suddenly. In addition, the other contact sensors 68 detect whether or not the respective parts are touched. In addition, the installation position of the contact sensor 68 is not limited to the said site | part, and may be provided in an appropriate position (position corresponding to a person's chest, abdomen, side, back, and waist).

胴体52の中央上部(人の首に相当する位置)には首関節70が設けられ、さらにその上には頭部72が設けられる。図示は省略するが、首関節70は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 70 is provided at the upper center of the body 52 (a position corresponding to a person's neck), and a head 72 is further provided thereon. Although illustration is omitted, the neck joint 70 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 10, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部72には、人の口に相当する位置に、スピーカ74が設けられる。スピーカ74は、ロボット10が、それの周辺のユーザに対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク76Rおよびマイク76Lが設けられる。以下、右のマイク76Rと左のマイク76Lとをまとめてマイク76と言うことがある。マイク76は、周囲の音、とりわけコミュニケーションを実行する対象であるユーザの音声を取り込む。さらに、人の目に相当する位置には、眼球部78Rおよび眼球部78Lが設けられる。眼球部78Rおよび眼球部78Lは、それぞれ眼カメラ80Rおよび眼カメラ80Lを含む。以下、右の眼球部78Rと左の眼球部78Lとをまとめて眼球部78と言うことがある。また、右の眼カメラ80Rと左の眼カメラ80Lとをまとめて眼カメラ80と言うことがある。   The head 72 is provided with a speaker 74 at a position corresponding to a human mouth. The speaker 74 is used for the robot 10 to communicate with a user around it by voice or sound. A microphone 76R and a microphone 76L are provided at a position corresponding to a human ear. Hereinafter, the right microphone 76R and the left microphone 76L may be collectively referred to as a microphone 76. The microphone 76 captures ambient sounds, particularly the voice of the user who is the subject of communication. Furthermore, an eyeball part 78R and an eyeball part 78L are provided at positions corresponding to human eyes. The eyeball part 78R and the eyeball part 78L include an eye camera 80R and an eye camera 80L, respectively. Hereinafter, the right eyeball part 78R and the left eyeball part 78L may be collectively referred to as the eyeball part 78. Further, the right eye camera 80R and the left eye camera 80L may be collectively referred to as an eye camera 80.

眼カメラ80は、ロボット10に接近したユーザの顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ80は、上述した全方位カメラ56と同様のカメラを用いることができる。たとえば、眼カメラ80は、眼球部78内に固定され、眼球部78は、眼球支持部(図示せず)を介して頭部72内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部72の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部72の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部78ないし眼カメラ80の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ74、マイク76および眼カメラ80の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。   The eye camera 80 takes a picture of a user's face and other parts or objects approaching the robot 10 and captures a corresponding video signal. The eye camera 80 can be the same camera as the omnidirectional camera 56 described above. For example, the eye camera 80 is fixed in the eyeball part 78, and the eyeball part 78 is attached to a predetermined position in the head 72 via an eyeball support part (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 72, and the other is orthogonal to the one axis and goes straight in a direction in which the front side (face) of the head 72 faces. It is an axis (pitch axis) in the direction to be performed. By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 78 or the eye camera 80 is displaced, and the camera axis, that is, the line-of-sight direction is moved. In addition, the installation positions of the above-described speaker 74, microphone 76, and eye camera 80 are not limited to the portions, and may be provided at appropriate positions.

このように、この実施例のロボット10は、車輪42の独立2軸駆動、肩関節58の3自由度(左右で6自由度)、肘関節62の1自由度(左右で2自由度)、手首の1自由度(左右で2自由度)、指関節の1自由度(左右の各指で6自由度)、首関節70の3自由度および眼球支持部の2自由度(左右で4自由度)の合計25自由度を有する。   As described above, the robot 10 of this embodiment includes independent two-axis driving of the wheels 42, three degrees of freedom of the shoulder joint 58 (6 degrees of freedom on the left and right), one degree of freedom of the elbow joint 62 (2 degrees of freedom on the left and right), 1 degree of freedom for wrist (2 degrees of freedom for left and right), 1 degree of freedom for finger joints (6 degrees of freedom for left and right fingers), 3 degrees of freedom for neck joint 70 and 2 degrees of freedom for eyeball support (4 degrees of freedom for left and right) A total of 25 degrees of freedom).

図5はロボット10の電気的な構成を示すブロック図である。この図5を参照して、ロボット10は、プロセッサ90を含む。プロセッサ90は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス92を介して、メモリ94、モータ制御ボード96、センサ入力/出力ボード98、音声入力/出力ボード110および通信LANボード130に接続される。   FIG. 5 is a block diagram showing an electrical configuration of the robot 10. Referring to FIG. 5, robot 10 includes a processor 90. The processor 90 is also called a microcomputer or a processor, and is connected to the memory 94, the motor control board 96, the sensor input / output board 98, the audio input / output board 110, and the communication LAN board 130 via the bus 92.

メモリ94はROMおよびRAMを含む。ROMには、ロボット10の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置14)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記憶される。また、RAMは、プロセッサ90のワークメモリやバッファメモリとして用いられる。   The memory 94 includes ROM and RAM. In the ROM, a control program for controlling the operation of the robot 10 is stored in advance. For example, a detection program for detecting the output (sensor information) of each sensor, a communication program for transmitting / receiving necessary data and commands to / from an external computer (central control device 14), and the like are stored. The RAM is used as a work memory or a buffer memory for the processor 90.

モータ制御ボード96は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード96は、プロセッサ90からの制御データを受け、右眼球部78Rの2軸のそれぞれの角度を制御する2つのモータ(図5では、まとめて「右眼球モータ112」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセッサ90からの制御データを受け、左眼球部78Lの2軸のそれぞれの角度を制御する2つのモータ(図5では、まとめて「左眼球モータ114」と示す)の回転角度を制御する。   The motor control board 96 is composed of, for example, a DSP, and controls the driving of motors for axes such as arms, neck joints, and eyeballs. That is, the motor control board 96 receives two control data from the processor 90 and controls two angles of the two axes of the right eyeball part 78R (in FIG. 5, collectively shown as “right eyeball motor 112”). Control the rotation angle. Similarly, the motor control board 96 receives the control data from the processor 90, and shows two motors for controlling the respective angles of the two axes of the left eyeball portion 78L (in FIG. 5, collectively referred to as “left eyeball motor 114”). ) To control the rotation angle.

また、モータ制御ボード96は、プロセッサ90からの制御データを受け、肩関節58Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節62Rの角度を制御する1つのモータとの計4つのモータ(図5では、まとめて「右腕モータ116」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセッサ90からの制御データを受け、肩関節58Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節62Lの角度を制御する1つのモータとの計4つのモータ(図5では、まとめて「左腕モータ118」と示す)の回転角度を制御する。   The motor control board 96 receives control data from the processor 90, and includes a total of three motors that control the angles of the three orthogonal axes of the shoulder joint 58R and one motor that controls the angle of the elbow joint 62R. The rotation angles of four motors (collectively indicated as “right arm motor 116” in FIG. 5) are controlled. Similarly, the motor control board 96 receives control data from the processor 90, and includes three motors for controlling the angles of the three orthogonal axes of the shoulder joint 58L and one motor for controlling the angle of the elbow joint 62L. The rotation angles of a total of four motors (collectively indicated as “left arm motor 118” in FIG. 5) are controlled.

また、モータ制御ボード96は、プロセッサ90からの制御データを受け、右の手首の1軸の角度を制御する1つのモータと右手66Rの3つの指関節のそれぞれの角度を制御する3つのモータとの4つのモータ(図5では、まとめて「右手モータ120」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセッサ90からの制御データを受け、左手の手首の1軸の角度を制御する1つのモータと左手66Lの3つの指関節のそれぞれの角度を制御する3つのモータとの4つのモータ(図5では、まとめて「左手モータ122」と示す)の回転角度を制御する。   The motor control board 96 receives control data from the processor 90, one motor for controlling the angle of one axis of the right wrist, and three motors for controlling the angles of the three finger joints of the right hand 66R. The rotation angles of the four motors (collectively indicated as “right-handed motor 120” in FIG. 5) are controlled. Similarly, the motor control board 96 receives control data from the processor 90, and controls three motors for controlling the angle of one of the three wrist joints of the left hand 66L and one motor for controlling the angle of one axis of the wrist of the left hand. The rotation angles of the four motors (collectively indicated as “left-handed motor 122” in FIG. 5) are controlled.

ここで、指関節の角度は、モータの回転がそのまま反映されるわけではなく、モータの回転によって動作する流体圧シリンダによって制御される。具体的には、流体圧シリンダには、動作流体を移動させるピストンが移動自在に収容されており、このピストンの位置がモータの回転によって変化する。そして、流体圧シリンダの動きに応じて指関節の角度が変化する。なお、流体圧シリンダを用いたロボットの手については、たとえば特開2013−96514号公報に詳しく説明されているので、ここでは、その公開公報を参照することによって、詳細な説明を省略する。   Here, the angle of the finger joint does not reflect the rotation of the motor as it is, but is controlled by a fluid pressure cylinder that operates by the rotation of the motor. Specifically, a piston for moving the working fluid is movably accommodated in the fluid pressure cylinder, and the position of the piston changes as the motor rotates. Then, the angle of the finger joint changes according to the movement of the fluid pressure cylinder. The hand of the robot using the fluid pressure cylinder is described in detail in, for example, Japanese Patent Application Laid-Open No. 2013-96514, and detailed description thereof will be omitted here by referring to the publication.

さらに、モータ制御ボード96は、プロセッサ90からの制御データを受け、首関節70の直交する3軸のそれぞれの角度を制御する3つのモータ(図5では、まとめて「頭部モータ124」と示す)の回転角度を制御する。   Further, the motor control board 96 receives the control data from the processor 90 and controls three motors for controlling the angles of the three orthogonal axes of the neck joint 70 (in FIG. 5, collectively indicated as “head motor 124”). ) To control the rotation angle.

そして、モータ制御ボード96は、プロセッサ90からの制御データを受け、車輪42を駆動する2つのモータ(図5では、まとめて「車輪モータ46」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ46を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ46と同様に直流モータを用いるようにしてもよい。また、ロボット10の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更されてもよい。たとえば、他の実施例では、エアアクチュエータなどが適用されてもよい。   The motor control board 96 receives control data from the processor 90 and controls the rotation angles of the two motors that drive the wheels 42 (collectively indicated as “wheel motors 46” in FIG. 5). In this embodiment, a motor other than the wheel motor 46 uses a stepping motor (that is, a pulse motor) in order to simplify the control. However, a DC motor may be used similarly to the wheel motor 46. The actuator that drives the body part of the robot 10 is not limited to a motor that uses a current as a power source, and may be changed as appropriate. For example, in another embodiment, an air actuator or the like may be applied.

センサ入力/出力ボード98は、モータ制御ボード96と同様に、DSPで構成され、各センサからの信号を取り込んでプロセッサ90に与える。すなわち、赤外線距離センサ50のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード98を通じてプロセッサ90に入力される。また、全方位カメラ56からの映像信号が、必要に応じてセンサ入力/出力ボード98で所定の処理を施してからプロセッサ90に入力される。眼カメラ80からの映像信号も、同様に、プロセッサ90に入力される。また、上述した複数の接触センサ68(図5では、まとめて「接触センサ68」と示す)からの信号がセンサ入力/出力ボード98を介してプロセッサ90に与えられる。   Similar to the motor control board 96, the sensor input / output board 98 is configured by a DSP, and takes in signals from each sensor and supplies them to the processor 90. That is, data relating to the reflection time from each of the infrared distance sensors 50 is input to the processor 90 through the sensor input / output board 98. The video signal from the omnidirectional camera 56 is input to the processor 90 after being subjected to predetermined processing by the sensor input / output board 98 as necessary. Similarly, a video signal from the eye camera 80 is also input to the processor 90. In addition, signals from the plurality of contact sensors 68 described above (collectively referred to as “contact sensors 68” in FIG. 5) are provided to the processor 90 via the sensor input / output board 98.

音声入力/出力ボード110もまた、同様に、DSPで構成され、プロセッサ90から与えられる音声合成データに従った音声または声がスピーカ74から出力される。また、マイク76からの音声入力が、音声入力/出力ボード110を介してプロセッサ90に与えられる。   Similarly, the voice input / output board 110 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the processor 90 is output from the speaker 74. Also, audio input from the microphone 76 is given to the processor 90 via the audio input / output board 110.

通信LANボード130は、たとえばDSPで構成され、プロセッサ90から与えられた送信データを無線通信装置132に与え、無線通信装置132は送信データを、ネットワーク1000を介して外部コンピュータ(中央制御装置14)に送信する。また、通信LANボード130は、無線通信装置132を介してデータを受信し、受信したデータをプロセッサ90に与える。たとえば、送信データとしては、全方位カメラ56および目カメラ80によって撮影された周囲の映像データなどである。   The communication LAN board 130 is configured by a DSP, for example, and provides transmission data given from the processor 90 to the wireless communication device 132. The wireless communication device 132 sends the transmission data to the external computer (central control device 14) via the network 1000. Send to. In addition, the communication LAN board 130 receives data via the wireless communication device 132 and gives the received data to the processor 90. For example, the transmission data includes surrounding video data captured by the omnidirectional camera 56 and the eye camera 80.

図6は展示会場(空間)の地図である。図6を参照して、展示会場には、入り口および3つの展示物E(E1,E2,E3)が含まれる。入口にはIRIDタグのリーダが設置されている。たとえば、ユーザは自身が持つRFIDタグをリーダに読み取らせることによって、展示会場に入場可能になる。RFIDタグにはユーザIDが記憶されており、リーダはRFIDタグからユーザIDを読み取る。中央制御装置14には、リーダによって読み取られたユーザIDが送信される。そのため、中央制御装置14は、入り口で検出されたユーザの位置と受信したユーザIDとを対応付けることで、展示会場内にいる複数のユーザをそれぞれ識別することが出来る。   FIG. 6 is a map of the exhibition hall (space). Referring to FIG. 6, the exhibition hall includes an entrance and three exhibits E (E1, E2, E3). An IRID tag reader is installed at the entrance. For example, the user can enter the exhibition hall by having the reader read the RFID tag that the user has. The RFID tag stores a user ID, and the reader reads the user ID from the RFID tag. A user ID read by the reader is transmitted to the central control device 14. Therefore, the central control apparatus 14 can identify each of the plurality of users in the exhibition hall by associating the user position detected at the entrance with the received user ID.

ここで、2つの対象点Cを含む展示物E1には、2つの説明範囲Aが対応付けられる。説明範囲A1は展示物Eの対象点C1に対応付けられており、説明範囲A2は展示物E1の対象点C2に対応付けられている。そして、各説明範囲Aは、ユーザに対して出力する発話コンテンツ(説明する内容)が対応している。なお、説明範囲Aは所定範囲と呼ばれることもある。   Here, two explanation ranges A are associated with the exhibit E1 including the two target points C. The explanation range A1 is associated with the target point C1 of the exhibit E, and the explanation range A2 is associated with the target point C2 of the exhibit E1. Each explanation range A corresponds to the utterance content (contents to be explained) output to the user. The explanation range A is sometimes called a predetermined range.

図7を参照して、発話コンテンツDB24は、たとえばテーブルで構成されており、そのテーブルは番号、対象点、説明範囲、内容(ポインティングあり)および内容(ポインティングなし)の列を含む。そして、1つの発話コンテンツが1つの行で示される。たとえば、番号の欄に「1」が記憶されている発話コンテンツでは、対象点の欄には「C1」が記憶され、説明範囲の欄には「A1」が記憶される。そして、内容(ポインティングあり)の欄には「これは充電用のプラグです」が記憶され、内容(ポインティングなし)の欄には「このバイクの後ろ側の荷台の上の所に伸びている黒いコードは充電用のコンセントです」が記憶される。また、番号の欄に「2」が記憶されている発話コンテンツでは、対象点の欄には「C1」が記憶され、説明範囲の欄には「A2」が記憶される。そして、内容(ポインティングあり)の欄には「これはモータです」が記憶され、内容(ポインティングなし)の欄には「足元にある銀色のものはモータです」が記憶される。ここで、実施例では、内容(ポインティングあり)の欄に記憶されている情報は第1発話コンテンツと言い、内容(ポインティングなし)の欄に記憶されている情報は第2発話コンテンツと言う。   Referring to FIG. 7, the utterance content DB 24 is configured by a table, for example, and the table includes columns of numbers, target points, explanation ranges, contents (with pointing), and contents (without pointing). One utterance content is shown in one line. For example, in an utterance content in which “1” is stored in the number column, “C1” is stored in the target point column, and “A1” is stored in the explanation range column. And in the content (with pointing) column, “This is a plug for charging” is stored, and in the content (without pointing) column, “black that extends above the loading platform behind this bike. "The cord is an outlet for charging." In the utterance content in which “2” is stored in the number column, “C1” is stored in the target point column and “A2” is stored in the explanation range column. In the contents (with pointing) column, “This is a motor” is stored, and in the contents (without pointing) column, “silver things at the feet are motors” are stored. Here, in the embodiment, the information stored in the content (with pointing) column is referred to as the first utterance content, and the information stored in the content (without pointing) column is referred to as the second utterance content.

たとえば、ユーザの位置と向きが検出されたときに、ユーザの位置が説明範囲A1に含まれており、かつユーザの向きが対象点C1の方に向くと、展示物E(対象点C1)と対応する発話コンテンツが発話コンテンツDB24から読み出される。また、略同時に、ロボット10をユーザの近傍に移動させるための動作命令が、ロボット10に与えられる。次に、ユーザと展示物(対象点C)との間を遮る人などの障害物が無いか、つまりロボット10の手66のよる指さしによって展示物Eを指すことが出来るかが判定される。そして、展示物Eを指さしによって指すことが出来れば、「1」番の発話コンテンツのうち、指さしを伴う第1発話コンテンツが選択され、ロボット10に送信される。その結果、ロボット10は受信した第1発話コンテンツに従って、展示物Eの説明を行う。具体的には、ロボット10は、ユーザに近づいてから、ユーザに対して挨拶をした後に、手66で対象点Cの方を指しながら、「これは充電用のプラグです」と展示物Eについて説明(発話)する。なお、発話コンテンツなどに基づく音声は、ロボット10のスピーカ74から出力される。   For example, when the user's position and orientation are detected and the user's position is included in the explanation range A1 and the user's orientation is directed toward the target point C1, the exhibit E (target point C1) Corresponding utterance content is read from the utterance content DB 24. At approximately the same time, an operation command for moving the robot 10 to the vicinity of the user is given to the robot 10. Next, it is determined whether there is no obstacle such as a person blocking the user and the exhibit (target point C), that is, whether the exhibit E can be pointed by pointing with the hand 66 of the robot 10. If the exhibit E can be pointed by pointing, the first utterance content with pointing is selected from the utterance content of “1” and transmitted to the robot 10. As a result, the robot 10 explains the exhibit E according to the received first utterance content. Specifically, after approaching the user, the robot 10 greets the user, and then points to the target point C with the hand 66 while saying “This is a plug for charging” about the exhibit E. Explain (speak). Note that sound based on the utterance content or the like is output from the speaker 74 of the robot 10.

一方、展示物Eを指さしによって指すことが出来なければ、「1」番の発話コンテンツのうち、指さしを伴わない第2発話コンテンツが選択されロボット10に送信される。その結果、ロボット10は受信した第2発話コンテンツに従って、展示物Eの説明を行う。具体的には、ロボット10は、ユーザに近づき挨拶をしてから、指さしを行わずに、「このバイクの後ろ側の荷台の上の所に伸びている黒いコードは充電用のコンセントです」と展示物Eについて説明(発話)する。そして、発話コンテンツの出力が終了すると、ロボット10は別れの挨拶をユーザに行った後、別の場所または別のユーザの所へ移動する。   On the other hand, if the exhibit E cannot be pointed by pointing, the second utterance content without pointing is selected from the utterance contents of “1” and transmitted to the robot 10. As a result, the robot 10 explains the exhibit E according to the received second utterance content. Specifically, the robot 10 greets the user and greets it, and does not point at it, “The black cord that extends above the loading platform behind this bike is an outlet for charging.” Explain (speak) the exhibit E. When the output of the utterance content ends, the robot 10 makes a farewell greeting to the user and then moves to another place or another user's place.

このように、第1実施例では、ロボット10の体を効率的に利用して、ポインティングを交えた発話コンテンツの提供が出来る。特に、ポインティングによって指すことが出来ない場合と出来る場合とに応じて、発話コンテンツを変化させることが出来るため、ユーザはロボット10の説明を理解しやすくなる。   As described above, in the first embodiment, it is possible to efficiently provide the utterance content with pointing by using the body of the robot 10 efficiently. In particular, since the utterance content can be changed depending on whether the pointing cannot be performed or not, the user can easily understand the explanation of the robot 10.

なお、ユーザが説明範囲Aの外に出た場合は、発話コンテンツの出力中であっても、出力を停止する。つまり、ユーザが展示物Eに興味を持っていないと考えられるため、発話コンテンツの提供を停止することが出来る。また、図示は省略しているが、展示物E2および展示物E3に対しても、対象点C、説明範囲Aおよび発話コンテンツが対応付けられる。   If the user goes out of the explanation range A, the output is stopped even if the utterance content is being output. That is, since it is considered that the user is not interested in the exhibit E, the provision of the utterance content can be stopped. Moreover, although illustration is abbreviate | omitted, the object point C, the description range A, and speech content are matched also with the exhibit E2 and the exhibit E3.

上述では第1実施例の特徴を概説した。以下では、図8に示すメモリマップ、図9に示すフロー図を用いて、第1実施例について詳細に説明する。   The features of the first embodiment have been outlined above. The first embodiment will be described in detail below using the memory map shown in FIG. 8 and the flowchart shown in FIG.

図8は図2に示す中央制御装置14におけるメモリ18のメモリマップの一例を示す図解図である。図8で示すように、メモリ18はプログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、中央制御装置14を動作させるためのプログラムとして、発話コンテンツの出力を制御する出力制御プログラム310などが記憶される。なお、図示は省略するが、中央制御装置14を動作させるためのプログラムには、距離画像センサ12からユーザの位置および向きを検出するためのプログラムなども含まれる。   FIG. 8 is an illustrative view showing one example of a memory map of the memory 18 in the central controller 14 shown in FIG. As shown in FIG. 8, the memory 18 includes a program storage area 302 and a data storage area 304. The program storage area 302 stores an output control program 310 for controlling the output of uttered content as a program for operating the central control device 14. Although illustration is omitted, the program for operating the central controller 14 includes a program for detecting the position and orientation of the user from the distance image sensor 12.

データ記憶領域304には、ユーザ情報バッファ330が設けられると共に、地図データ332が記憶される。たとえば、ユーザ情報バッファ330には、3次元情報に基づいて計算された、ユーザの位置およびユーザの向きがユーザ情報として一時的に記憶される。   The data storage area 304 is provided with a user information buffer 330 and map data 332 is stored. For example, the user information buffer 330 temporarily stores the user position and the user orientation calculated based on the three-dimensional information as user information.

地図データ332には、空間に置かれている展示物Eおよびその展示物Eと対応する所定範囲の情報(座標)が含まれる。なお、図示は省略するが、データ記憶領域304には、様々な計算の結果を一時的に格納するバッファや、中央制御装置14の動作に必要な他のカウンタやフラグなども設けられる。   The map data 332 includes an exhibit E placed in the space and information (coordinates) in a predetermined range corresponding to the exhibit E. Although not shown, the data storage area 304 is also provided with a buffer for temporarily storing the results of various calculations, and other counters and flags necessary for the operation of the central controller 14.

中央制御装置14のプロセッサ16は、Linux(登録商標)ベースのOSや、その他のOSの制御下で、図9に示す出力制御処理などを含む、複数のタスクを処理する。   The processor 16 of the central control unit 14 processes a plurality of tasks including an output control process shown in FIG. 9 under the control of a Linux (registered trademark) -based OS and other OSs.

図9は出力制御処理のフロー図である。中央制御装置14の電源がオンにされると、中央制御装置14のプロセッサ16は、ステップS1で終了命令か否かを判断する。たとえば、中央制御装置14を終了させる操作が管理人によって行われたかが判断される。ステップS1で“NO”であれば、つまり終了命令を受け付けていなければ、ステップS3でプロセッサ16は、ユーザ情報を取得する。つまり、ユーザ情報バッファ330から、ユーザの位置および向きが読み出される。   FIG. 9 is a flowchart of the output control process. When the central controller 14 is powered on, the processor 16 of the central controller 14 determines whether or not it is an end command in step S1. For example, it is determined whether an operation for terminating the central control device 14 has been performed by an administrator. If “NO” in the step S1, that is, if an end command is not accepted, the processor 16 acquires user information in a step S3. That is, the user position and orientation are read from the user information buffer 330.

続いて、ステップS5でプロセッサ16は、ユーザが説明範囲Aに入っているか否かを判断する。たとえば、プロセッサ16は、地図データ332を読み出して、ユーザの位置が展示物E1の説明範囲A1に含まれているかを判断する。ステップS5で“NO”であれば、たとえばユーザの位置が入口の周囲であれば、プロセッサ16はステップS1の処理に戻る。また、ステップS5で“YES”であれば、たとえばユーザの位置が説明範囲A1に含まれていれば、ステップS7でプロセッサ16は、ユーザが対象点Cの方を向いているか否かを判断する。たとえば、ユーザが説明範囲A1にいる場合は、ユーザの向きが展示物E1の対象点C1の方に向いているかが判断される。なお、ユーザの向きが対象点Cを向いているかを判断する場合、±5度は許容範囲とされる。つまり、ステップS7では、ユーザの向きに対して±5度の許容範囲に対象点Cが含まれているかが判断される。ステップS7で“NO”であれば、つまりユーザが対象点Cの方を向いていなければ、プロセッサ16はステップS1の処理に戻る。   Subsequently, in step S5, the processor 16 determines whether or not the user is in the explanation range A. For example, the processor 16 reads the map data 332 and determines whether or not the user's position is included in the explanation range A1 of the exhibit E1. If “NO” in the step S5, for example, if the user's position is around the entrance, the processor 16 returns to the process of the step S1. If “YES” in the step S5, for example, if the position of the user is included in the explanation range A1, the processor 16 determines whether or not the user is facing the target point C in a step S7. . For example, when the user is in the explanation range A1, it is determined whether the user is facing the target point C1 of the exhibit E1. When determining whether the user is facing the target point C, ± 5 degrees is an allowable range. That is, in step S7, it is determined whether the target point C is included in an allowable range of ± 5 degrees with respect to the user orientation. If “NO” in the step S7, that is, if the user does not face the target point C, the processor 16 returns to the process of the step S1.

また、ステップS7で“YES”であれば、つまりユーザが対象点Cの方を向いていれば、ステップS9でプロセッサ16は、ロボット10をユーザの近傍へ移動させる。つまり、プロセッサ16は、ユーザの位置を示す座標と、その座標への移動命令をロボット10に対して出す。その結果、ロボット10はユーザに近づくことになる。   If “YES” in the step S7, that is, if the user is facing the target point C, the processor 16 moves the robot 10 to the vicinity of the user in a step S9. That is, the processor 16 issues a coordinate indicating the position of the user and a movement command to the coordinate to the robot 10. As a result, the robot 10 approaches the user.

続いて、ステップS11でプロセッサ16は、ポインティング可能か否かを判定する。つまり、プロセッサ16は、展示物E(対象点C)とユーザのとの間に障害物が存在しないかを判定する。なお、ステップS11の処理を実行するプロセッサ16は判定手段として機能する。ステップS11で“NO”であれば、つまり指さしによって展示物Eを指すことが不可能であれば、プロセッサ16はステップS15の処理に進む。一方、ステップS11で“YES”であれば、つまり指さしによって展示物を指すことが可能であれば、ステップS13でプロセッサ16は、展示物Eをポインティングする。つまり、中央制御装置14は、対象点Cを指す指さしの動作命令をロボット10に対して送信する。そして、ロボット10は指さしの動作命令を受けて、対象点Cを指す指さしを行う。なお、ステップS13の処理を実行するプロセッサ16はポインティング手段として機能する。   Subsequently, in step S11, the processor 16 determines whether or not pointing is possible. That is, the processor 16 determines whether there is an obstacle between the exhibit E (target point C) and the user. The processor 16 that executes the process of step S11 functions as a determination unit. If “NO” in the step S11, that is, if it is impossible to point to the exhibit E by pointing, the processor 16 proceeds to a process in step S15. On the other hand, if “YES” in the step S11, that is, if it is possible to point to the exhibit by pointing, the processor 16 points the exhibit E in a step S13. That is, the central control device 14 transmits a pointing operation command indicating the target point C to the robot 10. The robot 10 receives the pointing operation command and performs pointing at the target point C. The processor 16 that executes the process of step S13 functions as a pointing means.

続いて、ステップS15でプロセッサ16は、発話コンテンツを選択する。たとえば、ユーザが説明範囲A1にいる場合、説明範囲A1と対応する「1」番の発話コンテンツが読み出される。そして、指さしによって展示物Eを指すことが出来るか否かの判定結果に基づいて、第1発話コンテンツまたは第2発話コンテンツが選択される。なお、ステップS15の処理を実行するプロセッサ16は選択手段として機能する。続いて、ステップS17でプロセッサ16は、発話コンテンツを出力する。つまり、ステップS15の処理で選択された発話コンテンツをロボット10に送信する。たとえば、説明範囲A1と対応する「1」番の発話コンテンツにおける第1発話コンテンツがロボット10に送信された場合、ロボット10は展示物Eの対象点C1を指さしで指した状態で、「これはモータです」と発話する。なお、ステップS17の処理を実行するプロセッサ16は出力手段として機能する。   Subsequently, in step S15, the processor 16 selects an utterance content. For example, when the user is in the explanation range A1, the “1” utterance content corresponding to the explanation range A1 is read. Then, the first utterance content or the second utterance content is selected based on the determination result of whether or not the exhibit E can be pointed by pointing. The processor 16 that executes the process of step S15 functions as a selection unit. Subsequently, in step S17, the processor 16 outputs the utterance content. That is, the utterance content selected in step S15 is transmitted to the robot 10. For example, when the first utterance content in the utterance content of “1” corresponding to the explanation range A1 is transmitted to the robot 10, the robot 10 points to the target point C1 of the exhibit E, It ’s a motor. ” The processor 16 that executes the process of step S17 functions as an output unit.

続いて、ステップS19でプロセッサ16は、出力終了か否かを判断する。つまり、プロセッサ16は、発話コンテンツの出力が終了したことがロボット10から通知されたかを判断する。ステップS19で“NO”であれば、つまり発話コンテンツの出力が続いていれば、プロセッサ16はステップS19の処理を繰り返して実行する。一方、ステップS19で“YES”であれば、つまり発話コンテンツの出力が終了すると、プロセッサ16はステップS1の処理に戻る。   Subsequently, in step S19, the processor 16 determines whether or not the output is finished. That is, the processor 16 determines whether or not the robot 10 has notified that the output of the utterance content has been completed. If “NO” in the step S19, that is, if the output of the utterance content is continued, the processor 16 repeatedly executes the process of the step S19. On the other hand, if “YES” in the step S19, that is, if the output of the utterance content is finished, the processor 16 returns to the process of the step S1.

そして、ステップS1で“YES”であれば、たとえばユーザが中央制御装置14を終了させる操作を行うと、プロセッサ16は出力制御処理を終了する。   If “YES” in the step S1, for example, when the user performs an operation to end the central control device 14, the processor 16 ends the output control process.

<第2実施例>
第2実施例では、展示物Eの一部を指すフィンガーポインティング(指さし)に加えて、展示物Eの全体を指すパームポインティングを、ロボット10が行う。また、発話コンテンツのそれぞれの優先度を算出し、優先度が高い発話コンテンツが出力される。なお、第2実施例のロボット制御システム100は、第1実施例と略同じであるため、システムの構成、ロボット10の外観および電気的な構成、中央制御装置14の電気的な構成などの説明は省略する。
<Second embodiment>
In the second embodiment, the robot 10 performs palm pointing indicating the entire exhibit E in addition to finger pointing indicating a part of the exhibit E. Moreover, the priority of each utterance content is calculated, and the utterance content with a high priority is output. The robot control system 100 according to the second embodiment is substantially the same as that according to the first embodiment. Therefore, the system configuration, the appearance and electrical configuration of the robot 10, the electrical configuration of the central controller 14, and the like are described. Is omitted.

図10を参照して、第2実施例では、説明範囲A1,A2に加えて、対象点C1を中心とする楕円形の説明範囲A3が設けられる。また、説明範囲A3の中には、展示物E、説明範囲A1および説明範囲A2が含まれ、説明範囲A3は2つの説明範囲Aよりも広い。そして、説明範囲A3には、展示物Eの全体を指すパームポインティングが発話コンテンツに対応付けられている。   Referring to FIG. 10, in the second embodiment, in addition to the explanation ranges A1 and A2, an ellipse explanation range A3 centered on the target point C1 is provided. The explanation range A3 includes the exhibit E, the explanation range A1, and the explanation range A2, and the explanation range A3 is wider than the two explanation ranges A. In the explanation range A3, palm pointing indicating the entire exhibit E is associated with the utterance content.

図11を参照して、第2実施例の発話コンテンツDB24では、ポインティング種類および優先度の列がさらに加えられる。たとえば、フィンガーポインティングと対応する「1」および「2」番の発話コンテンツにおいて、ポインティング種類の欄には「フィンガーポインティング」が記憶される。また、「1」番の発話コンテンツの優先度の欄には「60」が記憶され、「2」番の発話コンテンツの優先度の欄には「50」が記憶される。そして、パームポインティングと対応する「3」番の発話コンテンツにおいて、ポインティング種類の欄には「パームポインティング」が記憶され、「優先度」の欄には「30」が記憶される。また、「3」番の発話コンテンツの内容(ポインティングあり)の欄には「これは電動バイクです」が記憶され、内容(ポインティングなし)の欄には「今ご覧いただいているのは電動バイクです」が記憶される。実施例の優先度とは、複数の発話コンテンツのうち、現在のユーザの状況に適切な発話コンテンツを選択するための値である。たとえば、2つの説明範囲Aが重なっている場合、優先度を計算することで、ユーザの状況に適切な発話コンテンツを選択することが出来る。そして、この優先度は、ポインティングの可能/不可能の判定結果に基づいて算出される。   Referring to FIG. 11, in the utterance content DB 24 of the second embodiment, a column of pointing type and priority is further added. For example, in the “1” and “2” utterance contents corresponding to finger pointing, “finger pointing” is stored in the column of pointing type. Also, “60” is stored in the priority column of the “1” uttered content, and “50” is stored in the priority column of the “2” uttered content. Then, in the “3” utterance content corresponding to palm pointing, “palm pointing” is stored in the pointing type column, and “30” is stored in the “priority” column. In addition, “This is an electric bike” is stored in the “No. 3” utterance content (with pointing) column, and “No electric pointing” is displayed in the “No pointing” column. Is stored. The priority in the embodiment is a value for selecting an utterance content appropriate for the current user situation from among a plurality of utterance contents. For example, when two explanation ranges A overlap, the speech content appropriate for the user's situation can be selected by calculating the priority. The priority is calculated based on a determination result indicating whether or not pointing is possible.

ここで、フィンガーポインティングの可能/不可能の判定結果は、上述したように、説明範囲Aに入っているかの範囲判定と、ユーザと対象点Cとの間に障害物が存在するかの障害物判定とによって得られる。また、パームポインティングの可能/不可能の判定結果は、説明範囲Aに入っているかの範囲判定によって得られる。ただし、パームポインティングは、展示物Eの全体を指すため、障害物が存在するかの判定は行わない。   Here, as described above, the determination result of whether finger pointing is possible / impossible is the range determination as to whether it is in the explanation range A, and the obstacle as to whether there is an obstacle between the user and the target point C. Obtained by judgment. In addition, the determination result of whether palm pointing is possible or not is obtained by range determination as to whether it is within the explanation range A. However, since palm pointing refers to the entire exhibit E, it is not determined whether an obstacle exists.

図12を参照して、ポインティングの可能/不可能の判定結果が記憶される判定テーブルには、発話コンテンツの番号、判定結果および判定結果に基づく優先度が記憶される列が設けられる。たとえば、説明範囲A1にユーザが入った状態で、ユーザと対象点C1との間に障害物がある場合、「1」番の発話コンテンツの判定結果は「ポインティング不可能」となる。また、この状態のユーザは説明範囲A2に入っていないため「2」番の発話コンテンツの判定結果も「ポインティング不可能」となる。ただし、説明範囲A3は説明範囲A1を包含しているため、「3」番の発話コンテンツの判定結果は「ポインティング可能」となる。   Referring to FIG. 12, the determination table storing the determination result of possible / impossible pointing is provided with a column storing the number of the utterance content, the determination result, and the priority based on the determination result. For example, when there is an obstacle between the user and the target point C1 in a state where the user has entered the explanation range A1, the determination result of the utterance content of “1” is “impossible pointing”. Further, since the user in this state is not in the explanation range A2, the determination result of the utterance content of “2” is “impossible to point”. However, since the explanation range A3 includes the explanation range A1, the determination result of the utterance content with the number “3” is “pointing is possible”.

次に、フィンガーポインティングの判定結果が「ポインティング不可能」である場合、発話コンテンツの優先度から第1所定値(たとえば、「40」)が減算される。また、パームポインティングの判定結果が「ポインティング不可能」である場合は、優先度から第2所定値(たとえば、「5」)が減算される。ただし、「ポインティング可能」である場合は、優先度はそのままの値となる。したがって、図12に示す判定テーブルでは、「1」および「2」番の発話コンテンツでは、元の優先度から第1所定値が減算され、計算後の優先度は「20」および「10」が記憶される。また、「3」番の発話コンテンツでは「ポインティング可能」と判定されているため、優先度は減算されずに「30」が記憶される。   Next, when the determination result of finger pointing is “impossible pointing”, a first predetermined value (for example, “40”) is subtracted from the priority of the speech content. When the palm pointing determination result is “impossible pointing”, a second predetermined value (for example, “5”) is subtracted from the priority. However, when “pointing is possible”, the priority remains unchanged. Accordingly, in the determination table shown in FIG. 12, the first predetermined value is subtracted from the original priority for the utterance contents of “1” and “2”, and the calculated priorities are “20” and “10”. Remembered. Further, since it is determined that “pointing is possible” for the utterance content of “3”, the priority is not subtracted and “30” is stored.

判定テーブルに優先度が記憶されると、優先度が最も高い発話コンテンツが選択される。そして、発話コンテンツが選択されると、ポインティングの判定結果に基づいて発話コンテンツが出力される。また、判定テーブルにおいて、ポインティング可能と記憶されているかが判断され、ポインティング可能と記憶されていれば、ロボット10は展示物Eをポインティングする。   When the priority is stored in the determination table, the utterance content with the highest priority is selected. When the utterance content is selected, the utterance content is output based on the pointing determination result. Further, in the determination table, it is determined whether or not pointing is possible, and if it is stored that pointing is possible, the robot 10 points to the exhibit E.

たとえば、図12に示すように優先度が記憶されている場合は、「3」番の発話コンテンツが選択され、ロボット10は、パームポインティングによって展示物Eの全体を指すと共に、「これは電動バイクです」という説明を行う。ただし、「3」番の発話コンテンツにおいてポインティング不可能と判定されていた場合、ロボット10は、パームポインティングを行わずに、「今ご覧い頂いているのは電動バイクです」と説明する。   For example, when priority is stored as shown in FIG. 12, the utterance content of “3” is selected, and the robot 10 points to the entire exhibit E by palm pointing, and “This is an electric motorcycle. Is explained. However, if it is determined that pointing is not possible in the utterance content of “3”, the robot 10 explains that “the electric motorcycle is being viewed” without performing palm pointing.

また、判定テーブルにおいて「1」番の発話コンテンツの優先度が最も高く、かつポインティング可能と判定されている場合は、「1」番の発話コンテンツが選択され、ロボット10はフィンガーポインティングによって展示物Eの一部を指すと共に、「これは充電用のプラグです」と言う説明を行う。なお、「1」番の発話コンテンツにおいてポインティング不可能と判定されていた場合については、第1実施例で詳細に説明したため、ここでの説明は省略する。   If it is determined that the priority of the utterance content of “1” in the determination table is the highest and pointing is possible, the utterance content of “1” is selected, and the robot 10 performs the exhibition E by finger pointing. And a description “This is a plug for charging”. Note that the case where it is determined that pointing cannot be performed in the utterance content of “1” has been described in detail in the first embodiment, and thus description thereof is omitted here.

このように、ポインティングが可能を判定する範囲を説明範囲Aとしたため、ユーザは説明範囲A内では、ポインティングを交えた説明を受けることが出来る。また、優先度に基づいて発話コンテンツを出力するようにしたため、発話コンテンツを選択する処理を単純にすることが出来る。また、ロボット制御システムの管理者は、発話コンテンツの優先度を、フィンガーポインティングが優先して行われるように設定することが可能である。たとえばこのように設定した場合、通常はフィンガーポインティングによって展示物Eの一部が指された状態で説明が行われ、フィンガーポインティングによって展示物Eの一部を指すことが出来ない場合は、パームポインティングによって展示物Eの全体が指された状態で説明が行われる。つまり、ロボット10は、展示物Eの周囲の状況に合わせて、適切な説明を行うことが出来る。   Thus, since the range in which the pointing is possible is determined as the explanation range A, the user can receive the explanation with pointing in the explanation range A. Further, since the utterance content is output based on the priority, the process of selecting the utterance content can be simplified. Further, the administrator of the robot control system can set the priority of the uttered content so that finger pointing is performed with priority. For example, when the setting is made in this way, the explanation is usually made in a state where a part of the exhibit E is pointed by finger pointing, and when the part of the exhibit E cannot be pointed by finger pointing, palm pointing is performed. Thus, the explanation is given in a state where the entire exhibit E is pointed to. That is, the robot 10 can provide an appropriate explanation according to the situation around the exhibit E.

上述では第2実施例の特徴を概説した。以下では、図13に示すメモリマップおよび図14−図16に示すフロー図を用いて、第2実施例について詳細に説明する。   The above has outlined the features of the second embodiment. Hereinafter, the second embodiment will be described in detail with reference to the memory map shown in FIG. 13 and the flowcharts shown in FIGS.

図13は、第2実施例の中央制御装置14におけるメモリ18のメモリマップの一例を示す図解図である。第2実施例のプログラム記憶領域302には、第1実施例のプログラムに加えて、フィンガーポインティングが可能か不可能かを判定するための第1ポインティング判定プログラム312およびパームポインティングが可能か不可能かを判定するための第2ポインティングプログラム314が記憶される。   FIG. 13 is an illustrative view showing one example of a memory map of the memory 18 in the central controller 14 of the second embodiment. In the program storage area 302 of the second embodiment, in addition to the program of the first embodiment, a first pointing determination program 312 for determining whether finger pointing is possible or impossible and palm pointing is possible or impossible. A second pointing program 314 for determining the above is stored.

第2実施例のデータ記憶領域304には、第1実施例のバッファやデータに加えて、判定バッファ334が設定される。判定バッファ334には、図12に示すような判定テーブルが一時的に記憶される。   In the data storage area 304 of the second embodiment, a determination buffer 334 is set in addition to the buffer and data of the first embodiment. The determination buffer 334 temporarily stores a determination table as shown in FIG.

第2実施例の中央制御装置14のプロセッサ16は、Linux(登録商標)ベースのOSや、その他のOSの制御下で、図14に示す出力制御処理、図15に示す第1ポインティング判定処理および図16に示す第2ポインティング判定処理などを含む、複数のタスクを処理する。   The processor 16 of the central control device 14 according to the second embodiment includes an output control process illustrated in FIG. 14, a first pointing determination process illustrated in FIG. A plurality of tasks including the second pointing determination process shown in FIG. 16 is processed.

図14は、第2実施例の出力制御処理のフロー図である。なお、第2実施例の出力制御処理では、ステップS1,S3,S11,S15,S19は第1実施例と略同じであるため、詳細な説明は省略する。   FIG. 14 is a flowchart of the output control process of the second embodiment. In the output control process of the second embodiment, steps S1, S3, S11, S15, and S19 are substantially the same as those of the first embodiment, and thus detailed description thereof is omitted.

中央制御装置14の電源がオンにされると、プロセッサ16は、ステップS1で終了命令か否かを判断する。ステップS1で“NO”であれば、つまり終了命令でなければ、ステップS3でプロセッサ16は、ユーザ情報を取得する。   When the central controller 14 is powered on, the processor 16 determines whether or not it is an end command in step S1. If “NO” in the step S1, that is, if not an end command, the processor 16 acquires user information in a step S3.

続いて、プロセッサ16は、ステップS31で第1ポインティング判定処理を実行し、ステップS33で第2ポインティング判定処理を実行する。つまり、各発話コンテンツについて、展示物Eをポインティングによって指すことが可能か不可能かを判定する。また、第1ポインティング判定処理および第2ポインティング判定処理については、図15および図16を用いて詳細に説明するため、ここでの説明は省略する。なお、ステップS31,S33の処理を実行するプロセッサ16は判定処理として機能する。   Subsequently, the processor 16 executes a first pointing determination process in step S31, and executes a second pointing determination process in step S33. That is, for each utterance content, it is determined whether or not the exhibit E can be pointed by pointing. Further, the first pointing determination process and the second pointing determination process will be described in detail with reference to FIGS. 15 and 16, and thus the description thereof is omitted here. The processor 16 that executes the processes of steps S31 and S33 functions as a determination process.

続いて、ステップS35でプロセッサ16は、発話コンテンツの優先度を計算する。つまり、2つのポインティング判定処理が実行されると、判定結果が判定テーブルに記憶された状態となるため、その判定結果に基づいて、各発話コンテンツの優先度が計算される。続いて、ステップS37でプロセッサ16は、優先度が最も高い発話コンテンツを選択する。つまり、ユーザおよび展示物Eの現在の周囲の状況において、出力するのに適切な発話コンテンツが選択される。続いて、ステップS9でプロセッサ16は、ロボット10をユーザの近傍に移動させる。なお、ステップS35の処理を実行するプロセッサ16は計算手段として機能する。また、ステップS37の処理を実行するプロセッサ16は選択手段として機能する。   Subsequently, in step S35, the processor 16 calculates the priority of the utterance content. That is, when two pointing determination processes are executed, the determination result is stored in the determination table, and the priority of each utterance content is calculated based on the determination result. Subsequently, in step S37, the processor 16 selects the utterance content having the highest priority. In other words, in the current surrounding situation of the user and the exhibit E, the utterance content appropriate for output is selected. Subsequently, in step S9, the processor 16 moves the robot 10 to the vicinity of the user. The processor 16 that executes the process of step S35 functions as a calculation unit. The processor 16 that executes the process of step S37 functions as a selection unit.

続いて、ステップS39でプロセッサ16は、ポインティングが可能か否かを判断する。つまり、選択された発話コンテンツにおいて、判定テーブルの判定結果として「ポインティング可能」が記憶されているかが判断される。ステップS39で“NO”であれば、つまり選択された発話コンテンツの判定結果が「ポインティング不可能」であれば、プロセッサ16はステップS41の処理に進む。また、ステップS39で“YES”であれば、つまり選択された発話コンテンツの判定結果が「ポインティング可能」であれば、プロセッサ16はステップS13で展示物Eをポインティングする。   Subsequently, in step S39, the processor 16 determines whether or not pointing is possible. That is, it is determined whether “pointing is possible” is stored as the determination result of the determination table in the selected utterance content. If “NO” in the step S39, that is, if the determination result of the selected utterance content is “impossible pointing”, the processor 16 proceeds to a process in step S41. If “YES” in the step S39, that is, if the determination result of the selected utterance content is “pointing is possible”, the processor 16 points the exhibit E in a step S13.

続いて、ステップS41でプロセッサ16は、ポインティングの判定結果に基づいて発話コンテンツを出力する。たとえば、選択された発話コンテンツでポインティング可能と判定されていれば、選択された発話コンテンツにおいて第1発話コンテンツ(たとえば、「これはモータです」)がロボット10に送信される。一方、ポインティング不可能と判定されていれば、第2発話コンテンツ(たとえば、「足元にある銀色の者はモータです」)がロボット10に送信される。そして、ロボット10は、受信した発話コンテンツを出力する。なお、ステップS41の処理を実行するプロセッサ16は出力部として機能する。   Subsequently, in step S41, the processor 16 outputs the utterance content based on the pointing determination result. For example, if it is determined that pointing is possible with the selected utterance content, the first utterance content (for example, “This is a motor”) in the selected utterance content is transmitted to the robot 10. On the other hand, if it is determined that pointing is impossible, the second utterance content (for example, “a silver person at the feet is a motor”) is transmitted to the robot 10. Then, the robot 10 outputs the received utterance content. The processor 16 that executes the process of step S41 functions as an output unit.

続いて、ステップS19でプロセッサ16は、終了か否かを判断する。プロセッサ16は、ステップS19で“NO”であればステップS19の処理を繰り返して実行し、“YES”であればステップS1の処理に戻る。そして、ステップS1で“YES”であれば、つまり終了命令が出されると、プロセッサ16は出力制御処理を終了する。   Subsequently, in step S19, the processor 16 determines whether or not the processing is finished. If “NO” in the step S19, the processor 16 repeatedly executes the process of the step S19, and if “YES”, the processor 16 returns to the process of the step S1. If “YES” in the step S1, that is, if an end command is issued, the processor 16 ends the output control process.

図15は第1ポインティング判定処理のフロー図である。図14の出力制御処理でステップS31の処理が実行されると、プロセッサ16はステップS51で変数iを初期化する。変数iは複数の発話コンテンツの内の1つを指定するための変数である。また、初期化された変数iの値は「1」となる。   FIG. 15 is a flowchart of the first pointing determination process. When the process of step S31 is executed in the output control process of FIG. 14, the processor 16 initializes the variable i in step S51. The variable i is a variable for designating one of a plurality of utterance contents. In addition, the value of the initialized variable i is “1”.

続いて、ステップS53でプロセッサ16は、i番目の発話コンテンツのポインティング種類は第1ポインティングか否かを判断する。たとえば、iが「1」であれば、プロセッサ16は、「1」番目の発話コンテンツのポインティング種類がフィンガーポインティングかを判断する。ステップS53で“NO”であれば、つまり「i」番目の発話コンテンツのポインティング種類がパームポインティングであれば、プロセッサ16はステップS63の処理に進む。つまり、選択されている発話コンテンツについては、フィンガーポインティングが可能か不可能かを判断する必要が無いため、プロセッサ16はステップS63の処理に進む。   Subsequently, in step S53, the processor 16 determines whether or not the pointing type of the i-th utterance content is the first pointing. For example, if i is “1”, the processor 16 determines whether the pointing type of the “1” -th utterance content is finger pointing. If “NO” in the step S53, that is, if the pointing type of the “i” th utterance content is the palm pointing, the processor 16 proceeds to a process of step S63. That is, for the selected utterance content, there is no need to determine whether finger pointing is possible or not, so the processor 16 proceeds to the process of step S63.

一方、ステップS53で“YES”であれば、つまり「i」番目の発話コンテンツのポインティング種類がフィンガーポインティングであれば、ステップS55でプロセッサ16は、ユーザが説明範囲Aに入っているか否かを判定する。つまり、プロセッサ16は、「i」番目の発話コンテンツの説明範囲Aの中に、ユーザの位置が含まれているかを判定する。   On the other hand, if “YES” in the step S53, that is, if the pointing type of the “i” th utterance content is finger pointing, the processor 16 determines whether or not the user is in the explanation range A in a step S55. To do. That is, the processor 16 determines whether or not the user's position is included in the explanation range A of the “i” th utterance content.

また、ステップS55で“YES”であれば、つまりユーザが説明範囲Aに入っていれば、ステップS57でプロセッサ16は、ユーザと対象点Cとの間を遮る障害物がないか否かを判定する。つまり、空間内の障害物(人および他のロボットなど)の位置が、ユーザと対象点Cとの間に存在しているかが判定される。なお、ステップS57の処理を実行するプロセッサ16は障害物判定手段として機能する。   If “YES” in the step S55, that is, if the user is in the explanation range A, the processor 16 determines whether or not there is an obstacle that blocks between the user and the target point C in a step S57. To do. That is, it is determined whether the position of an obstacle (such as a person and another robot) in the space exists between the user and the target point C. The processor 16 that executes the process of step S57 functions as an obstacle determination unit.

また、ステップS57の処理で“YES”であれば、つまりユーザと対象点との間に障害物がなければ、ステップS59でプロセッサ16は、i番目の発話コンテンツの判定結果としてポインティング可能を設定する。たとえば、iが「1」であり、ユーザが説明範囲A1にいて、かつユーザと対象点C1との間に障害物がなければ、判定テーブルにおいて、「1」番目の発話コンテンツに対応する判定結果の欄に「ポインティング可能」と記憶される。なお、ステップS59の処理を実行するプロセッサ16は第1設定手段として機能する。   On the other hand, if “YES” in the process of step S57, that is, if there is no obstacle between the user and the target point, in step S59, the processor 16 sets the pointing possibility as the determination result of the i-th utterance content. . For example, if i is “1”, the user is in the explanation range A1, and there is no obstacle between the user and the target point C1, the determination result corresponding to the “1” -th utterance content in the determination table "Pointing is possible" is stored in the column. The processor 16 that executes the process of step S59 functions as a first setting unit.

また、ステップS55で“NO”またはステップS57で“NO”であれば、たとえばユーザが説明範囲Aの中に入っていないか、ユーザと対象点Cとの間に障害物があれば、ステップS61でプロセッサ16は、i番目の発話コンテンツの判定結果としてポインティング不可能を設定する。たとえば、iが「1」であり、ユーザが説明範囲A1いなければ、判定テーブルにおいて、「1」番目の発話コンテンツに対応する判定結果の欄に「ポインティング不可能」と記憶される。   If “NO” in step S55 or “NO” in step S57, for example, if the user is not in the explanation range A or there is an obstacle between the user and the target point C, step S61 is performed. Thus, the processor 16 sets “impossible pointing” as the determination result of the i-th utterance content. For example, if i is “1” and the user is not in the explanation range A1, “no pointing” is stored in the determination result column corresponding to the “1” -th utterance content in the determination table.

続いて、ステップS63でプロセッサ16は、変数iをインクリメントする。つまり、次の発話コンテンツを指定するために、変数iの値が1つ大きくなる。続いて、ステップS65でプロセッサ16は、変数iは最大値より大きいか否かを判断する。つまり、全ての発話コンテンツについて、フィンガーポインティングが可能か不可能かの判定が終わったかが判断される。ステップS65で“NO”であれば、全ての発話コンテンツに対して判定が終わっていなければ、プロセッサ16はステップS53の処理に戻る。一方、ステップS65で“YES”であれば、つまり全ての発話コンテンツに対して判定が終わっていれば、プロセッサ16は第1ポインティング判定処理を終了して、出力制御処理に戻る。   Subsequently, in step S63, the processor 16 increments the variable i. That is, in order to designate the next utterance content, the value of the variable i is increased by one. Subsequently, in step S65, the processor 16 determines whether or not the variable i is larger than the maximum value. That is, it is determined whether or not the determination as to whether or not finger pointing is possible is completed for all utterance contents. If “NO” in the step S65, if the determination is not completed for all the utterance contents, the processor 16 returns to the process of the step S53. On the other hand, if “YES” in the step S65, that is, if the determination is completed for all the utterance contents, the processor 16 ends the first pointing determination process and returns to the output control process.

図16は第2ポインティング判定処理のフロー図である。なお、ステップS81,S85,S91,S93の処理は、第1ポインティング判定処理のステップS51,S55,S63,S65の処理と略同じであるため詳細な説明は省略する。   FIG. 16 is a flowchart of the second pointing determination process. Note that the processes of steps S81, S85, S91, and S93 are substantially the same as the processes of steps S51, S55, S63, and S65 of the first pointing determination process, and thus detailed description thereof is omitted.

図14の出力制御処理でステップS33の処理が実行されると、プロセッサ16はステップS81で変数iを初期化する。   When the process of step S33 is executed in the output control process of FIG. 14, the processor 16 initializes the variable i in step S81.

続いて、ステップS83でプロセッサ16はi番目の発話コンテンツのポインティング種類は第2ポインティングか否かを判断する。つまり、選択されている発話コンテンツがと対応するポインティングがパームポインティングであるかが判断される。ステップS83で“NO”であれば、つまり選択された発話コンテンツのポインティング種類がフィンガーポインティングであれば、プロセッサ16はステップS91の処理に進む。つまり、選択されている発話コンテンツについては、パームポインティングが可能か不可能かを判定する必要が無いため、プロセッサ16はステップS91の処理に進む。   Subsequently, in step S83, the processor 16 determines whether or not the pointing type of the i-th utterance content is the second pointing. That is, it is determined whether the pointing corresponding to the selected utterance content is palm pointing. If “NO” in the step S83, that is, if the pointing type of the selected utterance content is finger pointing, the processor 16 proceeds to a process of step S91. That is, for the selected utterance content, there is no need to determine whether palm pointing is possible or not, so the processor 16 proceeds to the process of step S91.

続いて、ステップS83で“YES”であれば、つまり選択されている発話コンテンツのポインティング種類がパームポインティングであれば、ステップS85でプロセッサ16は、ユーザが発明範囲Aに入っているか否かを判定する。ステップS85で“YES”であれば、つまりユーザが説明範囲Aに入っていれば、ステップS87でプロセッサ16は、i番目の発話コンテンツの判定結果としてポインティング可能が設定される。たとえば、iが「3」であり、ユーザが説明範囲A3に入っていれば、「3」番目の発話コンテンツと対応する判定テーブルの判定結果の欄には「ポインティング可能」が記憶される。なお、ステップS87の処理を実行するプロセッサ16は第2設定手段として機能する。   Subsequently, if “YES” in the step S83, that is, if the pointing type of the selected utterance content is the palm pointing, the processor 16 determines whether or not the user is in the invention range A in a step S85. To do. If “YES” in the step S85, that is, if the user is in the explanation range A, the processor 16 is set to be capable of pointing as a determination result of the i-th utterance content in a step S87. For example, if i is “3” and the user is in the explanation range A3, “pointing is possible” is stored in the determination result column of the determination table corresponding to the “3” -th utterance content. The processor 16 that executes the process of step S87 functions as a second setting unit.

一方、ステップS85で“NO”であれば、つまりユーザが説明範囲Aに入っていなければ、ステップS89でプロセッサ16は、i番目の発話コンテンツの判定結果としてポインティング不可能を設定する。たとえば、iが「3」であれば、ユーザが説明範囲A3に入っていなければ、「3」番目の発話コンテンツと対応する判定テーブルの判定結果の欄には「ポインティング不可能」が記憶される。   On the other hand, if “NO” in the step S85, that is, if the user is not in the explanation range A, the processor 16 sets the pointing impossible as the determination result of the i-th utterance content in a step S89. For example, if i is “3”, if the user is not in the explanation range A3, “pointing is impossible” is stored in the determination result column of the determination table corresponding to the “3” -th utterance content. .

続いて、プロセッサ16は、ステップS91で変数iをインクリメントして、ステップS93で変数iが最大値よりも大きいかを判断する。ステップS93で“NO”であれば、プロセッサ16はステップS83の処理に戻る。一方、ステップS93で“YES”であれば、プロセッサ16は第2ポインティング判定処理を終了して、出力制御処理に戻る。   Subsequently, the processor 16 increments the variable i in step S91, and determines whether the variable i is larger than the maximum value in step S93. If “NO” in the step S93, the processor 16 returns to the process of the step S83. On the other hand, if “YES” in the step S93, the processor 16 ends the second pointing determination process and returns to the output control process.

なお、ステップS55,S85の処理を実行するプロセッサ16は範囲判定手段として機能する。また、ステップS59,S87の処理を実行するプロセッサ16は設定手段として機能する。   The processor 16 that executes the processes of steps S55 and S85 functions as a range determination unit. The processor 16 that executes the processes of steps S59 and S87 functions as setting means.

また、展示物Eに対するポインティングは、ロボット10の顔の動きや、視線などによって行われてもよい。また、ロボット10は、レーザポインタや指し棒などのポインティング手段を備えていてもよい。また、他の実施例では、第1ポインティングおよび第2ポインティングに加えて、指示する範囲を指などで指定する第3ポインティングをロボット10が行うようにしてもよい。   The pointing to the exhibition E may be performed by the movement of the face of the robot 10 or the line of sight. Further, the robot 10 may include pointing means such as a laser pointer and a pointing stick. In another embodiment, in addition to the first pointing and the second pointing, the robot 10 may perform the third pointing that designates the designated range with a finger or the like.

また、その他の実施例では、ロボット10が中央制御装置14を有し、ロボット10が距離画像センサ12から無線接続または有線接続によって3次元情報を直接取得できてもよい。この場合、ロボット10単独で、ユーザに出力する発話コンテンツを決めて、出力することが出来る。たとえば、第1実施例の出力制御処理を実行するロボット10のプロセッ90は、ステップS9の処理ではユーザ情報に基づいてユーザの近傍に移動し、ステップS13の処理では展示物Eを指さしによって指し、ステップS17の処理では自身で選択した発話コンテンツを出力する。また、第2実施例の出力制御処理を実行するロボット10のプロセッサ90は、ステップS9およびステップS13の処理は第1実施例と同様に実行し、ステップS41の処理では優先度が最も高い発話コンテンツから、判定テーブルに基づいて、第1発話コンテンツまたは第2発話コンテンツを選んだうえで、選んだ発話コンテンツを出力する。   In another embodiment, the robot 10 may have the central control device 14 and the robot 10 may be able to directly acquire the three-dimensional information from the distance image sensor 12 by wireless connection or wired connection. In this case, the utterance content to be output to the user can be determined and output by the robot 10 alone. For example, the processor 90 of the robot 10 that executes the output control process of the first embodiment moves to the vicinity of the user based on the user information in the process of step S9, and points to the exhibit E in the process of step S13. In the process of step S17, the utterance content selected by itself is output. Further, the processor 90 of the robot 10 that executes the output control process of the second embodiment executes the processes of step S9 and step S13 in the same manner as in the first embodiment, and the utterance content having the highest priority in the process of step S41. The first utterance content or the second utterance content is selected based on the determination table, and the selected utterance content is output.

また、さらにその他の実施例では、ロボット10がユーザまたはユーザの入場を検出したときに、ロボット10が発話コンテンツを出力するために、中央制御装置14に対して出力制御処理の実行命令を出してもよい。このように、ロボット10の自律行動をサポートするために、中央制御装置14がロボット10によって利用されてもよい。   In still another embodiment, when the robot 10 detects the user or the user's entry, the robot 10 issues an output control processing execution command to the central controller 14 in order to output the utterance content. Also good. Thus, the central controller 14 may be used by the robot 10 to support the autonomous behavior of the robot 10.

また、他の実施例では、ロボット10がディスプレイを有している場合は、発話コンテンツは音声だけでなく、映像を利用して出力されてもよい。たとえば、発話コンテンツを出力するロボット10は、自身のディスプレイに映像を表示しながら、展示物Eの説明を行う。   In another embodiment, when the robot 10 has a display, the utterance content may be output using video as well as audio. For example, the robot 10 that outputs the utterance content explains the exhibit E while displaying an image on its own display.

また、ロボット10は、実施例のような車輪移動型のロボットだけでなく、2足歩行型のロボットであってもよい。   Further, the robot 10 may be a biped walking type robot as well as a wheel movement type robot as in the embodiment.

また、空間に入ったユーザは、RFIDタグではなく、顔認識によって識別されてもよい。   A user who enters the space may be identified by face recognition instead of the RFID tag.

また、本実施例で説明した複数のプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して本実施例と同等の構成のシステムに配信されてもよい。また、CD, DVD, BD (Blu-ray(登録商標) Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にこれらのプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、上記複数のプログラムが、本実施例と同等の構成のシステムに適用された場合、本実施例と同等の効果が得られる。   In addition, the plurality of programs described in the present embodiment may be stored in the HDD of a data distribution server and distributed to a system having the same configuration as that of the present embodiment via a network. In addition, storage programs such as CDs, DVDs, and BDs (Blu-ray (registered trademark) Disc) are sold or distributed with these programs stored in storage media such as USB memory and memory card. May be. When the plurality of programs downloaded through the server and storage medium described above are applied to a system having the same configuration as that of this embodiment, the same effect as that of this embodiment can be obtained.

そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。また、本明細書中で挙げた、具体的な発話コンテンツは、展示会場や展示物の種類に応じて適宜変更可能である。   The specific numerical values given in this specification are merely examples, and can be appropriately changed according to a change in product specifications. Moreover, the specific utterance content mentioned in this specification can be changed as appropriate according to the exhibition hall and the type of the exhibit.

10 …ロボット
12a,12b …距離画像センサ
14 …中央制御装置
16 …プロセッサ
18 …メモリ
24 …発話コンテンツDB
60R,60L …上腕
64R,64L …前腕
66R,66L …手
90 …プロセッサ
94 …メモリ
100 …ロボット制御システム
1000 …ネットワーク
DESCRIPTION OF SYMBOLS 10 ... Robot 12a, 12b ... Distance image sensor 14 ... Central controller 16 ... Processor 18 ... Memory 24 ... Speech content DB
60R, 60L ... upper arm 64R, 64L ... forearm 66R, 66L ... hand 90 ... processor 94 ... memory 100 ... robot control system 1000 ... network

Claims (11)

展示物が置かれた空間において自律移動可能なロボットを含む、ロボット制御システムであって、
前記展示物をポインティングによって指すことが可能かを判定する判定手段、
前記判定手段による判定結果に基づいて、発話コンテンツを選択する選択手段、および
選択された発話コンテンツを、前記ロボットから出力させる出力手段を備える、ロボット制御システム。
A robot control system including a robot that can move autonomously in a space where exhibits are placed,
Determination means for determining whether the exhibit can be pointed by pointing;
A robot control system comprising: selection means for selecting speech content based on a determination result by the determination means; and output means for outputting the selected speech content from the robot.
前記発話コンテンツは、ポインティングを伴う第1発話コンテンツおよびポインティングを伴わない第2発話コンテンツを含み、
選択された発話コンテンツにおいてポインティングによって指すことが可能だと判定されているとき、前記展示物をポインティングによって指すポインティング手段を備え、
前記出力手段は、選択された発話コンテンツにおいてポインティングによって指すことが可能だと判定されているとき前記第1発話コンテンツを出力し、前記選択された発話コンテンツにおいてポインティングによって指すことが不可能だと判定されたとき、前記第2発話コンテンツを出力する、請求項1記載のロボット制御システム。
The utterance content includes a first utterance content with pointing and a second utterance content without pointing,
When it is determined that the selected utterance content can be pointed by pointing, pointing means for pointing the exhibit by pointing is provided.
The output means outputs the first utterance content when it is determined that the selected utterance content can be pointed by pointing, and determines that the selected utterance content cannot be pointed by pointing. The robot control system according to claim 1, wherein the second utterance content is output when the second utterance content is output.
前記判定手段は、ユーザが所定範囲に入っているかを判定する範囲判定手段および前記ユーザが所定範囲に入ったと判定されたとき、ポインティングによって指すことが可能だと設定する設定手段を含み、
前記ポインティング手段は、選択された発話コンテンツにおいてポインティングによって指すことが可能だと設定されているとき、前記展示物をポインティングによって指す、請求項2記載のロボット制御システム。
The determination means includes a range determination means for determining whether the user is within a predetermined range and a setting means for setting that the user can point by pointing when it is determined that the user has entered the predetermined range,
The robot control system according to claim 2, wherein when the pointing unit is set to be able to be pointed by pointing in the selected utterance content, the exhibit is pointed to by pointing.
前記ポインティングは、前記展示物の一部を指す第1ポインティングを含み、
前記判定手段は、前記ユーザと前記展示物との間に障害物が無いかを判定する障害物判定手段をさらに含み、
前記設定手段は、前記ユーザが所定範囲に入っており、かつ当該ユーザと前記展示物との間に障害物が無いと判定されたとき、前記第1ポインティングによって指すことが可能だと設定する第1設定手段を含み、
前記ポインティング手段は、選択された発話コンテンツにおいて第1ポインティングによって指すことが可能だと設定されているとき、前記展示物の一部を第1ポインティングによって指す、請求項3記載のロボット制御システム。
The pointing includes a first pointing pointing to a part of the exhibit,
The determination means further includes an obstacle determination means for determining whether there is an obstacle between the user and the exhibit,
The setting means sets that the user can point by the first pointing when it is determined that the user is within a predetermined range and there is no obstacle between the user and the exhibit. Including one setting means,
4. The robot control system according to claim 3, wherein when the pointing unit is set to be able to be pointed by the first pointing in the selected utterance content, the part of the exhibit is pointed to by the first pointing.
前記ポインティングは、前記展示物の全体を指す第2ポインティングを含み、
前記設定手段は、前記ユーザが所定範囲に入っていると判定されたとき、前記第2ポインティングによって指すことが可能だと設定する第2設定手段を含み、
前記ポインティング手段は、選択された発話コンテンツにおいて第2ポインティングによって指すことが可能だと設定されているとき、前記展示物の全体を第2ポインティングによって指す、請求項3または4記載のロボット制御システム。
The pointing includes a second pointing pointing to the entire exhibit,
The setting means includes second setting means for setting that the user can point by the second pointing when it is determined that the user is within a predetermined range,
5. The robot control system according to claim 3, wherein when the pointing unit is set to be able to be pointed by the second pointing in the selected utterance content, the whole exhibit is pointed to by the second pointing.
前記判定手段による判定結果に基づいて、発話コンテンツの優先度を計算する計算手段をさらに備え、
前記選択手段は、前記計算手段によって計算された優先度がもっとも高い発話コンテンツを選択する、請求項1ないし5のいずれかに記載のロボット制御システム。
Based on the determination result by the determination means, further comprising a calculation means for calculating the priority of the utterance content,
The robot control system according to claim 1, wherein the selection unit selects an utterance content having the highest priority calculated by the calculation unit.
展示物が置かれた空間において自律移動可能なロボットを含む、ロボット制御システムのプロセッサを、
前記展示物をポインティングによって指すことが可能かを判定する判定手段、
前記判定手段による判定結果に基づいて、発話コンテンツを選択する選択手段、および
選択された発話コンテンツを、前記ロボットから出力させる出力手段として機能させる、出力制御プログラム。
A robot control system processor, including a robot that can move autonomously in the space where the exhibits are placed,
Determination means for determining whether the exhibit can be pointed by pointing;
An output control program that functions as selection means for selecting speech content based on the determination result by the determination means, and output means for outputting the selected speech content from the robot.
展示物が置かれた空間において自律移動可能なロボットを含む、ロボット制御システムにおける出力制御方法であって、前記ロボット制御システムのプロセッサが、
前記展示物をポインティングによって指すことが可能かを判定する判定ステップ、
前記判定ステップによる判定結果に基づいて、発話コンテンツを選択する選択ステップ、および
選択された発話コンテンツを、前記ロボットから出力させる出力ステップを実行する、出力制御方法。
An output control method in a robot control system including a robot capable of autonomous movement in a space where an exhibit is placed, wherein the processor of the robot control system includes:
A determination step of determining whether the exhibit can be pointed by pointing;
An output control method that executes a selection step of selecting speech content based on the determination result of the determination step, and an output step of outputting the selected speech content from the robot.
展示物が置かれた空間において自律移動可能な、ロボットであって、
前記展示物をポインティングによって指すことが可能かを判定する判定手段、
前記判定手段による判定結果に基づいて、発話コンテンツを選択する選択手段、および
選択された発話コンテンツを出力する出力手段を備える、ロボット。
A robot that can move autonomously in the space where the exhibits are placed,
Determination means for determining whether the exhibit can be pointed by pointing;
A robot comprising: selection means for selecting speech content based on a determination result by the determination means; and output means for outputting the selected speech content.
展示物が置かれた空間において自律移動可能な、ロボットのプロセッサを、
前記展示物をポインティングによって指すことが可能かを判定する判定手段、
前記判定手段による判定結果に基づいて、発話コンテンツを選択する選択手段、および
選択された発話コンテンツを出力する出力手段として機能させる、出力制御プログラム。
A robot processor that can move autonomously in the space where the exhibits are placed.
Determination means for determining whether the exhibit can be pointed by pointing;
An output control program that functions as a selection unit that selects utterance content and an output unit that outputs the selected utterance content based on a determination result by the determination unit.
展示物が置かれた空間において自律移動可能な、ロボットにおける出力制御方法であって、前記ロボットのプロセッサが、
前記展示物をポインティングによって指すことが可能かを判定する判定ステップ、
前記判定手段による判定結果に基づいて、発話コンテンツを選択する選択ステップ、および
選択された発話コンテンツを出力する出力ステップを実行する、出力制御方法。
An output control method in a robot capable of autonomous movement in a space where an exhibit is placed, wherein the processor of the robot includes:
A determination step of determining whether the exhibit can be pointed by pointing;
An output control method for executing a selection step of selecting utterance content and an output step of outputting the selected utterance content based on a determination result by the determination means.
JP2013202374A 2013-09-27 2013-09-27 Robot control system, robot, output control program, and output control method Active JP6142306B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013202374A JP6142306B2 (en) 2013-09-27 2013-09-27 Robot control system, robot, output control program, and output control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013202374A JP6142306B2 (en) 2013-09-27 2013-09-27 Robot control system, robot, output control program, and output control method

Publications (2)

Publication Number Publication Date
JP2015066622A true JP2015066622A (en) 2015-04-13
JP6142306B2 JP6142306B2 (en) 2017-06-07

Family

ID=52833912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013202374A Active JP6142306B2 (en) 2013-09-27 2013-09-27 Robot control system, robot, output control program, and output control method

Country Status (1)

Country Link
JP (1) JP6142306B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106863302A (en) * 2017-02-28 2017-06-20 广东工业大学 A kind of robot charging device and its implementation
CN107784354A (en) * 2016-08-17 2018-03-09 华为技术有限公司 The control method and company robot of robot

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115145256A (en) 2021-03-16 2022-10-04 本田技研工业株式会社 Control device, control method, and control system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006231497A (en) * 2005-02-28 2006-09-07 Advanced Telecommunication Research Institute International Communication robot
JP2007118129A (en) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International Communication robot and caution control system using the same
JP2007276080A (en) * 2006-04-11 2007-10-25 Toyota Motor Corp Guide robot
JP2009166184A (en) * 2008-01-17 2009-07-30 Saitama Univ Guide robot
JP2009285818A (en) * 2008-05-30 2009-12-10 Fujitsu Ltd Movement explaining device, and movement explaining program
JP2010049374A (en) * 2008-08-20 2010-03-04 Fujitsu Ltd Exhibition guidance system
JP2011020223A (en) * 2009-07-16 2011-02-03 Otsuka Bijutsu Zaidan Exhibit explanation robot and exhibit explanation method using the robot
KR20110068830A (en) * 2009-12-16 2011-06-22 주식회사코어벨 System for museum or exhibition center by using a robot docent

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006231497A (en) * 2005-02-28 2006-09-07 Advanced Telecommunication Research Institute International Communication robot
JP2007118129A (en) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International Communication robot and caution control system using the same
JP2007276080A (en) * 2006-04-11 2007-10-25 Toyota Motor Corp Guide robot
JP2009166184A (en) * 2008-01-17 2009-07-30 Saitama Univ Guide robot
JP2009285818A (en) * 2008-05-30 2009-12-10 Fujitsu Ltd Movement explaining device, and movement explaining program
JP2010049374A (en) * 2008-08-20 2010-03-04 Fujitsu Ltd Exhibition guidance system
JP2011020223A (en) * 2009-07-16 2011-02-03 Otsuka Bijutsu Zaidan Exhibit explanation robot and exhibit explanation method using the robot
KR20110068830A (en) * 2009-12-16 2011-06-22 주식회사코어벨 System for museum or exhibition center by using a robot docent

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107784354A (en) * 2016-08-17 2018-03-09 华为技术有限公司 The control method and company robot of robot
CN107784354B (en) * 2016-08-17 2022-02-25 华为技术有限公司 Robot control method and accompanying robot
US11511436B2 (en) 2016-08-17 2022-11-29 Huawei Technologies Co., Ltd. Robot control method and companion robot
CN106863302A (en) * 2017-02-28 2017-06-20 广东工业大学 A kind of robot charging device and its implementation

Also Published As

Publication number Publication date
JP6142306B2 (en) 2017-06-07

Similar Documents

Publication Publication Date Title
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
JP4822319B2 (en) Communication robot and attention control system using the same
Vonach et al. VRRobot: Robot actuated props in an infinite virtual environment
US9517559B2 (en) Robot control system, robot control method and output control method
JP5429462B2 (en) Communication robot
JP5318623B2 (en) Remote control device and remote control program
JP5366048B2 (en) Information provision system
JP6069606B2 (en) Robot control system and robot control method
JP2007260822A (en) Guide robot
JP6134894B2 (en) Robot control system and robot
JP5145569B2 (en) Object identification method and apparatus
CN110549353B (en) Force vision device, robot, and computer-readable medium storing force vision program
JP2012139798A (en) Mobile robot, learning system for the same, and method of learning action of the same
CN105930775A (en) Face orientation identification method based on sensitivity parameter
JP4962940B2 (en) Route guidance system
JP6142306B2 (en) Robot control system, robot, output control program, and output control method
KR20140009900A (en) Apparatus and method for controlling robot
JP2017170568A (en) Service providing robot system
JP2009258884A (en) User interface
JP4793904B2 (en) Communication robot system and communication robot
JP6142307B2 (en) Attention target estimation system, robot and control program
JP5115886B2 (en) Road guidance robot
JP5842245B2 (en) Communication robot
JP2012161901A (en) Communication robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170405

R150 Certificate of patent or registration of utility model

Ref document number: 6142306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250