JP2005131713A - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP2005131713A
JP2005131713A JP2003367228A JP2003367228A JP2005131713A JP 2005131713 A JP2005131713 A JP 2005131713A JP 2003367228 A JP2003367228 A JP 2003367228A JP 2003367228 A JP2003367228 A JP 2003367228A JP 2005131713 A JP2005131713 A JP 2005131713A
Authority
JP
Japan
Prior art keywords
action
data
robot
behavior
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003367228A
Other languages
Japanese (ja)
Inventor
Takayuki Kanda
崇行 神田
Yasuyuki Sumi
康之 角
Kenji Mase
健二 間瀬
Kiyoshi Kogure
潔 小暮
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2003367228A priority Critical patent/JP2005131713A/en
Publication of JP2005131713A publication Critical patent/JP2005131713A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a communication robot capable of performing behavior according to the past behavior of an interactive mate. <P>SOLUTION: A surrounding state is observed by a surrounding state observing device 16 arranged in an environment; a state from a view point of a human being is observed by a human being observing device 18 installed on the human being P2; and a state from a view point of the robot is observed by a robot body 12. An infrared tag 14 is installed on an exhibit B1 and the human being observing device 18, to thereby acquire data including identification information in the respective observing devices. Thus, interaction between human beings and exhibits in such an environment is observed, and a behavior history of the human being is successively recorded on a database. The past behavior data on the interactive mate is analyzed; behavior such as a guide and recommendation to be presented to the interactive mate is determined on the basis of its state; and the robot body 12 performs the behavior. This robot can present the behavior corresponding to the past behavior of the interactive mate. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明はコミュニケーションロボットに関し、特にたとえば、対話対象の行動を観測して、たとえば身振りや音声等の身体動作を用いてコミュニケーションをする、コミュニケーションロボットに関する。   The present invention relates to a communication robot, and more particularly to a communication robot that observes behaviors to be interacted with and communicates using body movements such as gestures and voices.

この種の従来のコミュニケーションロボットの一例が、たとえば本件出願人による特許文献1に開示されている。この特許文献1のロボットでは、たとえば、身振りや音声を用いて対話相手にポスター等のような展示物を見るように案内する行動が実行される。
米国特許第6604021号明細書
An example of this type of conventional communication robot is disclosed in, for example, Patent Document 1 by the present applicant. In the robot of Patent Document 1, for example, an action is performed to guide a conversation partner to view an exhibit such as a poster using gestures and voices.
US Pat. No. 6,604,021

特許文献1の従来技術では、対話相手に対して案内をすることができるが、その対話相手の過去の行動の如何にかかわらず、一義的にプログラミングされたガイド方法を実行するのみであった。   In the prior art of Patent Document 1, guidance can be given to a conversation partner, but only a uniquely programmed guide method is executed regardless of past actions of the conversation partner.

それゆえに、この発明の主たる目的は、対話相手の過去の行動に応じた行動を実行できる、コミュニケーションロボットを提供することである。   Therefore, a main object of the present invention is to provide a communication robot that can execute an action corresponding to a past action of a conversation partner.

請求項1の発明は、対話対象の行動を観測してコミュニケーションをするコミュニケーションロボットであって、対話対象の行動履歴を取得するセンサ、センサによって取得された行動履歴を記録する記録手段、対話対象から対話相手を決定する相手決定手段、記録手段に記録された対話相手に関する行動履歴に基づいて当該ロボットの行動を決定する行動決定手段、および行動決定手段によって決定された行動を実行する実行手段を備える、コミュニケーションロボットである。   The invention according to claim 1 is a communication robot that observes and communicates with the behavior of the dialogue target, includes a sensor that acquires the behavior history of the dialogue target, a recording unit that records the behavior history acquired by the sensor, and a dialogue target. A partner determination unit that determines a conversation partner, a behavior determination unit that determines a behavior of the robot based on a behavior history regarding the conversation partner recorded in the recording unit, and an execution unit that executes the behavior determined by the behavior determination unit , A communication robot.

請求項1の発明では、たとえば所定の空間における人間等のような当該ロボットの対話対象の行動を観測してコミュニケーションを図る。センサは対話対象の行動履歴を取得し、取得された行動履歴は記録手段によって記録される。相手決定手段は対話対象の中から対話相手を決定し、行動決定手段は、その対話相手に関する行動履歴に基づいて、当該ロボットの提示すべき行動を決定する。そして、実行手段は、決定された行動を、その対話相手に対して実行する。したがって、請求項1の発明によれば、対話相手に対してその過去の行動に応じた行動を提示することができる。   According to the first aspect of the present invention, communication is performed by observing the behavior of the robot to be interacted with, such as a human in a predetermined space. The sensor acquires the action history of the conversation target, and the acquired action history is recorded by the recording unit. The partner determination unit determines a conversation partner from among the conversation targets, and the behavior determination unit determines a behavior to be presented by the robot based on the behavior history regarding the conversation partner. And an execution means performs the determined action with respect to the dialogue partner. Therefore, according to invention of Claim 1, the action according to the past action can be shown with respect to a dialogue partner.

請求項2の発明は、請求項1に従属するコミュニケーションロボットであり、センサは、対話対象を識別するための識別情報および対話対象のインタラクションの対象物を識別するための識別情報の少なくとも一方を取得する。   The invention according to claim 2 is a communication robot according to claim 1, wherein the sensor acquires at least one of identification information for identifying a conversation target and identification information for identifying a target object of the interaction of the conversation target. To do.

請求項2の発明では、センサによって、対話対象を識別するための識別情報、および対話対象のインタラクションないし行動の対象物(実施例ではたとえば展示物やロボット本体、ぬいぐるみ等)を識別するための識別情報のうち少なくとも一方を取得する。対話対象を識別するための識別情報を取得する場合、センサは当該対話対象以外の場所に、たとえば他の対話対象、対象物または環境を構成する構造物等に設けられている。したがって、対話対象の識別情報が取得される場合、当該識別情報の付与された対話対象は、センサの設けられた他の対話対象、対象物または構造物等に対してインタラクションをしていることが把握される。また、対象物を識別するための識別情報を取得する場合、センサは当該対象物以外の場所に、たとえば対話対象、他の対象物、または環境を構成する構造物等に設けられている。したがって、対象物の識別情報が取得される場合、当該識別情報の付与された対象物に対して、センサの装着された対話対象がインタラクションをしていることが把握される。そして、記録手段は、対話相手を識別可能な識別情報によって記述された行動履歴、および対象物を識別可能な識別情報によって記述された行動履歴のうち少なくとも一方を記録する。行動決定手段は、対話対象の識別情報が取得される場合、記録手段の行動履歴の中から、対話相手に関する行動履歴をその対話相手の識別情報によって容易に特定し参照することができる。また、対象物の識別情報が取得される場合には、対話相手に設けられるセンサによって取得された行動履歴が、対話相手に関する行動履歴である。このように、センサによって対話対象および対象物の少なくとも一方の識別情報を取得することによって、行動決定手段は対話相手に対する行動を容易に決定することができる。   According to the second aspect of the present invention, identification information for identifying a dialogue target and identification for identifying an interaction or action target (for example, an exhibit, a robot body, a stuffed animal, etc. in the embodiment) by a sensor. Acquire at least one of the information. In the case of acquiring identification information for identifying a conversation target, the sensor is provided in a place other than the conversation target, for example, in another conversation target, a target object, or a structure constituting an environment. Therefore, when the identification information of the dialogue target is acquired, the dialogue target to which the identification information is assigned may interact with another dialogue target, a target, or a structure provided with the sensor. Be grasped. Moreover, when acquiring the identification information for identifying a target object, the sensor is provided in places other than the target object, for example, a dialog target, another target object, or a structure constituting an environment. Therefore, when the identification information of the object is acquired, it is understood that the conversation object with the sensor is interacting with the object to which the identification information is attached. The recording means records at least one of an action history described by identification information that can identify a conversation partner and an action history described by identification information that can identify an object. When the identification information of the conversation target is acquired, the behavior determination unit can easily identify and refer to the behavior history related to the conversation partner from the behavior history of the recording unit based on the identification information of the conversation partner. Moreover, when the identification information of a target object is acquired, the action history acquired by the sensor provided in the conversation partner is the action history regarding the conversation partner. As described above, by acquiring the identification information of at least one of the conversation object and the object by the sensor, the action determination unit can easily determine the action for the conversation partner.

請求項3の発明は、請求項2に従属するコミュニケーションロボットであり、行動決定手段は、対話相手とインタラクションの対象物との位置関係に基づいて対話相手に関する行動履歴の状態を解析し、該解析結果に基づいて行動を決定する。   The invention according to claim 3 is a communication robot according to claim 2, wherein the action determining means analyzes the state of the action history related to the conversation partner based on the positional relationship between the conversation partner and the object of interaction, and the analysis Determine actions based on results.

請求項3の発明では、行動決定手段は、対話相手に関する行動履歴データを、対話相手とそのインタラクションの対象物との位置関係に基づいて解析する。対話相手とインタラクションの対象物との位置関係は、対話対象の識別情報によって記述される行動履歴や、インタラクション対象物の識別情報によって記述される行動履歴、あるいはこれらの組み合わせ等によって把握することができる。この解析によって対話相手に関する行動履歴の状態を把握することができる。したがって、把握された過去の行動の状態に基づいて、提示する行動を容易に決定することができる。   In the invention according to claim 3, the behavior determining means analyzes the behavior history data related to the conversation partner based on the positional relationship between the conversation partner and the object of the interaction. The positional relationship between the conversation partner and the interaction object can be grasped by the action history described by the identification information of the interaction object, the action history described by the identification information of the interaction object, or a combination thereof. . By this analysis, it is possible to grasp the state of the action history related to the conversation partner. Therefore, it is possible to easily determine the action to be presented based on the grasped past action state.

請求項4の発明は、請求項1ないし3のいずれかに従属するコミュニケーションロボットであり、過去の行動に対応して当該ロボットの提示すべき行動を規定した規則を記憶する規則記憶手段をさらに備え、行動決定手段は、対話相手に関する行動履歴と規則とに基づいて、行動を決定する。   The invention according to claim 4 is a communication robot according to any one of claims 1 to 3, further comprising rule storage means for storing a rule defining an action to be presented by the robot corresponding to a past action. The action determining means determines the action based on the action history and rules regarding the conversation partner.

請求項4の発明では、規則記憶手段には、過去の行動に対応して当該ロボットの提示すべき行動を規定した規則が記憶される。そして、行動決定手段は、対話相手に関する行動履歴と規則記憶手段の規則とに基づいて、提示すべき行動を決定する。したがって、過去の行動と規則とを照合することによって、対話相手に提示する行動を容易に決定することができる。   In the invention of claim 4, the rule storing means stores a rule that defines the action to be presented by the robot corresponding to the past action. Then, the behavior determining means determines the behavior to be presented based on the behavior history regarding the conversation partner and the rules of the rule storage means. Therefore, it is possible to easily determine the action to be presented to the conversation partner by comparing the past action with the rule.

請求項5の発明は、請求項1ないし4のいずれかに従属するコミュニケーションロボットであり、行動決定手段によって決定される行動は、対話相手のインタラクションした対象物に関連する案内ないし推薦をする動作を含む。   The invention according to claim 5 is a communication robot according to any one of claims 1 to 4, wherein the action determined by the action determining means is an operation for performing guidance or recommendation related to the interacted object of the conversation partner. Including.

請求項5の発明では、対話相手のインタラクションした対象物に関連する案内ないし推薦をする動作が実行されるので、対話相手はインタラクションによって得た知識等を補完したり深めたりすることができ、有益な情報を得ることができる。   In the invention of claim 5, since the operation of performing guidance or recommendation related to the interacted object of the conversation partner is executed, the conversation partner can supplement or deepen the knowledge obtained by the interaction, which is beneficial. Information can be obtained.

この発明によれば、対話相手の過去の行動データに基づいて、当該対話相手に対して提示する行動を決定するので、対話相手の過去の行動に応じた行動を提示することができる。   According to this invention, since the action to be presented to the conversation partner is determined based on the past action data of the conversation partner, the action according to the past action of the conversation partner can be presented.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」とも言う。)10は、1または複数の対話対象である人間等の行動を観測してコミュニケーションをするものである。具体的には、ロボット10は、所定の空間において対話相手である人間に対して、当該人間の過去の行動に応じた行動を提示するためのものであり、実際に身振りや発話等の身体動作を用いて行動を提示するロボット本体12を含む。この実施例では、一例として、種々の展示物等が配置された展示会場において、訪問者P1,P2,P3…等に案内をする場合を想定している。   Referring to FIG. 1, a communication robot (hereinafter, also simply referred to as “robot”) 10 of this embodiment observes the behavior of one or more persons who are conversation objects and communicates. Specifically, the robot 10 is for presenting an action corresponding to a past action of the person to a person who is a conversation partner in a predetermined space. The robot main body 12 which presents an action using is included. In this embodiment, as an example, it is assumed that guidance is provided to visitors P1, P2, P3, etc. in an exhibition hall where various exhibits are arranged.

ロボット10では、空間内におけるロボット本体12の対話対象である少なくとも1人の人間と、その人間のたとえばインタラクション(相互作用)の対象物であるたとえば展示物やロボット本体12等との間のインタラクションに関するデータ、すなわち対話対象の行動に関するデータが逐次記録されて蓄積される。そして、この蓄積された行動の履歴に基づいて対話相手に提示すべき行動が決定され、ロボット本体12は、たとえば案内ないし推薦情報やインタラクションした対象物に関する情報等をその身振りまたは音声を含む身体動作(行動)によって提示する。このため、展示会場内には対話対象たる訪問者等のインタラクションを検知するための各種のセンサ類が設けられるとともに、検知対象物にはこの実施例では赤外線タグ14がそれぞれ取り付けられている。   The robot 10 relates to an interaction between at least one person who is an object of interaction of the robot body 12 in the space and an object (for example, an exhibit or the robot body 12) that is an object of interaction (interaction) of the person. Data, that is, data relating to the behavior of the dialogue target is sequentially recorded and accumulated. Then, based on the accumulated action history, the action to be presented to the conversation partner is determined, and the robot body 12 performs, for example, guidance or recommendation information, information on the interacted object, etc. Present by (action). For this reason, various sensors for detecting the interaction of a visitor or the like who is the subject of dialogue are provided in the exhibition hall, and an infrared tag 14 is attached to the detection target in this embodiment.

たとえば、複数の周囲状況観測装置16が環境を構成する構造物である天井または壁等の所定の位置に設置され、それぞれの設置箇所の周囲でのインタラクションが観測される。また、訪問者P2,P3や説明員Q1等には人間用観測装置18がそれぞれ装着され、それぞれの人間の視点ないし位置からのインタラクションが観測される。また、1または複数のぬいぐるみ型観測装置20も環境内の所定の場所に配置され、当該ぬいぐるみの視点ないし位置からのインタラクションが観測される。そして、ロボット本体12もその視点ないし位置からインタラクションを観測する装置として機能する。   For example, a plurality of surrounding state observation devices 16 are installed at predetermined positions such as a ceiling or a wall, which is a structure constituting the environment, and an interaction around each installation location is observed. In addition, visitors P2 and P3, the instructor Q1, and the like are each equipped with a human observation device 18, and the interaction from the viewpoint or position of each person is observed. In addition, one or more stuffed animal observation devices 20 are also arranged at predetermined locations in the environment, and the interaction from the viewpoint or position of the stuffed animal is observed. The robot body 12 also functions as a device for observing the interaction from the viewpoint or position.

また、赤外線タグ14は、対象物自体またはその近傍もしくは環境内の天井または壁等に取り付けられる。この図1の例では、展示物として説明用ボードないしポスターB1,B2,B3,B4…および説明用コンピュータM1,M2,M3…の所定位置にそれぞれ取り付けられるとともに、訪問者P1、ぬいぐるみ20、およびロボット本体12のたとえば胸部等にそれぞれ取り付けられている。各赤外線タグ14は、当該対象物を識別するための識別情報(ID番号等)を赤外線の点滅により送信する。また、訪問者P2,P3および説明員Q1に装着される人間用観測装置18にも、同様に、赤外線タグ(図示せず)が取り付けられ、当該訪問者および説明員等の対話対象を識別するための識別情報が送信される。このように、観測されて記録されるインタラクションデータは、対象物の識別情報で記述されるデータや、対話対象の識別情報で記述されるデータを含む。   The infrared tag 14 is attached to the object itself, the vicinity thereof, or a ceiling or wall in the environment. In the example of FIG. 1, the display board or posters B1, B2, B3, B4... And the description computers M1, M2, M3. The robot body 12 is attached to, for example, the chest. Each infrared tag 14 transmits identification information (ID number or the like) for identifying the object by blinking infrared rays. Similarly, an infrared tag (not shown) is attached to the human observation device 18 attached to the visitors P2 and P3 and the instructor Q1, and the objects of interaction such as the visitor and the instructor are identified. Identification information is transmitted. Thus, the interaction data observed and recorded includes data described by the identification information of the target object and data described by the identification information of the dialogue target.

赤外線タグ14および人間用観測装置18に取り付けられる赤外線タグは、赤外線LED,駆動回路および内部電池等を含み、当該赤外線タグが取り付けられた対象物に対して一意的に割り付けられたID番号が識別可能なように赤外線LEDを点滅制御する。赤外線LEDとしては、たとえば光通信用高出力発光ダイオード(スタンレイ社製DN311)等が適用され、指向性が弱くかつ可視光に近い800nm程度のものを好適に用いることができる。駆動回路はマイクロコンピュータ等から構成され、たとえば、Atmel社製4MHz駆動マイコンAT90S2323等を用いることができる。具体的には、駆動回路は、マンチェスタ符号化方式によりエンコードしたID番号(6bit)およびパリティビットと、スタートビット(1bit)およびエンドビット(2bit)とを200Hz周期の点滅により繰り返し送信する。   The infrared tag attached to the infrared tag 14 and the human observation device 18 includes an infrared LED, a drive circuit, an internal battery, and the like, and an ID number uniquely assigned to an object to which the infrared tag is attached is identified. Control the blinking of the infrared LED as possible. As the infrared LED, for example, a high-power light-emitting diode for optical communication (DN311 manufactured by Stanley Co., Ltd.) or the like is applied, and those having a low directivity and about 800 nm close to visible light can be suitably used. The drive circuit is composed of a microcomputer or the like, and for example, a 4 MHz drive microcomputer AT90S2323 manufactured by Atmel can be used. Specifically, the drive circuit repeatedly transmits an ID number (6 bits) and a parity bit encoded by the Manchester encoding method, a start bit (1 bit), and an end bit (2 bits) by blinking at a cycle of 200 Hz.

図2にはロボット10の構成の一例が示される。この図2を参照して、ロボット10は、周囲状況観測装置16、人間用観測装置18、ぬいぐるみ型観測装置20、データ取得サーバ(処理コンピュータ)22、ロボット本体12、インタラクションデータベース24、ロボット動作データベース26およびガイドルールデータベース28等を含む。なお、この図2では、図示を容易にするために、周囲状況観測装置16、人間用観測装置18、ぬいぐるみ型観測装置20およびロボット本体12をそれぞれ1個のみ示しているが、周囲状況観測装置16は1または複数の観測位置に設けられ、人間用観測装置18はたとえば説明員および訪問者ごとに設けられ、ぬいぐるみ型観測装置20およびロボット本体12は必要数だけ設けられるのは言うまでもない。   FIG. 2 shows an example of the configuration of the robot 10. Referring to FIG. 2, the robot 10 includes an ambient condition observation device 16, a human observation device 18, a stuffed animal observation device 20, a data acquisition server (processing computer) 22, a robot body 12, an interaction database 24, and a robot operation database. 26, a guide rule database 28, and the like. In FIG. 2, for ease of illustration, only one ambient condition observation device 16, human observation device 18, stuffed animal observation device 20, and robot body 12 are shown. It is needless to say that 16 is provided at one or a plurality of observation positions, the human observation device 18 is provided, for example, for each instructor and visitor, and the stuffed animal observation device 20 and the robot body 12 are provided as many as necessary.

周囲状況観測装置16は、たとえば赤外線カメラ30、CCDカメラ32、マイク34および据置型コンピュータ36等を含む。この周囲状況観測装置16によって、その周囲におけるインタラクションが観測され、検知範囲内の赤外線タグ14等の識別情報および位置情報等が取得されるとともに、ビデオデータおよび音声データ等が取得される。   The ambient condition observation device 16 includes, for example, an infrared camera 30, a CCD camera 32, a microphone 34, a stationary computer 36, and the like. The surrounding state observation device 16 observes the interaction in the surroundings, and acquires identification information and position information of the infrared tag 14 and the like within the detection range, and also acquires video data, audio data, and the like.

赤外線カメラ30は、撮影範囲内に位置する赤外線タグ14または人間用観測装置18に取り付けられた赤外線タグ等から発せられる赤外線を検出するためのものであり、画像処理装置38を介して据置型コンピュータ36に接続される。赤外線カメラ30は、たとえば赤外線フィルタ、レンズ、CMOSイメージセンサ等を含む。   The infrared camera 30 is for detecting infrared rays emitted from the infrared tag 14 located in the photographing range or the infrared tag attached to the human observation device 18, and is installed in the stationary computer via the image processing device 38. 36. The infrared camera 30 includes, for example, an infrared filter, a lens, a CMOS image sensor, and the like.

赤外線フィルタは主に近赤外線のみ透過させ、レンズはその近赤外線をCMOSイメージセンサ上に結像させる。赤外線フィルタとしては、たとえば、可視光をブロックし、近赤外光をパスするエドモンド社製プラスチックIRパスフィルタ等を使用できる。レンズの画角はたとえば60度程度であり、この場合、CMOSイメージセンサのピクセル当りの集光率が高くなり、遠距離に位置する赤外線タグ14等を容易に発見することができる。   The infrared filter mainly transmits only near infrared rays, and the lens images the near infrared rays on the CMOS image sensor. As the infrared filter, for example, a plastic IR pass filter manufactured by Edmond that blocks visible light and passes near infrared light can be used. The angle of view of the lens is, for example, about 60 degrees. In this case, the light collection rate per pixel of the CMOS image sensor is high, and the infrared tag 14 and the like located at a long distance can be easily found.

CMOSイメージセンサは、レンズにより結像された近赤外線から構成される近赤外線画像を撮影して画像処理装置38へ出力する。CMOSイメージセンサとしては、たとえば、三菱電機社製人口網膜LSI(M64283FP)等を使用でき、この場合の解像度は128×128pixelである。   The CMOS image sensor captures a near-infrared image composed of the near-infrared image formed by the lens and outputs it to the image processing device 38. As the CMOS image sensor, for example, an artificial retina LSI (M64283FP) manufactured by Mitsubishi Electric Corporation or the like can be used, and the resolution in this case is 128 × 128 pixels.

画像処理装置38は、CMOSイメージセンサの制御およびデータ処理等を行う。たとえば近赤外線画像から赤外線タグを検出し、検出した赤外線タグの点滅状態からID番号を検出するとともに、赤外線画像上の赤外線タグのXY座標を検出する。そして、検出したID番号およびXY座標等のデータをRS232C等のデータ伝送規格に従って据置型コンピュータ36へ出力する。画像処理装置38としては、たとえば、Cygnal社製49MHz駆動マイコンC8051F124を使用できる。   The image processing device 38 performs control of the CMOS image sensor, data processing, and the like. For example, an infrared tag is detected from a near-infrared image, an ID number is detected from the blinking state of the detected infrared tag, and an XY coordinate of the infrared tag on the infrared image is detected. Then, the detected ID number and data such as XY coordinates are output to the stationary computer 36 in accordance with a data transmission standard such as RS232C. As the image processing device 38, for example, a 49 MHz drive microcomputer C8051F124 manufactured by Cygnal can be used.

この場合、CMOSイメージセンサを115200Hzのクロックで駆動させ、撮像(シャッター開放)後、1クロック毎に1pixelの明るさがアナログ値でシリアル出力される。このため、全画素撮影時の最短フレームレートは、(シャッタースピード)+(128×128×クロックスピード)となるが、たとえば128×128pixelのうち8×8pixelを検出領域に設定して500Hzのシャッタースピードで撮像した場合、400Hzのフレームレートを実現することができ、読み出し速度を高速化することができる。このように、赤外線タグ14等の点滅周期(200Hz)の2倍のフレームレート(400Hz)で読み込むため、単一LEDを用いて非同期通信を行うことができる。   In this case, the CMOS image sensor is driven with a clock of 115200 Hz, and after imaging (shutter opening), the brightness of 1 pixel is serially output as an analog value every clock. For this reason, the shortest frame rate at the time of photographing all pixels is (shutter speed) + (128 × 128 × clock speed). For example, 8 × 8 pixels out of 128 × 128 pixels are set as the detection area, and the shutter speed is 500 Hz. When the image is picked up with a frame rate of 400 Hz, a frame rate of 400 Hz can be realized, and the reading speed can be increased. As described above, since reading is performed at a frame rate (400 Hz) that is twice the blinking cycle (200 Hz) of the infrared tag 14 or the like, asynchronous communication can be performed using a single LED.

ここで、赤外線タグ検出処理について説明する。この赤外線タグ検出処理は、画像処理装置38に予め記憶されている検出処理プログラムを実行することによって行われるものであり、後述する人間用観測装置18やロボット本体12でも同様の処理が行われる。   Here, the infrared tag detection process will be described. This infrared tag detection processing is performed by executing a detection processing program stored in advance in the image processing device 38, and the same processing is performed in the human observation device 18 and the robot body 12 described later.

まず、画像処理装置38は、赤外線カメラ(CMOSイメージセンサ)30を初期化し、全画面(たとえば128×128pixel)の赤外線画像を撮影する。次に、画像処理装置38は、赤外線画像の中から所定サイズの光点、たとえば1pixelの光点を赤外線タグとして抽出し、所定サイズより大きな光点を排除する。このように、赤外線画像の中から所定サイズの光点を検出するという簡便な処理によって赤外線タグを検出することができるので、この赤外線タグ処理を高速化することができる。   First, the image processing device 38 initializes an infrared camera (CMOS image sensor) 30 and captures an infrared image of a full screen (for example, 128 × 128 pixels). Next, the image processing device 38 extracts a light spot of a predetermined size from the infrared image, for example, a light spot of 1 pixel as an infrared tag, and eliminates a light spot larger than the predetermined size. Thus, since the infrared tag can be detected by a simple process of detecting a light spot of a predetermined size from the infrared image, the infrared tag process can be speeded up.

次に、画像処理装置38は、抽出した光点を中心とするたとえば8×8pixelの領域を検出領域として決定し、CMOSイメージセンサによって検出領域を既定回数、たとえば、((送信ビット数+スタートビット数+エンドビット数)×2×2)回読み込み、読み込んだ赤外線画像から赤外線タグの点滅状態を検出してID番号を検出するとともに、パリティチェックを行い、読み込みデータの判定処理を行う。   Next, the image processing device 38 determines, for example, an 8 × 8 pixel area centered on the extracted light spot as a detection area, and sets the detection area by a CMOS image sensor a predetermined number of times, for example, (((transmission bit number + start bit). (Number + number of end bits) × 2 × 2) times, and the ID number is detected by detecting the blinking state of the infrared tag from the read infrared image, the parity check is performed, and the determination process of the read data is performed.

このように、赤外線画像から光点を含む検出領域を決定し、この検出領域の赤外線画像のみを用いて赤外線タグの点滅状態を検出しているので、処理対象となる赤外線画像を必要最小限に限定することができ、この赤外線タグ検出処理を高速化することができる。これによって、人の動きに充分に追従することができ、動き予測等の演算コストの高い処理を省略することができる。ここで、パリティチェックが正しければ、画像処理装置38は、赤外線タグのID番号およびXY座標を出力し、パリティチェックが正しくなければ、検出領域の読み込みを再度行い、上述の赤外線検出処理を検出されたすべての光点に対して行う。   As described above, the detection region including the light spot is determined from the infrared image, and the blinking state of the infrared tag is detected using only the infrared image of the detection region, so that the infrared image to be processed is minimized. The infrared tag detection process can be speeded up. As a result, it is possible to sufficiently follow the movement of a person, and processing with high calculation costs such as motion prediction can be omitted. If the parity check is correct, the image processing device 38 outputs the ID number and XY coordinates of the infrared tag. If the parity check is not correct, the image processing device 38 reads the detection area again and detects the above-described infrared detection processing. For all light spots.

また、CCDカメラ32は、周囲の可視光の映像を撮影するためのものであり、図示しないレンズ等を含み、可視光画像を撮影して映像信号を据置型コンピュータ36へ出力する。CCDカメラ32としては、たとえば、アナログビデオ出力を有するキーエンス社製小型CCDカメラ(水平画角44度)等を使用できる。ここで、レンズの光軸は、赤外線カメラ30のレンズの光軸に合わせられており、したがって、撮影範囲内の軸方向に位置する対象物を識別するだけでなく、当該対象物の可視光画像も同時に撮影することができる。   The CCD camera 32 is for taking an image of surrounding visible light, includes a lens (not shown), etc., and takes a visible light image and outputs a video signal to the stationary computer 36. As the CCD camera 32, for example, a small CCD camera (horizontal angle of view 44 degrees) manufactured by Keyence Corporation having an analog video output can be used. Here, the optical axis of the lens is aligned with the optical axis of the lens of the infrared camera 30, and therefore, not only the object located in the axial direction within the imaging range is identified, but also a visible light image of the object. Can also shoot at the same time.

マイク34は、周囲音を検出するためのものであり、無指向性のものが適用され、音声処理回路40を介して据置型コンピュータ36に接続される。マイク34は集音して音声処理回路40へ出力し、音声処理回路40は録音された音声信号を据置型コンピュータ36へ出力する。   The microphone 34 is used to detect ambient sounds, and an omnidirectional one is applied and connected to the stationary computer 36 via the sound processing circuit 40. The microphone 34 collects sound and outputs it to the sound processing circuit 40, and the sound processing circuit 40 outputs the recorded sound signal to the stationary computer 36.

据置型コンピュータ36は、入力される赤外線タグ14等のID番号、赤外線タグ14等の赤外線画像におけるXY座標、可視光画像および音声等の各データに対して、観測時刻を特定するための時間情報の付加等の所定の処理を行い、各情報をデータ取得サーバ22へ送信する。この時間情報の付与によって、各観測装置16,18,20および12等で分散的に観測される各インタラクションデータの時間的な同期を取っている。なお、時間的な同期を取る方法は、たとえば、全ての装置がワールドクロックに合わせて観測動作を行ったり、また、各装置が独立に内部クロックを持ち、たとえばデータ取得サーバ22から送信される所定の同期信号を基準にオフセットを調整したりするようにしてもよい。なお、据置型コンピュータ36はデータ取得サーバ22と無線により接続されてもよい。   The stationary computer 36 specifies time information for specifying the observation time for each data such as the input ID number of the infrared tag 14 or the like, the XY coordinates in the infrared image of the infrared tag 14, the visible light image, or the sound. And the like, and each information is transmitted to the data acquisition server 22. By giving this time information, the time synchronization of each interaction data observed in a distributed manner by each observation device 16, 18, 20, 12 and the like is taken. As a method of synchronizing in time, for example, all devices perform an observation operation in accordance with the world clock, or each device has an internal clock independently and is transmitted from the data acquisition server 22, for example. The offset may be adjusted based on the synchronization signal. The stationary computer 36 may be connected to the data acquisition server 22 by radio.

人間用観測装置18は、たとえば赤外線カメラ42、CCDカメラ44、マイク46、生体センサ48および携帯型コンピュータ50等を含む。人間用観測装置18は、図1から分かるように、たとえば耳かけ式ネックバンド方式ヘッドセットとして構成され、説明員Q1…や訪問者P2,P3…等の頭部に装着される。赤外線カメラ42およびCCDカメラ44等はたとえば直方体形状の筺体に一体に内蔵されて人の視線方向にカメラ軸が向けられ、マイク46はユーザの口元付近に配置される。人間用観測装置18の装着される人間を識別するための赤外線タグは、この筺体の側面に一体的に固定される。また、生体センサ48は、説明員または訪問者等の指等に装着され、携帯型コンピュータ50は、説明員または訪問者等に背負われて使用される。この人間用観測装置18によって、当該人間の視点等からのインタラクションが観測され、検知範囲内の赤外線タグ14等の識別情報および位置情報等が取得されるとともに、ビデオデータおよび音声データならびに当該装置18の装着された人間の生体データ等が取得される。   The human observation device 18 includes, for example, an infrared camera 42, a CCD camera 44, a microphone 46, a biological sensor 48, a portable computer 50, and the like. As can be seen from FIG. 1, the human observation device 18 is configured as an ear-necked neckband headset, for example, and is attached to the heads of the explanation staff Q1... And visitors P2, P3. For example, the infrared camera 42 and the CCD camera 44 are integrated in a rectangular parallelepiped housing so that the camera axis is directed in the direction of the line of sight of the person, and the microphone 46 is disposed near the mouth of the user. An infrared tag for identifying a person to whom the human observation device 18 is attached is integrally fixed to a side surface of the casing. The biosensor 48 is attached to a finger or the like of an instructor or a visitor, and the portable computer 50 is used on the back of the instructor or a visitor. The human observation device 18 observes the interaction from the human viewpoint and the like, and the identification information and position information of the infrared tag 14 and the like within the detection range are acquired, and the video data and audio data and the device 18 are obtained. Biometric data and the like of the person wearing the are acquired.

赤外線カメラ42は、画像処理装置52を介して携帯型コンピュータ50に接続される。これら赤外線カメラ42および画像処理装置52は、上述した周囲状況観測装置16の赤外線カメラ30および画像処理装置38と同様に構成されかつ動作する。ただし、レンズの画角はたとえば90度程度に設定され、この場合、対面での会話状態等において比較的近距離で広範囲に位置する赤外線タグ14等を容易に検出することができる。この赤外線カメラ42等によって、視線方向の撮影範囲内に存在する赤外線タグ14等のID番号およびXY座標を検出し、検出したID番号およびXY座標等のデータを携帯型コンピュータ50へ出力する。   The infrared camera 42 is connected to the portable computer 50 via the image processing device 52. The infrared camera 42 and the image processing device 52 are configured and operate in the same manner as the infrared camera 30 and the image processing device 38 of the ambient condition observation device 16 described above. However, the angle of view of the lens is set to about 90 degrees, for example, and in this case, the infrared tag 14 and the like located in a wide range at a relatively short distance can be easily detected in a face-to-face conversation state or the like. The infrared camera 42 and the like detect the ID number and XY coordinates of the infrared tag 14 and the like existing within the imaging range in the line-of-sight direction, and output data such as the detected ID number and XY coordinates to the portable computer 50.

CCDカメラ44は、人の視線方向の可視光画像を撮影して映像信号を携帯型コンピュータ50へ出力する。このCCDカメラ44も、上述した周囲状況観測装置16のCCDカメラ32と同様に構成されかつ動作する。この人間用観測装置18でも、CCDカメラ44のレンズの光軸は、赤外線カメラ42のレンズの光軸に合わせられており、したがって、視線方向に位置する対象物を識別するだけでなく、当該対象物の可視光画像も同時に撮影することができる。   The CCD camera 44 captures a visible light image in the direction of the person's line of sight and outputs a video signal to the portable computer 50. The CCD camera 44 is also configured and operates in the same manner as the CCD camera 32 of the ambient condition observation device 16 described above. Also in this human observation device 18, the optical axis of the lens of the CCD camera 44 is aligned with the optical axis of the lens of the infrared camera 42. Therefore, not only the object located in the line-of-sight direction is identified but also the object A visible light image of an object can also be taken at the same time.

マイク46は、説明員または訪問者等の音声や周囲音を検出するためのものであり、音声処理回路54を介して携帯型コンピュータ50に接続される。音声処理回路54はマイク46から出力された音声信号を携帯型コンピュータ50へ出力する。   The microphone 46 is for detecting the voice of an explanation person or a visitor or ambient sounds, and is connected to the portable computer 50 via the voice processing circuit 54. The audio processing circuit 54 outputs the audio signal output from the microphone 46 to the portable computer 50.

生体センサ48は、生体データ処理回路56を介して携帯型コンピュータ50に接続される。生体センサ48等は、たとえば、人間の脈拍、手の表面の伝導性(発汗)、温度の3個のセンサを備える生体データ記録用モジュール(Procomp+)等から構成される。生体センサ48は、説明員または訪問者の脈拍、発汗状態および体温を検出し、生体データ処理回路56は、たとえば検出された各データの平均値を数秒ごとにそれぞれ計算し、リアルタイムに生体データをAD変換して携帯型コンピュータ50へ送信する。   The biological sensor 48 is connected to the portable computer 50 via the biological data processing circuit 56. The biometric sensor 48 and the like are composed of, for example, a biometric data recording module (Procomp +) including three sensors of human pulse, hand surface conductivity (perspiration), and temperature. The biological sensor 48 detects the pulse, sweating state, and body temperature of the instructor or the visitor, and the biological data processing circuit 56 calculates, for example, an average value of each detected data every several seconds, and the biological data is obtained in real time. A / D converted and transmitted to portable computer 50.

携帯型コンピュータ50は、入力される赤外線タグ14等のID番号、赤外線タグ14等の赤外線画像におけるXY座標、可視光画像、音声、および生体データ等の各データに対して、観測時刻を特定するための時間情報の付加等の所定の処理を行い、各情報をデータ取得サーバ22へ無線により送信する。   The portable computer 50 specifies the observation time for each data such as the input ID number of the infrared tag 14 or the like, the XY coordinates in the infrared image of the infrared tag 14, the visible light image, sound, or biological data. For example, predetermined information such as addition of time information is performed, and each information is wirelessly transmitted to the data acquisition server 22.

ぬいぐるみ型観測装置20は、たとえば、視覚、聴覚および触覚等を有し、説明員および訪問者は通常のぬいぐるみで遊ぶ感覚でこのぬいぐるみ型観測装置20を保持する。このぬいぐるみ型観測装置20によって、ぬいぐるみ自身の視点からの説明員および訪問者等の状況等が観測され、映像データ、音声データおよび触覚データ等のインタラクションデータが取得される。ぬいぐるみ型観測装置20は、たとえばCCDカメラ58、マイク60、触覚センサ62および携帯型コンピュータ64等を含む。CCDカメラ58は、ぬいぐるみの視線方向の可視光画像を撮影して映像信号を携帯型コンピュータ64に出力する。マイク60は説明員または訪問者等の音声や周囲音を検出するためのものであり、音声処理回路66を介して携帯型コンピュータ64に接続される。音声処理回路66はマイク60から出力された音声信号を携帯型コンピュータ64へ出力する。触覚センサ62はたとえば説明員または訪問者等の接触を検知する接触センサないし圧力センサ等であり、図示しない処理回路を介して触覚データを携帯型コンピュータ64に出力する。そして、携帯型コンピュータ64は、入力される可視光画像、音声、および触覚データ等の各データに対して、観測時刻を特定するための時間情報の付加等の所定の処理を行い、各情報をデータ取得サーバ22へ無線により送信する。なお、ぬいぐるみ型観測装置20では、たとえばぬいぐるみの抱きかかえられたときの体勢データ等も検出するようにしてもよい。   The stuffed toy observation device 20 has, for example, visual, auditory, and tactile sensations, and the explainer and the visitor hold the stuffed toy observation device 20 as if playing with a normal stuffed toy. The stuffed animal observation device 20 observes the situation of the instructor and visitors from the viewpoint of the stuffed animal itself, and obtains interaction data such as video data, audio data, and tactile data. The stuffed toy observation device 20 includes, for example, a CCD camera 58, a microphone 60, a touch sensor 62, a portable computer 64, and the like. The CCD camera 58 captures a visible light image in the sight line direction of the stuffed animal and outputs a video signal to the portable computer 64. The microphone 60 is for detecting the voice of an explanation person or a visitor and ambient sounds, and is connected to the portable computer 64 via the voice processing circuit 66. The audio processing circuit 66 outputs the audio signal output from the microphone 60 to the portable computer 64. The tactile sensor 62 is, for example, a contact sensor or a pressure sensor that detects contact of an explanation person or a visitor, and outputs tactile data to the portable computer 64 via a processing circuit (not shown). Then, the portable computer 64 performs predetermined processing such as addition of time information for specifying the observation time on the input data such as visible light image, sound, and tactile data, and stores each information. It transmits to the data acquisition server 22 by radio. Note that the stuffed toy observation device 20 may also detect, for example, posture data when the stuffed animal is held.

ロボット本体12は、たとえば、知覚、聴覚および触覚等を有するヒューマノイド型で自律移動型のものであり、ロボット本体12自身の視点から展示会場の状況、説明員および訪問者の状況等を観測する。そして、観測した赤外線タグ14等のID番号およびXY座標や映像データ、音声データおよび触覚データ等のインタラクションデータに時間情報等を付加して、データ取得サーバ22へ無線により送信する。   The robot body 12 is, for example, a humanoid type autonomous movement type having perception, hearing, touch, and the like, and observes the situation of the exhibition hall, the situation of the instructors and visitors, etc. from the viewpoint of the robot body 12 itself. Then, time information and the like are added to the observed ID number and XY coordinates of the infrared tag 14 and the like, interaction data such as video data, audio data and tactile data, and transmitted to the data acquisition server 22 by radio.

また、このロボット本体12は、身振りおよび音声を用いて対話相手との間でコミュニケーション行動を実行することができる。たとえば、対話相手の存在を検知してその方に顔を向けたり、さらに「こんにちは」と能動的に話しかけたり、また、触られた場合その接触箇所に顔を向けたりといった様々なコミュニケーション行動を実行できる。そして、この実施例では、たとえばロボット本体12の外部の処理コンピュータとしても機能するデータ取得サーバ22から身体動作データを受信して、当該身体動作データを実行することによって、対話相手の過去の行動に応じた案内などの行動を提示することもできる。   Further, the robot body 12 can execute a communication action with a conversation partner using gestures and voices. For example, run or face against that person by detecting the presence of a dialogue partner, further or actively speak as "Hello", also, a variety of communication behavior such or face against the contact point if it is touched it can. In this embodiment, for example, body motion data is received from the data acquisition server 22 that also functions as a processing computer external to the robot body 12, and the body motion data is executed, so that past actions of the conversation partner can be performed. It is also possible to present actions such as guidance.

図3および図4を参照してロボット本体12の一例を詳細に説明する。図3に示すように、ロボット本体12は台車68を含み、この台車68の下面にはロボット本体12を自律移動させる車輪70が設けられる。車輪70は車輪モータ72(図4参照)によって駆動され、台車68すなわちロボット本体12を前後左右任意の方向に動かすことができる。   An example of the robot body 12 will be described in detail with reference to FIGS. 3 and 4. As shown in FIG. 3, the robot body 12 includes a carriage 68, and wheels 70 for autonomously moving the robot body 12 are provided on the lower surface of the carriage 68. The wheel 70 is driven by a wheel motor 72 (see FIG. 4), and the carriage 68, that is, the robot body 12 can be moved in any direction, front, back, left, and right.

なお、図3においては省略するが、台車68の前面には、衝突センサ74(図3参照)が取り付けられ、この衝突センサ74は台車68への人や他の障害物の接触を検知する。つまり、ロボット本体12の移動中に障害物との接触を検知すると、直ちに車輪70の駆動を停止してロボット本体12の移動を急停止させる。   Although not shown in FIG. 3, a collision sensor 74 (see FIG. 3) is attached to the front surface of the carriage 68, and the collision sensor 74 detects contact of a person and other obstacles with the carriage 68. That is, when contact with an obstacle is detected while the robot body 12 is moving, the driving of the wheels 70 is immediately stopped and the movement of the robot body 12 is suddenly stopped.

また、この実施例では、ロボット本体12の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。   In this embodiment, the height of the robot body 12 is about 100 cm so as not to intimidate people, particularly children. However, this height can be changed.

台車68の上には、多角形柱のセンサ取付パネル76が設けられ、このセンサ取付パネル76の各面には、超音波距離センサ78が取り付けられる。この超音波距離センサ78は、センサ取付パネル76すなわちロボット本体12の周囲の主として人との距離を計測するものである。   A polygonal column sensor mounting panel 76 is provided on the carriage 68, and an ultrasonic distance sensor 78 is mounted on each surface of the sensor mounting panel 76. The ultrasonic distance sensor 78 measures the distance between the sensor mounting panel 76, that is, the person around the robot main body 12, mainly a person.

また、台車68の上には、さらに、その下部がセンサ取付パネル76に囲まれて、ロボット本体12の胴体が直立するように設けられる。この胴体は、下部胴体80と上部胴体82とによって構成され、下部胴体80および上部胴体82は、連結部84によって互いに連結される。図示は省略するが、連結部84には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体82の高さすなわちロボット本体12の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ86(図4参照)によって駆動される。   Further, on the carriage 68, the lower part thereof is surrounded by the sensor mounting panel 76 so that the body of the robot body 12 stands upright. This body is composed of a lower body 80 and an upper body 82, and the lower body 80 and the upper body 82 are connected to each other by a connecting portion 84. Although illustration is omitted, the connecting portion 84 has a built-in lifting mechanism, and the height of the upper body 82, that is, the height of the back of the robot body 12 can be changed by using this lifting mechanism. The lifting mechanism is driven by a waist motor 86 (see FIG. 4), as will be described later.

上部胴体82のほぼ中央には、1つの全方位カメラ88と1つの赤外線カメラ90と1つのマイク92とが設けられる。全方位カメラ88は、ロボット本体12の周囲を撮影するものであり、後述する眼カメラ94とは区別される。この全方位カメラ88としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。赤外線カメラ90は、上述の赤外線カメラ30または42等と同様に、赤外線タグ14等の発する赤外線を検出するためのものである。また、マイク92は、周囲の音、とりわけ人の声を取り込む。なお、これら全方位カメラ88,赤外線カメラ90およびマイク92の設置位置は上部胴体82に限られず適宜変更され得る。   One omnidirectional camera 88, one infrared camera 90, and one microphone 92 are provided in the approximate center of the upper body 82. The omnidirectional camera 88 captures the surroundings of the robot body 12 and is distinguished from an eye camera 94 described later. As this omnidirectional camera 88, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. The infrared camera 90 is for detecting the infrared rays emitted from the infrared tag 14 and the like, similar to the infrared camera 30 or 42 described above. The microphone 92 captures ambient sounds, particularly human voice. The installation positions of the omnidirectional camera 88, the infrared camera 90, and the microphone 92 are not limited to the upper body 82, and can be changed as appropriate.

また、たとえば上部胴体82の胸部には、当該ロボット本体12を識別するためのID番号を発する赤外線タグ14が取り付けられている。   For example, an infrared tag 14 that emits an ID number for identifying the robot body 12 is attached to the chest of the upper body 82.

上部胴体82の両肩には、それぞれ、肩関節96Rおよび96Lによって、上腕98Rおよび98Lが設けられる。肩関節96Rおよび96Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節96Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕98Rの角度を制御できる。Y軸は、上腕98Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節96Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕98Lの角度を制御できる。B軸は、上腕98Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。   Upper shoulders 98R and 98L are provided on both shoulders of upper body 82 by shoulder joints 96R and 96L, respectively. The shoulder joints 96R and 96L each have three axes of freedom. That is, the shoulder joint 96R can control the angle of the upper arm 98R around each of the X axis, the Y axis, and the Z axis. The Y axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 98R, and the X axis and the Z axis are orthogonal to the Y axis from different directions. On the other hand, the shoulder joint 96L can control the angle of the upper arm 98L around each of the A axis, the B axis, and the C axis. The B axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 98L, and the A axis and the C axis are axes orthogonal to the B axis from different directions.

また、上腕98Rおよび98Lのそれぞれの先端には、肘関節100Rおよび100Lを介して、前腕102Rおよび102Lが設けられる。肘関節100Rおよび100Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕102Rおよび102Lの角度を制御できる。   Further, forearms 102R and 102L are provided at the tips of the upper arms 98R and 98L via elbow joints 100R and 100L, respectively. The elbow joints 100R and 100L can control the angles of the forearms 102R and 102L around the W axis and the D axis, respectively.

なお、上腕98Rおよび98Lならびに前腕102Rおよび102Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図3に示すように、上腕98Rおよび98Lならびに前腕102Rおよび102Lは下方に向けられる。   In the X axis, Y axis, Z axis, W axis, A axis, B axis, C axis, and D axis that control the displacement of the upper arms 98R and 98L and the forearms 102R and 102L, “0 degree” is the home position, respectively. In this home position, as shown in FIG. 3, the upper arms 98R and 98L and the forearms 102R and 102L are directed downward.

また、図示は省略するが、上部胴体82の肩関節96Rおよび96Lを含む肩の部分や上述の上腕98Rおよび98Lならびに前腕102Rおよび102Lには、それぞれ、タッチセンサ(図4で包括的に示す。:104)が設けられていて、これらのタッチセンサ104は、人がロボット本体12の当該各部位に触れたかどうかを検知する。   Although not shown in the drawings, the shoulder portion including the shoulder joints 96R and 96L of the upper body 82, the upper arms 98R and 98L, and the forearms 102R and 102L described above are each shown by touch sensors (shown comprehensively in FIG. 4). : 104), and these touch sensors 104 detect whether or not a person has touched each part of the robot body 12.

前腕102Rおよび102Lのそれぞれの先端には、手に相当する球体106Rおよび106Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。   Spheres 106R and 106L corresponding to hands are fixedly provided at the tips of the forearms 102R and 102L, respectively. However, if a finger or palm function is required, a “hand” in the shape of a human hand can be used.

上部胴体82の中央上方には、首関節108を介して頭部110が設けられる。首関節108は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部110には、人の口に相当する位置に、スピーカ112が設けられる。スピーカ112は、ロボット本体12が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。ただし、スピーカ112は、ロボット本体12の他の部位、たとえば胴体などに設けられてもよい。   A head 110 is provided above the center of the upper body 82 via a neck joint 108. The neck joint 108 has three degrees of freedom, and the angle can be controlled around each of the S, T, and U axes. The S-axis is an axis that extends from the neck directly upward (vertically upward), and the T-axis and the U-axis are axes that are orthogonal to the S-axis in different directions. The head 110 is provided with a speaker 112 at a position corresponding to a human mouth. The speaker 112 is used for the robot body 12 to communicate with people around it by voice or sound. However, the speaker 112 may be provided in another part of the robot main body 12, for example, the trunk.

また、頭部110には、目に相当する位置に眼球部114Rおよび114Lが設けられる。眼球部114Rおよび114Lは、それぞれ眼カメラ94Rおよび94Lを含む。以下、右の眼球部114Rと左の眼球部114Lとをまとめて眼球部114ということがあり、また、右の眼カメラ94Rと左の眼カメラ94Lとをまとめて眼カメラ94ということもある。   The head 110 is provided with eyeball portions 114R and 114L at positions corresponding to the eyes. Eyeball portions 114R and 114L include eye cameras 94R and 94L, respectively. Hereinafter, the right eyeball portion 114R and the left eyeball portion 114L may be collectively referred to as the eyeball portion 114, and the right eye camera 94R and the left eye camera 94L may be collectively referred to as the eye camera 94.

眼カメラ94は、ロボット本体12に接近した人の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ94としては、上述した全方位カメラ88と同様のカメラを用いることができる。   The eye camera 94 captures a human face approaching the robot body 12 and other parts or objects, and captures a corresponding video signal. As the eye camera 94, a camera similar to the omnidirectional camera 88 described above can be used.

たとえば、眼カメラ94は眼球部114内に固定され、眼球部114は眼球支持部(図示せず)を介して頭部110内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部110に対して設けられる軸であり、α軸は頭部110の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部110の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部110がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部110において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部114ないし眼カメラ94の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。   For example, the eye camera 94 is fixed in the eyeball unit 114, and the eyeball unit 114 is attached to a predetermined position in the head 110 via an eyeball support unit (not shown). The eyeball support unit has two degrees of freedom and can be controlled in angle around each of the α axis and the β axis. The α axis and the β axis are axes provided with respect to the head 110, the α axis is an axis in a direction toward the top of the head 110, the β axis is orthogonal to the α axis and the front side of the head 110 ( It is an axis in a direction perpendicular to the direction in which the face is facing. In this embodiment, when the head 110 is in the home position, the α axis is set to be parallel to the S axis, and the β axis is set to be parallel to the U axis. In such a head 110, when the eyeball support portion is rotated around each of the α axis and the β axis, the tip (front) side of the eyeball portion 114 or the eye camera 94 is displaced, and the camera axis, that is, the line-of-sight direction is changed. Moved.

なお、眼カメラ94の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ94のカメラ軸は頭部110の正面側(顔)が向く方向に向けられ、視線は正視状態となる。   In the α axis and β axis that control the displacement of the eye camera 94, “0 degree” is the home position. At this home position, the camera axis of the eye camera 94 is the head 110 as shown in FIG. The direction of the front side (face) is directed, and the line of sight is in the normal viewing state.

図4は、ロボット本体12の電気的な構成を示すブロック図であり、この図4を参照して、ロボット本体12は、全体を制御するCPU116を含む。CPU116は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス118を介して、メモリ120、モータ制御ボード122、センサ入力/出力ボード124および音声入力/出力ボード126に接続される。   FIG. 4 is a block diagram showing an electrical configuration of the robot main body 12. With reference to FIG. 4, the robot main body 12 includes a CPU 116 for controlling the whole. The CPU 116 is also called a microcomputer or a processor, and is connected to the memory 120, the motor control board 122, the sensor input / output board 124, and the audio input / output board 126 via the bus 118.

メモリ120は、図示は省略するが、ROMやRAMを含み、ROMにはロボット本体12の制御プログラムが予め記憶され、RAMはワークメモリやバッファメモリとして用いられる。制御プログラムはたとえばコミュニケーション行動を実行するためのプログラム、インタラクションを観測してデータを取得するためのプログラム、取得したデータに時間情報等を付加するためのプログラム、データをデータ取得サーバ(処理コンピュータ)22との間で送受信するためのプログラム、受信した身体動作データを実行するためのプログラム等を含む。メモリ120にはまた、コミュニケーション行動の実行の際にスピーカ112から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データ等を含む身体動作データ等も必要に応じて記憶される。   Although not shown in the figure, the memory 120 includes a ROM and a RAM. The ROM stores a control program for the robot body 12 in advance, and the RAM is used as a work memory and a buffer memory. The control program includes, for example, a program for executing a communication action, a program for observing an interaction to acquire data, a program for adding time information and the like to the acquired data, and a data acquisition server (processing computer) 22 And a program for executing received physical movement data. The memory 120 also needs body movement data including voice data or voice data (speech synthesis data) to be generated from the speaker 112 when performing the communication action and angle data for presenting a predetermined gesture. Is stored according to

モータ制御ボード122は、たとえばDSPで構成され、各腕や頭部および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード122は、CPU116からの制御データを受け、右眼球部114Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4では、まとめて「右眼球モータ」と示す。)128の回転角度を制御する。同様に、モータ制御ボード122は、CPU116からの制御データを受け、左眼球部114Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4では、まとめて「左眼球モータ」と示す。)130の回転角度を制御する。   The motor control board 122 is configured by a DSP, for example, and controls the driving of each axis motor such as each arm, head, and eyeball. That is, the motor control board 122 receives the control data from the CPU 116, and shows two motors for controlling the angles of the α axis and β axis of the right eyeball portion 114R (in FIG. 4, collectively referred to as “right eyeball motor”). .) Control the rotation angle of 128. Similarly, the motor control board 122 receives the control data from the CPU 116, and controls two angles of the α axis and β axis of the left eyeball portion 114L (collectively, “left eye motor” in FIG. 4). Controls the rotation angle of 130.

また、モータ制御ボード122は、CPU116からの制御データを受け、右肩関節96RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節100RのW軸の角度を制御する1つのモータとの計4つのモータ(図4では、まとめて「右腕モータ」と示す。)132の回転角度を調節する。同様に、モータ制御ボード122は、CPU116からの制御データを受け、左肩関節96LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節100LのD軸の角度を制御する1つのモータとの計4つのモータ(図4では、まとめて「左腕モータ」と示す。)134の回転角度を調整する。   In addition, the motor control board 122 receives control data from the CPU 116, and controls the angles of the X axis, Y axis and Z axis of the right shoulder joint 96R and the W axis angle of the right elbow joint 100R. The rotation angle of a total of four motors (one collectively shown as “right arm motor” in FIG. 4) 132 including one motor to be controlled is adjusted. Similarly, the motor control board 122 receives the control data from the CPU 116 and determines the angles of the three motors for controlling the angles of the A-axis, B-axis, and C-axis of the left shoulder joint 96L and the D-axis angle of the left elbow joint 100L. The rotation angles of a total of four motors (one collectively shown as “left arm motor” in FIG. 4) 134 with one motor to be controlled are adjusted.

さらに、モータ制御ボード122は、CPU116からの制御データを受け、頭部110のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図4では、まとめて「頭部モータ」と示す。)136の回転角度を制御する。さらにまた、モータ制御ボード122は、CPU116からの制御データを受け、腰モータ86および車輪70を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)72の回転角度を制御する。   Furthermore, the motor control board 122 receives control data from the CPU 116 and controls three motors for controlling the angles of the S-axis, T-axis, and U-axis of the head 110 (collectively, “head motor” in FIG. 4). The rotation angle of 136 is controlled. Furthermore, the motor control board 122 receives control data from the CPU 116 and controls the rotation angle of two motors 72 (hereinafter collectively referred to as “wheel motors”) 72 that drive the waist motor 86 and the wheels 70. To do.

なお、この実施例では、車輪モータ72を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ72と同様に、直流モータを用いるようにしてもよい。   In this embodiment, stepping motors or pulse motors are used for the motors other than the wheel motor 72 in order to simplify the control. However, like the wheel motor 72, a DC motor may be used.

センサ入力/出力ボード124もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU116に与える。すなわち、超音波距離センサ78のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード124を通してCPU116に入力される。また、全方位カメラ88からの映像信号が、必要に応じてこのセンサ入力/出力ボード124で所定の処理を施された後、CPU116に入力される。眼カメラ94からの映像信号も、同様にして、CPU116に入力される。   Similarly, the sensor input / output board 124 is also constituted by a DSP, and takes in a signal from each sensor and gives it to the CPU 116. That is, data relating to the reflection time from each of the ultrasonic distance sensors 78 is input to the CPU 116 through the sensor input / output board 124. A video signal from the omnidirectional camera 88 is input to the CPU 116 after being subjected to predetermined processing by the sensor input / output board 124 as necessary. Similarly, the video signal from the eye camera 94 is also input to the CPU 116.

また、赤外線カメラ90からの映像信号は、上述の周囲状況観測装置16の画像処理装置38や人間用観測装置18の画像処理装置52と同様に、赤外線画像から赤外線タグを検出して、赤外線タグの点滅状態からID番号を検出するとともに、赤外線画像上の赤外線タグのXY座標を検出する。そして、赤外線タグのID番号およびXY座標等のデータはCPU116に入力される。   Further, the image signal from the infrared camera 90 detects an infrared tag from an infrared image in the same manner as the image processing device 38 of the ambient condition observation device 16 and the image processing device 52 of the human observation device 18, and the infrared tag. The ID number is detected from the blinking state of, and the XY coordinates of the infrared tag on the infrared image are detected. Data such as an infrared tag ID number and XY coordinates are input to the CPU 116.

また、上述した複数のタッチセンサ(図4では、まとめて「タッチセンサ104」と示す。)からの信号がセンサ入力/出力ボード124を介してCPU116に与えられる。さらに、上述した衝突センサ74からの信号も、同様にして、CPU116に与えられる。   In addition, signals from the plurality of touch sensors described above (collectively indicated as “touch sensor 104” in FIG. 4) are provided to the CPU 116 via the sensor input / output board 124. Further, the signal from the above-described collision sensor 74 is also given to the CPU 116 in the same manner.

音声入力/出力ボード126もまた、同様に、DSPで構成され、CPU116から与えられる音声合成データに従った音声または声がスピーカ112から出力される。また、マイク92からの音声入力が、音声入力/出力ボード126を介してCPU116に取り込まれる。   Similarly, the voice input / output board 126 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the CPU 116 is output from the speaker 112. Also, the voice input from the microphone 92 is taken into the CPU 116 via the voice input / output board 126.

CPU116は、このセンサ入力/出力ボード124を介して取り込んだ映像データ、音声データ、触覚データ、赤外線タグのID番号およびXY情報等のインタラクションデータに観測時刻を特定するための時間情報等を付加する。   The CPU 116 adds time information for specifying the observation time to the interaction data such as video data, audio data, tactile data, infrared tag ID number, and XY information captured via the sensor input / output board 124. .

また、CPU116は、バス118を介して通信LANボード138に接続される。通信LANボード138は、DSPで構成され、CPU116から送られる送信データを無線通信装置140に与え、無線通信装置140から送信データを、図示は省略するが、たとえば、無線LANのようなネットワークを介してデータ取得サーバ22に送信させる。また、通信LANボード138は、無線通信装置140を介してデータを受信し、受信したデータをCPU116に与える。つまり、取得したインタラクションデータ等をデータ取得サーバ22に送信し、また、処理コンピュータ22から送信された身体動作データ等を受信する。   The CPU 116 is connected to the communication LAN board 138 via the bus 118. The communication LAN board 138 is configured by a DSP, gives transmission data sent from the CPU 116 to the wireless communication device 140, and transmits the transmission data from the wireless communication device 140 through a network such as a wireless LAN, although not shown. To the data acquisition server 22. Further, the communication LAN board 138 receives data via the wireless communication device 140 and gives the received data to the CPU 116. That is, the acquired interaction data or the like is transmitted to the data acquisition server 22, and the body movement data transmitted from the processing computer 22 is received.

図2に戻って、データ取得サーバ22は、たとえば、ROM、CPU、RAMおよび外部記憶装置等を含み、インタラクションDB24と接続される。データ取得サーバ22は、各観測装置から送信される各インタラクションデータをインタラクションDB24に格納する。この実施例では、インタラクションDB24は、SQL(Structured Query Language)サーバ24aおよびAVデータ用サーバ24b等のデータベースサーバを含み、インタラクションデータのうち、赤外線タグ14等のID番号およびXY座標ならびに生体データ等をSQLサーバ24aに与えて蓄積させ、映像データおよび音声データをAVデータ用サーバ24bに与えて蓄積させる。   Returning to FIG. 2, the data acquisition server 22 includes, for example, a ROM, a CPU, a RAM, an external storage device, and the like, and is connected to the interaction DB 24. The data acquisition server 22 stores each interaction data transmitted from each observation device in the interaction DB 24. In this embodiment, the interaction DB 24 includes database servers such as an SQL (Structured Query Language) server 24a and an AV data server 24b. Among the interaction data, the ID number and XY coordinates of the infrared tag 14 and the like, biometric data, and the like are stored. The SQL server 24a is provided and stored, and the video data and audio data are supplied to the AV data server 24b and stored.

SQLサーバ24aは、ROM、CPU、RAMおよび外部記憶装置等を含み、時間情報等が付与されたID番号、XY座標および生体データ等のインタラクションデータを機械可読な状態でデータベース化して記憶する。また、各インタラクションデータはどの観測装置で取得されたかも特定可能に記憶される。   The SQL server 24a includes a ROM, a CPU, a RAM, an external storage device, and the like, and stores interaction data such as ID numbers, XY coordinates, and biometric data to which time information is given in a machine-readable state as a database. In addition, each interaction data is stored so as to be able to identify which observation device has been acquired.

AVデータ用サーバ24bは、ROM、CPU、RAMおよび外部記憶装置等を含み、映像データおよび音声データ等のインタラクションデータを機械可読な状態でデータベース化して記憶する。なお、一度のセッションをひとつの膨大なビデオファイルにするのは現実的ではないので、AVデータ用サーバ24bは、たとえば、ビデオデータを1分ごとに別々のファイルとして記憶し、インタラクションDB24を利用する際にファイルが1分ごとに分かれていることを意識しなくてすむように、各ビデオデータのインデックスデータをSQLサーバ24aにより管理している。   The AV data server 24b includes a ROM, a CPU, a RAM, an external storage device, and the like, and stores interaction data such as video data and audio data as a database in a machine-readable state. Since it is not realistic to make one session into one huge video file, the AV data server 24b stores, for example, video data as separate files every minute and uses the interaction DB 24. At this time, the index data of each video data is managed by the SQL server 24a so that it is not necessary to be aware that the files are divided every minute.

データ取得サーバ22はまた、ロボット動作DB26およびガイドルールDB28とも接続される。ロボット動作DB26は、ロボット本体12に実行させるための複数の身体動作データを予め記憶している。身体動作データは、その身体動作が身振りを含む場合には各軸モータ等の角度制御データを含み、その身体動作が発話を含む場合には音声合成データを含む。   The data acquisition server 22 is also connected to the robot operation DB 26 and the guide rule DB 28. The robot motion DB 26 stores a plurality of body motion data to be executed by the robot body 12 in advance. The body motion data includes angle control data of each axis motor or the like when the body motion includes gestures, and includes speech synthesis data when the body motion includes speech.

ガイドルールDB28は、対話相手の過去の行動に対応する当該ロボット本体12の提示すべき行動を規定した規則に関する複数のデータを予め記憶している。つまり、たとえば、過去の行動に関する所定の条件に対応付けて、当該条件を満足しまたは満足しない場合に実行すべき所定の行動が規定されている。この実施例では、対話相手の過去の行動に応じて、たとえばその人が見たり訪問したりするなどのインタラクションをした対象物に関連して、さらなる説明などの案内や推薦行動等を行うことや、インタラクションした対象物自体に関する情報の提示を行うこと等が規定される。たとえば、ロボット本体12は対話相手が見てきたものについて話しかけたり、それに関連して他に見ておいた方が良いものがあればそれについて情報提供したりする。したがって、対話相手にとっては、インタラクションによって得た知識や体験を補完したりさらに深めたりすることが可能であり、有益な情報を得ることができる。ガイドルールの一例としては、たとえば、対話相手が過去に展示物B1を見たがそれに関連する展示物B4をまだ見ていない場合には、展示物B4を見ることを薦める発話をするというようなルールが規定されている。また、たとえば、対話相手がぬいぐるみ型観測装置20で遊んだ場合には、当該ぬいぐるみに関する情報を発話することや、生体データに変化があった場合の対象物に関する情報を提示すること等が規定される。   The guide rule DB 28 stores in advance a plurality of data relating to rules that define the behavior to be presented by the robot body 12 corresponding to the past behavior of the conversation partner. That is, for example, a predetermined action to be executed when the condition is satisfied or not satisfied is defined in association with a predetermined condition related to a past action. In this embodiment, according to the past action of the conversation partner, for example, guidance or recommended action for further explanation or the like is performed in connection with the object that the person has seen or visited, etc. The presentation of information about the interacted object itself is defined. For example, the robot body 12 talks about what the conversation partner has seen, and provides information on anything that should be seen in connection with it. Therefore, for the conversation partner, it is possible to supplement or deepen the knowledge and experience obtained by the interaction, and to obtain useful information. As an example of the guide rule, for example, when the conversation partner has seen the exhibit B1 in the past but has not yet seen the related exhibit B4, the utterance is recommended to see the exhibit B4. Rules are defined. In addition, for example, when the conversation partner plays with the stuffed toy observation device 20, it is prescribed that the information about the stuffed toy is uttered or the information about the object when the biological data changes is presented. The

このロボット10では、上述のような周囲状況観測装置16、人間用観測装置18、ぬいぐるみ型観測装置20、およびロボット本体12等によって、展示会場等の環境内の状況、具体的には、当該環境内における対話対象たる1または複数の人間(説明員、訪問者)と、人間のインタラクションの対象物たる展示物、ぬいぐるみ20、ロボット本体12等との間のインタラクションが観測される。このようにあらゆるところにセンサ類が設けられているので、この実施例の展示会場等の環境は、ユビキタスなセンサ環境と呼べる。このようなユビキタスセンサ環境で各インタラクションデータがリアルタイムに取得されて、データ取得サーバ22によってインタラクションDB24に逐次記録される。   In this robot 10, the situation in the environment such as the exhibition hall, specifically, the environment, by the ambient condition observation device 16, the human observation device 18, the stuffed animal observation device 20, the robot body 12, and the like as described above. Interaction between one or a plurality of humans (explanator, visitor) to be interacted with and exhibits, stuffed animals 20, robot main body 12 and the like, which are human interaction objects, is observed. Since sensors are provided everywhere as described above, the environment such as the exhibition hall in this embodiment can be called a ubiquitous sensor environment. In such a ubiquitous sensor environment, each interaction data is acquired in real time and sequentially recorded in the interaction DB 24 by the data acquisition server 22.

たとえば、人間用観測装置18によって説明員Q1の視界に入った訪問者P1等がインタラクションの対象物として識別され、周囲状況観測装置16によって説明員Q1が対象物として識別されるとともに、周囲状況観測装置16の周囲の対象物として訪問者P1、ロボット本体12等が識別される。このようにして、展示会場内に遍在する周囲状況観測装置16等に加えて、インタラクションの主体となる説明員および訪問者が身につけた人間用観測装置18を利用することによって、同一イベントを複数の観測装置によって多角的に、局所的な視点および全体的な視点から、記録することができる。また、ぬいぐるみ型観測装置20やロボット本体12等によって、客観的かつ局所的な視点からインタラクションを記録することができる。また、人間用観測装置18および周囲状況観測装置16の視野に入った人や物体のID番号を自動認識することによって、蓄積されるインタラクションデータに実時間でインデックスを付けることができる。したがって、説明員および訪問者は「見ること」で無意識のうちに他人や物体とのインタラクションにインデックスを付与することができる。また、検出された人間および対象物のID番号と、測定された他のインタラクションデータとがそれぞれの観測時刻を特定可能な状態で記憶されているので、各インタラクションデータ内の人間および対象物を識別して人間のインタラクションを人間と対象物との関係から解析することができ、人が何気なく扱っている言語化されていない日常常識(非言語情報)を体系的に蓄積して機械可読な状態に辞書化することができる。   For example, a visitor P1 or the like who has entered the field of view of the instructor Q1 is identified by the human observation device 18 as an object of interaction, and the instructor Q1 is identified as an object by the ambient condition observation device 16, and the ambient condition observation is performed. The visitor P1, the robot body 12, and the like are identified as objects around the device 16. In this way, in addition to the ambient condition observation device 16 and the like that are ubiquitous in the exhibition hall, the same event can be performed by using the human observation device 18 worn by the instructor and the visitor who is the subject of the interaction. It is possible to record from a local viewpoint and an overall viewpoint from multiple observation devices. In addition, the interaction can be recorded from an objective and local viewpoint by the stuffed toy observation device 20, the robot body 12, or the like. Further, by automatically recognizing the ID numbers of the persons and objects that have entered the field of view of the human observation device 18 and the surrounding situation observation device 16, it is possible to index the accumulated interaction data in real time. Therefore, the instructor and the visitor can unconsciously add an index to the interaction with another person or the object by “seeing”. In addition, the ID number of the detected person and object and the other measured interaction data are stored in a state where each observation time can be specified, so that the person and object in each interaction data are identified. It is possible to analyze human interaction from the relationship between humans and objects, and systematically accumulate non-verbal common sense (non-linguistic information) that humans handle casually and make it machine-readable. Can be dictionaryd.

そして、この実施例では、ロボット本体12によって、環境内の人間に対して、そのインタラクションデータに応じた行動(この実施例では案内や推薦等)が提示される。具体的には、データ取得サーバ22において、インタラクションDB24に記憶された対話相手のインタラクションデータが解析されて、ガイドルールDB28に記憶されたガイドルールに基づいて、ロボット本体12に実行させる行動が決定される。そして、データ取得サーバ22は決定した行動を実行させるためのデータをロボット本体12に送信し、これに応じてロボット本体12は当該行動を実行する。したがって、ロボット本体12によって、対話相手に対してその過去の行動に適応した案内等の所定の行動を提示することができる。   In this embodiment, the robot body 12 presents an action (in this embodiment, guidance, recommendation, etc.) according to the interaction data to a person in the environment. Specifically, the interaction data of the conversation partner stored in the interaction DB 24 is analyzed in the data acquisition server 22, and the action to be executed by the robot body 12 is determined based on the guide rules stored in the guide rule DB 28. The Then, the data acquisition server 22 transmits data for executing the determined action to the robot body 12, and the robot body 12 executes the action accordingly. Therefore, the robot body 12 can present a predetermined action such as guidance adapted to the past action to the conversation partner.

このように、データ取得サーバ22は、観測されたインタラクションデータを取得して記録させるだけでなく、ロボット本体12の行動を制御する外部の処理コンピュータとしても機能するものである。   As described above, the data acquisition server 22 not only acquires and records the observed interaction data, but also functions as an external processing computer that controls the behavior of the robot body 12.

図5には、この処理コンピュータ22のガイド提示に関する具体的な動作の一例が示される。このガイド提示処理は、たとえばインタラクションデータの記録中に所定の時間周期で起動される。   FIG. 5 shows an example of a specific operation related to the guide presentation of the processing computer 22. This guide presenting process is started at a predetermined time period during, for example, recording of interaction data.

まず、ステップS1で、処理コンピュータ22のCPUは、対話対象が有るか否かを判断する。たとえば、現時刻の直近の観測時刻においてロボット本体12の赤外線カメラ90によって観測されたインタラクションデータに、訪問者等のID番号があるかどうかをSQLサーバ24aに照会する。ここで、対話対象の有無を判断する際には、ロボット本体12をその周辺で移動させて視野を移動させるようにしてもよい。このステップS1で“NO”であれば、つまり、対話対象がいない場合には、このガイド提示処理を終了する。   First, in step S1, the CPU of the processing computer 22 determines whether there is an interaction target. For example, the SQL server 24a is inquired whether the interaction data observed by the infrared camera 90 of the robot body 12 at the latest observation time of the current time has an ID number of a visitor or the like. Here, when determining whether or not there is a conversation target, the robot body 12 may be moved around the robot body 12 to move the visual field. If “NO” in the step S1, that is, if there is no conversation target, the guide presenting process is ended.

なお、対話対象の有無の判断はロボット本体12以外の観測装置によって検出されたインタラクションデータに基づいて行われてもよい。たとえば、ロボット本体12の赤外線カメラ90からのデータに訪問者等のID番号が検出されない場合でも、ロボット本体12のID番号の検出されるインタラクションデータを探索し、当該インタラクションデータにおいて検出される訪問者等のID番号について、当該訪問者等がロボット本体12の近くに存在しているとみなせるので、対話対象に設定するようにしてもよい。この場合、ロボット本体12に周囲を調査させて視野を移動させることで、当該訪問者を捕らえることができる。   Note that the presence / absence of a conversation target may be determined based on interaction data detected by an observation device other than the robot body 12. For example, even when the ID number of a visitor or the like is not detected in the data from the infrared camera 90 of the robot body 12, the interaction data in which the ID number of the robot body 12 is detected is searched and the visitor detected in the interaction data is detected. Since the visitor or the like can be regarded as being present near the robot body 12, the ID number such as may be set as a conversation target. In this case, the visitor can be captured by causing the robot body 12 to investigate the surroundings and moving the field of view.

あるいは、ロボット本体12のID番号が検出されないインタラクションデータであっても、訪問者等のID番号が検出されるならば、そのID番号について対話対象に設定してもよい。この場合には、当該ID番号の検出されるインタラクションデータを観測した観測装置を特定し、この観測装置がたとえば環境内に設置される周囲状況観測装置16である場合には当該装置の設置箇所の方へロボット本体12を移動させて当該訪問者等を捕らえさせるようにしてもよいし、特定された観測装置が人間用観測装置18である場合にも当該人間用観測装置18のID番号を捕らえられるようにロボット本体12を適宜に移動させるようにしてもよい。   Or even if it is the interaction data from which the ID number of the robot main body 12 is not detected, if the ID number of a visitor or the like is detected, the ID number may be set as a conversation target. In this case, the observation device that observed the interaction data in which the ID number is detected is specified. If this observation device is, for example, the ambient state observation device 16 installed in the environment, the installation location of the device is determined. The robot main body 12 may be moved in the direction to capture the visitor or the like, or the ID number of the human observation device 18 may be captured even when the specified observation device is the human observation device 18. The robot body 12 may be moved as appropriate.

一方、ステップS1で“YES”であれば、ステップS3で、インタラクションDB24のSQLサーバ24aから対話対象のID番号を取得して、対話相手として決定する。   On the other hand, if “YES” in the step S1, the ID number of the conversation target is acquired from the SQL server 24a of the interaction DB 24 and determined as the conversation partner in a step S3.

続いて、ステップS5で、当該対話相手について、インタラクションDB24から過去の行動データを取得する。つまり、たとえば対話相手のID番号の検出されたインタラクションデータをSQLサーバ24aに照会し、該当するインタラクションデータをSQLサーバ24aおよびAVデータサーバ24bから取得する。インタラクションデータには、対話相手を識別可能なID番号で記述されたデータが含まれるので、簡単に取得して参照することができる。   Subsequently, in step S5, the past action data is acquired from the interaction DB 24 for the conversation partner. That is, for example, the interaction data in which the ID number of the conversation partner is detected is referred to the SQL server 24a, and the corresponding interaction data is acquired from the SQL server 24a and the AV data server 24b. Since the interaction data includes data described by an ID number that can identify the conversation partner, it can be easily obtained and referenced.

そして、ステップS7で、インタラクションDB24から取得した行動データを解析する。この解析処理では、たとえば、人および対象物のID番号およびXY座標等を用いて、対話相手と人または対象物との位置関係を特定し、この特定した位置関係に基づいて、当該インタラクションデータの意味するイベントの状態を判定する。   In step S7, the behavior data acquired from the interaction DB 24 is analyzed. In this analysis process, for example, the positional relationship between the conversation partner and the person or the object is specified using the ID numbers and XY coordinates of the person and the object, and the interaction data of the interaction data is determined based on the specified positional relationship. Determine the state of the event that means it.

図6にはイベントの種類の一例が模式的に示される。すべてのイベントは、周囲状況観測装置16、人間用観測装置18およびロボット本体12等が赤外線タグ14等を捕えるという意味では、これ以上単純化できないくらい単純な要素であるが、周囲状況観測装置16、人間用観測装置18およびロボット本体12等と赤外線タグ14等を付与された対象物との組合わせによって様々な意味を解釈することが可能となる。なお、イベントの状態は、この図6の例に特に限定されず、種々の変更および付加が可能である。   FIG. 6 schematically shows an example of event types. All events are simple elements that cannot be further simplified in the sense that the ambient condition observation device 16, the human observation device 18, the robot body 12, etc. capture the infrared tag 14, but the ambient condition observation device 16. Various meanings can be interpreted by a combination of the human observation device 18 and the robot main body 12 or the like and the object to which the infrared tag 14 or the like is attached. The event state is not particularly limited to the example of FIG. 6, and various changes and additions are possible.

たとえば、図6(A)に示すように、ある人Aが装着している人間用観測装置18(白丸表示)によって他の人Bの赤外線タグ14等(黒丸表示)が観測され、同時に、人Bが装着している人間用観測装置18によって人Aの赤外線タグ14等が観測されている場合には、このインタラクション状態は人Aと人Bとが対話をしている状態であると判定できる。   For example, as shown in FIG. 6 (A), an infrared tag 14 or the like (black circle display) of another person B is observed by a human observation device 18 (white circle display) worn by a person A, and at the same time, When the infrared tag 14 of the person A is observed by the human observation device 18 worn by B, this interaction state can be determined to be a state in which the person A and the person B are interacting with each other. .

また、環境側に設置された周囲状況観測装置16により人に付与された赤外線タグ14等が観測された場合、その人が当該設置エリアに滞在している状態と判定でき、図6(B)に示すように、同一の周囲状況観測装置16(白丸表示)によって複数の人A,Bの赤外線タグ14等が同時に観測された場合には、それらの人々A,Bが同じエリアに共在する状態と判定できる。   Moreover, when the infrared tag 14 etc. which were given to the person by the surrounding condition observation apparatus 16 installed in the environment side are observed, it can determine with the person staying in the said installation area, FIG.6 (B) As shown in FIG. 5, when the infrared tags 14 of a plurality of people A and B are observed simultaneously by the same ambient condition observation device 16 (white circle display), those people A and B coexist in the same area. It can be determined as a state.

また、図6(C)に示すように、人Aが装着している人間用観測装置18によってある対象物Cに付与された赤外線タグ14(黒丸表示)が観測されている場合には、その人Aがその対象物Cを注視している状態と判定できる。また、図示は省略するが、複数の人の人間用観測装置18によって同一の対象物の赤外線タグ14が同時に観測された場合には、それらの人々が同じものに対して共同注意を向けている状態であると考えられる。さらに、共同注意に参加している人の人数が増えた場合、注意を向けられている対象物は重要な社会的イベントを担っている状態と考えられる。   Further, as shown in FIG. 6C, when the infrared tag 14 (indicated by a black circle) attached to a certain object C is observed by the human observation device 18 worn by the person A, It can be determined that the person A is gazing at the object C. Although illustration is omitted, when the infrared tag 14 of the same object is simultaneously observed by a plurality of human observation devices 18, those people are paying common attention to the same thing. It is considered to be a state. Furthermore, when the number of people participating in joint attention increases, the object being noted is considered to be in a state of significant social events.

また、図6(D)に示すように、環境側に設置された周囲状況観測装置16によって、ある対象物Cに付与された赤外線タグ14およびある人Aの赤外線タグ14等が同時に観測されている場合には、その人Aがその対象物Cの設置場所を訪問している状態と解釈できる。   Further, as shown in FIG. 6D, the ambient state observation device 16 installed on the environment side simultaneously observes the infrared tag 14 attached to a certain object C, the infrared tag 14 of a certain person A, and the like. If it is, it can be interpreted that the person A is visiting the place where the object C is installed.

また、図6(E)に示すように、ある人Aが装着している人間用観測装置18によって、他の人Bの赤外線タグ14等が観測され、かつ、そのイベントが所定時間以上継続されている場合には、人Aが人Bを凝視している状態を意味するものと解釈することもできる。あるいは、図6(C)に示すように、人Aが装着している人間用観測装置18によって、ある対象物Cに付与された赤外線タグ14が観測され、かつそのイベントが所定時間以上継続されている場合には、人Aが対象物Cを凝視している状態を意味するものと解釈してもよい。   As shown in FIG. 6E, the infrared tag 14 of another person B is observed by the human observation device 18 worn by a person A, and the event continues for a predetermined time or more. If it is, it can be interpreted that the person A is staring at the person B. Alternatively, as shown in FIG. 6C, the infrared tag 14 attached to a certain object C is observed by the human observation device 18 worn by the person A, and the event continues for a predetermined time or more. If it is, the person A may be interpreted as meaning a state of staring at the object C.

また、図6(F)に示すように、人Aが装着している人間用観測装置18によって、ある対象物Cに付与された赤外線タグ14が観測され、同時に、その対象物Cに設置された周囲状況観測装置16によって人Aの赤外線タグ14等が観測されている場合には、その人Aがその対象物Cを注視している状態を意味するものと解釈してもよい。   In addition, as shown in FIG. 6F, the infrared tag 14 attached to a certain object C is observed by the human observation device 18 worn by the person A, and is simultaneously installed on the object C. Further, when the infrared tag 14 or the like of the person A is being observed by the surrounding state observation device 16, it may be interpreted as meaning that the person A is gazing at the object C.

なお、これらのイベント状態の解釈が重複した場合には、予め優先順位を設定しておき、優先順位の高いものを採用するようにしてよい。   If the interpretation of these event states overlaps, a priority order may be set in advance, and a higher priority order may be adopted.

このようにして、図5のステップS7で、対話相手のインタラクションデータが解析されて、その過去の行動の履歴がたとえば上述のようなイベント状態等で把握される。したがって、把握された過去の行動の状態に基づくことで、提示すべき行動を容易に決定することができる。   In this way, the interaction data of the conversation partner is analyzed in step S7 of FIG. 5, and the past behavior history is grasped by, for example, the event state as described above. Therefore, the action to be presented can be easily determined based on the grasped past action state.

また、たとえば生体データ等を用いることも可能である。つまり、たとえば、対話相手の人または対象物とのインタラクションにおける脈拍、発汗状態および体温等の高まりや変化等を検出して、検出した変化等に基づいて当該インタラクションデータのイベント状態を判定するようにしてもよい。   For example, biometric data or the like can be used. In other words, for example, an increase or a change in the pulse, sweating state, body temperature, etc. in the interaction with the person or object of the conversation partner is detected, and the event state of the interaction data is determined based on the detected change. May be.

続いて、ステップS9で、処理コンピュータ22のCPUは、ガイドルールDB28から、解析した行動データに関連するガイドルールを取得する。たとえば、対話相手が展示物B1を訪問していた場合には、展示物B1を訪問したことを条件に含むルールを検索して、適合するルールを取得する。   Subsequently, in step S <b> 9, the CPU of the processing computer 22 acquires a guide rule related to the analyzed behavior data from the guide rule DB 28. For example, when the dialogue partner is visiting the exhibit B1, a rule including that the exhibit B1 is visited as a condition is searched to obtain a matching rule.

そして、ステップS11で、解析した過去の行動データと取得したガイドルールとに基づいて実行すべき行動(この実施例ではガイド内容)を決定する。ガイドルールは過去の行動に対応して実行すべき行動が規定されているので、過去の行動とガイドルールとを照合することによって、容易に行動を決定することができる。たとえば、対話相手が展示物B1を訪問したが展示物B4を訪問していない場合には、展示物B4の方に指差し動作をしながら「展示物B4も見るといいよ」と発話する等の推薦を行うことが決定される。また、たとえば、説明員Q1から直接説明を受けた方が分かりやすいような展示物B2を訪問しているが説明員Q1と対話していない場合には、「展示物B2の説明を説明員Q1に聞くといいよ」と発話することが決定される。なお、先のステップS9で、行動の提示を規定したルールが複数取得された場合には、ルールの適用順はたとえばランダムにあるいは優先度等に従って決定される。   In step S11, an action to be executed (guide content in this embodiment) is determined based on the analyzed past action data and the acquired guide rule. Since the guide rule defines an action to be executed corresponding to a past action, the action can be easily determined by comparing the past action with the guide rule. For example, when the conversation partner visits the exhibit B1 but does not visit the exhibit B4, he / she makes a pointing operation toward the exhibit B4 and says “You should also see the exhibit B4”. It is decided to make a recommendation. Further, for example, if the visitor B2 visits an easy-to-understand exhibit B2 who has received an explanation directly from the instructor Q1, but does not interact with the instructor Q1, “explain the exhibit B2 is explained to the explainer Q1. It ’s good to hear from you. ” When a plurality of rules defining the presentation of actions are acquired in the previous step S9, the order in which the rules are applied is determined, for example, randomly or according to priority.

続いて、ステップS13では、ロボット動作DB26から、決定したガイド内容に関する身体動作データを取得し、ステップS15で当該身体動作データをロボット本体12に送信する。ロボット本体12ではこの身体動作データを受信すると、ロボット本体12のCPU116は当該身体動作データに基づいて行動処理を実行する。したがって、対話相手に対して、その過去の行動に応じたガイドや推薦等の行動が提示される。つまり、先の例の1つで言えば、たとえば、ロボット本体12は「展示物B4も見るといいよ」との発話音声をそのスピーカ112から出力する。   Subsequently, in step S13, body motion data regarding the determined guide content is acquired from the robot motion DB 26, and the body motion data is transmitted to the robot body 12 in step S15. When the robot body 12 receives the body movement data, the CPU 116 of the robot body 12 executes a behavior process based on the body movement data. Therefore, behaviors such as guides and recommendations according to the past behavior are presented to the conversation partner. In other words, in one of the previous examples, for example, the robot body 12 outputs an utterance voice from the speaker 112 that “you should also see the exhibit B4”.

このように、コミュニケーションを図る機能を備えたロボット本体12の身振りおよび音声の少なくとも一方を含む身体動作によって、対話相手の過去の行動に応じた適切な案内ないし推薦等に相当する所定の行動が提示されるので、対話相手にとってはとても親しみを感じることができるだろうし、自分の行動が把握されていることによって安心感を与えることもできる。したがって、たとえば音声ガイダンスを携帯ラジオや携帯電話等から単に提供するような場合に比べて、提示した案内等を対話相手にきちんと聞いてもらえることが期待できるし、対話相手がその案内に従った行動を取る可能性も高めることができる。   In this way, a predetermined action corresponding to appropriate guidance or recommendation according to the past action of the conversation partner is presented by the body movement including at least one of gesture and voice of the robot body 12 having a communication function. As a result, you will feel very familiar to the person you are talking to, and you can feel secure by knowing your actions. Therefore, compared to the case where voice guidance is simply provided from a portable radio or mobile phone, for example, it can be expected that the guidance provided by the conversation partner will be heard properly and the conversation partner will follow the guidance. The possibility of taking can also be increased.

ステップS17では、他に提示するガイド内容が有るか否かを判断する。たとえばステップS9において行動の提示を規定したルールが複数取得されて、適用されていないルールが残っている場合等には、このステップS17で“YES”と判断され、この場合にはステップS11に戻って、残りのルールについて処理が繰り返される。   In step S17, it is determined whether there is any other guide content to be presented. For example, if a plurality of rules that define the presentation of actions are acquired in step S9 and rules that are not applied remain, it is determined “YES” in step S17, and in this case, the process returns to step S11. Then, the process is repeated for the remaining rules.

ステップS17で“NO”であれば、続くステップS19で、別の対話対象がいるかどうかを判断する。たとえば、インタラクションDB24のSQLサーバ24aに対して、現時刻の直近の観測時刻においてロボット本体12の赤外線カメラ90によって観測されたインタラクションデータに訪問者のID番号(先に対話相手に決定されたID番号を除く。)があるかどうかを照会する。このステップS19で“YES”であれば、ステップS3に戻って、インタラクションDB24からID番号を取得し、先のID番号とは別のID番号を対話相手に決定して、当該別の対話相手に対してステップS5からの処理を繰り返す。   If “NO” in the step S17, it is determined whether or not there is another dialogue target in a succeeding step S19. For example, with respect to the SQL server 24a of the interaction DB 24, the visitor's ID number (the ID number previously determined as the conversation partner) is added to the interaction data observed by the infrared camera 90 of the robot body 12 at the latest observation time of the current time. Inquire whether or not there is.) If “YES” in this step S19, the process returns to the step S3, the ID number is acquired from the interaction DB 24, an ID number different from the previous ID number is determined as the conversation partner, and the other conversation partner is determined. On the other hand, the processing from step S5 is repeated.

一方、ステップS19で“YES”であれば、対話対象がいないのでこのガイド提示処理を終了する。   On the other hand, if “YES” in the step S19, since there is no conversation target, the guide presenting process is ended.

この実施例によれば、所定の環境内における人間や対象物のインタラクションを観測して、人間の行動を記録することができるとともに、記録された対話相手についての過去のインタラクションデータに基づいて、当該対話相手に対してロボット本体12によって提示すべき行動を決定することができる。したがって、対話相手の過去の行動に応じた適切な案内や推薦等の情報を提示することができる。このため、対話相手に親しみを感じさせたり安心感を与えることができ、たとえば、提示した案内等を対話相手に有効に利用してもらえることが期待できる。   According to this embodiment, it is possible to observe human interaction within a predetermined environment and record human behavior, and based on the past interaction data regarding the recorded conversation partner, The action to be presented to the conversation partner by the robot body 12 can be determined. Therefore, it is possible to present information such as appropriate guidance and recommendation according to the past action of the conversation partner. For this reason, it is possible to make the conversation partner feel familiar or feel secure, and for example, it can be expected that the presented guidance or the like can be effectively used by the conversation partner.

また、過去に案内等を提示した対話相手が後に対話対象として再び現れた場合等には、行動データの解析処理(図5のステップS7)において、その対話相手がロボット本体12の案内に従って行動したかどうかも把握することができる。つまり、たとえば、まず、図5のステップS15で処理コンピュータ22が身体動作データをロボット本体12に送信し、ロボット本体12によって対話相手に対して案内を提示した後、当該対話相手と提示した身体動作に関する情報とを関連付けてインタラクションDB24に記録しておく。そして、再び当該対話相手が現れた場合には、ステップS7で、当該対話相手のその後のインタラクションデータに、提示した案内に従ったインタラクションないしイベント状態が含まれているかどうかを判定すればよい。たとえば展示物B4を見ることを推薦した場合には、展示物B4との間で、図6(C),(D)または(F)に示すようなイベント状態があったかどうかを判定する。これによって、その対話相手がロボット本体12の案内を聞く人であるか否か、あるいはロボット本体12を信用する人であるかどうか等を把握することができる。そして、さらに、その結果に応じたガイドルールをガイドルールDB28に予め登録しておくことによって、たとえば当該対話相手に対してロボット本体12の提示するガイド内容、その提示の仕方や接し方等を変化させることができる。   Further, when a conversation partner who has presented guidance in the past appears again as a conversation target later, in the action data analysis process (step S7 in FIG. 5), the conversation partner behaves according to the guidance of the robot body 12. Whether or not it can be grasped. That is, for example, first, in step S15 in FIG. 5, the processing computer 22 transmits body motion data to the robot body 12, and the robot body 12 presents guidance to the conversation partner, and then the body motion presented with the conversation partner. Is recorded in the interaction DB 24 in association with the information related to. When the conversation partner appears again, it is determined in step S7 whether or not the subsequent interaction data of the conversation partner includes an interaction or event state in accordance with the presented guidance. For example, when it is recommended to view the exhibit B4, it is determined whether or not there is an event state as shown in FIGS. 6C, 6D, or 6F with the exhibit B4. Thereby, it is possible to grasp whether or not the conversation partner is a person who listens to the guidance of the robot body 12, or whether or not the person who trusts the robot body 12. Further, by registering a guide rule corresponding to the result in the guide rule DB 28 in advance, for example, the guide content presented by the robot main body 12 with respect to the conversation partner, the way of presentation, the manner of contact, etc. are changed. Can be made.

なお、上述の実施例では、ロボット本体12の外部の処理コンピュータ22によって、図5に示すようなガイド提示処理を実行するようにしていたが、このガイド提示処理を実行するためのプログラム等をロボット本体12の内部に備えるようにして、この処理をロボット本体12によって実行するようにしてもよい。ただし、この場合、ステップS15では、ロボットDB26から取得した身体動作データの実行を処理する。なお、この場合には、ロボット動作DB26およびガイドルールDB28をロボット本体12内に備えるようにしてもよい。   In the above-described embodiment, the guide presentation process as shown in FIG. 5 is executed by the processing computer 22 outside the robot body 12. However, a program or the like for executing this guide presentation process is stored in the robot. This process may be executed by the robot body 12 so as to be provided inside the body 12. However, in this case, in step S15, the execution of the body movement data acquired from the robot DB 26 is processed. In this case, the robot motion DB 26 and the guide rule DB 28 may be provided in the robot body 12.

また、上述の各実施例では、赤外線タグおよび赤外線カメラ等を用いて、人間や対象物を識別するための識別情報を取得するようにしていたが、識別情報の取得方法は適宜変更され得る。たとえば、無線タグ(RFID)および無線タグ読取装置を用いて識別情報を取得するようにしてもよい。たとえば無線タグ読取装置を対象物に関連して設けかつ人間に無線タグを装着させた場合、または、人間に無線タグ読取装置を装着させかつ対象物に関連して無線タグを設けた場合等には、当該無線タグ読取装置の検知範囲に入ることによってRFIDの検出されたインタラクションデータの解析において、その人間と対象物とのインタラクションがあったと判定することができる。   In each of the above-described embodiments, identification information for identifying a person or an object is acquired using an infrared tag, an infrared camera, or the like. However, the method for acquiring identification information can be changed as appropriate. For example, the identification information may be acquired using a wireless tag (RFID) and a wireless tag reader. For example, when a wireless tag reader is provided in connection with an object and a person is attached with a wireless tag, or when a wireless tag reader is attached to a person and a wireless tag is provided in association with an object, etc. Can be determined that there is an interaction between the person and the object in the analysis of the interaction data detected by the RFID by entering the detection range of the RFID tag reader.

また、上述の各実施例では、識別情報として、人間および対象物を個別に識別可能なものを設定し、個別のインタラクションデータを記録して、たとえば個々の人間の行動に応じた行動を提示するようにしていたが、識別情報は、センサ類で取得可能なものであれば、人間や対象物を何らかの特徴や共通性等に基づいて分類したときの所定の単位を識別するものであってもよい。つまり、たとえば、人間の場合、服もしくは毛髪等の色や、年寄りもしくは若い等の年齢層などの違いを識別情報としてよい。このような場合、その単位ごとのインタラクションデータを記録して、対話相手に対しては、その属する単位についての過去の行動に応じた所定の行動を提示することとなる。つまり、同じ属性の人々の行動履歴に基づいてロボット本体12の提示すべき行動が決定される。なお、上述の色の識別情報は、識別タグ等を設けなくても、たとえば画像データによって人間そのものから直接取得することができる。また、年齢層に関しては、たとえば人間にモーションキャプチャ用のマーカを装着し、モーションキャプチャシステムを用いてたとえば歩くとき等の動きデータを取得して解析することで検知することも可能である。   Further, in each of the above-described embodiments, identification information that can individually identify a person and an object is set, and individual interaction data is recorded, for example, an action corresponding to the action of each individual person is presented. However, as long as the identification information can be acquired by sensors, the identification information may identify a predetermined unit when a person or an object is classified based on some characteristic or commonality. Good. That is, for example, in the case of human beings, differences in colors such as clothes or hair and age groups such as elderly or young may be used as identification information. In such a case, the interaction data for each unit is recorded, and a predetermined action corresponding to the past action for the unit to which the conversation belongs is presented to the conversation partner. That is, the action to be presented by the robot body 12 is determined based on the action history of people having the same attribute. Note that the above-described color identification information can be obtained directly from a person itself by image data, for example, without providing an identification tag or the like. The age group can also be detected by, for example, mounting a motion capture marker on a human and acquiring and analyzing motion data such as when walking using a motion capture system.

この発明の一実施例のコミュニケーションロボットの概要を示す図解図である。It is an illustration figure which shows the outline | summary of the communication robot of one Example of this invention. 図1実施例のロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the robot of FIG. 1 Example. 図1のロボット本体の外観を示す図解図(正面図)である。It is an illustration figure (front view) which shows the external appearance of the robot main body of FIG. 図1のロボット本体の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the robot main body of FIG. 図2の処理コンピュータのガイド提示処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of operation | movement of the guide presentation process of the processing computer of FIG. 行動データの解析において判定されるイベントの状態の一例を示す図解図である。It is an illustration figure which shows an example of the state of the event determined in the analysis of action data.

符号の説明Explanation of symbols

10 …コミュニケーションロボット
12 …ロボット本体
14 …赤外線タグ
16 …周囲状況観測装置
18 …人間用観測装置
20 …ぬいぐるみ型観測装置
22 …処理コンピュータ
24 …インタラクションデータベース
26 …ロボット動作データベース
28 …ガイドルールデータベース
116 …CPU
DESCRIPTION OF SYMBOLS 10 ... Communication robot 12 ... Robot main body 14 ... Infrared tag 16 ... Ambient condition observation device 18 ... Human observation device 20 ... Stuffed observation device 22 ... Processing computer 24 ... Interaction database 26 ... Robot motion database 28 ... Guide rule database 116 ... CPU

Claims (5)

対話対象の行動を観測してコミュニケーションをするコミュニケーションロボットであって、
前記対話対象の行動履歴を取得するセンサ、
前記センサによって取得された前記行動履歴を記録する記録手段、
前記対話対象から対話相手を決定する相手決定手段、
前記記録手段に記録された前記対話相手に関する行動履歴に基づいて当該ロボットの行動を決定する行動決定手段、および
前記行動決定手段によって決定された前記行動を実行する実行手段を備える、コミュニケーションロボット。
A communication robot that observes and communicates with the behavior of a conversation,
A sensor for acquiring an action history of the conversation target;
Recording means for recording the action history acquired by the sensor;
Partner determining means for determining a conversation partner from the conversation target;
A communication robot comprising: an action determining unit that determines an action of the robot based on an action history related to the conversation partner recorded in the recording unit; and an executing unit that executes the action determined by the action determining unit.
前記センサは、対話対象を識別するための識別情報および前記対話対象のインタラクションの対象物を識別するための識別情報の少なくとも一方を取得する、請求項1記載のコミュニケーションロボット。   The communication robot according to claim 1, wherein the sensor acquires at least one of identification information for identifying a conversation target and identification information for identifying an object of the interaction target interaction. 前記行動決定手段は、前記対話相手と前記インタラクションの対象物との位置関係に基づいて前記対話相手に関する行動履歴の状態を解析し、該解析結果に基づいて前記行動を決定する、請求項2記載のコミュニケーションロボット。   The behavior determination means analyzes a state of an action history related to the conversation partner based on a positional relationship between the conversation partner and the object of the interaction, and determines the behavior based on the analysis result. Communication robot. 過去の行動に対応して当該ロボットの提示すべき行動を規定した規則を記憶する規則記憶手段をさらに備え、
前記行動決定手段は、前記対話相手に関する行動履歴と前記規則とに基づいて、前記行動を決定する、請求項1ないし3のいずれかに記載のコミュニケーションロボット。
Rule storage means for storing a rule defining the action to be presented by the robot corresponding to the past action;
The communication robot according to any one of claims 1 to 3, wherein the behavior determining unit determines the behavior based on a behavior history and the rules regarding the conversation partner.
前記行動決定手段によって決定される行動は、前記対話相手のインタラクションした対象物に関連する案内ないし推薦をする動作を含む、請求項1ないし4のいずれかに記載のコミュニケーションロボット。   The communication robot according to any one of claims 1 to 4, wherein the action determined by the action determining means includes an operation of performing guidance or recommendation related to an object with which the conversation partner interacts.
JP2003367228A 2003-10-28 2003-10-28 Communication robot Pending JP2005131713A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003367228A JP2005131713A (en) 2003-10-28 2003-10-28 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003367228A JP2005131713A (en) 2003-10-28 2003-10-28 Communication robot

Publications (1)

Publication Number Publication Date
JP2005131713A true JP2005131713A (en) 2005-05-26

Family

ID=34645291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003367228A Pending JP2005131713A (en) 2003-10-28 2003-10-28 Communication robot

Country Status (1)

Country Link
JP (1) JP2005131713A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007118129A (en) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International Communication robot and caution control system using the same
JP2007148902A (en) * 2005-11-29 2007-06-14 Nec Corp Individual management method using individual terminal and system therefor
JP2007265329A (en) * 2006-03-30 2007-10-11 Advanced Telecommunication Research Institute International Route guidance system
JP2007276080A (en) * 2006-04-11 2007-10-25 Toyota Motor Corp Guide robot
JP2009104426A (en) * 2007-10-24 2009-05-14 Advanced Telecommunication Research Institute International Interactive sign system
JP2010110864A (en) * 2008-11-06 2010-05-20 Nec Corp Robot system and method and program for activating communication
JP2010231713A (en) * 2009-03-30 2010-10-14 National Institute Of Advanced Industrial Science & Technology Safe position detecting apparatus with entry detecting function
JP2011248798A (en) * 2010-05-31 2011-12-08 Harumi Iwata Multiple window system
JP2012161851A (en) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International Robot system and space formation recognizing device used in the same
US20150094851A1 (en) * 2013-09-27 2015-04-02 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
JP2016068197A (en) * 2014-09-30 2016-05-09 富士ソフト株式会社 robot
JP2017170568A (en) * 2016-03-24 2017-09-28 株式会社国際電気通信基礎技術研究所 Service providing robot system
EP3279754A1 (en) 2016-07-15 2018-02-07 Hitachi, Ltd. Control apparatus, control system, and control method
CN114488879A (en) * 2021-12-30 2022-05-13 深圳鹏行智能研究有限公司 Robot control method and robot
US11833684B2 (en) 2017-02-25 2023-12-05 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
US11904470B2 (en) 2021-02-08 2024-02-20 Diligent Robotics, Inc. Systems, apparatuses, and methods for robotic learning and execution of skills including navigation and manipulation functions

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007118129A (en) * 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International Communication robot and caution control system using the same
JP2007148902A (en) * 2005-11-29 2007-06-14 Nec Corp Individual management method using individual terminal and system therefor
JP2007265329A (en) * 2006-03-30 2007-10-11 Advanced Telecommunication Research Institute International Route guidance system
JP2007276080A (en) * 2006-04-11 2007-10-25 Toyota Motor Corp Guide robot
JP4539600B2 (en) * 2006-04-11 2010-09-08 トヨタ自動車株式会社 Guide robot
JP2009104426A (en) * 2007-10-24 2009-05-14 Advanced Telecommunication Research Institute International Interactive sign system
JP2010110864A (en) * 2008-11-06 2010-05-20 Nec Corp Robot system and method and program for activating communication
JP2010231713A (en) * 2009-03-30 2010-10-14 National Institute Of Advanced Industrial Science & Technology Safe position detecting apparatus with entry detecting function
JP2011248798A (en) * 2010-05-31 2011-12-08 Harumi Iwata Multiple window system
JP2012161851A (en) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International Robot system and space formation recognizing device used in the same
US20150094851A1 (en) * 2013-09-27 2015-04-02 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
US9517559B2 (en) * 2013-09-27 2016-12-13 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
JP2016068197A (en) * 2014-09-30 2016-05-09 富士ソフト株式会社 robot
JP2017170568A (en) * 2016-03-24 2017-09-28 株式会社国際電気通信基礎技術研究所 Service providing robot system
EP3279754A1 (en) 2016-07-15 2018-02-07 Hitachi, Ltd. Control apparatus, control system, and control method
US10339381B2 (en) 2016-07-15 2019-07-02 Hitachi, Ltd. Control apparatus, control system, and control method
US11833684B2 (en) 2017-02-25 2023-12-05 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
US11904470B2 (en) 2021-02-08 2024-02-20 Diligent Robotics, Inc. Systems, apparatuses, and methods for robotic learning and execution of skills including navigation and manipulation functions
CN114488879A (en) * 2021-12-30 2022-05-13 深圳鹏行智能研究有限公司 Robot control method and robot

Similar Documents

Publication Publication Date Title
JP4599522B2 (en) Communication robot
JP2005131713A (en) Communication robot
JP4822319B2 (en) Communication robot and attention control system using the same
JP5120745B2 (en) Communication robot
JP7351383B2 (en) Information processing device, information processing method, and program
JP5318623B2 (en) Remote control device and remote control program
JP3974098B2 (en) Relationship detection system
JP2007160473A (en) Interactive object identifying method in robot and robot
JP4517086B2 (en) Communication robot system and robot controller
JP7375770B2 (en) Information processing device, information processing method, and program
CN113303791A (en) Online self-service physical examination system for motor vehicle driver, mobile terminal and storage medium
US20200269421A1 (en) Information processing device, information processing method, and program
JP2007160427A (en) Robot control system
WO2019123744A1 (en) Information processing device, information processing method, and program
JP4793904B2 (en) Communication robot system and communication robot
JP6887035B1 (en) Control systems, control devices, control methods and computer programs
JP4779114B2 (en) Communication robot
EP3992987A1 (en) System and method for continously sharing behavioral states of a creature
JP4095537B2 (en) Experience display device, experience display method, and experience display program
CN116061210A (en) Information processing apparatus, information processing method, and computer storage medium
JP4012872B2 (en) Information management apparatus, information management method, and information management program
JP2004227276A (en) Human communication behavior recording system and method
JP3936295B2 (en) Database creation device
US11182976B2 (en) Device for influencing virtual objects of augmented reality
KR101769512B1 (en) Device for human care

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070313