JP2011223223A - Recording controller apparatus and recording control program - Google Patents

Recording controller apparatus and recording control program Download PDF

Info

Publication number
JP2011223223A
JP2011223223A JP2010089175A JP2010089175A JP2011223223A JP 2011223223 A JP2011223223 A JP 2011223223A JP 2010089175 A JP2010089175 A JP 2010089175A JP 2010089175 A JP2010089175 A JP 2010089175A JP 2011223223 A JP2011223223 A JP 2011223223A
Authority
JP
Japan
Prior art keywords
recording
robot
sensor
detection signal
trigger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010089175A
Other languages
Japanese (ja)
Other versions
JP5633003B2 (en
Inventor
Masahiro Shiomi
昌裕 塩見
Takayuki Kanda
崇行 神田
Tomohito Koizumi
智史 小泉
Fairchild Glass Dylan
フェアチャイルド グラス ディラン
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2010089175A priority Critical patent/JP5633003B2/en
Publication of JP2011223223A publication Critical patent/JP2011223223A/en
Application granted granted Critical
Publication of JP5633003B2 publication Critical patent/JP5633003B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a recording control apparatus and program capable of recording only a detection signal from a necessary sensor if needed.SOLUTION: A recording control apparatus 102 includes a CPU 102a that, when starting recording control processing, determines whether a recording start trigger is generated on the basis of a detection signal from an environment sensor 106. The generated recording start trigger causes the CPU 102a to start recording to a sensor information database 104, a detection signal from the environment sensor 106 in which its detection range includes at least one of a robot 12 and a human. On the basis of the detection signal from the environment sensor 106, the CPU 102a determines whether a recording terminating trigger is generated. When the recording terminating trigger is generated, the CPU 102a terminates the recording of the detection signal from the environment sensor 106 started when the recording start trigger corresponding to the recording terminating trigger is generated.

Description

この発明は記録制御装置および記録制御プログラムに関し、特にたとえば、或る環境内に存在するロボットおよび人間の行動および対話を記録する、記録制御装置および記録制御プログラムに関する。   The present invention relates to a recording control apparatus and a recording control program, and more particularly to a recording control apparatus and a recording control program for recording, for example, robots and human actions and dialogues in a certain environment.

この種の記録制御装置の一例が特許文献1に開示されている。この特許文献1に開示される監視映像記録装置では、監視カメラ映像の走査ラインからn個(n=整数)のサンプリングが抽出され、その画像情報が1フレーム毎に記憶される。そして、記憶された画像情報が1フレーム毎に比較され、撮像した映像パターンの変化が検出される。映像パターンの変化が検出された場合にのみ、記録装置が動作され、監視カメラの映像信号が記録テープなどに記憶される。   An example of this type of recording control apparatus is disclosed in Patent Document 1. In the surveillance video recording apparatus disclosed in Patent Document 1, n (n = integer) samplings are extracted from a scanning line of surveillance camera video, and the image information is stored for each frame. The stored image information is compared for each frame, and a change in the captured video pattern is detected. Only when a change in the video pattern is detected, the recording device is operated, and the video signal of the surveillance camera is stored on a recording tape or the like.

特開平7−193781号[H04N 5/915, H04N 7/18]JP 7-193781 [H04N 5/915, H04N 7/18]

しかし、特許文献1の監視映像記録装置では、映像パターンの変化によってのみ記録装置の動作を制御するため、イメージセンサのみならず、様々な種類のセンサが配置された環境下において、必要な時に必要なセンサの検出信号のみを選択的に記録することはできなかった。   However, in the surveillance video recording apparatus of Patent Document 1, since the operation of the recording apparatus is controlled only by the change of the video pattern, it is necessary when necessary in an environment where not only an image sensor but also various types of sensors are arranged. It was not possible to selectively record only the detection signal of a simple sensor.

それゆえに、この発明の主たる目的は、新規な、記録制御装置および記録制御プログラムを提供することである。   Therefore, a main object of the present invention is to provide a novel recording control apparatus and recording control program.

また、この発明の他の目的は、必要なときに必要なセンサのみの検出信号を記録することができる、記録制御装置および記録制御プログラムを提供することである。   Another object of the present invention is to provide a recording control device and a recording control program capable of recording a detection signal of only a necessary sensor when necessary.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、ロボットと人間とが存在する環境に配置された複数のセンサからの検出信号の記録を制御する記録制御装置であって、複数のセンサからの検出信号に基づいて、当該検出信号の記録を開始するかどうかを判断する記録開始判断手段、記録開始判断手段によって検出信号の記録を開始することが判断されたとき、複数のセンサのそれぞれについて、自身の検出範囲にロボットおよび人間の少なくとも一方が含まれるかどうかを判断する位置判断手段、および位置判断手段によって検出範囲にロボットおよび人間の少なくとも一方が含まれると判断されたとき、当該検出範囲を有するセンサの検出信号の記録を開始する記録開始手段を備える、記録制御装置である。   A first invention is a recording control device that controls recording of detection signals from a plurality of sensors arranged in an environment where a robot and a human are present, and the detection is performed based on detection signals from the plurality of sensors. When it is determined by the recording start determining means that determines whether or not to start signal recording, and when the recording start determining means determines that recording of the detection signal is to be started, for each of the plurality of sensors, the robot and human A position determination unit that determines whether or not at least one of the above is included, and when the position determination unit determines that at least one of a robot and a human is included in the detection range, the detection signal of the sensor having the detection range is recorded. It is a recording control apparatus provided with the recording start means to start.

第1の発明では、記録制御装置(102)は、ロボット(12)と人間(A、B、C)とが存在する環境(200)に配置された複数のセンサ(106)からの検出信号の記録を制御する。記録開始判断手段(102a、S13)は、複数のセンサからの検出信号に基づいて、当該検出信号の記録を開始するかどうかを判断する。位置判断手段(102a、S29)は、記録開始判断手段によって検出信号の記録を開始することが判断されたとき(S13で“YES”)、複数のセンサのそれぞれについて、自身の検出範囲にロボットおよび人間の少なくとも一方が含まれるかどうかを判断する。記録開始手段(102a、S35)は、位置判断手段によって検出範囲にロボットおよび人間の少なくとも一方が含まれると判断されたとき(S29で“YES”)、当該検出範囲を有するセンサの検出信号の記録を開始する。   In the first invention, the recording control device (102) receives detection signals from a plurality of sensors (106) arranged in an environment (200) where a robot (12) and a human (A, B, C) exist. Control recording. The recording start determining means (102a, S13) determines whether or not to start recording of the detection signals based on the detection signals from the plurality of sensors. The position determining means (102a, S29), when it is determined by the recording start determining means that recording of the detection signal is started (“YES” in S13), the robot and Determine whether at least one of humans is included. The recording start means (102a, S35) records the detection signal of the sensor having the detection range when the position determination means determines that at least one of the robot and the human is included in the detection range ("YES" in S29). To start.

第1の発明によれば、センサの検出信号の記録開始が判断されると、センサの検出範囲内に人やロボットが存在する場合に、当該センサの検出信号を記録するので、必要なときに必要なセンサの検出信号のみを記録することができる。この結果、メモリの記憶容量を無駄に使用するのを防止することができる。   According to the first invention, when the recording start of the detection signal of the sensor is determined, the detection signal of the sensor is recorded when a person or a robot exists within the detection range of the sensor. Only the detection signals of the necessary sensors can be recorded. As a result, it is possible to prevent wasteful use of the storage capacity of the memory.

第2の発明は、第1の発明に従属し、ロボットは、複数のセンサの一部を含む。   A second invention is dependent on the first invention, and the robot includes a part of a plurality of sensors.

第2の発明では、ロボットは、複数のセンサの一部を含むので、たとえば、人間を識別したり、人間の音声や行動を検出したりするセンサとしても機能する。   In the second invention, since the robot includes a part of a plurality of sensors, the robot also functions as a sensor for identifying a human or detecting a human voice or action, for example.

第2の発明によれば、ロボットを環境に配置されるセンサとして使用することができる。   According to the second invention, the robot can be used as a sensor disposed in the environment.

第3の発明は、第1または第2の発明に従属し、ロボットは、身体動作および音声の少なくとも一方を用いたコミュニケーション行動を実行するコミュニケーションロボットである。   A third invention is dependent on the first or second invention, and the robot is a communication robot that executes a communication action using at least one of a body motion and a voice.

第3の発明では、ロボットは、身体動作および音声の少なくとも一方を用いたコミュニケーション行動を実行するコミュニケーションロボットである。たとえば、コミュニケーションロボットは、人間のようなコミュニケーションの対象との間で、コミュニケーション行動を実行し、或る環境において、受付や案内などのサービスを提供する。   In a third aspect of the invention, the robot is a communication robot that executes a communication action using at least one of body movement and voice. For example, a communication robot performs communication behavior with a communication target such as a human and provides services such as reception and guidance in a certain environment.

第3の発明によれば、コミュニケーションロボットが存在するような環境における当該コミュニケーションロボットおよび人間のコミュニケーション行動を記録することができる。   According to the third aspect of the present invention, it is possible to record the communication robot and human communication behavior in an environment where the communication robot exists.

第4の発明は、第1ないし第3の発明に従属し、記録開始判断手段は、複数のセンサからの検出信号が第1所定条件を満たすとき、当該検出信号の記録を開始することを判断する。   A fourth invention is dependent on the first to third inventions, and the recording start determining means determines that recording of the detection signal is started when the detection signals from the plurality of sensors satisfy the first predetermined condition. To do.

第4の発明では、記録開始判断手段は、複数のセンサからの検出信号が第1所定条件を満たすとき、たとえば、検出信号の記録を開始するトリガが発生したとき、当該検出信号の記録を開始する。   In the fourth invention, the recording start determining means starts recording the detection signal when the detection signals from the plurality of sensors satisfy the first predetermined condition, for example, when a trigger for starting the recording of the detection signal occurs. To do.

第4の発明によれば、複数のセンサからの検出信号が第1所定条件を満たす場合に、検出信号の記録を開始するので、必要なときに必要なセンサの検出信号のみを記録することができる。   According to the fourth invention, since the recording of the detection signal is started when the detection signals from the plurality of sensors satisfy the first predetermined condition, it is possible to record only the necessary detection signals of the sensor when necessary. it can.

第5の発明は、第1ないし第4の発明のいずれかに従属し、複数のセンサからの検出信号に基づいて、当該検出信号の記録を終了するかどうかを判断する記録終了判断手段、および記録終了判断手段によって検出信号の記録を終了することが判断されたとき、当該検出信号の記録を終了する記録終了手段をさらに備える。   A fifth invention is dependent on any one of the first to fourth inventions, and based on detection signals from a plurality of sensors, recording end determination means for determining whether or not to end recording of the detection signals, and When it is determined by the recording end determination means to end the recording of the detection signal, the recording end means further includes a recording end means for ending the recording of the detection signal.

第5の発明では、記録終了判断手段(102a、S15)は、複数のセンサからの検出信号に基づいて、当該検出信号の記録を終了するかどうかを判断する。記録終了手段(102a、S21)は、記録終了判断手段によって検出信号の記録を終了することが判断されたとき(S15で“YES”)、当該検出信号の記録を終了する。   In the fifth invention, the recording end determination means (102a, S15) determines whether or not to end the recording of the detection signal based on the detection signals from the plurality of sensors. The recording end means (102a, S21) ends the recording of the detection signal when it is determined by the recording end determination means to end the recording of the detection signal (“YES” in S15).

第5の発明によれば、必要に応じて、センサの検出信号の記録を終了するので、過剰に検出信号を記録することを事前に回避することができる。したがって、メモリの記憶容量を無駄に使用するのを防止することができる。   According to the fifth aspect, recording of the detection signal of the sensor is terminated as necessary, so that it is possible to avoid excessively recording the detection signal in advance. Therefore, it is possible to prevent wasteful use of the storage capacity of the memory.

第6の発明は、第5の発明に従属し、記録終了判断手段は、複数のセンサからの検出信号が第2所定条件を満たす場合に、検出信号の記録を終了することを判断する。   The sixth invention is dependent on the fifth invention, and the recording end judging means judges that the recording of the detection signal is finished when the detection signals from the plurality of sensors satisfy the second predetermined condition.

第6の発明では、記録終了判断手段は、複数のセンサからの検出信号が第2所定条件を満たす場合に、たとえば、検出信号の記録を終了するフラグが発生した場合に、検出信号の記録を終了することを判断する。   In the sixth invention, the recording end judging means records the detection signal when the detection signals from the plurality of sensors satisfy the second predetermined condition, for example, when a flag for ending the recording of the detection signal is generated. Determine to end.

第6の発明によれば、第5の発明と同様に、過剰に検出信号を記録することを事前に回避することができる。   According to the sixth aspect, similarly to the fifth aspect, it is possible to avoid recording the detection signal excessively in advance.

第7の発明は、第6の発明に従属し、複数の第1所定条件を有し、当該複数の第1所定条件の各々に対応する第2所定条件を有し、記録終了手段は、検出信号の記録を終了することが判断されたとき、当該判断に基づく第2所定条件に対応する第1所定条件を満たす場合に記録を開始された検出信号についてのみ記録を終了する。   A seventh invention is dependent on the sixth invention, has a plurality of first predetermined conditions, has a second predetermined condition corresponding to each of the plurality of first predetermined conditions, and the recording end means detects When it is determined that the signal recording is to be ended, the recording is ended only for the detection signal that has been recorded when the first predetermined condition corresponding to the second predetermined condition based on the determination is satisfied.

第7の発明では、たとえば、複数の第1所定条件を有し、当該複数の第1所定条件の各々に対応する第2所定条件を有している。記録終了手段は、検出信号の記録を終了することが判断されたとき、当該判断に基づく第2所定条件に対応する第1所定条件を満たす場合に記録を開始された検出信号についてのみ(S17、S19、S21)記録を終了する。   In the seventh invention, for example, a plurality of first predetermined conditions are provided, and a second predetermined condition corresponding to each of the plurality of first predetermined conditions is provided. When it is determined that the recording of the detection signal is to be ended, the recording end unit only detects the detection signal that has started recording when the first predetermined condition corresponding to the second predetermined condition based on the determination is satisfied (S17, S19, S21) Recording is terminated.

第7の発明によれば、記録を終了するべき検出信号のみの記録を終了するので、重複して記録を開始することが設定されている検出信号を、1の記録を終了するフラグの発生によって、記録を終了してしまうことがない。   According to the seventh aspect of the invention, since the recording of only the detection signal that should end the recording is ended, the detection signal that is set to start the overlapping recording is detected by the generation of the flag that ends one recording. , Recording never ends.

第8の発明は、ロボットと人間とが存在する環境に配置された複数のセンサからの検出信号の記録を制御する記録制御プログラムであって、コンピュータに、複数のセンサからの検出信号に基づいて、当該検出信号の記録を開始するかどうかを判断する記録開始判断ステップ、記録開始判断ステップによって検出信号の記録を開始することが判断されたとき、複数のセンサのそれぞれについて、自身の検出範囲にロボットおよび人間の少なくとも一方が含まれるかどうかを判断する位置判断ステップ、および位置判断ステップによって検出範囲にロボットおよび人間の少なくとも一方が含まれると判断されたとき、当該検出範囲を有するセンサの検出信号の記憶媒体への記録を開始する記録開始ステップを実行させる、記録制御プログラムである。   An eighth invention is a recording control program for controlling recording of detection signals from a plurality of sensors arranged in an environment in which a robot and a human are present, the computer controlling the detection signals from the plurality of sensors. When the recording start determination step for determining whether or not to start recording of the detection signal and the recording start determination step determine that recording of the detection signal is to be started, each of the plurality of sensors is set in its own detection range. A position determination step for determining whether or not at least one of a robot and a human is included, and a detection signal of a sensor having the detection range when the position determination step determines that at least one of a robot and a human is included in the detection range A recording control program for executing a recording start step for starting recording on a storage medium That.

第8の発明においても、第1の発明と同様に、必要なときに必要なセンサの検出信号のみを記録することができる。   In the eighth invention, as in the first invention, only the detection signals of the necessary sensors can be recorded when necessary.

この発明によれば、センサの検出信号の記録開始が判断されると、センサの検出範囲内に人やロボットが存在する場合に、当該センサの検出信号を記録するので、必要なときに必要なセンサの検出信号のみを記録することができる。この結果、メモリの記憶容量を無駄に使用するのを防止することができる。   According to the present invention, when the start of recording of the detection signal of the sensor is determined, the detection signal of the sensor is recorded when a person or a robot exists within the detection range of the sensor. Only the detection signal of the sensor can be recorded. As a result, it is possible to prevent wasteful use of the storage capacity of the memory.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例のネットワークロボットシステムの構成を示す図解図である。FIG. 1 is an illustrative view showing a configuration of a network robot system according to an embodiment of the present invention. 図2は図1に示すロボットの外観を正面から見た正面図である。FIG. 2 is a front view of the appearance of the robot shown in FIG. 1 as viewed from the front. 図3は図1に示すロボットの電気的な構成を示すブロック図である。FIG. 3 is a block diagram showing an electrical configuration of the robot shown in FIG. 図4は図1に示すネットワークロボットシステムが適用される環境であって、センサ情報を取得する環境の一例を示す図解図である。FIG. 4 is an illustrative view showing an example of an environment in which the network robot system shown in FIG. 1 is applied and sensor information is acquired. 図5はトリガ情報テーブルの一例を示す図解図である。FIG. 5 is an illustrative view showing one example of a trigger information table. 図6は図4に示した床センサ、マイクおよびカメラの検出範囲を説明するための図解図である。FIG. 6 is an illustrative view for explaining detection ranges of the floor sensor, the microphone, and the camera shown in FIG. 図7は環境を真上から見た2次元のマップの座標系を説明するための図解図および図4に示したタグリーダの検出範囲を説明するための図解図である。FIG. 7 is an illustrative view for explaining a coordinate system of a two-dimensional map when the environment is viewed from directly above, and an illustrative view for explaining a detection range of the tag reader shown in FIG. 図8は図1に示す記録制御装置のRAMのメモリマップの一例を示す図解図である。FIG. 8 is an illustrative view showing one example of a RAM memory map of the recording control apparatus shown in FIG. 図9は図8の被験者情報データに従う被験者情報テーブルおよび図6のセンサ情報データに従うセンサ情報テーブルを示す図解図である。FIG. 9 is an illustrative view showing a subject information table according to the subject information data of FIG. 8 and a sensor information table according to the sensor information data of FIG. 図10は図8の記録情報データに従う記録情報テーブルを示す図解図である。FIG. 10 is an illustrative view showing a recording information table according to the recording information data of FIG. 図11は図1に示す記録制御装置のコンピュータ(CPU)の記録制御処理の一部を示すフロー図である。FIG. 11 is a flowchart showing a part of the recording control processing of the computer (CPU) of the recording control apparatus shown in FIG. 図12は図1に示す記録制御装置のCPUの記録制御処理の他の一部であって、図11に後続するフロー図である。FIG. 12 is another part of the recording control process of the CPU of the recording control apparatus shown in FIG. 1, and is a flowchart subsequent to FIG. 図13は図1に示す記録制御装置のCPUの記録制御処理のその他の一部であって、図12に後続するフロー図である。13 is another part of the recording control process of the CPU of the recording control apparatus shown in FIG. 1, and is a flowchart subsequent to FIG.

図1を参照して、この実施例のネットワークロボットシステム(以下、単に「システム」という)10は、複数のコミュニケーションロボット(以下、単に「ロボット」という)12を含む。各ロボット12は、ネットワーク100を介して、記録制御装置102に通信可能に接続される。また、記録制御装置102には、センサ情報データベース(センサ情報DB)104および環境センサ106が接続される。   Referring to FIG. 1, a network robot system (hereinafter simply referred to as “system”) 10 of this embodiment includes a plurality of communication robots (hereinafter simply referred to as “robots”) 12. Each robot 12 is communicably connected to the recording control apparatus 102 via the network 100. In addition, a sensor information database (sensor information DB) 104 and an environmental sensor 106 are connected to the recording control apparatus 102.

ロボット12は、相互作用指向のロボットであり、主として人間のようなコミュニケーションの対象(コミュニケーション対象)との間で、身振り手振りのような身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。ロボット12は、受付や道案内などの様々なサービスを提供し、たとえば或る会社やイベント会場(ショッピングモール、展示会場)などの様々な場所ないし状況(環境)に配置される。また、ロボット12は、環境内で自走可能である。この実施例では、各ロボット12を識別可能に検出するため、ロボット12の各々にタグ(無線タグ)12aを装着してある。   The robot 12 is an interaction-oriented robot, and has a function of executing communication actions including at least one of body movements such as gestures and voices with communication targets (communication targets) such as human beings. I have. The robot 12 provides various services such as reception and route guidance, and is arranged in various places or situations (environments) such as a certain company or event venue (shopping mall, exhibition hall), for example. Further, the robot 12 can self-propell in the environment. In this embodiment, a tag (wireless tag) 12a is attached to each robot 12 in order to detect each robot 12 in an identifiable manner.

なお、図面では、ロボット12の外部にタグ12aを装着しているように示してあるが、ロボット12の内部にタグ12aを設けるようにしてもよい。   In the drawing, the tag 12 a is shown as being attached to the outside of the robot 12, but the tag 12 a may be provided inside the robot 12.

図2を参照して、ロボット12のハードウェアの構成について説明する。また、図2はこの実施例のロボット12の外観を示す正面図である。ロボット12は台車18を含み、台車18の下面にはロボット12を自律移動させる2つの車輪20および1つの従輪22が設けられる。2つの車輪20は車輪モータ24(図3参照)によってそれぞれ独立に駆動され、台車18すなわちロボット12を前後左右の任意方向に動かすことができる。また、従輪22は車輪20を補助する補助輪である。したがって、ロボット12は、配置された環境(空間)内を自律制御によって移動可能である。   The hardware configuration of the robot 12 will be described with reference to FIG. FIG. 2 is a front view showing the appearance of the robot 12 of this embodiment. The robot 12 includes a carriage 18, and two wheels 20 and one slave wheel 22 for autonomously moving the robot 12 are provided on the lower surface of the carriage 18. The two wheels 20 are independently driven by a wheel motor 24 (see FIG. 3), and the carriage 18, that is, the robot 12 can be moved in any direction of front, rear, left and right. The slave wheel 22 is an auxiliary wheel that assists the wheel 20. Therefore, the robot 12 can move in the arranged environment (space) by autonomous control.

台車18の上には、円柱形のセンサ取り付けパネル26が設けられ、このセンサ取り付けパネル26には、多数の距離センサ28(赤外線距離センサ28aおよびレーザ距離センサ28bを含む:図3参照)が取り付けられる。これらの距離センサ28は、センサ取り付けパネル26すなわちロボット12の周囲の物体(人間や障害物など)との距離を測定するものである。   A cylindrical sensor mounting panel 26 is provided on the carriage 18, and a number of distance sensors 28 (including an infrared distance sensor 28a and a laser distance sensor 28b: see FIG. 3) are mounted on the sensor mounting panel 26. It is done. These distance sensors 28 measure the distance to the sensor mounting panel 26, that is, the object (such as a human being or an obstacle) around the robot 12.

センサ取り付けパネル26の上には、胴体30が直立するように設けられる。また、胴体30の前方中央上部(人の胸に相当する位置)には、上述した距離センサ28がさらに設けられ、ロボット12の前方の主として人間との距離を計測する。また、胴体30には、その側面側上端部のほぼ中央から伸びる支柱32が設けられ、支柱32の上には、全方位カメラ34が設けられる。全方位カメラ34は、ロボット12の周囲を撮影するものであり、後述する眼カメラ58とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ28および全方位カメラ34の設置位置は、当該部位に限定されず適宜変更され得る。   The body 30 is provided on the sensor mounting panel 26 so as to stand upright. Further, the above-described distance sensor 28 is further provided in the upper front upper portion of the body 30 (a position corresponding to a human chest), and measures the distance mainly to a human in front of the robot 12. Further, the body 30 is provided with a support column 32 extending from substantially the center of the upper end of the side surface, and an omnidirectional camera 34 is provided on the support column 32. The omnidirectional camera 34 captures the surroundings of the robot 12 and is distinguished from an eye camera 58 described later. As this omnidirectional camera 34, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. In addition, the installation positions of the infrared distance sensor 28 and the omnidirectional camera 34 are not limited to the portions, and can be changed as appropriate.

胴体30の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節36Rおよび肩関節36Lによって、上腕38Rおよび上腕38Lが設けられる。図示は省略するが、肩関節36Rおよび肩関節36Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節36Rは、直交する3軸のそれぞれの軸廻りにおいて上腕38Rの角度を制御できる。肩関節36Rの或る軸(ヨー軸)は、上腕38Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節36Lは、直交する3軸のそれぞれの軸廻りにおいて上腕38Lの角度を制御できる。肩関節36Lの或る軸(ヨー軸)は、上腕38Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。   An upper arm 38R and an upper arm 38L are provided at upper end portions on both sides of the body 30 (a position corresponding to a human shoulder) by a shoulder joint 36R and a shoulder joint 36L, respectively. Although illustration is omitted, each of the shoulder joint 36R and the shoulder joint 36L has three orthogonal degrees of freedom. That is, the shoulder joint 36R can control the angle of the upper arm 38R around each of the three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 36R is an axis parallel to the longitudinal direction (or axis) of the upper arm 38R, and the other two axes (pitch axis and roll axis) are orthogonal to the axis from different directions. It is an axis to do. Similarly, the shoulder joint 36L can control the angle of the upper arm 38L around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 36L is an axis parallel to the longitudinal direction (or axis) of the upper arm 38L, and the other two axes (pitch axis and roll axis) are orthogonal to the axis from different directions. It is an axis to do.

また、上腕38Rおよび上腕38Lのそれぞれの先端には、肘関節40Rおよび肘関節40Lが設けられる。図示は省略するが、肘関節40Rおよび肘関節40Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕42Rおよび前腕42Lの角度を制御できる。   In addition, an elbow joint 40R and an elbow joint 40L are provided at the tips of the upper arm 38R and the upper arm 38L, respectively. Although illustration is omitted, each of the elbow joint 40R and the elbow joint 40L has one degree of freedom, and the angles of the forearm 42R and the forearm 42L can be controlled around this axis (pitch axis).

前腕42Rおよび前腕42Lのそれぞれの先端には、人の手に相当する球体44Rおよび球体44Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。また、図示は省略するが、台車18の前面,肩関節36Rと肩関節36Lとを含む肩に相当する部位,上腕38R,上腕38L,前腕42R,前腕42L,球体44Rおよび球体44Lには、それぞれ、接触センサ(図3で包括的に示す)46が設けられる。台車18の前面の接触センサ46は、台車18への人間や障害物の接触を検知する。したがって、ロボット12は、その自身の移動中に人間や障害物との接触が有ると、それを検知し、直ちに車輪20の駆動を停止してロボット12の移動を急停止させることができる。また、その他の接触センサ46は、当該各部位に触れたかどうかを検知する。なお、接触センサ46の設置位置は、当該部位に限定されず、適宜な位置(人の胸,腹,脇,背中および腰に相当する位置)に設けられてもよい。   A sphere 44R and a sphere 44L corresponding to a human hand are fixedly provided at the tips of the forearm 42R and the forearm 42L, respectively. However, when a finger or palm function is required, a “hand” in the shape of a human hand can be used. Although not shown, the front surface of the carriage 18, the portion corresponding to the shoulder including the shoulder joint 36R and the shoulder joint 36L, the upper arm 38R, the upper arm 38L, the forearm 42R, the forearm 42L, the sphere 44R and the sphere 44L are respectively A contact sensor (shown generically in FIG. 3) 46 is provided. The contact sensor 46 on the front surface of the carriage 18 detects contact of a person or an obstacle with the carriage 18. Therefore, the robot 12 can detect that there is a contact with a human being or an obstacle during its movement, and can immediately stop the driving of the wheel 20 and suddenly stop the movement of the robot 12. Further, the other contact sensors 46 detect whether or not the respective parts are touched. In addition, the installation position of the contact sensor 46 is not limited to the said site | part, and may be provided in an appropriate position (position corresponding to a person's chest, abdomen, side, back, and waist).

胴体30の中央上部(人の首に相当する位置)には首関節48が設けられ、さらにその上には頭部50が設けられる。図示は省略するが、首関節48は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット12の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 48 is provided at the upper center of the body 30 (a position corresponding to a person's neck), and a head 50 is further provided thereon. Although illustration is omitted, the neck joint 48 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 12, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部50には、人の口に相当する位置に、スピーカ52が設けられる。スピーカ52は、ロボット12が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク54Rおよびマイク54Lが設けられる。以下、右のマイク54Rと左のマイク54Lとをまとめてマイク54ということがある。マイク54は、周囲の音、とりわけコミュニケーションを実行する対象である人間の声を取り込む。さらに、人の目に相当する位置には、眼球部56Rおよび眼球部56Lが設けられる。眼球部56Rおよび眼球部56Lは、それぞれ眼カメラ58Rおよび眼カメラ58Lを含む。以下、右の眼球部56Rと左の眼球部56Lとをまとめて眼球部56ということがある。また、右の眼カメラ58Rと左の眼カメラ58Lとをまとめて眼カメラ58ということがある。   The head 50 is provided with a speaker 52 at a position corresponding to a human mouth. The speaker 52 is used for the robot 12 to communicate with humans around it by voice or sound. A microphone 54R and a microphone 54L are provided at a position corresponding to a human ear. Hereinafter, the right microphone 54R and the left microphone 54L may be collectively referred to as a microphone 54. The microphone 54 captures ambient sounds, particularly a human voice that is an object for performing communication. Furthermore, an eyeball portion 56R and an eyeball portion 56L are provided at positions corresponding to human eyes. The eyeball portion 56R and the eyeball portion 56L include an eye camera 58R and an eye camera 58L, respectively. Hereinafter, the right eyeball portion 56R and the left eyeball portion 56L may be collectively referred to as the eyeball portion 56. Further, the right eye camera 58R and the left eye camera 58L may be collectively referred to as an eye camera 58.

眼カメラ58は、ロボット12に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ58は、上述した全方位カメラ34と同様のカメラを用いることができる。たとえば、眼カメラ58は、眼球部56内に固定され、眼球部56は、眼球支持部(図示せず)を介して頭部50内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部50の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部50の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部56ないし眼カメラ58の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ52,マイク54および眼カメラ58の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。   The eye camera 58 captures a human face approaching the robot 12, other parts or objects, and captures a corresponding video signal. The eye camera 58 can be the same camera as the omnidirectional camera 34 described above. For example, the eye camera 58 is fixed in the eyeball unit 56, and the eyeball unit 56 is attached to a predetermined position in the head 50 via an eyeball support unit (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 50, and the other is orthogonal to the one axis and goes straight in a direction in which the front side (face) of the head 50 faces. It is an axis (pitch axis) in the direction to be performed. By rotating the eyeball support portion around each of the two axes, the tip (front) side of the eyeball portion 56 or the eye camera 58 is displaced, and the camera axis, that is, the line-of-sight direction is moved. It should be noted that the installation positions of the above-described speaker 52, microphone 54, and eye camera 58 are not limited to the portions, and may be provided at appropriate positions.

このように、この実施例のロボット12は、車輪20の独立2軸駆動,肩関節36の3自由度(左右で6自由度),肘関節40の1自由度(左右で2自由度),首関節48の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。   As described above, the robot 12 of this embodiment includes independent two-axis driving of the wheels 20, three degrees of freedom of the shoulder joint 36 (6 degrees of freedom on the left and right), and one degree of freedom of the elbow joint 40 (two degrees of freedom on the left and right). It has a total of 17 degrees of freedom: 3 degrees of freedom for the neck joint 48 and 2 degrees of freedom for the eyeball support (4 degrees of freedom on the left and right).

図3はロボット12の電気的な構成を示すブロック図である。この図3を参照して、ロボット12は、CPU60を含む。CPU60は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス62を介して、メモリ64,モータ制御ボード66,センサ入力/出力ボード68および音声入力/出力ボード70に接続される。   FIG. 3 is a block diagram showing the electrical configuration of the robot 12. With reference to FIG. 3, the robot 12 includes a CPU 60. The CPU 60 is also called a microcomputer or a processor, and is connected to the memory 64, the motor control board 66, the sensor input / output board 68, and the audio input / output board 70 via the bus 62.

メモリ64は、図示は省略をするが、ROM,HDDおよびRAMを含む。ROMおよびHDDには、ロボット12の動作を制御するための制御プログラムが予め記憶される。たとえば、コミュニケーション行動を実行させるためのプログラム、各センサの出力(検出信号)を検知するための検知プログラム、および外部コンピュータ(記録制御装置102など)との間で必要なデータやコマンド(メッセージ)を送受信するための通信プログラムなどが記録される。また、RAMは、CPU60のワークメモリやバッファメモリとして用いられる。   The memory 64 includes a ROM, an HDD, and a RAM (not shown). In the ROM and the HDD, a control program for controlling the operation of the robot 12 is stored in advance. For example, a program for executing a communication action, a detection program for detecting the output (detection signal) of each sensor, and necessary data and commands (messages) with an external computer (such as the recording control device 102) A communication program for transmitting and receiving is recorded. The RAM is used as a work memory or buffer memory for the CPU 60.

モータ制御ボード66は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード66は、CPU60からの制御データを受け、右眼球部56Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ72」と示す)の回転角度を制御する。同様にして、モータ制御ボード66は、CPU60からの制御データを受け、左眼球部56Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ74」と示す)の回転角度を制御する。   The motor control board 66 is composed of, for example, a DSP, and controls driving of motors of axes such as arms, neck joints, and eyeballs. That is, the motor control board 66 receives control data from the CPU 60, and controls two motors (collectively indicated as “right eyeball motor 72” in FIG. 3) that control the angles of the two axes of the right eyeball portion 56R. Control the rotation angle. Similarly, the motor control board 66 receives control data from the CPU 60, and shows two motors for controlling the respective angles of the two axes of the left eyeball portion 56L (in FIG. 3, collectively referred to as “left eyeball motor 74”). ) To control the rotation angle.

また、モータ制御ボード66は、CPU60からの制御データを受け、右肩関節36Rの直交する3軸のそれぞれの角度を制御する3つのモータと右肘関節40Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ76」と示す)の回転角度を制御する。同様にして、モータ制御ボード66は、CPU60からの制御データを受け、左肩関節36Lの直交する3軸のそれぞれの角度を制御する3つのモータと左肘関節40Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ78」と示す)の回転角度を制御する。   The motor control board 66 receives control data from the CPU 60, and includes three motors for controlling the angles of the three orthogonal axes of the right shoulder joint 36R and one motor for controlling the angle of the right elbow joint 40R. The rotation angles of a total of four motors (collectively indicated as “right arm motor 76” in FIG. 3) are controlled. Similarly, the motor control board 66 receives control data from the CPU 60, three motors for controlling the angles of the three orthogonal axes of the left shoulder joint 36L, and one motor for controlling the angle of the left elbow joint 40L. The rotation angles of a total of four motors (collectively indicated as “left arm motor 78” in FIG. 3) are controlled.

さらに、モータ制御ボード66は、CPU60からの制御データを受け、首関節48の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ80」と示す)の回転角度を制御する。そして、モータ制御ボード66は、CPU60からの制御データを受け、車輪20を駆動する2つのモータ(図3では、まとめて「車輪モータ24」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ24を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ24と同様に直流モータを用いるようにしてもよい。また、ロボット12の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。   Further, the motor control board 66 receives control data from the CPU 60, and controls three motors that control the angles of the three orthogonal axes of the neck joint 48 (in FIG. 3, collectively indicated as "head motor 80"). Control the rotation angle. The motor control board 66 receives control data from the CPU 60 and controls the rotation angles of the two motors that drive the wheels 20 (collectively indicated as “wheel motors 24” in FIG. 3). In this embodiment, a motor other than the wheel motor 24 uses a stepping motor (that is, a pulse motor) in order to simplify the control. However, a DC motor may be used similarly to the wheel motor 24. The actuator that drives the body part of the robot 12 is not limited to a motor that uses a current as a power source, and may be changed as appropriate. For example, in another embodiment, an air actuator may be applied.

センサ入力/出力ボード68もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU60に与える。すなわち、距離センサ28のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード68を通じてCPU60に入力される。また、全方位カメラ34からの映像信号が、必要に応じてセンサ入力/出力ボード68で所定の処理を施してからCPU60に入力される。眼カメラ58からの映像信号も、同様にして、CPU60に入力される。また、上述した複数の接触センサ(図3では、まとめて「接触センサ46」と示す)からの信号がセンサ入力/出力ボード68を介してCPU60に与えられる。   Similarly, the sensor input / output board 68 is also constituted by a DSP, and takes in signals from each sensor and gives them to the CPU 60. That is, data relating to the reflection time from each of the distance sensors 28 is input to the CPU 60 through the sensor input / output board 68. The video signal from the omnidirectional camera 34 is input to the CPU 60 after being subjected to predetermined processing by the sensor input / output board 68 as necessary. Similarly, the video signal from the eye camera 58 is also input to the CPU 60. Further, signals from the plurality of contact sensors described above (collectively indicated as “contact sensors 46” in FIG. 3) are provided to the CPU 60 via the sensor input / output board 68.

音声入力/出力ボード70もまた、同様に、DSPで構成され、CPU60から与えられる音声合成データに従った音声または声がスピーカ52から出力される。また、マイク54からの音声入力が、音声入力/出力ボード70を介してCPU60に与えられる。   Similarly, the voice input / output board 70 is also configured by a DSP, and voice or voice according to voice synthesis data provided from the CPU 60 is output from the speaker 52. Also, voice input from the microphone 54 is given to the CPU 60 via the voice input / output board 70.

また、CPU60は、バス62を介して通信LANボード82に接続される。通信LANボード82は、DSPで構成され、CPU60から与えられた送信データを無線通信装置84に与え、無線通信装置84から送信データを、ネットワーク100を介して外部コンピュータ(記録制御装置102など)に送信する。また、通信LANボード82は、無線通信装置84を介してデータを受信し、受信したデータをCPU60に与える。つまり、ロボット12は、通信LANボード82および無線通信装置84によって、記録制御装置102と無線通信を行うことができる。   The CPU 60 is connected to the communication LAN board 82 via the bus 62. The communication LAN board 82 is configured by a DSP and provides transmission data given from the CPU 60 to the wireless communication device 84, and sends the transmission data from the wireless communication device 84 to an external computer (such as the recording control device 102) via the network 100. Send. The communication LAN board 82 receives data via the wireless communication device 84 and gives the received data to the CPU 60. That is, the robot 12 can perform wireless communication with the recording control device 102 by the communication LAN board 82 and the wireless communication device 84.

さらに、CPU60は、バス62を介して無線タグ読取装置86が接続される。無線タグ読取装置86は、アンテナ(図示せず)を介して、無線タグ(RFIDタグ)から送信される識別情報の重畳された電波を受信する。そして、無線タグ読取装置86は、受信した電波信号を増幅し、当該電波信号から識別信号を分離し、当該識別情報を復調(デコード)してCPU60に与える。無線タグは、会社やイベント会場などに居る人間に装着されており、無線タグ読取装置86は、通信可能範囲内の無線タグ(この実施例では、12a、250)を検出する。なお、無線タグは、アクティブ型であってもよいし、無線タグ読み取り装置86から送信される電波に応じて駆動されるパッシブ型であってもよい。   Further, the wireless tag reader 86 is connected to the CPU 60 via the bus 62. The wireless tag reader 86 receives a radio wave superimposed with identification information transmitted from the wireless tag (RFID tag) via an antenna (not shown). The wireless tag reader 86 amplifies the received radio wave signal, separates the identification signal from the radio wave signal, demodulates (decodes) the identification information, and supplies the identification information to the CPU 60. The wireless tag is attached to a person in a company or an event venue, and the wireless tag reader 86 detects a wireless tag (12a, 250 in this embodiment) within a communicable range. Note that the wireless tag may be an active type or a passive type that is driven in accordance with radio waves transmitted from the wireless tag reader 86.

図4は、図1に示すシステム10を或る環境200に適用した場合の一例を示す。ただし、簡単のため、図4では、ネットワーク100、記録制御装置102およびセンサ情報DB104は省略する。また、この実施例では、図4に示すように、環境200には、環境センサ106として、床センサ106a、複数のタグリーダ106b、複数のイメージセンサ(カメラ)106cおよび複数の音センサ(マイク)106dが配置される。ただし、タグリーダ106b(前述の「86」も同じ)は、ロボット12や人間を個別に識別するための識別センサの一部として機能する。   FIG. 4 shows an example when the system 10 shown in FIG. 1 is applied to an environment 200. However, for simplicity, the network 100, the recording control apparatus 102, and the sensor information DB 104 are omitted in FIG. In this embodiment, as shown in FIG. 4, the environment 200 includes an environment sensor 106 as a floor sensor 106 a, a plurality of tag readers 106 b, a plurality of image sensors (cameras) 106 c, and a plurality of sound sensors (microphones) 106 d. Is placed. However, the tag reader 106b (same as “86” described above) functions as a part of an identification sensor for individually identifying the robot 12 or a person.

また、環境200には、ロボット12が存在したり、人間が存在したりすることがある。図4に示す実施例では、1台のロボット12が存在する場合について示してあるが、2台以上のロボット12が存在することもある。また、ロボット12が存在しないこともある。さらに、図4に示す実施例では、3人の人間A、B、Cが環境200に存在する場合について示してあるが、その人数は限定される必要はない。また、人間は存在しなくてもよい。図4に示すように、人間(A、B、C)には、各々を個別に識別するために、タグ(無線タグ)250が装着される。   In addition, the environment 200 may include a robot 12 or a human. In the embodiment shown in FIG. 4, the case where there is one robot 12 is shown, but there may be two or more robots 12. Further, the robot 12 may not exist. Furthermore, although the example shown in FIG. 4 shows a case where three persons A, B, and C exist in the environment 200, the number of persons need not be limited. Also, humans may not exist. As shown in FIG. 4, a tag (wireless tag) 250 is attached to a person (A, B, C) in order to identify each person individually.

詳細な説明は省略するが、上述したように、ロボット12は、全方位カメラ34、マイク54、眼カメラ58および無線タグ読取装置(タグリーダ)86を備え、これは環境センサ106としても機能する。したがって、全方位カメラ34、マイク54、眼カメラ58およびタグリーダ86の検出信号ないしその検出信号に基づく解析結果は、記録制御装置102に、常にまたは一定時間毎に、送信(通知)される。また、上述したように、ロボット12は自走可能であるため、上記の各センサ(34、54、58、86)の検出範囲の位置はロボット12の移動(変位)に従って変化される。   Although detailed description is omitted, as described above, the robot 12 includes the omnidirectional camera 34, the microphone 54, the eye camera 58, and the wireless tag reader (tag reader) 86, which also functions as the environment sensor 106. Therefore, the detection signals from the omnidirectional camera 34, the microphone 54, the eye camera 58, and the tag reader 86 or the analysis results based on the detection signals are transmitted (notified) to the recording control device 102 at all times or at regular intervals. Further, as described above, since the robot 12 can run on its own, the position of the detection range of each of the sensors (34, 54, 58, 86) is changed according to the movement (displacement) of the robot 12.

このような或る環境200において、システム10は、たとえば、ロボット12の存在する環境下における人間のコミュニケーション行動、ロボット12と人間とのコミュニケーション行動、人間同士のコミュニケーション行動を記録(履歴)する。たとえば、そのような記録を解析することにより、その解析結果を、ロボット12が提供するサービスを実行するためのアプリケーションの開発等に役立てたり、その解析結果から、ロボット12を配置するイベント会場などの設計(設営)のヒントを得たりするのである。   In such an environment 200, the system 10 records (history), for example, human communication behavior in the environment where the robot 12 exists, communication behavior between the robot 12 and a human, and communication behavior between humans. For example, by analyzing such a record, the analysis result can be used for developing an application for executing a service provided by the robot 12, or the analysis result can be used for an event venue where the robot 12 is arranged. Get design (installation) tips.

たとえば、従来の監視カメラを用いた監視映像記録装置などでは、1フレーム毎の映像信号の変化を検出し、変化が生じたときのみ、映像信号を磁気テープなどの記録媒体に記録するようにしてある。これによって、記録媒体を効率良く使用しているのである。   For example, in a surveillance video recording apparatus using a conventional surveillance camera, a change in the video signal for each frame is detected, and the video signal is recorded on a recording medium such as a magnetic tape only when the change occurs. is there. As a result, the recording medium is efficiently used.

しかし、このような監視映像記録装置では、映像信号の変化のみに基づいて記録制御を行うため、様々な種類の環境センサ106を有するシステム10に適用することができない。たとえば、ロボット12と人間(A、B、C)とが立ち話をしている場合には、映像信号にはほとんど変化が現れないため、そのような会話についての記録が行われない可能性がある。また、映像信号の変化によって、すべての環境センサ106の検出信号を記録すると、ロボット12や人間(A、B、C)のコミュニケーション行動などを何ら検出していない環境センサ106の検出信号までも記録することになってしまう。これでは、記録媒体(この実施例では、センサ情報DB104)の記憶領域を無駄に使用してしまう。   However, since such a monitoring video recording apparatus performs recording control based only on a change in the video signal, it cannot be applied to the system 10 having various types of environmental sensors 106. For example, when the robot 12 and a person (A, B, C) are talking, there is a possibility that such a conversation may not be recorded because the video signal hardly changes. . Further, when the detection signals of all the environmental sensors 106 are recorded due to the change of the video signal, even the detection signals of the environmental sensors 106 that do not detect any communication behavior of the robot 12 or human (A, B, C) are recorded. Will end up. This wastes the storage area of the recording medium (in this embodiment, the sensor information DB 104).

そこで、この実施例では、記録を開始することのトリガ(以下、「記録開始トリガ」という)が有ると、ロボット12や人間(A、B、C)を検出範囲に含むセンサの検出信号(位置情報、映像信号、タグ情報、音声信号、触覚(接触)信号など)のみを記録媒体すなわちセンサ情報DB104に記録するようにしてある。ただし、実際には、センサ情報DB104には、検出信号に加えて、当該検出信号を検出したセンサの識別情報(センサID)および当該センサで検出されている人間(A、B、C)またはロボット12の識別情報(タグID)が記録される。また、記録開始トリガに対応する、記録を終了することのトリガ(以下、「記録終了トリガ」という)が有ると、当該記録開始トリガに応じて記録を開始したセンサの検出信号のセンサ情報DB104への記録を終了する。   Therefore, in this embodiment, when there is a trigger for starting recording (hereinafter referred to as “recording start trigger”), the detection signal (position) of the sensor including the robot 12 and the human (A, B, C) in the detection range. Only information, video signals, tag information, audio signals, tactile (contact) signals, etc.) are recorded in the recording medium, that is, the sensor information DB 104. However, actually, in addition to the detection signal, the sensor information DB 104 includes the identification information (sensor ID) of the sensor that detected the detection signal and the human (A, B, C) or robot detected by the sensor. Twelve pieces of identification information (tag ID) are recorded. When there is a trigger for ending recording (hereinafter referred to as “recording end trigger”) corresponding to the recording start trigger, the sensor information DB 104 of the detection signal of the sensor that started recording in response to the recording start trigger is sent to the sensor information DB 104. End recording.

ただし、環境200に設置されているすべての環境センサ106からの検出信号は、常にまたは一定時間(たとえば、2〜3秒)毎に、各環境センサ106のセンサIDとともに、記録制御装置102に出力されており、一定時間(たとえば、60秒)分の検出信号はRAM102bに一時記憶(バッファリング)され、必要に応じて、センサ情報DB104に記録される。   However, the detection signals from all the environmental sensors 106 installed in the environment 200 are output to the recording control device 102 together with the sensor ID of each environmental sensor 106 at all times or at regular intervals (for example, 2 to 3 seconds). Thus, detection signals for a predetermined time (for example, 60 seconds) are temporarily stored (buffered) in the RAM 102b and recorded in the sensor information DB 104 as necessary.

この実施例では、記録開始トリガと記録終了トリガとは予め決定されており、図5に示すような、トリガ情報テーブルで管理されている。後で詳細に説明するが、記録開始トリガや記録終了トリガの有無の判断は、環境センサ106の検出信号やロボット12からの通知(メッセージ)に応じて実行される。   In this embodiment, the recording start trigger and the recording end trigger are determined in advance and are managed in a trigger information table as shown in FIG. As will be described later in detail, the presence / absence of a recording start trigger or a recording end trigger is executed according to a detection signal from the environment sensor 106 or a notification (message) from the robot 12.

また、図5に示すように、トリガ情報テーブルでは、記録開始トリガおよびそれに対応する記録終了トリガが記述される。記録開始トリガと記録終了トリガとの組は、識別情報(トリガID)によって区別される。この実施例では、ローマ字(Tr)と数字とを用いてトリガIDを表しているが、これに限定される必要は無く、トリガIDは、ローマ字のみや数字のみで表してよく、また、人間が解読できない情報で表してもよい。   As shown in FIG. 5, the trigger information table describes a recording start trigger and a corresponding recording end trigger. A set of a recording start trigger and a recording end trigger is distinguished by identification information (trigger ID). In this embodiment, the trigger ID is expressed by using Roman letters (Tr) and numerals, but the trigger ID need not be limited to this, and the trigger ID may be expressed by only Roman letters or numerals, It may be represented by information that cannot be deciphered.

図5に示すように、トリガIDがTr1では、記録開始トリガは「ロボットに近づいた」ことであり、それに対応する記録終了トリガは「ロボットから離れた」ことである。ロボット12のタグリーダ86が、人間(A、B、C)に装着されたタグ250からの識別情報を検出し、その時の電波強度に基づいて算出した距離が記録制御装置102に通知される。記録制御装置102は、ロボット12から通知される距離が一定値(この実施例では、1m)以下である場合に、「ロボットに近づいた」を検知する。同様に、記録制御装置102は、ロボット12から通知される、タグ250からの識別情報を検出している時の電波強度に基づいて算出した距離が一定値(1m)を超えると、「ロボットから離れた」を検知する。   As shown in FIG. 5, when the trigger ID is Tr1, the recording start trigger is “approaching the robot”, and the corresponding recording end trigger is “away from the robot”. The tag reader 86 of the robot 12 detects identification information from the tag 250 attached to a person (A, B, C), and notifies the recording control apparatus 102 of the distance calculated based on the radio wave intensity at that time. The recording control apparatus 102 detects “approaching the robot” when the distance notified from the robot 12 is equal to or less than a certain value (1 m in this embodiment). Similarly, when the distance calculated based on the radio wave intensity at the time of detecting the identification information from the tag 250 notified from the robot 12 exceeds a certain value (1 m), the recording control device 102 reads “From the robot. Detected “away”.

また、トリガIDがTr2では、記録開始トリガが「歩く」または「立ち話」のような人間(A、B、C)の所定の動作であり、対応する記録終了トリガが「環境から退出」または「一定時間以上音声なし」のような上記の所定の動作の終了などである。記録制御装置102は、ロボット12のタグリーダ86またはタグリーダ106bによって人間(A、B、C)に装着されたタグ250からの識別情報を検出するとともに、床センサ106aからの検出信号に基づいて人間(A、B、C)の位置を検出する。したがって、人間(A、B、C)の一定時間における移動量や移動軌跡を知ることができる。これによって、「歩く」が検知される。ただし、記録制御装置102は、人間(A、B、C)の移動量や移動軌跡に変化が無く、その人間(A、B、C)の近傍に在るマイク106dによって音声信号が検出されている場合に、「立ち話」を検知する。   When the trigger ID is Tr2, the recording start trigger is a predetermined action of a person (A, B, C) such as “walking” or “standing”, and the corresponding recording end trigger is “exit from environment” or “ For example, the above-mentioned predetermined operation ends, such as “no sound for a certain period of time”. The recording control device 102 detects the identification information from the tag 250 attached to the person (A, B, C) by the tag reader 86 or the tag reader 106b of the robot 12, and also uses the detection signal from the floor sensor 106a to detect the person ( The position of A, B, C) is detected. Therefore, it is possible to know the movement amount and movement trajectory of a person (A, B, C) in a certain time. Thereby, “walking” is detected. However, the recording control apparatus 102 has no change in the movement amount or movement locus of the person (A, B, C), and the sound signal is detected by the microphone 106d in the vicinity of the person (A, B, C). If there is, “talking” is detected.

なお、図示は省略するが、環境センサ106として、レーザ距離計を配置する場合には、本件出願人が先に出願した特願2009−76450号に記載の方法を採用することにより、人間(A、B、C)が歩いていることや立ち止まっていることを判別することが可能である。   Although not shown, when a laser distance meter is arranged as the environmental sensor 106, a human (A) can be obtained by adopting the method described in Japanese Patent Application No. 2009-76450 filed earlier by the present applicant. , B, C) can be determined to be walking or stationary.

また、記録制御装置102は、人間(A、B、C)に装着されたタグ250からの識別情報を、タグリーダ86、106bによって検出していない場合に、「環境から退出」したことを検知し、また、マイク106dからの音声信号が一定レベル(無音と判断されるレベル)以下である状態が一定時間(たとえば、30秒)以上継続した場合に、「一定時間以上音声無し」を検知する。   Further, the recording control device 102 detects that “exit from the environment” when the identification information from the tag 250 attached to the person (A, B, C) is not detected by the tag readers 86 and 106b. In addition, when the state in which the audio signal from the microphone 106d is equal to or lower than a certain level (level determined to be silent) continues for a certain time (for example, 30 seconds) or more, “no sound for a certain time” is detected.

トリガIDがTr3では、記録開始トリガが「一定以上の混雑」であり、対応する記録終了トリガが「一定未満の混雑」である。記録制御装置102は、床センサ106aからの検出信号(座標データ)に基づいて、予めマップに登録されていないものが複数検出され、それが一定の領域(範囲内)において一定の割合以上を占める場合に、「一定以上の混雑」を検知する。ただし、マップは、環境200を真上から俯瞰的に見た場合の見取り図であり、2次元の平面状に示される。また、図4では省略したが、マップに予め登録されている物としては、たとえば、柱、棚、机、椅子、観葉植物などであり、固定的に配置される物およびそれに準ずる物(ほとんど動かすことが無い物)が該当する。また、記録制御装置102は、上記の一定の割合未満になると、「一定未満の混雑」を検知する。   When the trigger ID is Tr3, the recording start trigger is “congestion above a certain level”, and the corresponding recording end trigger is “congestion below a certain level”. Based on the detection signal (coordinate data) from the floor sensor 106a, the recording control apparatus 102 detects a plurality of items not registered in the map in advance, and occupies a certain ratio or more in a certain region (within range). In this case, “congestion above a certain level” is detected. However, the map is a sketch when the environment 200 is viewed from above, and is shown in a two-dimensional plane. Although omitted in FIG. 4, the items registered in advance in the map are, for example, pillars, shelves, desks, chairs, foliage plants, etc., fixedly arranged items and similar items (mostly moved) This is the case. Further, the recording control apparatus 102 detects “congestion less than a certain amount” when the ratio is less than the above certain ratio.

トリガIDがTr4では、記録開始トリガが「一定以上の人数」であり、対応する記録終了トリガが「一定未満の人数」である。記録制御装置102は、タグリーダ86、106bで検出されたタグ250の識別情報の種類が一定数以上である場合に、「一定以上の人数」を検知する。また、記録制御装置102は、タグリーダ86、106bで検出されたタグ250の識別情報の種類が一定数未満である場合に、「一定未満の人数」を検知する。   When the trigger ID is Tr4, the recording start trigger is “a certain number or more”, and the corresponding recording end trigger is “less than a certain number”. The recording control apparatus 102 detects “a certain number of persons” when the types of identification information of the tags 250 detected by the tag readers 86 and 106 b are a certain number or more. The recording control apparatus 102 detects “less than a certain number of people” when the type of identification information of the tag 250 detected by the tag readers 86 and 106b is less than a certain number.

トリガIDがTr5では、記録開始トリガが「集団で行動」であり、対応する記録終了トリガが「集団が環境から退出」または「集団の解除」である。記録制御装置102は、上述したように、床センサ106aからの検出信号に基づいて、人間(A、B、C)が、歩いていることや止まっていることを検出し、さらに、床センサ106aからの検出信号に基づいて、複数の人間が一体として同じ方向に歩いたり、一定の場所に留まったりしている場合に、集団で歩いたり、集団で整列したりするなどの「集団で行動」を検知する。また、記録制御装置102は、床センサ106aで検出される座標データの個数が大きく減少するとともに、タグリーダ86、106bによって検出される識別情報の個数が大きく減少した場合に、人間(A、B、C)が環境から退出したと判断し、「集団が環境から退出」を検知する。また、記録制御装置102は、床センサ106aで検出される複数の座標データが示す座標間の距離が一定(たとえば、3m)以上離れた場合に、「集団の解除」を検知する。ただし、座標間の距離が一定以上離れたことの条件は、すべての座標間の距離が該当する必要は無く、一定数(たとえば、半数)ないし一定割合(たとえば、5割)以上の座標間の距離がその条件を満たせばよい。   When the trigger ID is Tr5, the recording start trigger is “action in a group”, and the corresponding recording end trigger is “group leaves the environment” or “cancellation of group”. As described above, the recording control apparatus 102 detects that the person (A, B, C) is walking or stopped based on the detection signal from the floor sensor 106a, and further detects the floor sensor 106a. Based on the detection signal from, when multiple people are walking in the same direction or staying in a certain place as a unit, they can walk in groups or line up in groups, etc. Is detected. In addition, the recording control apparatus 102 is configured so that when the number of coordinate data detected by the floor sensor 106a is greatly reduced and the number of identification information detected by the tag readers 86 and 106b is greatly reduced, a person (A, B, C) determines that the user has left the environment, and detects that the group has left the environment. Further, the recording control apparatus 102 detects “group release” when the distance between the coordinates indicated by the plurality of coordinate data detected by the floor sensor 106a is a certain distance (for example, 3 m) or more. However, the condition that the distance between coordinates is more than a certain distance does not have to be the distance between all coordinates, and a certain number (for example, half) or a certain ratio (for example, 50%) between coordinates. The distance only needs to satisfy the condition.

トリガIDがTr6では、記録開始トリガは「特定の方向から音声」であり、対応する記録開始トリガも「特定の方向から音声」である。記録開始装置102は、指向性を有するマイク106dを用いることにより、音声が入力される方向を検出し、検出した方向が特定の方向である場合に、「特定の方向から音声」を検知する。ただし、環境106にマイクロホンアレイを配置することにより、音声が発生される方向を検出するようにしてもよい。ただし、記録開始トリガについての「特定の方向」と記録終了トリガについての「特定の方向」とは、同一方向または異なる方向のいずれも構わない。これらは、システム10の開発者ないし使用者によって適宜設定される。   When the trigger ID is Tr6, the recording start trigger is “sound from a specific direction”, and the corresponding recording start trigger is also “sound from a specific direction”. The recording start device 102 detects a direction in which sound is input by using the microphone 106d having directivity, and detects “sound from a specific direction” when the detected direction is a specific direction. However, a direction in which sound is generated may be detected by arranging a microphone array in the environment 106. However, the “specific direction” for the recording start trigger and the “specific direction” for the recording end trigger may be the same direction or different directions. These are set as appropriate by the developer or user of the system 10.

トリガIDがTr7では、記録開始トリガは「ロボットから話かけた」であり、対応する記録終了トリガは「ロボットから離れた」である。ロボット12は、その近傍に存在する人間(A、B、C)に発話すると、そのことが記録制御装置102に通知される。この通知を受けると、記録制御装置102は、「ロボットから話かけた」を検知する。ただし、ロボット12は、全方位カメラ34または/および眼カメラ58で撮影された画像やタグリーダ86によって検出された識別情報に基づいて、人間(A、B、C)が近傍に存在することを知る。以下、同様である。また、上述したように、記録制御装置102は、ロボット12から通知される、タグ250からの識別情報を検出している時の電波強度に基づいて算出した距離が一定値(1m)を超えると、「ロボットから離れた」を検知する。以下、同様である。   When the trigger ID is Tr7, the recording start trigger is “talked from the robot”, and the corresponding recording end trigger is “separated from the robot”. When the robot 12 speaks to a person (A, B, C) existing in the vicinity, the recording control apparatus 102 is notified of this. Upon receiving this notification, the recording control apparatus 102 detects “talked from the robot”. However, the robot 12 knows that a person (A, B, C) exists in the vicinity based on the image taken by the omnidirectional camera 34 and / or the eye camera 58 and the identification information detected by the tag reader 86. . The same applies hereinafter. In addition, as described above, when the distance calculated based on the radio wave intensity at the time of detecting the identification information from the tag 250 notified from the robot 12 exceeds a certain value (1 m). , Detecting “away from robot”. The same applies hereinafter.

トリガIDがTr8では、記録開始トリガは「ロボットに触れ始め」であり、対応する記録終了トリガは「ロボットから離れた」である。ロボット12は、その近傍に存在する人間(A、B、C)に触れられると、そのことが記録制御装置102に通知される。この通知を受けると、記録制御装置102は、「ロボットに触れ始め」を検知する。ただし、ロボット12は、その接触センサ46の検出信号に基づいて、人間(A、B、C)が触れていることを検出する。   When the trigger ID is Tr8, the recording start trigger is “beginning to touch the robot”, and the corresponding recording end trigger is “away from the robot”. When the robot 12 is touched by a person (A, B, C) existing in the vicinity thereof, the recording control apparatus 102 is notified of this. Upon receiving this notification, the recording control apparatus 102 detects “beginning to touch the robot”. However, the robot 12 detects that a person (A, B, C) is touching based on the detection signal of the contact sensor 46.

トリガIDがTr9では、記録開始トリガが「握手の開始」であり、対応する記録終了トリガが「握手の終了」または「ロボットから離れた」である。ロボット12は、「握手」についてのコミュニケーション行動を開始すると、そのことを記録制御装置102に通知する。この通知を受けると、記録制御装置102は、「握手の開始」を検知する。また、ロボット12は、「握手」についてのコミュニケーション行動を終了すると、そのことを記録制御装置102に通知する。この通知を受けると、記録制御装置102は、「握手の終了」を検知する。   When the trigger ID is Tr9, the recording start trigger is “start of shaking hands”, and the corresponding recording end trigger is “end of shaking hands” or “away from the robot”. When the robot 12 starts a communication action regarding “handshake”, the robot 12 notifies the recording control apparatus 102 of that. Upon receiving this notification, the recording control apparatus 102 detects “start of shaking hands”. In addition, when the robot 12 finishes the communication action regarding “handshake”, the robot 12 notifies the recording control apparatus 102 of that. Upon receiving this notification, the recording control apparatus 102 detects “end of handshake”.

トリガIDがTr10では、記録開始トリガが「抱っこの開始」であり、対応する記録終了トリガが「抱っこの終了」または「ロボットから離れた」である。ロボット12は、「抱っこ」についてのコミュニケーション行動を開始すると、そのことを記録制御装置102に通知する。この通知を受けると、記録制御装置102は、「抱っこの開始」を検知する。また、ロボット12は、「抱っこ」についてのコミュニケーション行動を終了すると、そのことを記録制御装置102に通知する。この通知を受けると、記録制御装置102は、「抱っこの終了」を検知する。   When the trigger ID is Tr10, the recording start trigger is “start of hug” and the corresponding recording end trigger is “end of hug” or “away from robot”. The robot 12 notifies the recording control apparatus 102 of the start of the communication behavior regarding “cuddle”. Upon receiving this notification, the recording control apparatus 102 detects “the start of hug”. In addition, when the robot 12 finishes the communication behavior regarding “cuddling”, the robot 12 notifies the recording control apparatus 102 of the fact. Upon receiving this notification, the recording control apparatus 102 detects “end of hug”.

トリガIDがTr11では、記録開始トリガが「手を振るの開始」であり、対応する記録終了トリガが「手を振るの終了」または「環境からの退出」である。ロボット12は、「手を振る(バイバイ)」についてのコミュニケーション行動を開始すると、そのことを記録制御装置102に通知する。この通知を受けると、記録制御装置102は、「手を振るの開始」を検知する。また、ロボット12は、「手を振る」についてのコミュニケーション行動を終了すると、そのことを記録制御装置102に通知する。この通知を受けると、記録制御装置102は、「手を振るの終了」を検知する。   When the trigger ID is Tr11, the recording start trigger is “start of shaking hands”, and the corresponding recording end trigger is “end of shaking hands” or “exit from the environment”. When the robot 12 starts a communication action about “waving hand (bye-bye)”, the robot 12 notifies the recording control apparatus 102 of the communication action. Upon receiving this notification, the recording control apparatus 102 detects “start of shaking hands”. Further, when the robot 12 finishes the communication action for “waving hand”, the robot 12 notifies the recording control apparatus 102 of this. Upon receiving this notification, the recording control apparatus 102 detects “end of waving”.

トリガIDがTr12では、記録開始トリガが「ロボットの顔を覗き込む」であり、対応する記録終了トリガが「ロボットから離れた」である。ロボット12は、その眼カメラ56の撮影画像を解析し、たとえば、卵型(楕円形)に近似する肌色の塊を検出すると、人間(A、B、C)の顔が自身の顔の正面に在ることを検出する。このとき、ロボット12は、そのことを記録制御装置102に通知する。この通知を受けると、記録制御装置102は、「ロボットの顔を覗き込む」を検知する。ただし、特定の人間(A、B、C)についての顔画像を記憶しておき、眼カメラ56の撮影画像から特定の部位(眼、眉毛)の形状や位置を検出し、それに基づいて、当該人間(A、B、C)の顔が自身の顔の正面に在ることを検出するようにしてもよい。ただし、ロボット12から記録制御装置102に画像データを送信し、記録制御装置102で人間(A、B、C)の顔がロボット12の顔の正面に在るかどうかを検出するようにしてもよい。   When the trigger ID is Tr12, the recording start trigger is “look into the robot's face”, and the corresponding recording end trigger is “away from the robot”. When the robot 12 analyzes the image captured by the eye camera 56 and detects, for example, a flesh-colored lump that approximates an egg shape (ellipse), the human (A, B, C) face is placed in front of its own face. Detect the presence. At this time, the robot 12 notifies the recording control apparatus 102 of that. Upon receiving this notification, the recording control apparatus 102 detects “looking into the robot's face”. However, a face image of a specific person (A, B, C) is stored, and the shape and position of a specific part (eye, eyebrows) are detected from the image captured by the eye camera 56, and based on the detected shape and position, You may make it detect that the face of a human (A, B, C) exists in front of the own face. However, image data is transmitted from the robot 12 to the recording control device 102, and the recording control device 102 may detect whether the human (A, B, C) face is in front of the face of the robot 12. Good.

トリガIDがTr13では、記録開始トリガが「人間がロボットに話かけた」であり、対応する記録終了トリガが「ロボットから離れた」である。ロボット12は、タグリーダ86でタグ250の識別情報を検出するとともに、マイク54を通して一定レベル(人間に話かけられていると思われるレベル)以上の音声信号を検出すると、そのことを記録制御装置102に通知する。この通知を受けると、記録制御装置102は、「人間がロボットに話かけた」ことを検知する。ただし、「人間に話かけられていると思われるレベル」は、試験等によって経験的に得られる。   When the trigger ID is Tr13, the recording start trigger is “Human has spoken to the robot”, and the corresponding recording end trigger is “Separated from the robot”. When the robot 12 detects the identification information of the tag 250 by the tag reader 86 and detects an audio signal of a certain level (a level considered to be spoken to humans) through the microphone 54, the recording control device 102 detects that. Notify Upon receiving this notification, the recording control apparatus 102 detects that “a human has spoken to the robot”. However, the “level that seems to be spoken to humans” can be obtained empirically by testing or the like.

トリガIDがTr14では、記録開始トリガが「ロボットに対する集団の振る舞い」であり、対応する記録終了トリガが「集団の振る舞いの終了」または「ロボットから離れた」である。たとえば、集団の振る舞いとしては、整然・雑然とした人間(A、B、C)の行動である。この集団の振る舞いの有無(開始/終了)は、本件出願人が先に出願し既に出願公開された特開2008−225852号公報に記載の集団状態推定処理を実行することによって判断される。集団状態推定処理自体は、本願発明の本質的な内容ではないため、その説明は省略することにする。   When the trigger ID is Tr14, the recording start trigger is “the behavior of the group with respect to the robot”, and the corresponding recording end trigger is “the end of the behavior of the group” or “away from the robot”. For example, the behavior of a group is an orderly and cluttered human (A, B, C) behavior. The presence / absence (start / end) of the behavior of the group is determined by executing the group state estimation process described in Japanese Patent Application Laid-Open No. 2008-225852 filed earlier by the applicant of the present application and published. Since the collective state estimation process itself is not the essential content of the present invention, the description thereof will be omitted.

なお、図5に示す記録開始トリガおよび記録終了トリガは例示であり、これに限定される必要はない。ロボット12が適用される環境200に応じて適宜変更されてよい。   Note that the recording start trigger and the recording end trigger shown in FIG. 5 are examples, and need not be limited to these. It may be changed as appropriate according to the environment 200 to which the robot 12 is applied.

また、図5からも分かるように、記録開始トリガに対応して、複数の記録終了トリガが存在することがある。   As can be seen from FIG. 5, there may be a plurality of recording end triggers corresponding to the recording start trigger.

上述したトリガ情報テーブルに従って、記録制御装置102は、環境センサ106の検出信号の記録を開始したり終了したりする。ただし、上述したように、検出信号を記録するのは、その検出範囲にロボット12や人間(A、B、C)が含まれている環境センサ106のみについてである。   According to the trigger information table described above, the recording control apparatus 102 starts or ends recording of the detection signal of the environment sensor 106. However, as described above, the detection signal is recorded only for the environment sensor 106 in which the detection range includes the robot 12 and the person (A, B, C).

各環境センサ106の検出範囲の具体例が図6(A)、(B)、(C)に示される。ただし、図6(A)、(B)、(C)では、環境200を真上から俯瞰的に見た場合について示してある。図6(A)に示すように、床センサ106aの検出範囲は、環境200の床面ないし地面(2次元平面)の全体または略全体と一致する。したがって、記録制御装置102では、環境200に存在するロボット12および人間(A、B、C)の位置を、床センサ106aの出力(検出信号)に基づいて検出することができる。ここで、マップの詳細については図示しないが、当該マップに対応するマップデータ404d(図8参照)が記録制御装置102のRAM102bに記憶されている。また、図7(A)に示すように、2次元平面のマップに対応してXY座標系が設定されている。たとえば、このXY座標系では、環境200の水平面における左下の頂点を原点O(0,0)とし、横方向をX軸とし、縦方向をY軸としてある。また、原点Oから右方向がX軸のプラス方向であり、原点Oから上方向がY軸のプラス方向である。ただし、この実施例では、環境200の右下の点P1の座標を(x1,y1)とし、環境200の左上の点P2の座標を(x2,y2)とし、環境200の右上の点P3の座標を(x3,y3)とする。したがって、床センサ106aの検出範囲は、原点Oの座標(0,0)、点P1の座標(x1,y1)、点P2の座標(x2,y2)および点P3の座標(x3,y3)で規定することができる。以下、同様である。   Specific examples of the detection range of each environmental sensor 106 are shown in FIGS. 6 (A), (B), and (C). However, FIGS. 6A, 6 </ b> B, and 6 </ b> C illustrate a case where the environment 200 is viewed from above. As shown in FIG. 6A, the detection range of the floor sensor 106a coincides with the entire or substantially entire floor surface or ground (two-dimensional plane) of the environment 200. Therefore, the recording control apparatus 102 can detect the positions of the robot 12 and the humans (A, B, C) existing in the environment 200 based on the output (detection signal) of the floor sensor 106a. Although details of the map are not shown here, map data 404d (see FIG. 8) corresponding to the map is stored in the RAM 102b of the recording control apparatus 102. In addition, as shown in FIG. 7A, an XY coordinate system is set corresponding to a two-dimensional plane map. For example, in this XY coordinate system, the lower left vertex on the horizontal plane of the environment 200 is the origin O (0, 0), the horizontal direction is the X axis, and the vertical direction is the Y axis. Further, the right direction from the origin O is the plus direction of the X axis, and the upward direction from the origin O is the plus direction of the Y axis. However, in this embodiment, the coordinates of the lower right point P1 of the environment 200 are (x1, y1), the coordinates of the upper left point P2 of the environment 200 are (x2, y2), and the upper right point P3 of the environment 200 is The coordinates are (x3, y3). Accordingly, the detection range of the floor sensor 106a is the coordinates (0, 0) of the origin O, the coordinates (x1, y1) of the point P1, the coordinates (x2, y2) of the point P2, and the coordinates (x3, y3) of the point P3. Can be prescribed. The same applies hereinafter.

また、図6(B)には、第1−第7タグリーダ106bのそれぞれの検出範囲が示される。図7(B)に示すように、1つのタグリーダ106bの検出範囲は、その配置位置を中心として、半径rの円で規定される。第1−第7タグリーダ106bの配置位置は予め決定されており、図示は省略するが、マップ上にも記載されている。ただし、この実施例では、環境200内のロボット12や人間(A、B、C)について検出するため、図6(B)に示すように、タグリーダ106bの検出範囲のうち、環境200からはみ出す範囲については図示していない。以下、同様である。   FIG. 6B shows the detection ranges of the first to seventh tag readers 106b. As shown in FIG. 7B, the detection range of one tag reader 106b is defined by a circle having a radius r with the arrangement position as the center. The arrangement positions of the first to seventh tag readers 106b are determined in advance and are also shown on the map although illustration is omitted. However, in this embodiment, since the robot 12 and humans (A, B, C) in the environment 200 are detected, as shown in FIG. 6B, the range that protrudes from the environment 200 in the detection range of the tag reader 106b. Is not shown. The same applies hereinafter.

なお、図示は省略するが、ロボット12のタグリーダ86の検出範囲も同様に規定される。ただし、タグリーダ86は、ロボット12の位置に従ってその検出範囲が移動される点で、他のタグリーダ106bと異なる。   In addition, although illustration is abbreviate | omitted, the detection range of the tag reader 86 of the robot 12 is prescribed | regulated similarly. However, the tag reader 86 is different from the other tag reader 106b in that its detection range is moved according to the position of the robot 12.

また、図示は省略するが、音センサすなわちマイク106dの検出範囲もタグリーダ106bの検出範囲と同様に、その配置位置を中心とする一定長さの半径の円によって規定される。ただし、指向性を有するマイク106dでは、検出範囲は、一定の方向からの音声を検出するように、その方向に曲面が向かう扇形で規定される。   Although not shown, the detection range of the sound sensor, that is, the microphone 106d is also defined by a circle with a certain radius around the arrangement position, like the detection range of the tag reader 106b. However, in the microphone 106d having directivity, the detection range is defined by a sector shape in which a curved surface faces in that direction so as to detect sound from a certain direction.

さらに、図6(C)には、環境200における第1カメラ106cおよび第2カメラ106cのそれぞれの検出範囲が示される。環境200をX軸方向の中央で二等分した場合に、図6(C)からも分かるように、第1カメラ106cの検出範囲は環境200の左半分であり、第2カメラ106cの検出範囲は環境200の右半分である。ただし、図6(C)では、第1カメラ106cおよび第2カメラ106cの検出範囲を分かり易く示すために、それらの検出範囲を少し小さく示してあるが、それらの検出範囲を合わせると、環境200の2次元平面の全体を検出可能(撮影可能)である。したがって、たとえば、第1カメラ106cの検出範囲は、原点O、座標(x1/2,y1)、座標(x2,y2)および座標(x3/2,y3)によって規定される。また、第2カメラ106cの検出範囲は、座標(x1/2,y1)、座標(x1,y1)、座標(x3/2,y3)および座標(x3,y3)によって規定される。   Further, FIG. 6C shows respective detection ranges of the first camera 106c and the second camera 106c in the environment 200. When the environment 200 is bisected at the center in the X-axis direction, as can be seen from FIG. 6C, the detection range of the first camera 106c is the left half of the environment 200, and the detection range of the second camera 106c. Is the right half of the environment 200. However, in FIG. 6C, in order to show the detection ranges of the first camera 106c and the second camera 106c in an easy-to-understand manner, the detection ranges are shown to be slightly small. The entire two-dimensional plane can be detected (captured). Therefore, for example, the detection range of the first camera 106c is defined by the origin O, coordinates (x1 / 2, y1), coordinates (x2, y2), and coordinates (x3 / 2, y3). The detection range of the second camera 106c is defined by coordinates (x1 / 2, y1), coordinates (x1, y1), coordinates (x3 / 2, y3), and coordinates (x3, y3).

なお、図6(A)では、床センサ106aを環境200の床面の全体に敷き詰めるようにしてあるが、環境200内の不要な箇所すなわちロボット12や人間(A、B、C)が移動したり立ち止まったりすることが考えにくい場所や領域には、床センサ106aを設けないようにしてもよい。   In FIG. 6A, the floor sensor 106a is spread over the entire floor surface of the environment 200. However, unnecessary portions in the environment 200, that is, robots 12 and humans (A, B, C) move. The floor sensor 106a may not be provided in a place or area where it is difficult to stop or stop.

また、図4、図6(B)および図6(C)に示した、タグリーダ106bやカメラ106cの配置位置および検出範囲は単なる一例であり、環境200内のロボット12や人間(A、B、C)を検出することができれるのであれば、異なる配置位置および検出範囲を採用してもよい。たとえば、検出範囲の広いタグリーダ106bを使えば、その数を減らすことができるし、逆に、検出範囲の狭いタグリーダ106bを使えば、その数を増やす必要があるが、検出精度が上がると考えられる。また、2つのカメラ106cの検出範囲は、中央部分が重なり合うように、少し大きく設定してもよい。   In addition, the arrangement positions and detection ranges of the tag reader 106b and the camera 106c shown in FIGS. 4, 6B, and 6C are merely examples, and the robot 12 and humans (A, B, As long as C) can be detected, different arrangement positions and detection ranges may be adopted. For example, if the tag reader 106b with a wide detection range is used, the number can be reduced. Conversely, if the tag reader 106b with a narrow detection range is used, the number needs to be increased, but the detection accuracy is considered to increase. . Further, the detection ranges of the two cameras 106c may be set slightly larger so that the central portions overlap.

図8は図1に示したRAM102bのメモリマップ400の一例を示す図解図である。図8に示すように、RAM102bは、プログラム記憶領域402およびデータ記憶領域404を含む。プログラム記録領域402には、環境センサ106からの検出信号をセンサ情報DB104に記録するためのプログラム(記録制御プログラム)が記憶される。記録制御プログラムは、メイン処理プログラム402a、通信プログラム402bおよびセンサ情報記録プログラム402cなどによって構成される。   FIG. 8 is an illustrative view showing one example of a memory map 400 of the RAM 102b shown in FIG. As shown in FIG. 8, the RAM 102 b includes a program storage area 402 and a data storage area 404. The program recording area 402 stores a program (recording control program) for recording the detection signal from the environment sensor 106 in the sensor information DB 104. The recording control program includes a main processing program 402a, a communication program 402b, a sensor information recording program 402c, and the like.

メイン処理プログラム402aは、この実施例の記録制御のメインルーチンを処理するためのプログラムである。通信プログラム402bは、他のコンピュータなどと通信を実行するためのプログラムであり、この実施例では、主として、ロボット12のコンピュータ(CPU60)と通信を実行する。センサ情報記録プログラム402cは、環境センサ106からの検出信号を必要に応じてセンサ情報DB104に記録するためのプログラムである。具体的には、センサ情報記録プログラム402cは、記録開始トリガが発生したか否かを判断し、記録開始トリガが発生した場合に、検出範囲にロボット12や人間(A、B、C)を含む環境センサ106の検出信号をセンサ情報DB104に記録する。また、センサ情報記録プログラム402cは、記録終了トリガが発生したか否かを判断し、記録終了トリガが発生した場合に、対応する記録開始トリガが発生したときに、記録を開始した検出信号の記録を終了する。   The main processing program 402a is a program for processing the main routine of recording control of this embodiment. The communication program 402b is a program for executing communication with another computer or the like. In this embodiment, the communication program 402b mainly executes communication with the computer (CPU 60) of the robot 12. The sensor information recording program 402c is a program for recording a detection signal from the environmental sensor 106 in the sensor information DB 104 as necessary. Specifically, the sensor information recording program 402c determines whether or not a recording start trigger has occurred, and when the recording start trigger has occurred, the detection range includes the robot 12 and a person (A, B, C). The detection signal of the environmental sensor 106 is recorded in the sensor information DB 104. Further, the sensor information recording program 402c determines whether or not a recording end trigger has occurred, and when a recording end trigger has occurred, recording of the detection signal that has started recording when the corresponding recording start trigger has occurred. Exit.

図示は省略するが、プログラム記憶領域には、環境センサ106からの検出信号を一時記憶するためのプログラムなども記憶される。   Although illustration is omitted, the program storage area also stores a program for temporarily storing a detection signal from the environment sensor 106.

データ記憶領域404には、データバッファ404aが設けられる。また、データ記憶領域404には、被験者情報データ404b、センサ情報データ404c、マップデータ404d、センサ検出範囲データ404e、トリガ情報データ404fおよび記録情報データ404gが記憶される。   In the data storage area 404, a data buffer 404a is provided. The data storage area 404 stores subject information data 404b, sensor information data 404c, map data 404d, sensor detection range data 404e, trigger information data 404f, and recording information data 404g.

データバッファ404aは、環境センサ106からの検出信号を一時記憶するために設けられる。この実施例では、一定時間(60秒)分の検出信号が一時記憶され、一定時間を経過した検出信号は消去される。   The data buffer 404a is provided for temporarily storing a detection signal from the environment sensor 106. In this embodiment, a detection signal for a fixed time (60 seconds) is temporarily stored, and the detection signal after a fixed time is deleted.

被験者情報データ404bは、環境200に存在する、または環境200に出入りする、1または複数のロボット12および1または複数の人間についてのタグIDを管理するためのテーブル(被験者情報テーブル)についてのデータである。図9(A)に示すように、被験者情報データ404bに従う被験者情報テーブルでは、タグIDに対応して、被験者(人間、ロボット)の名称が記載される。   The subject information data 404b is data about a table (subject information table) for managing tag IDs for one or more robots 12 and one or more humans existing in or entering the environment 200. is there. As shown in FIG. 9A, in the subject information table according to the subject information data 404b, the name of the subject (human, robot) is described corresponding to the tag ID.

図9(A)では、簡単のため、タグIDは2つのローマ字を用いて表してある。タグIDは、数字で表してもよいし、ローマ字と数字との両方を用いて表してもよいし、人間が解読できない情報で表してもよい。   In FIG. 9A, for the sake of simplicity, the tag ID is represented using two Roman characters. The tag ID may be represented by numerals, may be represented using both Roman letters and numerals, or may be represented by information that cannot be deciphered by humans.

また、図9(A)では、簡単のため、被験者の名称を、人間A、B、C、…、ロボットR1、…、Rn(nは整数)のように抽象的に示してある。   In FIG. 9A, for the sake of simplicity, the names of subjects are abstractly shown as humans A, B, C,..., Robots R1,.

図8に戻って、センサ情報データ404cは、環境200に配置されている環境センサ106およびロボット12に設けられる環境センサ106についての識別情報(センサID)および環境センサ106の各々の検出信号をセンサ情報DB104に記録するか否かの情報(記録開始数)を管理するためのテーブル(センサ情報テーブル)である。この実施例では、センサIDに対応して、環境センサ106の名称および記録開始数が記載される。   Returning to FIG. 8, the sensor information data 404 c is obtained by detecting identification information (sensor ID) about the environmental sensor 106 arranged in the environment 200 and the environmental sensor 106 provided in the robot 12 and each detection signal of the environmental sensor 106. It is a table (sensor information table) for managing information (recording start number) whether or not to record in the information DB 104. In this embodiment, the name of the environmental sensor 106 and the recording start number are described corresponding to the sensor ID.

図9(B)では、簡単のため、センサIDを1桁または2桁の数字で表しているが、ローマ字で表してもよいし、数字とローマ字との両方で表してもよいし、人間が解読できない情報で表してもよい。   In FIG. 9B, for the sake of simplicity, the sensor ID is represented by one or two digits. However, the sensor ID may be represented by a romaji or both a numeral and a romaji. It may be represented by information that cannot be deciphered.

また、図9(B)に示すように、同じ名称の環境センサ106については、第1、第2、…のように識別可能な語を付してある。   Further, as shown in FIG. 9B, the environmental sensor 106 having the same name is given an identifiable word such as first, second,.

記録開始数は、対応する環境センサ106の検出信号をセンサ情報DB104に記録するか否を判断するための情報である。具体的には、記録開始数が正数であれば、対応する環境センサ106の検出信号をセンサ情報DB104に記録し、記録開始数が0であれば、対応する環境センサ106の検出信号をセンサ情報DB104に記録しない。ただし、所定の記録開始トリガが発生したときに、ロボット12および人間(A、B、C)の少なくとも一方を検出範囲に含む環境センサ106の検出信号の記録開始が指示され、このとき記録開始数が1加算される。一方、所定の記録終了トリガが発生したときに、対応する所定の記録開始トリガが発生したときに記録開始が指示された環境センサ106についての記録開始数が1減算される。   The recording start number is information for determining whether or not to record the detection signal of the corresponding environmental sensor 106 in the sensor information DB 104. Specifically, if the recording start number is a positive number, the detection signal of the corresponding environment sensor 106 is recorded in the sensor information DB 104, and if the recording start number is 0, the detection signal of the corresponding environment sensor 106 is Not recorded in the information DB 104. However, when a predetermined recording start trigger is generated, the start of recording of the detection signal of the environmental sensor 106 including at least one of the robot 12 and the human (A, B, C) in the detection range is instructed. 1 is added. On the other hand, when a predetermined recording end trigger is generated, 1 is subtracted from the recording start number for the environmental sensor 106 instructed to start recording when the corresponding predetermined recording start trigger is generated.

このように記録開始数を管理するのは、たとえば、異なるトリガIDの記録開始トリガの発生によって、同一の環境センサ106の検出信号が記録されている場合に、いずれか1つの記録開始トリガに対応する記録終了トリガの発生によって、当該環境センサ106の検出信号の記録が終了されてしまうのを防止するためである。   The number of recording starts is managed in this way, for example, when a detection signal from the same environmental sensor 106 is recorded due to the occurrence of a recording start trigger with a different trigger ID, corresponding to any one recording start trigger. This is to prevent the recording of the detection signal of the environmental sensor 106 from being terminated due to the occurrence of the recording end trigger.

図8に戻って、マップデータ404dは、環境200のマップについてのデータである。この環境200のマップは、ロボット12や人間(A、B、C)の位置を特定したり、各環境センサ106の配置位置(位置座標)を決定したりするために用いられる。センサ検出範囲データ404eは、各環境センサ106についての検出範囲を規定するためのデータである。   Returning to FIG. 8, the map data 404 d is data regarding the map of the environment 200. This map of the environment 200 is used to specify the positions of the robot 12 and humans (A, B, C) and to determine the arrangement positions (position coordinates) of the environmental sensors 106. The sensor detection range data 404e is data for defining a detection range for each environmental sensor 106.

トリガ情報データ404fは、図5に示したトリガ情報テーブルについてのデータである。上述したように、トリガ情報テーブルでは、トリガIDに対応して、記録開始トリガおよび記録終了トリガが記載される。   The trigger information data 404f is data on the trigger information table shown in FIG. As described above, in the trigger information table, the recording start trigger and the recording end trigger are described corresponding to the trigger ID.

記録情報データ404gは、検出信号の記録中である環境センサ106を管理するためのテーブル(記録情報テーブル)についてのデータである。図10に示すように、記録情報データ404gに従う記録情報テーブルでは、記録開始トリガのトリガIDに対応して、センサ情報DB104に検出信号が記録されている環境センサ106についての情報(センサID)およびセンサIDが示す環境センサ106の検出対象であるロボット12および人間(A、B、C)のタグIDが記載される。この記録情報テーブルでは、記録開始トリガが発生したときに、そのトリガID、記録中のセンサIDおよび対象のタグIDが記載(追加)され、記録終了トリガが発生したときに、対応する記録開始トリガのトリガID、記録中のセンサIDおよび対象のタグIDが記録情報テーブルから消去される。   The record information data 404g is data on a table (record information table) for managing the environmental sensor 106 that is recording the detection signal. As shown in FIG. 10, in the recording information table according to the recording information data 404g, information (sensor ID) about the environmental sensor 106 in which the detection signal is recorded in the sensor information DB 104, and the trigger ID of the recording start trigger. The tag IDs of the robot 12 and the human (A, B, C) that are detection targets of the environmental sensor 106 indicated by the sensor ID are described. In this recording information table, when a recording start trigger occurs, the trigger ID, the sensor ID being recorded, and the target tag ID are written (added), and when a recording end trigger occurs, the corresponding recording start trigger Trigger ID, sensor ID being recorded, and target tag ID are deleted from the record information table.

このように、記録情報データ404gを記憶するのは、上述した記録開始数を監視し、環境センサ106の検出信号を正しくセンサ情報DB104に記録するためである。また、同じ種類の記録開始トリガが環境200内の別の場所で発生した場合でも、それらを識別可能とするためである。   The recording information data 404g is stored in this way in order to monitor the above-described recording start number and correctly record the detection signal of the environmental sensor 106 in the sensor information DB 104. In addition, even if the same type of recording start trigger occurs in another place in the environment 200, they can be identified.

なお、図示は省略するが、データ記憶領域404には、他のデータが記憶されたり、記録制御処理に必要なフラグやカウンタ(タイマ)が設けられたりする。   Although not shown, other data is stored in the data storage area 404, and flags and counters (timers) necessary for the recording control process are provided.

図11ないし図13は、図1に示したCPU102aの具体的な記録制御処理についてのフロー図が示される。図11に示すように、CPU102aは、記録制御処理を開始すると、ステップS1で、環境200内に人間(A、B、C)またはロボット12が存在するかどうかを判断する。具体的には、CPU102aは、データバッファ404aを参照して、タグIDが記憶されているかどうかを判断する。   FIGS. 11 to 13 are flowcharts showing a specific recording control process of the CPU 102a shown in FIG. As shown in FIG. 11, when the recording control process is started, the CPU 102a determines whether or not a person (A, B, C) or the robot 12 exists in the environment 200 in step S1. Specifically, the CPU 102a refers to the data buffer 404a and determines whether a tag ID is stored.

ステップS1で“NO”であれば、つまり環境200内に人間(A、B、C)およびロボット12が存在しない場合には、そのまま記録制御処理を終了する。詳細な説明は省略するが、記録制御処理が終了された場合には、一定時間(たとえば、30秒)が経過した後に、再度記録制御処理が開始される。以下、同じ。一方、ステップS1で“YES”であれば、つまり環境200内に人間(A、B、C)またはロボット12が存在する場合には、環境200内に存在する人間(A、B、C)およびロボット12に、記録制御処理に使用するID(処理用ID)を割り当てる。たとえば、処理用IDは、1、2、…、m(mは整数)である。この処理用IDは、人間(A、B、C)およびロボット12の各々の座標(現在位置)が、環境センサ106の検出範囲に含まれるかどうかを判断する際に、その判断処理を実行したかどうかを個別に判断するために用いられる。   If “NO” in the step S1, that is, if there are no humans (A, B, C) and the robot 12 in the environment 200, the recording control process is ended as it is. Although a detailed description is omitted, when the recording control process is ended, the recording control process is started again after a predetermined time (for example, 30 seconds) elapses. same as below. On the other hand, if “YES” in the step S 1, that is, if a person (A, B, C) or the robot 12 exists in the environment 200, the person (A, B, C) existing in the environment 200 and An ID (processing ID) used for the recording control process is assigned to the robot 12. For example, the processing ID is 1, 2,..., M (m is an integer). This processing ID is used to determine whether the coordinates (current position) of the human (A, B, C) and the robot 12 are included in the detection range of the environmental sensor 106. It is used to determine whether or not it is individual.

次のステップS5では、終了の指示が有るかどうかを判断する。つまり、CPU102aは、記録制御装置102のオペレータによって終了指示が入力されたかどうかを判断するのである。ステップS5で“YES”であれば、つまり終了の指示が有れば、そのまま記録制御処理を終了する。一方、ステップS5で“NO”であれば、つまり終了の指示が無ければ、ステップS7で、人間(A、B、C)またはロボット12が増加したかどうかを判断する。つまり、CPU102aは、データバッファ404aを参照して、タグIDの種類が増加したかどうかを判断する。   In the next step S5, it is determined whether or not there is an end instruction. That is, the CPU 102a determines whether or not an end instruction has been input by the operator of the recording control apparatus 102. If “YES” in the step S5, that is, if there is an instruction to end, the recording control process is ended as it is. On the other hand, if “NO” in the step S5, that is, if there is no instruction to end, it is determined whether or not the number of persons (A, B, C) or the robot 12 has increased in a step S7. That is, the CPU 102a refers to the data buffer 404a to determine whether the tag ID type has increased.

ステップS7で“NO”であれば、つまり人間(A、B、C)またはロボット12が増加していなければ、そのまま図12に示すステップS11に進む。一方、ステップS7で“YES”であれば、つまり人間(A、B、C)またはロボット12が増加すれば、ステップS9で、増加した人間(A、B、C)またはロボット12に処理用IDを割り当てた後に、ステップS11に進む。   If “NO” in the step S7, that is, if the number of humans (A, B, C) or the robot 12 is not increased, the process proceeds to a step S11 shown in FIG. On the other hand, if “YES” in the step S7, that is, if the number of humans (A, B, C) or the robot 12 increases, the processing ID is assigned to the increased humans (A, B, C) or the robot 12 in a step S9. Is assigned, the process proceeds to step S11.

図12に示すステップS11では、変数iに初期値を設定する。ここで、変数iは、上述したように、処理用IDを付した人間(A、B、C)およびロボット12について順番に判断処理を実行するための変数である。続いて、ステップS13では、記録開始トリガが有るかどうかを判断する。図示は省略するが、記録開始トリガ(後述する記録終了トリガも同じ)が発生したかどうかの判断処理は、他のタスクによって実行される。   In step S11 shown in FIG. 12, an initial value is set to the variable i. Here, as described above, the variable i is a variable for sequentially executing the determination process for the person (A, B, C) and the robot 12 to which the process ID is attached. Subsequently, in step S13, it is determined whether there is a recording start trigger. Although illustration is omitted, the process of determining whether or not a recording start trigger (the same as a recording end trigger described later) has occurred is executed by another task.

ステップS13で“NO”であれば、つまり記録開始トリガが無ければ、ステップS15で、記録終了トリガが有るかどうかを判断する。ステップS15で“NO”であれば、つまり記録終了トリガが無ければ、図11に示したステップS5に戻る。一方、ステップS15で“YES”であれば、つまり記録終了トリガがあれば、ステップS17で、記録終了トリガに対応するセンサIDの記録開始数Sを1減算する。つまり、図10に示した記録情報テーブルを参照して、ステップS15で、有ることが判断された記録終了トリガについての記録開始トリガのトリガIDに対応して記述される1または複数の記録中のセンサIDを取得し、取得した1または複数のセンサIDの各々に対応して記述される記録開始数を1減算するのである。 If “NO” in the step S13, that is, if there is no recording start trigger, it is determined whether or not there is a recording end trigger in a step S15. If “NO” in the step S15, that is, if there is no recording end trigger, the process returns to the step S5 shown in FIG. On the other hand, if “YES” in the step S15, that is, if there is a recording end trigger, the recording start number Sj of the sensor ID corresponding to the recording end trigger is decremented by 1 in a step S17. That is, referring to the recording information table shown in FIG. 10, in step S15, one or more recordings that are described in correspondence with the trigger ID of the recording start trigger for the recording end trigger determined to be present are performed. The sensor ID is acquired, and 1 is subtracted from the recording start number described corresponding to each of the acquired one or more sensor IDs.

次のステップS19では、記録終了トリガに対応する、記録開始トリガのトリガID、記録中のセンサIDおよび検出されるタグIDを、記録情報テーブルから削除する。このとき、記録終了トリガに対応する記録開始トリガが複数存在する場合には、検出されるタグIDによってそれらが区別される。続いて、ステップS21では、ステップS17の処理によって、記録開始数S=0となったセンサjの検出信号を記録終了して、ステップS23で、記録情報があるかどうかを判断する。つまり、CPU102aは、記録情報テーブルに、記録情報(トリガID、センサID、タグID)が記載されているかどうかを判断するのである。ステップS23で“YES”であれば、つまり記録情報が有れば、ステップS5に戻る。一方、ステップS23で“NO”であれば、つまり記録情報が無ければ、そのまま記録制御処理を終了する。 In the next step S19, the trigger ID of the recording start trigger, the sensor ID being recorded, and the detected tag ID corresponding to the recording end trigger are deleted from the recording information table. At this time, when there are a plurality of recording start triggers corresponding to the recording end trigger, they are distinguished by the detected tag ID. Subsequently, in step S21, the recording of the detection signal of the sensor j having the recording start number S j = 0 is terminated by the processing in step S17, and in step S23, it is determined whether there is recording information. That is, the CPU 102a determines whether or not recording information (trigger ID, sensor ID, tag ID) is described in the recording information table. If “YES” in the step S23, that is, if there is recording information, the process returns to the step S5. On the other hand, if “NO” in the step S23, that is, if there is no recording information, the recording control process is ended as it is.

また、ステップS13で“YES”であれば、つまり記録開始トリガが有れば、ステップS25で、変数iが最大値(mの最大数)を超えたかどうかを判断する。つまり、CPU102aは、環境200内に存在するすべての人間(A、B、C)およびロボット12について、その座標(現在位置)が環境センサ106の検出範囲に含まれるかどうかの判断処理を実行したかどうかを判断するのである。   If “YES” in the step S13, that is, if there is a recording start trigger, it is determined whether or not the variable i exceeds the maximum value (the maximum number of m) in a step S25. In other words, the CPU 102a has performed a process of determining whether or not the coordinates (current position) are included in the detection range of the environment sensor 106 for all humans (A, B, C) and the robot 12 existing in the environment 200. It is determined whether or not.

ステップS25で“YES”であれば、つまり変数iが最大値を超えていれば、ステップS5に戻る。一方、ステップS25で“NO”であれば、つまり変数iが最大値以下であれば、ステップS27で、変数jを初期化(j=1)する。ただし、変数jは、環境センサ106を個別に識別するための変数である。   If “YES” in the step S25, that is, if the variable i exceeds the maximum value, the process returns to the step S5. On the other hand, if “NO” in the step S25, that is, if the variable i is equal to or less than the maximum value, the variable j is initialized (j = 1) in a step S27. However, the variable j is a variable for identifying the environmental sensor 106 individually.

図13に示すように、次のステップS29では、変数iの座標はセンサjの検出範囲内であるかどうかを判断する。ここでは、CPU102aは、センサ検出範囲データ404eを参照して、センサjについての検出範囲を取得し、この検出範囲に変数iで識別される人間(A、B、C)ないしロボット12の座標(現在位置)が含まれるかどうかを判断するのである。   As shown in FIG. 13, in the next step S29, it is determined whether or not the coordinate of the variable i is within the detection range of the sensor j. Here, the CPU 102a refers to the sensor detection range data 404e, obtains a detection range for the sensor j, and coordinates of the human 12 (A, B, C) or robot 12 identified by the variable i in this detection range. It is determined whether or not (current position) is included.

なお、詳細な説明は省略するが、人間(A、B、C)ないしロボット12の座標(現在位置)は、それらのタグIDを検出しているタグリーダ86、106bの設置位置(現在位置)と、床センサ106aからの検出信号(座標データ)とに基づいて決定される。   Although detailed description is omitted, the coordinates (current position) of the person (A, B, C) or the robot 12 are the installation positions (current position) of the tag readers 86 and 106b detecting their tag IDs. It is determined based on the detection signal (coordinate data) from the floor sensor 106a.

ステップS29で“NO”であれば、つまり変数iの座標がセンサjの検出範囲外である場合には、そのままステップS37に進む。一方、ステップS29で“YES”であれば、つまり変数iの座標がセンサjの検出範囲内である場合には、ステップS31で、当該センサjの記録開始数Sを1加算して、ステップS33で、記録開始数Sが1であるかどうかを判断する。ここでは、CPU102aは、当該センサjの検出信号の記録を既に開始しているかどうかを判断しているのである。ただし、各センサjの記録開始数Sは、記録制御処理が開始されるときに、リセットされる(0に設定される)。 If “NO” in the step S29, that is, if the coordinates of the variable i are outside the detection range of the sensor j, the process proceeds to a step S37 as it is. On the other hand, if "YES" in the step S29, that is, if the coordinates of the variable i is within the detection range of the sensor j at step S31, and adds 1 to the recording start number S j of the sensor j, step In S33, it is determined whether or not the recording start number Sj is 1. Here, the CPU 102a determines whether or not recording of the detection signal of the sensor j has already started. However, the recording start number S j of each sensor j, when the recording control process is started, (set to 0) to be reset.

ステップS33で“NO”であれば、つまり記録開始数Sが2以上であれば、そのままステップS37に進む。一方、ステップS33で“YES”であれば、つまり記録開始数Sが1であれば、ステップS35で、センサjの検出信号の記録を開始する。つまり、CPU102aは、センサjの検出信号のセンサ情報DB104への記録を開始する。ただし、このとき、CPU102aは、センサjの検出信号に加えて、当該センサjのセンサIDおよび当該センサjで検出されている人間(A、B、C)またはロボット12のタグIDも記録する。 If “NO” in the step S33, that is, if the recording start number Sj is 2 or more, the process proceeds to a step S37 as it is. On the other hand, if “YES” in the step S33, that is, if the recording start number Sj is 1, recording of the detection signal of the sensor j is started in a step S35. That is, the CPU 102a starts recording the detection signal of the sensor j in the sensor information DB 104. However, at this time, in addition to the detection signal of the sensor j, the CPU 102a also records the sensor ID of the sensor j and the tag ID of the human (A, B, C) or the robot 12 detected by the sensor j.

次に、ステップS37では、記録開始トリガのトリガID、記録中のセンサIDおよび検出されるタグIDを、記録情報テーブルに登録する。ここでは、ステップS13において、有ることが判断された記録開始トリガのトリガIDが記述され、検出範囲にタグIDを含むことが判断されたセンサjのセンサIDが記述され、そして、そのタグIDが記述されるのである。つまり、CPU102aは、記録情報データ404gを更新する。続いて、ステップS39では、変数jを1加算する(j=j+1)。そして、ステップS41で、変数jが最大値を超えているかどうかを判断する。つまり、CPU102aは、すべてのセンサjについて、当該変数iの座標がその検出範囲内に含まれるかどうかの判断処理を実行したかどうかを判断しているのである。   Next, in step S37, the trigger ID of the recording start trigger, the sensor ID during recording, and the detected tag ID are registered in the recording information table. Here, in step S13, the trigger ID of the recording start trigger determined to be present is described, the sensor ID of the sensor j determined to include the tag ID in the detection range is described, and the tag ID is It is described. That is, the CPU 102a updates the recording information data 404g. Subsequently, in step S39, the variable j is incremented by 1 (j = j + 1). In step S41, it is determined whether or not the variable j exceeds the maximum value. In other words, the CPU 102a determines whether or not the determination process for determining whether or not the coordinates of the variable i are included in the detection range is performed for all the sensors j.

ステップS41で“NO”であれば、つまり変数jが最大値以下であれば、ステップS29に戻る。一方、ステップS41で“YES”であれば、つまり変数jが最大値を超えていれば、ステップS43で、変数iを1加算して(i=i+1)、図11に示したステップS25に戻る。   If “NO” in the step S41, that is, if the variable j is equal to or less than the maximum value, the process returns to the step S29. On the other hand, if “YES” in the step S41, that is, if the variable j exceeds the maximum value, the variable i is incremented by 1 (i = i + 1) in a step S43, and the process returns to the step S25 shown in FIG. .

この実施例によれば、記録開始トリガが発生したときに、センサの検出範囲内に人間やロボットが存在する場合に、当該センサの検出信号を記録するので、必要なときに必要なセンサの検出信号のみを記録することができる。この結果、メモリの記憶容量を無駄に使用するのを防止することができる。   According to this embodiment, when a recording start trigger occurs, if a human or a robot exists within the detection range of the sensor, the detection signal of the sensor is recorded. Only the signal can be recorded. As a result, it is possible to prevent wasteful use of the storage capacity of the memory.

なお、この実施例では、記録開始トリガの発生に応じて、センサの検出信号の記録を開始し、記録終了トリガの発生に応じて、センサの検出信号の記録を終了するようにしたが、センサの検出信号は、記録制御装置のメモリに常に記憶(一時記憶)されるため、記録開始トリガの一定時間(たとえば、10秒)前からのセンサの検出信号を記録したり、記録終了トリガの一定時間(たとえば、10秒)後までのセンサの検出信号を記録したり、それらの両方を実行したりするようにしてもよい。かかる場合には、記録したセンサの検出信号に基づいて、記録開始トリガが発生する前や記録終了トリガの発生後における、人間またはロボット或いはその両方のコミュニケーション行動を分析することもできる。   In this embodiment, the recording of the detection signal of the sensor is started in response to the occurrence of the recording start trigger, and the recording of the detection signal of the sensor is ended in response to the occurrence of the recording end trigger. Since the detection signal is always stored (temporarily stored) in the memory of the recording control device, the sensor detection signal from a predetermined time (for example, 10 seconds) before the recording start trigger is recorded, or the recording end trigger is fixed. You may make it record the detection signal of a sensor until time (for example, 10 second), or perform both of them. In such a case, it is possible to analyze the communication behavior of the human and / or the robot before the recording start trigger is generated or after the recording end trigger is generated based on the recorded detection signal of the sensor.

また、(1)記録開始トリガから記録終了トリガまで検出信号を記録したり、(2)記録開始トリガの一定時間前からのセンサの検出信号を記録したり、(3)記録終了トリガの一定時間後までのセンサの検出信号を記録したり、(4)上記の(2)、(3)の両方を実行したりするようにしもよい。かかる場合には、記録開始トリガ(トリガID)に対応して、(1)−(4)のいずれかを予め設定しておき、記録開始トリガに応じて決定された方法で、検出信号を記録すればよい。   Also, (1) a detection signal is recorded from a recording start trigger to a recording end trigger, (2) a sensor detection signal is recorded from a certain time before the recording start trigger, and (3) a certain time of the recording end trigger. It is also possible to record the detection signals of the sensors until later, or (4) execute both (2) and (3) above. In such a case, one of (1) to (4) is set in advance corresponding to the recording start trigger (trigger ID), and the detection signal is recorded by a method determined according to the recording start trigger. do it.

10 …ネットワークロボットシステム
12 …コミュニケーションロボット
24,72,74,76,78,80 …モータ
28 …赤外線距離センサ
34 …全方位カメラ
52 …スピーカ
54 …マイク
58 …眼カメラ
60 …CPU
64 …メモリ
66 …モータ制御ボード
68 …センサ入力/出力ボード
70 …音声入力/出力ボード
82 …通信LANボード
84 …無線通信装置
86 …無線タグ読取装置
100 …ネットワーク
102 …記録制御装置
102a …CPU
104 …センサ情報DB
106 …環境センサ
DESCRIPTION OF SYMBOLS 10 ... Network robot system 12 ... Communication robot 24, 72, 74, 76, 78, 80 ... Motor 28 ... Infrared distance sensor 34 ... Omnidirectional camera 52 ... Speaker 54 ... Microphone 58 ... Eye camera 60 ... CPU
64 ... Memory 66 ... Motor control board 68 ... Sensor input / output board 70 ... Voice input / output board 82 ... Communication LAN board 84 ... Wireless communication device 86 ... Wireless tag reader 100 ... Network 102 ... Recording control device 102a ... CPU
104 ... Sensor information DB
106… Environmental sensor

Claims (8)

ロボットと人間とが存在する環境に配置された複数のセンサからの検出信号の記録を制御する記録制御装置であって、
前記複数のセンサからの検出信号に基づいて、当該検出信号の記録を開始するかどうかを判断する記録開始判断手段、
前記記録開始判断手段によって前記検出信号の記録を開始することが判断されたとき、前記複数のセンサのそれぞれについて、自身の検出範囲に前記ロボットおよび前記人間の少なくとも一方が含まれるかどうかを判断する位置判断手段、および
前記位置判断手段によって前記検出範囲に前記ロボットおよび前記人間の少なくとも一方が含まれると判断されたとき、当該検出範囲を有する前記センサの検出信号の記録を開始する記録開始手段を備える、記録制御装置。
A recording control device that controls recording of detection signals from a plurality of sensors arranged in an environment where a robot and a human exist,
Recording start determining means for determining whether to start recording of the detection signals based on detection signals from the plurality of sensors;
When it is determined by the recording start determining means that recording of the detection signal is started, it is determined for each of the plurality of sensors whether at least one of the robot and the human is included in its own detection range. A position determination unit; and a recording start unit that starts recording of a detection signal of the sensor having the detection range when the position determination unit determines that at least one of the robot and the human is included in the detection range. A recording control apparatus.
前記ロボットは、前記複数のセンサの一部を含む、請求項1記載の記録制御装置。   The recording control apparatus according to claim 1, wherein the robot includes a part of the plurality of sensors. 前記ロボットは、身体動作および音声の少なくとも一方を用いたコミュニケーション行動を実行するコミュニケーションロボットである、請求項1または2記載の記録制御装置。   The recording control apparatus according to claim 1, wherein the robot is a communication robot that executes a communication action using at least one of body motion and voice. 前記記録開始判断手段は、前記複数のセンサからの検出信号が第1所定条件を満たすとき、当該検出信号の記録を開始することを判断する、請求項1ないし3のいずれかに記載の記録制御装置。   4. The recording control according to claim 1, wherein the recording start determination unit determines that recording of the detection signal is started when detection signals from the plurality of sensors satisfy a first predetermined condition. 5. apparatus. 前記複数のセンサからの検出信号に基づいて、当該検出信号の記録を終了するかどうかを判断する記録終了判断手段、および
前記記録終了判断手段によって前記検出信号の記録を終了することが判断されたとき、当該検出信号の記録を終了する記録終了手段をさらに備える、請求項1ないし4のいずれかに記載の記録制御装置。
Based on the detection signals from the plurality of sensors, a recording end determination unit that determines whether or not to end recording of the detection signal, and the recording end determination unit determines to end recording of the detection signal. The recording control device according to claim 1, further comprising recording end means for ending recording of the detection signal.
前記記録終了判断手段は、前記複数のセンサからの検出信号が第2所定条件を満たす場合に、前記検出信号の記録を終了することを判断する、請求項5記載の記録制御装置。   The recording control apparatus according to claim 5, wherein the recording end determination unit determines to end recording of the detection signal when detection signals from the plurality of sensors satisfy a second predetermined condition. 複数の前記第1所定条件を有し、当該複数の第1所定条件の各々に対応する第2所定条件を有し、
前記記録終了手段は、前記検出信号の記録を終了することが判断されたとき、当該判断に基づく前記第2所定条件に対応する第1所定条件を満たす場合に記録を開始された前記検出信号についてのみ記録を終了する、請求項6記載の記録制御装置。
A plurality of first predetermined conditions, a second predetermined condition corresponding to each of the plurality of first predetermined conditions,
When it is determined that recording of the detection signal is to be ended, the recording end unit is configured to detect the detection signal that has started recording when a first predetermined condition corresponding to the second predetermined condition based on the determination is satisfied. The recording control apparatus according to claim 6, wherein only the recording is terminated.
ロボットと人間とが存在する環境に配置された複数のセンサからの検出信号の記録を制御する記録制御プログラムであって、
コンピュータに、
前記複数のセンサからの検出信号に基づいて、当該検出信号の記録を開始するかどうかを判断する記録開始判断ステップ、
前記記録開始判断ステップによって前記検出信号の記録を開始することが判断されたとき、前記複数のセンサのそれぞれについて、自身の検出範囲に前記ロボットおよび前記人間の少なくとも一方が含まれるかどうかを判断する位置判断ステップ、および
前記位置判断ステップによって前記検出範囲に前記ロボットおよび前記人間の少なくとも一方が含まれると判断されたとき、当該検出範囲を有する前記センサの検出信号の記憶媒体への記録を開始する記録開始ステップを実行させる、記録制御プログラム。
A recording control program for controlling recording of detection signals from a plurality of sensors arranged in an environment where a robot and a human exist.
On the computer,
A recording start determination step for determining whether to start recording of the detection signals based on detection signals from the plurality of sensors;
When it is determined in the recording start determination step that recording of the detection signal is started, it is determined whether each of the plurality of sensors includes at least one of the robot and the human in its own detection range. When the position determination step and the position determination step determine that at least one of the robot and the human is included in the detection range, recording of the detection signal of the sensor having the detection range to the storage medium is started. A recording control program for executing a recording start step.
JP2010089175A 2010-04-08 2010-04-08 Recording control apparatus and recording control program Active JP5633003B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010089175A JP5633003B2 (en) 2010-04-08 2010-04-08 Recording control apparatus and recording control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010089175A JP5633003B2 (en) 2010-04-08 2010-04-08 Recording control apparatus and recording control program

Publications (2)

Publication Number Publication Date
JP2011223223A true JP2011223223A (en) 2011-11-04
JP5633003B2 JP5633003B2 (en) 2014-12-03

Family

ID=45039646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010089175A Active JP5633003B2 (en) 2010-04-08 2010-04-08 Recording control apparatus and recording control program

Country Status (1)

Country Link
JP (1) JP5633003B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017170568A (en) * 2016-03-24 2017-09-28 株式会社国際電気通信基礎技術研究所 Service providing robot system
JP2017185605A (en) * 2016-04-07 2017-10-12 シャープ株式会社 Control terminal, robot, method for controlling control terminal, and program therefor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005131748A (en) * 2003-10-31 2005-05-26 Advanced Telecommunication Research Institute International Relationship detecting system
JP2005291723A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Position detection system of mobile unit
JP2007055298A (en) * 2005-08-22 2007-03-08 Calsonic Kansei Corp Data recorder for vehicle
JP2008052563A (en) * 2006-08-25 2008-03-06 Matsushita Electric Works Ltd Alarm system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005131748A (en) * 2003-10-31 2005-05-26 Advanced Telecommunication Research Institute International Relationship detecting system
JP2005291723A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Position detection system of mobile unit
JP2007055298A (en) * 2005-08-22 2007-03-08 Calsonic Kansei Corp Data recorder for vehicle
JP2008052563A (en) * 2006-08-25 2008-03-06 Matsushita Electric Works Ltd Alarm system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017170568A (en) * 2016-03-24 2017-09-28 株式会社国際電気通信基礎技術研究所 Service providing robot system
JP2017185605A (en) * 2016-04-07 2017-10-12 シャープ株式会社 Control terminal, robot, method for controlling control terminal, and program therefor

Also Published As

Publication number Publication date
JP5633003B2 (en) 2014-12-03

Similar Documents

Publication Publication Date Title
JP5429462B2 (en) Communication robot
JP5033994B2 (en) Communication robot
JP5324286B2 (en) Network robot system, robot control apparatus, robot control method, and robot control program
JP5366048B2 (en) Information provision system
JP5617562B2 (en) Mobile robot
JP5070441B2 (en) Robot remote control system
JP5318623B2 (en) Remote control device and remote control program
JP4599522B2 (en) Communication robot
JP4386367B2 (en) Communication robot improvement system
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
JP2012139798A (en) Mobile robot, learning system for the same, and method of learning action of the same
JP5145569B2 (en) Object identification method and apparatus
JP6134894B2 (en) Robot control system and robot
JP4517086B2 (en) Communication robot system and robot controller
JP7375770B2 (en) Information processing device, information processing method, and program
JP2017170568A (en) Service providing robot system
JP2005131713A (en) Communication robot
JP5633003B2 (en) Recording control apparatus and recording control program
JP4793904B2 (en) Communication robot system and communication robot
JP5732633B2 (en) Communication robot
JP2020004182A (en) Robot, robot control program and robot control method
KR20120053096A (en) Network robot system, robot control apparatus, robot control method and robot control program
JP4878462B2 (en) Communication robot
JP2007125646A (en) Communication robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140909

R150 Certificate of patent or registration of utility model

Ref document number: 5633003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250