JP2005078377A - Traveling object detecting device and method, and robot device - Google Patents

Traveling object detecting device and method, and robot device Download PDF

Info

Publication number
JP2005078377A
JP2005078377A JP2003307926A JP2003307926A JP2005078377A JP 2005078377 A JP2005078377 A JP 2005078377A JP 2003307926 A JP2003307926 A JP 2003307926A JP 2003307926 A JP2003307926 A JP 2003307926A JP 2005078377 A JP2005078377 A JP 2005078377A
Authority
JP
Japan
Prior art keywords
moving object
block
detection
area
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003307926A
Other languages
Japanese (ja)
Other versions
JP4379052B2 (en
JP2005078377A5 (en
Inventor
Shoichi Doi
正一 土居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003307926A priority Critical patent/JP4379052B2/en
Publication of JP2005078377A publication Critical patent/JP2005078377A/en
Publication of JP2005078377A5 publication Critical patent/JP2005078377A5/ja
Application granted granted Critical
Publication of JP4379052B2 publication Critical patent/JP4379052B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a traveling object detecting device for accurately detecting only a target traveling object by improving detection precision and sensitivity without increasing any calculation load, and to provide a method therefor and a robot device. <P>SOLUTION: A robot device 1 starts traveling object detection processing (step S1) when judging that the robot device itself does not move, divides a preceding image inputted as a luminance image and a present image adjacent to the preceding image on a time axis into blocks constituted of a plurality of pixels, and calculates the difference square sum of every block. When the different square sum is not less than a fixed value (step S2), the robot device 1 operates labeling to those blocks (step S3). Then, areas where the labeled traveling object candidate blocks adjoin are connected, and when its size is not less than a predetermined value (step S4), the area whose size is the largest is selected as the target of detection (step S5). Lastly, whether the targeted block connection area is the traveling object is judged (step S6). <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、動体を検出する動体検出装置、動体検出方法、及びこれを搭載したロボット装置に関し、特に、正確且つ高速に目標とする物体のみの検出を計った図った動体検出装置、動体検出方法、及びこれを搭載したロボット装置に関する。   The present invention relates to a moving object detection apparatus, a moving object detection method, and a robot apparatus equipped with the moving object detection apparatus, and more particularly to a moving object detection apparatus and a moving object detection method that are designed to detect only a target object accurately and at high speed. And a robot apparatus equipped with the same.

電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット装置」という。我が国においてロボット装置が普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット装置等の産業用ロボット装置(Industrial Robot)であった。   A mechanical device that performs an action similar to that of a human (living body) using an electrical or magnetic action is called a “robot device”. Robot devices began to spread in Japan from the end of the 1960s, but most of them were industrial robot devices (manipulators, transfer robot devices, etc.) for the purpose of automating and unmanned production work in factories ( Industrial Robot).

最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボット装置の開発が進められている。このような実用ロボット装置は、産業用ロボット装置とは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット装置、或いは、2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット装置(Humanoid Robot)等の脚式移動型のロボット装置は、既に実用化されつつある。   Recently, practical robot devices that support life as a human partner, that is, support human activities in various situations in daily life such as the living environment, have been developed. Such industrial robot devices, unlike industrial robot devices, have the ability to learn how to adapt themselves to people with different personalities or to various environments in various aspects of the human living environment. Yes. For example, a “pet-type” robot that mimics the body mechanism and movement of a quadruped animal such as a dog or cat, or the body mechanism or movement of an animal that walks upright on two legs. Legged mobile robotic devices such as “humanoid” or “humanoid” robotic devices have already been put into practical use.

これらの脚式移動型のロボット装置は、産業用ロボット装置と比較して、エンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボット装置と呼称される場合もある。   Since these legged mobile robot devices can perform various operations with an emphasis on entertainment properties as compared with industrial robot devices, they may be referred to as entertainment robot devices.

脚式移動型のロボット装置は、動物や人間の容姿にできる限り近い外観形状とされ、動物や人間の動作にできる限り近い動作を行うように設計されている。例えば、上述した4足歩行の「ペット型」ロボット装置の場合は、一般家庭において飼育される犬や猫に似た外観形状を有し、ユーザ(飼い主)からの「叩く」や「撫でる」といった働きかけや、周囲の環境等に応じて自律的に行動する。例えば、自律的な行動として、実際の動物と同様に、「吠える」、「寝る」等といった行動をする。   The legged mobile robot device has an appearance shape that is as close as possible to the appearance of animals and humans, and is designed to perform movements that are as close as possible to the movements of animals and humans. For example, the above-described four-legged “pet-type” robot apparatus has an external shape similar to a dog or a cat raised in a general home, and is “struck” or “boiled” from a user (owner). Act autonomously according to the approach and surrounding environment. For example, as an autonomous behavior, the behavior such as “barking” and “sleeping” is performed in the same manner as an actual animal.

ところで、脚式移動型のロボット装置の中には、CCD(Charge Coupled Device)カメラによって撮像した画像に基づいて周囲の状況を判断し、この判断結果に基づいて自律的に行動するものがある。このような脚式移動型のロボット装置によれば、例えば、周囲に存在する動体を検出し、その動体をトラッキング(追尾)することができる。   By the way, some legged mobile robot devices determine surrounding conditions based on an image captured by a CCD (Charge Coupled Device) camera and act autonomously based on the determination result. According to such a legged mobile robot device, for example, a moving object existing in the vicinity can be detected and the moving object can be tracked.

ここで、画像処理によって画像内の動体を検出する手法としては、従来から種々の手法が提案され、実用化されている。これらの手法は、大別して、フレーム画像間で画素の差分をとる第1の手法、時空間フィルタを用いて画像上の任意の点におけるオプティカルフローを求める第2の手法、及びフレーム間で小領域のマッチングを行い、その領域の動きを求める第3の手法に分けられる。これらの手法は、画像を撮像するためのカメラが固定されており、検出された動きが外界の動きであることが前提となっている。   Here, various methods have been proposed and put to practical use as methods for detecting moving objects in an image by image processing. These methods are roughly classified into a first method for obtaining a pixel difference between frame images, a second method for obtaining an optical flow at an arbitrary point on an image using a spatiotemporal filter, and a small region between frames. And a third method for obtaining the movement of the region. These methods are based on the premise that a camera for capturing an image is fixed and the detected motion is an external motion.

しかしながら、上述した脚式移動型のロボット装置のように、ロボット装置自身が動作するものでは、搭載されたCCDカメラが自己の動作に伴って大きく且つ複雑に動いてしまう。このため、上述した第1乃至第3の手法によって画像内の動体を検出しようとすると、フレーム間で画像全体が大きく動くことから、実際に動体を撮像していても、その動きを検出することは困難であった。   However, in the case where the robot apparatus itself operates like the above-described legged mobile robot apparatus, the mounted CCD camera moves greatly and complicatedly with its own operation. For this reason, if the moving object in the image is detected by the above-described first to third methods, the entire image moves greatly between frames, so that even if the moving object is actually imaged, the movement is detected. Was difficult.

そこで、本件出願人は、下記特許文献1において、自己の動作の有無に関わりなく、周囲に存在する動体を精度よく検出する技術を提案している。この特許文献1記載の技術によれば、現フレーム画像から前フレーム画像の中心部分と相関の高い画像領域を抽出して画像全体の動きを検出することで、ロボット装置の動作に伴う撮像装置の動きの有無に関わりなく、画像内の動体を精度よく検出することができる。   Therefore, the present applicant has proposed a technique for accurately detecting a moving object existing in the surroundings regardless of the presence or absence of its own movement in Patent Document 1 below. According to the technique described in Patent Document 1, an image region having a high correlation with the central portion of the previous frame image is extracted from the current frame image, and the movement of the entire image is detected. Regardless of the presence or absence of motion, it is possible to accurately detect moving objects in the image.

特開2002−251615号公報JP 2002-251615 A

しかしながら、上記特許文献1記載の技術では、前フレーム画像の中心部分と相関の高い画像領域を抽出するために、前フレーム画像の中心部分を分割した各テンプレート分割領域と、現フレーム画像を所定画素分だけオーバーラップさせながら分割した各検索画像分割領域との間で、水平方向及び垂直方向に1画素単位でずらしながら、順次マッチングスコアを演算する必要あり、演算負荷が高いとう問題点がある。一方で、上述した如く、自律型の脚式移動ロボット装置等においては、自身の動きと動体の動きの区別が難しく、例えば処理工程を省略する等して演算量を下げると動体ではないものを動体としてしまうような誤検出が多発してしまう。   However, in the technique described in Patent Document 1, in order to extract an image region having a high correlation with the central portion of the previous frame image, each template divided region obtained by dividing the central portion of the previous frame image and the current frame image as predetermined pixels. There is a problem in that it is necessary to calculate the matching score sequentially while shifting in units of one pixel in the horizontal direction and the vertical direction between the search image divided areas divided while being overlapped by the same amount. On the other hand, as described above, in an autonomous legged mobile robot device or the like, it is difficult to distinguish between its own movement and the movement of a moving object. Misdetections that would cause moving objects occur frequently.

また、動体を検出するのは通常その動体をトラッキングするためであり、動体が例えば複数ある場合等、トラッキング対象としては適切ではなく、従って動体であっても、ロボット装置としては検出する必要のない場合がある。特にエンターテイメント用のロボット装置等においては、リソースが限られているため、誤検出及びトラッキング不可能な動体検出を防止しつつ、演算負荷をできるだけ小さくし、トラッキング対象となる動体のみを高速に検出することが望ましい。   In addition, a moving object is usually detected for tracking the moving object. For example, when there are a plurality of moving objects, the moving object is not suitable as a tracking target. Therefore, even a moving object does not need to be detected by the robot apparatus. There is a case. Especially in entertainment robots and the like, the resources are limited, so detection errors and detection of moving objects that cannot be tracked are prevented, while the calculation load is reduced as much as possible, and only moving objects to be tracked are detected at high speed. It is desirable.

本発明は、このような従来の実情に鑑みて提案されたものであり、計算負荷を増大することなく、検出の精度及び感度を向上し、目的とする動体のみを正確に検出することができる動体検出装置、動体検出方法、及びロボット装置を提供することを目的とする。   The present invention has been proposed in view of such a conventional situation, and can improve the accuracy and sensitivity of detection without increasing the calculation load, and can accurately detect only a target moving object. It is an object of the present invention to provide a moving object detection apparatus, a moving object detection method, and a robot apparatus.

上述した目的を達成するために、本発明に係る動体検出装置は、撮像手段によって撮像された時間軸上で隣接する画像間の差分を、複数の画素からなるブロック毎に求めたブロック差分値を算出するブロック差分値算出手段と、上記ブロック差分値が所定の閾値以上であるブロックを動体候補ブロックとし、該動体候補ブロックが隣接してなるブロック連結領域を動体領域として検出する動体検出手段とを有することを特徴とする。   In order to achieve the above-described object, the moving object detection device according to the present invention obtains a block difference value obtained for each block composed of a plurality of pixels by calculating a difference between adjacent images taken on the time axis taken by the imaging unit. A block difference value calculating means for calculating, and a moving object detecting means for detecting, as a moving object area, a block having a block difference value equal to or greater than a predetermined threshold as a moving object candidate block, and a block connection area adjacent to the moving object candidate block as a moving object area. It is characterized by having.

本発明においては、隣接フレーム画像間において、画素毎の差分を求めて動体検出するのではなく、複数の画素をまとめたブロック単位として解像度を下げ、ブロック毎に差分値を算出するため、動体か否かの判定をブロック単位で行うことができ、従って動体候補ブロックと判定する閾値を低くしてもピクセル単位で処理するのに比してノイズ等を検出することを抑制でき、且つ演算量を低減することができる。   In the present invention, instead of obtaining a difference for each pixel between adjacent frame images and detecting a moving object, the resolution is reduced as a block unit in which a plurality of pixels are combined, and a difference value is calculated for each block. Therefore, even if the threshold value for determining a moving object candidate block is lowered, detection of noise or the like can be suppressed as compared with processing in pixel units, and the calculation amount can be reduced. Can be reduced.

また、上記動体検出手段は、上記ブロック連結領域に含まれるブロック数が所定の閾値以上であるか否かを判定し、該所定の閾値以上であるブロック連結領域を上記動体領域とすることができ、検出したブロック連結領域が小さい場合には、動体としてトラッキング等をするには小さい領域又はノイズとしてキャンセルすることで、更に目的とする動体領域の検出精度を向上する。   Further, the moving object detection means can determine whether or not the number of blocks included in the block connection area is equal to or greater than a predetermined threshold value, and a block connection area that is equal to or greater than the predetermined threshold value can be determined as the moving object area. When the detected block connection area is small, the detection accuracy of the target moving object area is further improved by canceling as a small area or noise for tracking as a moving object.

更に、上記動体検出手段は、上記ブロック連結領域が複数存在する場合、最も大きい領域を上記動体領域として検出することができ、最も大きいものをトラッキング対象とすることができる。   Furthermore, when there are a plurality of the block connection areas, the moving object detection unit can detect the largest area as the moving object area, and can set the largest area as a tracking target.

更にまた、上記動体検出手段は、上記画像に占める上記動体領域の大きさが所定の閾値以上である場合に当該動体領域を検出対象とせず、動体検出を終了することができ、動体領域の占有率が例えば30%を超えるような場合等は、トラッキング対象としては大きくトラッキングする必要がない等として検出を停止することができる。   Furthermore, the moving object detection means can end the moving object detection without setting the moving object area as a detection target when the size of the moving object area in the image is equal to or larger than a predetermined threshold. For example, when the rate exceeds 30%, the detection can be stopped because it is not necessary to track a large amount as a tracking target.

また、上記動体検出手段は、上記動体領域の水平方向又は垂直方向の大きさが所定の閾値以上である場合に当該動体領域を検出対象とせず、動体検出を終了することができ、動体領域の占有率が所定の範囲内であったとしても、動体領域が広域に亘っているような場合は、ノイズであるとして動体検出を停止することができる。   Further, the moving object detection means can end the moving object detection without setting the moving object region as a detection target when the horizontal or vertical size of the moving object region is equal to or larger than a predetermined threshold value. Even if the occupation ratio is within a predetermined range, when the moving object region covers a wide area, the moving object detection can be stopped as noise.

更に、上記動体検出手段は、上記動体候補ブロック数が所定の閾値以上である場合に当該動体領域を検出対象とせず、動体検出を終了することができ、複数の動体候補ブロックが検出された場合には、動体が複数存在するか、又はノイズである等として動体検出を停止することができる。   Further, the moving object detection means can end the moving object detection without detecting the moving object region when the number of moving object candidate blocks is equal to or greater than a predetermined threshold, and a plurality of moving object candidate blocks are detected. The moving object detection can be stopped because there are a plurality of moving objects or noise.

本発明に係る動体検出方法は、撮像手段によって撮像された時間軸上で隣接する画像間の差分を、複数の画素からなるブロック毎に求めたブロック差分値を算出するブロック差分値算出工程と、上記ブロック差分値が所定の閾値以上であるブロックを動体候補ブロックとし、該動体候補ブロックが隣接してなるブロック連結領域を動体領域として検出する動体検出工程とを有することを特徴とする。   The moving object detection method according to the present invention includes a block difference value calculation step of calculating a block difference value obtained for each block composed of a plurality of pixels, the difference between images adjacent on the time axis imaged by the imaging means, And a moving object detection step of detecting a block having a block difference value equal to or greater than a predetermined threshold as a moving object candidate block, and detecting a block connection area formed by adjoining the moving object candidate blocks as a moving object area.

本発明に係るロボット装置は、行動を自律的に決定して発現するロボット装置において、画像を撮像する撮像手段と、上記撮像手段により撮像された時間軸上で隣接する画像間の差分に基づき動体を検出する動体検出手段とを有し、上記動体検出手段は、複数の画素からなるブロック毎に、上記画像間の差分を求めたブロック差分値を算出するブロック差分値算出手段と、上記ブロック差分値が所定の閾値以上であるブロックを動体候補ブロックとし、該動体候補ブロックが隣接してなるブロック連結領域を動体領域として検出する動体検出手段とを有することを特徴とする。   The robot device according to the present invention is a robot device that autonomously determines and expresses an action based on a difference between an imaging unit that captures an image and an image that is adjacent on the time axis captured by the imaging unit. A moving object detecting means for detecting a block difference value calculating means for calculating a block difference value obtained by calculating a difference between the images for each block composed of a plurality of pixels, and the block difference. A moving object detection unit that detects a block having a value equal to or greater than a predetermined threshold as a moving object candidate block and detects a block connection area formed by adjoining the moving object candidate blocks as a moving object area is provided.

本発明においては、自律的に動作するようなロボット装置において、ブロック毎に差分を算出して動体判定する動体検出装置を搭載することで、解像度を下げて感度を上げることで高速且つ高精度に動体を検出することができる。   In the present invention, a robot apparatus that operates autonomously is equipped with a moving object detection device that calculates a difference for each block and determines a moving object, thereby reducing the resolution and increasing the sensitivity to achieve high speed and high accuracy. A moving object can be detected.

また、上記動体検出手段の検出結果を上記行動に反映させる制御手段を有することができ、例えば上記制御手段は、検出された上記動体領域の大きさに応じた異なる行動を発現させるようにする等することで、ロボット装置が動体の大きさに基づき、動体をトラッキングする動作に加えて、各種動作を組み合わせた行動を発現することで、更にエンターテイメント性を向上させる。   Moreover, it can have a control means to reflect the detection result of the said moving body detection means in the said action, for example, the said control means is made to express the different action according to the magnitude | size of the detected said moving body area | region etc. By doing so, in addition to the action of tracking the moving object based on the size of the moving object, the robot apparatus further develops entertainment properties by expressing an action that combines various actions.

本発明によれば、動体検出する際に、時間軸上で連続する2つの画像間において、各画像を複数の画素を単位とするブロックに分割したブロック単位の差分値を算出し、このブロック毎に、ブロック毎の差分値により、動体候補か否かを判定するようにしたので、ピクセル単位で動体か否かを判定するに比して解像度が下がるため、判定基準とする閾値を下げて動体候補となる動体候補ブロックを抽出する処理量が少なく、結果として動体検出感度を向上すると共に動体検出処理速度を高速化することができる。   According to the present invention, when detecting a moving object, a difference value in units of blocks obtained by dividing each image into blocks each having a plurality of pixels as a unit is calculated between two images consecutive on the time axis. In addition, since it is determined whether or not it is a moving object candidate based on the difference value for each block, the resolution is lower than that of determining whether or not it is a moving object in units of pixels. The amount of processing for extracting candidate moving object candidate blocks is small, and as a result, the moving object detection sensitivity can be improved and the moving object detection processing speed can be increased.

また、そのような動体検出装置を搭載したロボット装置によれば、高速且つ正確にトラッキング目的となる動体のみを検出でき、更にエンターテイメント性を向上させることができる。   Moreover, according to the robot apparatus equipped with such a moving object detection device, only a moving object for tracking purposes can be detected at high speed and accurately, and entertainment can be further improved.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、入力画像に含まれる動体を検出する動体検出装置を搭載し、外部環境(外部刺激)や内部状態に応じて自律的に行動を発現する自律型のロボット装置に適用したものである。ここでは、先ず、ロボット装置について説明し、次に、ロボット装置における動体検出処理について説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In this embodiment, the present invention is equipped with a moving object detection device that detects a moving object included in an input image, and autonomously expresses an action according to an external environment (external stimulus) or an internal state. Is applied. Here, the robot apparatus will be described first, and then the moving object detection process in the robot apparatus will be described.

(1−1)ロボット装置の構成
図1は、本実施の形態におけるロボット装置を示す斜視図である。図1に示すように、本実施の形態によるロボット装置1は、4足歩行の脚式移動ロボット装置とされ、胴体部ユニット2の前後左右にそれぞれ脚部ユニット3A,3B,3C,3Dが連結されると共に、胴体部ユニット2の前端部に頭部ユニット4が連結されて構成されている。
(1-1) Configuration of Robot Device FIG. 1 is a perspective view showing a robot device according to the present embodiment. As shown in FIG. 1, the robot apparatus 1 according to the present embodiment is a four-legged legged mobile robot apparatus, and leg units 3A, 3B, 3C, and 3D are connected to the front and rear and left and right of the body unit 2, respectively. In addition, the head unit 4 is connected to the front end of the body unit 2.

胴体部ユニット2には、図2に示すように、CPU(Central Processing Unit)10、DRAM(Dynamic Random Access Memory)11、フラッシュROM(Read Only Memory)12、PC(Personal Computer)カードインターフェース回路13及び信号処理回路14が内部バス15を介して相互に接続されることにより形成されたコントロール部16と、このロボット装置1の動力源としてのバッテリ17とが収納されている。また、胴体部ユニット2には、ロボット装置1の向きや動きの加速度を検出するための角速度センサ18及び加速度センサ19なども収納されている。また、胴体部ユニット2の頭部とは反対方向に位置する後端部には尻尾部5が形成されている。   As shown in FIG. 2, the body unit 2 includes a CPU (Central Processing Unit) 10, a DRAM (Dynamic Random Access Memory) 11, a flash ROM (Read Only Memory) 12, a PC (Personal Computer) card interface circuit 13 and A control unit 16 formed by connecting the signal processing circuit 14 to each other via the internal bus 15 and a battery 17 as a power source of the robot apparatus 1 are housed. The body unit 2 also stores an angular velocity sensor 18 and an acceleration sensor 19 for detecting the direction of the robot apparatus 1 and acceleration of movement. Further, a tail portion 5 is formed at a rear end portion located in a direction opposite to the head portion of the body unit 2.

また、頭部ユニット4には、外部の状況を撮像するとともに、周囲の明るさを検出するためのCCD(Charge Coupled Device)カメラ20と、前後に倒すといった使用者からの物理的な働きかけを検出するためのタッチセンサ21と、前方に位置する物体までの距離を測定するための距離センサ22と、外部音を集音するためのマイクロホン23と、各種音声を出力するためのスピーカ24と、頭部ユニット4内に格納可能とされたヘッドライト25と、ロボット装置1の「目」に相当するLED(Light Emitting Diode)(図示せず)などがそれぞれ所定位置に配置されている。なお、ロボット装置1においては、タッチセンサ21以外にも、胴体部ユニット2及び頭部ユニット4の所定位置に複数のタッチセンサが配置されている。   Further, the head unit 4 captures an external situation and detects a CCD (Charge Coupled Device) camera 20 for detecting ambient brightness and a physical action from the user such as tilting forward and backward. Touch sensor 21, a distance sensor 22 for measuring the distance to an object located in front, a microphone 23 for collecting external sounds, a speaker 24 for outputting various sounds, a head A headlight 25 that can be stored in the unit unit 4 and an LED (Light Emitting Diode) (not shown) corresponding to the “eyes” of the robot apparatus 1 are arranged at predetermined positions. In the robot apparatus 1, in addition to the touch sensor 21, a plurality of touch sensors are arranged at predetermined positions of the body unit 2 and the head unit 4.

さらに、各脚部ユニット3A〜3Dの関節部分や各脚部ユニット3A〜3D及び胴体部ユニット2の各連結部分、並びに頭部ユニット4及び胴体部ユニット2の連結部分などにはそれぞれ自由度数分のアクチュエータ26〜26及びポテンショメータ27〜27が配設されている。例えば、アクチュエータ26〜26はサーボモータを構成として有している。サーボモータの駆動により、脚部ユニット3A〜3Dが制御されて、目標の姿勢或いは動作に遷移する。 Furthermore, the joint portions of the leg units 3A to 3D, the connection portions of the leg units 3A to 3D and the body unit 2, and the connection portions of the head unit 4 and the body unit 2 have a degree of freedom respectively. Actuators 26 1 to 26 n and potentiometers 27 1 to 27 n are arranged. For example, the actuators 26 1 to 26 n have a servo motor as a configuration. The leg units 3 </ b> A to 3 </ b> D are controlled by the drive of the servo motor, and the target posture or operation is changed.

そして、これら角速度センサ18、加速度センサ19、タッチセンサ21、距離センサ22、マイクロホン23、スピーカ24、及び各ポテンショメータ27〜27などの各種センサ並びにヘッドライト25、LED及び各アクチュエータ26 〜26は、それぞれ対応するハブ28〜28を介してコントロール部16の信号処理回路14と接続され、CCDカメラ20及びバッテリ17は、それぞれ信号処理回路14と直接接続されている。 These angular velocity sensor 18, acceleration sensor 19, touch sensor 21, distance sensor 22, microphone 23, speaker 24, various sensors such as potentiometers 27 1 to 27 n and headlight 25, LEDs and actuators 26 1 to 26. n is connected to the signal processing circuit 14 of the control unit 16 via the corresponding hubs 28 1 to 28 n , and the CCD camera 20 and the battery 17 are directly connected to the signal processing circuit 14 respectively.

信号処理回路l4は、上述の各センサから供給されるセンサデータや画像データ及び音声データを順次取り込み、これらをそれぞれ内部バス15を介してDRAM11内の所定位置に順次格納する。また信号処理回路14は、これと共にバッテリ17から供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM11内の所定位置に格納する。   The signal processing circuit 14 sequentially takes in sensor data, image data, and audio data supplied from each of the above-described sensors, and sequentially stores them at predetermined positions in the DRAM 11 via the internal bus 15. In addition, the signal processing circuit 14 sequentially takes in battery remaining amount data representing the remaining amount of the battery supplied from the battery 17 and stores it in a predetermined position in the DRAM 11.

このようにしてDRAM11に格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、この後CPU10がこのロボット装置1の動作制御を行う際に利用される。   The sensor data, image data, audio data, and battery remaining amount data stored in the DRAM 11 in this way are used when the CPU 10 controls the operation of the robot apparatus 1 thereafter.

実際上CPU10は、ロボット装置1の電源が投入された初期時、胴体部ユニット2の図示しないPCカードスロットに装填されたメモリカード29又はフラッシュROM12に格納された制御プログラムをPCカードインターフェース回路13を介して又は直接読み出し、これをDRAM11に格納する。   In practice, when the power of the robot apparatus 1 is initially turned on, the CPU 10 loads the control program stored in the memory card 29 or the flash ROM 12 loaded in the PC card slot (not shown) of the body unit 2 into the PC card interface circuit 13. Or directly read out and stored in the DRAM 11.

また、CPU10は、この後上述のように信号処理回路14よりDRAM11に順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。   In addition, the CPU 10 thereafter, based on each sensor data, image data, audio data, and battery remaining amount data sequentially stored in the DRAM 11 by the signal processing circuit 14 as described above, Determine whether there are instructions and actions.

ここで、例えば本実施の形態における顔検出タスクを実行する際には、CCDにより撮像された入力画像から顔候補を検出し、距離センサ等の値を使用し、上述した4つの条件に当てはめて非顔候補を検出し、顔候補から非顔候補を排除したものを顔領域として出力する。   Here, for example, when executing the face detection task in the present embodiment, face candidates are detected from the input image captured by the CCD, and values such as a distance sensor are used to apply the above four conditions. A non-face candidate is detected, and a non-face candidate excluded from the face candidate is output as a face area.

さらに、CPU10は、この判断結果及びDRAM11に格納した制御プログラムに基づいて続く行動を決定すると共に、当該決定結果に基づいて必要なアクチュエータ26〜26を駆動させることにより、頭部ユニット4を上下左右に振らせたり、各脚部ユニット3A〜3Dを駆動させて歩行させるなどの行動を行わせる。 Further, the CPU 10 determines the action to be continued based on the determination result and the control program stored in the DRAM 11, and drives the necessary actuators 26 1 to 26 n based on the determination result, thereby causing the head unit 4 to move. Actions such as swinging up and down, left and right, or driving each leg unit 3A to 3D to walk are performed.

また、この際CPU10は、必要に応じて音声データを生成し、これを信号処理回路14を介して音声信号としてスピーカ24に与えることにより当該音声信号に基づく音声を外部に出力させたり、上述のLEDを点灯、消灯又は点滅させる。また、CPU10は、後述するように、CCDカメラ20を用いて周囲の明るさを検出させ、その検出結果に応じてヘッドライト25を点灯させる。   At this time, the CPU 10 generates audio data as necessary, and outputs the audio data to the speaker 24 as an audio signal via the signal processing circuit 14 so that the audio based on the audio signal is output to the outside. Turn on, turn off, or blink the LED. Further, as will be described later, the CPU 10 detects ambient brightness using the CCD camera 20 and turns on the headlight 25 according to the detection result.

このようにしてこのロボット装置1においては、自己及び周囲の状況や、使用者からの指示及び働きかけに応じて自律的に行動し得るようになされている。   In this way, the robot apparatus 1 can act autonomously according to the situation of itself and surroundings, and instructions and actions from the user.

(1−2)制御プログラムのソフトウェア構成
ここで、ロボット装置1における上述の制御プログラムのソフトウェア構成は、図3に示すようになる。この図3において、デバイス・ドライバ・レイヤ30は、この制御プログラムの最下位層に位置し、複数のデバイス・ドライバからなるデバイス・ドライバ・セット31から構成されている。この場合、各デバイス・ドライバは、CCDカメラ20(図2)やタイマ等の通常のコンピュータで用いられるハードウェアに直接アクセスすることを許されたオブジェクトであり、対応するハードウェアからの割り込みを受けて処理を行う。
(1-2) Software Configuration of Control Program Here, the software configuration of the above-described control program in the robot apparatus 1 is as shown in FIG. In FIG. 3, a device driver layer 30 is located in the lowest layer of the control program and is composed of a device driver set 31 composed of a plurality of device drivers. In this case, each device driver is an object that is allowed to directly access hardware used in a normal computer such as the CCD camera 20 (FIG. 2) or a timer, and receives an interrupt from the corresponding hardware. Process.

また、ロボティック・サーバ・オブジェクト32は、デバイス・ドライバ・レイヤ30の最下位層に位置し、例えば上述の各種センサやアクチュエータ26〜26等のハードウェアにアクセスするためのインターフェースを提供するソフトウェア群でなるバーチャル・ロボット装置33と、電源の切換えなどを管理するソフトウェア群でなるバワーマネージャ34と、他の種々のデバイス・ドライバを管理するソフトウェア群でなるデバイス・ドライバ・マネージャ35と、ロボット装置1の機構を管理するソフトウェア群でなるデザインド・ロボット装置36とから構成されている。 The robotic server object 32 is located in the lowest layer of the device driver layer 30 and provides an interface for accessing hardware such as the various sensors and actuators 26 1 to 26 n described above. A virtual robot device 33 made up of software, a power manager 34 made up of software that manages power supply switching, a device driver manager 35 made up of software that manages other various device drivers, and a robot It is composed of a designed robot apparatus 36 that is a software group for managing the mechanism of the apparatus 1.

マネージャ・オブジェクト37は、オブジェクト・マネージャ38及びサービス・マネージャ39から構成されている。オブジェクト・マネージャ38は、ロボティック・サーバ・オブジェクト32、ミドル・ウェア・レイヤ40、及びアプリケーション・レイヤ41に含まれる各ソフトウェア群の起動や終了を管理するソフトウェア群であり、サービス・マネージャ39は、メモリカード29(図2)に格納されたコネクションファイルに記述されている各オブジェクト間の接続情報に基づいて各オブジェクトの接続を管理するソフトウェア群である。   The manager object 37 includes an object manager 38 and a service manager 39. The object manager 38 is a software group that manages the activation and termination of each software group included in the robotic server object 32, the middleware layer 40, and the application layer 41. The service manager 39 includes: This is a software group for managing the connection of each object based on the connection information between the objects described in the connection file stored in the memory card 29 (FIG. 2).

ミドル・ウェア・レイヤ40は、ロボティック・サーバ・オブジェクト32の上位層に位置し、画像処理や音声処理などのこのロボット装置1の基本的な機能を提供するソフトウェア群から構成されている。また、アプリケーション・レイヤ41は、ミドル・ウェア・レイヤ40の上位層に位置し、当該ミドル・ウェア・レイヤ40を構成する各ソフトウェア群によって処理された処理結果に基づいてロボット装置1の行動を決定するためのソフトウェア群から構成されている。   The middleware layer 40 is located in an upper layer of the robotic server object 32, and includes a software group that provides basic functions of the robot apparatus 1 such as image processing and sound processing. In addition, the application layer 41 is located in an upper layer of the middleware layer 40, and determines the behavior of the robot apparatus 1 based on the processing result processed by each software group constituting the middleware layer 40. It is composed of software groups.

なお、ミドル・ウェア・レイヤ40及びアプリケーション・レイヤ41の具体なソフトウェア構成をそれぞれ図4に示す。   The specific software configurations of the middleware layer 40 and the application layer 41 are shown in FIG.

ミドル・ウェア・レイヤ40は、図4に示すように、騒音検出用、温度検出用、明るさ検出用、音階認識用、距離検出用、姿勢検出用、タッチセンサ用、動き検出用及び色認識用の各信号処理モジュール50〜58並びに入力セマンティクスコンバータモジュール59などを有する認識系60と、出力セマンティクスコンバータモジュール68並びに姿勢管理用、トラッキング用、モーション再生用、歩行用、転倒復帰用、ライト点灯用及び音再生用の各信号処理モジュール61〜67などを有する出力系69とから構成されている。   As shown in FIG. 4, the middle wear layer 40 is for noise detection, temperature detection, brightness detection, scale recognition, distance detection, posture detection, touch sensor, motion detection and color recognition. Recognition system 60 having signal processing modules 50 to 58 and input semantic converter module 59 for output, output semantic converter module 68, posture management, tracking, motion playback, walking, fall-returning, and lighting And an output system 69 having signal processing modules 61 to 67 for sound reproduction.

認識系60の各信号処理モジュール50〜58は、ロボティック・サーバ・オブジェクト32のバーチャル・ロボット装置33によりDRAM11(図2)から読み出される各センサデータや画像データ及び音声データのうちの対応するデータを取り込み、当該データに基づいて所定の処理を施して、処理結果を入力セマンティクスコンバータモジュール59に与える。ここで、例えば、バーチャル・ロボット装置33は、所定の通信規約によって、信号の授受或いは変換をする部分として構成されている。   The signal processing modules 50 to 58 of the recognition system 60 correspond to the corresponding data among the sensor data, image data and audio data read from the DRAM 11 (FIG. 2) by the virtual robot device 33 of the robotic server object 32. Are processed based on the data, and the processing result is given to the input semantic converter module 59. Here, for example, the virtual robot apparatus 33 is configured as a part that exchanges or converts signals according to a predetermined communication protocol.

入力セマンティクスコンバータモジュール59は、これら各信号処理モジュール50〜58から与えられる処理結果に基づいて、「うるさい」、「暑い」、「明るい」、「ボールを検出した」、「転倒を検出した」、「撫でられた」、「叩かれた」、「ドミソの音階が聞こえた」、「動く物体を検出した」又は「障害物を検出した」などの自己及び周囲の状況や、使用者からの指令及び働きかけを認識し、認識結果をアプリケーション・レイヤ41(図2)に出力する。   Based on the processing result given from each of these signal processing modules 50 to 58, the input semantic converter module 59 is “noisy”, “hot”, “bright”, “ball detected”, “falling detected”, Self and surrounding conditions such as “boiled”, “struck”, “I heard Domiso's scale”, “Detected moving object” or “Detected an obstacle”, and commands from the user And the action is recognized, and the recognition result is output to the application layer 41 (FIG. 2).

アプリケーション・レイヤ4lは、図5に示すように、行動モデルライブラリ70、行動切換モジュール71、学習モジュール72、感情モデル73及び本能モデル74の5つのモジュールから構成されている。   As shown in FIG. 5, the application layer 4 l includes five modules: a behavior model library 70, a behavior switching module 71, a learning module 72, an emotion model 73, and an instinct model 74.

行動モデルライブラリ70には、図6に示すように、「バッテリ残量が少なくなった場合」、「転倒復帰する場合」、「障害物を回避する場合」、「感情を表現する場合」、「ボールを検出した場合」などの予め選択された複数の条件項目にそれぞれ対応させて、それぞれ独立した行動モデル70〜70が設けられている。 In the behavior model library 70, as shown in FIG. 6, “when the remaining battery level is low”, “when falling down”, “when avoiding an obstacle”, “when expressing emotion”, “ Independent behavior models 70 1 to 70 n are provided in correspondence with a plurality of preselected condition items such as “when a ball is detected”.

そして、これら行動モデル70〜70は、それぞれ入力セマンティクスコンバータモジュール59から認識結果が与えられたときや、最後の認識結果が与えられてから一定時間が経過したときなどに、必要に応じて後述のように感情モデル73に保持されている対応する情動のパラメータ値や、本能モデル74に保持されている対応する欲求のパラメータ値を参照しながら続く行動をそれぞれ決定し、決定結果を行動切換モジュール71に出力する。 These behavior models 70 1 to 70 n are respectively used as necessary when a recognition result is given from the input semantic converter module 59 or when a certain time has passed since the last recognition result was given. As will be described later, the following behavior is determined while referring to the corresponding emotion parameter value held in the emotion model 73 and the corresponding desire parameter value held in the instinct model 74, and the decision result is switched to the action. Output to module 71.

なお、この実施の形態の場合、各行動モデル70〜70は、次の行動を決定する手法として、図7に示すような1つのノード(状態)NODE〜NODEから他のどのノードNODE〜NODEに遷移するかを各ノードNODE〜NODEに間を接続するアークARC〜ARCに対してそれぞれ設定された遷移確率P〜Pに基づいて確率的に決定する有限確率オートマトンと呼ばれるアルゴリズムを用いる。 In the case of this embodiment, each of the behavior models 70 1 to 70 n is used as a method for determining the next behavior from one node (state) NODE 0 to NODE n as shown in FIG. determined probabilistically based on the set transition probability P 1 to P n respectively whether a transition to nODE 0 ~NODE n relative to the arc aRC 1 ~ARC n that connects to each node nODE 0 ~NODE n An algorithm called a finite probability automaton is used.

具体的に、各行動モデル70〜70は、それぞれ自己の行動モデル70〜70を形成するノードNODE〜NODEにそれぞれ対応させて、これらノードNODE〜NODEごとに図8に示すような状態遷移表80を有している。 Specifically, the behavior model 70 1 to 70 n are each respectively made to correspond to the node NODE 0 ~NODE n to form a self-behavior model 70 1 to 70 n, Fig each of these nodes NODE 0 ~NODE n 8 A state transition table 80 as shown in FIG.

この状態遷移表80では、そのノードNODE〜NODEにおいて遷移条件とする入力イベント(認識結果)が「入力イベント名」の列に優先順に列記され、その遷移条件についてのさらなる条件が「データ名」及び「データ範囲」の列における対応する行に記述されている。 In this state transition table 80, input events (recognition results) as transition conditions in the nodes NODE 0 to NODE n are listed in the “input event name” column in priority order, and further conditions regarding the transition conditions are “data name”. ”And“ data range ”columns are described in corresponding rows.

したがって、図8の状態遷移表80で表されるノードNODE100では、「ボールを検出(BALL)」という認識結果が与えられた場合に、当該認識結果と共に与えられるそのボールの「大きさ(SIZE)」が「0から1000」の範囲であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果と共に与えられるその障害物までの「距離(DISTANCE)」が「0から100」の範囲であることが他のノードに遷移するための条件となっている。 Therefore, in the node NODE 100 represented by the state transition table 80 in FIG. 8, when the recognition result “ball detected (BALL)” is given, the “size (SIZE)” of the ball given together with the recognition result is given. ) ”Is in the range of“ 0 to 1000 ”, or when a recognition result“ OBSTACLE ”is given, the“ distance (DISTANCE) to the obstacle given along with the recognition result ” "Is in the range of" 0 to 100 "is a condition for transitioning to another node.

また、このノードNODE100では、認識結果の入力がない場合においても、行動モデル70〜70が周期的に参照する感情モデル73及び本能モデル74にそれぞれ保持された各情動及び各欲求のパラメータ値のうち、感情モデル73に保持された「喜び(JOY)」、「驚き(SURPRISE)」若しくは「悲しみ(SUDNESS)」のいずれかのパラメータ値が「50から100」の範囲であるときには他のノードに遷移することができるようになっている。 Further, in this node NODE 100 , each emotion and each desire parameter held in the emotion model 73 and the instinct model 74 that the behavior models 70 1 to 70 n periodically refer to even when no recognition result is input. Among the values, when the parameter value of “joy”, “surprise”, or “sadness” (SUDNESS) held in the emotion model 73 is in the range of “50 to 100”, It is possible to transition to a node.

また、状態遷移表80では、「他のノードヘの遷移確率」の欄における「遷移先ノード」の行にそのノードNODE〜 NODEから遷移できるノード名が列記されていると共に、「入力イベント名」、「データ値」及び「データの範囲」の列に記述された全ての条件が揃ったときに遷移できる他の各ノードNODE〜NODEへの遷移確率が「他のノードヘの遷移確率」の欄内の対応する箇所にそれぞれ記述され、そのノードNODE〜NODEに遷移する際に出力すべき行動が「他のノードヘの遷移確率」の欄における「出力行動」の行に記述されている。なお、「他のノードヘの遷移確率」の欄における各行の確率の和は100[%]となっている。 In the state transition table 80, node names that can be transitioned from the nodes NODE 0 to NODE n are listed in the “transition destination node” row in the “transition probability to other node” column, and “input event name” ”,“ Data value ”, and“ data range ”, the transition probability to each of the other nodes NODE 0 to NODE n that can transition when all the conditions described in the columns are met is“ transition probability to other nodes ”. The action to be output when transitioning to the nodes NODE 0 to NODE n is described in the “output action” line in the “transition probability to other nodes” column. Yes. The sum of the probabilities of each row in the “transition probability to other node” column is 100 [%].

したがって、図7の状態遷移表80で表されるノードNODE100では、例えば「ボールを検出(BALL)」し、そのボールの「SIZE(大きさ)」が「0から1000」の範囲であるという認識結果が与えられた場合には、「30[%]」の確率で「ノードNODE120(node 120)」に遷移でき、そのとき「ACTION1」の行動が出力されることとなる。 Therefore, in the node NODE 100 represented by the state transition table 80 of FIG. 7, for example, “ball is detected (BALL)” and the “SIZE (size)” of the ball is in the range of “0 to 1000”. When the recognition result is given, it is possible to transition to “node NODE 120 (node 120)” with a probability of “30 [%]”, and the action of “ACTION 1” is output at that time.

各行動モデル70〜70は、それぞれこのような状態遷移表80として記述されたノードNODE〜NODEがいくつも繋がるようにして構成されており、入力セマンティクスコンバータモジュール59から認識結果が与えられたときなどに、対応するノードNODE〜NODEの状態遷移表を利用して確率的に次の行動を決定し、決定結果を行動切換モジュール71に出力するようになされている。 Each of the behavior models 70 1 to 70 n is configured such that a number of nodes NODE 0 to NODE n described as the state transition table 80 are connected to each other, and a recognition result is given from the input semantic converter module 59. The next action is determined probabilistically using the state transition table of the corresponding nodes NODE 0 to NODE n , and the determination result is output to the action switching module 71.

図5に示す行動切換モジュール71は、行動モデルライブラリ70の各行動モデル70〜70からそれぞれ出力される行動のうち、予め定められた優先順位の高い行動モデル70〜70から出力された行動を選択し、当該行動を実行すべき旨のコマンド(以下、これを行動コマンドという。)をミドル・ウェア・レイヤ40の出力セマンティクスコンバータモジュール68に送出する。なお、この実施の形態においては、図6において下側に表記された行動モデル70〜70ほど優先順位が高く設定されている。 Action switching module 71 shown in FIG. 5, of the action output from each behavior model 70 1 to 70 n of the action model library 70, is output from a predetermined higher priority behavior model 70 1 to 70 n A command indicating that the action should be executed (hereinafter referred to as an action command) is sent to the output semantic converter module 68 of the middleware layer 40. In this embodiment, higher priority is set for the behavior models 70 1 to 70 n shown on the lower side in FIG.

また、行動切換モジュール71は、行動完了後に出力セマンティクスコンバータモジュール68から与えられる行動完了情報に基づいて、その行動が完了したことを学習モジュール72、感情モデル73及び本能モデル74に通知する。   Further, the behavior switching module 71 notifies the learning module 72, the emotion model 73, and the instinct model 74 that the behavior is completed based on the behavior completion information given from the output semantic converter module 68 after the behavior is completed.

一方、学習モジュール72は、入力セマンティクスコンバータモジュール59から与えられる認識結果のうち、「叩かれた」や「撫でられた」など、使用者からの働きかけとして受けた教示の認識結果を入力する。   On the other hand, the learning module 72 inputs the recognition result of the teaching received from the user, such as “struck” or “boiled”, among the recognition results given from the input semantic converter module 59.

そして、学習モジュール72は、この認識結果及び行動切換モジュール71からの通知に基づいて、「叩かれた(叱られた)」ときにはその行動の発現確率を低下させ、「撫でられた(誉められた)」ときにはその行動の発現確率を上昇させるように、行動モデルライブラリ70における対応する行動モデル70〜70の対応する遷移確率を変更する。 Then, based on the recognition result and the notification from the action switching module 71, the learning module 72 reduces the probability of the action when “struck (struck)” and “struck (praised). ) ”, The corresponding transition probabilities of the corresponding behavior models 70 1 to 70 n in the behavior model library 70 are changed so as to increase the probability of occurrence of the behavior.

他方、感情モデル73は、「喜び(joy)」、「悲しみ(sadness)」、「怒り(anger)」、「驚き(surprise)」、「嫌悪(disgust)」及び「恐れ(fear)」の合計6つの情動について、各情動ごとにその情動の強さを表すパラメータを保持している。そして、感情モデル73は、これら各情動のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール59から与えられる「叩かれた」及び「撫でられた」などの特定の認識結果と、経過時間及び行動切換モジュール71からの通知などに基づいて周期的に更新する。   On the other hand, the emotion model 73 is a sum of “joy”, “sadness”, “anger”, “surprise”, “disgust” and “fear”. For six emotions, a parameter representing the strength of the emotion is held for each emotion. Then, the emotion model 73 uses the parameter values of each emotion as specific recognition results such as “struck” and “boiled” given from the input semantic converter module 59, the elapsed time and the behavior switching module 71. It is updated periodically based on notifications from.

具体的には、感情モデル73は、入力セマンティクスコンバータモジュール59から与えられる認識結果と、そのときのロボット装置1の行動と、前回更新してからの経過時間などに基づいて所定の演算式により算出されるそのときのその情動の変動量を△E[t]、現在のその情動のパラメータ値をE[t]、その情動の感度を表す係数をkとして、(1)式によって次の周期におけるその情動のパラメータ値E[t+1]を算出し、これを現在のその情動のパラメータ値E[t]と置き換えるようにしてその情動のパラメータ値を更新する。また、感情モデル73は、これと同様にして全ての情動のパラメータ値を更新する。 Specifically, the emotion model 73 is calculated by a predetermined arithmetic expression based on the recognition result given from the input semantic converter module 59, the behavior of the robot apparatus 1 at that time, the elapsed time since the last update, and the like. its emotional fluctuation amount △ E [t] of the time being, E [t] of the current parameter value of the emotion, the next cycle coefficient representing the sensitivity of the emotion as k e, by (1) The parameter value E [t + 1] of the emotion in is calculated, and the parameter value of the emotion is updated so as to replace the current parameter value E [t] of the emotion. In addition, the emotion model 73 updates the parameter values of all emotions in the same manner.

Figure 2005078377
Figure 2005078377

なお、各認識結果や出力セマンティクスコンバータモジュール68からの通知が各情動のパラメータ値の変動量△E[t]にどの程度の影響を与えるかは予め決められており、例えば「叩かれた」といった認識結果は「怒り」の情動のパラメータ値の変動量△E[t]に大きな影響を与え、「撫でられた」といった認識結果は「喜び」の情動のパラメータ値の変動量△E[t]に大きな影響を与えるようになっている。   It should be noted that how much each notification result or notification from the output semantic converter module 68 affects the parameter value variation amount ΔE [t] of each emotion is determined in advance. For example, “struck” The recognition result has a great influence on the fluctuation amount ΔE [t] of the emotion parameter of “anger”, and the recognition result of “boiled” has a fluctuation amount ΔE [t] of the parameter value of the emotion of “joy” It has come to have a big influence on.

ここで、出力セマンティクスコンバータモジュール68からの通知とは、いわゆる行動のフィードバック情報(行動完了情報)であり、行動の出現結果の情報であり、感情モデル73は、このような情報によっても感情を変化させる。これは、例えば、「吠える」といった行動により怒りの感情レベルが下がるといったようなことである。なお、出力セマンティクスコンバータモジュール68からの通知は、上述した学習モジュール72にも入力されており、学習モジュール72は、その通知に基づいて行動モデル70〜70の対応する遷移確率を変更する。 Here, the notification from the output semantic converter module 68 is so-called action feedback information (behavior completion information), which is information on the appearance result of the action, and the emotion model 73 changes the emotion also by such information. Let This is, for example, that the emotional level of anger is lowered by an action such as “barking”. The notification from the output semantic converter module 68 is also input to the learning module 72 described above, and the learning module 72 changes the corresponding transition probabilities of the behavior models 70 1 to 70 n based on the notification.

なお、行動結果のフィードバックは、行動切換モジュール71の出力(感情が付加された行動)によりなされるものであってもよい。   Note that the feedback of the behavior result may be performed by the output of the behavior switching module 71 (the behavior to which the emotion is added).

一方、本能モデル74は、「運動欲(exercise)」、「愛情欲(affection)」、「食欲(appetite)」及び「好奇心(curiosity)」の互いに独立した4つの欲求について、これら欲求ごとにその欲求の強さを表すパラメータを保持している。そして、本能モデル74は、これらの欲求のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール59から与えられる認識結果や、経過時間及び行動切換モジュール71からの通知などに基づいて周期的に更新する。   On the other hand, the instinct model 74 has four independent needs of “exercise”, “affection”, “appetite” and “curiosity” for each of these needs. It holds a parameter that represents the strength of the desire. The instinct model 74 periodically updates the parameter values of these desires based on the recognition result given from the input semantic converter module 59, the elapsed time, the notification from the behavior switching module 71, and the like.

具体的には、本能モデル74は、「運動欲」、「愛情欲」及び「好奇心」については、認識結果、経過時間及び出力セマンティクスコンバータモジュール68からの通知などに基づいて所定の演算式により算出されるそのときのその欲求の変動量をΔI[k]、現在のその欲求のパラメータ値をI[k]、その欲求の感度を表す係数kとして、所定周期で(2)式を用いて次の周期におけるその欲求のパラメータ値I[k+1]を算出し、この演算結果を現在のその欲求のパラメータ値I[k]と置き換えるようにしてその欲求のパラメータ値を更新する。また、本能モデル74は、これと同様にして「食欲」を除く各欲求のパラメータ値を更新する。 Specifically, the instinct model 74 uses the predetermined calculation formula for “exercise greed”, “loving lust” and “curiosity” based on the recognition result, elapsed time, notification from the output semantic converter module 68, and the like. Equation (2) is used in a predetermined cycle, where ΔI [k] is the calculated fluctuation amount of the desire at that time, I [k] is the current parameter value of the desire, and coefficient k i is the sensitivity of the desire. Then, the parameter value I [k + 1] of the desire in the next cycle is calculated, and the parameter value of the desire is updated so that the calculation result is replaced with the current parameter value I [k] of the desire. Further, the instinct model 74 updates the parameter values of each desire except “appetite” in the same manner.

Figure 2005078377
Figure 2005078377

なお、認識結果及び出力セマンティクスコンバータモジュール68からの通知などが各欲求のパラメータ値の変動量△I[k]にどの程度の影響を与えるかは予め決められており、例えば出力セマンティクスコンバータモジュール68からの通知は、「疲れ」のパラメータ値の変動量△I[k]に大きな影響を与えるようになっている。   Note that how much the recognition result and the notification from the output semantic converter module 68 affect the fluctuation amount ΔI [k] of each desire parameter value is determined in advance, for example, from the output semantic converter module 68. This notification has a great influence on the fluctuation amount ΔI [k] of the parameter value of “fatigue”.

なお、本実施の形態においては、各情動及び各欲求(本能)のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数k、kの値も各情動及び各欲求ごとに個別に設定されている。 In the present embodiment, the parameter values of each emotion and each desire (instinct) are regulated so as to fluctuate in the range from 0 to 100, respectively, and the values of the coefficients k e and k i are also set for each emotion. And it is set individually for each desire.

一方、ミドル・ウェア・レイヤ40の出力セマンティクスコンバータモジュール68は、図4に示すように、上述のようにしてアプリケーション・レイヤ41の行動切換モジュール71から与えられる「前進」、「喜ぶ」、「鳴く」又は「トラッキング(ボールを追いかける)」といった抽象的な行動コマンドを出力系69の対応する信号処理モジュール61〜67に与える。   On the other hand, the output semantics converter module 68 of the middleware layer 40, as shown in FIG. 4, “forward”, “joy”, “ring” given from the behavior switching module 71 of the application layer 41 as described above. "Or" tracking (following the ball) "is given to the corresponding signal processing modules 61-67 of the output system 69.

そしてこれら信号処理モジュール61〜67は、行動コマンドが与えられると当該行動コマンドに基づいて、その行動を行うために対応するアクチュエータ26〜26(図2)に与えるべきサーボ指令値や、スピーカ24(図2)から出力する音の音声データ及び又は「目」のLEDに与える駆動データを生成し、これらのデータをロボティック・サーバ・オブジェクト32のバーチャル・ロボット装置33及び信号処理回路14(図2)を順次介して対応するアクチュエータ26〜26又はスピーカ24又はLEDに順次送出する。 Then, these signal processing modules 61 to 67, when given an action command, based on the action command, servo command values to be given to the corresponding actuators 26 1 to 26 n (FIG. 2) and speaker 24 (FIG. 2), sound data output from the sound and / or drive data to be given to the “eye” LED are generated, and these data are used as the virtual robot device 33 and the signal processing circuit 14 (for the robotic server object 32). 2) are sequentially sent to the corresponding actuators 26 1 to 26 n or the speaker 24 or the LED via the sequential order.

このようにしてロボット装置1においては、制御プログラムに基づいて、自己(内部)及び周囲(外部)の状況や、使用者からの指示及び働きかけに応じた自律的な行動を行うことができるようになされている。   In this way, the robot apparatus 1 can perform autonomous actions in accordance with its own (internal) and surrounding (external) situations, and instructions and actions from the user, based on the control program. Has been made.

(2)動体検出
上述のロボット装置1においては、上述したミドル・ウェア・レイヤ40における動き検出用モジュール57において、撮像手段としてのカメラ20にて撮像された画像から動体を検出することができる。
(2) Motion Detection In the robot apparatus 1 described above, the motion detection module 57 in the middle wear layer 40 described above can detect a motion from an image captured by the camera 20 as the imaging means.

図9は、上述のロボット装置1における動体検出処理に関わる要部のみを示すブロック図である。図9に示すように、カメラ20からの入力画像は、信号処理回路14(図2)により順次取り込まれ、内部バス15を介してDERAM11内の所定位置に順次格納される。動体検出に使用される画像は輝度画像であり、DRAM11に格納される際、撮像画像が輝度画像に変換される。   FIG. 9 is a block diagram showing only main parts related to the moving object detection process in the robot apparatus 1 described above. As shown in FIG. 9, input images from the camera 20 are sequentially captured by the signal processing circuit 14 (FIG. 2) and sequentially stored at predetermined positions in the DERAM 11 via the internal bus 15. An image used for moving object detection is a luminance image, and when the image is stored in the DRAM 11, the captured image is converted into a luminance image.

上述したように、ロボティック・サーバ・オブジェクト32は、デバイス・ドライバ・レイヤ30の最下位層に位置し、各種センサやアクチュエータ26〜26等のハードウェアにアクセスするためのインターフェースを提供するソフトウェア群でなるバーチャル・ロボット装置33を有する。 As described above, the robotic server object 32 is located in the lowest layer of the device driver layer 30 and provides an interface for accessing hardware such as various sensors and actuators 26 1 to 26 n. It has a virtual robot device 33 consisting of software groups.

また、ミドル・ウェア・レイヤ40は、ロボティック・サーバ・オブジェクト32の上位層に位置し、動き検出等の画像処理や音声処理等のこのロボット装置1の基本的な機能を提供するソフトウェア群から構成されている。   The middleware layer 40 is positioned above the robotic server object 32, and is a software group that provides basic functions of the robot apparatus 1 such as image processing such as motion detection and voice processing. It is configured.

更に、アプリケーション・レイヤ41は、ミドル・ウェア・レイヤ40の上位層に位置し、当該ミドル・ウェア・レイヤ40を構成する各ソフトウェア群によって処理された処理結果に基づいてロボット装置1の行動を決定するためのソフトウェア群から構成されている。   Furthermore, the application layer 41 is located in an upper layer of the middleware layer 40, and determines the behavior of the robot apparatus 1 based on the processing result processed by each software group constituting the middleware layer 40. It is composed of software groups.

動体検出処理では、先ず、CPU10(図2)がロボティック・サーバ・オブジェクト32及びバーチャル・ロボット装置33、並びにミドル・ウェア・レイヤ40を構成する画像処理オブジェクトを順次起動する。そして、ロボティック・サーバ・オブジェクト32のバーチャル・ロボット装置33によりDRAM11から輝度画像データを取り込み、この輝度画像データが動き検出オブジェクト57に送られる。動き検出オブジェクト57は、時間軸上で隣接する画像間の差分を、複数の画素からなるブロック毎に求めたブロック差分値を算出し、そのブロック差分値が所定の閾値以上であるブロックを動体候補であるブロックと判断し、更に該動体候補ブロックが隣接してなるブロック連結領域を動体領域として検出する処理を実行する。そして、この検出結果をアプリケーション・レイヤ41の行動モデルライブラリ70に出力する。行動モデルライブラリ70は、動体を検出したという情報に基づき行動を決定し、決定結果を行動切換モジュール71に出力する。   In the moving object detection process, first, the CPU 10 (FIG. 2) sequentially activates the robotic server object 32, the virtual robot apparatus 33, and the image processing objects constituting the middleware layer 40. Then, the luminance image data is fetched from the DRAM 11 by the virtual robot device 33 of the robotic server object 32, and this luminance image data is sent to the motion detection object 57. The motion detection object 57 calculates a block difference value obtained for each block composed of a plurality of pixels for a difference between adjacent images on the time axis, and selects a block whose block difference value is equal to or greater than a predetermined threshold as a moving object candidate And a process of detecting a block connection area formed by adjoining moving object candidate blocks as a moving object area is executed. Then, the detection result is output to the behavior model library 70 of the application layer 41. The behavior model library 70 determines the behavior based on the information that the moving object has been detected, and outputs the determination result to the behavior switching module 71.

行動切り替えモジュール71は、当該行動を実行すべき旨のコマンド(以下、これを行動コマンドという。)をミドル・ウェア・レイヤ40の出力セマンティクスコンバータモジュール68に送出する・出力セマンティックスコンバータモジュール68は、「トラッキング(ボールを追いかける)」といった抽象的な行動コマンドを対応する信号処理モジュールであるトラッキングモジュール62に与える。   The behavior switching module 71 sends a command indicating that the behavior should be executed (hereinafter referred to as a behavior command) to the output semantic converter module 68 of the middleware layer 40. The output semantic converter module 68 An abstract action command such as “tracking (chase the ball)” is given to the tracking module 62 which is a corresponding signal processing module.

そしてトラッキングモジュール62は、行動コマンドが与えられると当該行動コマンドに基づいて、その行動を行うために対応するアクチュエータ26〜26に与えるべきサーボ指令値を生成し、これらのデータをロボティック・サーバ・オブジェクト32のバーチャル・ロボット装置33及び信号処理回路14(図2)を順次介して対応するアクチュエータ26〜26に順次送出する。 When the action command is given, the tracking module 62 generates a servo command value to be given to the corresponding actuators 26 1 to 26 n to perform the action based on the action command, and the robot module The server object 32 is sequentially sent to the corresponding actuators 26 1 to 26 n via the virtual robot device 33 and the signal processing circuit 14 (FIG. 2) in order.

このようにしてロボット装置1においては、制御プログラムに基づいて、自律的に動体検出結果を使用して動体をトラッキングすることができ、リアルタイムに正確な動体検出を可能とし、ユーザとの円滑なコミュニケーションを実現することができる。   In this way, the robot apparatus 1 can autonomously track the moving object using the moving object detection result based on the control program, enables accurate moving object detection in real time, and smooth communication with the user. Can be realized.

次に、動き検出モジュール57における動体検出処理について詳細に説明する。図10は、動体検出方法を示すフローチャートである。図10に示すように、先ず、動体検出処理を開始するか否かの判断を行う(ステップS1)。この開始判定としては、例えば
1:姿勢遷移中
2:歩行中
3:首が動作中
であるか否かにより、判断することができる。即ち、ロボット装置1自身が動いている場合には、カメラ20も動いてしまうため、本実施の形態においては、例えば伏せをしていた状態から立ち上がった時等の姿勢遷移中、歩行中、及び頭部ユニット4を回転させる等の首動作中においては、動体検出処理を行わないものとする。
Next, the moving object detection process in the motion detection module 57 will be described in detail. FIG. 10 is a flowchart showing the moving object detection method. As shown in FIG. 10, first, it is determined whether or not to start the moving object detection process (step S1). As the start determination, for example, it can be determined depending on whether or not 1: during posture transition 2: during walking 3: whether the neck is moving. That is, when the robot apparatus 1 itself moves, the camera 20 also moves. Therefore, in the present embodiment, for example, during posture transition such as when standing up from a lying position, during walking, and It is assumed that the moving object detection process is not performed during the neck movement such as rotating the head unit 4.

次に、輝度画像として入力される前画像(前フレーム画像)と、この前画像に時間軸上で隣接し、同じく輝度画像である現画像(現フレーム画像)とを比較し、その差分値を求める。この際、前画像及び現画像共に、複数の画素からなるブロックに分割し、各画像間でブロック毎の差分二乗和を求める。そして、この差分二乗和が一定値以上である場合、そのブロックは動きがあると判断する(ステップS2)。以下、動きありと判断したブロックを動体候補ブロックという。   Next, the previous image (previous frame image) input as a luminance image is compared with the current image (current frame image) which is adjacent to the previous image on the time axis and is also a luminance image, and the difference value is obtained. Ask. At this time, both the previous image and the current image are divided into blocks made up of a plurality of pixels, and the sum of squared differences for each block is obtained between the images. If the sum of squared differences is greater than or equal to a certain value, it is determined that the block has movement (step S2). Hereinafter, a block determined to have motion is referred to as a moving object candidate block.

図11は、ステップS2において動体候補ブロックを検出する方法を説明するための図である。図11に示すように、現画像C及び前画像Pは、例えば水平方向が104、垂直方向が80の画素からなる。これらの現画像Cと前画像Pとの輝度差分値を画素単位で算出し、複数の画素からなるブロック単位の差分値を求める。先ず、各画像を水平方向をi個、垂直方向をj個に分割したブロックとし、図12に示すように、各ブロック毎に、現画像ブロックBCijと前画像ブロックBPijとの差分二乗和を算出する。そして、各ブロック毎の差分二乗和が所定の閾値以上であるか否かを判定する。ここでは、現画像C及び前画像Pにおける1ブロックは、水平方向が4画素、垂直方向が4画素のそれぞれブロックBCij及びブロックBPij(1≦i≦26、1≦j≦20)とする。 FIG. 11 is a diagram for explaining a method of detecting moving object candidate blocks in step S2. As shown in FIG. 11, the current image C and the previous image P are composed of, for example, 104 pixels in the horizontal direction and 80 pixels in the vertical direction. A luminance difference value between the current image C and the previous image P is calculated in pixel units, and a difference value in block units including a plurality of pixels is obtained. First, each image is divided into i blocks in the horizontal direction and j blocks in the vertical direction, and as shown in FIG. 12, the sum of squares of differences between the current image block BC ij and the previous image block BP ij for each block. Is calculated. Then, it is determined whether or not the sum of squared differences for each block is equal to or greater than a predetermined threshold. Here, one block in the current image C and the previous image P is a block BC ij and a block BP ij (1 ≦ i ≦ 26, 1 ≦ j ≦ 20) each having 4 pixels in the horizontal direction and 4 pixels in the vertical direction. .

ここで、例えは、差分値が所定の閾値以上であるものを各画素毎に抽出する場合、104×80=8320画素数分だけ判断する必要があるのに対し、このようにブロックに分割することで、判定対象が図11に示す場合は、26×20=520ブロック数分となる。即ち、このように解像度を下げることで、従来はノイズ等であるのに検出されてしまっていたような画素単位の検出をなくすと共に、処理を迅速化することができる。また、ブロック毎に判断する閾値をある程度下げ、検出感度を大きくしても検出対象となるのはブロック単位であるため、ノイズを効率的に排除しつつちょっとした動体の動きについても検出可能とすることができる。   Here, for example, when a pixel having a difference value equal to or larger than a predetermined threshold is extracted for each pixel, it is necessary to determine only the number of 104 × 80 = 8320 pixels. Thus, when the determination target is shown in FIG. 11, the number is equal to 26 × 20 = 520 blocks. That is, by lowering the resolution in this way, it is possible to eliminate pixel-by-pixel detection that has been detected in the past even though it is noise or the like, and to speed up the processing. In addition, even if the threshold value for each block is lowered to some extent and the detection sensitivity is increased, the detection target is a block unit, so it is possible to detect even a small amount of moving object while efficiently eliminating noise. Can do.

なお、ここでは、4×4画素からなるブロックとして説明するが、ブロックの大きさは、カメラの性能や、周囲の明るさ等の環境に応じて適宜設定するものとする。また、動体候補ブロックと判定するための閾値においても、カメラや環境に応じて適宜設定するものとする。   Note that, here, a block composed of 4 × 4 pixels will be described, but the size of the block is appropriately set according to the environment such as camera performance and ambient brightness. Also, the threshold for determining a moving object candidate block is set as appropriate according to the camera and the environment.

図10に戻って、ステップS2にて検出された、各ブロックBCijのうち差分二乗和が閾値以上であった動体候補ブロックにラベリングを行う(ステップS3)。ラベリングは、動体候補となるブロックにフラグを立てることにより行うことができる。 Returning to FIG. 10, the moving object candidate block whose difference square sum is greater than or equal to the threshold among the blocks BC ij detected in step S2 is labeled (step S3). Labeling can be performed by setting a flag on a block that is a moving object candidate.

そして、ラベリングしたブロックである動体候補ブロックが隣接する領域を1つ領域(以下、ブロック連結領域という。)として連結し、このブロック連結領域のサイズが所定値以上であるか否かを判断する(ステップS4)。   Then, adjacent regions of moving object candidate blocks that are labeled blocks are connected as one region (hereinafter referred to as a block connection region), and it is determined whether or not the size of the block connection region is equal to or larger than a predetermined value ( Step S4).

このステップS4では、サイズが所定値未満であるブロック連結領域は、動体を示す領域ではないと判断する。即ち、ブロック連結領域の大きさが全て所定値未満である場合には、動体検出処理を終了する。ここでブロック連結領域の大きさとして、該領域に含まれる動体候補ブロックの合計ブロック数(ラベル数)を使用することができる。   In this step S4, it is determined that the block connection area whose size is less than the predetermined value is not an area showing a moving object. That is, when all the sizes of the block connection areas are less than the predetermined value, the moving object detection process is terminated. Here, as the size of the block connection area, the total number of blocks (number of labels) of the moving object candidate blocks included in the area can be used.

そして、このステップS4にて所定の大きさ以上であるブロック連結領域が複数検出された場合には、そのなかで最も大きい領域を動体が存在する領域として検出するためのターゲットとして選択する(ステップS5)。   When a plurality of block connection areas having a predetermined size or more are detected in step S4, the largest area among them is selected as a target for detecting a moving object area (step S5). ).

通常の画素単位でラベリングを行う場合では、ラベリングされた領域の細かい凹凸や溝の削除をするため、ラベリングされた画素の例えば4近傍又は8近傍を連結させたり削除したりする膨張・収縮処理等が必要となり、計算量が大きくなってしまう。一方、本実施の形態においては、ブロック単位でラベリングするため、ラベリングされた動体候補ブロックの連結性を改善すると共に、上述の膨張・収縮処理等が不要となり、ラベリング等に要する時間を低減することができる。   When labeling is performed in a normal pixel unit, in order to delete fine irregularities and grooves in the labeled area, for example, expansion / contraction processing that connects or deletes, for example, 4 neighborhoods or 8 neighborhoods of the labeled pixels. Is required and the amount of calculation becomes large. On the other hand, in the present embodiment, since labeling is performed in units of blocks, the connectivity of labeled moving object candidate blocks is improved, and the above-described expansion / contraction processing is unnecessary, thereby reducing the time required for labeling and the like. Can do.

図13は、ラベリング結果の一例を示す図である。図13に示すように、ラベリングの結果、隣接する動体候補ブロックを連結させたブロック連結領域S1〜S3が検出され、例えばブロック連結領域S1が10ブロック、ブロック連結領域S2が3ブロック、ブロック連結領域が1ブロックからなる場合、ブロック連結領域Saが最も大きく、動体領域として動体領域とすべきターゲット(動体候補領域)としてステップS5にて選択される。   FIG. 13 is a diagram illustrating an example of a labeling result. As shown in FIG. 13, as a result of labeling, block connection areas S1 to S3 obtained by connecting adjacent moving object candidate blocks are detected. For example, the block connection area S1 is 10 blocks, the block connection area S2 is 3 blocks, and the block connection area Is composed of one block, the block connection area Sa is the largest, and is selected as a moving object area as a moving object area (moving object candidate area) in step S5.

ここで、例えばブロック連結領域Scは、動体とするには小さすぎ、ノイズと判断されステップS4にてキャンセルされる領域となり、ブロック連結領域Sbは、ステップS4にてキャンセルはされなかったものの、ステップS5において、ブロック連結領域Saより小さいため、例えば分離されたその他の動体とされてターゲットから除かれる。   Here, for example, the block connection area Sc is too small to be a moving object and is determined to be noise and is canceled in step S4, and the block connection area Sb is not canceled in step S4. In S5, since it is smaller than the block connection area Sa, for example, it is regarded as another separated moving body and removed from the target.

図10に戻って、最後に、ターゲットとされたブロック連結領域が動体であるか否かの最終判定を行う(ステップS6)。この判定では、例えば、
条件1:ブロック連結領域の画像に対する占有率が30%より大きい
条件2:ターゲットの縦又は横の広がりが画像の縦又は横の大きさの70%以上
条件3:ラベル数が極端に多い
の3つの条件に合致する場合にステップS5にてターゲットとしたブロック連結領域を検出対象とせず、動体検出処理を終了する。一方、ブロック連結領域が以上の条件に当てはまらない場合には、当該ブロック連結領域を動体領域として検出する。
Returning to FIG. 10, finally, it is determined whether or not the target block connection area is a moving object (step S6). In this determination, for example,
Condition 1: Occupancy ratio of the block connection area to the image is larger than 30% Condition 2: The vertical or horizontal spread of the target is 70% or more of the vertical or horizontal size of the image Condition 3: The number of labels is extremely large 3 If the two conditions are met, the block connection area targeted in step S5 is not detected, and the moving object detection process is terminated. On the other hand, when the block connection area does not satisfy the above conditions, the block connection area is detected as a moving object area.

ここで、上記条件1において、ブロック連結領域が画像に占める割合が30%より大きい場合は、例えばロボット装置1のカメラ20の前で物体が動いたような場合が想定でき、そのように近くの物体をトラッキングのターゲットとしないよう、検出対象とせずにキャンセルするものである。   Here, in the above condition 1, when the ratio of the block connection area to the image is larger than 30%, for example, it can be assumed that an object moves in front of the camera 20 of the robot apparatus 1, so The object is canceled without being a detection target so that the object is not a tracking target.

また、条件2において、ブロック連結領域の画像に対する占有率が30%以下であったとしても、そのブロック連結領域の水平方向の広がりが画像の水平方向の大きさの70%より大きかったり、ブロック連結領域の垂直方向の広がりが画像の垂直方向の大きさの70%より大きく、ブロック連結領域が高域に広がっているような場合を示す。これは、例えば、上述のような歩行可能なロボット装置1であると、サーボモータ等が微振動し、それがカメラ20等に伝わり、結果として、画像のエッジ部分のブロックが動体候補として検出されてしまうことにより、これらが連結された場合等が挙げられる。従って、このようにブロック連結領域の水平方向及び垂直方向の広がりが大きいものもターゲットとすべきではないとして検出対象とせずにキャンセルする。   In condition 2, even if the occupation ratio of the block connection area with respect to the image is 30% or less, the horizontal expansion of the block connection area is larger than 70% of the horizontal size of the image. The case where the vertical extent of the region is larger than 70% of the size of the image in the vertical direction and the block connection region is spread in a high region is shown. For example, in the case of the robot device 1 that can be walked as described above, the servo motor or the like vibrates slightly, which is transmitted to the camera 20 or the like, and as a result, the block at the edge portion of the image is detected as a moving object candidate. For example, there are cases where these are connected. Accordingly, such a block connecting area having a large horizontal and vertical spread should be canceled without being detected as a target.

更に、条件3においては、ステップS2にて動体候補ブロックと判定されたものについてステップS3にてラベリングを行うが、このラベリングされた動体候補ブロックの数が極端に多い場合、例えば、複数の動体が撮像範囲内に含まれるような場合が想定されるが、そのような場合も、ロボット装置1として、ブロック連結領域をトラッキングするには適切ではない判断とし、検出対象とせずにキャンセルするようにする。   Furthermore, in the condition 3, for those determined as moving object candidate blocks in step S2, labeling is performed in step S3. If the number of labeled moving object candidate blocks is extremely large, for example, a plurality of moving objects are included. Although the case where it is included in the imaging range is assumed, also in such a case, the robot apparatus 1 determines that it is not appropriate for tracking the block connection area, and cancels it without setting it as a detection target. .

そして、キャンセルされずに残ったロック隣接領域を動体が存在する動体領域として検出する。このように、ラベリングを行い、検出対象としない各条件に当てはめることにより、複数の動体を分離し、ノイズを除去すると共に、画面全体を占めるような大きな動体や、複数の小さな動体をトラッキング対象から排除し、モータの微振動による誤検出を防止することができる。   And the lock adjacent area | region which remained without being canceled is detected as a moving body area | region where a moving body exists. In this way, by labeling and applying to each condition that is not subject to detection, multiple moving objects are separated, noise is removed, and large moving objects that occupy the entire screen or multiple small moving objects are removed from the tracking target. This eliminates erroneous detection due to slight motor vibration.

こうして検出された動体領域の情報が、上述したように行動モデルライブラリ70に伝えられ、行動切替モジュール71にて行動が決定され、例えばトラッキングモジュールに対して、上記動体領域(動体)をトラッキングするよう行動コマンドが出力される。   The information on the moving object area thus detected is transmitted to the action model library 70 as described above, and the action is determined by the action switching module 71. For example, the moving object area (moving object) is tracked with respect to the tracking module. An action command is output.

図14は、検出された動体領域を説明するための図である。図14に示すように、画像110は、動体候補ブロックが連結され、ステップS4にて動体を示す領域と判断されたブロック連結領域111、112、113を有するものとする。これら3つのブロック隣接領域111、112、113は、上述したように、ステップ5にて、最も大きい領域であるブロック連結領域111が動体候補領域とされ、ステップS6に示す所定の条件を満たすとして動体として検出されたものとする。   FIG. 14 is a diagram for explaining the detected moving body region. As illustrated in FIG. 14, the image 110 includes block connection regions 111, 112, and 113 that are connected to moving object candidate blocks and are determined to be moving object regions in step S <b> 4. As described above, in these three block adjacent regions 111, 112, and 113, the block connection region 111 that is the largest region is set as a moving object candidate region in step 5, and the moving object is assumed to satisfy the predetermined condition shown in step S6. Is detected.

ここで、トラッキングモジュール71は、この動体領域111における重心位置を求め、その重心位置の水平方向位置及び垂直方向位置を検出し、頭部ユニット4を回転して上記重心位置がカメラ20の撮像画像の中心となるよう、カメラトラッキングを開始することができる。即ち、トラッキングモジュール71は、上記重心位置に応じて、首等を回転させるアクチュエータ26を制御する制御信号を生成し、トラッキングを制御するものである。 Here, the tracking module 71 obtains the center of gravity position in the moving body region 111, detects the horizontal position and the vertical position of the center of gravity position, rotates the head unit 4, and the center of gravity position is the captured image of the camera 20. The camera tracking can be started so that it becomes the center of. That is, the tracking module 71 are those in accordance with the gravity center position, it generates a control signal for controlling the actuator 26 n for rotating the neck or the like, to control the tracking.

ここで、例えばロボット装置1において、ミドル・ウェア・レイヤ40における他の機能が使用されておらず、動体検出のみを実行している場合、又は演算処理に余裕があるような場合であってリソースが競合しない範囲で他の動作を発現することができるような状態である場合等において、検出した動体領域の大きさに応じて異なる動作を発現するようにしておいてもよい。   Here, for example, in the robot apparatus 1, when other functions in the middleware layer 40 are not used and only the moving object detection is performed, or when there is a margin in the arithmetic processing, the resource In a state where other motions can be expressed within a range where no conflict occurs, different motions may be expressed depending on the size of the detected moving body region.

例えば、動体領域の大きさと、それに応じて発現する行動とを下記表1のように設定することができる。   For example, the size of the moving body region and the behavior that appears in response thereto can be set as shown in Table 1 below.

Figure 2005078377
Figure 2005078377

上記表1に示すように、ステップS3にてラベリングされステップS4にて連結されたブロック連結領域の画像に占める占有率が6%未満である場合(レベルL1)は、ステップS4にてターゲットとしてふさわしくないものとしてキャンセルされる。また、占有率が30%より大きい場合(レベルL6)にも、ステップS6にてターゲットとして不適当とされキャンセルされる。   As shown in Table 1 above, if the occupancy ratio of the block connected region labeled in step S3 and connected in step S4 is less than 6% (level L1), it is suitable as a target in step S4. Canceled as no. Also, if the occupation ratio is greater than 30% (level L6), it is deemed inappropriate as a target and canceled in step S6.

一方、占有率が6%以上12%未満である場合(レベルL2)は、トラッキングモジュール62により首による動体のカメラトラッキングを開始する。更に、動体領域が12%以上18%未満である場合(レベルL3)には、首による動体トラッキングに加え、例えば図1に示す尻尾部5を振ったり、耳をパタパタしたりする等、興味を示している仕草等を示す動作を合わせて発現するようにする。   On the other hand, when the occupation ratio is 6% or more and less than 12% (level L2), the tracking module 62 starts camera tracking of the moving object by the neck. Furthermore, when the moving object region is 12% or more and less than 18% (level L3), in addition to moving object tracking by the neck, for example, the tail 5 shown in FIG. 1 is shaken or the ear is fluttered. The action indicating the indicated gesture is also expressed.

また、占有率が18%以上24%未満である場合(レベルL4)は、首による動体のカメラトラッキングに加え、動体を発見したことを示す反応として、スピーカ24等から音を出力したり、LED等の発光手段を発光させる等の動作を発現する。   When the occupation ratio is 18% or more and less than 24% (level L4), in addition to the camera tracking of the moving object by the neck, a sound is output from the speaker 24 or the like as a reaction indicating that the moving object has been detected, The operation of causing the light emitting means such as light to emit light is exhibited.

更に、占有率が24%以上30%未満である場合(レベルL5)は、例えば、実際に動体の移動方向に移動したり、動体に近づいて動体に触れたり、動体を蹴ったりする等の動作を発現することで、更に積極的なインタラクションを図るようにする。または、首による動体のカメラトラキングに加え、レベルL2により発現される動作及びレベルL3により発現される動作を合わせて行うようにしたり、尻尾部5の振り方を大きくしたり、発光手段により複数色の光を順次点灯させるようにしてもよい。なお、動体の移動方向に移動したり、動体に近づいたりする場合は、ロボット装置1自体が移動するため、動体検出が困難になる。そのような場合には、動体に近づいた時点、動体に触れた時点等、ロボット装置1が移動を停止した時点で再び動体検出を開始するようにすればよい。例えば動体に近づく動作等により動体検出を停止した後、次に動体検出を再開するまでの間が短い場合等は、例えば自身の移動速度と検出されていた動体の移動速度とから、再び動体が検出可能とされる位置を予測する等して動体検出を開始するようにしてもよい。   Furthermore, when the occupation ratio is 24% or more and less than 30% (level L5), for example, an action such as actually moving in the moving direction of the moving object, approaching the moving object, touching the moving object, or kicking the moving object By expressing, we will try to promote more active interaction. Alternatively, in addition to the camera tracking of the moving body by the neck, the operation expressed by the level L2 and the operation expressed by the level L3 may be performed together, the manner of swinging the tail 5 may be increased, or a plurality of light emitting means may be used. You may make it light a color light sequentially. When moving in the moving direction of the moving object or approaching the moving object, the robot apparatus 1 itself moves, so that it is difficult to detect the moving object. In such a case, the moving object detection may be started again when the robot apparatus 1 stops moving, such as when it approaches the moving object or when it touches the moving object. For example, if the time period from when moving object detection is stopped by an action approaching the moving object until the next time when moving object detection is restarted is short, for example, the moving object is again detected from its own moving speed and the moving speed of the moving object that was detected. The moving object detection may be started by predicting a position where detection is possible.

本実施の形態においては、現画像と1つ前のフレームである前画像との画素毎の差分値を求め、これをブロック単位で閾値処理し、所定の閾値以上であるブロックにフラグを付してラベリングする。そして、ラベリングした動体候補ブロックのうち隣接するブロックを連結したブロック連結領域とし、所定の大きさのもののみ動体領域として検出すべきターゲットとする。このように、ブロック単位で閾値処理し、ラベリングを行うことにより、画素単位で行う場合に比して、閾値判定する対象が少なく、連結処理の際に膨張・収縮等も不要となり演算量を削減することができる。   In this embodiment, a difference value for each pixel between the current image and the previous image which is the previous frame is obtained, and this is subjected to threshold processing in units of blocks, and a flag is attached to a block which is equal to or greater than a predetermined threshold. And label. Then, among the labeled moving object candidate blocks, the adjacent blocks are connected to each other as a block connection region, and only a predetermined size is a target to be detected as the moving object region. In this way, threshold processing is performed in units of blocks and labeling is performed, so that there are fewer targets for threshold judgment than in the case of performing processing in units of pixels, and expansion / contraction is not required during connection processing, reducing the amount of computation. can do.

更に、ターゲットとするブロック連結領域が複数ある場合は、最も大きいもの選択し、更にその選択したターゲットが、所定の大きさ未満であって、画面全体に広がりすぎず、更に先に判定された動体候補ブロックの数が所定数以下である場合にのみ、ターゲットを動体領域として検出するため、トラッキング対象として適切な動体のみを正確に検出することができる。更に、上述のブロック単位で閾値処理をする際に、閾値を下げて感度を上げても、後段において、ラベリングされたブロック数が多すぎたり、ターゲットとする領域が大きすぎたり、広がりすぎたりするような場合にはこれをキャンセルする処理を有するので、ちょっとした動きでも検出できると共に、トラッキングするのみふさわしい動体領域のみを正確に検出することができる。   Furthermore, when there are a plurality of target block connection areas, the largest one is selected, and the selected target is smaller than the predetermined size and does not spread over the entire screen, and the moving object determined earlier. Only when the number of candidate blocks is equal to or less than the predetermined number, the target is detected as a moving object region, so that only a suitable moving object as a tracking target can be accurately detected. Furthermore, when threshold processing is performed in units of blocks as described above, even if the sensitivity is increased by lowering the threshold value, there are too many labeled blocks, the target area is too large, or the target area is too large. In such a case, since a process for canceling this is included, even a slight movement can be detected, and only a moving object region suitable for tracking can be detected accurately.

更に、ロボット装置が検出された結果に応じ、カメラで動体をトラッキングするのみでなく更に異なる動作を合わせて発現するようにすることで、ロボット装置1の近くで動いている動体に対してより自然で生物らしいインタラクションが可能となる。   Furthermore, according to the detection result of the robot apparatus, not only the moving object is tracked by the camera but also different movements are expressed together, so that the moving object moving near the robot apparatus 1 is more natural. And lifelike interactions are possible.

本発明の実施の形態におけるロボット装置の外観構成を示す斜視図である。It is a perspective view which shows the external appearance structure of the robot apparatus in embodiment of this invention. 同ロボット装置の回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of the robot apparatus. 同ロボット装置のソフトウェア構成を示すブロック図である。3 is a block diagram showing a software configuration of the robot apparatus. FIG. 同ロボット装置のソフトウェア構成におけるミドル・ウェア・レイヤの構成を示すブロック図である。It is a block diagram which shows the structure of the middleware layer in the software structure of the robot apparatus. 同ロボット装置のソフトウェア構成におけるアプリケーション・レイヤの構成を示すブロック図である。It is a block diagram which shows the structure of the application layer in the software structure of the robot apparatus. 同アプリケーション・レイヤの行動モデルライブラリの構成を示すブロック図である。It is a block diagram which shows the structure of the action model library of the application layer. 同ロボット装置の行動決定のための情報となる有限確率オートマトンを説明するために使用した図である。It is the figure used in order to demonstrate the finite probability automaton used as the information for the action determination of the robot apparatus. 有限確率オートマトンの各ノードに用意された状態遷移表を示す図である。It is a figure which shows the state transition table prepared for each node of a finite probability automaton. 同ロボット装置における動体検出処理に関わる要部のみを示すブロック図である。It is a block diagram which shows only the principal part in connection with the moving body detection process in the robot apparatus. 本発明の実施の形態における動体検出方法を示すフローチャートである。It is a flowchart which shows the moving body detection method in embodiment of this invention. 同動体検出処理において動体候補ブロックを検出する方法を説明するための図である。It is a figure for demonstrating the method to detect a moving body candidate block in the moving body detection process. 同動体検出処理において、各ブロック毎に差分を算出する方法を説明する図である。It is a figure explaining the method of calculating a difference for every block in the moving body detection process. 同動体検出処理において、ブロック分割された後、動体候補ブロックとしてラベリングされた結果の一例を示す図である。It is a figure which shows an example of the result labeled as a moving body candidate block after dividing into blocks in the moving body detection process. 同動体検出処理において検出された動体領域を説明するための図である。It is a figure for demonstrating the moving body area | region detected in the moving body detection process.

符号の説明Explanation of symbols

1 ロボット装置、10 CPU、11 DRAM、14 信号処理部、 20 CCDカメラ、26〜26 アクチュエータ、30 デバイス・ドライバ・レイヤ、32 ロボティック・サーバ・オブジェクト33 バーチャル・ロボット装置、40 ミドル・ウェア・レイヤ、41 アプリケーション・レイヤ、57 動き検出オブジェクト、62 トラッキングモジュール、68 出力セマンティクスコンバータモジュール、70 行動モデルライブラリ、71 行動切り替えモジュール 1 robot device, 10 CPU, 11 DRAM, 14 signal processing unit, 20 CCD camera, 26 1 ~ 26 n actuators, 30 device driver layer, 32 robotic server object 33 virtual robot apparatus 40 middleware -Layer, 41 Application layer, 57 Motion detection object, 62 Tracking module, 68 Output semantic converter module, 70 Behavior model library, 71 Behavior switching module

Claims (20)

撮像手段によって撮像された時間軸上で隣接する画像間の差分を複数の画素からなるブロック毎に求めたブロック差分値を算出するブロック差分値算出手段と、
上記ブロック差分値が所定の閾値以上であるブロックを動体候補ブロックとし、該動体候補ブロックが隣接してなるブロック連結領域を動体領域として検出する動体検出手段とを有する
ことを特徴とする動体検出装置。
A block difference value calculating means for calculating a block difference value obtained for each block composed of a plurality of pixels, the difference between adjacent images taken on the time axis imaged by the imaging means;
A moving object detecting device comprising: a block having a block difference value equal to or greater than a predetermined threshold value as a moving object candidate block; and a moving object detecting unit that detects a block connection area formed by adjacent moving object candidate blocks as a moving object area .
上記動体検出手段は、上記ブロック連結領域に含まれるブロック数が所定の閾値以上であるか否かを判定し、該所定の閾値以上であるブロック連結領域を上記動体領域とする
ことを特徴とする請求項1記載の動体検出装置。
The moving object detection means determines whether or not the number of blocks included in the block connection area is equal to or greater than a predetermined threshold, and sets the block connection area that is equal to or greater than the predetermined threshold as the moving object area. The moving object detection apparatus according to claim 1.
上記動体検出手段は、上記ブロック連結領域が複数存在する場合、最も大きい領域を上記動体領域として検出する
ことを特徴とする請求項1記載の動体検出装置。
The said moving body detection means detects the largest area | region as said moving body area | region, when there are two or more said block connection area | regions. The moving body detection apparatus of Claim 1 characterized by the above-mentioned.
上記動体検出手段は、上記画像に占める上記動体領域の大きさが所定の閾値以上である場合に当該動体領域を検出対象とせず、動体検出を終了する
ことを特徴とする請求項1記載の動体検出装置。
2. The moving object according to claim 1, wherein the moving object detection unit ends the moving object detection without setting the moving object area as a detection target when the size of the moving object area in the image is equal to or larger than a predetermined threshold. Detection device.
上記動体検出手段は、上記動体領域の水平方向又は垂直方向の大きさが所定の閾値以上である場合に当該動体領域を検出対象とせず、動体検出を終了する
ことを特徴とする請求項1記載の動体検出装置。
The moving object detection means ends the moving object detection without setting the moving object region as a detection target when the horizontal or vertical size of the moving object region is equal to or larger than a predetermined threshold value. Moving object detection device.
上記動体検出手段は、上記動体候補ブロック数が所定の閾値以上である場合に当該動体領域を検出対象とせず、動体検出を終了する
ことを特徴とする請求項1記載の動体検出装置。
The moving object detection device according to claim 1, wherein the moving object detection unit ends moving object detection without setting the moving object region as a detection target when the number of moving object candidate blocks is equal to or greater than a predetermined threshold.
撮像手段によって撮像された時間軸上で隣接する画像間の差分を複数の画素からなるブロック毎に求めたブロック差分値を算出するブロック差分値算出工程と、
上記ブロック差分値が所定の閾値以上であるブロックを動体候補ブロックとし、該動体候補ブロックが隣接してなるブロック連結領域を動体領域として検出する動体検出工程とを有する
ことを特徴とする動体検出方法。
A block difference value calculating step for calculating a block difference value obtained for each block composed of a plurality of pixels, the difference between adjacent images taken on the time axis imaged by the imaging means;
A moving object detection method comprising: detecting a block having a block difference value equal to or greater than a predetermined threshold as a moving object candidate block, and detecting a block connection area formed by adjoining the moving object candidate blocks as a moving object area. .
上記動体検出工程では、上記ブロック連結領域に含まれるブロック数が所定の閾値以上であるか否かを判定し、該所定の閾値以上であるブロック連結領域を上記動体領域とする
ことを特徴とする請求項7記載の動体検出方法。
In the moving object detection step, it is determined whether or not the number of blocks included in the block connection area is equal to or greater than a predetermined threshold, and the block connection area that is equal to or greater than the predetermined threshold is defined as the moving object area. The moving object detection method according to claim 7.
上記動体検出工程では、上記ブロック連結領域が複数存在する場合、最も大きい領域を上記動体領域として検出する
ことを特徴とする請求項7記載の動体検出方法。
8. The moving object detection method according to claim 7, wherein in the moving object detection step, when there are a plurality of the block connection areas, the largest area is detected as the moving object area.
上記動体検出工程では、上記画像に占める上記動体領域の大きさが所定の閾値以上である場合に当該動体領域を検出対象とせず、動体検出を終了する
ことを特徴とする請求項7記載の動体検出方法。
8. The moving object according to claim 7, wherein in the moving object detection step, when the size of the moving object region in the image is equal to or greater than a predetermined threshold, the moving object region is not detected and the moving object detection is terminated. Detection method.
上記動体検出工程では、上記動体領域の水平方向又は垂直方向の大きさが所定の閾値以上である場合に当該動体領域を検出対象とせず、動体検出を終了する
ことを特徴とする請求項7記載の動体検出方法。
8. The moving object detection step ends the moving object detection without setting the moving object region as a detection target when the horizontal or vertical size of the moving object region is equal to or greater than a predetermined threshold value. Motion detection method.
上記動体検出工程では、上記動体候補ブロック数が所定の閾値以上である場合に当該動体領域を検出対象とせず、動体検出を終了する
ことを特徴とする請求項7記載の動体検出方法。
8. The moving object detection method according to claim 7, wherein, in the moving object detection step, when the number of moving object candidate blocks is equal to or greater than a predetermined threshold, the moving object detection is terminated without setting the moving object region as a detection target.
行動を自律的に決定して発現するロボット装置において、
画像を撮像する撮像手段と、
上記撮像手段により撮像された時間軸上で隣接する画像間の差分に基づき動体を検出する動体検出手段とを有し、
上記動体検出手段は、複数の画素からなるブロック毎に、上記画像間の差分を求めたブロック差分値を算出するブロック差分値算出手段と、上記ブロック差分値が所定の閾値以上であるブロックを動体候補ブロックとし、該動体候補ブロックが隣接してなるブロック連結領域を動体領域として検出する動体検出手段とを有する
ことを特徴とするロボット装置。
In a robotic device that autonomously determines and expresses actions,
An imaging means for capturing an image;
Moving object detection means for detecting a moving object based on a difference between adjacent images taken on the time axis imaged by the imaging means;
The moving object detecting means includes a block difference value calculating means for calculating a block difference value obtained by calculating a difference between the images for each block including a plurality of pixels, and a block having the block difference value equal to or larger than a predetermined threshold. A robot apparatus comprising: a moving object detection unit configured to detect a block connection area formed by adjoining moving object candidate blocks as a moving object area.
上記動体検出手段は、上記ブロック連結領域に含まれるブロック数が所定の閾値以上であるか否かを判定し、該所定の閾値以上であるブロック連結領域を上記動体領域とする
ことを特徴とする請求項13記載のロボット装置。
The moving object detection means determines whether or not the number of blocks included in the block connection area is equal to or greater than a predetermined threshold, and sets the block connection area that is equal to or greater than the predetermined threshold as the moving object area. The robot apparatus according to claim 13.
上記動体検出手段は、上記ブロック連結領域が複数存在する場合、最も大きい領域を上記動体領域として検出する
ことを特徴とする請求項13記載のロボット装置。
The robot apparatus according to claim 13, wherein the moving object detecting unit detects the largest area as the moving object area when there are a plurality of the block connection areas.
上記動体検出手段は、上記画像に占める上記動体領域の大きさが所定の閾値以上である場合に当該動体領域を検出対象とせず、動体検出を終了する
ことを特徴とする請求項13記載のロボット装置。
The robot according to claim 13, wherein the moving object detection unit ends the moving object detection without setting the moving object area as a detection target when the size of the moving object area in the image is equal to or larger than a predetermined threshold. apparatus.
上記動体検出手段は、上記動体領域の水平方向又は垂直方向の大きさが所定の閾値以上である場合に当該動体領域を検出対象とせず、動体検出を終了する
ことを特徴とする請求項13記載のロボット装置。
The moving object detection means ends the moving object detection without setting the moving object region as a detection target when the horizontal or vertical size of the moving object region is equal to or greater than a predetermined threshold value. Robotic device.
上記動体検出手段は、上記動体候補ブロック数が所定の閾値以上である場合に当該動体領域を検出対象とせず、動体検出を終了する
ことを特徴とする請求項13記載のロボット装置。
The robot apparatus according to claim 13, wherein the moving object detecting unit ends moving object detection without setting the moving object region as a detection target when the number of moving object candidate blocks is equal to or greater than a predetermined threshold.
上記動体検出手段の検出結果を上記行動に反映させる制御手段を有する
ことを特徴とする請求項13記載のロボット装置。
The robot apparatus according to claim 13, further comprising a control unit that reflects a detection result of the moving object detection unit in the action.
上記制御手段は、検出された上記動体領域の大きさに応じた異なる行動を発現させる
ことを特徴とする請求項19記載のロボット装置。
The robot apparatus according to claim 19, wherein the control unit develops different behaviors according to the detected size of the moving body region.
JP2003307926A 2003-08-29 2003-08-29 Moving object detection apparatus, moving object detection method, and robot apparatus Expired - Lifetime JP4379052B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003307926A JP4379052B2 (en) 2003-08-29 2003-08-29 Moving object detection apparatus, moving object detection method, and robot apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003307926A JP4379052B2 (en) 2003-08-29 2003-08-29 Moving object detection apparatus, moving object detection method, and robot apparatus

Publications (3)

Publication Number Publication Date
JP2005078377A true JP2005078377A (en) 2005-03-24
JP2005078377A5 JP2005078377A5 (en) 2006-08-10
JP4379052B2 JP4379052B2 (en) 2009-12-09

Family

ID=34410568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003307926A Expired - Lifetime JP4379052B2 (en) 2003-08-29 2003-08-29 Moving object detection apparatus, moving object detection method, and robot apparatus

Country Status (1)

Country Link
JP (1) JP4379052B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8179442B2 (en) 2005-05-26 2012-05-15 Sony Corporation Imaging device and method for performing surveillance by infrared radiation measurement
JP2012133587A (en) * 2010-12-21 2012-07-12 Canon Inc Image analysis device, image analysis method and program
CN113870315A (en) * 2021-10-18 2021-12-31 南京硅基智能科技有限公司 Training method of action migration model and action migration method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023248697A1 (en) * 2022-06-24 2023-12-28 ソニーグループ株式会社 Information processing device, information processing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8179442B2 (en) 2005-05-26 2012-05-15 Sony Corporation Imaging device and method for performing surveillance by infrared radiation measurement
JP2012133587A (en) * 2010-12-21 2012-07-12 Canon Inc Image analysis device, image analysis method and program
CN113870315A (en) * 2021-10-18 2021-12-31 南京硅基智能科技有限公司 Training method of action migration model and action migration method
CN113870315B (en) * 2021-10-18 2023-08-25 南京硅基智能科技有限公司 Multi-algorithm integration-based action migration model training method and action migration method

Also Published As

Publication number Publication date
JP4379052B2 (en) 2009-12-09

Similar Documents

Publication Publication Date Title
US7062356B2 (en) Robot apparatus, control method for robot apparatus, and toy for robot apparatus
US7532743B2 (en) Object detector, object detecting method and robot
JP4032793B2 (en) Charging system, charging control method, robot apparatus, charging control program, and recording medium
JP3714268B2 (en) Robot device
JP3855812B2 (en) Distance measuring method, apparatus thereof, program thereof, recording medium thereof, and robot apparatus mounted with distance measuring apparatus
JP2004133637A (en) Face detector, face detection method and program, and robot apparatus
JP4239635B2 (en) Robot device, operation control method thereof, and program
KR20010095176A (en) Robot and action deciding method for robot
JP2002239963A (en) Robot device and its action control method, program, and recoding medium of robot device
JP2009157948A (en) Robot apparatus, face recognition method, and face recognition apparatus
JP2004298975A (en) Robot device and obstacle searching method
JP2004302644A (en) Face identification device, face identification method, recording medium and robot device
JP2003136456A (en) Robot device, brightness detection method of robot device, brightness detection program and recording medium
JP4379052B2 (en) Moving object detection apparatus, moving object detection method, and robot apparatus
JP2004130427A (en) Robot device and method for controling operation of robot device
WO2002030629A1 (en) Robot apparatus, information display system, and information display method
JP2003271958A (en) Method and processor for processing image, program therefor, recording medium therefor, and robot system of type mounted with image processor
JP4779226B2 (en) ROBOT DEVICE, IMAGE STORAGE METHOD, IMAGE STORAGE DEVICE, CONTROL PROGRAM, AND RECORDING MEDIUM
JP2004302645A (en) Face registration device, face registration method, recording medium and robot device
JP4193098B2 (en) TRACKING DEVICE, TRACKING DEVICE TRACKING METHOD, AND ROBOT DEVICE
JP2002239952A (en) Robot device, action control method for robot device, program, and recording medium
JP2001157980A (en) Robot device, and control method thereof
JP2002205289A (en) Action control method for robot device, program, recording medium and robot device
JP2004130426A (en) Robot device and its operation control method
JP2001154707A (en) Robot device and its controlling method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090825

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090907

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3