JP2002251615A - Device and method for processing image, robot device, and method for controlling the same - Google Patents

Device and method for processing image, robot device, and method for controlling the same

Info

Publication number
JP2002251615A
JP2002251615A JP2001046788A JP2001046788A JP2002251615A JP 2002251615 A JP2002251615 A JP 2002251615A JP 2001046788 A JP2001046788 A JP 2001046788A JP 2001046788 A JP2001046788 A JP 2001046788A JP 2002251615 A JP2002251615 A JP 2002251615A
Authority
JP
Japan
Prior art keywords
image
detection
movement amount
image processing
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001046788A
Other languages
Japanese (ja)
Other versions
JP4618470B2 (en
Inventor
Kotaro Sabe
浩太郎 佐部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001046788A priority Critical patent/JP4618470B2/en
Publication of JP2002251615A publication Critical patent/JP2002251615A/en
Application granted granted Critical
Publication of JP4618470B2 publication Critical patent/JP4618470B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a device and method for processing an image capable of accurately detecting a moving body in an image, and provide a robot and a method for controlling the same capable of improving an entertainment property. SOLUTION: The device and method for processing an image detects a moving quantity of a whole image on the basis of image information, and detects a movement in the image by performing a predetermined movement detecting process which considers a detection result. The robot device and the method for controlling the same detects a moving quantity of the whole image on the basis of image information outputted from an imaging means for imaging an external, detects a movement in an image by performing a predetermined movement detecting process which considers a detection result, and reflects the detection result to an action.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置及び方
法並びにロボット装置及びその制御方法に関し、例えば
4足歩行型のロボット装置に適用して好適なものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method, a robot apparatus and a control method therefor, and is suitably applied to, for example, a four-legged robot apparatus.

【0002】[0002]

【従来の技術】近年、ユーザからの指令や周囲の環境に
応じて行動を行う4足歩行型のペットロボットが本願特
許出願人によって開発されている。
2. Description of the Related Art In recent years, a pet robot of a four-legged walking type that performs an action in response to a command from a user or the surrounding environment has been developed by the present applicant.

【0003】かかるペットロボットは、CCD(Charge
Coupled Device )カメラやマイクロホンを搭載してお
り、当該CCDカメラによって撮像した周囲の状況や、
マイクロホンにより集音したユーザからの指令音及び周
囲音等に基づいて周囲の状況やユーザからの指令の有無
を判断し、この判断結果に基づいて自律的に行動を決定
してこれを発現するようになされたものである。
[0003] Such a pet robot is a CCD (Charge).
Coupled Device) A camera and microphone are mounted, and the surrounding conditions captured by the CCD camera,
Based on the command sound from the user and surrounding sounds collected by the microphone, the surrounding situation and the presence or absence of the command from the user are determined, and the action is autonomously determined based on the determination result and expressed. It was done in.

【0004】[0004]

【発明が解決しようとする課題】ところで画像処理によ
って画像内の動体を検出する方法としては、従来から種
々の方法が提案され、実用化されている。そしてこれら
の方法は、大きく分けて、画像フレーム間で画素の差分
をとる第1の方法と、時空間フィルタを用いて画像上の
任意の点におけるオプティカルフローを求める第2の方
法と、フレーム間で小領域のマッチングを行い、その領
域の動きを求める第3の方法の3つに分けることができ
る。この場合、これらのいずれの方法も画像を撮像する
ためのカメラが固定されており、検出された動きが外界
の動きであることが前提となっている。
As a method of detecting a moving object in an image by image processing, various methods have been conventionally proposed and put to practical use. These methods are roughly divided into a first method of obtaining a pixel difference between image frames, a second method of obtaining an optical flow at an arbitrary point on an image using a spatio-temporal filter, In the third method, the matching of the small area is performed, and the motion of the small area is obtained. In this case, any of these methods is based on the premise that the camera for capturing an image is fixed and the detected motion is an external motion.

【0005】しかしながら例えば上述のペットロボット
のように、それぞれ多自由度関節を有するロボットで
は、搭載されたCCDカメラが当該ロボットの動作に伴
って大きくかつ複雑に動いてしまう。
[0005] However, in a robot having a multi-degree-of-freedom joint, for example, such as the above-mentioned pet robot, the mounted CCD camera moves large and complicated with the operation of the robot.

【0006】このためかかるペットロボットにおいて、
上述のような第1〜第3の方法によって画像内の動体を
検出しようとすると、フレーム間で画像全体が大きく動
くことから実際に動体を撮像していてもその動きを検出
することは困難であった。またこれとは逆に、周囲に動
きがなくとも自己の動作によって動体を誤検出する問題
もあった。
Therefore, in such a pet robot,
When trying to detect a moving object in an image by the first to third methods as described above, it is difficult to detect the movement even if the moving object is actually imaged because the entire image greatly moves between frames. there were. On the contrary, there is also a problem that a moving object is erroneously detected by its own operation even if there is no movement around.

【0007】そしてペットロボットにおいて、上述のよ
うに動体を精度良く検出し得ないと、実際には周囲に動
体が存在しないにも係わらずあたかも動体があるかのよ
うな行動を発現したり、逆に周囲に動体が存在している
にも係わらず動体がないかのような行動を発現するな
ど、発現される行動が不自然となる問題があった。
If the moving object cannot be accurately detected as described above, the pet robot may behave as if the moving object is present even though the moving object does not actually exist around the pet robot. However, there is a problem in that the expressed behavior becomes unnatural, such as the appearance of a behavior as if there is no moving body despite the presence of a moving body in the vicinity.

【0008】従ってかかるペットロボットにおいて、自
己の動作の有無に係わりなく、周囲に存在する動体を精
度良く検出し得るようにすることができれば、不自然な
行動が発現されるのを未然に防止して、そのエンターテ
イメント性をより向上させ得るものと考えられる。
Therefore, in such a pet robot, if it is possible to accurately detect a moving object existing in the surroundings regardless of the presence or absence of its own movement, it is possible to prevent the occurrence of unnatural behavior. Therefore, it is thought that the entertainment property can be further improved.

【0009】本発明は以上の点を考慮してなされたもの
で、画像内の動体を精度良く検出し得る画像処理装置及
び方法並びにエンターテイメント性を向上させ得るロボ
ット装置及びその制御方法を提案しようとするものであ
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and proposes an image processing apparatus and method capable of accurately detecting a moving object in an image, a robot apparatus capable of improving entertainment characteristics, and a control method thereof. Is what you do.

【0010】[0010]

【課題を解決するための手段】かかる課題を解決するた
め本発明においては、画像処理装置において、画像情報
に基づく画像全体の移動量を検出する第1の検出手段
と、第1の検出手段の検出結果を考慮した所定の動き検
出処理により、画像内の動きを検出する第2の検出手段
とを設けるようにした。この結果この画像処理装置で
は、画像全体の動きの有無に係わりなく、画像内の動体
を精度良く検出することができる。
According to the present invention, there is provided an image processing apparatus comprising: first detecting means for detecting a movement amount of an entire image based on image information; Second detection means for detecting a motion in an image by a predetermined motion detection process in consideration of the detection result is provided. As a result, the image processing apparatus can accurately detect a moving object in an image regardless of whether or not the entire image has moved.

【0011】また本発明においては、画像処理方法にお
いて、画像情報に基づく画像全体の移動量を検出する第
1のステップと、検出した移動量を考慮した所定の動き
検出処理により、画像内の動きを検出する第2のステッ
プとを設けるようにした。この結果この画像処理方法に
よれば、画像全体の動きの有無に係わりなく、画像内の
動体を精度良く検出することができる。
Further, in the present invention, in the image processing method, a first step of detecting a moving amount of the entire image based on image information and a predetermined motion detecting process in consideration of the detected moving amount are performed. And a second step of detecting As a result, according to this image processing method, it is possible to accurately detect a moving object in an image regardless of whether or not the entire image is moving.

【0012】さらに本発明においては、ロボット装置に
おいて、行動を自律的に決定して発現するロボット装置
において、外部を撮像する撮像手段から出力される画像
情報に基づく画像全体の移動量を検出する第1の検出手
段と、第1の検出手段の検出結果を考慮した所定の動き
検出処理により、画像内の動きを検出する第2の検出手
段とを設け、第2の検出手段の検出結果を行動に反映さ
せるようにした。この結果このロボット装置では、自己
の動作に伴う撮像手段の動きの有無に係わりなく、当該
撮像手段から出力される画像情報に基づく画像内の動体
を精度良く検出して、当該検出結果を反映した行動を行
うことができる。
Further, according to the present invention, in a robot apparatus which autonomously determines and expresses an action in a robot apparatus, a movement amount of an entire image based on image information output from an image pickup means for picking up an external image is detected. A first detecting means and a second detecting means for detecting a motion in an image by a predetermined motion detecting process in consideration of the detection result of the first detecting means, and the detection result of the second detecting means is used as an action. Was reflected in As a result, the robot device accurately detects a moving object in an image based on image information output from the imaging unit and reflects the detection result regardless of whether or not the imaging unit moves along with its own operation. You can take action.

【0013】さらに本発明においては、ロボット装置の
制御方法において、ロボットに搭載された撮像手段によ
り外部を撮像すると共に、当該撮像手段から出力される
画像情報に基づく画像全体の移動量を検出する第1のス
テップと、検出した移動量を考慮した所定の動き検出処
理により、画像内の動きを検出する第2のステップと、
第2のステップでの検出結果をロボット装置の行動に反
映させる第3のステップとを設けるようにした。この結
果このロボット装置の制御方法によれば、ロボット装置
の動作に伴う撮像手段の動きの有無に係わりなく、当該
撮像手段から出力される画像情報に基づく画像内の動体
を精度良く検出して、当該検出結果を反映した行動をロ
ボット装置に行わせることができる。
Further, according to the present invention, in the control method of the robot apparatus, the imaging means mounted on the robot captures an image of the outside and detects a moving amount of the entire image based on image information output from the imaging means. A first step, a second step of detecting a motion in the image by a predetermined motion detection process in consideration of the detected movement amount,
And a third step of reflecting the detection result in the second step to the behavior of the robot device. As a result, according to the control method of the robot device, regardless of whether or not the imaging device moves according to the operation of the robot device, the moving object in the image based on the image information output from the imaging device is accurately detected, The action reflecting the detection result can be performed by the robot device.

【0014】[0014]

【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0015】(1)本実施の形態によるペットロボット
の構成 図1において、1は全体として本実施の形態によるペッ
トロボットを示し、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A〜3Dが連結されると共に、胴体
部ユニット2の前端部及び後端部にそれぞれ頭部ユニッ
ト4及び尻尾部ユニット5が連結されることにより構成
されている。
(1) Configuration of Pet Robot According to the Present Embodiment In FIG. 1, reference numeral 1 denotes a pet robot according to the present embodiment as a whole, and leg units 3A to 3D are connected to the front, rear, left and right of body unit 2, respectively. The head unit 4 and the tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.

【0016】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit )10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read Only Memory)12、PC(Personal Com
puter )カードインターフェース13及び信号処理回路
14が内部バス15を介して相互に接続されることによ
り形成されたコントロール部16と、このペットロボッ
ト1の動力源としてのバッテリ17とが収納されてい
る。また胴体部ユニット2には、ペットロボット1の向
きや動きの加速度を検出するための角加速度センサ18
及び加速度センサ19なども収納されている。
As shown in FIG. 2, a CPU (Central Processing Unit) 10 and a DRA
M (Dynamic Random Access Memory) 11, Flash ROM (Read Only Memory) 12, PC (Personal Com
puter) A control unit 16 formed by connecting a card interface 13 and a signal processing circuit 14 to each other via an internal bus 15 and a battery 17 as a power source of the pet robot 1 are housed therein. The body unit 2 has an angular acceleration sensor 18 for detecting the acceleration of the direction and the movement of the pet robot 1.
And an acceleration sensor 19 are also stored.

【0017】また頭部ユニット4には、外部の状況を撮
像するためのCCDカメラ20と、ユーザからの「撫で
る」や「叩く」といった物理的な働きかけにより受けた
圧力を検出するためのタッチセンサ21と、前方に位置
する物体までの距離を測定するための距離センサ22
と、外部音を集音するためのマイクロホン23と、鳴き
声等の音声を出力するためのスピーカ24と、ペットロ
ボット1の外見上の「目」に相当する図示しないLED
(Light Emitting Diode)となどがそれぞれ所定位置に
配設されている。
The head unit 4 includes a CCD camera 20 for capturing an image of an external situation, and a touch sensor for detecting a pressure applied by a physical action such as “stroke” or “hit” from the user. 21 and a distance sensor 22 for measuring the distance to an object located ahead
, A microphone 23 for collecting external sounds, a speaker 24 for outputting a sound such as a cry, and an LED (not shown) corresponding to an external “eye” of the pet robot 1
(Light Emitting Diode) and the like are respectively arranged at predetermined positions.

【0018】さらに各脚部ユニット3A〜3Dの関節部
分や、脚部ユニット3A〜3D及び胴体部ユニット2の
各連結部分、頭部ユニット4及び胴体部ユニット2の連
結部分、並びに尻尾部ユニット5の尻尾5A(図1)の
付け根部分などにはそれぞれ自由度数分のアクチュエー
タ25(251、252、253……)及びポテンショメ
ータ26(261、262、263……)が配設されてい
る。
Further, joints of the leg units 3A to 3D, connecting portions of the leg units 3A to 3D and the body unit 2, connecting portions of the head unit 4 and the body unit 2, and a tail unit 5 Actuators 25 (25 1 , 25 2 , 25 3 ...) And potentiometers 26 (26 1 , 26 2 , 26 3 ...) Are provided at the base of the tail 5A (FIG. 1). Have been.

【0019】そしてこれら角速度センサ18、加速度セ
ンサ19、タッチセンサ21、距離センサ22、マイク
ロホン23、スピーカ24、LED、各アクチュエータ
25及び各ポテンショメータ26は、それぞれハブ27
(271〜27n)を介してコントロール部16の信号処
理回路14にツリー状に接続されている。またCCDカ
メラ20及びバッテリ17は、それぞれ信号処理回路1
4と直接接続されている。
The angular velocity sensor 18, the acceleration sensor 19, the touch sensor 21, the distance sensor 22, the microphone 23, the speaker 24, the LED, each actuator 25 and each potentiometer 26 are respectively connected to a hub 27.
They are connected to the signal processing circuit 14 of the control unit 16 in a tree shape via (27 1 to 27 n ). The CCD camera 20 and the battery 17 are respectively connected to the signal processing circuit 1
4 is directly connected.

【0020】このとき信号処理回路14は、角速度セン
サ18、加速度センサ19、タッチセンサ21、距離セ
ンサ22及び各ポテンショメータ26等の各種センサか
らそれぞれハブ27を介して供給されるセンサデータ
や、CCDカメラ20から供給される画像データ及びマ
イクロホン23から与えられる音声データを順次取り込
み、これらをそれぞれ内部バス15を介してDRAM1
1内の所定位置に順次格納する。また信号処理回路14
は、バッテリ17から供給されるバッテリ残量を表すバ
ッテリ残量データを順次取り込み、これをDRAM11
内の所定位置に格納する。
At this time, the signal processing circuit 14 includes sensor data supplied from various sensors such as an angular velocity sensor 18, an acceleration sensor 19, a touch sensor 21, a distance sensor 22, and potentiometers 26 via a hub 27, and a CCD camera. The image data supplied from the microphone 20 and the audio data supplied from the microphone 23 are sequentially fetched, and these are respectively transferred to the DRAM 1 via the internal bus 15.
1 is sequentially stored in a predetermined position. The signal processing circuit 14
Sequentially captures remaining battery power data indicating the remaining battery power supplied from the battery 17 and
Is stored in a predetermined position.

【0021】そしてこのようにDRAM11に格納され
た各センサデータ、画像データ、音声データ及びバッテ
リ残量データは、この後CPU10がこのペットロボッ
ト1の動作制御を行う際に利用される。
The sensor data, image data, voice data, and remaining battery data stored in the DRAM 11 are used when the CPU 10 controls the operation of the pet robot 1 thereafter.

【0022】実際上CPU10は、ペットロボット1の
電源が投入された初期時、胴体部ユニット2の図示しな
いPCカードスロットに装填されたメモリカード28又
はフラッシュROM12に格納された制御プログラムを
PCカードインターフェース13を介して又は直接読み
出し、これをDRAM11に展開する。
In practice, when the power of the pet robot 1 is turned on, the CPU 10 executes the control program stored in the memory card 28 or the flash ROM 12 inserted in the PC card slot (not shown) of the body unit 2 into the PC card interface. 13, or directly read out, and develops the data in the DRAM 11.

【0023】またCPU10は、この後上述のように信
号処理回路14よりDRAM11に順次格納される各種
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、ユーザから
の指示及び働きかけの有無などを判断する。
Further, the CPU 10 thereafter, based on the various sensor data, image data, audio data, and remaining battery power data sequentially stored in the DRAM 11 from the signal processing circuit 14 as described above, and from the user, Judge whether or not there is an instruction for and action.

【0024】さらにCPU10は、この判断結果及びD
RAM11に展開した制御プログラムに基づいて続く行
動を決定すると共に、当該決定結果に応じた第1の駆動
信号を生成してこれを必要なアクチュエータ25に送出
することにより、頭部ユニット4を上下左右に振らせた
り、尻尾部ユニット5の尻尾5Aを動かせたり、各脚部
ユニット3A〜3Dを駆動させて歩行させるなどの行動
を行わせる。
Further, the CPU 10 determines the result of this determination and D
The next action is determined based on the control program developed in the RAM 11, and the first drive signal corresponding to the determined result is generated and transmitted to the necessary actuator 25, so that the head unit 4 can be moved up, down, left and right. , The tail unit 5A of the tail unit 5 can be moved, and the leg units 3A to 3D are driven to walk.

【0025】またこの際CPU10は、必要に応じて音
声信号や第2の駆動信号を生成し、これらを信号処理回
路14を介してスピーカ24や「目」のLEDに与える
ことにより、当該音声信号に基づく音声を外部に出力さ
せたり、第2の駆動信号に基づいて当該LEDを点灯、
消灯又は点滅させる。
At this time, the CPU 10 generates an audio signal and a second drive signal as necessary, and supplies them to the speaker 24 and the LED of the “eye” through the signal processing circuit 14 so that the audio signal is generated. Output the sound based on the second, or turn on the LED based on the second drive signal,
Turn off or blink.

【0026】このようにしてこのペットロボット1にお
いては、自己及び周囲の状況や、ユーザからの指示及び
働きかけ等に応じて自律的に行動し得るようになされて
いる。
As described above, the pet robot 1 can behave autonomously in response to the situation of itself and the surroundings, instructions and actions from the user, and the like.

【0027】なお信号処理回路14の具体構成を図3に
示す。この図3からも明らかなように、信号処理回路1
4は、DMA(Direct Memory Access)コントローラ3
0、DSP(Digital Signal Processor)31、ペリフ
ェラルインターフェース32、タイマ33、FBK/C
DT(Filter Bank/Color Detection )34、IPE
(Inner Product Engin )35、シリアルバスホストコ
ントローラ36、シリアルバス37がバス38及び当該
バス38の使用権の調停を行うバスアービタ39を順次
介してバス40に接続されると共に、当該バス40がそ
れぞれDRAMインターフェース41、ホストインター
フェース42及びROMインターフェース43を介して
DRAM11(図2)、CPU10(図2)及びフラッ
シュROM12(図2)と接続され、かつペリフェラル
インターフェース32にパラレルポート44、バッテリ
マネージャ45及びシリアルポート46が接続されるこ
とにより構成されている。
FIG. 3 shows a specific configuration of the signal processing circuit 14. As is clear from FIG. 3, the signal processing circuit 1
4 is a DMA (Direct Memory Access) controller 3
0, DSP (Digital Signal Processor) 31, peripheral interface 32, timer 33, FBK / C
DT (Filter Bank / Color Detection) 34, IPE
(Inner Product Engin) 35, a serial bus host controller 36, and a serial bus 37 are sequentially connected to a bus 40 via a bus 38 and a bus arbiter 39 for arbitrating the right to use the bus 38, and the bus 40 is a DRAM. It is connected to the DRAM 11 (FIG. 2), the CPU 10 (FIG. 2), and the flash ROM 12 (FIG. 2) via the interface 41, the host interface 42, and the ROM interface 43, and the parallel interface 44, the battery manager 45, and the serial port are connected to the peripheral interface 32. 46 is connected.

【0028】この場合図2について上述した角速度セン
サ18、加速度センサ19、タッチセンサ21、距離セ
ンサ22、マイクロホン23、スピーカ24、各アクチ
ュエータ25及び各ポテンショメータ26等のデバイス
は、それぞれハブ27(27 1〜27n)を介してシリア
ルホストコントローラ36と接続されると共に、CCD
カメラ20(図2)はFBK/CDT34と接続され、
かつバッテリ17(図2)はバッテリマネージャ45と
接続されている。
In this case, the angular velocity sensor described with reference to FIG.
Sensor 18, acceleration sensor 19, touch sensor 21, distance sensor
Sensor 22, microphone 23, speaker 24, each activator
Devices such as a heater 25 and each potentiometer 26
Is the hub 27 (27 1~ 27n) Through Syria
Connected to the host controller 36 and a CCD
The camera 20 (FIG. 2) is connected to the FBK / CDT 34,
The battery 17 (FIG. 2) is connected to the battery manager 45.
It is connected.

【0029】そしてシリアルホストコントローラ36
は、接続された各デバイスのうち、角速度センサ18、
加速度センサ19、タッチセンサ21、距離センサ22
及び各ポテンショメータ26等の各センサからそれぞれ
与えられるセンサデータを順次取り込み、データの転送
を司るバスマスタとして機能するDMAコントローラ3
0の制御のもとに、これらセンサデータをバス38、バ
スアービタ39、バス40及びDRAMインターフェー
ス41を順次介してDRAM11に与えて記憶させる。
Then, the serial host controller 36
Is an angular velocity sensor 18 among the connected devices,
Acceleration sensor 19, touch sensor 21, distance sensor 22
And a DMA controller 3 functioning as a bus master for transferring data by sequentially taking in sensor data given from each sensor such as each potentiometer 26 and the like.
Under the control of 0, these sensor data are sequentially provided to the DRAM 11 via the bus 38, the bus arbiter 39, the bus 40 and the DRAM interface 41 and stored therein.

【0030】またシリアルホストコントローラ36は、
マイクロホン23から与えられる音声データをDSP3
1に送出すると共に、当該DSP31は、供給されるホ
ストコントローラ36から与えられる音声データに対し
て所定のデータ処理を施し、その処理結果でなる音声デ
ータを、DMAコントローラ30の制御のもとに、バス
38、バスアービタ39、バス40及びDRAMインタ
ーフェース41を順次介してDRAM11に転送し、こ
れを当該DRAM11内の所定の記憶領域に格納する。
Further, the serial host controller 36
The voice data given from the microphone 23 is converted to DSP3
1, the DSP 31 performs predetermined data processing on the supplied audio data supplied from the host controller 36, and outputs the resulting audio data under the control of the DMA controller 30 under the control of the DMA controller 30. The data is sequentially transferred to the DRAM 11 via the bus 38, the bus arbiter 39, the bus 40, and the DRAM interface 41, and is stored in a predetermined storage area in the DRAM 11.

【0031】またFBK/CDT34は、CCDカメラ
20から供給される画像データを色認識を行いながら複
数の解像度に分けて取り込み、得られた画像データを、
DMAコントローラ30の制御のもとに、バス38、バ
スアービタ39、バス40及びDRAMインターフェー
ス41を順次介してDRAM11(図2)に転送し、こ
れを後述のように当該DRAM11内の指定された記憶
領域に格納する。
The FBK / CDT 34 divides the image data supplied from the CCD camera 20 into a plurality of resolutions while performing color recognition, and fetches the obtained image data.
Under the control of the DMA controller 30, the data is transferred to the DRAM 11 (FIG. 2) via the bus 38, the bus arbiter 39, the bus 40, and the DRAM interface 41 in order, and is transferred to a designated storage area in the DRAM 11 as described later. To be stored.

【0032】さらにバッテリマネージャ45は、バッテ
リ17から通知されるエネルギ残量を表すバッテリ残量
データを、DMAコントローラ30の制御のもとに、ペ
リフェラルインターフェース32、バス38、バスアー
ビタ39、バス40及びDRAMインターフェース41
を順次介してDRAM11に転送し、これを当該DRA
M11内の所定の記憶領域に格納する。
Further, the battery manager 45 stores the remaining battery data indicating the remaining energy notified from the battery 17 under the control of the DMA controller 30 into the peripheral interface 32, the bus 38, the bus arbiter 39, the bus 40, and the DRAM. Interface 41
Are sequentially transferred to the DRAM 11 via the
It is stored in a predetermined storage area in M11.

【0033】一方、信号処理回路14は、上述のように
CPU10(図2)からバス15を介して与えられる各
アクチュエータ25を駆動するための第1の駆動信号
や、音声信号及びLEDを駆動するための第2の駆動信
号をホストインターフェース42を介して入力する。
On the other hand, the signal processing circuit 14 drives the first drive signal for driving each actuator 25 provided from the CPU 10 (FIG. 2) via the bus 15 as described above, the audio signal, and the LED. Is input via the host interface 42.

【0034】そして信号処理回路14は、これらをバス
40、バスアービタ39、バス38及びシリアルバスホ
ストコントローラ36並びに対応するハブ27(271
〜27n)(図2)を順次介して対応するアクチュエー
タ25(251、252、253……)(図2)や、スピ
ーカ24又はLEDに送出する。
The signal processing circuit 14 sends these signals to the bus 40, the bus arbiter 39, the bus 38, the serial bus host controller 36, and the corresponding hub 27 (27 1).
... 27 n ) (FIG. 2) sequentially to the corresponding actuators 25 (25 1 , 25 2 , 25 3 ...) (FIG. 2), the speaker 24 or the LED.

【0035】このようにして信号処理回路14において
は、各センサ、CCDカメラ20、マイクロホン23、
スピーカ、各アクチュエータ25などの各デバイスと、
CPU10との間において、CPU10がペットロボッ
ト1の行動を制御するために必要な各種信号処理を行い
得るようになされている。
As described above, in the signal processing circuit 14, each sensor, the CCD camera 20, the microphone 23,
Each device such as a speaker and each actuator 25;
The CPU 10 can perform various signal processing necessary for controlling the behavior of the pet robot 1 with the CPU 10.

【0036】なおIPE35は、画像間のマッチング処
理を高速に行うことができる2次元ディジタルフィルタ
であり、後述のように2画像を1画素ずつずらしなが
ら、各ずらし位置におけるこれら2画像間の相関性を表
すマッチングスコアを所定の演算式に基づいて順次計算
し得るようになされている。
The IPE 35 is a two-dimensional digital filter capable of performing a matching process between images at a high speed. As will be described later, the two images are shifted one pixel at a time, and the correlation between the two images at each shift position is determined. Can be sequentially calculated based on a predetermined arithmetic expression.

【0037】またシリアルバス37は、パーソナルコン
ピュータ(PC)などのリモートコンピュータに接続す
るためのインターフェースであり、パラレルポート44
及びシリアルポート46は、当該リモートコンピュータ
と接続するためのコネクタである。さらにタイマ33
は、ペットロボット1の内部の時計としての役割を果た
すものである。
The serial bus 37 is an interface for connecting to a remote computer such as a personal computer (PC).
The serial port 46 is a connector for connecting to the remote computer. Furthermore, timer 33
Plays a role as a clock inside the pet robot 1.

【0038】(2)ペットロボット1における画像デー
タの転送方法 ここではCCDカメラ20(図2)から入力される画像
データをDRAM11(図2)に転送する転送方法につ
いて説明する。図4に示すように、CCDカメラ20か
ら出力された画像データは、信号処理回路14(図2)
のFBK/CDT34に入力され、当該FBK/CDT
34において所定の画像処理が施された後、DMAコン
トローラ30(図3)の制御のもとに、バスアービタ3
9(図3)及びDRAMインターフェース41(図3)
を順次介してDRAM11に転送される。
(2) Method of Transferring Image Data in Pet Robot 1 Here, a method of transferring image data input from the CCD camera 20 (FIG. 2) to the DRAM 11 (FIG. 2) will be described. As shown in FIG. 4, the image data output from the CCD camera 20 is transmitted to the signal processing circuit 14 (FIG. 2).
Of the FBK / CDT 34 of the
After the predetermined image processing is performed at 34, the bus arbiter 3 under the control of the DMA controller 30 (FIG. 3).
9 (FIG. 3) and DRAM interface 41 (FIG. 3)
Are sequentially transferred to the DRAM 11.

【0039】ところでDMAコントローラ30は、バス
アービタ39及びDRAMインターフェース41を順次
介してDRAM11からCPU10(図2)によって生
成されたDMAリストを読み出し、当該DMAリストに
記述された画像データの転送先や転送先に関する情報に
基づいて画像データの転送を行うようになされている。
The DMA controller 30 reads out the DMA list generated by the CPU 10 (FIG. 2) from the DRAM 11 via the bus arbiter 39 and the DRAM interface 41 in order, and transfers the image data described in the DMA list or the transfer destination. The image data is transferred on the basis of the information on the image data.

【0040】従ってこのペットロボット1においては、
CPU10がDMAリストを書き換えることによって、
DMAコントローラ30がDBK/CDT34から出力
される画像データをDRAM11上の任意の位置に転送
することができる。このようにペットロボット1では、
画像データをDRAM11に転送して展開することによ
り、CPU10のキャッシュ機能を有効に利用して高速
なデータ処理を行い得るようになされている。
Therefore, in this pet robot 1,
By rewriting the DMA list by the CPU 10,
The DMA controller 30 can transfer image data output from the DBK / CDT 34 to an arbitrary position on the DRAM 11. Thus, in the pet robot 1,
By transferring the image data to the DRAM 11 and developing it, high-speed data processing can be performed by effectively using the cache function of the CPU 10.

【0041】以下、ペットロボット1における画像デー
タの転送方法についてFBK/CDT34の構成を示す
図4を用いながら具体的に説明する。
Hereinafter, a method of transferring image data in the pet robot 1 will be specifically described with reference to FIG. 4 showing the configuration of the FBK / CDT 34.

【0042】CCDカメラ20から出力された画像デー
タは、8ビットのパラレルデータ、クロック信号及び同
期信号からなり、FBK/CDT34の入力画像インタ
ーフェース50に入力されて所定のフォーマットに変換
された後、フィルタ演算部51に供給される。
The image data output from the CCD camera 20 is composed of 8-bit parallel data, a clock signal, and a synchronization signal. The image data is input to the input image interface 50 of the FBK / CDT 34 and converted into a predetermined format. It is supplied to the calculation unit 51.

【0043】ところでCPU10は、DRAM11に記
憶されている制御プログラムに基づいて各種フィルタ係
数を決定し、当該決定したフィルタ係数をパラメータ記
憶部52に与えてこれを記憶させるようになされてい
る。
The CPU 10 determines various filter coefficients based on the control program stored in the DRAM 11 and gives the determined filter coefficients to the parameter storage unit 52 to store them.

【0044】そしてフィルタ演算部51は、このパラメ
ータ記憶部52に記憶されているフィルタ係数を用いて
入力画像インターフェース50から与えられる画像デー
タにフィルタ演算を施すことにより、当該画像データの
色認識を行いながら複数の解像度の画像データを生成す
る。
The filter operation section 51 performs a color filter operation on the image data provided from the input image interface 50 using the filter coefficients stored in the parameter storage section 52, thereby performing color recognition of the image data. While generating image data of a plurality of resolutions.

【0045】フィルタ演算部51の後段には、それぞれ
1ライン分の画像データを記憶できる記憶容量を有する
2つのバッファ53A、53Bが設けられており、フィ
ルタ演算部51は、生成した画像データを1ライン毎に
交互にバッファ53A、53Bに送出してこれを記憶さ
せる。
At the subsequent stage of the filter operation unit 51, two buffers 53A and 53B each having a storage capacity capable of storing one line of image data are provided. The data is sent to the buffers 53A and 53B alternately for each line and stored therein.

【0046】その際DMAインターフェース54は、2
つのバッファ53A、53Bのうちの一方のバッファ5
3A、53Bに1ライン分の画像データを記憶させてい
る間に他方のバッファ53A、53Bから1ライン分の
画像データを読み出し、当該読み出した1ライン分の画
像データをDMAコントローラ30の指示に基づいてD
RAM11に転送することにより、複数の画像データを
順次DRAM11に転送する。なおバッファ53A、5
3Bは、それぞれ1ライン分の記憶容量を持つだけでな
ので、記憶容量が少なく、簡易な構成のFBK/CDT
34を実現している。
At this time, the DMA interface 54
Buffer 5 of one of the three buffers 53A, 53B
While one line of image data is stored in 3A and 53B, one line of image data is read from the other buffers 53A and 53B, and the read one line of image data is read based on an instruction from the DMA controller 30. D
By transferring the image data to the RAM 11, a plurality of image data are sequentially transferred to the DRAM 11. The buffers 53A, 5A
3B has only a storage capacity for one line, so the storage capacity is small and the FBK / CDT having a simple configuration is used.
34 are realized.

【0047】ところでこのような画像データの転送は、
バスマスタとして機能するDMAコントローラ30によ
って行われる。すなわちDMAインターフェース54
は、2つのバッファ53A、53Bのうちいずれか一方
が1ライン分の画像データを記憶すると、DMAコント
ローラ30に対してDMAリクエストと呼ばれる転送要
求信号を送出する。
By the way, such transfer of image data is performed as follows.
This is performed by the DMA controller 30 functioning as a bus master. That is, the DMA interface 54
When one of the two buffers 53A and 53B stores one line of image data, it sends a transfer request signal called a DMA request to the DMA controller 30.

【0048】そしてDMAコントローラ30は、DMA
リクエストが供給されると、まずバス38(図3)の使
用権を獲得し、次いでCPU10によって通知されるア
ドレスを基にDRAM11から対応するDMAリストを
読み出す。
Then, the DMA controller 30
When the request is supplied, first, the right to use the bus 38 (FIG. 3) is obtained, and then the corresponding DMA list is read from the DRAM 11 based on the address notified by the CPU 10.

【0049】そしてDMAコントローラ30は、このD
MAリストに基づいて画像データの転送先であるDRA
M11上のアドレスを順次生成し、バス38に対して書
込み信号を発行する。FBK/CDT34は、このバス
38に対する書込み信号に同期して、一方のバッファ5
3A、53Bに蓄積されている画像データを読み出して
バス38に順次送出する。
Then, the DMA controller 30
DRA which is the transfer destination of the image data based on the MA list
Addresses on M11 are sequentially generated, and a write signal is issued to the bus 38. The FBK / CDT 34 synchronizes with the write signal to the bus 38 and
The image data stored in 3A and 53B is read out and sequentially transmitted to the bus 38.

【0050】このFBK/CDT34から出力された画
像データは、FBK/CDT34から出力されると同時
にDRAM11に書き込まれることから、画像データの
転送は非常に高速に行われる。ところで、画像データの
転送先に関する設定は、DMAリストによって行われる
ことから、DMAコントローラ30は画像データをDR
AM11上の任意の位置に転送し得るようになされてい
る。
The image data output from the FBK / CDT 34 is written to the DRAM 11 at the same time as the image data is output from the FBK / CDT 34, so that the transfer of the image data is performed at a very high speed. Incidentally, since the setting regarding the transfer destination of the image data is performed by the DMA list, the DMA controller 30 stores the image data in the DR.
The data can be transferred to any position on the AM 11.

【0051】そしてFBK/CDT34は、かかるバッ
ファ53A、53Bに蓄積されていた1ライン分の画像
データの転送を終了すると、DMAコントローラ30に
対するDMAリクエストを取り下げて画像データの転送
を打ち切る。これを受けてDMAコントローラ30は、
DMAリクエストが取り下げられたタイミングまでに転
送した画像データのデータ量などの情報をDMAリスト
に書き込み、この後バス38を解放する。そしてDMA
コントローラ30は、再びDMAリクエストが供給され
ると、上述のDMAリストをDRAM11から読み出し
て前回の続きの転送を行う。
When the transfer of the image data for one line stored in the buffers 53A and 53B is completed, the FBK / CDT 34 cancels the DMA request to the DMA controller 30 and terminates the transfer of the image data. In response, the DMA controller 30
Information such as the amount of image data transferred by the time the DMA request is withdrawn is written to the DMA list, and then the bus 38 is released. And DMA
When the DMA request is supplied again, the controller 30 reads the above-described DMA list from the DRAM 11 and performs the transfer following the previous one.

【0052】このようにしてこのペットロボット1で
は、画像データを高速に転送処理することができるよう
になされている。
As described above, the pet robot 1 is capable of transferring image data at high speed.

【0053】(3)ペットロボット1における画像処理
方法 次に、このペットロボット1における画像処理方法につ
いて説明する。これに際して、まずペットロボッ1の制
御プログラムのソフトウェア構成について説明する。
(3) Image Processing Method in Pet Robot 1 Next, an image processing method in the pet robot 1 will be described. At this time, the software configuration of the control program of the pet robot 1 will be described first.

【0054】このペットロボット1には、以下のような
機能を有するオペレーティング・システムが搭載されて
いる。 1.複数のタスクを実行可能 2.タスク間でデータの転送が可能 3.タスク間でメモリ(DRAM11)を共有すること
ができる
The pet robot 1 has an operating system having the following functions. 1. 1. Can execute multiple tasks. 2. Data can be transferred between tasks. Memory (DRAM 11) can be shared between tasks

【0055】具体的にはオペレーティング・システムと
してアペリオス(Aperios)(ソニー株式会社、商標)
が用いられ、このオペレーティング・システム上におけ
る各オブジェクト間の通信方式として、例えば特願平11
-006491 号に開示された通信方式が用いられている。
Specifically, Aperios (trademark of Sony Corporation) is used as an operating system.
Is used as a communication method between each object on this operating system, for example, Japanese Patent Application No.
-006491 is used.

【0056】図5は、このペットロボット1における制
御プログラムのソフトウェア構成を示すものである。こ
の図5において、デバイス・ドライバ・レイヤ60は、
かかる制御プログラムの最下位層に位置し、複数のデバ
イス・ドライバからなるデバイス・ドライバ・セット6
1によって構成されている。
FIG. 5 shows a software configuration of a control program in the pet robot 1. In FIG. 5, the device driver layer 60 includes:
A device driver set 6 located at the lowest layer of the control program and including a plurality of device drivers
1.

【0057】この場合各デバイス・ドライバは、CCD
カメラ20(図2)やタイマ33(図3)等の通常のコ
ンピュータで用いられるハードウェアに直接アクセスす
ることを許されたオブジェクトであり、対応するハード
ウェアからの割り込みを受けて処理を行う。
In this case, each device driver is a CCD.
An object that is allowed to directly access hardware used in a normal computer, such as the camera 20 (FIG. 2) and the timer 33 (FIG. 3), and performs processing upon receiving an interrupt from the corresponding hardware.

【0058】またロボティック・サーバ・オブジェクト
62は、デバイス・ドライバ・レイヤ60の上位層に位
置し、例えば上述の各センサやアクチュエータ25(2
1、252、253……)(図2)等のハードウェアに
アクセスするためのインターフェースを提供するソフト
ウェア群でなるバーチャル・ロボット63と、電源の切
り換えなどを管理するソフトウェア群でなるパワーマネ
イジャ64と、他の種々のデバイス・ドライバを管理す
るソフトウェア群でなるデバイス・ドライバ・マネージ
ャ65と、ペットロボット1の機構を管理するソフトウ
ェア群でなるデザインド・ロボット66とから構成され
ている。
The robotic server object 62 is located on the upper layer of the device driver layer 60, and includes, for example, the aforementioned sensors and actuators 25 (2
5 1 , 25 2 , 25 3 ...) (FIG. 2) and the like, and a virtual robot 63 which is a software group for providing an interface for accessing hardware, and a power which is a software group for managing switching of power supply and the like. It comprises a manager 64, a device driver manager 65 which is a group of software for managing various other device drivers, and a designed robot 66 which is a group of software for managing the mechanism of the pet robot 1. I have.

【0059】マネージャ・オブジェクト67は、オブジ
ェクト・マネージャ68及びサービス・マネージャ69
から構成されている。この場合オブジェクト・マネージ
ャ68は、ロボティック・サーバ・オブジェクト62、
ミドル・ウェア・レイヤ70及びアプリケーション・レ
イヤ71に含まれる各ソフトウェア群の起動や終了を管
理するソフトウェア群であり、サービス・マネージャ6
9は、メモリカード28(図2)に格納されたコネクシ
ョンファイルに記述されている各オブジェクト間の接続
情報に基づいて各オブジェクトの接続を管理するソフト
ウェア群である。
The manager object 67 includes an object manager 68 and a service manager 69
It is composed of In this case, the object manager 68 has the robotic server object 62,
A software group that manages activation and termination of each software group included in the middleware layer 70 and the application layer 71.
Reference numeral 9 denotes a software group that manages the connection of each object based on the connection information between the objects described in the connection file stored in the memory card 28 (FIG. 2).

【0060】ミドル・ウェア・レイヤ70は、ロボティ
ック・サーバ・オブジェクト62の上位層に位置し、画
像処理や音声処理などのこのペットロボット1の基本的
な機能を提供するソフトウェア群から構成されている。
またアプリケーション・レイヤ71は、ミドル・ウェア
・レイヤ70の上位層に位置し、当該ミドル・ウェア・
レイヤ70を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてペットロボット1の行動を決定
するためのソフトウェア群から構成されている。
The middleware layer 70 is located on the upper layer of the robotic server object 62 and is composed of a group of software for providing basic functions of the pet robot 1 such as image processing and sound processing. I have.
The application layer 71 is located above the middleware layer 70, and
It is composed of a software group for determining the behavior of the pet robot 1 based on the processing result processed by each software group constituting the layer 70.

【0061】マネージャ・オブジェクト67は、オブジ
ェクト・マネージャ及びサービス・マネージャによって
構成されており、このうちオブジェクト・マネージャ
は、ロボティック・サーバ・オブジェクト・ミドル・ウ
ェア・レイヤ及びアプリケーション・レイヤを構成する
ソフトウェア群の起動や終了を管理するソフトウェア群
でなり、サービス・マネージャは、メモリカードに記憶
されているコネクションファイルに記述された各オブジ
ェクト間の接続情報に基づいて各オブジェクトの接続を
管理するソフトウェア群である。
The manager object 67 is composed of an object manager and a service manager. Among them, the object manager is a software group constituting a robotic server object middleware layer and an application layer. The service manager is a software group that manages the connection of each object based on the connection information between the objects described in the connection file stored in the memory card. .

【0062】以下、かかる構成の制御プログラムに基づ
いてペットロボット1の内部において行われる画像処理
について、色検出、動き検出及び障害物検出といった複
数の画像処理のタスクを同時に実行する場合を例に、図
6及び図7を用いて図8を参照しながら説明する。
The image processing performed inside the pet robot 1 based on the control program having such a configuration will be described below by taking as an example a case where a plurality of image processing tasks such as color detection, motion detection, and obstacle detection are simultaneously executed. This will be described with reference to FIG. 8 using FIGS. 6 and 7.

【0063】図6及び図7は、かかる画像処理のシステ
ム起動時からの手順(以下、これを画像処理手順RT1
と呼ぶ)を示すものであり、ペットロボット1の電源が
投入されるとこの画像処理手順RT1が開始され、続く
ステップSP2において、コントロール部16(図2)
のCPU10がデバイス・ドライバ・セット61(図
5)を構成する図8に示すFBK/CDTドライバ61
Aを起動してFBK/CDT34を初期化する。
FIGS. 6 and 7 show a procedure from the start of the image processing (hereinafter referred to as an image processing procedure RT1).
When the power of the pet robot 1 is turned on, the image processing procedure RT1 is started, and in the subsequent step SP2, the control unit 16 (FIG. 2)
The FBK / CDT driver 61 shown in FIG. 8 in which the CPU 10 constitutes a device driver set 61 (FIG. 5)
A is started to initialize the FBK / CDT 34.

【0064】続くステップSP3において、CPU10
は、ロボティック・サーバ・オブジェクト62(図5)
を起動する。このときバーチャル・ロボット63(図
5)も起動する。そしてバーチャル・ロボット63は、
起動後、図8に示すように、画像データを記憶するため
の共有メモリ80を複数個DRAM11(図2)上に生
成し、この後FBK/CDTドライバ61Aに対して画
像サイズのような画像の属性に関する情報を設定する。
In the following step SP3, the CPU 10
Is the robotic server object 62 (FIG. 5)
Start At this time, the virtual robot 63 (FIG. 5) is also activated. And the virtual robot 63
After the start-up, as shown in FIG. 8, a plurality of shared memories 80 for storing image data are generated on the DRAM 11 (FIG. 2). Set information about attributes.

【0065】またCPU10は、ロボティック・サーバ
・オブジェクト62(図5)の起動が終了すると、ミド
ル・ウェア・レイヤ70(図5)を構成している画像処
理オブジェクトを順次起動する。因に、生成された共有
メモリ80の記憶容量は、バーチャル・ロボット63
(図5)の指示に応じて容易に変更が可能である。
When the activation of the robotic server object 62 (FIG. 5) is completed, the CPU 10 sequentially activates the image processing objects constituting the middleware layer 70 (FIG. 5). Incidentally, the storage capacity of the generated shared memory 80 is the virtual robot 63.
It can be easily changed according to the instruction in FIG.

【0066】続くステップSP4において、バーチャル
・ロボット63は、DRAM11上に生成した複数の共
有メモリ80のうち所望の共有メモリ80のアドレスを
FBK/CDTドライバ61Aに通知すると共に、当該
通知したアドレスの共有メモリ80に画像データを転送
することを要求するリード要求をFBK/CDTドライ
バ61Aに発行する。
In the following step SP4, the virtual robot 63 notifies the FBK / CDT driver 61A of the address of the desired shared memory 80 among the plurality of shared memories 80 generated on the DRAM 11, and shares the notified address. It issues a read request to transfer image data to the memory 80 to the FBK / CDT driver 61A.

【0067】そしてFBK/CDTドライバ61Aは、
リード要求を受け取ると、続くステップSP5におい
て、指定された共有メモリ80に画像データを転送する
ためのDMAリスト81を生成してDRAM11(図
2)に記憶する。その際FBK/CDTドライバ61A
は、DRAM11に記憶されたDMAリスト81のアド
レスをDMAコントローラ30(図3)に通知した後、
FBK/CDT34に対して画像データを出力すること
を許可する。
The FBK / CDT driver 61A
Upon receiving the read request, in the following step SP5, a DMA list 81 for transferring image data to the designated shared memory 80 is generated and stored in the DRAM 11 (FIG. 2). At that time, FBK / CDT driver 61A
After notifying the address of the DMA list 81 stored in the DRAM 11 to the DMA controller 30 (FIG. 3),
Output of image data to the FBK / CDT 34 is permitted.

【0068】続くステップSP6において、FBK/C
DT34は、FBK/CDTドライバ61Aからの画像
データの出力許可を受けて1フィールド分の画像データ
を指定された共有メモリ80に転送すると、FBK/C
DTドライバ61Aに対して割り込みを発生させ、割込
みハンドラと呼ばれるソフトウェアを起動させる。そし
てステップSP7において、この割込みハンドラは、バ
ーチャル・ロボット63に対して画像データの転送が終
了したことを通知する。
In the following step SP6, FBK / C
The DT 34 receives the output permission of the image data from the FBK / CDT driver 61A, and transfers the image data for one field to the designated shared memory 80.
An interrupt is generated for the DT driver 61A, and software called an interrupt handler is started. Then, in step SP7, the interrupt handler notifies the virtual robot 63 that the transfer of the image data has been completed.

【0069】このときバーチャル・ロボット63は、続
くステップSP8において、必要なフィールド数分の画
像データが転送されたか否かを判断する。そしてバーチ
ャル・ロボット63は、このステップSP8において否
定結果を得るとステップSP9に進んで次に転送すべき
共有メモリ80のアドレスをFBK/CDTドライバ6
1Aに渡してリード要求を発行した後、ステップSP5
に戻ってこの後ステップSP8において肯定結果を得る
までステップSP5−SP6−SP7−SP8−SP9
−SP5のループを繰り返す。
At this time, in the following step SP8, the virtual robot 63 determines whether or not the required number of fields of image data have been transferred. If the virtual robot 63 obtains a negative result in step SP8, the process proceeds to step SP9, where the address of the shared memory 80 to be transferred next is set to the FBK / CDT driver 6.
After issuing the read request by passing the request to 1A, step SP5
And then return to steps SP5-SP6-SP7-SP8-SP9 until a positive result is obtained in step SP8.
-Repeat the loop of SP5.

【0070】一方CPU10は、ステップSP8におい
て肯定結果を得るとステップSP10に進んで、ミドル
・ウェア・レイヤ70(図5)を構成する各画像処理オ
ブジェクトが起動し終えるのを待ち受け、やがて画像処
理オブジェクトが起動し終えると、ステップSP11に
進む。
On the other hand, if the CPU 10 obtains an affirmative result in step SP8, it proceeds to step SP10 and waits for the activation of each image processing object constituting the middleware layer 70 (FIG. 5). Is completed, the process proceeds to step SP11.

【0071】そしてマネージャ・オブジェクト67のサ
ービス・マネージャ69は、ミドル・ウェア・レイア7
0の各画像処理オブジェクトの起動が終えると、続くス
テップSP11において、これら画像処理オブジェクト
に対してそれぞれ接続相手先の画像処理オブジェクトを
通知し、各画像処理オブジェクト間で通信路を開く。
The service manager 69 of the manager object 67 has the middleware layer 7
When the activation of each image processing object is completed, in step SP11, the image processing objects of the connection destinations are notified to the image processing objects, and a communication path is opened between the image processing objects.

【0072】例えばサービス・マネージャ69は、図8
において明らかなように、色検出用画像処理オブジェク
ト82及びエッジ検出用画像処理オブジェクト84をバ
ーチャル・ロボット63に接続する。またサービス・マ
ネージャ69は、重心計算用画像処理オブジェクト85
を色検出用画像処理オブジェクト82に接続すると共
に、重心計算用画像処理オブジェクト86を動き検出用
画像処理オブジェクト83に接続する。
For example, the service manager 69 is shown in FIG.
As is apparent from the above, the image processing object 82 for color detection and the image processing object 84 for edge detection are connected to the virtual robot 63. Further, the service manager 69 includes an image processing object 85 for calculating the center of gravity.
Is connected to the image processing object 82 for color detection, and the image processing object 86 for calculating the center of gravity is connected to the image processing object 83 for motion detection.

【0073】さらにサービス・マネージャ69は、障害
物検出用画像処理オブジェクト87及び座標変換用画像
処理オブジェクト88をエッジ検出用画像処理オブジェ
クト84に階層的に接続する。因に、このような各画像
処理オブジェクト間の接続は変更が可能であり、各画像
処理オブジェクトの接続関係を変更することで様々な処
理を行い得る。
Further, the service manager 69 hierarchically connects the obstacle detection image processing object 87 and the coordinate conversion image processing object 88 to the edge detection image processing object 84. Incidentally, the connection between such image processing objects can be changed, and various processes can be performed by changing the connection relationship between the image processing objects.

【0074】続くステップSP12において、サービス
・マネージャ69は、各画像処理オブジェクト間の接続
が終了すると、当該各画像処理オブジェクトにスタート
信号を送出する。これを受けて各画像処理オブジェクト
は、続くステップSP13において、コネクションファ
イルに記述された接続情報に基づいて下位層にある接続
先の画像処理オブジェクトにデータ要求信号を送出す
る。
In step SP12, when the connection between the image processing objects is completed, the service manager 69 sends a start signal to each image processing object. In response to this, in the following step SP13, each image processing object sends a data request signal to the lower-layer connected image processing object based on the connection information described in the connection file.

【0075】ところで色検出用画像処理オブジェクト8
2、動き検出用画像処理オブジェクト83及びエッジ検
出用画像処理オブジェクト84は、FBK/CDT34
から順次供給される画像データを、それぞれ異なるフィ
ード間隔で読み出すようになされており、バーチャル・
ロボット63は、供給される画像データのうち、各画像
処理オブジェクトがそれぞれ読み出すべき画像データを
把握している。
By the way, the image processing object 8 for color detection
2. The image processing object 83 for motion detection and the image processing object 84 for edge detection are the FBK / CDT 34
The image data sequentially supplied from is read at different feed intervals, and
The robot 63 grasps the image data to be read by each image processing object among the supplied image data.

【0076】従ってバーチャル・ロボット63は、続く
ステップSP14において、各画像処理オブジェクトか
らデータ要求信号を受け取ると、各画像処理オブジェク
トがそれぞれ読み出すべき画像データが格納されている
共有メモリ80に割り当てられているID(Identifica
tion)(すなわちアドレス情報)を各画像処理オブジェ
クトにそれぞれ通知する。その際バーチャル・ロボット
63は、内部の参照回数計測カウンタを用いて、各画像
処理オブジェクトに通知したIDのそれぞれに対して、
通知した画像処理オブジェクトの数をカウントしてその
カウント値を記憶しておく。
Therefore, when the virtual robot 63 receives a data request signal from each image processing object in the subsequent step SP14, the virtual robot 63 is assigned to the shared memory 80 in which the image data to be read by each image processing object is stored. ID (Identifica
) (that is, address information) is notified to each image processing object. At that time, the virtual robot 63 uses the internal reference count counter to determine the ID of each of the image processing objects.
The number of the notified image processing objects is counted, and the count value is stored.

【0077】このときバーチャル・ロボット63は、参
照回数計測カウンタによるカウント値が「0」でないI
Dの共有メモリ80には、FBK/CDT34から供給
される画像データを上書きせずに、カウント数が「0」
の共有メモリ80に画像データを上書きして順次記憶し
ていくことにより、各画像処理オブジェクトが読み出す
可能性のある画像データを誤って消去することを回避し
ている。
At this time, the virtual robot 63 determines that the count value obtained by the reference count counter is not “0”.
In the shared memory 80 of D, the count number is set to “0” without overwriting the image data supplied from the FBK / CDT 34.
By overwriting and sequentially storing the image data in the shared memory 80, it is possible to avoid erroneous erasure of the image data that may be read by each image processing object.

【0078】続いてステップSP15において、各画像
処理オブジェクトは、通知されたIDが割り当てられて
いる共有メモリ80から画像データを読み出す。その
際、各画像処理オブジェクトは、それぞれ同一の共有メ
モリ80に記憶されている画像データを読み出す場合も
ある。しかしながら共有メモリ80は、読み出し専用の
メモリであることから、各画像処理オブジェクトはそれ
ぞれ互いに干渉することなく画像データの読み出しを行
い得る。
Subsequently, in step SP15, each image processing object reads out image data from the shared memory 80 to which the notified ID is assigned. At this time, each image processing object may read image data stored in the same shared memory 80. However, since the shared memory 80 is a read-only memory, each image processing object can read image data without interfering with each other.

【0079】次いでステップSP16において、各画像
処理オブジェクトは、それぞれ必要な数だけ画像データ
を読み出したか否か判断し、その結果として必要な数だ
け画像データを読み出していないと判断した場合にはス
テップSP17に進む。
Next, in step SP16, each image processing object determines whether or not the required number of image data has been read out. If it is determined that the required number of image data has not been read out, the process proceeds to step SP17. Proceed to.

【0080】そして各画像処理オブジェクトは、コネク
ションファイルに記述された接続情報に基づいて、次の
画像データを要求するためのデータ要求信号をそれぞれ
バーチャル・ロボット63に送出する。そしてバーチャ
ル・ロボット63は、続くステップSP18において、
データ要求信号を受け取ると、データ要求信号を送出し
た画像処理オブジェクトに通知したIDに対応して記憶
されている参加回数測定カウンタのカウント数をデータ
要求信号が供給されるごとに減算する。
Each image processing object sends a data request signal for requesting the next image data to the virtual robot 63 based on the connection information described in the connection file. Then, in the following step SP18, the virtual robot 63
When the data request signal is received, the count number of the participation count measurement counter stored corresponding to the ID notified to the image processing object that has transmitted the data request signal is decremented every time the data request signal is supplied.

【0081】そしてバーチャル・ロボット63は、その
カウント数が「0」になったときに、当該カウントが
「0」になったIDが割り当てられている共有メモリ8
0に記憶されている画像データの保護を解除し、ステッ
プSP14に戻って同じ動作を繰り返す。
Then, when the count number becomes “0”, the virtual robot 63 sets the shared memory 8 to which the ID whose count has become “0” is assigned.
The protection of the image data stored in 0 is released, and the process returns to step SP14 to repeat the same operation.

【0082】さらに各画像処理オブジェクトは、やがて
ステップSP16において肯定結果を得ると、ステップ
SP19に進んで各画像処理オブジェクトが画像データ
を所望の共有メモリ80から読み出し、これら読み出し
た画像データに対してそれぞれ所定の画像処理を施し、
その処理結果を上位層のオブジェクトに送出する。
Further, when each image processing object eventually obtains a positive result in step SP16, the process proceeds to step SP19, where each image processing object reads out image data from the desired shared memory 80. Apply predetermined image processing,
The processing result is sent to the upper layer object.

【0083】例えば色検出用画像処理オブジェクト82
は、読み出した画像データから色の検出を行い、その処
理結果を重心計算用画像処理オブジェクト85に送出し
て検出した色の位置を算出させる。また動き検出用画像
処理オブジェクト83は、画像データから動き領域の検
出を行い、その処理結果を重心計算用画像処理オブジェ
クト86に送出して検出した動き領域の位置や大きさを
算出させる。
For example, the image processing object 82 for color detection
Detects the color from the read image data, sends the processing result to the image processing object 85 for calculating the center of gravity, and calculates the position of the detected color. Further, the motion detection image processing object 83 detects a motion area from the image data, and sends the processing result to the center of gravity calculation image processing object 86 to calculate the position and size of the detected motion area.

【0084】さらにエッジ検出用画像処理オブジェクト
84は画像データからエッジの検出を行い、その処理結
果を障害物検出用画像処理オブジェクト87に送出して
障害物の位置を算出させた後、座標変換用画像処理オブ
ジェクト88において障害物の位置を座標変換させる。
そしてCPU10は、この後ステップSP20に進んで
この処理(画像処理手順RT1)を終了する。
Further, the edge detection image processing object 84 detects an edge from the image data and sends the processing result to the obstacle detection image processing object 87 to calculate the position of the obstacle. The coordinates of the position of the obstacle in the image processing object 88 are converted.
Then, the CPU 10 thereafter proceeds to step SP20 and ends this processing (image processing procedure RT1).

【0085】このように各画像処理オブジェクトは、D
RAM11上に生成された共有メモリ80から画像デー
タを読み出すようになされていることから、CCDカメ
ラ20に依存しない汎用的な画像処理オブジェクトを実
現することができ、従って複数の汎用的な画像処理オブ
ジェクトを組み合わせることで、様々な画像処理を容易
に行い得るようになされている。
As described above, each image processing object has a D
Since the image data is read from the shared memory 80 generated on the RAM 11, a general-purpose image processing object independent of the CCD camera 20 can be realized. , Various image processing can be easily performed.

【0086】(4)ペットロボット1における動体検出
のアルゴリズム 次にこのペットロボット1における動体検出方法につい
て説明する。
(4) Moving Body Detection Algorithm in Pet Robot 1 Next, a moving body detection method in the pet robot 1 will be described.

【0087】このペットロボット1では、図9(A)に
示す1つ前のフレームの画像(以下、これを前フレーム
画像と呼ぶ)90の画像データ及び図9(B)に示す現
在のフレームの画像(以下、これを現フレーム画像と呼
ぶ)91の画像データに基づいて、現フレーム画像91
内の前フレーム画像90の中心部分90Aと相関の高い
画像領域91Aを検出するようにしてペットロボット1
の動作に伴う画像全体の動き量(以下、これを画像全体
の移動量と呼ぶ)を検出し、当該検出結果を利用して図
9(C)のように画像内の動きのある部分のみを抽出す
ることにより動体を精度良く検出し得るようになされて
いる。
In this pet robot 1, the image data of the image of the immediately preceding frame (hereinafter, referred to as a previous frame image) 90 shown in FIG. 9A and the current frame image shown in FIG. Based on image data of an image (hereinafter referred to as a current frame image) 91, the current frame image 91
To detect an image area 91A having a high correlation with the central portion 90A of the previous frame image 90 in the
The movement amount of the entire image (hereinafter, referred to as the movement amount of the entire image) due to the above operation is detected, and only the moving part in the image as shown in FIG. By extracting the moving object, the moving object can be accurately detected.

【0088】この場合このような一連の処理は、図10
に示す動体検出処理手順RT2に従って、ミドル・ウェ
ア・レイア70(図5)の動き検出用画像処理オブジェ
クト83(図8)、重心計算用画像処理オブジェクト8
6(図8)及び信号処理回路14(図2)内のIPE3
5(図3)によって行われる。以下、このようなペット
ロボット1における動体検出方法について説明する。
In this case, such a series of processing is performed as shown in FIG.
The image processing object 83 for motion detection (FIG. 8) and the image processing object 8 for calculating the center of gravity of the middle wear layer 70 (FIG. 5) according to the moving object detection processing procedure RT2 shown in FIG.
6 (FIG. 8) and the IPE3 in the signal processing circuit 14 (FIG. 2).
5 (FIG. 3). Hereinafter, a moving object detection method in such a pet robot 1 will be described.

【0089】動体検出処理手順RT2は、動き検出用画
像処理オブジェクト83の起動によりステップSP30
において開始される。そして続くステップSP31にお
いて、動き検出用画像処理オブジェクト83は、DRA
M11上の指定された共有メモリ80から画像データを
取り込んでこれを保存すると共に、続くステップSP3
2において、かかる画像データの取り込みが1回目であ
るか否かを判断する。
The moving object detection processing procedure RT2 is executed by starting the image processing object 83 for motion detection in step SP30.
Started at Then, in the following step SP31, the image processing object 83 for motion detection
The image data is fetched from the designated shared memory 80 on M11 and stored, and the next step SP3
In 2, it is determined whether or not the image data is fetched for the first time.

【0090】そして動き検出用画像処理オブジェクト8
3は、このステップSP32において肯定結果を得ると
再びステップSP31に戻り、この後ステップSP31
及びステップSP32を繰り返す。
Then, the image processing object 8 for motion detection
3 returns to step SP31 again when a positive result is obtained in step SP32, and thereafter returns to step SP31.
And step SP32 are repeated.

【0091】さらに動き検出用画像処理オブジェクト8
3は、やがてステップSP32において肯定結果を得る
とステップSP33に進んで、図11(A)に示すよう
に、前フレーム画像92の中心領域(前フレーム画像9
2から上下左右の所定幅を除いた画像領域部分)92A
をテンプレートとして、当該中心領域92Aを上下左右
に4分割したときの左上、右上、左下及び右下の各分割
領域(以下、これらを第1〜第4のテンプレート分割領
域92A1〜92A4と呼ぶ)の画像データを順次IPE
35に転送する。
Further, the image processing object 8 for motion detection
When a positive result is obtained in step SP32, the process proceeds to step SP33, and as shown in FIG. 11A, the central region of the previous frame image 92 (the previous frame image 9
(Area of image area excluding predetermined upper, lower, left and right width from 2) 92A
As a template, called the central region 92A of the upper, lower, left and right to 4 divided upper left point, the upper right, lower left and each divided area in the lower right (hereinafter, these first to fourth template divided regions 92A 1 ~92A 4 ) Image data in order
Transfer to 35.

【0092】また動き検出用画像処理オブジェクト83
は、続くステップSP34において、図11(C)に示
すように、現フレーム画像93全体を検索画像として、
当該現フレーム画像93を所定画素数分だけ上又は下及
び左又は右にオーバーラップさせながら上下左右に4分
割したときの左上、右上、左下及び右下の各分割領域
(以下、これらを第1〜第4の検索画像分割領域93A
1〜93A4と呼ぶ)の画像データをIPE35に転送す
る。
The motion detection image processing object 83
In the following step SP34, as shown in FIG. 11C, the entire current frame image 93 is set as a search image.
Each of upper left, upper right, lower left and lower right divided regions when the current frame image 93 is divided into four in the up, down, left and right directions while overlapping the upper or lower and left or right by a predetermined number of pixels (hereinafter referred to as a first region). ~ Fourth search image division area 93A
Transfers image data is referred to as 1 ~93A 4) to IPE35.

【0093】従ってこの例では、図11(C)における
第2の横線lx2及び第2の縦線ly2によって区切られる
現フレーム画像93の左上の画像領域(第1の検索画像
分割領域93A1)と、第2の横線lx2及び第1の縦線
y1によって区切られる現フレーム画像93の右上の画
像領域(第2の検索画像分割領域93A2)と、第1の
横線lx1及び第2の縦線ly2によって区切られる現フレ
ーム画像93の左下の画像領域(第3の検索画像分割領
域93A3)と、第1の横線lx1及び第1の縦線ly1
よって区切られる現フレーム画像93の右下の画像領域
(第4の検索画像分割領域93A4)の各画像領域の画
像データがIPE35に転送される。
Therefore, in this example, the upper left image area (first search image division area 93A 1 ) of the current frame image 93 delimited by the second horizontal line l x2 and the second vertical line ly 2 in FIG. 11C. and), and the upper right of the image region of the current frame image 93 (the second search image segmentation region 93A 2) which is delimited by the second horizontal line l x2 and the first vertical line l y1, first horizontal line l x1 and the The lower left image area (third search image divided area 93A 3 ) of the current frame image 93 separated by two vertical lines l y2 and the current frame separated by the first horizontal line l x1 and the first vertical line l y1 The image data of each image area of the image area at the lower right of the image 93 (the fourth search image division area 93A 4 ) is transferred to the IPE 35.

【0094】続くステップSP35において、IPE3
5は、前フレーム画像92の中心領域92Aに基づく第
1〜第4のテンプレート分割領域92A1〜92A4と、
現フレーム画像93の対応する位置の第1〜第4の検索
画像分割領域93A1〜93A4とのマッチング処理を行
う。
In the following step SP35, IPE3
5 includes a front first to fourth template divided regions 92A 1 ~92A 4 based on the central region 92A of the frame image 92,
Performing a matching process between the search image segmentation region 93A 1 ~93A 4 corresponding position first to fourth of the current frame image 93.

【0095】具体的にIPE35は、第1のテンプレー
ト分割領域92A1及び第1の検索画像分割領域93A1
について、これらを縦方向や横方向に1画素単位でずら
しながら、当該ずらした位置(以下、これをずらし位置
と呼ぶ)における次式
Specifically, the IPE 35 includes a first template divided area 92A 1 and a first search image divided area 93A 1.
Are shifted in units of one pixel in the vertical and horizontal directions, and the following equation at the shifted position (hereinafter referred to as a shifted position) is obtained.

【0096】[0096]

【数1】 (Equation 1)

【0097】で与えられるマッチングスコアを順次演算
すると共に、かくして得られたマッチングスコアをDR
AM11に順次DMA転送してこれを記憶させる。
The matching scores given by are calculated sequentially, and the matching scores thus obtained are converted to DR.
DMA transfer is performed sequentially to the AM 11 to store it.

【0098】またIPE35は、これと同様にして第2
のテンプレート分割領域92A2及び第2の検索画像分
割領域93A2、第3のテンプレート分割領域92A3
び第3の検索画像分割領域93A3、並びに第4のテン
プレート分割領域92A4及び第4の検索画像分割領域
93A4について、これらをそれぞれ縦方向又は横方向
に1画素単位でずらしながら、各ずらし位置における
(1)式で与えられるマッチングスコアを順次演算する
と共に、かくして得られたマッチングスコアをDRAM
11に順次DMA転送してこれを記憶させる。
The IPE 35 operates similarly to the second
Search image segmentation region 93A 2 of the template divided regions 92A 2 and the second search of the third template divided regions 92A 3 and the third search image divided regions 93A 3, and the fourth template divided regions 92A 4 and the fourth DRAM for image division areas 93A 4, while shifting them by one pixel in the vertical or horizontal direction, respectively, with successively calculating a matching score given by equation (1) at each shifting position, thus resulting matching score
The data is sequentially DMA-transferred to 11 and stored.

【0099】そして動き検出用画像処理オブジェクト8
3は、全てのマッチングスコアの値が算出されると、次
Then, the image processing object 8 for motion detection
3, when all the matching score values are calculated, the following equation is obtained.

【0100】[0100]

【数2】 (Equation 2)

【0101】で与えられる演算を実行することにより、
各ずらし位置における第1〜第4のテンプレート分割領
域92A1〜92A4についての4つのマッチングスコア
を加算したスコア(以下、これを総合マッチングスコア
と呼ぶ)を算出する。
By executing the operation given by
First to fourth template divided regions 92A 1 ~92A 4 4 single score obtained by adding the matching score for at each shift position (hereinafter, referred to as total matching score) is calculated.

【0102】ここで現フレーム画像93における上述の
ようにして算出された総合マッチングスコアの値が最も
小さい画像領域が前フレーム画像92の中心領域92A
と最も相関が高い領域部分であり、従って前フレーム画
像92の中心領域92Aの中心位置からこの画像領域の
中心位置までの距離がペットロボット1の動きに伴う前
フレーム及び現フレーム間における画像全体の移動量と
なる。
Here, the image area of the current frame image 93 having the smallest value of the total matching score calculated as described above is the central area 92A of the previous frame image 92.
Therefore, the distance from the center position of the center region 92A of the previous frame image 92 to the center position of this image region is the highest in the area of the entire image between the previous frame and the current frame accompanying the movement of the pet robot 1. The amount of movement.

【0103】そこで動き検出用画像処理オブジェクト8
3は、続くステップSP36において、ステップSP3
5において得られた各加算結果に基づいて、図12に示
すように、現フレーム画像93のうちの総合マッチング
スコアの値が最も小さい前フレーム画像92の中心領域
92Aと同じ大きさの画像領域(すなわち最も相関が高
い領域部分であり、図12において破線で囲まれた部
分)93Bの中心位置(xC2,yC2)を記憶すると共
に、当該中心位置(xC2,yC2)から現フレーム画像9
3の中心位置(xC1,yC1)までの間の距離及び方向を
算出するようにして、前フレーム及び現フレーム間にお
ける画像全体の移動量を検出する。
Therefore, the motion detection image processing object 8
3 is a step SP3 in the following step SP36.
As shown in FIG. 12, based on the respective addition results obtained in step 5, the image area of the current frame image 93 having the same overall matching score as the central area 92A of the previous frame image 92 having the smallest value ( That is, the center position (x C2 , y C2 ) of the region 93B having the highest correlation and surrounded by the broken line in FIG. 12 is stored, and the current frame image is calculated from the center position (x C2 , y C2 ). 9
By calculating the distance and direction to the center position (x C1 , y C1 ) of No. 3, the movement amount of the entire image between the previous frame and the current frame is detected.

【0104】続くステップSP37において、動き検出
用画像処理オブジェクト83は、ステップSP36にお
いて検出したかかる画像領域93Bについての総合マッ
チングスコアが予め定められた所定の閾値よりも小さい
か否かを判断することにより、その画像領域93Bと、
前フレーム画像92の中心領域92Aとの相関が所定レ
ベルよりも低いか否かを判断する。
In the following step SP37, the motion detection image processing object 83 determines whether or not the total matching score for the image area 93B detected in step SP36 is smaller than a predetermined threshold. , Its image area 93B,
It is determined whether the correlation with the central area 92A of the previous frame image 92 is lower than a predetermined level.

【0105】ここでこのステップSP37において否定
結果を得ることは、前フレーム及び現フレーム間におい
て、現フレーム画像93のかかる画像領域93B内に動
きや輝度変化などが生じなかった、又は生じたがその動
きや輝度変化などが小さかったことを意味し、このとき
動き検出用画像処理オブジェクト83は、ステップSP
41に進む。
Here, obtaining a negative result in step SP37 means that no motion or change in luminance has occurred or has occurred in the image area 93B of the current frame image 93 between the previous frame and the current frame. This means that the movement or the change in luminance is small, and at this time, the motion detection image processing object 83
Go to 41.

【0106】これに対してステップSP37において肯
定結果を得ることは、前フレーム及び現フレーム間にお
いて、現フレーム画像93のかかる画像領域93B内に
ある程度の動きや輝度変化が生じたことを意味する。そ
してこのとき動き検出用画像処理オブジェクト83は、
ステップSP38に進んで、ステップSP36において
検出した画像全体の移動量を利用しながら、前フレーム
画像92の中心領域92A内の各画素の輝度レベルと、
現フレーム画像93のかかる画像領域93B内の対応す
る画素の輝度レベルとの差分を順次計算する。
On the other hand, obtaining a positive result in step SP37 means that a certain degree of movement or luminance change has occurred in the image area 93B of the current frame image 93 between the previous frame and the current frame. At this time, the image processing object 83 for motion detection
Proceeding to step SP38, the luminance level of each pixel in the central region 92A of the previous frame image 92 is calculated using the movement amount of the entire image detected in step SP36.
The difference from the luminance level of the corresponding pixel in the image area 93B of the current frame image 93 is sequentially calculated.

【0107】この結果このような処理によって、前フレ
ーム画像92の中心領域92Aと、現フレーム画像93
のかかる画像領域93Bとの差分画像のデータが得ら
れ、このデータ(以下、これを差分データと呼ぶ)が重
心計算用画像処理オブジェクト86(図8)に出力され
る。
As a result, the central region 92A of the previous frame image 92 and the current frame image 93
Is obtained, and this data (hereinafter referred to as difference data) is output to the center-of-gravity calculation image processing object 86 (FIG. 8).

【0108】重心計算用画像処理オブジェクト86は、
続くステップSP39において、動き検出用画像処理オ
ブジェクト83から与えられる差分データに基づいて、
差分データの値が予め設定された所定の閾値よりも大き
い画素が集まっている領域、すなわち画像内の動きのあ
った領域(以下、これを動き領域と呼ぶ)を検出すると
共に、その動き領域の画素数をカウントし、さらに当該
動き領域の重心位置を検出する。
The image processing object 86 for calculating the center of gravity is
In a succeeding step SP39, based on the difference data given from the motion detection image processing object 83,
In addition to detecting an area where pixels whose difference data values are larger than a predetermined threshold set in advance, that is, an area where a motion has occurred in the image (hereinafter referred to as a motion area), The number of pixels is counted, and the position of the center of gravity of the moving area is detected.

【0109】そして重心計算用画像処理オブジェクト8
6は、この後ステップSP40において、上述のステッ
プSP36において検出した現フレーム画像93の画像
領域93Bが、前フレーム画像92を現フレーム画像と
した1つ前の処理において検出した位置と同じ位置にあ
るか否かを判断する。
Then, the image processing object 8 for calculating the center of gravity
6, the image area 93B of the current frame image 93 detected in the above-mentioned step SP36 in the subsequent step SP40 is located at the same position as the position detected in the previous process in which the previous frame image 92 was set as the current frame image. It is determined whether or not.

【0110】ここで画像領域93Bが同じ位置にあるこ
とは、前フレーム及び現フレーム間において画像全体の
動きが小さいことを意味し、このとき重心計算用画像処
理オブジェクト86は、現フレーム画像93内のかかる
動き領域の画素数を予め設定された第1の閾値THST
比較する。これに対して画像領域93Bが同じ位置にな
いことは、前フレーム及び現フレーム間において画像全
体の動きが大きいことを意味し、このとき重心計算用画
像処理オブジェクト86は、かかる動き領域の画素数を
予め設定された第2の閾値THMV(>THST)と比較す
る。このように重心計算用画像処理オブジェクト86
は、かかる動き領域の画素数が第1又は第2の閾値TH
ST、THMVよりも大きいか否かを判断することによって
画像内に動きがあったか否かを判断する。
Here, the fact that the image area 93B is at the same position means that the motion of the entire image is small between the previous frame and the current frame. At this time, the image processing object 86 for calculating the center of gravity is Is compared with a preset first threshold value TH ST . On the other hand, the fact that the image area 93B is not located at the same position means that the motion of the entire image is large between the previous frame and the current frame. Is compared with a preset second threshold TH MV (> TH ST ). Thus, the image processing object 86 for calculating the center of gravity
Means that the number of pixels in such a motion area is the first or second threshold value TH
It is determined whether or not there is a motion in the image by determining whether or not ST is larger than TH MV .

【0111】なおこのようにステップSP36において
検出した現フレーム画像93の画像領域93Bの位置に
応じて比較する閾値を分けたことにより、第1の閾値T
STを小さめに設定することによってペットロボット1
に動きがないときには小さな動きも敏感に検出すること
ができ、第2の閾値THMVを大きめに設定することによ
ってペットロボットに動きがあるときには感度を下げて
動きの誤検出を低減することができる。
Since the thresholds to be compared are divided according to the position of the image area 93B of the current frame image 93 detected in step SP36, the first threshold T
Pet robot 1 by setting H ST smaller
When there is no movement, small movements can be detected sensitively, and by setting the second threshold value TH MV to a large value, when the pet robot has movements, the sensitivity can be lowered to reduce false detection of movements. .

【0112】続くステップSP41において、CPU1
0は、ステップSP40における動きの有無の判断結果
を10フレーム分取得したか否かを判断する。そして否定
結果を得るとステップSP31に戻り、この後ステップ
SP41において肯定結果を得るまでステップSP31
〜ステップSP41を繰り返す。
At the following step SP41, the CPU 1
A value of 0 determines whether or not the result of the determination of the presence or absence of the motion in step SP40 has been acquired for 10 frames. When a negative result is obtained, the process returns to step SP31, and thereafter, in step SP41, a positive result is obtained in step SP31.
Step SP41 is repeated.

【0113】そしてやがてステップSP41において肯
定結果を得ると、重心計算用画像処理オブジェクト86
は、フレーム数のカウント値をリセットした後ステップ
SP42に進んで、ステップSP40における過去10フ
レーム分の動きの有無の判断結果に基づいて実際に外部
に動きがあったか否かを判断する。具体的には、重心計
算用画像処理オブジェクト86は、例えばかかる10フレ
ームのうちの半分以上のフレームにおいて動きが検出さ
れた場合には真に動きがあったと判断し、これに対して
半分以上のフレームにおいて動きが検出されなかった場
合には動きがなかったと判断する。
When a positive result is obtained in step SP41, the image processing object 86 for calculating the center of gravity is obtained.
After resetting the count value of the number of frames, the process proceeds to step SP42, and it is determined whether or not there is actually any external movement based on the determination result of the presence or absence of the motion for the past 10 frames in step SP40. Specifically, the image processing object 86 for calculating the center of gravity determines, for example, that there is a real movement when the movement is detected in more than half of the 10 frames, and more than half of the movement is detected. If no motion is detected in the frame, it is determined that there is no motion.

【0114】そして重心計算用画像処理オブジェクト8
6は、真に動きがあったと判断した場合には、ステップ
SP39において検出した最新のフレーム画像(過去10
フレームのうちの最後のフレーム)内における動き領域
の重心位置をアプリケーション・レイヤ71内の対応す
るモジュールに通知した後ステップSP31に戻り、こ
れに対して動きがなかった判断した場合には何の通知も
行うことなくこの後ステップSP31に戻る。
Then, the image processing object 8 for calculating the center of gravity
6, when it is determined that there is truly movement, the latest frame image (the last 10
After notifying the corresponding module in the application layer 71 of the position of the center of gravity of the motion area in the last frame of the frame), the process returns to step SP31. Thereafter, the flow returns to step SP31.

【0115】このようにしてこのペットロボット1にお
いては、自身の動きに伴う画像全体の動きを考慮しなが
ら画像内の動体を精度良く検出し得るようになされてい
る。
In this way, the pet robot 1 can accurately detect a moving object in an image while taking into account the movement of the entire image accompanying its own movement.

【0116】(5)動体検出結果の行動への反映 次に上述のようにして得られた動体検出結果が実際にペ
ットロボット1の行動にどのように反映されるかについ
て説明する。
(5) Reflecting the Moving Object Detection Result on Behavior Next, how the moving object detection result obtained as described above is actually reflected on the behavior of the pet robot 1 will be described.

【0117】動体検出処理手順RT2(図10)のステ
ップSP42において真に動きがあったと判断された場
合、この判断結果は図13に示すアプリケーション・レ
イヤ71内の行動決定モジュール100に通知される。
If it is determined in step SP42 of the moving object detection processing procedure RT2 (FIG. 10) that there is a true movement, the determination result is notified to the action determination module 100 in the application layer 71 shown in FIG.

【0118】この行動決定モジュール100は、DRA
M11に格納される各センサデータに基づいて外部及び
内部の状態を認識すると共に、当該認識結果及び重心計
算用画像処理オブジェクト86(図8)から与えられる
通知等に基づいてペットロボット1の行動を決定するモ
ジュールであり、「喜び」、「悲しみ」、「驚き」、
「恐怖」、「嫌悪」及び「怒り」の合計6つの情動につ
いて、各情動ごとにその情動の強さを表すパラメータを
保持している。
This action determination module 100
In addition to recognizing the external and internal states based on each sensor data stored in M11, the behavior of the pet robot 1 is determined based on the recognition result and a notification given from the center-of-gravity calculation image processing object 86 (FIG. 8). It is the module that decides, "joy", "sadness", "surprise",
For a total of six emotions, “fear”, “disgust”, and “anger”, each emotion has a parameter indicating the strength of the emotion.

【0119】そして行動決定モジュール100は、これ
ら各情動のパラメータの値を、それぞれ認識した外部及
び内部の状態や、重心計算用画像処理オブジェクト86
から与えられる通知等に基づいて所定周期で順次更新す
ると共に、これら各情動のパラメータの値と、認識した
外部及び内部の状態とに基づいて次の行動を決定し、当
該決定結果に基づく行動指令をミドル・ウェア・レイヤ
70の動作生成モジュール101又は追尾モジュール1
02に送出する。
Then, the action determination module 100 recognizes the values of the parameters of each of these emotions as the recognized external and internal states and the image processing object 86 for calculating the center of gravity.
, And the next action is determined based on the values of the parameters of these emotions and the recognized external and internal states, and an action command based on the determination result. To the motion generation module 101 or the tracking module 1 of the middleware layer 70
02.

【0120】また動作生成モジュール101及び追尾モ
ジュール102は、与えられる行動指令を基づいて、そ
の行動を行うために対応する各アクチュエータ25に与
えるべきサーボ指令値を生成し、これらを上述の駆動信
号としてロボティック・サーバ・オブジェクト62のバ
ーチャルロボット63及び信号処理回路14を順次介し
て対応する各アクチュエータ25に送出する。
The motion generating module 101 and the tracking module 102 generate a servo command value to be given to each of the actuators 25 corresponding to the action based on the given action command, and use these as drive signals described above. The virtual robot 63 of the robotic server object 62 and the signal processing circuit 14 sequentially transmit the signals to the corresponding actuators 25.

【0121】この結果、例えば突然に動きが検出された
場合には、その刺激によって行動生成モジュール71内
の「驚き」のパラメータが上昇することにより、行動生
成モジュール71によって次の行動として「驚き」の感
情表出の行動が決定される。そしてこのようにして決定
された行動に応じた行動指令が動作生成モジュール70
に与えられ、当該動作生成モジュール70においてその
行動指令に基づくサーボ指令値等が生成されて、これが
対応するアクチュエータ25等に上述の駆動信号として
与えられることにより、驚きを表す行動が発現される。
As a result, for example, when a motion is suddenly detected, the parameter of “surprise” in the action generation module 71 is increased by the stimulus, so that the action generation module 71 sets “surprise” as the next action. Is determined. Then, the action command corresponding to the action determined in this way is sent to the action generation module 70.
The operation generation module 70 generates a servo command value or the like based on the action command, and the servo command value or the like is provided to the corresponding actuator 25 or the like as the above-described drive signal, whereby an action that shows surprise is expressed.

【0122】また行動生成モジュール100において動
体の動きを追尾するような行動が決定された場合には、
当該決定された行動に応じた指令が追尾モジュール10
2に与えられ、当該追尾モジュール102においてその
行動指令に基づくサーボ指令値等が生成されて、これが
対応するアクチュエータ25等に上述の駆動信号として
与えられることにより、ペットロボット1が動体に興味
を示して頭をそちらに向けたり、歩いて追いかけたりす
る行動が発現される。
If the action generation module 100 determines an action that tracks the motion of the moving object,
The command according to the determined action is sent to the tracking module 10.
2, the tracking module 102 generates a servo command value or the like based on the action command, and the generated servo command value is supplied to the corresponding actuator 25 or the like as the above-described drive signal, whereby the pet robot 1 shows interest in the moving object. The behavior of turning the head over there or walking and chasing is manifested.

【0123】このようにしてこのペットロボット1にお
いては、動きの検出結果を自己の行動に反映し得るよう
になされている。
As described above, in the pet robot 1, the detection result of the movement can be reflected on its own behavior.

【0124】なおこのペットロボット1の場合、追尾モ
ジュール102は、行動決定モジュール100から一旦
行動指令を受け取った後は、必要な情報を行動決定モジ
ュール100を介すことなく重心計算用画像処理オブジ
ェクト86から取得するようになされており、これによ
り追尾などの高速なタスクを確実に行い得るようになさ
れている。
In the case of the pet robot 1, once the tracking module 102 receives the action command from the action determining module 100, the tracking module 102 transmits necessary information to the image processing object 86 for calculating the center of gravity without passing through the action determining module 100. , So that high-speed tasks such as tracking can be reliably performed.

【0125】(6)本実施の形態の動作及び効果 以上の構成において、このペットロボット1では、フレ
ーム間における画像全体の移動量を検出し、当該移動量
を考慮したマッチング処理により画像内の動体を検出す
る。
(6) Operation and Effect of the Present Embodiment In the above configuration, the pet robot 1 detects the moving amount of the entire image between frames and performs a matching process in consideration of the moving amount to determine the moving object in the image. Is detected.

【0126】従ってこのペットロボット1では、ペット
ロボット1の動作に伴う動体の誤検出を未然にかつ効率
良く防止しながら、動体を精度良く検出することができ
る。
Accordingly, the pet robot 1 can accurately detect a moving object while efficiently preventing erroneous detection of the moving object due to the operation of the pet robot 1.

【0127】またこのペットロボット1では、1台のC
CDカメラ20だけで動体の検出を行えるため、ペット
ロボット1全体としての構成を簡易化することができ
る。
In this pet robot 1, one C
Since the moving object can be detected only by the CD camera 20, the configuration of the pet robot 1 as a whole can be simplified.

【0128】以上の構成によれば、フレーム間における
画像全体の移動量を検出し、当該移動量を考慮したマッ
チング処理により画像内の動体を検出するようにしたこ
とにより、ペットロボット1の動作に伴う動体の誤検出
を未然にかつ効率良く防止しながら、動体を精度良く検
出することができる。かくするにつき動体の誤検出に起
因する不自然な行動を未然に防止して、エンターテイメ
ント性を向上させ得るペットロボットを実現できる。
According to the above configuration, the movement amount of the entire image between the frames is detected, and the moving object in the image is detected by the matching processing in consideration of the movement amount. The moving object can be detected with high accuracy while preventing the erroneous detection of the moving object beforehand and efficiently. In this way, it is possible to realize a pet robot that can prevent unnatural behavior due to erroneous detection of a moving object and improve entertainment characteristics.

【0129】(7)他の実施の形態 なお上述の実施の形態においては、本発明を4足歩行型
のペットロボット1に適用するようにした場合について
述べたが、本発明はこれに限らず、これ以外の装置に搭
載されるこの他種々の画像処理装置や4足歩行型以外の
ペットロボット又はペットロボット以外のロボット等に
広く適用することができる。
(7) Other Embodiments In the above-described embodiment, a case has been described in which the present invention is applied to the four-legged walking type pet robot 1. However, the present invention is not limited to this. The present invention can be widely applied to various other image processing devices mounted on other devices, pet robots other than the quadruped walking type, and robots other than the pet robot.

【0130】また上述の実施の形態においては、CCD
カメラ20から出力される画像情報(画像データ)に基
づく画像全体の移動量を検出する第1の検出手段を、ソ
フトウェア構成の動き検出用画像処理オブジェクト83
と、ハードウェア構成のIPE35とによって構成する
ようにした場合について述べたが、本発明はこれに限ら
ず、これらを全てソフトウェア構成又はハードウェア構
成とするようにしても良く、第1の検出手段の構成とし
ては、この他種々の構成を広く適用することができる。
In the above embodiment, the CCD
The first detection means for detecting the movement amount of the entire image based on the image information (image data) output from the camera 20 is a motion detection image processing object 83 having a software configuration.
And a hardware configuration of the IPE 35, the present invention is not limited to this, and all of them may be configured as a software configuration or a hardware configuration. Various other configurations can be widely applied.

【0131】さらに上述の実施の形態においては、かか
る第1の検出手段の検出結果を考慮した所定の動き検出
処理により、画像内の動きを検出する第2の検出手段と
して、ソフトウェア構成の動き検出用画像処理オブジェ
クト83及び重心計算用画像処理オブジェクト86と、
ハードウェア構成のIPE35とによって構成するよう
にした場合について述べたが、本発明はこれに限らず、
これらを全てソフトウェア構成又はハードウェア構成と
するようにしても良く、第2の検出手段の構成として
は、この他種々の構成を広く適用することができる。
Further, in the above-described embodiment, the second detection means for detecting a motion in an image by a predetermined motion detection process in consideration of the detection result of the first detection means is a software-structured motion detection. Image processing object 83 and image processing object 86 for calculating the center of gravity,
Although a case has been described in which the configuration is made with the IPE 35 having a hardware configuration, the present invention is not limited to this.
All of these may be configured as a software configuration or a hardware configuration, and various other configurations can be widely applied as the configuration of the second detection unit.

【0132】さらに上述の実施の形態においては、前フ
レーム及び現フレーム間の画像全体の移動量を検出する
手法として、前フレーム画像92及び現フレーム画像9
3をそれぞれ4分割し、前フレーム画像92の分割領域
(第1〜第4のテンプレート分割領域92A1〜92
4)と、現フレーム画像93の対応する分割領域(第
1〜第4の検索画像分割領域93A1〜93A4)とをマ
ッチング処理するようにした場合について述べたが、本
発明はこれに限らず、前フレーム画像92及び現フレー
ム画像93を分割することなく、又は4分割以外の数に
分割してマッチング処理を行うようにしても良い。
Further, in the above-described embodiment, as a method of detecting the movement amount of the entire image between the previous frame and the current frame, the previous frame image 92 and the current frame image 9 are used.
3 is divided into four parts, and the divided areas of the previous frame image 92 (first to fourth template divided areas 92A 1 to 92A 1 to 92
And A 4), it has been dealt with the case where the matching process and the corresponding divided region of the current frame image 93 (first to fourth search image segmentation region 93A 1 ~93A 4) of the present invention is to However, the matching process may be performed without dividing the previous frame image 92 and the current frame image 93 or by dividing the previous frame image 92 and the current frame image 93 into numbers other than four.

【0133】[0133]

【発明の効果】上述のように本発明によれば、画像処理
装置及び方法において、画像情報に基づく画像全体の移
動量を検出し、当該検出結果を考慮した所定の動き検出
処理により、画像内の動きを検出するようにしたことに
より、画像全体の動きの有無に係わりなく、画像内の動
体を精度良く検出し得る画像処理装置及び方法を実現で
きる。
As described above, according to the present invention, in the image processing apparatus and method, the moving amount of the entire image based on the image information is detected, and the predetermined motion detecting process in consideration of the detection result is performed. By detecting the movement of the image, it is possible to realize an image processing apparatus and method capable of accurately detecting a moving object in an image regardless of the presence or absence of movement of the entire image.

【0134】また本発明によれば、ロボット装置及びそ
の制御方法において、外部を撮像する撮像手段から出力
される画像情報に基づく画像全体の移動量を検出すると
共に、当該検出結果を考慮した所定の動き検出処理によ
り画像内の動きを検出し、この検出結果を行動に反映さ
せるようにしたことにより、ロボット装置の動作に伴う
撮像手段の動きの有無に係わりなく、当該撮像手段から
出力される画像情報に基づく画像内の動体を精度良く検
出して、当該検出結果を反映した行動を行うことがで
き、かくしてエンターテイメント性を向上させ得るロボ
ット装置及びその制御方法を実現できる。
Further, according to the present invention, in the robot apparatus and the control method thereof, the moving amount of the entire image based on the image information output from the image pickup means for picking up the outside is detected, and the predetermined amount is determined in consideration of the detection result. By detecting the motion in the image by the motion detection process and reflecting the detection result in the action, the image output from the imaging unit regardless of the presence or absence of the movement of the imaging unit due to the operation of the robot apparatus A robot device capable of accurately detecting a moving object in an image based on information and performing an action reflecting the detection result, and thus improving entertainment characteristics, and a control method thereof can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施の形態によるペットロボットの構成を示
す斜視図である。
FIG. 1 is a perspective view showing a configuration of a pet robot according to the present embodiment.

【図2】ペットロボットの回路構成を示すブロック図で
ある。
FIG. 2 is a block diagram illustrating a circuit configuration of the pet robot.

【図3】信号処理回路の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of a signal processing circuit.

【図4】ペットロボットにおける画像データの転送方法
の説明に供するブロック図である。
FIG. 4 is a block diagram for explaining a method of transferring image data in the pet robot.

【図5】制御プログラムのソフトウェア構成を示す概念
図である。
FIG. 5 is a conceptual diagram showing a software configuration of a control program.

【図6】画像処理手順を示すフローチャートである。FIG. 6 is a flowchart illustrating an image processing procedure.

【図7】画像処理手順を示すフローチャートである。FIG. 7 is a flowchart illustrating an image processing procedure.

【図8】ペットロボットにおける画像処理方法の説明に
供するブロック図である。
FIG. 8 is a block diagram for explaining an image processing method in the pet robot.

【図9】ペットロボットにおける動き検出の概要説明に
供する概念図である。
FIG. 9 is a conceptual diagram serving to provide an overview of motion detection in a pet robot.

【図10】動体検出処理手順を示すフローチャートであ
る。
FIG. 10 is a flowchart illustrating a moving object detection processing procedure.

【図11】ペットロボットにおける動体検出手順の概要
説明に供する概念図である。
FIG. 11 is a conceptual diagram serving to provide an overview of a moving object detection procedure in a pet robot.

【図12】ペットロボットにおける画像全体の移動量検
出の仕方の説明に供する概念図である。
FIG. 12 is a conceptual diagram explaining how to detect the movement amount of the entire image in the pet robot.

【図13】動体検出結果を行動に反映させるための説明
に供するブロック図である。
FIG. 13 is a block diagram for explaining the operation of reflecting a moving object detection result in an action.

【符号の説明】[Explanation of symbols]

1……ペットロボット、10……CPU、11……DR
AM、14……信号処理回路、20……CCDカメラ、
34……FBK/CDT、35……IPE、61A……
FBK/CDTドライバ、63……バーチャル・ロボッ
ト、83……動き検出画像処理オブジェクト、86……
重心計算用画像処理オブジェクト、92……前フレーム
画像、92A……中心領域、92A1〜92A4……テン
プレート分割領域、93……現フレーム画像、93A1
〜93A4……検索画像分割領域、93B……画像領
域、100……行動決定モジュール、101……動作生
成モジュール、102……追尾モジュール、RT2……
動体検出処理手順。
1 ... pet robot, 10 ... CPU, 11 ... DR
AM, 14 ... signal processing circuit, 20 ... CCD camera,
34 FBK / CDT, 35 IPE, 61A
FBK / CDT driver, 63: virtual robot, 83: motion detection image processing object, 86:
Centroid calculation image processing object 92 ...... previous frame image, 92A ...... central area, 92A 1 ~92A 4 ...... template divided regions, 93 ...... current frame image, 93A 1
... 93A 4 ... Search image divided area, 93B... Image area, 100... Action determination module, 101... Action generation module, 102... Tracking module, RT2.
Moving object detection processing procedure.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 300 G06T 1/00 300 7/00 300 7/00 300D Fターム(参考) 2C150 CA01 CA02 CA04 DA04 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF33 ED42 ED47 ED52 EF03 EF07 EF13 EF16 EF23 EF29 EF34 EF36 3C007 AS36 CS08 KS18 KS23 KS24 KS27 KS31 KS39 KT01 KT11 WA04 WA14 5B057 AA05 BA02 CA01 CA12 CA16 DA06 DC06 DC16 DC32 5L096 AA02 BA05 CA14 FA02 FA06 FA60 GA08 GA19 HA04 JA03 JA09 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 1/00 300 G06T 1/00 300 7/00 300 7/00 300D F-term (Reference) 2C150 CA01 CA02 CA04 DA04 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF33 ED42 ED47 ED52 EF03 EF07 EF13 EF16 EF23 EF29 EF34 EF36 3C007 AS36 CS08 KS18 KS23 KS24 KS24 KS27 KS31 KS39 KT01 KT11 WA04 DC05 BA16 DC06 A05 5A02 DC FA60 GA08 GA19 HA04 JA03 JA09

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】画像情報に基づく画像全体の移動量を検出
する第1の検出手段と、 上記第1の検出手段の検出結果を考慮した所定の動き検
出処理により、上記画像内の動きを検出する第2の検出
手段とを具えることを特徴とする画像処理装置。
A first detecting means for detecting a movement amount of the entire image based on the image information; and a predetermined motion detecting process considering a detection result of the first detecting means, to detect a motion in the image. An image processing apparatus, comprising:
【請求項2】上記第1の検出手段は、 上記画像情報に基づく現フレームの分割画像と、上記画
像情報に基づく前フレームの対応する位置の分割画像と
のマッチングスコアを画素単位でずらしながら算出し、
算出結果に基づいて上記画像全体の移動量を検出するこ
とを特徴とする請求項1に記載の画像処理装置。
2. The method according to claim 1, wherein the first detecting means calculates a matching score between a divided image of a current frame based on the image information and a divided image at a corresponding position of a previous frame based on the image information while shifting the matching score in pixel units. And
The image processing apparatus according to claim 1, wherein a movement amount of the entire image is detected based on a calculation result.
【請求項3】上記第2の検出手段は、 上記検出した移動量に応じて、上記画像内の上記動きの
検出感度を変化させることを特徴とする請求項1に記載
の画像処理装置。
3. The image processing apparatus according to claim 1, wherein said second detecting means changes the detection sensitivity of the movement in the image according to the detected movement amount.
【請求項4】画像情報に基づく画像全体の移動量を検出
する第1のステップと、 上記検出した移動量を考慮した所定の動き検出処理によ
り、上記画像内の動きを検出する第2のステップとを具
えることを特徴とする画像処理方法。
4. A first step of detecting a movement amount of the entire image based on the image information, and a second step of detecting a movement in the image by performing a predetermined movement detection process in consideration of the detected movement amount. An image processing method comprising:
【請求項5】上記第1のステップでは、 上記画像情報に基づく現フレームの分割画像と、上記画
像情報に基づく前フレームの対応する位置の分割画像と
のマッチングスコアを画素単位でずらしながら算出し、
算出結果に基づいて上記画像全体の移動量を検出するこ
とを特徴とする請求項4に記載の画像処理方法。
5. In the first step, a matching score between a divided image of a current frame based on the image information and a divided image at a corresponding position of a previous frame based on the image information is calculated while being shifted in pixel units. ,
The image processing method according to claim 4, wherein a movement amount of the entire image is detected based on a calculation result.
【請求項6】上記第2のステップでは、 上記検出した移動量に応じて、上記画像内の上記動きの
検出感度を変化させることを特徴とする請求項4に記載
の画像処理方法。
6. The image processing method according to claim 4, wherein, in the second step, a detection sensitivity of the movement in the image is changed according to the detected movement amount.
【請求項7】行動を自律的に決定して発現するロボット
装置において、 外部を撮像する撮像手段と、 上記撮像手段から出力される画像情報に基づく画像全体
の移動量を検出する第1の検出手段と、 上記第1の検出手段の検出結果を考慮した所定の動き検
出処理により、上記画像内の動きを検出する第2の検出
手段と、 を具え、 第2の検出手段の検出結果を上記行動に反映させること
を特徴とするロボット装置。
7. A robot apparatus for autonomously determining and expressing an action, comprising: an image pickup means for picking up an image of the outside; and a first detection for detecting a movement amount of the entire image based on image information output from the image pickup means. Means, and second detection means for detecting a motion in the image by a predetermined motion detection process in consideration of the detection result of the first detection means, wherein the detection result of the second detection means is A robot device characterized in that it is reflected in an action.
【請求項8】上記第1の検出手段は、 上記画像情報に基づく現フレームの分割画像と、上記画
像情報に基づく前フレームの対応する位置の分割画像と
のマッチングスコアを画素単位でずらしながら算出し、
算出結果に基づいて上記画像全体の移動量を検出するこ
とを特徴とする請求項7に記載のロボット装置。
8. The first detecting means calculates a matching score between a divided image of a current frame based on the image information and a divided image at a corresponding position of a previous frame based on the image information while shifting the matching score in pixel units. And
The robot apparatus according to claim 7, wherein a movement amount of the entire image is detected based on a calculation result.
【請求項9】上記第2の検出手段は、 上記検出した移動量に応じて、上記画像内の上記動きの
検出感度を変化させることを特徴とする請求項7に記載
のロボット装置。
9. The robot apparatus according to claim 7, wherein said second detecting means changes the detection sensitivity of the movement in the image according to the detected movement amount.
【請求項10】行動を自律的に決定して発現するロボッ
ト装置の制御方法において、 上記ロボットに搭載された撮像手段により外部を撮像す
ると共に、当該撮像手段から出力される画像情報に基づ
く画像全体の移動量を検出する第1のステップと、 上記検出した移動量を考慮した所定の動き検出処理によ
り、上記画像内の動きを検出する第2のステップと、上
記第2のステップでの検出結果を上記ロボット装置の上
記行動に反映させる 第3のステップとを具えることを特徴とするロボット装
置の制御方法。
10. A control method for a robot apparatus which autonomously determines and expresses an action, wherein an image of the outside is taken by an image pickup means mounted on the robot, and an entire image is formed based on image information output from the image pickup means. A first step of detecting a movement amount of the image, a second step of detecting a movement in the image by a predetermined motion detection process in consideration of the detected movement amount, and a detection result of the second step Reflecting in the behavior of the robot device a third step.
【請求項11】上記第1のステップでは、 上記画像情報に基づく現フレームの分割画像と、上記画
像情報に基づく前フレームの対応する位置の分割画像と
のマッチングスコアを画素単位でずらしながら算出し、
算出結果に基づいて上記画像全体の移動量を検出するこ
とを特徴とする請求項10に記載のロボット装置の制御
方法。
11. In the first step, a matching score between a divided image of a current frame based on the image information and a divided image at a position corresponding to a previous frame based on the image information is calculated while being shifted in pixel units. ,
The method according to claim 10, wherein a movement amount of the entire image is detected based on a calculation result.
【請求項12】上記第2のステップでは、 上記検出した移動量に応じて、上記画像内の上記動きの
検出感度を変化させることを特徴とする請求項10に記
載のロボット装置の制御方法。
12. The method according to claim 10, wherein in the second step, the detection sensitivity of the movement in the image is changed according to the detected movement amount.
JP2001046788A 2001-02-22 2001-02-22 Image processing apparatus and method, robot apparatus and control method therefor Expired - Fee Related JP4618470B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001046788A JP4618470B2 (en) 2001-02-22 2001-02-22 Image processing apparatus and method, robot apparatus and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001046788A JP4618470B2 (en) 2001-02-22 2001-02-22 Image processing apparatus and method, robot apparatus and control method therefor

Publications (2)

Publication Number Publication Date
JP2002251615A true JP2002251615A (en) 2002-09-06
JP4618470B2 JP4618470B2 (en) 2011-01-26

Family

ID=18908344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001046788A Expired - Fee Related JP4618470B2 (en) 2001-02-22 2001-02-22 Image processing apparatus and method, robot apparatus and control method therefor

Country Status (1)

Country Link
JP (1) JP4618470B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103764304A (en) * 2011-04-05 2014-04-30 泽恩机器人有限公司 Method for invalidating sensor measurements after a picking action in a robot system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07298247A (en) * 1994-04-22 1995-11-10 Oki Electric Ind Co Ltd Monitoring method using tv camera and monitoring system
JP2679778B2 (en) * 1990-05-16 1997-11-19 松下電器産業株式会社 Image motion detection device
JP2000222584A (en) * 1999-01-29 2000-08-11 Toshiba Corp Video information describing method, method, and device for retrieving video
JP2000244926A (en) * 1999-02-19 2000-09-08 Nec Corp Motion vector retrieval method for coding moving picture
JP2001016606A (en) * 1999-06-29 2001-01-19 Sharp Corp Operation recognition system and recording medium recording operation recognition program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2679778B2 (en) * 1990-05-16 1997-11-19 松下電器産業株式会社 Image motion detection device
JPH07298247A (en) * 1994-04-22 1995-11-10 Oki Electric Ind Co Ltd Monitoring method using tv camera and monitoring system
JP2000222584A (en) * 1999-01-29 2000-08-11 Toshiba Corp Video information describing method, method, and device for retrieving video
JP2000244926A (en) * 1999-02-19 2000-09-08 Nec Corp Motion vector retrieval method for coding moving picture
JP2001016606A (en) * 1999-06-29 2001-01-19 Sharp Corp Operation recognition system and recording medium recording operation recognition program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103764304A (en) * 2011-04-05 2014-04-30 泽恩机器人有限公司 Method for invalidating sensor measurements after a picking action in a robot system
JP2014511772A (en) * 2011-04-05 2014-05-19 ゼンロボティクス オイ Method to invalidate sensor measurement value after picking motion in robot system

Also Published As

Publication number Publication date
JP4618470B2 (en) 2011-01-26

Similar Documents

Publication Publication Date Title
JP7096925B2 (en) Deep machine learning system for rectangular parallelepiped detection
JP4609584B2 (en) Robot device, face recognition method, and face recognition device
US7532743B2 (en) Object detector, object detecting method and robot
US10970850B2 (en) Method and device for recognizing motion
WO2020031767A1 (en) Information processing device, information processing method, and program
JP2003285288A (en) Charging system, charge control method, robot, charger, and charge control program and recording medium
JP2004133637A (en) Face detector, face detection method and program, and robot apparatus
US10726248B2 (en) Validating gesture recognition capabilities of automated systems
JP4759810B2 (en) Image processing apparatus, robot apparatus, and image processing method
KR20140009900A (en) Apparatus and method for controlling robot
JP2004298975A (en) Robot device and obstacle searching method
JP4235858B2 (en) Robot apparatus and obstacle map generation method for robot apparatus
JP4618470B2 (en) Image processing apparatus and method, robot apparatus and control method therefor
Hsiao et al. Proactive sensing for improving hand pose estimation
US20210316452A1 (en) Information processing device, action decision method and program
JP2004130427A (en) Robot device and method for controling operation of robot device
JP4779226B2 (en) ROBOT DEVICE, IMAGE STORAGE METHOD, IMAGE STORAGE DEVICE, CONTROL PROGRAM, AND RECORDING MEDIUM
JP4379052B2 (en) Moving object detection apparatus, moving object detection method, and robot apparatus
JP4193098B2 (en) TRACKING DEVICE, TRACKING DEVICE TRACKING METHOD, AND ROBOT DEVICE
JP2005271137A (en) Robot device and control method thereof
JP2001157979A (en) Robot device, and control method thereof
JP2003191189A (en) Robot device and its control method
JP2003067780A (en) Image processor and program therefor
EP4099266A1 (en) Information processing device, information processing method, and program
JP2004229003A (en) Robotic device and imaging direction switching method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100722

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100930

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101013

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131105

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees