JPH09271014A - Moving object recognizing device - Google Patents

Moving object recognizing device

Info

Publication number
JPH09271014A
JPH09271014A JP10429396A JP10429396A JPH09271014A JP H09271014 A JPH09271014 A JP H09271014A JP 10429396 A JP10429396 A JP 10429396A JP 10429396 A JP10429396 A JP 10429396A JP H09271014 A JPH09271014 A JP H09271014A
Authority
JP
Japan
Prior art keywords
correspondence
image
moving object
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10429396A
Other languages
Japanese (ja)
Other versions
JP3050283B2 (en
Inventor
Keiji Nemoto
啓次 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP8104293A priority Critical patent/JP3050283B2/en
Publication of JPH09271014A publication Critical patent/JPH09271014A/en
Application granted granted Critical
Publication of JP3050283B2 publication Critical patent/JP3050283B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To highly precisely and quickly detect a moving object and to measure its shape and distance by using the known correspondence relation of a stereoscopic picture. SOLUTION: A picture input part 1 inputs a stereoscopic picture consisting of right and left pictures, a correspondence detection part 2 finds out correspondence relation between the right and left pictures in the stereoscopic picture inputted from the input part 1 and a correspondence storing part 3 stores the correspondence relation found out by the detection part 2. An area detection part 4 detects an area including a moving object based upon the correspondence relation stored in the storing part 3 and a stereoscopic picture inputted from the input part 1 on occasion and an object recognizing part 5 finds out the shape and distance of a moving object in the area detected by the detection part 4.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は動物体認識装置に関
し、特にテレビカメラ等から入力される画像中の動物体
の形状および距離を求める動物体認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving object recognizing device, and more particularly to an moving object recognizing device for determining the shape and distance of an moving object in an image input from a television camera or the like.

【0002】[0002]

【従来の技術】従来の画像中の物体を検出する装置とし
ては、特開昭62−213495号公報「異常監視装
置」,特開平6−217311号公報「移動体監視装
置」,特開平7−79429号公報「画像監視装置」等
に記載されているような技術が知られている。これらの
技術においては、ある時点の画像を記憶しておき、順次
得られる画像との差分を計算する。新たな物体が侵入し
て来れば画像が変化するから、この差分を処理すること
により新たな物体を検出している。
2. Description of the Related Art As a conventional device for detecting an object in an image, Japanese Patent Laid-Open No. 62-213495, "Abnormality Monitoring Device", Japanese Patent Laid-Open No. 6-217311, "Mobile Object Monitoring Device", Japanese Patent Laid-Open No. 7- Techniques such as those described in Japanese Patent Publication No. 79429 “Image Monitoring Device” are known. In these techniques, an image at a certain point of time is stored, and the difference between the images sequentially obtained is calculated. Since an image changes when a new object comes in, a new object is detected by processing this difference.

【0003】また、物体の形状や距離を計測する方法と
しては、特開平3−81878号公報「ステレオ画像を
用いた距離計測用画像認識装置」に記載されているよう
な、ステレオ法と呼ばれる技術が知られている。このス
テレオ法においては、まずステレオ画像と呼ばれる左右
2枚の画像を入力し、画像中の特徴量の計算により左右
画像の対応点を求める。この対応点とは、左画像のある
位置の対象物体が、右画像ではどこの位置に写っている
かを示している。こういった対応点の求め方の詳細は、
例えば特開昭62−107386号公報「画像マッチン
グ方法」に記載されている。そして、左右2枚の画像の
対応点が求められたならば、三角測量の原理で物体表面
までの距離を計算できる。従って、物体までの距離や物
体表面の形状を知ることができる。
As a method of measuring the shape and distance of an object, a technique called a stereo method as described in Japanese Patent Laid-Open No. 3-81878 "Image recognition device for distance measurement using stereo image". It has been known. In this stereo method, first, two right and left images called stereo images are input, and the corresponding points of the left and right images are obtained by calculating the feature amount in the images. The corresponding points indicate where in the right image the target object at a certain position in the left image appears. For details on how to find such correspondence points,
For example, it is described in JP-A-62-107386, "Image matching method". Then, if the corresponding points of the two left and right images are obtained, the distance to the object surface can be calculated by the principle of triangulation. Therefore, it is possible to know the distance to the object and the shape of the object surface.

【0004】[0004]

【発明が解決しようとする課題】上述した従来の画像中
の物体を検出する装置では、記憶しておいた画像と順次
得られる画像との差分を基本として処理を行うので、照
明条件が突然変化したり、雲などの影が画像中の物体に
落ちた場合でも、新たな物体として検出してしまうとい
う問題点があった。
In the above-described conventional apparatus for detecting an object in an image, the processing is performed based on the difference between the stored image and the sequentially obtained images, so that the illumination condition suddenly changes. However, even if a shadow such as a cloud falls on an object in the image, it is detected as a new object.

【0005】また、従来のステレオ法を用いて物体の形
状や距離を計測する方法では、画像間の対応関係を求め
る処理に多大の時間を要するという問題点があった。
Further, the conventional method of measuring the shape and distance of an object by using the stereo method has a problem that it takes a lot of time to obtain a correspondence between images.

【0006】本発明の目的は、ステレオ画像の既知の対
応関係を利用することで、高精度かつ高速に動物体を検
出しその形状や距離を測定することができる動物体認識
装置を提供することにある。
An object of the present invention is to provide a moving object recognizing device capable of detecting an moving object and measuring its shape and distance with high accuracy and high speed by utilizing the known correspondence relationship of stereo images. It is in.

【0007】[0007]

【課題を解決するための手段】第1の発明の動物体認識
装置は、左画像および右画像からなるステレオ画像を入
力する画像入力部と、この画像入力部により入力された
ステレオ画像の左画像と右画像との対応関係を求める対
応検出部と、この対応検出部により求められた対応関係
を記憶する対応記憶部と、この対応記憶部に記憶された
対応関係および前記画像入力部から随時入力されるステ
レオ画像に基づいて動物体が存在する領域を検出する領
域検出部と、この領域検出部により検出された領域内の
動物体の形状および距離を求める物体認識部とを備える
ことを特徴とする。
The moving object recognizing device of the first invention is an image input section for inputting a stereo image consisting of a left image and a right image, and a left image of the stereo image input by this image input section. And a right image, a correspondence detection unit for obtaining a correspondence relation, a correspondence storage unit for storing the correspondence relation obtained by the correspondence detection unit, a correspondence relation stored in the correspondence storage unit, and an input from the image input unit at any time A region detection unit that detects a region in which a moving object is present based on the stereo image, and an object recognition unit that determines the shape and distance of the moving object in the region detected by the region detection unit. To do.

【0008】また、第2の発明の動物体認識装置は、主
画像を入力する主画像入力部と、前記主画像の視点の周
囲の視点からの複数の補助画像を入力する補助画像入力
部と、前記主画像と前記複数の補助画像との対応関係を
求める対応検出部と、この対応検出部により求められた
対応関係を記憶する対応記憶部と、この対応記憶部に記
憶された対応関係,前記主画像入力部から随時入力され
る主画像および前記補助画像入力部から随時入力される
複数の補助画像に基づいて動物体が存在する領域を検出
する領域検出部と、この領域検出部により検出された領
域内の動物体の形状および距離を求める物体認識部とを
備えることを特徴とする。
Further, the moving object recognizing device of the second invention comprises a main image input section for inputting a main image, and an auxiliary image input section for inputting a plurality of auxiliary images from viewpoints around the viewpoint of the main image. A correspondence detection unit that obtains a correspondence relation between the main image and the plurality of auxiliary images, a correspondence storage unit that stores the correspondence relation obtained by the correspondence detection unit, and a correspondence relation stored in the correspondence storage unit, A region detection unit that detects a region in which a moving object is present based on a main image that is input from the main image input unit at any time and a plurality of auxiliary images that are input from the auxiliary image input unit at all times, and that is detected by this region detection unit. And an object recognition unit that obtains the shape and distance of the moving object in the defined region.

【0009】さらに、第3の発明の動物体認識装置は、
第1および第2の発明の動物体認識装置において、前記
領域検出部により検出された領域外に関して前記対応記
憶部により記憶された対応関係の変化を検出して前記対
応記憶部の記憶内容を更新する対応更新部を備えること
を特徴とする。
Furthermore, the moving object recognizing device of the third invention is
In the moving object recognition apparatus according to the first and second aspects of the invention, a change in the correspondence relationship stored in the correspondence storage unit with respect to the area outside the area detected by the area detection unit is detected, and the storage content of the correspondence storage unit is updated. It is characterized by including a corresponding update unit.

【0010】[0010]

【発明の実施の形態】次に、本発明について図面を参照
して詳細に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, the present invention will be described in detail with reference to the drawings.

【0011】具体的な実施例の説明に入る前に、本発明
の動物体認識装置の原理について、図9ないし図15を
参照して説明する。
Before going into the description of a specific embodiment, the principle of the moving object recognizing device of the present invention will be described with reference to FIGS. 9 to 15.

【0012】図9は、ステレオ画像と被写体との関係を
上から示した図である。左画像の視点10から投影面1
2上に被写体14を投影して左画像を得る。同様に、右
画像の視点11から投影面13上に被写体14を投影し
て右画像を得る。
FIG. 9 is a diagram showing the relationship between a stereo image and a subject from above. Projection plane 1 from viewpoint 10 of the left image
A subject 14 is projected onto the image 2 to obtain a left image. Similarly, the subject 14 is projected from the viewpoint 11 of the right image on the projection surface 13 to obtain the right image.

【0013】図10に示すように、被写体14上の位置
15は、左画像では投影面12上の位置16に、右画像
では投影面13上の位置17に投影される。このよう
に、左画像上の位置16と右画像上の位置17とが被写
体14の同じ位置15であることが分かれば、三角測量
の原理により被写体14上の位置15までの距離が測定
できる(ステレオ法による被写体表面までの距離の測定
法)。こうした左画像と右画像との被写体14に対する
対応関係を、あらかじめ求めておく。例えば、左画像の
位置16と右画像の位置17とが対応しているといった
対応関係である。
As shown in FIG. 10, the position 15 on the subject 14 is projected to the position 16 on the projection surface 12 in the left image and to the position 17 on the projection surface 13 in the right image. Thus, if it is known that the position 16 on the left image and the position 17 on the right image are the same position 15 on the subject 14, the distance to the position 15 on the subject 14 can be measured by the principle of triangulation ( Method of measuring the distance to the subject surface by the stereo method). The correspondence relationship between the left image and the right image with respect to the subject 14 is obtained in advance. For example, there is a correspondence relationship in which the position 16 of the left image and the position 17 of the right image correspond to each other.

【0014】その後、図11に示すように、新たな物体
18が移動して来たとする。あらかじめ求めた対応関係
によれば、左画像の位置16は右画像の位置17と同じ
であった。しかし、新たな物体18上の位置19から得
られる画像と被写体14の位置15から得られる画像と
が異なることにより、新たな物体の存在が認識できる。
Thereafter, as shown in FIG. 11, it is assumed that a new object 18 has moved. According to the correspondence relationship obtained in advance, the position 16 of the left image was the same as the position 17 of the right image. However, since the image obtained from the position 19 on the new object 18 is different from the image obtained from the position 15 of the subject 14, the existence of the new object can be recognized.

【0015】そこで、あらかじめ被写体14に対して求
めておいた対応関係に基づいて、新たに得られた左画像
と右画像との比較を行う。もし照明条件の変化等により
被写体14の表面の画像が変化したとしても、こうした
変化は左画像と右画像との両方に同様に反映される。従
って、対応関係に基づいて左画像と右画像とを比較し
て、得られる画像が異なっている場合に、新たな物体が
存在する可能性のある領域を検出することができる。こ
の領域を検出する処理は、対応関係に基づいて左画像と
右画像とを比較するだけの処理なので、非常に高速に処
理を実行することができる。
Therefore, the newly obtained left image and right image are compared with each other on the basis of the correspondence previously obtained for the subject 14. Even if the image of the surface of the subject 14 changes due to a change in the illumination condition or the like, such a change is reflected in both the left image and the right image. Therefore, the left image and the right image are compared based on the correspondence relationship, and when the obtained images are different, the area in which a new object may exist can be detected. Since the process of detecting this area is a process of simply comparing the left image and the right image on the basis of the correspondence relationship, the process can be executed at extremely high speed.

【0016】ただし、図12に示す通り、対応関係に基
づいて左画像と右画像とが異なる領域は、例えば左画像
で見ると投影面12上の位置20から位置21となり、
実際に物体18が存在する領域よりも広くなっている。
However, as shown in FIG. 12, a region where the left image and the right image are different from each other based on the correspondence is, for example, from the position 20 to the position 21 on the projection plane 12 when viewed in the left image,
It is wider than the area where the object 18 actually exists.

【0017】しかし、図13に示すように、大きな物体
22が存在するような場合に、左画像の位置23と右画
像の位置24とを比較すると同じ画像となっている場合
も有り得る。こうした場合に起こる誤りを防ぐために、
図12に示すような物体18を含む領域を新たな物体1
8の存在する領域として検出し、領域内を詳細に処理す
ることにより実際に新たな物体18の存在する領域を検
出することができる。
However, as shown in FIG. 13, when a large object 22 exists, the position 23 of the left image and the position 24 of the right image may be compared to be the same image. To prevent the mistakes that occur in these cases,
The area including the object 18 as shown in FIG.
It is possible to detect the area where the new object 18 actually exists by detecting the area where 8 exists and processing the area in detail.

【0018】この領域内での詳細な処理は、一般のステ
レオ法による左画像と右画像との対応関係を求めること
により実行する。しかし、領域が画像全体と比べればは
るかに狭い範囲に限定できる。また、領域を検出する処
理は対応関係に基づいて左画像と右画像とを比較するだ
けの処理なので、非常に高速に処理を実行することがで
きる。従って、領域を検出する処理の増加を考慮して
も、ステレオ法で画像全体を処理するのに比べて、処理
時間が少なくて済み、しかも精度良く処理を行うことが
可能である。
The detailed processing in this area is executed by obtaining the correspondence between the left image and the right image by the general stereo method. However, the area can be limited to a much narrower area than the entire image. Further, since the process of detecting the area is a process of simply comparing the left image and the right image based on the correspondence relationship, the process can be executed at an extremely high speed. Therefore, even if the increase in the number of processes for detecting the region is taken into consideration, the processing time is shorter than that for processing the entire image by the stereo method, and the processing can be performed with high accuracy.

【0019】なお、図14に示すように、入力画像を増
やして、より精度の良い処理を行うことも可能となる。
この場合は、投影面25の中央画像と投影面12の左画
像、投影面25の中央画像と投影面13の右画像とで同
様の処理を行う。
As shown in FIG. 14, it is possible to increase the number of input images and perform more accurate processing.
In this case, similar processing is performed on the center image of the projection surface 25 and the left image of the projection surface 12, and the center image of the projection surface 25 and the right image of the projection surface 13.

【0020】また、図9において被写体14そのものが
移動したり、視点10,11が移動することも有り得
る。こうした移動が生じた場合には、被写体14に対す
る対応関係を求め直す必要がある。しかし、もしこうし
た移動が微小な場合には、あらかじめ求めた対応関係の
変化も微小である。そこで、新たな物体が存在するとし
て検出された領域外に対して、あらかじめ求められた対
応関係に基づいで、左画像の位置16に対応する右画像
の位置17の周囲で、新たな対応位置を求める。この新
たな対応関係によりあらかじめ求められた対応関係を絶
えず更新することにより、被写体14や視点10,11
の微小な移動による対応関係の変化による影響を防ぐこ
とができる。
Further, in FIG. 9, the subject 14 itself may move or the viewpoints 10 and 11 may move. When such a movement occurs, it is necessary to recalculate the correspondence relationship with the subject 14. However, if such movement is minute, the change in the correspondence relationship obtained in advance is also minute. Therefore, a new corresponding position is generated around the position 17 of the right image corresponding to the position 16 of the left image, based on the correspondence obtained in advance, outside the region detected as the presence of a new object. Ask. By constantly updating the correspondence relationship obtained in advance with this new correspondence relationship, the subject 14 and the viewpoints 10 and 11 can be updated.
It is possible to prevent the influence of the change in the correspondence caused by the minute movement of the.

【0021】[0021]

【実施例】図1は、本発明の第1の実施例に係る動物体
認識装置の構成を示すブロック図である。第1の実施例
に係る動物体認識装置は、画像入力部1と、対応検出部
2と、対応記憶部3と、領域検出部4と、物体認識部5
とから構成されている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a block diagram showing the structure of a moving object recognition apparatus according to a first embodiment of the present invention. The moving object recognition apparatus according to the first embodiment includes an image input unit 1, a correspondence detection unit 2, a correspondence storage unit 3, a region detection unit 4, and an object recognition unit 5.
It is composed of

【0022】図2を参照すると、対応検出部2は、ブロ
ック分割手段201と、ブロック選択手段202と、相
関値計算手段203と、対応検出手段204と、対応出
力手段205とから構成されている。
Referring to FIG. 2, the correspondence detecting section 2 comprises a block dividing means 201, a block selecting means 202, a correlation value calculating means 203, a correspondence detecting means 204 and a correspondence outputting means 205. .

【0023】図3を参照すると、対応検出部2の処理
は、左画像/右画像ブロック分割ステップA1と、左画
像ブロック選択ステップA2と、右画像ブロック選択ス
テップA3と、選択ブロック間自己相関値計算ステップ
A4と、右画像ブロック終了判定ステップA5と、自己
相関値最大右画像ブロック選択ステップA6と、左画像
ブロック終了判定ステップA7と、画素毎対応関係出力
ステップA8とからなる。
Referring to FIG. 3, the processing of the correspondence detection unit 2 is performed by dividing the left image / right image block step A1, the left image block selecting step A2, the right image block selecting step A3, and the selected block autocorrelation value. It comprises a calculation step A4, a right image block end determination step A5, an autocorrelation value maximum right image block selection step A6, a left image block end determination step A7, and a pixel-to-pixel correspondence output step A8.

【0024】図4を参照すると、領域検出部4は、画素
読み出し手段401と、画素判定手段402と、閾値設
定手段403と、領域決定手段404とから構成されて
いる。
Referring to FIG. 4, the area detecting section 4 comprises a pixel reading means 401, a pixel determining means 402, a threshold setting means 403, and an area determining means 404.

【0025】図5を参照すると、領域検出部4の処理
は、左画像画素選択ステップB1と、対応右画像画素位
置読み出しステップB2と、画素値比較ステップB3
と、画素値差/閾値比較ステップB4と、動物体不存在
画素位置判定ステップB5と、動物体存在画素位置判定
ステップB6と、左画像画素終了判定ステップB7とか
らなる。
Referring to FIG. 5, the processing of the area detecting section 4 is performed by a left image pixel selecting step B1, a corresponding right image pixel position reading step B2, and a pixel value comparing step B3.
A pixel value difference / threshold comparison step B4, a moving object nonexistence pixel position determination step B5, a moving object existence pixel position determination step B6, and a left image pixel end determination step B7.

【0026】図6は、対応記憶部3に記憶される対応関
係の内容を示す説明図である。図6に示すように、左画
像の画素27と右画像の画素28とが対応しているとす
る。ここで、画素27の画素位置を(i,j)、画素2
8の画素位置を(p,q)とする。この場合、対応記憶
部3は、左画像の画素27の対応関係として(p,q)
を記憶する。また、右画像の画素28の対応関係として
(i,j)を記憶する。このように、左画像と右画像と
の全ての画素の対応関係を記憶する。
FIG. 6 is an explanatory diagram showing the contents of the correspondence relationship stored in the correspondence storage unit 3. As shown in FIG. 6, it is assumed that the pixel 27 of the left image and the pixel 28 of the right image correspond to each other. Here, the pixel position of the pixel 27 is (i, j)
The pixel position of 8 is (p, q). In this case, the correspondence storage unit 3 stores (p, q) as the correspondence relationship of the pixels 27 of the left image.
Is stored. Further, (i, j) is stored as the correspondence relationship of the pixel 28 of the right image. In this way, the correspondence relationship between all the pixels of the left image and the right image is stored.

【0027】次に、このように構成された第1の実施例
に係る動物体認識装置の動作について説明する。
Next, the operation of the moving object recognizing apparatus according to the first embodiment having the above structure will be described.

【0028】画像入力部1は、ステレオカメラ等のステ
レオ画像入力装置から、ステレオ画像を構成する左画像
と右画像とのアナログ輝度信号を受けて画素としてディ
ジタル化し、それぞれ複数の画素からなる左画像と右画
像とを出力する。説明を簡単にするために、ここで入力
されるステレオ画像は、図9に示すように被写体14の
ステレオ画像とするが、一般性を損なうものではない。
The image input unit 1 receives analog luminance signals of a left image and a right image forming a stereo image from a stereo image input device such as a stereo camera and digitizes them as pixels to form a left image composed of a plurality of pixels. And the right image are output. For simplicity of explanation, the stereo image input here is a stereo image of the subject 14 as shown in FIG. 9, but this does not impair generality.

【0029】次に、対応検出部2は、左画像と右画像と
の対応関係を検出する。この対応関係とは、例えば、図
10に示すように、被写体14の位置15が左画像の投
影面12の位置16と右画像の投影面13の位置17と
にそれぞれ投影されている場合には、左画像の投影面1
2の位置16と右画像の投影面13の位置17とが対応
するということになる。
Next, the correspondence detecting unit 2 detects the correspondence between the left image and the right image. For example, when the position 15 of the subject 14 is projected onto the position 16 of the left image projection surface 12 and the position 17 of the right image projection surface 13 as shown in FIG. , Left image projection plane 1
It means that the position 16 of 2 corresponds to the position 17 of the projection plane 13 of the right image.

【0030】詳しくは、図2および図3に示すように、
まず、ブロック分割手段201は、左画像と右画像と
を、例えばm×n(m,nともに正整数)画素からなる
矩形のブロックに分割する(ステップA1)。
More specifically, as shown in FIG. 2 and FIG.
First, the block division unit 201 divides the left image and the right image into rectangular blocks each including, for example, m × n (both m and n are positive integers) pixels (step A1).

【0031】次に、ブロック選択手段202は、左画像
と右画像とのブロックを1つずつ選択する(ステップA
2,A3)。
Next, the block selecting means 202 selects the blocks of the left image and the right image one by one (step A).
2, A3).

【0032】続いて、相関値計算手段203は、選択さ
れたブロック間の自己相関値を計算する(ステップA
4)。ここで、左画像と右画像とのブロック内の画素の
輝度をそれぞれL(i,j),R(i,j)(i=1,
2,…,m;j=1,2,…,n)とし、それぞれの輝
度の平均をμL ,μR 、分散をσL ,σR として、数1
のような自己相関値cを計算する。
Then, the correlation value calculation means 203 calculates the autocorrelation value between the selected blocks (step A).
4). Here, the luminances of pixels in the blocks of the left image and the right image are L (i, j) and R (i, j) (i = 1, 1), respectively.
2, ..., M ; j = 1, 2, ..., N), the average of the respective brightnesses is μ L , μ R , and the variances are σ L , σ R.
An autocorrelation value c such as is calculated.

【0033】[0033]

【数1】 [Equation 1]

【0034】1つの左画像のブロックに対して全ての右
画像のブロックとの自己相関値cを計算したならば(ス
テップA5)、対応検出手段204は、最も自己相関値
cが大きくなる右画像のブロックをその左画像のブロッ
クの対応ブロックとして検出し、対応する左画像のブロ
ックと右画像のブロックとの組み合わせを示す情報を出
力する(ステップA6)。
When the autocorrelation value c for all blocks of the right image is calculated for one block of the left image (step A5), the correspondence detecting means 204 determines the right image having the largest autocorrelation value c. Block is detected as a block corresponding to the block of the left image, and information indicating the combination of the block of the corresponding left image and the block of the corresponding right image is output (step A6).

【0035】以上の処理を全ての左画像のブロックに対
して行った後に(ステップA7)、対応出力手段205
は、対応決定手段204が出力する組み合わせを示す情
報を受けて、左画像の各画素が対応する右画像の画素位
置を示す情報と、右画像の各画素が対応する左画像の画
素位置を示す情報とを、対応関係として出力する(ステ
ップA8)。ただし、ブロック内の各画素は、同一位置
の画素同士が対応するとして、画素位置を求める。
After performing the above processing for all the blocks of the left image (step A7), the corresponding output means 205
Receives the information indicating the combination output by the correspondence determining unit 204, and indicates the pixel position of the right image to which each pixel of the left image corresponds, and the pixel position of the left image to which each pixel of the right image corresponds. The information is output as a correspondence relationship (step A8). However, for each pixel in the block, the pixel position is determined on the assumption that pixels at the same position correspond to each other.

【0036】対応記憶部3は、対応検出部2で検出され
た左画像の各画素が対応する右画像の画素位置を示す情
報と、右画像の各画素が対応する左画像の画素位置を示
す情報とを、対応関係として記憶する。
The correspondence storage unit 3 shows information indicating the pixel position of the right image corresponding to each pixel of the left image detected by the correspondence detecting unit 2 and the pixel position of the left image corresponding to each pixel of the right image. The information is stored as a correspondence.

【0037】次に、画像入力部1は、ステレオ画像の入
力を継続し、領域検出部4は、このステレオ画像の動物
体が存在する領域の検出を行う。図10に示すように、
被写体14しか存在しない場合には、左画像と右画像と
の対応関係は、対応記憶部3に記憶された対応関係と変
化していない。そこで、領域検出部4は、対応記憶部3
に記憶された対応関係に従って左画像と右画像とを比較
し、同じ場合には動物体が存在する領域としては検出し
ない。
Next, the image input section 1 continues to input the stereo image, and the area detection section 4 detects the area of the stereo image where the moving object exists. As shown in FIG.
When only the subject 14 exists, the correspondence relationship between the left image and the right image does not change from the correspondence relationship stored in the correspondence storage unit 3. Therefore, the area detection unit 4 uses the correspondence storage unit 3
The left image and the right image are compared in accordance with the correspondence relationship stored in 1., and if they are the same, they are not detected as an area where a moving object exists.

【0038】図11に示すように、被写体14とは異な
る物体18が存在する場合には、左画像の投影面12の
位置16と右画像の投影面13の位置17とは異なる画
像となる。そこで、領域検出部4は、対応記憶部3に記
憶された対応関係に従って左画像と右画像とを比較し、
異なる場合の位置を動物体が存在する領域として検出す
る。ただし、図11に示すように、左画像の投影面12
の位置16は、対応する右画像の投影面13の位置17
とは異なる画像となっているが、物体18の画像とはな
っていない。このように、検出される領域が物体18そ
のものの画像上の領域と一致する訳ではない。
As shown in FIG. 11, when an object 18 different from the subject 14 exists, the position 16 of the left image projection plane 12 and the position 17 of the right image projection plane 13 are different images. Therefore, the area detection unit 4 compares the left image and the right image according to the correspondence relationship stored in the correspondence storage unit 3,
The position when different is detected as the region where the moving object exists. However, as shown in FIG.
16 corresponds to the position 17 on the projection plane 13 of the corresponding right image.
However, the image of the object 18 is not. Thus, the detected area does not necessarily match the area on the image of the object 18 itself.

【0039】詳しくは、図4および図5に示すように、
まず、画素読み出し手段401は、左画像の各画素に対
して(ステップB1)、対応記憶部3に記憶された対応
する右画像の画素位置を読み出す(ステップB2)。そ
して、画素判定手段402は、対応する左画像と右画像
との画素位置の輝度を比較し(ステップB3)、同じで
あるか否かの判定を行う。ここで、ノイズ等の影響を考
慮して閾値設定手段403にあらかじめ閾値を設定して
おき、輝度の差が閾値以下の場合に(ステップB4)、
この左画像の画素位置に動物体が存在しないと判定し
(ステップB5)、輝度の差が閾値よりも大きい場合に
(ステップB4)、この左画像の画素位置に動物体が存
在すると判定する(ステップB6)。なお、左画像と右
画像とが同じであるか否かの判定には、画像の輝度を比
較する他に、色差や色相などの値を使うこともできる。
こうした判定処理を、画素判定手段402は、左画像の
全ての画素に対して行い(ステップB7)、動物体が存
在すると判定された画素位置を示す情報を出力する。ま
た、同様の処理を右画像に対しても行う。
More specifically, as shown in FIGS. 4 and 5,
First, the pixel reading unit 401 reads the pixel position of the corresponding right image stored in the correspondence storage unit 3 for each pixel of the left image (step B1) (step B2). Then, the pixel determining unit 402 compares the luminances of the pixel positions of the corresponding left image and right image with each other (step B3), and determines whether they are the same. Here, a threshold is set in advance in the threshold setting means 403 in consideration of the influence of noise and the like, and when the difference in brightness is less than or equal to the threshold (step B4),
It is determined that there is no moving object at the pixel position of the left image (step B5), and if the difference in brightness is larger than the threshold value (step B4), it is determined that the moving object exists at the pixel position of the left image (step B4). Step B6). It should be noted that in order to determine whether the left image and the right image are the same, it is possible to use values such as color difference and hue in addition to comparing the brightness of the images.
The pixel determination unit 402 performs such determination processing on all the pixels of the left image (step B7), and outputs information indicating the pixel position determined to have a moving object. Also, the same processing is performed on the right image.

【0040】図15は、領域検出部4で検出される領域
を示す説明図である。図15に示すように、領域検出部
4は、投影面12に投影される左画像の斜線で示される
ような領域26を動物体が存在する領域として検出す
る。ただし、図13に示すように、被写体14の位置1
5に対する対応関係に従って比較した際に、物体22が
単色であるような場合に、左画像の投影面12の位置2
3と右画像の投影面13の位置24とが同じ画像となっ
てしまうようなこともあるので、領域26’のように動
物体が存在する領域として検出されない領域が発生す
る。こういった領域26’は、斜線で示される領域26
の内部に発生するので、領域検出部4は、斜線で示され
る領域26の内部の領域26’も含めて、動物体が存在
する領域として検出し、領域内のステレオ画像を出力す
る。
FIG. 15 is an explanatory diagram showing the areas detected by the area detector 4. As shown in FIG. 15, the area detection unit 4 detects an area 26, which is indicated by the diagonal lines in the left image projected on the projection surface 12, as an area in which a moving object exists. However, as shown in FIG.
When the object 22 is monochromatic when compared according to the correspondence relationship with 5, the position 2 on the projection plane 12 of the left image is
3 and the position 24 of the projection plane 13 of the right image may be the same image, so that a region such as a region 26 'that is not detected as a region in which a moving object exists is generated. Such an area 26 'is a hatched area 26
Area 26 ', the area detection unit 4 detects the area 26' inside the area 26 indicated by the diagonal lines as an area in which the moving object exists, and outputs a stereo image in the area.

【0041】そのために、領域決定手段404は、画素
判定手段402が出力する、動物体が存在すると判定さ
れた画素位置を示す情報を受けて、図15に示されるよ
うな領域26’を検出し、この領域26’の画素位置も
動物体が存在する画素位置に変更する。この領域26’
を検出するためには、動物体が存在しない画素位置の周
囲の画素位置を探索し、周囲に動物体が存在する画素が
存在する場合には、領域26’に相当する画素位置と判
定できる。
Therefore, the area determining means 404 detects the area 26 'as shown in FIG. 15 by receiving the information output by the pixel determining means 402 and indicating the pixel position where the moving object is determined to exist. The pixel position of this area 26 'is also changed to the pixel position where the moving object exists. This area 26 '
In order to detect, the pixel position around the pixel position where the moving object does not exist is searched, and when there are pixels around which the moving object exists, it can be determined as the pixel position corresponding to the region 26 ′.

【0042】最後に、物体認識部5は、領域検出部4が
出力する動物体が存在する領域内のステレオ画像に対し
て、対応検出部2と同様の処理を行って左画像と右画像
との対応を求める。そして、三角測量の原理に基づいて
動物体までの距離を求める。この動物体までの距離が求
められれば、その距離の変化により動物体の形状も求め
られる。
Finally, the object recognition unit 5 performs the same processing as that of the correspondence detection unit 2 on the stereo image in the area in which the moving object exists, which is output by the area detection unit 4, to obtain a left image and a right image. Seek correspondence. Then, the distance to the moving object is obtained based on the principle of triangulation. If the distance to the moving body is obtained, the shape of the moving body can be obtained by changing the distance.

【0043】このように、物体認識部5は、動物体が存
在する領域内のステレオ画像のみを詳細に解析するの
で、ステレオ画像全体を解析するのに比べて、はるかに
高速に処理を実行することができる。また、領域検出部
4での処理は、対応関係に従って左画像と右画像との輝
度を比較するだけなので、非常に高速な処理が可能であ
る。従って、本発明の動物体認識装置全体での処理を、
はるかに高速に実行することができる。特に、時系列に
従って順次入力される動画像を処理する場合に、この高
速化による効果は大きい。
As described above, the object recognition unit 5 analyzes only the stereo image in the area where the moving object exists in detail, so that the processing is executed much faster than the analysis of the entire stereo image. be able to. Further, since the processing in the area detection unit 4 only compares the luminances of the left image and the right image according to the correspondence relationship, very high-speed processing is possible. Therefore, the processing in the entire moving object recognition apparatus of the present invention,
It can run much faster. In particular, when processing moving images that are sequentially input in time series, the effect of this speedup is great.

【0044】また、対応記憶部3は、被写体14に関す
る左画像と右画像との対応関係を記憶しているので、も
し照明条件が変化したり他の物体の影が被写体14に落
ちた場合でも、対応関係には影響しない。従って、この
ような場合でも誤って動物体を検出してしまうことは無
い。
Further, since the correspondence storage unit 3 stores the correspondence between the left image and the right image of the subject 14, even if the illumination condition changes or the shadow of another object falls on the subject 14, , Does not affect the correspondence. Therefore, even in such a case, the moving object will not be erroneously detected.

【0045】なお、物体認識部5での処理においては、
動物体が存在する領域内のステレオ画像の解析の際に、
左画像と右画像との対応関係を検出する。この検出処理
を、対応検出部2が実行するように構成することもでき
る。
In the processing in the object recognition unit 5,
When analyzing the stereo image in the area where the moving body is present,
The correspondence between the left image and the right image is detected. The detection process may be executed by the correspondence detection unit 2.

【0046】また、対応関係に従って左画像と右画像と
を比較する際に、画素単位で比較するだけでなく、正方
形などの形状の小領域を比較することも可能である。こ
のように小領域同士を比較することにより、動物体が存
在する領域をより正しく検出することができる。
When comparing the left image and the right image according to the correspondence, it is possible to compare not only pixel units but also small areas having a shape such as a square. By comparing the small areas with each other in this way, the area where the moving object exists can be detected more correctly.

【0047】図7は、本発明の第2の実施例に係る動物
体認識装置の構成を示すブロック図である。第2の実施
例に係る動物体認識装置は、図1に示した第1の実施例
に係る動物体認識装置における画像入力部1を、主画像
を入力する主画像入力部1’と、主画像の視点の周囲の
2つの視点からの補助画像を入力する補助画像入力部6
とに分けるようにしたものである。
FIG. 7 is a block diagram showing the structure of a moving object recognizing apparatus according to the second embodiment of the present invention. The moving object recognizing device according to the second embodiment includes an image input unit 1 in the moving object recognizing device according to the first embodiment shown in FIG. Auxiliary image input unit 6 for inputting auxiliary images from two viewpoints around the viewpoint of the image
It is divided into

【0048】次に、このように構成された第2の実施例
に係る動物体認識装置の動作について、第1の実施例に
係る動物体認識装置と異なる点を中心に説明する。
Next, the operation of the moving object recognizing apparatus according to the second embodiment thus constructed will be described focusing on the points different from the moving object recognizing apparatus according to the first embodiment.

【0049】主画像入力部1’は、主画像を入力する。
また、補助画像入力部6は、主画像の左右に配置された
左画像および右画像を入力する。
The main image input section 1'inputs a main image.
The auxiliary image input unit 6 also inputs a left image and a right image arranged on the left and right of the main image.

【0050】次に、対応検出部2,対応記憶部3,領域
検出部4および物体認識部5は、主画像と左画像および
主画像と右画像の組合せに対して、第1の実施例に係る
動物体認識装置と同様の処理を行い、動物体の形状およ
び動物体までの距離を求める。そして、物体認識部5
は、主画像の動物体が存在する領域内の各画素に対し
て、主画像および左画像の組み合わせで得られた動物体
までの距離と、主画像および右画像の組み合わせで得ら
れた動物体までの距離とを平均して、最終的な認識結果
として出力する。
Next, the correspondence detection unit 2, the correspondence storage unit 3, the area detection unit 4, and the object recognition unit 5 are the same as those in the first embodiment for the combination of the main image and the left image and the combination of the main image and the right image. The same processing as that of the moving object recognizing device is performed to obtain the shape of the moving object and the distance to the moving object. Then, the object recognition unit 5
Is the distance to the moving object obtained by the combination of the main image and the left image, and the moving object obtained by the combination of the main image and the right image, for each pixel in the area where the moving object of the main image exists. And the distance to are averaged and output as the final recognition result.

【0051】第2の実施例では、左画像および右画像を
補助画像入力部6から入力するものとして説明したが、
補助画像の配置は任意であり、また3つ以上の補助画像
を使用することも可能である。補助画像の数を増やすこ
とにより処理量は増加するが、認識結果の正確さを向上
させることができる。
In the second embodiment, the left image and the right image are described as being input from the auxiliary image input section 6, but
Arrangement of auxiliary images is arbitrary, and three or more auxiliary images can be used. Although the processing amount increases by increasing the number of auxiliary images, the accuracy of the recognition result can be improved.

【0052】図8は、本発明の第3の実施例に係る動物
体認識装置の構成を示すブロック図である。第3の実施
例に係る動物体認識装置は、図1に示した第1の実施例
に係る動物体認識装置に対して、領域検出部4により検
出された領域外に関して対応記憶部3に記憶された対応
関係の変化を検出して対応記憶部3の記憶内容を更新す
る対応更新部7を追加するようにしたものである。
FIG. 8 is a block diagram showing the structure of a moving object recognizing apparatus according to the third embodiment of the present invention. The moving object recognizing device according to the third embodiment is different from the moving object recognizing device according to the first embodiment shown in FIG. 1 in that the correspondence storage unit 3 stores the area outside the area detected by the area detecting unit 4. The correspondence update unit 7 that detects a change in the created correspondence relationship and updates the stored contents of the correspondence storage unit 3 is added.

【0053】次に、このように構成された第3の実施例
に係る動物体認識装置の動作について、第1の実施例に
係る動物体認識装置と異なる点を中心に説明する。
Next, the operation of the moving object recognizing apparatus according to the third embodiment constructed as described above will be described focusing on the points different from the moving object recognizing apparatus according to the first embodiment.

【0054】対応更新部7は、領域検出部4が出力する
動物体が存在する領域を示す情報と、対応記憶部3に記
憶している対応関係とを受ける。
Correspondence updating section 7 receives the information indicating the area where the moving object exists, which is output from area detecting section 4, and the correspondence relationship stored in correspondence storing section 3.

【0055】ここで、動物体が存在する領域以外の領域
は、被写体14のステレオ画像である。従って、この領
域の対応関係は対応記憶部3に記憶されている。しか
し、被写体14とステレオ画像入力装置との相対位置の
微小な変動や、被写体14そのものの微小な変形等によ
り、対応関係が変化する可能性がある。
Here, the area other than the area where the moving object exists is a stereo image of the subject 14. Therefore, the correspondence relationship of this area is stored in the correspondence storage unit 3. However, there is a possibility that the correspondence relationship may change due to a slight change in the relative position between the subject 14 and the stereo image input device, a slight deformation of the subject 14, or the like.

【0056】そこで、対応更新部7は、動物体が存在す
る領域以外の領域の対応関係を新たに求める。この処理
は、対応検出部2での処理とほぼ同一であるが、動物体
が存在する領域に含まれる画素に対しては対応関係を求
めない点が異なっている。
Therefore, the correspondence updating unit 7 newly obtains the correspondence relation of the areas other than the area where the moving body exists. This process is almost the same as the process in the correspondence detection unit 2, except that the correspondence relation is not obtained for the pixels included in the region where the moving object exists.

【0057】また、対応検出部2では、図3に示す通
り、左画像の1つのブロックに対して右画像の全てのブ
ロックとの自己相関値を求めるのに対して、対応更新部
7は、右画像の一部のブロックとの自己相関値を求める
点も異なっている。
Further, as shown in FIG. 3, the correspondence detecting unit 2 obtains the autocorrelation value of one block of the left image with all the blocks of the right image, whereas the correspondence updating unit 7 Another difference is that the autocorrelation value with some blocks in the right image is obtained.

【0058】すなわち、動物体が存在する領域以外の領
域では、対応記憶部3に記憶している対応関係はほとん
ど変化していない。そこで、対応更新部7にあらかじめ
探索範囲の大きさを設定しておく。図6に示すように、
左画像の画素27と右画像の画素28とが対応している
とする。この場合、左画像の画素27を含むブロックと
右画像のブロックとの自己相関値を求めるにあたり、あ
らかじめ設定された探索範囲の大きさで示される画素2
8の周辺の探索領域29内に含まれるブロックのみを処
理対象とする。これにより、右画像の全てのブロックと
自己相関値とを求めるのに比べて、はるかに処理量が少
なくてすむ。
That is, in the area other than the area in which the moving object exists, the correspondence relationship stored in the correspondence storage unit 3 hardly changes. Therefore, the size of the search range is set in advance in the correspondence updating unit 7. As shown in FIG.
It is assumed that the pixel 27 of the left image and the pixel 28 of the right image correspond to each other. In this case, when obtaining the autocorrelation value between the block including the pixel 27 of the left image and the block of the right image, the pixel 2 indicated by the size of the preset search range is calculated.
Only blocks included in the search area 29 around 8 are to be processed. As a result, the amount of processing is much smaller than that of obtaining all the blocks and the autocorrelation value of the right image.

【0059】最後に、対応更新部7は、新たに求めた対
応関係を対応記憶部3に記憶させる。これにより、被写
体14とステレオ画像入力装置との相対位置の微小な変
動や、被写体14そのものの微小な変形等が生じた場合
でも、常に対応記憶部3に記憶する対応関係を、最新の
対応関係に更新することができる。
Finally, the correspondence updating unit 7 stores the newly obtained correspondence relationship in the correspondence storage unit 3. As a result, even if a slight change in the relative position between the subject 14 and the stereo image input device or a slight deformation of the subject 14 itself occurs, the correspondence relation that is always stored in the correspondence storage unit 3 is the latest correspondence relation. Can be updated to.

【0060】なお、変動や変形が微小でない場合には、
領域検出部4が動物体が存在する領域として検出する。
従って、被写体14に係わる大きな変化が生じた場合で
も誤動作することはない。
If the variation or deformation is not small,
The area detection unit 4 detects the area where the moving object exists.
Therefore, even if a large change occurs in the subject 14, no malfunction occurs.

【0061】[0061]

【発明の効果】以上述べたように、本発明の動物体認識
装置は、左画像および右画像からなるステレオ画像を入
力する画像入力部と、画像入力部により入力されたステ
レオ画像の左画像と右画像との対応関係を求める対応検
出部と、対応検出部により求められた対応関係を記憶す
る対応記憶部と、対応記憶部に記憶された対応関係およ
び画像入力部から随時入力されるステレオ画像に基づい
て動物体が存在する領域を検出する領域検出部と、領域
検出部により検出された領域内の動物体の形状および距
離を求める物体認識部とを備えることにより、高精度か
つ高速に動物体を検出し、その形状や距離を測定するこ
とができるという効果がある。
As described above, the moving object recognition apparatus of the present invention has an image input section for inputting a stereo image consisting of a left image and a right image, and a left image of the stereo image input by the image input section. Correspondence detection section for finding the correspondence relationship with the right image, correspondence storage section for storing the correspondence relationship found by the correspondence detection section, correspondence relationship stored in the correspondence storage section, and stereo image input from the image input section at any time An area detection unit that detects an area in which a moving object is present based on, and an object recognition unit that obtains the shape and distance of the moving object in the area detected by the area detection unit, thereby providing a highly accurate and high-speed animal. There is an effect that the body can be detected and its shape and distance can be measured.

【0062】また、本発明の動物体認識装置は、主画像
を入力する主画像入力部と、主画像の視点の周囲の視点
からの複数の補助画像を入力する補助画像入力部と、主
画像と複数の補助画像との対応関係を求める対応検出部
と、対応検出部により求められた対応関係を記憶する対
応記憶部と、対応記憶部に記憶された対応関係,主画像
入力部から随時入力される主画像および補助画像入力部
から随時入力される複数の補助画像に基づいて動物体が
存在する領域を検出する領域検出部と、領域検出部によ
り検出された領域内の動物体の形状および距離を求める
物体認識部とを備えることにより、高精度かつ高速に動
物体を検出し、その形状や距離を測定することができる
という効果がある。
Further, the moving object recognition apparatus of the present invention includes a main image input section for inputting a main image, an auxiliary image input section for inputting a plurality of auxiliary images from viewpoints around the viewpoint of the main image, and the main image. Correspondence detection unit for obtaining the correspondence relation between the correspondence image and a plurality of auxiliary images, a correspondence storage unit for storing the correspondence relation obtained by the correspondence detection unit, the correspondence relation stored in the correspondence storage unit, and input from the main image input unit at any time An area detection unit that detects an area in which a moving object exists based on a plurality of auxiliary images that are input from the main image and the auxiliary image input unit, and the shape of the moving object in the area detected by the area detection unit and By providing the object recognition unit that calculates the distance, there is an effect that the moving object can be detected with high accuracy and high speed, and the shape and the distance thereof can be measured.

【0063】さらに、本発明の動物体認識装置は、領域
検出部により検出された領域外に関して対応記憶部に記
憶された対応関係の変化を検出して対応記憶部の記憶内
容を更新する対応更新部を備えることにより、高精度か
つ高速に動物体を検出し、その形状や距離を測定するこ
とができるという効果がある。
Furthermore, the moving object recognition apparatus of the present invention detects a change in the correspondence stored in the correspondence storage unit with respect to the outside of the area detected by the area detection unit, and updates the storage content of the correspondence storage unit. By providing the part, there is an effect that the moving object can be detected with high accuracy and high speed, and the shape and the distance thereof can be measured.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例に係る動物体認識装置の
構成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a moving object recognition apparatus according to a first embodiment of the present invention.

【図2】図1中の対応検出部の構成を示すブロック図で
ある。
FIG. 2 is a block diagram showing a configuration of a correspondence detection unit in FIG.

【図3】図1中の対応検出部の処理を示すフローチャー
トである。
FIG. 3 is a flowchart showing a process of a correspondence detection unit in FIG.

【図4】図1中の領域検出部の構成を示すブロック図で
ある。
FIG. 4 is a block diagram showing a configuration of an area detection unit in FIG.

【図5】図1中の領域検出部の処理を示すフローチャー
トである。
FIG. 5 is a flowchart showing a process of an area detection unit in FIG.

【図6】図1中の対応記憶部に記憶される対応関係につ
いて説明する図である。
FIG. 6 is a diagram illustrating a correspondence relationship stored in a correspondence storage unit in FIG.

【図7】本発明の第2の実施例に係る動物体認識装置の
構成を示すブロック図である。
FIG. 7 is a block diagram showing a configuration of a moving object recognition apparatus according to a second embodiment of the present invention.

【図8】本発明の第3の実施例に係る動物体認識装置の
構成を示すブロック図である。
FIG. 8 is a block diagram showing a configuration of a moving object recognition apparatus according to a third embodiment of the present invention.

【図9】ステレオ画像と被写体との関係を上から示した
図である。
FIG. 9 is a diagram showing the relationship between a stereo image and a subject from above.

【図10】ステレオ法による被写体表面までの距離の測
定方法を説明する図である。
FIG. 10 is a diagram illustrating a method of measuring a distance to a subject surface by a stereo method.

【図11】新たな物体が移動してきた場合の説明図であ
る。
FIG. 11 is an explanatory diagram when a new object moves.

【図12】左画像と右画像とが異なる領域が実際に物体
が存在する領域より広くなることを説明する図である。
FIG. 12 is a diagram illustrating that a different region between the left image and the right image is wider than a region where an object actually exists.

【図13】大きな物体が存在する場合を説明する図であ
る。
FIG. 13 is a diagram illustrating a case where a large object exists.

【図14】入力画像を増やしてより精度の良い処理を行
う場合の説明図である。
FIG. 14 is an explanatory diagram in the case of increasing the number of input images and performing more accurate processing.

【図15】図1中の領域検出部で検出される領域を説明
する図である。
FIG. 15 is a diagram illustrating an area detected by an area detection unit in FIG.

【符号の説明】[Explanation of symbols]

1 画像入力部 1’ 主画像入力部 2 対応検出部 3 対応記憶部 4 領域検出部 5 物体認識部 6 補助画像入力部 7 対応更新部 10,11 視点 12,13,25 投影面 14 被写体 15〜17,19〜21,23,24 位置 18,22 物体 26,26’ 領域 27,28 画素 29 探索領域 201 ブロック分割手段 202 ブロック選択手段 203 相関値計算手段 204 対応検出手段 205 対応出力手段 401 画素読み出し手段 402 画素判定手段 403 閾値設定手段 404 領域決定手段 1 Image Input Section 1'Main Image Input Section 2 Correspondence Detection Section 3 Correspondence Storage Section 4 Area Detection Section 5 Object Recognition Section 6 Auxiliary Image Input Section 7 Correspondence Update Section 10, 11 Viewpoints 12, 13, 25 Projection Surface 14 Subject 15- 17, 19 to 21, 23, 24 Position 18, 22 Object 26, 26 'Area 27, 28 Pixel 29 Search area 201 Block dividing means 202 Block selecting means 203 Correlation value calculating means 204 Correspondence detecting means 205 Corresponding output means 401 Pixel reading Means 402 Pixel judging means 403 Threshold setting means 404 Region determining means

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 左画像および右画像からなるステレオ画
像を入力する画像入力部と、 この画像入力部により入力されたステレオ画像の左画像
と右画像との対応関係を求める対応検出部と、 この対応検出部により求められた対応関係を記憶する対
応記憶部と、 この対応記憶部に記憶された対応関係および前記画像入
力部から随時入力されるステレオ画像に基づいて動物体
が存在する領域を検出する領域検出部と、 この領域検出部により検出された領域内の動物体の形状
および距離を求める物体認識部とを備えることを特徴と
する動物体認識装置。
1. An image input section for inputting a stereo image consisting of a left image and a right image, and a correspondence detecting section for obtaining a correspondence relationship between the left image and the right image of the stereo image input by the image input section, A correspondence storage unit that stores the correspondence relationship obtained by the correspondence detection unit, and detects a region where a moving object exists based on the correspondence relationship stored in the correspondence storage unit and the stereo image input from the image input unit as needed. A moving object recognizing device, comprising: an area detecting unit for detecting a moving object shape;
【請求項2】 主画像を入力する主画像入力部と、 前記主画像の視点の周囲の視点からの複数の補助画像を
入力する補助画像入力部と、 前記主画像と前記複数の補助画像との対応関係を求める
対応検出部と、 この対応検出部により求められた対応関係を記憶する対
応記憶部と、 この対応記憶部に記憶された対応関係,前記主画像入力
部から随時入力される主画像および前記補助画像入力部
から随時入力される複数の補助画像に基づいて動物体が
存在する領域を検出する領域検出部と、 この領域検出部により検出された領域内の動物体の形状
および距離を求める物体認識部とを備えることを特徴と
する動物体認識装置。
2. A main image input unit for inputting a main image, an auxiliary image input unit for inputting a plurality of auxiliary images from viewpoints around the viewpoint of the main image, the main image and the plurality of auxiliary images. The correspondence detection unit that obtains the correspondence relation between the correspondence detection unit, the correspondence storage unit that stores the correspondence relation obtained by the correspondence detection unit, the correspondence relation stored in the correspondence storage unit, and the main input that is input from the main image input unit at any time. A region detection unit that detects a region in which a moving object exists based on an image and a plurality of auxiliary images that are input from the auxiliary image input unit at any time, and the shape and distance of the moving object in the region detected by this region detection unit. An object recognizing device, comprising:
【請求項3】 前記領域検出部により検出された領域外
に関して前記対応記憶部に記憶された対応関係の変化を
検出して前記対応記憶部の記憶内容を更新する対応更新
部を備える請求項1または2記載の動物体認識装置。
3. The correspondence update unit that updates a stored content of the correspondence storage unit by detecting a change in the correspondence relation stored in the correspondence storage unit with respect to a region outside the region detected by the region detection unit. Alternatively, the moving object recognizing device according to item 2.
JP8104293A 1996-03-29 1996-03-29 Moving object recognition device Expired - Fee Related JP3050283B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8104293A JP3050283B2 (en) 1996-03-29 1996-03-29 Moving object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8104293A JP3050283B2 (en) 1996-03-29 1996-03-29 Moving object recognition device

Publications (2)

Publication Number Publication Date
JPH09271014A true JPH09271014A (en) 1997-10-14
JP3050283B2 JP3050283B2 (en) 2000-06-12

Family

ID=14376893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8104293A Expired - Fee Related JP3050283B2 (en) 1996-03-29 1996-03-29 Moving object recognition device

Country Status (1)

Country Link
JP (1) JP3050283B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003015411A1 (en) * 2001-08-06 2003-02-20 Sumitomo Osaka Cement Co.,Ltd. Monitoring system using stereoscopic image and monitoring method
JP2009088840A (en) * 2007-09-28 2009-04-23 Saxa Inc Stereoscopic image processing device and program for processing image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003015411A1 (en) * 2001-08-06 2003-02-20 Sumitomo Osaka Cement Co.,Ltd. Monitoring system using stereoscopic image and monitoring method
JP2009088840A (en) * 2007-09-28 2009-04-23 Saxa Inc Stereoscopic image processing device and program for processing image

Also Published As

Publication number Publication date
JP3050283B2 (en) 2000-06-12

Similar Documents

Publication Publication Date Title
US10489900B2 (en) Inspection apparatus, inspection method, and program
US9773304B2 (en) Inspection apparatus, inspection method, and program
JP4451307B2 (en) How to classify objects in a scene
JP2010071782A (en) Three-dimensional measurement apparatus and method thereof
JPH06124344A (en) Device and method for grading extraction of profile of salient pole part for recognizing marker
JP4313758B2 (en) How to chain edges in stereo images together
US20180150969A1 (en) Information processing device, measuring apparatus, system, calculating method, storage medium, and article manufacturing method
US20030031356A1 (en) Pattern inspection apparatus and method
JP2015232482A (en) Inspection equipment, inspection method and program
JP6585793B2 (en) Inspection device, inspection method, and program
JP2000121319A (en) Image processor, image processing method and supply medium
JP2008275366A (en) Stereoscopic 3-d measurement system
JP3050283B2 (en) Moving object recognition device
JP2005062910A (en) Image recognition device
RU2446471C1 (en) Method for detecting moving objects and determining parameters thereof
JPH0875454A (en) Range finding device
JPH11194027A (en) Three-dimensional coordinate measuring instrument
JP2004240909A (en) Image processor and image processing method
KR101454692B1 (en) Apparatus and method for object tracking
JPH1096607A (en) Object detector and plane estimation method
JP6570321B2 (en) Information processing apparatus, information processing method, and program
JP3755319B2 (en) Main subject detection device and apparatus using the same
JP2003346160A (en) Device and method for detecting mobile object
JP3149839B2 (en) Object extraction device
JP2000348175A (en) Method and device for corresponding point detection

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080331

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090331

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090331

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100331

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100331

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110331

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110331

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120331

Year of fee payment: 12

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120331

Year of fee payment: 12

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130331

Year of fee payment: 13

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130331

Year of fee payment: 13

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140331

Year of fee payment: 14

LAPS Cancellation because of no payment of annual fees