JP3149839B2 - Object extraction device - Google Patents

Object extraction device

Info

Publication number
JP3149839B2
JP3149839B2 JP00192998A JP192998A JP3149839B2 JP 3149839 B2 JP3149839 B2 JP 3149839B2 JP 00192998 A JP00192998 A JP 00192998A JP 192998 A JP192998 A JP 192998A JP 3149839 B2 JP3149839 B2 JP 3149839B2
Authority
JP
Japan
Prior art keywords
unit
correspondence
pixel
value
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP00192998A
Other languages
Japanese (ja)
Other versions
JPH11203482A (en
Inventor
裕一 仁野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP00192998A priority Critical patent/JP3149839B2/en
Publication of JPH11203482A publication Critical patent/JPH11203482A/en
Application granted granted Critical
Publication of JP3149839B2 publication Critical patent/JP3149839B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体抽出装置に関
し、特に、動物体が存在している領域を画像上から抽出
する物体抽出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object extracting apparatus, and more particularly to an object extracting apparatus for extracting a region where a moving object exists from an image.

【0002】[0002]

【従来の技術】従来、物体抽出装置を用いた物体抽出手
法として、例えば、1996年度電子情報通信大会ソサ
イエティ大会論文誌D−404「ステレオ画像を利用し
た動物体検出」(里田他1996.9)によって提案さ
れたステレオ画像による物体抽出手法がある。
2. Description of the Related Art Conventionally, as an object extraction method using an object extraction apparatus, for example, the Transactions of the Society Conference of Electronic Information and Communication 1996, D-404, "Moving Object Detection Using Stereo Images" (Satota et al., 1996. 9). There is an object extraction method using a stereo image proposed by J.

【0003】図5(a),(b)は、この物体抽出手法
を示す図である。この物体抽出手法によれば、まず、図
5(a)に示すように、対象物体のない画像をステレオ
カメラで撮影する。このステレオカメラで撮影された左
画像(左カメラの撮像面Sl )および右画像(右カメラ
の撮像面Sr )からなるステレオ画像を対象にして、こ
れらの画像の画素間の対応関係を計算する。対応関係の
計算とは、背景上の任意の一点Pb に対応する左画像上
の画素Pl および右画像上の画素Pr を求めることであ
る。なお、図において、Cl は左カメラのレンズの中心
を表しCr は左カメラのレンズの中心を表す。この対応
関係の計算は、画像全体を対象として行い、その結果は
画像ファイル等の形式で記憶する。
FIGS. 5A and 5B are diagrams showing this object extraction technique. According to this object extraction method, first, as shown in FIG. 5A, an image without a target object is photographed by a stereo camera. For a stereo image composed of a left image (imaging surface S l of the left camera) and a right image (imaging surface S r of the right camera) photographed by this stereo camera, the correspondence between pixels of these images is calculated. I do. Corresponding calculation The relationship is to determine the pixel P r on any of the left image corresponding to a point P b pixel P l and the right image on the background. Incidentally, in FIG., C l is C r represents the center of the left camera lens represents the center of the left camera lens. The calculation of the correspondence is performed for the entire image, and the result is stored in the form of an image file or the like.

【0004】次に、図5(b)に示すように、対象物体
が存在するフレームにおいて、入力されたステレオ画像
を対象に、記憶していた画素間の対応関係を参照して、
対応関係にある画素間の類似度尺度として相関値あるい
は差分値のいずれかを計算し、計算した値をしきい値と
比較することで対応の崩れを判定する。そして、対応が
崩れている(類似度が低くなっている)画素を物体が存
在している領域として抽出する。
[0005] Next, as shown in FIG. 5 (b), in a frame in which a target object is present, an input stereo image is set as a target, and reference is made to a stored correspondence relationship between pixels.
Either a correlation value or a difference value is calculated as a similarity measure between pixels in a correspondence relationship, and the calculated value is compared with a threshold value to determine whether the correspondence is broken. Then, a pixel whose correspondence has been lost (the degree of similarity is low) is extracted as a region where an object exists.

【0005】即ち、図5(a)のように、対象物体が存
在していない画像では、対応関係にある画素Pl ,Pr
は同一の点Pb を指す。従って、画素Pl ,Pr の対応
はとれており、その類似度は高くなる。しかし、図5
(b)のように、対象物体Oが存在していた場合、その
物体Oが存在している領域では、それらの画素Pl ,P
r は物体O上の別の点Pol,Porを指してしまうことに
なり、画素Pl ,Pr の類似度が崩れ類似度が低下す
る。この類似度が低下した領域を、物体Oの表示領域と
して抽出するものである。
[0005] That is, as shown in FIG. 5A, in an image in which no target object exists, pixels P l and P r in a corresponding relationship are present.
Refers to the same point P b. Thus, the pixel P l, corresponding is well-P r, the degree of similarity is high. However, FIG.
As shown in (b), when the target object O exists, in the region where the object O exists, the pixels P l , P
r is it would point to the another point P ol, P or on the object O, the pixel P l, the similarity similarity collapse of P r decreases. The area where the similarity is reduced is extracted as the display area of the object O.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、従来の
物体抽出装置を用いた物体抽出手法によれば、画素間の
対応の崩れを判定するために用いられるしきい値に1つ
の値しか用いていないため以下の問題がある。 (1)例えば、背景が複雑な場合、背景を物体として抽
出しないようにするために、しきい値を高めに設定しな
ければならないが、しきい値を高めに設定すると、物体
が存在することによる類似度の変化を敏感に検出するこ
とができなくなり、物体をあまり抽出できないという問
題がある。 (2)また、物体の抽出には物体や背景のテクスチャお
よび明るさが影響を及ぼすが、用いるしきい値を一つだ
けとすると、それに対処することができず、物体の抽出
精度を著しく低下させてしまうという問題がある。この
問題を、図6を参照して説明する。
However, according to the object extraction method using the conventional object extraction device, only one value is used as the threshold value used to determine the collapse of the correspondence between pixels. Therefore, there are the following problems. (1) For example, when the background is complicated, the threshold value must be set higher in order to prevent the background from being extracted as an object. This makes it difficult to detect a change in the similarity due to the sensibility, and there is a problem that an object cannot be extracted much. (2) The texture and brightness of the object and the background affect the extraction of the object. However, if only one threshold is used, it cannot be dealt with, and the extraction accuracy of the object is significantly reduced. There is a problem of letting them do it. This problem will be described with reference to FIG.

【0007】図6は、明るさ(画素の輝度)、テクスチ
ャによる画素間の差分値の変化を説明する図である。対
応関係にある画素(図5(a)における画素Pl
r )と、対応関係が崩れた画素(図5(b)における
画素Pl ,Pr )の輝度と差分値の相関関係を、テクス
チャの有無に分けて表したものである。この図から、差
分値は画素の輝度、テクスチャの有無に応じて大きく変
化することがわかる。図6においては、非対応でテクス
チャ有りの相関関係をもとにしきい値を設定している。
このため、例えば、背景にはテクスチャが有り、物体に
はテクスチャが無い場合には、それを物体を抽出するこ
とができない。このことは、差分値の代わりに相関値を
用いた場合も同様である。
FIG. 6 is a diagram for explaining a change in a difference value between pixels due to brightness (pixel brightness) and texture. Corresponding pixels (pixels P l ,
And P r), the pixel P l at pixel correspondence is lost (FIG. 5 (b), the correlation between the luminance difference value of P r), is a representation divided into the presence or absence of texture. From this figure, it can be seen that the difference value greatly changes according to the luminance of the pixel and the presence or absence of the texture. In FIG. 6, the threshold value is set based on the correlation with non-correspondence and texture.
Therefore, for example, if the background has a texture and the object has no texture, the object cannot be extracted from the texture. This is the same when the correlation value is used instead of the difference value.

【0008】なお、図6におけるテクスチャの有無は、
テクスチャ有りとは非常に細かいテクスチャが有ること
であり、テクスチャが無いとはテクスチャが画像中に全
く見受けられないことである。そのため、実際の環境を
想定した場合、差分値と輝度値の実際の相関関係は、テ
クスチャの細かさに応じて図6に示した相関関係の間を
変動すると考えられる。このようなことからも、従来の
物体抽出装置を用いた物体抽出手法によっては、高精度
な抽出を期待することができない。
The presence or absence of a texture in FIG.
The presence of a texture means that there is a very fine texture, and the absence of a texture means that no texture can be seen in an image. Therefore, when an actual environment is assumed, it is considered that the actual correlation between the difference value and the luminance value fluctuates between the correlations shown in FIG. 6 according to the fineness of the texture. For this reason, highly accurate extraction cannot be expected by the object extraction method using the conventional object extraction device.

【0009】従って、本発明の目的は、背景・動物体の
テクスチャの違いや明るさの影響を受けず、高精度な抽
出を行うことができる物体抽出装置を提供することにあ
る。
Accordingly, an object of the present invention is to provide an object extracting apparatus capable of performing high-precision extraction without being affected by differences in texture of backgrounds and moving objects and brightness.

【0010】[0010]

【課題を解決するための手段】かかる目的を達成するた
めに、請求項1記載の物体抽出装置の発明は、複数の照
明条件別に複数の異なる位置で撮像することで得られる
画像群を、動物体が存在しない初期状態と初期状態以外
の状態で取得する画像入力部と、画像入力部が取得した
初期状態の画像群のうち、任意の照明条件下で取得した
画像群の間で画素間の対応を検出する対応検出部と、画
像入力部が取得した画像群のうちの少なくとも一つの画
像を構成している画素の輝度を計算する輝度計算部と、
対応検出部が検出した画素間の対応に従って輝度、色
等の1または複数の指標で定められている類似度尺度の
しきい値を画素の輝度値別に画素単位で計測するしきい
値計測部と、画像入力部が取得した初期状態以外の状態
の画像群のうち、同一時に 取得された画像群を、画素間
対応に従って調べることにより、類似度尺度を指標毎
に画素単位で計算し、類似度尺度を画素の輝度に応じた
しきい値と指標毎に画素単位で比較し、比較の結果のな
かで1つ以上の指標の類似度尺度がしきい値で定められ
る範囲外となった画素を対応の崩れている画素として検
出する領域検出部と、を具備したことを特徴とする。
In order to achieve the above object, an object extracting apparatus according to the first aspect of the present invention includes a plurality of illumination devices.
An image group obtained by imaging at a plurality of different positions according to light conditions is displayed in an initial state where no moving object exists and in a state other than the initial state.
The image input unit that is acquired in the state of
A correspondence detection unit that detects a correspondence between pixels among an image group acquired under an arbitrary lighting condition among an image group in an initial state, and at least one of an image group acquired by an image input unit. A brightness calculation unit that calculates the brightness of the pixels constituting the two images,
Accordance correspondence between pixels corresponding detection unit detects the threshold measuring section for measuring brightness, one or more thresholds of similarity measure is defined by an indicator such as color separately by a pixel unit luminance value of the pixel And the state other than the initial state acquired by the image input unit
Among the image group, the image group acquired in the same time, between pixels
By examining according to the correspondence of
And calculate the similarity measure according to the pixel brightness.
The threshold is compared with the pixel for each index, and the
The similarity measure of one or more indicators is determined by a threshold
And a region detection unit that detects a pixel out of the predetermined range as a pixel whose correspondence is broken.

【0011】請求項2記載の発明は、請求項1の物体抽
出装置の発明において、しきい値計測部は、初期状態の
画像群毎に、対応検出部が検出した対応に従って画素間
の類似度尺度の平均値を求める平均計算部と、平均計算
部が求めた平均値から許容範囲とするずれを計算するず
れ計算部とを有し、領域検出部は、画像入力部が取得し
た初期状態以外の状態の画像群を対象に、対応検出部が
検出した対応に従って画素間の類似度尺度を計算し、類
似度尺度から平均計算部が計算した平均値を減算した
後、ずれ計算部が計算したずれをしきい値として、減算
結果の絶対値がずれより大きい画素を、対応の崩れてい
る画素として検出することを特徴とする。
According to a second aspect of the present invention, there is provided the object extracting method according to the first aspect.
In the invention of out device, the threshold measurement unit, the initial state
For each image group , an average calculation unit that calculates an average value of the similarity measure between pixels according to the correspondence detected by the correspondence detection unit, and a deviation calculation unit that calculates a deviation within an allowable range from the average value calculated by the average calculation unit. And the area detection unit acquires the image
For the image group in a state other than the initial state, a similarity measure between pixels is calculated according to the correspondence detected by the correspondence detection unit, and after subtracting the average value calculated by the average calculation unit from the similarity scale, a shift calculation is performed. Using the shift calculated by the unit as a threshold, a pixel whose absolute value of the subtraction result is larger than the shift is detected as a pixel whose correspondence is broken.

【0012】請求項3記載の発明は、請求項1または2
の物体抽出装置において、しきい値計測部、および領域
検出部は、類似度尺度として、対応検出部が検出した対
応する画素間の各指標の差分値を、その一方の画素の輝
度値で割った値を用いることを特徴とする。
The invention described in claim 3 is the first or second invention.
In the object extraction device of
The detection unit uses the pair detected by the correspondence detection unit as a similarity measure .
A difference value between each index between pixels respond, is characterized by using a value obtained by dividing the luminance value of the one pixel.

【0013】[0013]

【発明の実施の形態】以下、図面を参照しながら本発明
の実施の形態を詳細に説明する。図1は、本発明の物体
抽出装置に係る第1の実施の形態を示すブロック図であ
る。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a block diagram showing a first embodiment of the object extraction device of the present invention.

【0014】この物体抽出装置は、異なった位置でステ
レオカメラによって撮影した画像を入力する画像入力部
1と、画像入力部1に入力された各画像の画素間の対応
を検出する対応検出部2と、対応検出部2で対応が検出
された各画素の座標を記憶する対応記憶部3と、対応記
憶部3に記憶されている画素間の対応に基づいて画像入
力部1に入力された各画像の全ての画素に対して対応の
崩れを検出するためのしきい値を画素単位で計測するし
きい値計測部4と、しきい値計測部4で計測されたしき
い値を記憶するしきい値記憶部5と、しきい値記憶部5
に記憶されたしきい値に基づいて画像入力部1に入力さ
れた各画像の全ての画素に対して対応記憶部3に記憶さ
れている画素間の対応を調べ対応が崩れている画素を検
出する領域検出部とから構成されている。
The object extracting apparatus includes an image input unit 1 for inputting images captured by a stereo camera at different positions, and a correspondence detecting unit 2 for detecting a correspondence between pixels of each image input to the image input unit 1. A correspondence storage unit 3 that stores the coordinates of each pixel whose correspondence has been detected by the correspondence detection unit 2, and each of the pixels input to the image input unit 1 based on the correspondence between the pixels stored in the correspondence storage unit 3. A threshold value measuring unit 4 that measures a threshold value for detecting a corresponding collapse for all pixels of the image in pixel units, and a threshold value measured by the threshold value measuring unit 4 are stored. Threshold storage unit 5 and threshold storage unit 5
The correspondence between the pixels stored in the correspondence storage unit 3 for all the pixels of each image input to the image input unit 1 is detected based on the threshold value stored in And an area detecting unit.

【0015】以上の構成に基づいて、動作を説明する。
まず、初期段階として動物体のないシーン(即ち、背景
画像)をステレオカメラで撮影し、画像入力部1に入力
する。画像入力部1に入力された背景画像は対応検出部
2に入力され、背景画像の画素間の対応検出を行う。こ
の対応検出は、背景画像を撮影するステレオカメラの位
置関係からエピポーラ条件を求めることによって行う。
即ち、2台のステレオカメラのカメラ中心を結ぶ直線と
背景シーン上の1点を結ぶ平面がステレオ画像と交差し
てできる2本直線の直線の組がエピポーラ直線であり、
背景中の任意の点はステレオ画像中のエピポーラ直線対
上の画素に映っているという条件である。この左右画像
のすべてのエピポーラ直線対上で画素の対応点を求め
る。そして、対応が検出された各画素の座標を確認し対
応記憶部3に記憶する。
The operation will be described based on the above configuration.
First, as an initial stage, a scene without a moving object (that is, a background image) is photographed by a stereo camera and input to the image input unit 1. The background image input to the image input unit 1 is input to the correspondence detection unit 2 and detects correspondence between pixels of the background image. This correspondence detection is performed by obtaining an epipolar condition from the positional relationship of the stereo camera that captures the background image.
That is, a set of two straight lines formed by intersecting a stereo image with a straight line connecting the camera centers of two stereo cameras and a point on the background scene is an epipolar straight line,
It is a condition that any point in the background is reflected on a pixel on the pair of epipolar straight lines in the stereo image. The corresponding points of the pixels are obtained on all the epipolar straight line pairs of the left and right images. Then, the coordinates of each pixel for which the correspondence has been detected are confirmed and stored in the correspondence storage unit 3.

【0016】次に、上記の画像中の各画素において、そ
の画素の各画像について指標となる輝度,色相,明度,
彩度を計算する。この各指標の計算は、東大出版会「画
像解析ハンドブック」(高木幹雄監修)p.103,p
p486−489で説明されている手法を利用する。そ
して、対応づけられた画素同士の各指標の差分値を計算
する。その後、その差分値に対し、一定の値(全スケー
ルの1/100程度の値)を加えたものを各指標のしき
い値として決定する。以上がしきい値計測部4の処理で
ある。そして、しきい値計測部4で決められた各指標の
しきい値を、しきい値記憶部5に保存する。
Next, for each pixel in the above image, luminance, hue, lightness, and index, which are indices for each image of that pixel,
Calculate saturation. The calculation of each index is described in the University of Tokyo Press “Image Analysis Handbook” (supervised by Mikio Takagi), p. 103, p
Utilize the technique described in pages 486-489. Then, the difference value of each index between the associated pixels is calculated. Thereafter, a value obtained by adding a constant value (a value of about 1/100 of the entire scale) to the difference value is determined as the threshold value of each index. The above is the processing of the threshold value measuring unit 4. Then, the threshold value of each index determined by the threshold value measurement unit 4 is stored in the threshold value storage unit 5.

【0017】以上のような設定を行った後、画像入力部
1の入力画像を領域検出部6に入力する。領域検出部6
では、対応記憶部3に格納した対応関係にある画素の座
標を使って、背景以外の物体の領域を検出する。これを
図5を用いて説明する。初期段階で背景画像の対応づけ
をしたとき、背景のある点Pb について、左画像の画素
l と右画像の画素Pr が対応していたとする。物体O
を撮影したとき、この点Pb が物体によって隠された場
合、Pl とPr が映している点は物体上の異なった点P
ol,Porとなり、対応しなくなる。ここで、対応しなく
なったかどうかの判定には以下のような計算法を用い
る。 (1)画素Pl とPr との輝度,色相,明度,彩度の差
分を計算する。 (2)計算された上記類似度尺度のうち、しきい値記憶
部5に記憶されているしきい値より1つでも大きくなる
場合は対応が崩れたと判定する。 (3)そうでない場合は、対応が取れていると判定す
る。このように、しきい値計測部4において画素単位で
しきい値を設定し、領域検出部6で画素単位でしきい値
を参照しながら抽出するとともに、しきい値計測部4で
各指標毎にしきい値を定め、領域検出部6で各指標を利
用して抽出するので、高精度な抽出ができる。
After the above settings are made, the input image of the image input unit 1 is input to the area detection unit 6. Area detector 6
Then, the area of the object other than the background is detected by using the coordinates of the pixels having the correspondence stored in the correspondence storage unit 3. This will be described with reference to FIG. When the correspondence of the background image at the initial stage, is about the point P b backgrounds, and the pixel P r of the left image pixels P l and the right image is supported. Object O
When taken, if the point P b is hidden by the object, P l and P r different points of it are points on the object reflects the P
ol, P or next to, not correspond. Here, the following calculation method is used to determine whether or not the correspondence has been made. (1) the luminance of the pixel P l and P r, calculates the hue, lightness, a difference of saturation. (2) When at least one of the calculated similarity measures is larger than the threshold value stored in the threshold value storage unit 5, it is determined that the correspondence is broken. (3) If not, it is determined that the correspondence is taken. As described above, the threshold value is set in the pixel unit in the threshold value measuring unit 4, the threshold value is extracted in the area detecting unit 6 with reference to the pixel value in the pixel unit, Since the threshold value is determined and the region detection unit 6 performs extraction using each index, highly accurate extraction can be performed.

【0018】図2は、本発明の物体抽出装置に係る第2
の実施の形態を示すブロック図である。第2の実施の形
態においては、しきい値計測部4が、平均計算部41と
ずれ計算部42とで構成され、しきい値記憶部5が、平
均記憶部51とずれ記憶部52で構成される点に特徴が
ある。ここで、平均計算部41は、対応する画素同士の
各類似度尺度を計算しその平均値を計算するものであ
り、ずれ計算部42は、平均計算部41が求めた平均値
から許容される範囲のずれを計算するものである。ま
た、しきい値記憶部5は、平均計算部41で求めた平均
値を記憶するものであり、ずれ記憶部52は、ずれ計算
部42で求めたずれを記憶するものである。なお、図1
と共通する部分については、同一の符号を付したので重
複する説明は省略する。
FIG. 2 shows a second embodiment of the object extracting apparatus according to the present invention.
It is a block diagram showing an embodiment. In the second embodiment, the threshold value measuring unit 4 includes an average calculating unit 41 and a shift calculating unit 42, and the threshold storing unit 5 includes an average storing unit 51 and a shift storing unit 52. The feature is that it is done. Here, the average calculation unit 41 calculates each similarity measure between corresponding pixels and calculates an average value thereof, and the shift calculation unit 42 is allowed from the average value obtained by the average calculation unit 41. This is to calculate the range deviation. Further, the threshold value storage unit 5 stores the average value obtained by the average calculation unit 41, and the shift storage unit 52 stores the shift obtained by the shift calculation unit 42. FIG.
The same reference numerals are given to the same parts as those described above, and the duplicate description will be omitted.

【0019】以上の構成において、動作を説明する。対
応記憶部3までの処理は、第1の実施の形態と同様であ
る。第2の実施の形態においては、対応記憶部3までの
処理が終わった後、動物体の無いフレームのN×2枚
(実用上は、N=10程度で十分である。)のステレオ
画像を撮影し、平均計算部41とずれ計算部42から構
成されるしきい値計測部4に入力する。平均計算部41
では、入力されたN×2枚の画像全てにおいて、全画素
において輝度,色相,明度,彩度の各指標を計算する。
そして、それらの対応関係にある画素同士の輝度,色
相,明度,彩度の差分のN枚の平均値を計算する。そし
て、計算の結果を平均記憶部51に記憶する。
The operation of the above configuration will be described. The processing up to the correspondence storage unit 3 is the same as in the first embodiment. In the second embodiment, after the processing up to the correspondence storage unit 3 is finished, N × 2 (N = 10 is sufficient in practical use) stereo images of frames without moving objects. An image is taken and input to the threshold value measuring unit 4 composed of the average calculating unit 41 and the shift calculating unit 42. Average calculator 41
In each of the input N × 2 images, the indices of luminance, hue, lightness, and saturation are calculated for all pixels.
Then, an average value of N differences between the luminance, hue, lightness, and saturation of the pixels in the corresponding relationship is calculated. Then, the result of the calculation is stored in the average storage unit 51.

【0020】ずれ計算部42では、入力されたN枚の画
像全てにおいて、全画素において対応する画素同士の輝
度,色相,明度,彩度の差分を計算し、先程の平均値を
もとにそれぞれの標準偏差を計算する。そして、その標
準偏差の3倍の値をずれ記憶部52に記憶する。これ
は、ノイズのずれが正規分布をとると仮定した場合に、
平均値からのずれが標準偏差の3倍以上ずれる確率は、
0.0027と極めて小さいからである。なお、ここで
は、このずれの値を標準偏差を用いて求めているが、N
枚の画像において、それぞれ平均値からのずれを計算
し、そのずれの最大値をずれ記憶部52に送ってもよ
い。
The shift calculator 42 calculates differences in luminance, hue, lightness, and saturation of the corresponding pixels in all of the input N images, and calculates the differences based on the average values. Calculate the standard deviation of. Then, a value three times the standard deviation is stored in the shift storage unit 52. This is because the noise shift assumes a normal distribution,
The probability that the deviation from the average is more than three times the standard deviation is
This is because it is as small as 0.0027. Here, the value of this deviation is obtained using the standard deviation.
For each of the images, the deviation from the average value may be calculated, and the maximum value of the deviation may be sent to the deviation storage unit 52.

【0021】領域検出部6では、物体領域の判定は以下
のように行う。なお、領域検出部6では、他の処理は第
1の実施の形態と同じである。 (1)画素Pl とPr の輝度,色相,明度,彩度の差分
を計算する。 (2)計算された上記類似度尺度について平均記憶部5
1に記憶されている値との差の絶対値を計算する。 (3)そして、計算された絶対値の値がずれ記憶部52
に記憶されているしきい値より大きくなる指標が1つで
もある場合は対応が崩れていると判定する。 (4)そうでない場合は、対応がとれていると判定す
る。
The area detection section 6 determines the object area as follows. The other processes in the area detection unit 6 are the same as those in the first embodiment. (1) the luminance of the pixel P l and P r, calculates the hue, lightness, a difference of saturation. (2) The average storage unit 5 for the calculated similarity measure
The absolute value of the difference from the value stored in 1 is calculated. (3) Then, the value of the calculated absolute value is shifted
If there is at least one index that is larger than the threshold value stored in, it is determined that the correspondence is broken. (4) If not, it is determined that a response has been taken.

【0022】このように、平均計算部41で計算される
各類似度尺度の平均値と抽出するかどうかの判定の対象
となる画素およびそれと対応関係にある画素とのずれ
が、ずれ計算部42で計算されるノイズによるずれの範
囲内にあるかどうかで、動物体か背景かの判定をするこ
とにより、動物体と背景のテクスチャの違いに柔軟に対
処した動物体抽出ができる。これは、各類似度尺度は対
応関係にある画素同士が実際に対応しているか以外に、
抽出するかどうかの判定の対象となる画素の周辺のテク
スチャによっても大きく変化するからである。
As described above, the difference between the average value of each similarity scale calculated by the average calculation unit 41 and the pixel to be determined whether or not to extract and the pixel corresponding thereto is determined by the shift calculation unit 42. By judging whether the object is a moving object or a background based on whether or not the moving object is within the range of the shift due to the noise calculated in step (1), the moving object can be extracted flexibly in response to the difference in texture between the moving object and the background. This means that each similarity measure has a corresponding
This is because it greatly changes depending on the texture around the pixel to be determined whether to extract.

【0023】図3は、本発明の物体抽出装置に係る第3
の実施の形態を示すブロック図である。図2と共通する
部分については、同一の符号を付したので重複する説明
は省略するが、第3の実施の形態においては、画像入力
部1と領域検出部8の間に、輝度計算部7としきい値決
定部8が設けられている点に特徴がある。
FIG. 3 shows a third embodiment of the object extracting apparatus according to the present invention.
It is a block diagram showing an embodiment. 2 are denoted by the same reference numerals, and duplicate description will be omitted. However, in the third embodiment, a luminance calculation unit 7 is provided between the image input unit 1 and the area detection unit 8. And a threshold determining unit 8 is provided.

【0024】ここで、輝度計算部7は、画像入力部1か
ら入力される画像のうち少なくとも一つの画像について
輝度を計算するものであり、しきい値決定部8は、平均
記憶部51に記憶されている輝度と各類似度尺度との平
均値の組み合わせと、ずれ記憶部52に記憶されている
輝度とずれの平均値との組み合わせの中から輝度計算部
7で計算された輝度値に最も近い輝度に対応している平
均値,ずれの値を選択するものである。
Here, the luminance calculation section 7 calculates the luminance of at least one of the images input from the image input section 1, and the threshold value determination section 8 stores the luminance in the average storage section 51. The luminance value calculated by the luminance calculation unit 7 is the smallest among the combinations of the average luminance and the average value of each similarity scale and the combination of the luminance and the average deviation value stored in the deviation storage unit 52. The average value and the deviation value corresponding to the near luminance are selected.

【0025】以上の構成において、動作を説明する。対
応記憶部3までの処理は、第2の実施の形態と同様であ
る。従って、第2の実施の形態と異なる部分についての
み説明する。第3の実施の形態においては、対応記憶部
3までの処理が終わった後、動物体の無いフレームを撮
影する。このとき、照明の明るさを複数段階(M段階)
撮影しながら、N枚の画像を撮影し、平均計算部41と
ずれ計算部42から構成されるしきい値計測部4に入力
する(なお、実用上、M=3,N=10程度で十分であ
る。)。ただし、このような場合、動物体を含むシーン
を撮影するのと同じ照明の画像を1通り、それより少し
暗い画像と少し明るい画像の2通り撮影する。
The operation of the above configuration will be described. The processing up to the correspondence storage unit 3 is the same as in the second embodiment. Therefore, only the parts different from the second embodiment will be described. In the third embodiment, after the processing up to the correspondence storage unit 3 is completed, a frame without a moving object is photographed. At this time, the brightness of the lighting is set in a plurality of levels (M levels).
While photographing, N images are photographed and input to the threshold value measuring unit 4 composed of the average calculating unit 41 and the shift calculating unit 42 (in practice, about M = 3, N = 10 is sufficient. Is.). However, in such a case, one image with the same illumination as that for shooting a scene including a moving object is shot, and two images, a slightly darker image and a slightly brighter image, are shot.

【0026】平均計算部41では、入力されたM×N×
2枚のステレオ画像の全てにおいて、全画素において輝
度,色相,明度,彩度を計算する。そして、各輝度段階
において、それらの対応関係にある画素同士の輝度、色
相、明度、彩度の差分値のN枚の平均値を計算する。こ
の計算の結果を平均記憶部51に記憶する場合には、片
方の画像(ここでは左画像とするが、右画像であっても
よい)の画素の輝度と平均値を対応づけて記憶する。
In the average calculation section 41, the inputted M × N ×
In all of the two stereo images, luminance, hue, lightness, and saturation are calculated for all pixels. Then, in each luminance stage, an average value of N difference values of luminance, hue, lightness, and saturation of the pixels having the corresponding relationship is calculated. When the result of this calculation is stored in the average storage unit 51, the luminance and the average value of the pixels of one image (here, the left image but may be the right image) are stored in association with each other.

【0027】ずれ計算部42では、入力されたM×N×
2枚のステレオ画像の全てにおいて、全画素において輝
度,色相,明度,彩度を計算し、前述の平均値をもとに
それぞれの標準偏差を計算する。
In the shift calculator 42, the input M × N ×
In all of the two stereo images, the luminance, hue, lightness, and saturation are calculated for all the pixels, and the respective standard deviations are calculated based on the above-described average values.

【0028】そして、左画像の画素の輝度と、その標準
偏差の3倍の値を対応づけて、ずれ記憶部52に記憶す
る。なお、ここでも、ずれの値について標準偏差を用い
て求めているが、N枚の画像において、それぞれ平均値
からのずれを計算し、そのずれの最大値をずれ記憶部5
2に記憶してもよい。
Then, the luminance of the pixel of the left image and the value of three times the standard deviation thereof are stored in the shift storage unit 52 in association with each other. In this case as well, the value of the shift is obtained using the standard deviation. However, the shift from the average value is calculated for each of the N images, and the maximum value of the shift is stored in the shift storage unit 5.
2 may be stored.

【0029】次に、輝度計算部7では、物体領域の判定
に該当する画素(図5のPl )の輝度値を計算する。そ
して、しきい値決定部8では、輝度計算部7で得られた
輝度値を参照しながら、平均記憶部51に記憶されてい
るM個の平均値、ずれ記憶部52に記憶されているM個
のずれ値のうち、輝度計算部7で計算された輝度値に最
も近い輝度に対応している平均値,ずれの値を選択し、
領域検出部6に送る。
Next, the luminance calculator 7 calculates the luminance value of the pixel (P l in FIG. 5) corresponding to the determination of the object area. Then, the threshold value determination unit 8 refers to the luminance value obtained by the luminance calculation unit 7 and refers to the M average values stored in the average storage unit 51 and the M average values stored in the shift storage unit 52. From the deviation values, an average value and a deviation value corresponding to the luminance closest to the luminance value calculated by the luminance calculation unit 7 are selected,
This is sent to the area detection unit 6.

【0030】なお、この平均値、ずれの値は輝度計算部
7で計算された輝度値に最も近い輝度2つに対応してい
るものを選択し、それらの線形和で最終的に決定しても
よい。具体的には、左画像中の抽出するかどうかの判定
の対象となる画素の輝度値をI0 ,I0 に近い2つの輝
度I5 ,Il に対応する各指標の平均値,ずれの値をそ
れぞれa5 ,d5 ,al ,dl とすると(ただし、I5
<I0 <Il )、しきい値として利用する平均値a0
ずれの値d0 は以下の式により求まる。
The average value and the shift value are selected from those corresponding to the two luminance values closest to the luminance value calculated by the luminance calculation unit 7, and finally determined by a linear sum of them. Is also good. Specifically, each index corresponding to the luminance value of the pixel to be determined whether to extract in the left image I 0, two near I 0 intensity I 5, I l mean, deviation Assuming that the values are a 5 , d 5 , a l , and d l (where I 5
<I 0 <I l ), an average value a 0 used as a threshold,
The shift value d 0 is obtained by the following equation.

【0031】[0031]

【数1】 (Equation 1)

【0032】領域検出部6では、物体領域の判定は以下
のように行う。 (1)画素Pl とPr との輝度,色相,明度,彩度の差
分を計算する。 (2)計算された上記類似度尺度について、しきい値決
定部8から送られてきた平均値との差の絶対値を計算す
る。 (3)そして、計算された絶対値の値がしきい値決定部
8から送られてきたしきい値より1つの類似度尺度でも
大きくなる場合は対応が崩れていると判定する。 (4)そうでない場合は、対応がとれていると判定す
る。このようにして物体領域を検出することができる。
In the area detector 6, the determination of the object area is performed as follows. (1) the luminance of the pixel P l and P r, calculates the hue, lightness, a difference of saturation. (2) With respect to the calculated similarity measure, the absolute value of the difference from the average value sent from the threshold value determination unit 8 is calculated. (3) If the calculated absolute value is larger than the threshold value sent from the threshold value determination unit 8 by one similarity measure, it is determined that the correspondence is broken. (4) If not, it is determined that a response has been taken. Thus, the object area can be detected.

【0033】図4は、本発明の物体抽出装置に係る第4
の実施の形態を示す図である。第3の実施の形態では、
初期設定として動物体のないフレームにおいて明るさを
変えながら撮影し、その明るさに応じてしきい値の設定
が必要となるが、第4の実施の形態では、第2の実施の
形態において、類似度尺度として各指標の差分値を抽出
するかどうかを判定する画素の輝度値で割ったものを使
用することにより、第3の実施の形態で得られるのと同
様の効果を得るようにしている。
FIG. 4 shows a fourth embodiment of the object extracting apparatus according to the present invention.
It is a figure showing an embodiment. In the third embodiment,
As an initial setting, shooting is performed while changing the brightness in a frame without a moving object, and it is necessary to set a threshold value according to the brightness. In the fourth embodiment, in the second embodiment, By using a value obtained by dividing by a luminance value of a pixel for determining whether to extract a difference value of each index as a similarity measure, an effect similar to that obtained in the third embodiment can be obtained. I have.

【0034】図に即して具体的に説明すると、図4では
図6でのテクスチャがある場合における対応・ 非対応の
画素同士の差分値をその輝度値で割ったもののその輝度
による変化を示しているが、これによると、一定の輝度
の範囲内(0.1−0.7)でこの指標はあまり変化し
ないことがわかる。これは、テクスチャ変化が輝度に対
して一定の割合で変化するものと考えると、明るい場合
にはテクスチャ変化による輝度変化の量が大きく、暗い
場合には小さいことに起因している。従って、背景・動
物体がこの輝度の範囲内(0.1−0.7)にある場合
には、この類似度尺度を用いるだけで、第3の実施の形
態のように明るさに応じてしきい値を設定しなくても、
背景・動物体における明るさの変化の影響を受けずに、
動物体を抽出することができる。
To be more specific, FIG. 4 shows the change due to the luminance obtained by dividing the difference value between the corresponding and non-corresponding pixels by the luminance value when there is the texture shown in FIG. However, according to this, it is understood that this index does not change much within a certain luminance range (0.1-0.7). This is because the amount of change in the luminance due to the texture change is large when the image is bright and small when the image is dark, assuming that the change in the texture changes at a fixed rate with respect to the luminance. Therefore, when the background and the moving object are within the range of the luminance (0.1-0.7), only the similarity scale is used, and the luminance is changed according to the luminance as in the third embodiment. Even without setting a threshold,
Without being affected by changes in brightness in the background / animals,
The animal body can be extracted.

【0035】[0035]

【発明の効果】以上の説明から明らかなように、請求項
1記載の発明によれば、抽出するかどうかの判定の対象
となる画素の輝度を輝度計算部で計算し、それをもとに
しきい値決定部で各類似度尺度の平均値、ずれの範囲を
決定し、動物体抽出するため、類似度尺度の明るさに対
する影響を受けない動物体抽出ができる。
As is apparent from the above description, the claims
According to the first aspect of the present invention, the luminance of a pixel to be determined whether or not to extract is calculated by the luminance calculation unit, and based on the calculated value, the threshold value determination unit calculates the average value of each similarity scale, Is determined and the moving object is extracted, so that the moving object can be extracted without being affected by the brightness of the similarity scale.

【0036】請求項2記載の発明によれば、しきい値計
測部で複数の画像を対象としてしきい値を計測し、領域
検出部でこのしきい値に基づいて抽出するため、高精度
な抽出ができる。
According to the second aspect of the present invention , the threshold value measuring section measures the threshold value for a plurality of images, and the area detecting section extracts the threshold value based on the threshold value. Can be extracted.

【0037】請求項3記載の発明によれば、各指標の差
分値を抽出するかどうか判定する画素の輝度値で割った
ものを類似度尺度として使用するため、明るさに応じた
しきい値の変更をすることなく、類似度尺度の明るさに
対する影響を受けない動物体抽出ができる。
According to the third aspect of the present invention, a value obtained by dividing a difference value of each index by a luminance value of a pixel for determining whether to extract the index value is used as a similarity measure. It is possible to extract a moving object that is not affected by the brightness of the similarity measure without changing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態を示すブロック図で
ある。
FIG. 1 is a block diagram showing a first embodiment of the present invention.

【図2】本発明の第2の実施の形態を示すブロック図で
ある。
FIG. 2 is a block diagram showing a second embodiment of the present invention.

【図3】本発明の第3の実施の形態を示すブロック図で
ある。
FIG. 3 is a block diagram showing a third embodiment of the present invention.

【図4】本発明の第4の実施の形態を示すグラフであ
る。
FIG. 4 is a graph showing a fourth embodiment of the present invention.

【図5】従来のステレオ画像による物体抽出手法の説明
図である。
FIG. 5 is an explanatory diagram of a conventional object extraction method using a stereo image.

【図6】従来の物体抽出手法において、対応関係にある
画素とない画素の差分値の明るさとテクスチャ変化によ
る影響を示したグラフである。
FIG. 6 is a graph showing the influence of the brightness and the texture change of the difference value between the corresponding pixel and the non-corresponding pixel in the conventional object extraction method.

【符号の説明】 1 画像入力部 2 対応検出部 3 対応記憶部 4 しきい値計測部 5 しきい値記憶部 6 領域検出部 7 輝度計算部 8 しきい値決定部 41 平均計算部 42 ずれ計算部 51 平均記憶部 52 ずれ記憶部[Description of Signs] 1 Image input unit 2 Correspondence detection unit 3 Correspondence storage unit 4 Threshold measurement unit 5 Threshold storage unit 6 Area detection unit 7 Luminance calculation unit 8 Threshold determination unit 41 Average calculation unit 42 Deviation calculation Unit 51 average storage unit 52 shift storage unit

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の照明条件別に複数の異なる位置で
撮像することで得られる画像群を、動物体が存在しない
初期状態と該初期状態以外の状態で取得する画像入力部
と、 前記画像入力部が取得した前記初期状態の画像群のう
ち、任意の照明条件下で取得された画像群の間で画素間
の対応を検出する対応検出部と、 前記画像入力部が取得した画像群のうちの少なくとも一
つの画像を構成している画素の輝度を計算する輝度計算
部と、前記 対応検出部が検出した前記画素間の対応に従って
輝度、色等の1または複数の指標で定められている類似
度尺度のしきい値を前記画素の輝度値別に前記画素単位
で計測するしきい値計測部と、 前記画像入力部が取得した前記初期状態以外の状態の画
像群のうち、同一時に取得された画像群を、前記画素間
対応に従って調べることにより、前記類似度尺度を前
記指標毎に前記画素単位で計算し、該類似度尺度を前記
画素の輝度に応じたしきい値と前記指標毎に前記画素単
位で比較し、該比較の結果のなかで1つ以上の指標の類
似度尺度が前記しきい値で定められる範囲外となった
素を対応の崩れている画素として検出する領域検出部
と、 を具備したことを特徴とする物体抽出装置。
An image group obtained by imaging at a plurality of different positions according to a plurality of lighting conditions does not include a moving object.
An initial state and an image input unit acquired in a state other than the initial state; and an image group in the initial state acquired by the image input unit.
That is, a correspondence detection unit that detects correspondence between pixels between image groups acquired under arbitrary lighting conditions, and a pixel that constitutes at least one image of the image group acquired by the image input unit. a luminance calculation unit for calculating the brightness of, according to the correspondence between the pixels the correspondence detection unit detects,
Brightness, and threshold measurement unit that measures at the pixel unit 1 or more thresholds of similarity measure is defined by an index for each luminance value of the pixel of the color or the like, the said image input unit obtains Images in states other than the initial state
Of the image group, the image group acquired in the same time, between the pixel
By examining the correspondence according to
Calculated in pixel units for each index, and the similarity scale is calculated as
The threshold value according to the luminance of the pixel and the pixel unit
And rank one or more indicators in the result of the comparison.
An area detection unit that detects a pixel whose similarity measure is out of the range defined by the threshold value as a pixel whose correspondence is broken.
【請求項2】 前記しきい値計測部は、前記初期状態の
画像群毎に、前記対応検出部が検出した対応に従って画
素間の類似度尺度の平均値を求める平均計算部と、前記
平均計算部が求めた平均値から許容範囲とするずれを計
算するずれ計算部とを有し、 前記領域検出部は、前記画像入力部が取得した初期状態
以外の状態の画像群を対象に、前記対応検出部が検出し
た対応に従って画素間の類似度尺度を計算し、該類似度
尺度から前記平均計算部が計算した平均値を減算した
後、前記ずれ計算部が計算したずれをしきい値として、
該減算結果の絶対値が該ずれより大きい画素を、前記対
応の崩れている画素として検出することを特徴とする請
求項1記載の物体抽出装置。
2. The method according to claim 1, wherein the threshold value measuring unit is configured to determine the initial state.
For each image group , an average calculation unit that calculates an average value of the similarity measure between pixels according to the correspondence detected by the correspondence detection unit, and a deviation calculation that calculates a deviation that is an allowable range from the average value calculated by the average calculation unit. And an area in which the area detecting section is in an initial state acquired by the image input section.
After calculating the similarity measure between pixels according to the correspondence detected by the correspondence detection unit, and subtracting the average calculated by the average calculation unit from the similarity measure, Using the deviation calculated by the calculation unit as a threshold,
2. The object extracting apparatus according to claim 1, wherein a pixel whose absolute value of the subtraction result is larger than the deviation is detected as the pixel whose correspondence is broken.
【請求項3】 前記しきい値計測部、および前記領域検
出部は、前記類似度尺度として、前記対応検出部が検出
した対応する画素間の各指標の差分値を、その一方の画
素の輝度値で割った値を用いることを特徴とする請求項
1または2項に記載の物体抽出装置。
3. The apparatus according to claim 2, wherein said threshold value measuring section and said area detecting section are provided.
The output unit is detected by the correspondence detection unit as the similarity measure.
The object extraction device according to claim 1, wherein a value obtained by dividing a difference value of each index between corresponding pixels by a luminance value of one of the pixels is used.
JP00192998A 1998-01-07 1998-01-07 Object extraction device Expired - Fee Related JP3149839B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP00192998A JP3149839B2 (en) 1998-01-07 1998-01-07 Object extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00192998A JP3149839B2 (en) 1998-01-07 1998-01-07 Object extraction device

Publications (2)

Publication Number Publication Date
JPH11203482A JPH11203482A (en) 1999-07-30
JP3149839B2 true JP3149839B2 (en) 2001-03-26

Family

ID=11515307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00192998A Expired - Fee Related JP3149839B2 (en) 1998-01-07 1998-01-07 Object extraction device

Country Status (1)

Country Link
JP (1) JP3149839B2 (en)

Also Published As

Publication number Publication date
JPH11203482A (en) 1999-07-30

Similar Documents

Publication Publication Date Title
JP4451307B2 (en) How to classify objects in a scene
RU2426172C1 (en) Method and system for isolating foreground object image proceeding from colour and depth data
US7031525B2 (en) Edge detection based on background change
US7359547B2 (en) Pseudo three dimensional image generating apparatus
US6909802B2 (en) Image-correspondence position detection device, distance measuring device and apparatus using the same
CN109152535B (en) Skin diagnosis device and skin diagnosis method
CN102737370B (en) Method and device for detecting image foreground
CN107018323B (en) Control method, control device and electronic device
JPH07302328A (en) Method for extracting area of moving object based upon background difference
JP4313758B2 (en) How to chain edges in stereo images together
KR20020054223A (en) An Apparatus and Method to Measuring Dimensions of 3D Object on a Moving Conveyor
JP2003187233A (en) Method for automatically detecting red-eye defect in photographic image data
JP4389602B2 (en) Object detection apparatus, object detection method, and program
KR20170038144A (en) Attention detection apparatus and attention detection method
JP3570198B2 (en) Image processing method and apparatus
KR20120069539A (en) Device for estimating light source and method thereof
JP3149839B2 (en) Object extraction device
KR101957773B1 (en) Evaluation method for skin condition using image and evaluation apparatus for skin condition using image
JP2009258770A (en) Image processing method, image processor, image processing program, and imaging device
Pashchenko et al. An algorithm for the visualization of stereo images simultaneously captured with different exposures
JP2020129187A (en) Contour recognition device, contour recognition system and contour recognition method
JP3755319B2 (en) Main subject detection device and apparatus using the same
JP2013190938A (en) Stereo image processing device
JP2807232B2 (en) Medical image difference recognition display method and medical image difference recognition display device
TWM622922U (en) System for automatically searching for multi-grayscale regions of interest

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20001219

LAPS Cancellation because of no payment of annual fees