JP2003141546A - Image processing method - Google Patents

Image processing method

Info

Publication number
JP2003141546A
JP2003141546A JP2001342167A JP2001342167A JP2003141546A JP 2003141546 A JP2003141546 A JP 2003141546A JP 2001342167 A JP2001342167 A JP 2001342167A JP 2001342167 A JP2001342167 A JP 2001342167A JP 2003141546 A JP2003141546 A JP 2003141546A
Authority
JP
Japan
Prior art keywords
image
processing method
point
image processing
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001342167A
Other languages
Japanese (ja)
Other versions
JP3831232B2 (en
Inventor
Katsutaka Sato
雄隆 佐藤
Shunichi Kaneko
俊一 金子
Satoru Igarashi
悟 五十嵐
Yoshinori Niwa
義典 丹羽
Kazuhiko Yamamoto
山本  和彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Softopia Japan Foundation
Original Assignee
Japan Science and Technology Corp
Softopia Japan Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Corp, Softopia Japan Foundation filed Critical Japan Science and Technology Corp
Priority to JP2001342167A priority Critical patent/JP3831232B2/en
Publication of JP2003141546A publication Critical patent/JP2003141546A/en
Application granted granted Critical
Publication of JP3831232B2 publication Critical patent/JP3831232B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image pattern detection technique capable of robustly detecting an object with high reliability from an image time series such that a scene is successively photographed, then separating the object from its background. SOLUTION: In this image processing method, points with a brightness difference equal to or greater than a threshold TB are searched radially in eight directions from a point of interest on a background screen shown in (a), to form eight pairs. The magnitude relationships in brightness of each pair (positive or negative of their difference) are made into eight pairs of binary signs as evaluation values for a pixel of interest. On a desired scene including an object appearing on a background image shown in (b), evaluation values for each pixel are similarly obtained; the evaluation values are compared for each pixel to extract portions of the different evaluation values as an RRF image shown in (c), while making a decision by majority. With such procedures, the influences of noise and illumination are made smaller than if simple background differences shown in (d) to (f) are used, with the resultant effect of making the appearing object robustly extractable.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理方法に係
り、詳しくは継続的に情景を撮影した画像時系列から信
頼性高くロバストに物体を検出し、背景から分離するた
めの画像パタン検出技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method, and more particularly, to an image pattern detection technique for reliably and robustly detecting an object from an image time series of continuously captured scenes and separating the object from the background. Regarding

【0002】[0002]

【従来の技術】継続的に情景を撮影した画像時系列から
信頼性高くロバスト(頑強)に物体を検出し、背景から
分離するための画像パタン検出技術は、例えば、羽下哲
司、藤原秀人、鷲見和彦“首振り、ズームカメラを用い
たトラッキング型侵入監視システム”(信学技報、PR
MU99−67、1999)や、P.L.Rosin
“Thresholding for Change
Detection”(Proc.ICCV98,p
p.274−279,1998)に記載されているよう
な環境監視の分野に利用される。
2. Description of the Related Art Image pattern detection techniques for reliably and robustly detecting an object from a time series of images of continuously captured scenes and separating it from the background include, for example, Tetsuji Hashita and Hideto Fujiwara. Kazuhiko Sumi, "Tracking-type intrusion monitoring system using a swing camera and zoom camera" (Technical Report, PR)
MU99-67, 1999), P. L. Rosin
"Thresholding for Change
Detection ”(Proc. ICCV98, p
p. 274-279, 1998) and is used in the field of environmental monitoring.

【0003】また、D.Koller,J.Webe
r,T.Huang,J.Malik,G.Ogasa
wara,B.Rao and S.Russel,”
Towards robust automatic
traffic sceneanalysis in
real−time”(Proc.ICPR94,p
p.126−131,1994)、金山憲司“道路交通
システムにおける画像認識の現状と技術課題”(信学技
報、PRMU97−32,1997.)に記載されてい
るようなITSの分野にも利用される。
In addition, D. Koller, J .; Webe
r, T. Huang, J .; Malik, G .; Ogasa
wara, B.W. Rao and S. Russell, ”
Towards Robust automatic
traffic scene analysis in
real-time "(Proc. ICPR94, p.
p. 126-131, 1994), Kenji Kanayama, “Current situation and technical problems of image recognition in road traffic system” (Science Technical Report, PRMU 97-32, 1997.). .

【0004】また、C.Wren,A.Azarbay
ejani,T.Darre11,A.Pentlan
d“Pfinder:Real−Time Track
ing of the Human Body”(IE
EE Ttans.PAMI,Vol.19,No.
7,pp.780−785,1997.)や、A.Mo
han,C.Papageorgiou,and T.
Poggio“Example−Based Obje
ct Detection in Imagesby
Components”(IEEE Trans.PA
MI,Vo1.23,No.4,pp.349−36
1,2001.)や、棚橋英樹、島田大輔、山本和彦、
丹羽義典“全方向ステレオシステム(SOS)を用いた
移動物体追跡”(信学技報、PRMU99−67,19
99.)に記載されているような人物検出およびトラッ
キングにも利用されるなど、様々な分野において重要と
なる基本技術である。
C.I. Wren, A .; Azarbay
ejani, T .; Darre 11, A.M. Pentlan
d "Pfinder: Real-Time Track
ing of the Human Body "(IE
EE Ttans. PAMI, Vol. 19, No.
7, pp. 780-785, 1997. ), And A. Mo
han, C.I. Papageorgiou, and T.P.
Poggio "Example-Based Obje"
ct Detection in Imagesby
Components "(IEEE Trans. PA
MI, Vo1.23, No. 4, pp. 349-36
1, 2001. ), Hideki Tanahashi, Daisuke Shimada, Kazuhiko Yamamoto,
Yoshinori Niwa "Tracking Moving Objects Using Omnidirectional Stereo System (SOS)" (Technical Report, PRMU99-67, 19)
99. It is also an important basic technology in various fields such as being used for person detection and tracking as described in (1).

【0005】特に、山本和彦、棚橋英樹、桑島茂純、丹
羽義典“実環境センシングのための全方向ステレオシス
テム(SOS)”(電学論、Vol.121−C,N
o.5,pp.876−881,2001.)のような
実環境センシングにおいては、情景が複雑な背景を持つ
場合が多く、画像時系列中から出現物体(イベント)の
みを精度よく検出および分離することが、その後の認識
処理などの性能に大きな影響を与える。
In particular, Kazuhiko Yamamoto, Hideki Tanahashi, Shigezumi Kuwashima, Yoshinori Niwa "Omnidirectional Stereo System (SOS) for Real Environment Sensing" (Electronics Theory, Vol. 121-C, N.
o. 5, pp. 876-881, 2001. In a real environment sensing such as), the scene often has a complicated background, and accurately detecting and separating only appearing objects (events) from the image time series will improve the performance of subsequent recognition processing. Have a big impact.

【0006】そこで、山田浩正、伊藤渡、上田博唯“背
景差分法における波の誤検出抑制法の検討”(信学技
報、PRMU98−109,1998.)に記載された
背景差分法や、影広達彦、太田友一“動画像からの背景
画像の自動生成と適応的更新”(画像の認識・理解シン
ポジウム(MIRU’94)講演論文集II−pp.2
63−270,1994.)に記載されたフレーム間差
分法など画像の明度差に基づく手法が多く提案されてい
る。
Therefore, the background subtraction method described in Hiromasa Yamada, Wataru Ito, Hiroyuki Ueda, "Study on False Detection Detection Method of Waves in Background Difference Method" (Shingaku Giho, PRMU98-109, 1998.), Tatsuhiko Kagehiro, Yuichi Ota "Automatic Generation and Adaptive Update of Background Images from Moving Images" (Image Recognition and Understanding Symposium (MIRU'94) Proceedings II-pp. 2
63-270, 1994. Many methods based on the difference in lightness of images, such as the inter-frame difference method described in (1), have been proposed.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、明度差
に基づく手法では、演算量が少ないというメリットを持
つ反面、照明条件の変化の影響を受けやすく、更に物体
表面の明度と背景の明度が近い部位は検出できず、検出
領域にいわゆる「虫食い」を生ずるなどの問題があり、
このため人物のトラッキングなどでは、実験条件として
単純背景と単純な服装が用いなければならないという問
題があった。
However, the method based on the difference in lightness has the advantage that the amount of calculation is small, but on the other hand, it is easily affected by changes in lighting conditions, and the lightness of the object surface and the lightness of the background are close to each other. Can not be detected, there is a problem such as causing so-called "worm eating" in the detection area,
For this reason, there has been a problem that a simple background and simple clothes have to be used as experimental conditions in human tracking and the like.

【0008】また、明度差分の問題点を補うため、差分
処理を空間微分と組み合わせることで明るさの変動や影
などの影響を低減した改良法として、嶺直道、八木康
史、谷内田正彦“空間微分画像と差分画像の結合による
変化領域検出法”(信学論(D−II),Vol.J7
7−D−II,No.3,pp.631−634,19
94.)や、高藤政雄、北村忠明、小林芳樹“空間微分
及び差分処理を用いた車両抽出法”(信学論(D−I
I),Vol.J80−D−II,No.11,pp.
2976−2985,1997.)などが提案されてい
る。しかしながら、差分処理の段階である程度まとまっ
た領域が検出され、かつ安定にエッジが得られていると
いう条件が必要となるなどの問題点がある。
[0008] Further, in order to make up for the problem of brightness difference, as an improved method that reduces the influence of fluctuations in brightness and shadows by combining difference processing with spatial differentiation, Naomine Remine, Yasushi Yagi, Masahiko Yachida "Spatial differentiation" Change Area Detection Method by Combining Image and Difference Image "(Shingaku Theory (D-II), Vol. J7
7-D-II, No. 3, pp. 631-634, 19
94. ), Masao Takafuji, Tadaaki Kitamura, Yoshiki Kobayashi “Vehicle Extraction Method Using Spatial Differentiation and Difference Processing” (Society theory (D-I
I), Vol. J80-D-II, No. 11, pp.
2976-2985, 1997. ) Etc. have been proposed. However, there is a problem such that a condition that a region that has been collected to some extent is detected in the stage of the difference processing and that edges are stably obtained is required.

【0009】また、波部斉、和田俊和、松山隆司“照明
変化に対して頑健な背景差分法”(情処学会研究会資
料、CVIM115−3,pp.17−24,199
9.)や、藤原秀人、関真規人、鷲見和彦、波部斉“テ
クスチャ背景差分とシルエットモデルを用いた車両追跡
手法”(第6回画像センシングシンポジウム(SSII
2000)講演論文集、pp.17−22,200
0.)等のテクスチャに注目した手法も提案されてい
る。これは、背景画像と対象情景をそれぞれN×N画素
のブロックに分割し、各ブロック間でテクスチャの相違
を評価するものであり、ブロックをベクトルと見立て、
ブロック間の正規化距離を評価するため、明度変動に対
してブロック単位で対応できるという特徴を持つ。しか
し、画像をブロック分割するため、得られる差分画像の
分解能が低下する問題がある。
Also, Hitoshi Habe, Toshikazu Wada, Takashi Matsuyama "Background subtraction method robust against changes in illumination" (CVIM115-3, CVIM115-3, pp.17-24, 199)
9. ), Hideto Fujiwara, Makinori Seki, Kazuhiko Washimi, Hitoshi Habe “Vehicle Tracking Method Using Texture Background Difference and Silhouette Model” (6th Image Sensing Symposium (SSII
2000) Proceedings, pp. 17-22,200
0. ) And other methods that focus on textures have also been proposed. In this method, the background image and the target scene are each divided into blocks of N × N pixels, and texture differences between the blocks are evaluated. The blocks are regarded as vectors,
Since the normalized distance between blocks is evaluated, it has the feature that it can respond to brightness variations in block units. However, since the image is divided into blocks, there is a problem that the resolution of the obtained difference image decreases.

【0010】また、T.Horpraseert,D.
Harwood,L.S.Davis“A Stati
stical Approach for Real−
time Robust Background Su
btraction andShadow Detec
tion”(proc.ICCV99,1999.)な
ど、カラー情報に基づいた手法の提案のように画像間の
差違を、明度と色度の要素に分解して扱うモデルを提案
し、明るさの変動や影、検出領域の「虫食い」の問題を
低減しているが、カラーカメラが必須となるほか、照明
色やカメラ特性の影響を受けやすいなどの問題もある。
In addition, T. Horprasert, D.M.
Harwood, L .; S. Davis “A Stati
stial Approach for Real-
time Robust Background Su
btraction and Shadow Detect
"Tion" (proc. ICCV99, 1999.) such as a method based on color information, which proposes a model that handles differences between images by decomposing them into elements of brightness and chromaticity, and Although it reduces the problem of shadows and "worm-eating" in the detection area, it also requires a color camera and is susceptible to the effects of illumination color and camera characteristics.

【0011】本発明は、継続的に情景を撮影した画像時
系列から信頼性高くロバストに物体を検出して背景から
分離することができる画像パタン検出技術に係る画像処
理方法を提供することを目的とする。
An object of the present invention is to provide an image processing method according to an image pattern detection technique capable of reliably and robustly detecting an object from an image time series of continuously captured scenes and separating the object from the background. And

【0012】[0012]

【課題を解決するための手段】上記課題を解決するた
め、請求項1に記載の画像処理方法では、コンピュータ
に、基準画像データの任意の画素である着目点から所定
方向に画素の明度を前記着目点の明度と比較しながら探
索する探索のステップと、前記探索のステップにより所
定の条件の画素であるペア点を決定するペア点決定のス
テップと、基準画像データにおいて前記ペア点決定のス
テップで決定されたペア点の明度を前記着目点の明度と
比較したときの大小関係を示す基準評価値を算出して記
憶する基準評価値記憶のステップと、比較画像データに
おいて前記基準画像データにおける着目点に対応する位
置の画素の明度及び前記ペア点に対応する位置の画素の
明度と比較したときの大小関係を示す比較評価値を算出
し、前記基準評価値と比較してその一致度を判定をする
判定のステップと、前記判定のステップでの判定結果に
基づいて、所定条件の着目点の画素を抽出する抽出画素
決定のステップとを実行させることを要旨とする。
In order to solve the above-mentioned problems, in the image processing method according to claim 1, the brightness of a pixel is set in a predetermined direction in a computer from a point of interest, which is an arbitrary pixel of reference image data. In the search step of searching while comparing with the brightness of the point of interest, in the step of determining the pair point which is a pixel of a predetermined condition in the step of searching, and in the step of determining the pair point in the reference image data. A step of storing a reference evaluation value that calculates and stores a reference evaluation value indicating the magnitude relationship when comparing the brightness of the determined pair point with the brightness of the point of interest, and the point of interest in the reference image data in the comparison image data. A comparison evaluation value indicating a magnitude relation when compared with the brightness of the pixel at the position corresponding to and the brightness of the pixel at the position corresponding to the pair point, and the reference evaluation value The gist is to perform a step of determining the degree of coincidence by comparing and a step of determining an extracted pixel for extracting a pixel of a point of interest of a predetermined condition based on the determination result in the step of determining. To do.

【0013】請求項1に記載の画像処理方法では、基準
画像データの着目点とペア点の明度の大小関係に基づく
基準評価値と、比較画像データの比較評価値とに基づい
て画像の一致を画素単位で判定するため、高い解像度で
画像を処理することができるという作用がある。また、
明度の大小関係に基づくため、明度の絶対値に左右され
にくく照明状態の変化や影になった部分の一致も正確に
判定できるという作用がある。
According to the image processing method of the first aspect, the images are matched based on the reference evaluation value based on the magnitude relation between the brightness of the point of interest of the reference image data and the pair point and the comparison evaluation value of the comparison image data. Since the determination is performed on a pixel-by-pixel basis, there is an effect that an image can be processed with high resolution. Also,
Since it is based on the magnitude relation of the brightness, it is less affected by the absolute value of the brightness, and there is an effect that the change of the illumination state and the coincidence of the shaded portion can be accurately determined.

【0014】請求項2に記載の画像処理方法では、請求
項1に記載の画像処理方法の構成に加え、前記ペア点
が、1つの着目点に対して複数の方向においてそれぞれ
決定されることを要旨とする。
In the image processing method according to the second aspect, in addition to the configuration of the image processing method according to the first aspect, it is determined that the pair points are respectively determined for one target point in a plurality of directions. Use as a summary.

【0015】請求項2に記載の画像処理方法では、請求
項1に記載の画像処理方法の作用に加え、複数のペア点
により、判定のための情報量が増加してノイズの影響を
受けにくくできるとともに、複数の方向でペア点をとる
ことで等方性が向上するという作用がある。
According to the image processing method of the second aspect, in addition to the operation of the image processing method of the first aspect, a plurality of pair points increases the amount of information for determination and is less susceptible to noise. In addition to that, there is an effect that isotropy is improved by taking a pair of points in a plurality of directions.

【0016】請求項3に記載の画像処理方法では、請求
項1又は請求項2に記載の画像処理方法の構成に加え、
前記ペア点は、少なくとも前記着目点からの1の方向に
おいて複数のペア点が決定されることを要旨とする。
According to the image processing method of claim 3, in addition to the configuration of the image processing method of claim 1 or 2,
The gist of the pair points is that a plurality of pair points are determined in at least one direction from the point of interest.

【0017】請求項3に記載の画像処理方法では、請求
項1又は請求項2に記載の画像処理方法の作用に加え、
ペア点の数を増やして情報量を増すことでノイズの影響
を受けにくくすることができるという作用がある。
According to the image processing method of claim 3, in addition to the operation of the image processing method of claim 1 or 2,
By increasing the number of pair points and increasing the amount of information, it is possible to reduce the influence of noise.

【0018】請求項4に記載の画像処理方法では、請求
項1乃至請求項3のいずれかに記載の画像処理方法の構
成に加え、前記ペア点決定のステップにおける所定の条
件が、前記着目点から所定方向に探索して、前記着目点
との明度差が所定値より最初に大きくなった画素をペア
点とすることを要旨とする。
In the image processing method according to claim 4, in addition to the configuration of the image processing method according to any one of claims 1 to 3, the predetermined condition in the step of determining the pair point is The gist of the present invention is to search in a predetermined direction from, and to select a pixel whose brightness difference from the point of interest first becomes larger than a predetermined value as a pair point.

【0019】請求項4に記載の画像処理方法では、請求
項1乃至請求項3のいずれかに記載の画像処理方法の作
用に加え、所定の明度差以上の画素をペア点とすること
で、ノイズの影響を小さくしたり、照明の影響を小さく
してよりロバストな判定をすることができるという作用
がある。
In the image processing method according to the fourth aspect, in addition to the operation of the image processing method according to any of the first to third aspects, a pixel having a predetermined brightness difference or more is set as a pair point, There is an effect that the influence of noise can be reduced or the influence of lighting can be reduced to make more robust determination.

【0020】請求項5に記載の画像処理方法では、請求
項1乃至請求項4のいずれかに記載の画像処理方法の構
成に加え、前記ペア点探索のステップは、前記着目点か
ら所定の距離内で探索されることを要旨とする。
In the image processing method according to a fifth aspect, in addition to the configuration of the image processing method according to any one of the first to fourth aspects, the step of searching for the pair points includes a predetermined distance from the point of interest. The gist is to be searched within.

【0021】請求項5に記載の画像処理方法では、請求
項1乃至請求項4のいずれかに記載の画像処理方法の作
用に加え、探索範囲を限定することで、処理を高速化す
ることができるという作用がある。
According to the image processing method of the fifth aspect, in addition to the operation of the image processing method of the first aspect, the processing range can be increased by limiting the search range. There is an action that can be done.

【0022】請求項6に記載の画像処理方法では、請求
項4又は請求項5に記載の画像処理方法の構成に加え、
前記ペア点決定のステップにおける所定の条件が、探索
範囲内で所定の明度差以上の画素がない場合は、探索範
囲内で最も明度差が大きな画素をペア点とすることを要
旨とする。
In the image processing method according to claim 6, in addition to the configuration of the image processing method according to claim 4 or 5,
When the predetermined condition in the step of determining the pair point does not include a pixel having a brightness difference equal to or larger than a predetermined brightness difference in the search range, a pixel having the largest brightness difference in the search range is set as a pair point.

【0023】請求項6に記載の画像処理方法では、請求
項4又は請求項5に記載の画像処理方法の作用に加え、
所定のしきい値以上の明度差がない場合でも最も特徴的
な情報に基づいて判定できるという作用がある。
According to the image processing method of claim 6, in addition to the operation of the image processing method of claim 4 or 5,
Even if there is no lightness difference equal to or more than a predetermined threshold value, it is possible to make a determination based on the most characteristic information.

【0024】請求項7に記載の画像処理方法では、請求
項1乃至請求項6のいずれかに記載の画像処理方法の構
成に加え、前記ペア点決定のステップにおける所定の条
件が、画像データの周端部に達した場合は、その探索範
囲内で最大の明度差の画素をペア点と決定することを要
旨とする。
In the image processing method according to claim 7, in addition to the configuration of the image processing method according to any one of claims 1 to 6, the predetermined condition in the step of determining the pair points is When it reaches the peripheral edge, the gist is to determine the pixel having the maximum brightness difference within the search range as the pair point.

【0025】請求項7に記載の画像処理方法では、請求
項1乃至請求項6のいずれかに記載の画像処理方法の作
用に加え、周端部においての精度を確保することができ
るという作用がある。
According to the image processing method of the seventh aspect, in addition to the operation of the image processing method of any of the first to sixth aspects, it is possible to ensure the accuracy at the peripheral edge portion. is there.

【0026】請求項8に記載の画像処理方法では、請求
項1乃至請求項7に記載の画像処理方法の構成に加え、
前記基準評価値及び比較評価値は、2値で表現されるこ
とを要旨とする。
According to the image processing method of the eighth aspect, in addition to the configuration of the image processing method of the first to seventh aspects,
The gist is that the reference evaluation value and the comparative evaluation value are represented by two values.

【0027】請求項8に記載の画像処理方法では、請求
項1乃至請求項7に記載の画像処理方法の作用に加え、
比較のための評価値を2値とすることで高速な処理を行
うことができるという作用がある。
According to the image processing method of the eighth aspect, in addition to the operation of the image processing method of the first to seventh aspects,
By setting the evaluation value for comparison to be binary, there is an effect that high-speed processing can be performed.

【0028】請求項9に記載の画像処理方法では、請求
項8に記載の画像処理方法の構成に加え、前記判定のス
テップは、1つの着目点における全てのペア点に対応す
る基準評価値及び比較評価値に基づいて判定することを
要旨とする。
In the image processing method according to a ninth aspect, in addition to the configuration of the image processing method according to the eighth aspect, the step of the determination includes a reference evaluation value and a reference evaluation value corresponding to all the pair points at one point of interest. The gist is to make a determination based on the comparative evaluation value.

【0029】請求項9に記載の画像処理方法では、請求
項8に記載の画像処理方法の作用に加え、複数の対応す
るペア点を比較することで、ノイズや照明の影響を小さ
くしてよりロバストな処理を行うことができるという作
用がある。
According to the image processing method of the ninth aspect, in addition to the operation of the image processing method of the eighth aspect, by comparing a plurality of corresponding pair points, the influence of noise and illumination can be reduced. There is an effect that robust processing can be performed.

【0030】請求項10に記載の画像処理方法では、請
求項9に記載の画像処理方法の構成に加え、前記判定の
ステップは、基準評価値及び比較評価値が一致した数が
所定のしきい値より少ない着目点を抽出する画素と判定
することを要旨とする。
In the image processing method according to a tenth aspect, in addition to the configuration of the image processing method according to the ninth aspect, in the determination step, the number of times the reference evaluation value and the comparison evaluation value match is a predetermined threshold. The gist is to determine a pixel of interest that is less than a value as a pixel to be extracted.

【0031】請求項10に記載の画像処理方法では、請
求項9に記載の画像処理方法の作用に加え、多数決的な
処理を行いノイズや照明の影響を小さくしてよりロバス
トな処理を行うことができるという作用がある。
In the image processing method according to the tenth aspect, in addition to the operation of the image processing method according to the ninth aspect, majority processing is performed to reduce the influence of noise and illumination, and more robust processing is performed. There is an action that can.

【0032】請求項11に記載の画像処理方法では、請
求項10に記載の画像処理方法の構成に加え、前記しき
い値は、撮像系のノイズ分布に基づいて決定されること
を要旨とする。
According to the image processing method of the eleventh aspect, in addition to the configuration of the image processing method of the tenth aspect, the threshold value is determined based on the noise distribution of the image pickup system. .

【0033】請求項11に記載の画像処理方法では、請
求項10に記載の画像処理方法の作用に加え、判定の誤
差の原因として影響が大きい撮像系のノイズに合わせた
しきい値とすることで、最も適切な処理が可能になると
いう作用がある。
In the image processing method according to the eleventh aspect, in addition to the operation of the image processing method according to the tenth aspect, the threshold value is set in accordance with the noise of the image pickup system having a large influence as a cause of the determination error. This has the effect of enabling the most appropriate processing.

【0034】請求項12に記載の画像処理方法では、請
求項1乃至請求項11に記載の画像処理方法の構成に加
え、前記判定のステップは、前記基準画像データにおけ
るペア点の明度と前記比較画像データにおける当該ペア
点の明度との差が所定のしきい値より小さい場合には、
このペア点に係る評価値を判定に用いないことを要旨と
する。
In the image processing method according to the twelfth aspect, in addition to the configuration of the image processing method according to the first to eleventh aspects, the determining step includes the brightness of the pair point in the reference image data and the comparison. When the difference between the brightness of the pair point in the image data is smaller than a predetermined threshold value,
The gist is that the evaluation value related to this pair point is not used for the determination.

【0035】請求項12に記載の画像処理方法では、請
求項1乃至請求項11に記載の画像処理方法の作用に加
え、ノイズや照明の影響を受けやすいしきい値以下の明
度差の情報を排除することで、ノイズや照明の影響を小
さくできるという作用がある。
In the image processing method according to the twelfth aspect, in addition to the operation of the image processing method according to the first aspect to the eleventh aspect, information on a brightness difference below a threshold value which is easily influenced by noise or illumination is provided. By eliminating them, there is an effect that the influence of noise and lighting can be reduced.

【0036】請求項13に記載の画像処理方法では、請
求項1乃至請求項12のいずれかに記載の画像処理方法
の構成に加え、前記抽出画素決定のステップにより抽出
された着目点の位置に基づいて2値画像を生成する2値
画像生成のステップをさらに備えたことを要旨とする。
In the image processing method according to the thirteenth aspect, in addition to the configuration of the image processing method according to any one of the first to twelfth aspects, the position of the point of interest extracted in the step of determining the extracted pixels is set. The gist is that the method further includes a step of generating a binary image based on which a binary image is generated.

【0037】請求項13に記載の画像処理方法では、請
求項1乃至請求項12のいずれかに記載の画像処理方法
の作用に加え、2値画像を生成することで判定後のあと
処理を容易にすることができるという作用がある。
In the image processing method according to the thirteenth aspect, in addition to the operation of the image processing method according to any one of the first to twelfth aspects, a binary image is generated to facilitate post-processing after the determination. There is an effect that can be.

【0038】請求項14に記載の画像処理方法では、請
求項13に記載の画像処理方法の構成に加え、前記2値
画像生成のステップにより生成された2値画像を平滑化
して補正画像を生成する補正画像生成のステップをさら
に備えたことを要旨とする。
In the image processing method according to claim 14, in addition to the configuration of the image processing method according to claim 13, the binary image generated in the step of generating the binary image is smoothed to generate a corrected image. The gist is that the method further includes a step of generating a corrected image.

【0039】請求項14に記載の画像処理方法では、請
求項13に記載の画像処理方法の作用に加え、平滑化の
処理により領域化をすることで、ノイズによるいわゆる
虫食いを補正することができるという作用がある。
According to the image processing method of the fourteenth aspect, in addition to the function of the image processing method of the thirteenth aspect, so-called worm eating caused by noise can be corrected by regionalizing by smoothing processing. There is an action.

【0040】請求項15に記載の画像処理方法では、請
求項13又は請求項14に記載の画像処理方法の構成に
加え、前記2値画像若しくは前記補正画像に対応した位
置の画素を比較画像データから抽出して抽出画像を生成
する抽出画像生成のステップをさらに備えたことを要旨
とする。
In the image processing method according to the fifteenth aspect, in addition to the configuration of the image processing method according to the thirteenth or fourteenth aspect, the pixel at the position corresponding to the binary image or the corrected image is compared image data. The gist is that the method further includes a step of generating an extracted image by extracting the extracted image from the extracted image.

【0041】請求項15に記載の画像処理方法では、請
求項13又は請求項14に記載の画像処理方法の作用に
加え、基準画像データに対して動きのあった画像の部分
のみを切り出すことができるという作用がある。
In the image processing method according to the fifteenth aspect, in addition to the operation of the image processing method according to the thirteenth or the fourteenth aspect, it is possible to cut out only the portion of the image that has moved with respect to the reference image data. There is an action that can be done.

【0042】請求項16に記載の画像処理方法では、請
求項15に記載の画像処理方法の構成に加え、前記基準
画像データを保存しつつ、前記比較画像データを更新し
て処理することを要旨とする。
In the image processing method according to the sixteenth aspect, in addition to the configuration of the image processing method according to the fifteenth aspect, the comparison image data is updated and processed while the reference image data is stored. And

【0043】請求項16に記載の画像処理方法では、請
求項15に記載の画像処理方法の作用に加え、比較的処
理時間がかかる基準画像データを保存しておくことで、
比較画像が更新された場合でも高速な処理を行うことが
できるという作用がある。
According to the image processing method of the sixteenth aspect, in addition to the operation of the image processing method of the fifteenth aspect, the reference image data which requires a relatively long processing time is stored,
There is an effect that high-speed processing can be performed even when the comparison image is updated.

【0044】請求項17に記載の画像処理方法では、請
求項1乃至請求項16のいずれかに記載の画像処理方法
の構成に加え、前記基準画像データ及び前記比較画像デ
ータがカラーデータであることを要旨とする。
In the image processing method according to claim 17, in addition to the configuration of the image processing method according to any one of claims 1 to 16, the reference image data and the comparison image data are color data. Is the gist.

【0045】請求項17に記載の画像処理方法では、請
求項1乃至請求項16のいずれかに記載の画像処理方法
の作用に加え、データがカラー画像であっても明度差を
用いることで照明状態に起因する色相の変化に影響され
ず、ロバストな処理ができるという作用がある。また、
各色要素を利用した場合には、情報量を増加させること
ができる。
In the image processing method according to the seventeenth aspect, in addition to the operation of the image processing method according to any one of the first to sixteenth aspects, even if the data is a color image, the brightness difference is used for illumination. There is an effect that robust processing can be performed without being affected by the change in hue due to the state. Also,
When each color element is used, the amount of information can be increased.

【0046】請求項18に記載の画像処理方法では、請
求項1乃至請求項16のいずれかに記載の画像処理方法
の構成に加え、前記基準画像データ及び前記比較画像デ
ータがグレースケールのデータであることを要旨とす
る。
In the image processing method according to claim 18, in addition to the configuration of the image processing method according to any one of claims 1 to 16, the reference image data and the comparison image data are grayscale data. The point is that there is.

【0047】請求項18に記載の画像処理方法では、請
求項1乃至請求項16のいずれかに記載の画像処理方法
の作用に加え、明度差に基づいてロバストな処理ができ
るという作用がある。
In the image processing method according to the eighteenth aspect, in addition to the operation of the image processing method according to any one of the first to sixteenth aspects, there is an effect that robust processing can be performed based on the difference in lightness.

【0048】[0048]

【発明の実施の形態】以下、本発明を具体化したRad
ial Reach Filter(RRF)を用いた
画像処理方法の一実施形態を図1〜図10に従って説明
する。
BEST MODE FOR CARRYING OUT THE INVENTION Rad embodying the present invention
An embodiment of an image processing method using the ial Reach Filter (RRF) will be described with reference to FIGS.

【0049】まず、本発明の画像処理方法の概要を説明
する。RRFは、明度変動の影響を抑えながら、ピクセ
ル単位の分解能で局所的なテクスチャを評価するため
に、次の2つの特徴的な要素で構成されている。
First, the outline of the image processing method of the present invention will be described. The RRF is composed of the following two characteristic elements in order to evaluate the local texture with a pixel-by-pixel resolution while suppressing the influence of brightness variation.

【0050】まず、(1)着目点から水平、垂直を含む
45度間隔で放射状(8方向)に基準(判定しきい値T
B)以上の明度差を持つ点を探索し、ペア(8組)を組
む。
First, (1) a reference (determination threshold T
B ) Search for points with the above brightness difference and form pairs (8 pairs).

【0051】次に、(2)各ペアにおける明度の大小関
係(差分の正負)を2値符号(8組分=計8it)と
し、着目画素の評価値とする。
Next, (2) the magnitude relation of brightness (positive / negative of difference) in each pair is set to a binary code (eight sets = 8 it in total), and the evaluation value of the pixel of interest is set.

【0052】(1)は主にノイズに対するロバスト性
(頑強性)を得るためである。撮像系のノイズ特性を予
め測定しておくことで、(2)における符号(明度の大
小関係)が反転してしまう確率を得ることができ、それ
に基づき判定しきい値TBを合理的に決定することがで
きる。判定しきい値TB以上の明度差を持つ点をペア対
象としていることで、ノイズ成分の大部分に影響されな
い(ノイズによって符号が反転しない)、頑健なペアを
得ることができる。さらに、特性に等方性を持たせる目
的のほか、多数決的処理を導入することで評価の安定性
を向上させるために、8方向について8組のペアを形成
する設計とした。
(1) is mainly for obtaining robustness (robustness) to noise. By measuring the noise characteristic of the imaging system in advance, it is possible to obtain the probability that the sign (magnitude relation of brightness) in (2) will be inverted, and the determination threshold T B is rationally determined based on the probability. can do. By making the points having the brightness difference equal to or larger than the determination threshold T B as the pair target, it is possible to obtain a robust pair that is not affected by most of the noise components (the sign is not inverted by noise). Furthermore, in addition to the purpose of making the characteristics isotropic, in order to improve the stability of evaluation by introducing majority processing, it was designed to form 8 pairs in 8 directions.

【0053】(2)は、主に明度変動に対するロバスト
性を得るためのものである。明度そのものではなく、ペ
ア間の明度の大小関係のみに着目することで、ペアを含
む領域の明度オフセットを感知しない特性を得ている。
従来、村瀬一郎、金子俊一、五十嵐悟“増分符号相関法
による画像照合−光沢物体及び不良照明条件に対するロ
バスト画像処理−”(精密工学会誌、Vo1.66,N
o.2,pp.261−265,1999.)や、村瀬
一郎、金子俊一、五十嵐悟“増分符号相関法によるロバ
スト画像照合”(信学論(D−II),Vol.J83
−D−II,No.5,pp.1323−1331,2
000.)では、固定の隣接画素について明度の大小関
係を評価する増分符号相関法が提案されており、照明変
動に対するロバストな特性が実証されているが、RRF
も基本的にその統計モデルに従う。
(2) is mainly for obtaining robustness against lightness fluctuation. By paying attention not only to the brightness itself but to the magnitude relationship of the brightness between pairs, we have obtained the characteristic that the brightness offset of the region including the pair is not sensed.
Previously, Ichiro Murase, Shunichi Kaneko, Satoru Igarashi "Image Matching by Incremental Code Correlation Method-Robust Image Processing for Glossy Objects and Poor Lighting Conditions-" (Journal of Precision Engineering, Vo1.66, N
o. 2, pp. 261-265, 1999. ), Ichiro Murase, Shunichi Kaneko, Satoru Igarashi "Robust Image Matching by Incremental Code Correlation Method" (Shingaku Theory (D-II), Vol. J83).
-D-II, No. 5, pp. 1323-1331,2
000. ) Proposed an incremental sign correlation method for evaluating the magnitude relation of brightness for fixed adjacent pixels, and demonstrated robust characteristics against illumination fluctuation.
Also basically follows that statistical model.

【0054】図1は、実画像によるRRF画像と、単純
背景差分の生成例を示す図である。上段(a)は、基準
画像データである背景画像(back ground)
を示し、(b)は、比較画像データである出現物体を含
む対象シーン(scene)を示す。下段は単純背景差
分の例で、2値化のしきい値(th)を、55(d)〜
95(f)まで変化させた例である。出現物体表面の明
度分布と背景の明度が近い部位において「虫食い」を生
じている。検出領域の拡大のためにしきい値を設定する
と、出現物体の影による明度変化が強く検出される
(d)。影の検出を抑制するために、しきい値を設定す
ると、検出領域が更に縮小する(f)。これらに対し、
(c)にRRF画像の生成例を示した。それぞれ明度分
布の大きく異なる袖の部分、手の部分、紙の部分、のい
ずれも良好に検出できていることがわかる、また、
(d)で見られるような影の影響も受けていないことが
わかる。
FIG. 1 is a diagram showing an example of generation of an RRF image based on an actual image and a simple background difference. The upper part (a) shows a background image (back ground) which is the reference image data.
And (b) shows a target scene (scene) including an appearing object which is comparative image data. The lower part is an example of the simple background difference, and the binarization threshold value (th) is 55 (d) to
In this example, the value is changed up to 95 (f). "Insect worming" occurs in the part where the brightness distribution on the surface of the appearing object is close to the brightness distribution on the background. When the threshold value is set for expanding the detection area, the change in brightness due to the shadow of the appearing object is strongly detected (d). If a threshold value is set in order to suppress the shadow detection, the detection area is further reduced (f). For these,
An example of generating an RRF image is shown in (c). It can be seen that the sleeve part, the hand part, and the paper part, which have greatly different lightness distributions, can be detected well.
It can be seen that it is not affected by the shadow as seen in (d).

【0055】次に、RRFの説明のための定義を示す。
まず、リーチ点の決定のために、画像内の任意の位置を
ベクトルP=(x,y)Tで表すものとする。また、放
射状の延長腕(リーチ)を延長する方向を表す方向ベク
トルdk(k=0,1,…,7)を定義する。それぞ
れ、d0=(1,0)T、d1=(1,1)T、d2
(0、1)T、d3=(−1、1)T、d4=(−1,0)
T、d5=(−1,−1)T、d6=(0,−1)T、d7
(1,−1)Tとする。つまり、方向ベクトルdk(k=
0,1,…,7)は、画面上で右水平方向から反時計回
りに45度ずつ回転させた方向となる。これらに基づい
て、
Next, a definition for explaining the RRF will be shown.
First, it is assumed that an arbitrary position in the image is represented by the vector P = (x, y) T for determining the reach point. Further, a direction vector d k (k = 0, 1, ..., 7) that represents the direction in which the radial extension arms (reach) are extended is defined. D 0 = (1,0) T , d 1 = (1,1) T , d 2 =
(0,1) T, d 3 = (- 1,1) T, d 4 = (- 1,0)
T, d 5 = (- 1 , -1) T, d 6 = (0, -1) T, d 7 =
Let (1, -1) T. That is, the direction vector d k (k =
0, 1, ..., 7) is the direction rotated by 45 degrees counterclockwise from the right horizontal direction on the screen. Based on these,

【0056】[0056]

【数1】 [Equation 1]

【0057】を満たす最小のリーチ長rk(=1、2、
3、…、L)を求める。なお、この手順が本発明の探索
のステップ及びペア点決定のステップの一例に相当す
る。ここで、fは背景画像、TPは明度差のしきい値、
Lはリーチの最大長を表す。なお、明度差のしきい値T
Pの設定については後述する。
The minimum reach length r k (= 1, 2,
3, ..., L). This procedure corresponds to an example of the search step and the pair point determination step of the present invention. Where f is the background image, T P is the threshold value of the brightness difference,
L represents the maximum length of reach. The threshold value T of the brightness difference
The setting of P will be described later.

【0058】図2は、実画像を用いたリーチの生成例を
示す図である。+印が着目画素を示し、その周囲の点が
ペア点を表す。比較的細かなテクスチャを持つ(e)の
領域では、リーチ長rkは非常に小さいことがわかる。
また図では判別しづらいが、(d)もカーペットの細か
なテクスチャを含んでおり、リーチ長rkが小さくなっ
ていることがわかる。これに対し、証明によるハイライ
トによって明度が飽和している壁面(b)や、もともと
テクスチャの弱い机上(f)の領域では、リーチ長rk
が大きなものとなっていることがわかる。
FIG. 2 is a diagram showing an example of reach generation using an actual image. The + symbol indicates the pixel of interest, and the points around it indicate the paired points. It can be seen that the reach length r k is very small in the area (e) having a relatively fine texture.
Further, although it is difficult to discriminate in the figure, it can be seen that (d) also includes the fine texture of the carpet, and the reach length r k is small. On the other hand, in the area of the wall surface (b) where the brightness is saturated by the proof highlighting or the desk surface (f) where the texture is originally weak, the reach length r k
It can be seen that is large.

【0059】なお、この図からもわかるとおり、テクス
チャの「細かさ」とは相対的なものである(例えば画像
を縮小すれば(b)の領域も細かなテクスチャの一部と
なる)。RRFでは、明度差のしきい値TPに基づいて
リーチ長rkを伸ばすことにより、上記のような意味合
いにおいて、テクスチャの「大きさ」に適応してスケー
リングを行っていると考えることができる。
As can be seen from this figure, the "fineness" of the texture is relative (for example, if the image is reduced, the area (b) becomes a part of the fine texture). In the RRF, by extending the reach length r k based on the threshold value T P of the brightness difference, it can be considered that the scaling is performed in accordance with the “size” of the texture in the above meaning. .

【0060】図3は、各画素におけるペアとして選ばれ
た回数(被ペア度数)を示す図である。照明により明度
が飽和している部分では、その周囲が被ペア点となって
いることがわかる。また、机上などテクスチャの弱い面
においても、周囲のエッジ部分に被ペア点が集中してい
ることがわかる。しかしながら、図2(e)周辺に対応
する部分のように密なテクスチャを持つ部分では、比較
的均一に被ペア点が分布しており、図3は単なる微分画
像とは性質を異にしていることがわかる。
FIG. 3 is a diagram showing the number of times (paired frequency) selected as a pair in each pixel. It can be seen that in the area where the brightness is saturated by the illumination, the surrounding area is the paired point. Also, it can be seen that the point to be paired is concentrated on the peripheral edge portion even on a surface having a weak texture such as a desk. However, in a portion having a dense texture, such as a portion corresponding to the periphery of FIG. 2E, the paired points are relatively uniformly distributed, and FIG. 3 is different from the mere differential image in nature. I understand.

【0061】次に、RRF画像について説明する。ここ
では、決定されたリーチ点を用いて、着目画素のRRF
評価値の算出を行い、これを記憶する。この手順が本発
明の基準評価値記憶のステップの一例に相当する。
Next, the RRF image will be described. Here, using the determined reach point, the RRF of the pixel of interest is
The evaluation value is calculated and stored. This procedure corresponds to an example of the step of storing the reference evaluation value of the present invention.

【0062】[0062]

【数2】 [Equation 2]

【0063】ここで得られたb0(p)〜b7(p)の値(計8
bit)を、背景画像の着目点の評価値とする。次に、
対象シーンg(p)についても、同様にRRF評価値の
算出を行う。
The values of b 0 (p) to b 7 (p) obtained here (8 in total )
bit) is the evaluation value of the point of interest of the background image. next,
The RRF evaluation value is similarly calculated for the target scene g (p).

【0064】[0064]

【数3】 [Equation 3]

【0065】背景画像と対象シーン間のRRF評価値の
類似性を評価するために、両者間の符号の一致数Bを得
る。
In order to evaluate the similarity of the RRF evaluation value between the background image and the target scene, the number of coincidences B of the codes between them is obtained.

【0066】[0066]

【数4】 [Equation 4]

【0067】次に、各画素における一致数Bの値を、あ
る判定しきい値TBと比較することにより、類似する、
あるいは類似しない画素を判定する。この手順が本発明
の判定のステップの一例に相当する。この判定に基づい
て2値画像R(P)を次式で定義し、これをRRF画像と
呼ぶ。この手順が本発明の抽出画素決定のステップ及び
2値画像生成のステップの一例に相当する。
Next, by comparing the value of the number of coincidences B in each pixel with a certain judgment threshold value T B , it is possible to obtain a similarity.
Alternatively, pixels that are not similar are determined. This procedure corresponds to an example of the determination step of the present invention. Based on this determination, the binary image R (P) is defined by the following equation, which is called an RRF image. This procedure corresponds to an example of the extraction pixel determination step and the binary image generation step of the present invention.

【0068】[0068]

【数5】 [Equation 5]

【0069】判定しきい値TBの設定については、後述
する。
The setting of the judgment threshold value T B will be described later.

【0070】次に、しきい値の設定について説明する。
RRFにおいて設定すべきしきい値は、明度差のしきい
値TPおよび判定しきい値TBの2つである。これらはい
ずれも、撮像系のノイズ特性を考慮することで、合理的
な設定が可能である。
Next, the setting of the threshold will be described.
There are two thresholds to be set in the RRF, the threshold value T P for the brightness difference and the determination threshold value T B. All of these can be rationalized by considering the noise characteristics of the imaging system.

【0071】まず、明度差のしきい値TPについて説明
する。明度差のしきい値TP((1)式)の目的は、ペ
アを結ぶ条件として一定以上の明度差を持つことを規定
することで、ノイズに対する耐性を高めることである。
一方で、必要以上に大きな明度差のしきい値TPは、リ
ーチ長rkの大きなリーチを生み出す可能性があり、ペ
アの一方のみが影の影響などで明度変化した場合に、空
間解像度の低下が起きる可能性がある。明度差のしきい
値TPは、撮像系のノイズ特性を測定しておくことで、
予め合理的に決定することができる。通常は、測定され
たノイズ分布の標準備差2σ程度に明度差のしきい値T
Pを設定することで、ノイズ成分の大部分に影響されな
い最小の明度差のしきい値TPを決定することができ
る。
First, the threshold value T P of the brightness difference will be described. The purpose of the lightness difference threshold T P (equation (1)) is to increase the resistance to noise by defining that the lightness difference is a certain value or more as a condition for connecting the pair.
On the other hand, the threshold value T P of the brightness difference larger than necessary may generate a large reach of the reach length r k , and when only one of the pair changes in brightness due to the influence of the shadow, the spatial resolution of Degradation may occur. The threshold value T P of the brightness difference is obtained by measuring the noise characteristic of the imaging system,
It can be reasonably determined in advance. Normally, the threshold difference T of the brightness difference is equal to the standard deviation 2σ of the measured noise distribution.
By setting P , it is possible to determine the minimum brightness difference threshold T P that is not affected by most of the noise components.

【0072】図4は、図1で用いた実画像に対し、実際
に明度差のしきい値TPの値を変化させた図である。明
度差のしきい値TP=0の場合(a)は、明度差によら
ずペアが生成される(常にrk=1になる)。このた
め、テクスチャの弱い壁面などでは、明度差をほとんど
持たないペアが生成され、ノイズの影響を強く受けて誤
検出が発生していることがわかる。一方、複雑なテクス
チャを持つ、本の並びの部分については誤検出が少ない
こともわかる。
FIG. 4 is a diagram in which the value of the threshold value T P of the brightness difference is actually changed with respect to the actual image used in FIG. In the case of the brightness difference threshold value T P = 0 (a), a pair is generated regardless of the brightness difference (always r k = 1). For this reason, it can be seen that a pair with little brightness difference is generated on a wall surface having a weak texture, which is strongly affected by noise, resulting in erroneous detection. On the other hand, it can be seen that there are few false detections in the part of the line of the book having the complicated texture.

【0073】これに対し、(b)〜(d)では、テクス
チャの状況によって適切なリーチ長が設定されること
で、頑健なペアが形成され、テクスチャの弱い面におい
てもノイズの影響を受けにくくなっていることがわか
る。
On the other hand, in (b) to (d), by setting an appropriate reach length depending on the texture condition, a robust pair is formed, and even a weak texture surface is less susceptible to noise. You can see that it has become.

【0074】背景画像と、物体を出現させずに撮像した
対象シーンの差を取るという簡易的な方法で、撮像系の
ノイズ分布の標準備差σ=3.64を得た。約2σなる
(d)の例では、ノイズの大部分の影響を受けない出現
物体の検出ができていることがわかる。
A standard difference σ = 3.64 of the noise distribution of the image pickup system was obtained by a simple method of taking the difference between the background image and the target scene imaged without causing the object to appear. In the example of (d) of about 2σ, it can be seen that the appearance object that is not affected by most of the noise can be detected.

【0075】図5は、図2の例における明度差のしきい
値TPと、リーチ長rkの平均および標準備差の関係を示
したグラフである。縦軸にリーチ長rk(ピクセル)、
横軸に明度差のしきい値TPをとったものである。明度
差のしきい値TPを増やすことで、○で示すリーチ長rk
の平均および△で示す標準偏差が大きくなることがわか
る。
FIG. 5 is a graph showing the relationship between the threshold value T P of the lightness difference and the average of the reach length r k and the standard reserve difference in the example of FIG. Reach length r k (pixel) on the vertical axis,
The horizontal axis represents the threshold value T P of the brightness difference. By increasing the threshold value T P of the brightness difference, the reach length r k shown by ◯
It can be seen that the average of and the standard deviation indicated by Δ are large.

【0076】次に、判定しきい値TBについて説明す
る。判定しきい値TBは、画像間の類似している/類似
していないを決定するためのしきい値である。(5)式
は、それぞれのリーチの符号bk(p)とb’k(p)の一致を
判定するものであり、全て一致しなければ0、全て一致
すれば8の値を取る。ここで、村瀬一郎、金子俊一、五
十嵐悟“増分符号相関法による画像照合−光沢物体及び
不良照明条件に対するロバスト画像処理−”(精密工学
会誌、Vol.66,No.2,pp.261−26
5,1999.)に記載されているように、1つのリー
チが一致する(1をとる)頻度の期待値として、一定値
qを用いることが可能であり、前書及び、村瀬一郎、金
子俊一、五十嵐悟“増分符号相関法によるロバスト画像
照合”(信学論(D−II),Vol.J83−D−I
I,No.5,pp.1323−1331,200
0.)に記載されているように、k=0〜7の8通り中
1が含まれる一致数Bの総数は、符号の一致と非一致を
独立事象とみなすと、8回のベルヌーイ試行と考えら
れ、その確率分布は2項分布でモデル化できることが知
られている。よって、一致数Bの確率密度関数も2項分
布となり、
Next, the judgment threshold value T B will be described. The determination threshold value T B is a threshold value for determining similarity / dissimilarity between images. The expression (5) is for determining whether the reach codes b k (p) and b ′ k (p) match, and takes 0 if all do not match and 8 if all match. Here, Ichiro Murase, Shunichi Kaneko, Satoru Igarashi "Image Matching by Incremental Code Correlation Method-Robust Image Processing for Glossy Objects and Poor Illumination Conditions-"
5, 1999. ), It is possible to use a constant value q as an expected value of the frequency with which one reach matches (takes 1). In the preamble and Ichiro Murase, Shunichi Kaneko, Satoru Igarashi “ Robust Image Matching by Incremental Sign Correlation Method "(Theoretical Theory (D-II), Vol. J83-DI)
I, No. 5, pp. 1323-1331, 200
0. ), The total number of matching numbers B including 1 out of 8 patterns of k = 0 to 7 is considered to be 8 Bernoulli trials when the sign matching and non-matching are regarded as independent events. It is known that the probability distribution can be modeled as a binomial distribution. Therefore, the probability density function of the number of matches B also has a binomial distribution,

【0077】[0077]

【数6】 [Equation 6]

【0078】[0078]

【数7】 [Equation 7]

【0079】と表現できる。δ()はクロネッカーのデ
ルタである。類似する背景部分においては、ノイズを含
まないと仮定すれば一致数B=8となる。しかし、図6
に示す、一致数Bの確率分布を示すグラフのように、実
際にはノイズを含むため、p1のような確率密度を持つ
と考えられる(実際には一致数Bは離散値であるが、こ
こでは便宜上連続値として扱っている。)。一方、対象
画像に出現物体が含まれているとき、それによって隠さ
れる背景画像の部分に対して一般に無相関であると考え
られる。無相関画像間におけるリーチの符号bk(p)
b’k(p)の一致確率の期待値はランダムなビット列の一
致確率と同等と考えることができ、一定値q=0.5と
なり、ノイズも考慮すると図6のp2のような確率密度
を持つと考えられる。
It can be expressed as δ () is the Kronecker delta. In a similar background portion, the number of matches B = 8 assuming that no noise is included. However, FIG.
As shown in the graph showing the probability distribution of the number B of coincidences, since it actually contains noise, it is considered that it has a probability density like p 1 (in practice, the number B of coincidences is a discrete value, Here, it is treated as a continuous value for convenience.). On the other hand, when the target image contains an appearing object, it is generally considered to be uncorrelated with the portion of the background image hidden by it. The expected value of the matching probability of reach codes b k (p) and b ′ k (p) between uncorrelated images can be considered to be equivalent to the matching probability of random bit strings, and a constant value q = 0.5, Considering noise, it is considered to have a probability density like p 2 in FIG.

【0080】ここで図6のように判定しきい値TBを設
定したとすると、背景部分に物体が存在すると誤認識す
る過誤確率P1は、
If the decision threshold value T B is set as shown in FIG. 6, the error probability P 1 for erroneously recognizing that an object exists in the background portion is

【0081】[0081]

【数8】 [Equation 8]

【0082】と表され、同様に、物体の存在を認識でき
ない過誤確率P2は、
Similarly, the error probability P 2 at which the existence of an object cannot be recognized is

【0083】[0083]

【数9】 [Equation 9]

【0084】となる。ここで背景部分に物体が存在する
と誤認識する場合のコスト係数をc 1、物体の存在を認
識できない場合のコスト係数をc2とすると、判定しき
い値T Bを最適に決定するためには過誤確率c11+c2
2を最小化すればよいことになる。∂(c11+c2
2)/∂TB=0を解くことにより、判定しきい値TB
次の明快な方程式の解として求めればよい。
It becomes Here there is an object in the background
The cost coefficient for erroneously recognizing 1Confirm the existence of the object
The cost coefficient when you cannot recognize2Then, the decision
Value T BError probability c1P1+ C2
P2Should be minimized. ∂ (c1P1+ C2P
2) / ∂TBBy solving = 0, the decision threshold TBIs
It can be obtained as the solution of the following clear equation.

【0085】[0085]

【数10】 [Equation 10]

【0086】コスト係数に偏りを設定しないときには、
単純にp1(TB)=p2(TB)という条件となる。図7
は、図1に示した実画像を用いて実測した確率分布p1
とp2に相当するヒストグラムの例を示す(前節までの
設定法に従い明度差のしきいT P=7、リーチの最大長
L=∞としている。)。これから2項分布による確率モ
デルが妥当であることがわかる。
When no bias is set in the cost coefficient,
Simply p1(TB) = P2(TB) Will be the condition. Figure 7
Is the probability distribution p actually measured using the actual image shown in FIG.1
And p2Here is an example of a histogram corresponding to
Threshold T of brightness difference according to the setting method P= 7, maximum reach
L = ∞. ). From now on, the probability model due to the binomial distribution
It turns out that Dell is valid.

【0087】図8に、実際に判定しきい値TBを変化さ
せて得たRRF画像を示す。図7で示したとおり、背景
部分と出現物体部分の分布は重視しており、判定しきい
値T Bを変化させることで、それぞれの密度が変動する
のがわかる。この例では、判定しきい値TB=6程度が
適当であることがわかる。
FIG. 8 shows an actual judgment threshold value TBChanged
The RRF image obtained is shown. As shown in Figure 7, the background
The distribution of parts and appearing objects is important, and the decision threshold
Value T BChanges the density of each
I understand. In this example, the determination threshold TB= About 6
It turns out to be suitable.

【0088】なお、この例からもわかるように、RRF
画像は、密度差を持つ2値画像として得られる。このた
め、例えば領域分割などに用いるためには、何らかの画
素併合処理を後処理として加えることが必要になること
が予想される。
As can be seen from this example, the RRF
The image is obtained as a binary image having a density difference. Therefore, it is expected that some kind of pixel merging process needs to be added as post-processing in order to use it for area division, for example.

【0089】続いて、RRFの特性について説明する。
まず、RRFの適用可能範囲について考察する。RRF
はテクスチャに基づいた手法であるため、適用対象に制
約を持つ。まず、背景画像として人工画像や、画像全体
が0あるいは255に明度飽和を起こしている画像のよ
うに、テクスチャが全く存在しない画像は、原理的に対
応できないため想定外としている。次に、背景画像のテ
クスチャが弱い場合、あるいは照明条件による明度飽和
によって部分的にテクスチャが欠落している場合につい
ては、テクスチャが弱い領域についてはリーチ長rK
大きくなるため、例えば影を検出しやすくなるなど部分
的に性能が低下することが予想されるが、撮像系のノイ
ズ特性などを考慮し適切な明度差のしきい値TPを設定
することで、性能を保持した運用が可能である。
Next, the characteristics of RRF will be described.
First, the applicable range of RRF will be considered. RRF
Is a texture-based method, so it has restrictions on its application. First, an artificial image as a background image or an image having no texture, such as an image in which the brightness of the entire image is saturated at 0 or 255, is not considered because it cannot be supported in principle. Next, when the texture of the background image is weak, or when the texture is partially missing due to saturation of the brightness under the lighting conditions, the reach length r K becomes large in the area where the texture is weak, and therefore shadows are detected, for example. Although it is expected that the performance will be partially degraded due to easier operation, it is possible to maintain the performance by setting the appropriate threshold value T P of the brightness difference in consideration of the noise characteristics of the imaging system. Is.

【0090】なお、本手法で想定している画像は、本稿
で用いている画像群のように、カメラを用いて実環境を
撮像した画像時系列(あるいはその一部)である。この
ような画像においては、実際に本手法でテクスチャの弱
さが問題となることは少ない。
The image assumed by this method is a time series (or part thereof) of an image of a real environment captured by a camera, like the image group used in this paper. In such an image, the weakness of the texture does not actually cause a problem in this method.

【0091】以下、本画像処理方法の実験について説明
する。図9に、環境内に出現する物体の検出例の画像を
示す。このようにRRF画像から、環境内に出現する物
体の画像を検出する手順が本発明の抽出画像生成のステ
ップの一例に相当する。前出書“全方向ステレオシステ
ム(SOS)を用いた移動物体追跡”記載の全方位カメ
ラシステム(SOS)を用いて撮像した。SOSは20
ユニットのカメラにより全方位の映像を同時取得可能な
システムであるが、今回はそのうちの1ユニットから得
られる画像のグレースケール情報(240×320、8
bit)のみを用いた。なお、元画像は、カラーデータ
でもよいことはいうまでもない。
The experiment of this image processing method will be described below. FIG. 9 shows an image of a detection example of an object appearing in the environment. In this way, the procedure of detecting the image of the object appearing in the environment from the RRF image corresponds to an example of the step of generating the extracted image of the present invention. An image was taken using an omnidirectional camera system (SOS) described in the above-mentioned "moving object tracking using an omnidirectional stereo system (SOS)". SOS is 20
This is a system that can simultaneously acquire omnidirectional video images with the unit's camera. This time, the grayscale information (240 × 320, 8) of the image obtained from one unit
only) was used. Needless to say, the original image may be color data.

【0092】背景画像と、(1)〜(3)までの対象シ
ーンに対し、明度差のしきい値TP=5、判定しきい値
B=6、リーチ最大長L=∞としてRRF画像(中央
列)を得た。RRF画像を見ると、出現物体が、その明
度分布によらず良好に検出できていることがわかる。
With respect to the background image and the target scenes (1) to (3), the brightness difference threshold T P = 5, the determination threshold T B = 6, and the reach maximum length L = ∞ are set to the RRF image. (Center row) was obtained. From the RRF image, it can be seen that the appearing object can be well detected regardless of the brightness distribution.

【0093】図10は、図9(3)の例について単純背
景差分をとった画像である。図10(a)では、出現し
た人物のズボンが背景のカーペットと近い明度を持つた
め、検出が困難であることがわかる。また、この領域を
検出するため2値化のしきい値(th)を調整すると、
人物の影が強く検出され、さらにズボンの領域は依然と
して不十分であることがわかる(b)。左下に足の一部
が現れた人物の影による明度変動で、変化の起きていな
いコピー機(左下隅)の領域も検出されてしまっている
こともわかる。
FIG. 10 is an image obtained by taking the simple background difference for the example of FIG. 9 (3). In FIG. 10A, it can be seen that the appearance of the pants of the person has a brightness close to that of the background carpet, so that the detection is difficult. Further, if the threshold value (th) for binarization is adjusted to detect this region,
It can be seen that the shadow of the person is strongly detected and the area of the pants is still insufficient (b). It can also be seen that the area of the copier (bottom left corner) where no change has occurred is also detected due to the lightness fluctuation due to the shadow of the person whose part of the foot appears at the bottom left.

【0094】図9右列は、密度差を持った画像として得
られるRRF画像を領域化するために、2値画像である
RRF画像を濃淡画像として扱い、 (1)3×3ボックス平均による平滑化×8回 (2)しきい値180により2値化 という手順による後処理を加え、得られた領域に対応す
る対象シーンの部分を示したものである。簡易的な後処
理であるが、比較的良好に領域化され、出現物体領域が
抽出されていることがわかる。この手順が本発明の補正
画像生成のステップの一例に相当する。今回背景画像は
常に固定で実験を行ったため、人物によって動かされた
椅子の領域が(3)で検出され続けていることがわか
る。
In the right column of FIG. 9, in order to localize the RRF image obtained as an image having a density difference, the RRF image which is a binary image is treated as a grayscale image, and (1) smoothing by 3 × 3 box averaging is performed. This shows the part of the target scene corresponding to the obtained region after post-processing according to the procedure of binarization by thresholding 180 times (2) threshold value 180. Although it is a simple post-process, it can be seen that the region is extracted relatively well and the appearing object region is extracted. This procedure corresponds to an example of the step of generating the corrected image of the present invention. Since the background image was always fixed in the experiment this time, it can be seen that the area of the chair moved by the person is continuously detected in (3).

【0095】処理時間は、例えば、AMD社製のCP
U、Athlon(登録商標)l.4GHzを搭載した
PC(Personal Computer)上で画像
1枚当たり、リーチ長の生成に約110msを要した。
これに対し、RRF画像の生成は主にビット演算による
実装が可能であるので1ms以下であった。処理コスト
を要するリーチ長の生成は、背景画像1枚に対して1回
行えばよく、背景画像更新までは再計算する必要はな
い。このことから、実時間処理への応用も検討できるこ
とがわかる。
The processing time is, for example, CP manufactured by AMD.
U, Athlon® l. It took about 110 ms to generate the reach length per image on a PC (Personal Computer) equipped with 4 GHz.
On the other hand, the generation of the RRF image was 1 ms or less because it can be mounted mainly by bit operation. The reach length that requires a processing cost may be generated once for each background image, and it is not necessary to recalculate until the background image is updated. From this, it can be seen that application to real-time processing can be considered.

【0096】上記実施形態のRRFによる画像処理方法
によれば、物体表面の明度分布、あるいは影などの対象
シーンの明度変化に鈍感でありながらも出現物体をロバ
ストに抽出することができた。
According to the image processing method by RRF of the above embodiment, the appearing object can be robustly extracted while being insensitive to the brightness distribution of the object surface or the brightness change of the target scene such as a shadow.

【0097】以下に、その効果を列挙する。 ○(1)特に、明度変動の影響を抑えながら、ピクセル
単位の分解能で局所的なテクスチャを評価することがで
きるという効果がある。 ○(2)輝度差のしきい値および判定しきい値は、撮像
系のノイズ分布に基づいて最適な値に決定可能であると
いう効果がある。 ○(3)実画像を用いた実験によって、従来の単純明度
差分を用いた方法と比較して物体表面の明度分布や、影
などの対象シーンの明度変化に対してロバストであると
いう効果がある。 ○(4)比較的単純な後処理をRRF画像に加えること
により、良好な輪郭および連続性を保った領域の抽出が
可能であるという効果がある。 ○(5)計算時間は、リーチ長算出に時間を要するもの
の、RRF画像の算出自体のコストは小さく、実時間処
理への応用が可能であるという効果がある。
The effects are listed below. (1) In particular, there is an effect that a local texture can be evaluated with a resolution on a pixel-by-pixel basis while suppressing the influence of brightness variation. (2) There is an effect that the threshold value of the brightness difference and the determination threshold value can be determined to be optimum values based on the noise distribution of the image pickup system. ○ (3) Experiments using real images have the effect of being more robust against lightness distributions on the object surface and changes in lightness of the target scene such as shadows, as compared to the conventional method using simple lightness difference . (4) By adding a relatively simple post-processing to the RRF image, it is possible to extract a region with good contour and continuity. (5) Although it takes a long time to calculate the reach length, the calculation time of the RRF image is small, and the calculation time can be applied to real-time processing.

【0098】なお、上記実施形態は以下のように変更し
てもよい。 ○ 本実施の形態では、最大リーチ長LはL=∞(探索
打ち切り無し)として制限されていないが、(1)式の
条件を満たすリーチ長rkを探索する際、探索を打ち切
るしきい値Lを有限の値に設定することもできる。Lを
有限に設定することで、処理の高速化が図れるという効
果がある。なお、打ち切った場合に(1)打ち切った点
をペア点とする(2)打ち切った場合そのペアは用いな
い、などの条件を適宜設定する。
The above embodiment may be modified as follows. In the present embodiment, the maximum reach length L is not limited as L = ∞ (no search termination), but when searching for the reach length r k that satisfies the condition of Expression (1), the threshold value at which the search is terminated. It is also possible to set L to a finite value. Setting L to a finite value has the effect of speeding up the process. It should be noted that conditions such as (1) when the censoring is terminated are paired points when (2) terminating is not used and the pair is not used when terminating.

【0099】○ 本実施の形態では、リーチが画像端に
達した場合、その画像端の画素をペア点としている。こ
のため、画像端に近接する部位では、性能がやや低下す
ることが予想される。この場合、画像端をペア点とする
ような構成とすることができる。
In the present embodiment, when the reach reaches the image edge, the pixel at the image edge is set as the pair point. Therefore, it is expected that the performance will be slightly deteriorated in the region close to the image edge. In this case, the image edge can be set as a pair point.

【0100】○ あるいは、画像端に達するまでの区間
で明度差が最大になる点をペア点とするように設定する
こともできる。
Alternatively, it is possible to set a point having the maximum brightness difference in the section until reaching the image end as a pair point.

【0101】○ また、本実施の形態では、ペア点は8
方向にリーチを伸ばして探索しているが、ペア点は、1
方向で1点のみ、若しくは9方向以上で9点以上のペア
点を設定することもできる。ペア点が少ない場合は、ノ
イズの影響を受けたり、等方性が悪化するなどの影響が
あるが、処理速度量を小さくできるとともに、処理速度
を高めることができる。一方、ペア点を多く採れば、処
理量は増加するが、ノイズの影響を小さくし、且つ評価
が安定する。さらに、等法性を更に向上させることがで
きるという効果がある。
Further, in the present embodiment, the number of pair points is 8
I'm searching for a reach in the direction, but the pair point is 1
It is also possible to set only one point in the direction, or set 9 or more pair points in the nine or more directions. When the number of pair points is small, there are influences such as influence of noise and deterioration of isotropy, but the processing speed amount can be reduced and the processing speed can be increased. On the other hand, if a large number of pair points are taken, the processing amount increases, but the influence of noise is reduced and the evaluation becomes stable. Further, there is an effect that the iso-law property can be further improved.

【0102】○ また、本実施の形態では、ペア点は、
それぞれの探索方向において最初に検出された条件に適
合する1点のみをペア点として決定しているが、1の探
索方向において、複数のペア点を決定するようにしても
よい。この場合は、着目点から近い順に、条件に適合す
る点を2点以上所定数のペア点として決定する。なお、
この場合は、最初のペア点が明度差が正のしきい値を超
えたような場合は、2点目のペア点は、明度差が負のし
きい値を超えた点を選択するようにしてもよい。また、
所定の点数までペア点を決定できなかったような場合に
は、その着目点のデータは、評価に用いないようにして
もよいし、決定できたペア点のみを比較するようにして
もよい。
Further, in the present embodiment, the pair points are
Only one point that meets the condition detected first in each search direction is determined as a pair point, but a plurality of pair points may be determined in one search direction. In this case, two or more points, which meet the conditions, are determined as a predetermined number of paired points in order from the point of interest. In addition,
In this case, if the brightness difference of the first pair point exceeds the positive threshold value, select the point of the second pair point whose brightness difference exceeds the negative threshold value. May be. Also,
If a pair of points cannot be determined up to a predetermined number of points, the data of the point of interest may not be used for evaluation, or only the determined pair of points may be compared.

【0103】○ さらに、ペア点は、複数の方向におい
て、それぞれ複数のペア点を決定することができる。
Further, the paired points can determine a plurality of paired points in a plurality of directions, respectively.

【0104】○ なお、カラーデータを用いる場合、R
GBの各要素をグレースケールとして取り扱って、それ
ぞれのカラーについて本実施の形態のようにペア点を決
定するようにしてもよい。このようにすることで3つの
ペア点が決定でき、情報量が3倍になることで、精度の
向上が期待できる。
○ When using color data, R
Each element of GB may be treated as a gray scale, and a pair point may be determined for each color as in this embodiment. By doing so, three pair points can be determined, and the amount of information is tripled, so that improvement in accuracy can be expected.

【0105】○ また、本実施の形態では、静止画及び
その連続画のみを説明したが、検出された物体の画像を
動画として生成することもできる。このように動画を生
成すれば、環境内に出現した物体のみを動画として得る
ことができる。
Further, in the present embodiment, only the still image and its continuous image have been described, but the image of the detected object can be generated as a moving image. If the moving image is generated in this way, only the object that appears in the environment can be obtained as the moving image.

【0106】○ さらに、背景画像は、適宜、例えば一
定時間ごとに更新するようにしてもよい。このように構
成することで、一定時間動きがないものに関しては、そ
の画像を排除することができるという効果がある。
Further, the background image may be updated appropriately, for example, at regular time intervals. With this configuration, it is possible to eliminate the image of the object that has not moved for a certain period of time.

【0107】次に上記実施形態及び別例から把握できる
技術的思想について以下に追記する。 ○ (追記1)コンピュータに、基準画像データの任意
の画素である着目点から所定方向に画素の明度を前記着
目点の明度と比較しながら探索する探索のステップと、
前記探索のステップにより所定の条件の画素であるペア
点を決定するペア点決定のステップと、基準画像データ
において前記ペア点決定のステップで決定されたペア点
の明度を前記着目点の明度と比較したときの大小関係を
示す基準評価値を算出して記憶する基準評価値記憶のス
テップと、比較画像データにおいて前記基準画像データ
における着目点に対応する位置の画素の明度及び前記ペ
ア点に対応する位置の画素の明度と比較したときの大小
関係を示す比較評価値を算出し、前記基準評価値と比較
してその一致度の判定をする判定のステップと、前記判
定のステップでの判定結果に基づいて、所定条件の着目
点の画素を抽出する抽出画素決定のステップとを実行さ
せることを特徴とする画像処理プログラム。
Next, the technical ideas that can be understood from the above-described embodiment and other examples will be added below. (Additional note 1) A search step of searching a computer while comparing the brightness of a pixel in a predetermined direction from a target point that is an arbitrary pixel of the reference image data with the brightness of the target point,
The step of determining a pair point that is a pixel of a predetermined condition by the step of searching, and the brightness of the pair point determined in the step of determining the pair point in the reference image data are compared with the brightness of the point of interest. And a step of reference evaluation value storage for calculating and storing a reference evaluation value indicating a magnitude relationship, and corresponding to the brightness of a pixel at a position corresponding to a point of interest in the reference image data in the comparison image data and the pair point. A comparison evaluation value indicating the magnitude relation when compared with the brightness of the pixel at the position is calculated, and a determination step of determining the degree of coincidence by comparing the reference evaluation value with the determination result in the determination step is performed. And a step of determining an extracted pixel for extracting a pixel at a point of interest under a predetermined condition, based on the image processing program.

【0108】○ (追記2)コンピュータに、基準画像
データの任意の画素である着目点から所定方向に画素の
明度を前記着目点の明度と比較しながら探索する探索の
ステップと、前記探索のステップにより所定の条件の画
素であるペア点を決定するペア点決定のステップと、基
準画像データにおいて前記ペア点決定のステップで決定
されたペア点の明度を前記着目点の明度と比較したとき
の大小関係を示す基準評価値を算出して記憶する基準評
価値記憶のステップと、比較画像データにおいて前記基
準画像データにおける着目点に対応する位置の画素の明
度及び前記ペア点に対応する位置の画素の明度と比較し
たときの大小関係を示す比較評価値を算出し、前記基準
評価値と比較してその一致度の判定をする判定のステッ
プと、前記判定のステップでの判定結果に基づいて、所
定条件の着目点の画素を抽出する抽出画素決定のステッ
プとを実行させることを特徴とする画像処理プログラム
を記録したコンピュータ読み取り可能な記録媒体。
(Additional note 2) A search step of searching a computer while comparing the brightness of a pixel in a predetermined direction from a target point, which is an arbitrary pixel of the reference image data, with the brightness of the target point; and the search step. According to the step of determining a pair point which is a pixel of a predetermined condition, the brightness of the pair point determined in the step of determining the pair point in the reference image data is compared with the brightness of the point of interest. A step of storing a reference evaluation value for calculating and storing a reference evaluation value indicating a relationship, and the brightness of a pixel at a position corresponding to a point of interest in the reference image data in the comparison image data and the pixel at a position corresponding to the pair point. A comparison evaluation value indicating a magnitude relationship when compared with the brightness is calculated, and a determination step of determining the degree of coincidence by comparing with the reference evaluation value, and the determination step. A computer-readable recording medium having an image processing program recorded thereon, which executes a step of determining an extracted pixel for extracting a pixel of a point of interest under a predetermined condition based on a determination result at a step.

【0109】○ (追記3)コンピュータを備えた画像
処理システムであって、前記コンピュータを、基準画像
データの任意の画素である着目点から所定方向に画素の
明度を前記着目点の明度と比較しながら探索する探索手
段と、前記探索のステップにより所定の条件の画素であ
るペア点を決定するペア点決定手段と、基準画像データ
において前記ペア点決定のステップで決定されたペア点
の明度を前記着目点の明度と比較したときの大小関係を
示す基準評価値を算出して記憶する基準評価値記憶手段
と、比較画像データにおいて前記基準画像データにおけ
る着目点に対応する位置の画素の明度及び前記ペア点に
対応する位置の画素の明度と比較したときの大小関係を
示す比較評価値を算出し、前記基準評価値と比較してそ
の一致度を判定をする判定手段と、前記判定のステップ
での判定結果に基づいて、所定条件の着目点の画素を抽
出する抽出画素決定手段として機能させることを特徴と
する画像処理システム。
(Additional Note 3) An image processing system including a computer, wherein the computer compares the brightness of a pixel in a predetermined direction from a target point which is an arbitrary pixel of the reference image data with the brightness of the target point. While searching means for searching, pair point deciding means for deciding a pair point which is a pixel of a predetermined condition by the step of searching, and brightness of the pair point decided in the step of deciding the pair point in the reference image data, Reference evaluation value storage means for calculating and storing a reference evaluation value indicating a magnitude relation when compared with the brightness of the point of interest, and the brightness of the pixel at the position corresponding to the point of interest in the reference image data in the comparison image data and the A comparison evaluation value indicating the magnitude relationship when compared with the brightness of the pixel at the position corresponding to the pair point is calculated, and the degree of coincidence is determined by comparing with the reference evaluation value. An image processing system that functions as an extraction pixel determining unit that extracts a pixel of a point of interest under a predetermined condition based on the determination unit and the determination result of the determination step.

【0110】[0110]

【発明の効果】以上、詳述したように、本発明の画像処
理方法は、継続的に情景を撮影した画像時系列から信頼
性高くロバストに物体を検出して背景から分離すること
ができるという効果がある。
As described above in detail, according to the image processing method of the present invention, it is possible to reliably and robustly detect an object from an image time series of continuously captured scenes and separate it from the background. effective.

【図面の簡単な説明】[Brief description of drawings]

【図1】実画像によるRRF画像と、単純背景差分の生
成例を示す図。
FIG. 1 is a diagram showing an example of generation of an RRF image based on an actual image and a simple background difference.

【図2】実画像を用いたリーチの生成例を示す図。FIG. 2 is a diagram showing an example of reach generation using an actual image.

【図3】各画素におけるペアとして選ばれた回数(被ペ
ア度数)を示す図。
FIG. 3 is a view showing the number of times (paired frequency) selected as a pair in each pixel.

【図4】図1で用いた実画像に対し、実際に明度差のし
きい値TPの値を変化させた図。
FIG. 4 is a diagram in which the value of the threshold value T P of the brightness difference is actually changed with respect to the actual image used in FIG.

【図5】図2の例における明度差のしきい値TPと、リ
ーチ長rkの平均および標準備差の関係を示したグラ
フ。
5 is a graph showing the relationship between the threshold value T P of the brightness difference and the average of reach length r k and the standard reserve difference in the example of FIG. 2.

【図6】一致数Bの確率分布を示すグラフ。FIG. 6 is a graph showing a probability distribution of the number of matches B.

【図7】図1に示した実画像を用いて実測した確率分布
1とp2に相当するヒストグラムの例
7 is an example of a histogram corresponding to probability distributions p 1 and p 2 actually measured using the actual image shown in FIG.

【図8】実際に判定しきい値TBを変化させて得たRR
F画像。
FIG. 8: RR obtained by actually changing the judgment threshold value T B
F image.

【図9】環境内に出現する物体の検出例の画像。FIG. 9 is an image of an example of detecting an object appearing in the environment.

【図10】図9(3)の例について単純背景差分をとっ
た画像。
FIG. 10 is an image obtained by taking a simple background difference with respect to the example of FIG. 9 (3).

【符号の説明】[Explanation of symbols]

background…背景画像 scene…対象シーン RRF…Radial Reach Filter th…threshold background ... background image scene ... Target scene RRF ... Radial Reach Filter th ... threshold

フロントページの続き (72)発明者 佐藤 雄隆 岐阜県大垣市世安町3−3 ゴールドハウ ス302号 (72)発明者 金子 俊一 札幌市北区北13条西8 北海道大学大学院 工学研究科 内 (72)発明者 五十嵐 悟 札幌市北区北13条西8 北海道大学大学院 工学研究科 内 (72)発明者 丹羽 義典 岐阜県大垣市加賀野4丁目1番地の7 財 団法人 ソフトピアジャパン 内 (72)発明者 山本 和彦 岐阜県柳戸1番1 岐阜大学工学部 内 Fターム(参考) 5L096 AA02 AA06 CA04 DA01 FA67 FA69 GA13 GA51 HA03 JA03 JA18 Continued front page    (72) Inventor Yutaka Sato             3-3 Seyasu-cho, Ogaki-shi, Gifu Gold Howe             Su 302 (72) Inventor Shunichi Kaneko             Sapporo City Kita-ku Kita-kujo 13 Nishi 8 Hokkaido University Graduate School             Graduate School of Engineering (72) Inventor Satoru Igarashi             Sapporo City Kita-ku Kita-kujo 13 Nishi 8 Hokkaido University Graduate School             Graduate School of Engineering (72) Inventor Yoshinori Niwa             7 goods at 4-1, Kagano, Ogaki City, Gifu Prefecture             Within Softopia Japan (72) Inventor Kazuhiko Yamamoto             Gifu Prefecture Yanagido 1-1 Gifu University Faculty of Engineering F-term (reference) 5L096 AA02 AA06 CA04 DA01 FA67                       FA69 GA13 GA51 HA03 JA03                       JA18

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 コンピュータに、 基準画像データの任意の画素である着目点から所定方向
に画素の明度を前記着目点の明度と比較しながら探索す
る探索のステップと、 前記探索のステップにより所定の条件の画素であるペア
点を決定するペア点決定のステップと、 基準画像データにおいて前記ペア点決定のステップで決
定されたペア点の明度を前記着目点の明度と比較したと
きの大小関係を示す基準評価値を算出して記憶する基準
評価値記憶のステップと、 比較画像データにおいて前記基準画像データにおける着
目点に対応する位置の画素の明度及び前記ペア点に対応
する位置の画素の明度と比較したときの大小関係を示す
比較評価値を算出し、前記基準評価値と比較してその一
致度を判定をする判定のステップと、 前記判定のステップでの判定結果に基づいて、所定条件
の着目点の画素を抽出する抽出画素決定のステップとを
実行させることを特徴とする画像処理方法。
1. A search step of causing a computer to perform a search while comparing the brightness of a pixel in a predetermined direction from a point of interest, which is an arbitrary pixel of the reference image data, with the brightness of the point of interest, and a predetermined step by the step of searching. A pair point determination step of determining a pair point which is a condition pixel, and a magnitude relation when the brightness of the pair point determined in the step of determining the pair point in the reference image data is compared with the brightness of the point of interest are shown. A step of storing a reference evaluation value for calculating and storing a reference evaluation value, and comparing the brightness of a pixel at a position corresponding to a point of interest in the reference image data in the comparison image data and the brightness of a pixel at a position corresponding to the pair point Comparing the comparison evaluation value showing the magnitude relationship when, and the determination step of comparing the reference evaluation value to determine the degree of coincidence, in the determination step Based on the determination result, the image processing method characterized in that to execute the steps of extracting a pixel decision to extract the pixel of interest points of a predetermined condition.
【請求項2】 前記ペア点が、1つの着目点に対して複
数の方向においてそれぞれ決定されることを特徴とする
請求項1に記載の画像処理方法。
2. The image processing method according to claim 1, wherein the paired points are respectively determined for one target point in a plurality of directions.
【請求項3】 前記ペア点は、少なくとも前記着目点か
らの1の方向において複数のペア点が決定されることを
特徴とする請求項1又は請求項2に記載の画像処理方
法。
3. The image processing method according to claim 1, wherein a plurality of pair points are determined in at least one direction from the point of interest.
【請求項4】 前記ペア点決定のステップにおける所定
の条件が、前記着目点から所定方向に探索して、前記着
目点との明度差が所定値より最初に大きくなった画素を
ペア点とすることを特徴とする請求項1乃至請求項3の
いずれかに記載の画像処理方法。
4. The predetermined condition in the step of determining the pair point is that the pixel whose brightness difference from the point of interest first becomes larger than a predetermined value is searched as the pair point in the predetermined direction from the point of interest. The image processing method according to any one of claims 1 to 3, wherein:
【請求項5】 前記ペア点探索のステップは、前記着目
点から所定の距離内で探索されることを特徴とする請求
項1乃至請求項4のいずれかに記載の画像処理方法。
5. The image processing method according to claim 1, wherein in the step of searching for the paired points, a search is performed within a predetermined distance from the point of interest.
【請求項6】 前記ペア点決定のステップにおける所定
の条件が、探索範囲内で所定の明度差以上の画素がない
場合は、探索範囲内で最も明度差が大きい画素をペア点
とすることを特徴とする請求項4又は請求項5に記載の
画像処理方法。
6. If the predetermined condition in the step of determining the pair points is that there is no pixel having a brightness difference equal to or larger than a predetermined brightness difference in the search range, the pixel having the largest brightness difference in the search range is set as the pair point. The image processing method according to claim 4, which is characterized in that.
【請求項7】 前記ペア点決定のステップにおける所定
の条件が、画像データの周端部に達した場合は、その探
索範囲内で最大の明度差の画素をペア点と決定すること
を特徴とする請求項1乃至請求項6のいずれかに記載の
画像処理方法。
7. The pixel having the maximum brightness difference within the search range is determined as the pair point when the predetermined condition in the step of determining the pair point reaches the peripheral edge of the image data. The image processing method according to any one of claims 1 to 6.
【請求項8】 前記基準評価値及び比較評価値は、2値
で表現されることを特徴とする請求項1乃至請求項7に
記載の画像処理方法。
8. The image processing method according to claim 1, wherein the reference evaluation value and the comparison evaluation value are represented by two values.
【請求項9】 前記判定のステップは、1つの着目点に
おける全てのペア点に対応する基準評価値及び比較評価
値に基づいて判定することを特徴とする請求項8に記載
の画像処理方法。
9. The image processing method according to claim 8, wherein the determination step is performed based on a reference evaluation value and a comparison evaluation value corresponding to all pair points in one point of interest.
【請求項10】 前記判定のステップは、基準評価値及
び比較評価値が一致した数が所定のしきい値より少ない
着目点を抽出する画素と判定することを特徴とする請求
項9に記載の画像処理方法。
10. The method according to claim 9, wherein the determination step determines a pixel from which a point of interest having a number of matching reference evaluation values and comparative evaluation values less than a predetermined threshold value is extracted. Image processing method.
【請求項11】 前記しきい値は、撮像系のノイズ分布
に基づいて決定されることを特徴とする請求項10に記
載の画像処理方法。
11. The image processing method according to claim 10, wherein the threshold value is determined based on a noise distribution of an image pickup system.
【請求項12】 前記判定のステップは、前記基準画像
データにおけるペア点の明度と前記比較画像データにお
ける当該ペア点の明度との差が所定のしきい値より小さ
い場合には、このペア点に係る評価値を判定に用いない
ことを特徴とする請求項1乃至請求項11に記載の画像
処理方法。
12. The determination step, if the difference between the lightness of the pair point in the reference image data and the lightness of the pair point in the comparison image data is smaller than a predetermined threshold, The image processing method according to claim 1, wherein the evaluation value is not used for the determination.
【請求項13】 前記抽出画素決定のステップにより抽
出された着目点の位置に基づいて2値画像を生成する2
値画像生成のステップをさらに備えたことを特徴とする
請求項1乃至請求項12のいずれかに記載の画像処理方
法。
13. A binary image is generated based on the position of the point of interest extracted in the step of determining the extracted pixel.
The image processing method according to any one of claims 1 to 12, further comprising a step of generating a value image.
【請求項14】 前記2値画像生成のステップにより生
成された2値画像を平滑化して補正画像を生成する補正
画像生成のステップをさらに備えたことを特徴とする請
求項13に記載の画像処理方法。
14. The image processing according to claim 13, further comprising a step of generating a corrected image for smoothing the binary image generated in the step of generating the binary image to generate a corrected image. Method.
【請求項15】 前記2値画像若しくは前記補正画像に
対応した位置の画素を比較画像データから抽出して抽出
画像を生成する抽出画像生成のステップをさらに備えた
ことを特徴とする請求項13又は請求項14に記載の画
像処理方法。
15. The method according to claim 13, further comprising a step of generating an extracted image for extracting a pixel at a position corresponding to the binary image or the corrected image from the comparison image data to generate an extracted image. The image processing method according to claim 14.
【請求項16】 前記基準画像データを保存しつつ、前
記比較画像データを更新して処理することを特徴とする
請求項15に記載の画像処理方法。
16. The image processing method according to claim 15, wherein the comparison image data is updated and processed while the reference image data is stored.
【請求項17】 前記基準画像データ及び前記比較画像
データがカラーデータであることを特徴とする請求項1
乃至請求項16のいずれかに記載の画像処理方法。
17. The reference image data and the comparison image data are color data.
The image processing method according to claim 16.
【請求項18】 前記基準画像データ及び前記比較画像
データがグレースケールのデータであることを特徴とす
る請求項1乃至請求項16のいずれかに記載の画像処理
方法。
18. The image processing method according to claim 1, wherein the reference image data and the comparison image data are grayscale data.
JP2001342167A 2001-11-07 2001-11-07 Image processing method Expired - Fee Related JP3831232B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001342167A JP3831232B2 (en) 2001-11-07 2001-11-07 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001342167A JP3831232B2 (en) 2001-11-07 2001-11-07 Image processing method

Publications (2)

Publication Number Publication Date
JP2003141546A true JP2003141546A (en) 2003-05-16
JP3831232B2 JP3831232B2 (en) 2006-10-11

Family

ID=19156070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001342167A Expired - Fee Related JP3831232B2 (en) 2001-11-07 2001-11-07 Image processing method

Country Status (1)

Country Link
JP (1) JP3831232B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1319015C (en) * 2004-02-27 2007-05-30 致伸科技股份有限公司 Method for separating images from texts carried out by using path frequency of pixel brightness
JP2008006519A (en) * 2006-06-27 2008-01-17 Toyota Motor Corp Robot device and method for controlling robot device
JP2008130086A (en) * 2006-11-17 2008-06-05 Alpine Electronics Inc Method and apparatus for determining classification boundary
JP2008250476A (en) * 2007-03-29 2008-10-16 Kddi Corp Extraction system for object image
JP2009211453A (en) * 2008-03-05 2009-09-17 National Institute Of Advanced Industrial & Technology Varying zone detection device and varying zone detection method
JP2009301088A (en) * 2008-06-10 2009-12-24 Toshiba Corp Image processing device, method thereof, and image processing program
US7668345B2 (en) 2005-03-31 2010-02-23 Hitachi, Ltd. Image processing apparatus, image processing system and recording medium for programs therefor
WO2010116885A1 (en) * 2009-04-06 2010-10-14 日本電気株式会社 Data processing device, image matching method, program, and image matching system
JP2013120451A (en) * 2011-12-06 2013-06-17 Canon Inc Information processor and information processing method
JP2016192133A (en) * 2015-03-31 2016-11-10 Kddi株式会社 Animal body detection device and method for constructing background model thereof
JP2017027344A (en) * 2015-07-22 2017-02-02 Kddi株式会社 Moving object detection device and background model construction method therefor

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5047005B2 (en) 2008-02-29 2012-10-10 キヤノン株式会社 Image processing method, pattern detection method, pattern recognition method, and image processing apparatus
JP2011128990A (en) 2009-12-18 2011-06-30 Canon Inc Image processor and image processing method
JP5997545B2 (en) 2012-08-22 2016-09-28 キヤノン株式会社 Signal processing method and signal processing apparatus
CN103810689A (en) * 2012-11-06 2014-05-21 西安元朔科技有限公司 Novel image fusion effect evaluation algorithm

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1319015C (en) * 2004-02-27 2007-05-30 致伸科技股份有限公司 Method for separating images from texts carried out by using path frequency of pixel brightness
US7668345B2 (en) 2005-03-31 2010-02-23 Hitachi, Ltd. Image processing apparatus, image processing system and recording medium for programs therefor
JP2008006519A (en) * 2006-06-27 2008-01-17 Toyota Motor Corp Robot device and method for controlling robot device
JP2008130086A (en) * 2006-11-17 2008-06-05 Alpine Electronics Inc Method and apparatus for determining classification boundary
JP2008250476A (en) * 2007-03-29 2008-10-16 Kddi Corp Extraction system for object image
JP2009211453A (en) * 2008-03-05 2009-09-17 National Institute Of Advanced Industrial & Technology Varying zone detection device and varying zone detection method
JP2009301088A (en) * 2008-06-10 2009-12-24 Toshiba Corp Image processing device, method thereof, and image processing program
WO2010116885A1 (en) * 2009-04-06 2010-10-14 日本電気株式会社 Data processing device, image matching method, program, and image matching system
JP5505410B2 (en) * 2009-04-06 2014-05-28 日本電気株式会社 Data processing apparatus, image collation method, program, and image collation system
US8749658B2 (en) 2009-04-06 2014-06-10 Nec Corporation Data processing device, image matching method, program, and image matching system
JP2013120451A (en) * 2011-12-06 2013-06-17 Canon Inc Information processor and information processing method
JP2016192133A (en) * 2015-03-31 2016-11-10 Kddi株式会社 Animal body detection device and method for constructing background model thereof
JP2017027344A (en) * 2015-07-22 2017-02-02 Kddi株式会社 Moving object detection device and background model construction method therefor

Also Published As

Publication number Publication date
JP3831232B2 (en) 2006-10-11

Similar Documents

Publication Publication Date Title
Wei et al. Toward automatic building footprint delineation from aerial images using CNN and regularization
CN107346409B (en) pedestrian re-identification method and device
WO2012127618A1 (en) Moving-body detection device, moving-body detection method, moving-body detection program, moving-body tracking device, moving-body tracking method, and moving-body tracking program
CN109271937B (en) Sports ground marker identification method and system based on image processing
CN110097093A (en) A kind of heterologous accurate matching of image method
JP2003141546A (en) Image processing method
CN111062273B (en) Method for tracing, detecting and alarming remaining articles
JP2008192131A (en) System and method for performing feature level segmentation
CN107862708A (en) A kind of SAR and visible light image registration method
Shen et al. Adaptive pedestrian tracking via patch-based features and spatial–temporal similarity measurement
Denman et al. Multi-spectral fusion for surveillance systems
Xu et al. Salient object detection from distinctive features in low contrast images
KR101753360B1 (en) A feature matching method which is robust to the viewpoint change
JP2009163682A (en) Image discrimination device and program
KR101769741B1 (en) Method and apparatus for recognizing iris through pupil detection
Saxena et al. Video inpainting detection and localization using inconsistencies in optical flow
CN113657264A (en) Forest fire smoke root node detection method based on fusion of dark channel and KNN algorithm
Faraji et al. EREL: extremal regions of extremum levels
CN111104857A (en) Identity recognition method and system based on gait energy diagram
Feng et al. Image shadow detection and removal based on region matching of intelligent computing
CN115661660A (en) SAR image bridge rapid detection method and equipment
CN108241837B (en) Method and device for detecting remnants
Xie et al. Moving shadow detection algorithm using multiple features
Mohanty et al. On the Development of Foreground Detection under Complex Background
Jiang et al. Background subtraction algorithm based on combination of grabcut and improved ViBe

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20031031

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040716

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20051212

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20060117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060328

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060713

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090721

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120721

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120721

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130721

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150721

Year of fee payment: 9

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees