JPH0921610A - Image-processing apparatus and image-processing method - Google Patents

Image-processing apparatus and image-processing method

Info

Publication number
JPH0921610A
JPH0921610A JP7169039A JP16903995A JPH0921610A JP H0921610 A JPH0921610 A JP H0921610A JP 7169039 A JP7169039 A JP 7169039A JP 16903995 A JP16903995 A JP 16903995A JP H0921610 A JPH0921610 A JP H0921610A
Authority
JP
Japan
Prior art keywords
image
model
local
probability
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7169039A
Other languages
Japanese (ja)
Inventor
Akinori Kosako
明徳 小迫
Naoki Takegawa
直樹 武川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP7169039A priority Critical patent/JPH0921610A/en
Publication of JPH0921610A publication Critical patent/JPH0921610A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an apparatus and a method for processing images whereby an image of an optional object is extracted from images and position of the object is obtained stably. SOLUTION: A local model reflecting a change due to photographic environment as a parameter is preliminarily formed for a local part of an object to be extracted and stored in a model storage part 12. Each partial image of an image input through an image input part 11 is subjected to matching with each local model at a matching part 13 with the user of the stored models. In accordance with result of the matching at the matching part 13 and from the viewpoint of how much each partial image agrees with the local model, a local data integration part 21 displays probabilities of a position of the object to be extracted in a parameter space including positional data of the image, and integrates the probabilities. An object position determination part 17 extracts a part of the highest probability in the parameter space, thereby determining and outputting the position of the object in the input image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、入力画像中から
任意の物体を抽出し、その位置を判別する画像処理装置
及び画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method for extracting an arbitrary object from an input image and discriminating its position.

【0002】[0002]

【従来の技術】従来の局所的な情報を統合して物体の抽
出(検出)或いは認識を行う技術としては、得られた局
所情報を組み合わせて逐次仮説検証する手法と、Hou
gh変換に代表されるような局所情報からの投票に基づ
いた手法(和田俊和、松山隆司「Hough変換に基づ
く図研検出法の新展開」、情報処理学会誌、Vol.3
6,No.3,1995)が知られている。
2. Description of the Related Art Conventional techniques for extracting (detecting) or recognizing an object by integrating local information include a technique of sequentially combining hypotheses with the obtained local information and Hou.
Method based on voting from local information as represented by gh transformation (Toshikazu Wada, Takashi Matsuyama "New development of Zuken detection method based on Hough transformation", Journal of Information Processing Society, Vol.3)
6, No. 3, 1995) is known.

【0003】[0003]

【発明が解決しようとする課題】仮説検証による方法で
は、画像中から得られた物体の局所情報の多数の候補を
逐次組み合わせて検証する。このため、組み合わせの爆
発(組み合わせ数の膨大化)が起こり、演算量が膨大に
なってしまう。投票による方法は、真値を指示する情報
が多数ある場合には有効である。しかし、少数の情報が
指示する結果のみが真値であり得るような場合には、必
ずしも良好な結果が得られない。また、撮影される物体
は一部が隠れていたり、大きさや明るさや、見える方向
などの撮影環境の違いにより画像上で様々に変化する。
このため、従来の物体抽出装置及び方法では、撮影され
た画像から抽出対象物を正確に抽出し、その位置を正確
に求めることが困難であった。
In the method based on hypothesis verification, a large number of candidates for local information of an object obtained from an image are successively combined and verified. For this reason, an explosion of combinations (enlargement of the number of combinations) occurs and the amount of calculation becomes enormous. The voting method is effective when there is a large amount of information indicating the true value. However, when only a result indicated by a small amount of information can be a true value, a good result cannot always be obtained. In addition, a part of the object to be photographed is hidden, and the object changes variously in the image due to the difference in the photographing environment such as size, brightness, and viewing direction.
Therefore, it is difficult for the conventional object extracting apparatus and method to accurately extract the extraction target object from the captured image and accurately determine the position thereof.

【0004】この発明は上記実状に鑑みてなされたもの
で、任意の画像中から任意の物体の画像を抽出し、且
つ、その位置を安定的に求めることができる画像処理装
置及び画像処理方法を提供することを目的とする。
The present invention has been made in view of the above situation, and provides an image processing apparatus and an image processing method capable of extracting an image of an arbitrary object from an arbitrary image and stably obtaining the position thereof. The purpose is to provide.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するた
め、この発明の画像処理装置は、抽出対象物の複数の局
所部分のモデルを記憶するモデル記憶手段と、画像を入
力する画像入力手段と、前記モデル記憶手段に記憶され
た各モデルと、前記画像入力手段の入力画像の各部との
一致度(マッチ度)を算出するマッチング手段と、前記
マッチング手段により算出された各一致度に基づいて、
抽出対象物の位置の確率分布を求める局所情報統合手段
と、前記局所情報統合手段により算出された確率分布の
中の確率が最も高い位置を抽出対象物の位置として出力
する出力手段と、を備えることを特徴とする。
In order to achieve the above object, an image processing apparatus of the present invention comprises a model storage means for storing models of a plurality of local parts of an extraction target, and an image input means for inputting an image. A matching unit that calculates the degree of matching (matching degree) between each model stored in the model storage unit and each part of the input image of the image input unit, and based on each matching degree calculated by the matching unit ,
Local information integration means for obtaining the probability distribution of the position of the extraction object, and output means for outputting the position with the highest probability in the probability distribution calculated by the local information integration means as the position of the extraction object It is characterized by

【0006】上記構成によれば、少数でも高い確率で真
値を示す局所部分の画像があれば、その情報に基づいて
抽出対象物の位置情報の正確な位置に高い確率分布が得
られる。このため、入力画像中の抽出対象物の一部が隠
れている場合等でも、抽出対象物とその位置を検出する
ことができる。
According to the above configuration, if there is an image of a local portion that shows a true value with a high probability even with a small number, a high probability distribution can be obtained at the accurate position of the position information of the extraction object based on that information. Therefore, even when a part of the extraction target object in the input image is hidden, the extraction target object and its position can be detected.

【0007】前記モデル記憶手段に、撮像環境による変
化をパラメータとして反映した各局所部分の画像のモデ
ルを記憶させ、前記マッチング手段は、前記入力画像か
ら前記局所部分と同一サイズの部分画像を順次切り出
し、各局所部分のモデルとの一致度を算出し、前記局所
情報統合手段が、前記マッチング手段により算出された
一致度を用いて、画像の位置情報を含めたパラメータ空
間における、抽出対象物の位置の確率分布を求める、よ
うに構成してもよい。
The model storage means stores a model of an image of each local portion reflecting a change due to the imaging environment as a parameter, and the matching means sequentially cuts out partial images of the same size as the local portion from the input image. , The degree of coincidence with the model of each local part is calculated, and the local information integration means uses the degree of coincidence calculated by the matching means to determine the position of the extraction target in the parameter space including the positional information of the image. The probability distribution of may be obtained.

【0008】このように構成すれば、撮影環境による変
化も考慮してモデルを作成しているので、撮影環境の変
化にかかわらず、安定的に抽出対象物の位置を検出する
ことができる。
According to this structure, since the model is created in consideration of the change due to the photographing environment, the position of the extraction object can be stably detected regardless of the change of the photographing environment.

【0009】例えば、前記局所情報統合手段を、各部分
画像について、前記マッチング手段により各モデルにつ
いて算出された一致度を用いて、部分画像毎に、前記入
力画像内の前記抽出対象物の位置の確率の分布を求める
確率算出手段と、局所部分毎に前記確率算出手段により
算出された確率分布を統合する第1の統合手段と、前記
第1の統合手段により統合された確率分布を統合する第
2の統合手段と、より構成するようにしてもよい。
For example, the local information integrating means uses the degree of coincidence calculated for each model by the matching means for each partial image to determine the position of the extraction target object in the input image for each partial image. A probability calculating means for obtaining a probability distribution; a first integrating means for integrating the probability distributions calculated by the probability calculating means for each local part; and a first integrating means for integrating the probability distributions integrated by the first integrating means. It may be configured by two integrating means.

【0010】また、前記モデル記憶手段に、抽出対象物
の異なる回転角θに対する各局所部分の画像の変化を、
所定の固有ベクトルで表した固有空間で、曲線として表
現する第1のモデルと、抽出対象物の異なる回転角θに
対する各局所部分の位置を曲線で表現する第2のモデル
と、を記憶させ、前記マッチング手段で、前記画像入力
手段により入力された画像の各部の画像を前記固有空間
に射影した時に、射影点と前記第1のモデルの曲線との
距離から、第1のモデルとの一致度を算出し、前記統合
手段で、入力画像の各部の画像について、前記マッチン
グ手段により第1のモデルについて算出された一致度に
基づいて、第1の確率分布を設定し、対応する第2のモ
デルに基づいて第2の確率分布を設定し、前記第1と第
2の確率分布を乗算し、前記乗算手段により得られた部
分画像毎の確率分布を統合するように構成してもよい。
Further, the model storage means stores the change in the image of each local portion for different rotation angles θ of the extraction target,
A first model represented as a curve in an eigenspace represented by a predetermined eigenvector and a second model represented by a curve representing the position of each local portion with respect to different rotation angles θ of the extraction target are stored, and When the matching means projects an image of each part of the image input by the image input means onto the eigenspace, the degree of coincidence with the first model is calculated from the distance between the projection point and the curve of the first model. Then, the integrating means sets the first probability distribution for the image of each part of the input image based on the degree of matching calculated for the first model by the matching means, and sets the corresponding second model to the corresponding second model. A second probability distribution may be set based on this, the first probability distribution and the second probability distribution may be multiplied, and the probability distributions of the partial images obtained by the multiplying means may be integrated.

【0011】前記局所情報統合手段で、位置と前記回転
角θをパラメータとするパラメータ空間上の確率分布を
求め、前記出力手段で、最も高い確率が得られた位置情
報と回転角θを出力するようにしてもよい。このような
構成とすることにより、検出対象物の回転角θも検出す
ることができる。
The local information integration means obtains a probability distribution on the parameter space with the position and the rotation angle θ as parameters, and the output means outputs the position information and the rotation angle θ from which the highest probability is obtained. You may do it. With such a configuration, the rotation angle θ of the detection target can also be detected.

【0012】また、前記モデル記憶手段に、複数の抽出
対象物の局所部分の画像のモデルを記憶させ、前記局所
情報統合手段で、各抽出対象物の位置の確率分布を求
め、前記出力手段は、最も高い確率が得られた抽出対象
物とその位置を示す情報を出力するようにしてもよい。
このような構成とすることにより、位置情報だけでな
く、抽出された物体等も判別することができる。
Further, the model storage means stores models of images of local portions of a plurality of extraction objects, the local information integration means obtains a probability distribution of the positions of the extraction objects, and the output means Alternatively, information indicating the extraction target object having the highest probability and its position may be output.
With such a configuration, not only the position information but also the extracted object or the like can be determined.

【0013】上記目的を達成するため、この発明の画像
処理方法は、画像を入力する画像入力ステップと、予め
用意された抽出対象物の複数の局所部分のモデルと前記
画像入力ステップにより入力された画像の各部との一致
度を算出するマッチングステップと、入力画像の各部の
一致度に基づいて、抽出対象物の位置の確率分布を求め
る確率算出ステップと、前記確率算出ステップにより算
出された確率分布を統合する統合ステップと、前記統合
ステップにより統合された確率分布中の最も確率が高い
位置を抽出対象物の位置として出力する出力ステップ
と、を備えることを特徴とする。
In order to achieve the above object, the image processing method of the present invention is performed by an image input step of inputting an image, a model of a plurality of local parts of an extraction target prepared in advance, and the image input step. A matching step for calculating the degree of coincidence with each part of the image, a probability calculating step for obtaining a probability distribution of the position of the extraction target object based on the degree of coincidence for each part of the input image, and a probability distribution calculated by the probability calculating step. And an output step of outputting the position with the highest probability in the probability distributions integrated by the integration step as the position of the extraction target.

【0014】この方法でも、少数でも高い確率で真値を
示す局所部分の画像があれば、その情報に基づいて抽出
対象物の位置情報の正確な位置に高い確率分布が得られ
る。従って、抽出対象物とその位置を正確に検出するこ
とができる。
Also in this method, if there is an image of a local portion that shows a true value with a high probability even with a small number, a high probability distribution can be obtained at the accurate position of the position information of the extraction object based on that information. Therefore, it is possible to accurately detect the extraction target and its position.

【0015】[0015]

【発明の実施の形態】以下、本発明の一実施形態にかか
る画像処理(抽出)装置及び画像処理(抽出)方法につ
いて、図1〜図9を参照して説明する。図1に示すよう
に、この実施形態の画像処理装置は、画像入力部11
と、モデル記憶部12と、マッチング処理部13と、確
率算出部14と、局所情報内統合部15と、局所情報間
統合部16と、物体位置決定部17とを備える。
DETAILED DESCRIPTION OF THE INVENTION An image processing (extracting) apparatus and an image processing (extracting) method according to an embodiment of the present invention will be described below with reference to FIGS. As shown in FIG. 1, the image processing apparatus of this embodiment includes an image input unit 11
The model storage unit 12, the matching processing unit 13, the probability calculation unit 14, the intra-local information integration unit 15, the inter-local information integration unit 16, and the object position determination unit 17.

【0016】画像入力部11は、CCDカメラ、イメー
ジリーダなどの撮影装置とこの撮影装置で取得された画
像をデジタル画像に変換する変換部と、変換された画像
を一時記憶する画像メモリを備える。
The image input unit 11 includes a photographing device such as a CCD camera or an image reader, a converting unit for converting an image acquired by the photographing device into a digital image, and an image memory for temporarily storing the converted image.

【0017】モデル記憶部12は、メモリから構成さ
れ、抽出(検出)対象物体のモデルを記録する。3次元
物体の見かけ上の画像は、その物体の方向、向き等によ
り変化する。このような3次元物体の抽出を適切に行う
ため、モデル記憶部12は、抽出対象物の特徴部分(局
所部分)のパラメトリック固有空間表現法によるモデル
(パターンモデル)と、モデル生成用画像内での各局所
部分の位置の変化を表すモデル(ロケーションモデル)
とを記憶する。なお、パターンモデルとロケーションモ
デルの詳細については後述する。
The model storage unit 12 is composed of a memory and records a model of an object to be extracted (detected). The apparent image of a three-dimensional object changes depending on the direction, orientation, etc. of the object. In order to appropriately extract such a three-dimensional object, the model storage unit 12 uses the parametric eigenspace representation method of the characteristic portion (local portion) of the extraction target in the model generation image. Model that represents the change in the position of each local part of the
Is stored. The details of the pattern model and the location model will be described later.

【0018】マッチング処理部13は、データ読み出し
回路及び演算装置から構成され、画像入力部11から入
力された入力画像の各部の画像(部分画像)とモデル記
憶部12に記憶された各パターンモデルとのマッチング
をとり、一致度(マッチ度)を算出する。
The matching processing unit 13 is composed of a data reading circuit and an arithmetic unit, and includes an image (partial image) of each part of the input image input from the image input unit 11 and each pattern model stored in the model storage unit 12. The matching degree (matching degree) is calculated.

【0019】確率算出部14は演算回路から構成され、
マッチング処理部13で求めた一致度を元に、入力画像
の部分画像毎に、抽出対象物の位置の確率分布(確率
場、確率密度)を算出する。局所情報内統合部15は、
部分画像毎に得られた確率分布を局所部分毎に統合す
る。局所情報間統合部16は、さらに、局所部分毎に得
られた確率分布をベイズの枠組みで統合する。なお、確
率算出部14と、局所情報内統合部15と、局所情報間
統合部16とは局所情報統合部21を構成する。
The probability calculator 14 is composed of an arithmetic circuit,
A probability distribution (probability field, probability density) of the position of the extraction target is calculated for each partial image of the input image based on the degree of coincidence obtained by the matching processing unit 13. The local information integration unit 15
Probability distributions obtained for each partial image are integrated for each local part. The local information integration unit 16 further integrates the probability distributions obtained for the respective local parts in the Bayesian framework. The probability calculation unit 14, the intra-local information integration unit 15, and the inter-local information integration unit 16 form a local information integration unit 21.

【0020】物体位置決定部17は、出力装置等から構
成され、局所情報統合部21で統合された確率分布中の
最も高い確率を示す位置を抽出対象物の位置として出力
する。
The object position determination unit 17 is composed of an output device or the like, and outputs the position showing the highest probability in the probability distribution integrated by the local information integration unit 21 as the position of the extraction object.

【0021】次に、モデル記憶部12に記憶されるパタ
ーンモデル及びロケーションモデルの作成方法について
具体的に説明する。3次元物体の画像は、その物体の方
向、向き等により変化する。例えば、椅子を抽出対象物
と考えると、椅子を回転させると、図2に示すような多
様な画像(モデル作成用画像)が得られる。
Next, a method of creating the pattern model and the location model stored in the model storage unit 12 will be specifically described. The image of a three-dimensional object changes depending on the direction, orientation, etc. of the object. For example, considering a chair as an extraction target, when the chair is rotated, various images (images for model creation) as shown in FIG. 2 are obtained.

【0022】そこで、抽出対象物を中心にカメラを移動
させて(又は、カメラを固定して抽出対象体をその場で
回転させて)、図2に示すように、抽出対象物の回転角
θを変化させながらモデル作成用画像を順次取得する。
次に、取得したモデル作成用画像のうち、抽出対象物、
即ち、椅子以外の部分にデータ”0”を代入して抽出対
象物の画像のみを取得する。
Then, the camera is moved around the extraction object (or the camera is fixed and the extraction object is rotated on the spot), and as shown in FIG. The images for model creation are sequentially acquired while changing the.
Next, of the acquired model creation images, the extraction target,
That is, only the image of the extraction target is acquired by substituting the data “0” into the part other than the chair.

【0023】次に、各モデル作成用画像から抽出対象物
の特徴部分(局所部分)の画像を所定サイズで切り出
す。角度θの数(モデル作成用画像の数)をR、特徴部
分の数をSとすると、R×S個の局所部分の画像(局所
画像)が得られる。例えば、図2に示す椅子の局所部分
を図3に示す3つの部分A1〜A3とすると、各モデル
作成用画像からそれぞれ3つの局所画像A1〜A3が抽
出される。
Next, an image of the characteristic portion (local portion) of the extraction target is cut out from each model-forming image in a predetermined size. Letting R be the number of angles θ (the number of images for model creation) and S be the number of characteristic portions, R × S images of local portions (local images) can be obtained. For example, assuming that the local portion of the chair shown in FIG. 2 is the three portions A1 to A3 shown in FIG. 3, the three local images A1 to A3 are extracted from each model creating image.

【0024】続いて、回転角θをパラメータとして、各
局所画像をパラメトリック固有空間表現によって作成し
た固有空間に投影し、これらをつなげることにより局所
部分それぞれについて1つののパターンモデルを曲線と
して得る。
Then, using the rotation angle θ as a parameter, each local image is projected onto an eigenspace created by parametric eigenspace representation, and by connecting these, one pattern model for each local part is obtained as a curve.

【0025】ここで、θの数(モデル作成用画像の数)
をRとし、θを変えて取得した各局所画像の集合を数1
のように表現する。ここで、Xiは各局所部分のi番目
の局所画像を示し、それぞれ、数2で表される。数2に
おいて、Xnmはn番目の局所画像のm番目の画素の階調
を示す。なお、数1の集合は、局所部分毎に形成され、
図3の例では、局所部分A1〜A3にそれぞれ1セット
形成される。
Here, the number of θ (the number of images for model creation)
Where R is the R, and θ is different, and the set of each local image acquired is
Express as. Here, Xi represents the i-th local image of each local portion, and each is represented by Formula 2. In Expression 2, Xnm represents the gradation of the m-th pixel of the n-th local image. The set of equation 1 is formed for each local part,
In the example of FIG. 3, one set is formed in each of the local portions A1 to A3.

【0026】[0026]

【数1】{x1,x2,x3,・・・,xR## EQU1 ## {x 1 , x 2 , x 3 , ..., x R }

【数2】x1={x11,x12,x13,・・・,x1N} x2={x21,x22,x23,・・・,x2N}・・・・・・ xR={xR1,xR2,xR3,・・・,xRN[Number 2] x 1 = {x 11, x 12, x 13, ···, x 1N} x 2 = {x 21, x 22, x 23, ···, x 2N} ······ x R = {x R1 , x R2 , x R3 , ..., x RN }

【0027】続いて、各局所画像の集合の平均cを数3
に従って求め、各局所画像から平均画像を差し引いて、
数4に示す行列Xを生成する。
Then, the average c of the set of each local image is given by
And subtract the average image from each local image,
The matrix X shown in Expression 4 is generated.

【0028】[0028]

【数3】c=(1/R)Σxr r=1〜R## EQU3 ## c = (1 / R) Σx r r = 1 to R

【数4】 X≡{x1−c,x2−c,x3−c,・・・,xR−c}X ≡ {x 1 −c, x 2 −c, x 3 −c, ..., x R −c}

【0029】この画像集合Xの共分散行列Qは数5によ
り表される。
The covariance matrix Q of this image set X is expressed by equation 5.

【数5】Q≡XXT Tは直交関数を示す。## EQU5 ## Q≡XX T T represents an orthogonal function.

【0030】k次元の固有空間は数6の固有方程式を解
き、k個の大きい固有値λ1〜λN(λ1≧・・・≧λk≧・・・
≧λN)に対応する固有ベクトル(e1,e2,・・・ek
を基底ベクトルとすることにより得られる。
The k-dimensional eigenspace solves the eigenequation of equation (6), and has k large eigenvalues λ 1 to λ N1 ≧ ... ≧ λ k ≧ ...
Eigenvectors (e 1 , e 2 , ... E k ) corresponding to ≧ λ N
Is obtained as the basis vector.

【数6】λi・ei=Q・ei [Equation 6] λ i · e i = Q · e i

【0031】各局所画像をk次元の固有空間に投影する
と、1枚の局所画像が固有空間上の1つの点に対応す
る。さらに、各回転角θでの各局所画像を固有空間に投
影すると、それは点の系列になる。これらの点を補間法
を用いて結ぶことにより、1つの局所画像について1つ
のパターンモデルが曲線として得られる。
When each local image is projected onto the k-dimensional eigenspace, one local image corresponds to one point on the eigenspace. Furthermore, if each local image at each rotation angle θ is projected onto the eigenspace, it becomes a series of points. By connecting these points using the interpolation method, one pattern model is obtained as a curve for one local image.

【0032】図4に、抽出対象物である椅子の局所画像
A1を、θの変化に伴って4次元(k=4)の固有空間
上にプロットして、パターンモデルを作成する例を示
す。このパターンモデルは、局所画像A2,A3につい
ても同様に生成される。モデル記憶部12は、このよう
にして得られた各局所部分についてのパターンモデルを
記憶する。
FIG. 4 shows an example in which the local image A1 of the chair, which is the extraction target, is plotted in a four-dimensional (k = 4) eigenspace according to the change in θ to create a pattern model. This pattern model is similarly generated for the local images A2 and A3. The model storage unit 12 stores the pattern model for each local portion thus obtained.

【0033】次に、ロケーションモデルについて説明す
る。回転角θを変化させるに従って、各モデル作成用画
像内の局所画像の位置は変化する。ロケーションモデル
は、図5に示すように、この位置変化を、モデル作成用
画像の左上の位置を原点とした(x,y)座標系で表し
たモデルである。
Next, the location model will be described. As the rotation angle θ is changed, the position of the local image in each model creation image changes. As shown in FIG. 5, the location model is a model in which this positional change is represented by an (x, y) coordinate system with the upper left position of the model creating image as the origin.

【0034】次に、予め作成されたパターンモデルとロ
ケーションモデルを用いて、入力画像中の抽出対象物の
位置を抽出する手順を図6〜図9を参照して説明する。
Next, a procedure for extracting the position of the extraction object in the input image using the pattern model and the location model created in advance will be described with reference to FIGS. 6 to 9.

【0035】画像入力部11は、例えば、図6に示すよ
うな、任意の画像を取得し、これをディジタル画像に変
換し、さらに、取得した画像を記憶する。
The image input unit 11 acquires an arbitrary image as shown in FIG. 6, converts it into a digital image, and stores the acquired image.

【0036】マッチング処理部13は、入力画像の中か
ら、図7に示すように、局所画像と同一サイズの画像
(部分画像)をX方向とY方向に順次1画素ずつシフト
しながら順次切り出す。マッチング処理部13は、パタ
ーンモデル作成時と同様にして、各部分画像を固有空間
に投射する。すると、切り出された各部分画像は、固有
空間上で1つの点で表される。そして、この点と各局所
画像のパターンモデルとの回転角θの変化による距離D
Ai(θ)を求める。この距離DAi(θ)は、局所部分A
i(i=1,2,3)のパターンモデルにおける一致度
を表す指標である。
As shown in FIG. 7, the matching processing section 13 sequentially cuts out an image (partial image) having the same size as the local image while shifting the pixel by one pixel in the X and Y directions. The matching processing unit 13 projects each partial image in the eigenspace in the same manner as when creating the pattern model. Then, each cut out partial image is represented by one point in the eigenspace. Then, the distance D due to the change of the rotation angle θ between this point and the pattern model of each local image
Find Ai (θ). This distance D Ai (θ) is the local portion A
It is an index indicating the degree of coincidence in the pattern model of i (i = 1, 2, 3).

【0037】確率算出部14は、マッチングの結果得ら
れた各(X,Y)座標位置における一致度を用いて、任
意の回転角θに関して、その位置の部分画像がその局所
画像に一致する確率Ppatternを数7に従って求める。
The probability calculating section 14 uses the degree of coincidence at each (X, Y) coordinate position obtained as a result of matching, with respect to an arbitrary rotation angle θ, the probability that the partial image at that position coincides with the local image. The P pattern is calculated according to equation 7.

【0038】[0038]

【数7】 ここで、σ1は任意の定数である。(Equation 7) Here, σ 1 is an arbitrary constant.

【0039】例えば、図7に示す(0,0)座標での部
分画像を固有空間に投影した時、局所部分A1のパター
ンモデルに着目すると、このパターンについて距離DA1
(θ)が求められ、この距離DA1(θ)を用いて数7に
従って局所部分A1についての確率Ppatternが算出さ
れる。この確率Ppatternはθに対する関数となる。
For example, when the partial image at the (0,0) coordinate shown in FIG. 7 is projected onto the eigenspace, focusing on the pattern model of the local portion A1, the distance D A1 is obtained for this pattern.
(Θ) is obtained, and the probability P pattern for the local portion A1 is calculated according to Equation 7 using this distance D A1 (θ). This probability P pattern is a function of θ.

【0040】次に、確率算出部14は、各部分画像につ
いて、数8により新たな座標(α,β)を、任意の回転
角θに関して設定する。
Next, the probability calculating section 14 sets new coordinates (α, β) for each partial image with respect to the arbitrary rotation angle θ by the formula (8).

【数8】 (α,β)=(X,Y)−(xAi(θ),yAi(θ))
(i=1,2,3)
(Α, β) = (X, Y) − (x Ai (θ), y Ai (θ))
(I = 1,2,3)

【0041】図8に示すように、(X,Y)は入力画像
内の部分画像の座標であり、(xAi(θ),y
Ai(θ))は任意のθにおいて、ロケーションモデルに
記述されているモデル作成用画像内の局所画像の位置で
あり、(α,β)は入力画像内の部分画像の基準点の座
標である。
As shown in FIG. 8, (X, Y) are the coordinates of the partial image in the input image, and (x Ai (θ), y
Ai (θ)) is the position of the local image in the model creation image described in the location model at arbitrary θ, and (α, β) is the coordinates of the reference point of the partial image in the input image. .

【0042】マッチングが正確に行われていれば、各局
所部分についての一致度の高い場所は、同一の座標
(α,β)を示す。次に、数9に従って、新たな座標
(α,β)が抽出対象物の基準位置である確率P
locationを求める。
If the matching is performed correctly, the places having a high degree of coincidence with respect to each local portion show the same coordinates (α, β). Next, according to equation 9, the probability P that the new coordinate (α, β) is the reference position of the extraction target
Ask for location .

【0043】[0043]

【数9】 ここでσ2は任意の定数である。[Equation 9] Where σ 2 is an arbitrary constant.

【0044】この確率Plocationは、座標(X,Y)の
位置の部分画像がいずれかの局所画像に正確にマッチン
グしている場合に、抽出対象物の基準点が座標(α,
β)に位置し、抽出対象物の角度がθである確率を表
す。
This probability P location is such that when the partial image at the position of coordinates (X, Y) exactly matches any of the local images, the reference point of the extraction target is the coordinates (α,
β) and represents the probability that the angle of the extraction target is θ.

【0045】続いて、確率算出部14は、Ppattern
locationとの対応するもの同士を乗算してPpattern
・Plocationを算出し、パラメータ空間(α,β,θ)
における確率分布を生成する。即ち、(X,Y)位置の
部分画像に基づいて、座標(α,β)に抽出対象物の基
準点が位置し、且つ、その回転角がθである確率の分布
を算出する。この確率分布は、例えば、図9に模式的に
示すような分布となる。なお、図9において、符号P1
〜P4はそれぞれ確率を示す。
Then, the probability calculating section 14 multiplies the corresponding P pattern and P location by P pattern.
-P location is calculated and parameter space (α, β, θ)
Generate a probability distribution at. That is, based on the partial image at the (X, Y) position, the distribution of the probabilities that the reference point of the extraction target object is located at the coordinates (α, β) and the rotation angle is θ is calculated. This probability distribution is, for example, a distribution schematically shown in FIG. In FIG. 9, reference numeral P1
Each of P4 indicates a probability.

【0046】確率算出部14は、入力画像の全ての位置
における部分画像に対して確率分布を計算する。従っ
て、入力画像内の部分画像の数をmとすると、局所部分
(A1〜A3)毎にm組の確率分布が得られる。
The probability calculator 14 calculates a probability distribution for partial images at all positions of the input image. Therefore, if the number of partial images in the input image is m, m sets of probability distributions are obtained for each local portion (A1 to A3).

【0047】局所情報内統合部15は、同一の局所部分
について得られた全ての確率分布の和をとり、パラメー
タ空間内に新たに確率分布を生成する。この結果、各局
所部分につき、パラメータ空間上に1つの確率分布が得
られる。上述の椅子の例では、局所部分A1〜A3につ
いて、それぞれ、確率分布が得られる。
The local information integration unit 15 takes the sum of all the probability distributions obtained for the same local part and newly generates a probability distribution in the parameter space. As a result, one probability distribution is obtained in the parameter space for each local part. In the above chair example, probability distributions are obtained for the local parts A1 to A3, respectively.

【0048】局所情報間統合部16は、局所情報内統合
部15により得られた局所部分毎の確率分布を、ベイズ
の枠組みにより統合する。局所情報内統合部15が得た
各確率分布を確率密度関数pk(α,β,θ)=f
k(α,β,θ)(ただし、k=1,2,・・・,nは局所
部分を示す番号)で表すと、統合後の確率分布は、数1
0で表される。
The inter-local-information integrating section 16 integrates the probability distributions of the local parts obtained by the intra-local-information integrating section 15 by the Bayesian framework. The probability density function p k (α, β, θ) = f
If k (α, β, θ) (where k = 1, 2, ..., N is a number indicating a local part), the probability distribution after integration is expressed by
It is represented by 0.

【0049】[0049]

【数10】 (Equation 10)

【0050】数10により、逐次確率を統合して、最終
的に得られた確率分布pn(α,β,θ)が全ての情報
を統合した確率分布となる。なお、p0は初期の事前確
率であり、無知識の場合は、均等確率を用いる。
From Equation 10, the probability distribution p n (α, β, θ) finally obtained by integrating the sequential probabilities becomes a probability distribution integrating all information. Note that p 0 is an initial prior probability, and in the case of no knowledge, an equal probability is used.

【0051】最後に、物体位置決定部17は、最終的に
得られたパラメータ空間の確率分布において、最も高い
確率を示す場所(αhigh,βhigh,θhigh)を決定し、
これを出力する。(α,β)はモデル作成用画像の座標
系(x,y)の原点に対応する。従って、入力画像の座
標(αhigh,βhigh)の位置が抽出対象物の基準点とな
る。また、θhighは入力画像から抽出された抽出対象物
の回転角を表す。
Finally, the object position determining unit 17 determines the place (α high , β high , θ high ) showing the highest probability in the finally obtained probability distribution of the parameter space,
Output this. (Α, β) corresponds to the origin of the coordinate system (x, y) of the model creating image. Therefore, the position of the coordinates (α high , β high ) of the input image becomes the reference point of the extraction target. Further, θ high represents the rotation angle of the extraction target object extracted from the input image.

【0052】以上説明したように、この実施形態におい
ては、抽出対象物の各局所部分について、撮像環境によ
る変化をパラメータとして反映した局所モデルを予め作
成する。そして、入力画像の各部分画像について、各局
所モデルとのマッチングを行い、各部分画像がどの程度
局所モデルに一致しているかという観点から、画像の位
置情報も含めたパラメータ空間において位置対象物の位
置を確率的に表示する。最後にこれらの確率を統合し、
パラメータ空間内で最も確率の高い部分を抽出すること
により、入力画像内の抽出対象物の位置及び回転角を抽
出する。
As described above, in this embodiment, a local model is created in advance for each local portion of the extraction target object, in which the change due to the imaging environment is reflected as a parameter. Then, for each partial image of the input image, matching with each local model is performed, and from the viewpoint of how much each partial image matches the local model, the position object in the parameter space including the position information of the image is detected. Probabilistically display position. Finally, we integrate these probabilities,
The position and rotation angle of the extraction target object in the input image are extracted by extracting the part with the highest probability in the parameter space.

【0053】このような手法を採用することにより、局
部情報の組み合わせの検証を逐次行うことなく、少数で
も高い確率で真値を示す情報があれば良好な結果が得ら
れる。さらに、撮影環境による変化も考慮して安定的に
抽出対象物の位置を抽出することができる。
By adopting such a method, a good result can be obtained as long as there is information showing a true value with a high probability even with a small number, without successively verifying the combination of local information. Further, the position of the extraction target can be stably extracted in consideration of the change due to the photographing environment.

【0054】従って、例えば、図10に示すように、他
の物体により抽出対象物の一部が隠されているため、局
所部分A2の情報が欠落した場合でも、局所部分A1と
A3の画像に基づいて、抽出対象物の位置及び回転角が
高い確率で得られる。従って、情報の欠落等に影響され
ず、安定的に抽出対象物の位置を抽出することができ
る。
Therefore, for example, as shown in FIG. 10, since a part of the object to be extracted is hidden by another object, even if the information of the local portion A2 is lost, the images of the local portions A1 and A3 are displayed. Based on this, the position and rotation angle of the extraction target object can be obtained with high probability. Therefore, the position of the extraction target can be stably extracted without being affected by the loss of information or the like.

【0055】なお、上記実施形態では、演算速度を高速
化するため、入力された画像を、パイプライン的に、各
処理部で順次演算する例を示したが、図11に示す構成
の画像処理装置により、演算処理を順次行うようにして
もよい。
In the above embodiment, in order to increase the calculation speed, an example in which the input image is sequentially calculated by each processing unit in a pipeline is shown. However, the image processing having the configuration shown in FIG. 11 is performed. The processing may be sequentially performed by the device.

【0056】また、上記実施形態においては、各局所部
分のパターンモデルについての一致度DAi(θ)を求
め、各局所部分について確率分布を求めた。しかし、例
えば、各部分画像について、最も一致度が高いパターン
モデルを求め、このモデルを用いて以後の計算を行って
もよい。例えば、ある部分画像を固有空間上に射影した
際に、最も近似する(距離D(θ)の最小値が得られ
た)パターンモデルが局所部分A1のパターンモデルで
ある場合に、局所部分A1のパターンモデルのD(θ)
を用いて以後の確率計算を行うようにしてもよい。この
ような手法を採用することにより、以後の確率分布の計
算に要する時間を短縮することができ、局所部分の数が
多い場合等に有効である。
Further, in the above embodiment, the degree of coincidence D Ai (θ) of the pattern model of each local portion is obtained, and the probability distribution is obtained for each local portion. However, for example, for each partial image, a pattern model having the highest degree of coincidence may be obtained and subsequent calculations may be performed using this model. For example, when a certain partial image is projected on the eigenspace and the pattern model that is most approximated (the minimum value of the distance D (θ) is obtained) is the pattern model of the local portion A1, D (θ) of pattern model
May be used to perform the subsequent probability calculation. By adopting such a method, the time required for the subsequent calculation of the probability distribution can be shortened, which is effective when the number of local parts is large.

【0057】図示するように、この画像処理装置は、C
PU31と、RAM32、ROM33、補助記憶装置3
4、撮像装置35、入出力装置36、これらを相互に接
続するバス37を備える。
As shown in the figure, this image processing apparatus is C
PU 31, RAM 32, ROM 33, auxiliary storage device 3
4, an imaging device 35, an input / output device 36, and a bus 37 that connects these to each other.

【0058】CPU31は、RAM32及びROM33
に記憶された制御プログラムに従って動作し、演算処理
及び制御処理を実行する。RAM32は、主メモリ及び
拡張メモリ等を含み、処理対象のデータ、制御プログラ
ム等を記憶する。ROM33は、固定データ、固定制御
プログラム等を記憶する。補助記憶装置34は、ハード
デスク装置、フロッピーデスク装置、CD−ROM装置
等から構成され、CPU31の動作プログラム、モデル
等を記憶しており、RAM32にこれらのデータを必要
に応じて転送する。撮像装置35は、処理対象の画像デ
ータを取得し、RAM32に転送する。入出力装置36
は、制御情報を入力すると共に抽出された物体の位置、
回転角度等を出力する。
The CPU 31 has a RAM 32 and a ROM 33.
It operates in accordance with the control program stored in and executes arithmetic processing and control processing. The RAM 32 includes a main memory and an extended memory, and stores data to be processed, control programs, and the like. The ROM 33 stores fixed data, a fixed control program, and the like. The auxiliary storage device 34 is composed of a hard disk device, a floppy disk device, a CD-ROM device, etc., stores the operation program, model, etc. of the CPU 31, and transfers these data to the RAM 32 as necessary. The imaging device 35 acquires the image data to be processed and transfers it to the RAM 32. I / O device 36
Is the position of the extracted object while inputting the control information,
Outputs the rotation angle etc.

【0059】次に、図11の画像処理装置の動作を図1
2のフローチャートを参照して説明する。先ず、パター
ンモデル、ロケーションモデル等は補助記憶装置34に
格納されており、必要に応じてRAM32に転送され
る。また、入力画像(処理対象の画像データ)は、撮像
装置35により取得され、RAM32に格納されている
ものとする。
Next, the operation of the image processing apparatus of FIG. 11 will be described with reference to FIG.
This will be described with reference to the flowchart of FIG. First, the pattern model, the location model and the like are stored in the auxiliary storage device 34 and transferred to the RAM 32 as needed. Further, it is assumed that the input image (image data to be processed) is acquired by the imaging device 35 and stored in the RAM 32.

【0060】この場合、CPU31は、入力画像から部
分画像を切り出し(ステップS1)、予め用意されてい
る各パターンモデルとマッチングを行い、最も高い一致
度を示すパターンモデルを求める(ステップS2)。続
いて、全ての部分画像について、マッチング処理が終了
したか否かを判別し(ステップS3)、終了するまでマ
ッチング処理を繰り返す。
In this case, the CPU 31 cuts out a partial image from the input image (step S1), performs matching with each pattern model prepared in advance, and obtains the pattern model showing the highest degree of matching (step S2). Then, it is determined whether or not the matching process is completed for all the partial images (step S3), and the matching process is repeated until the completion.

【0061】全ての部分画像について、マッチング処理
が終了したとステップS3で判断されると、各部分画像
について、確率Ppatternと、Plocationと、これらの
積Pp attern・Plocationとを求める(ステップS4,
S5、S6)。続いて、全ての部分画像について、確率
算出処理が終了したか否かを判別し(ステップS7)、
終了するまで確率算出処理を繰り返す。
When it is determined in step S3 that the matching process has been completed for all partial images, the probability P pattern , P location, and their product P p attern · P location are obtained for each partial image ( Step S4
S5, S6). Then, it is determined whether or not the probability calculation process has been completed for all partial images (step S7),
The probability calculation process is repeated until the end.

【0062】全ての部分画像について、確率算出処理が
終了したとステップS7で判断されると、各局所部分に
ついて、確率Ppattern・Plocationを統合し、局所部
分毎の、パラメータ空間内の確率分布を求める(ステッ
プS8)。続いて、各局所部分の確率分布が統合され、
最終的な確率分布が求められる(ステップS9)。最終
的な確率分布中の確率が最大値を示す位置の座標(α
high,βhigh)及び回転角θhighを入出力装置36を介
して出力する(ステップS10)。
When it is determined in step S7 that the probability calculation process has been completed for all partial images, the probabilities P pattern and P location are integrated for each local part, and the probability distribution in the parameter space for each local part is integrated. Is calculated (step S8). Then, the probability distributions of each local part are integrated,
A final probability distribution is obtained (step S9). The coordinates of the position where the probability in the final probability distribution shows the maximum value (α
high , β high ) and the rotation angle θ high are output via the input / output device 36 (step S10).

【0063】このような構成とすることにより、処理プ
ログラム及びモデル(又は、これらのモデルを作成する
ためのプログラム等)をフロッピーディスク、CD−R
OM等に格納させておき、必要に応じて補助記憶装置3
4に装着することにより、撮像装置等を備える汎用コン
ピュータを画像処理装置として機能させることも可能で
ある。
With such a configuration, the processing program and the model (or the program for creating these models, etc.) can be stored on the floppy disk or the CD-R.
It is stored in the OM or the like, and if necessary, the auxiliary storage device 3
By mounting the image pickup device 4 on a general-purpose computer, the general-purpose computer can be made to function as an image processing device.

【0064】なお、上記実施形態では、理解を容易にす
るため、抽出対象物として椅子、局所部分が3つの例を
示したが、抽出対象物、入力画像のサイズ、局所部分の
サイズ及び数などは一切限定されない。
In the above embodiment, for the sake of easy understanding, three chairs and three local parts are shown as extraction objects. However, the extraction objects, the size of the input image, the size and number of local parts, etc. Is not limited in any way.

【0065】また、確率分布の計算式も数8〜数10に
限定されない。数8〜数10以外の算出式に基づいて確
率分布を算出してもよい。
The equation for calculating the probability distribution is not limited to the equations 8-10. The probability distribution may be calculated based on a calculation formula other than the formulas 8 to 10.

【0066】また、上記実施例においては、抽出対象物
の画像の変化を制御するパラメータの1つとして回転角
θを採用したが、抽出対象物の画像のサイズ、明るさ、
色の変化等をパラメータとして採用してもよい。この場
合、導入したパラメータに基づいたパターンモデル及び
ロケーションモデルを同様に作成して、マッチング及び
確率算出に使用する。
Further, in the above embodiment, the rotation angle θ is adopted as one of the parameters for controlling the change of the image of the extraction object, but the size, brightness,
Color change or the like may be adopted as a parameter. In this case, a pattern model and a location model based on the introduced parameters are similarly created and used for matching and probability calculation.

【0067】また、抽出対象物は1種類である必要はな
い。複数の抽出対象物の局所画像のモデルをモデル記憶
部12又はRAM32に記憶させておき、これらと入力
画像とを比較して抽出対象物毎に確率分布を求め、最も
高い確率が得られる抽出対象物とその位置を出力するよ
うにしてもよい。
The extraction target does not have to be one kind. Models of local images of a plurality of extraction objects are stored in the model storage unit 12 or the RAM 32, and these are compared with an input image to obtain a probability distribution for each extraction object, and the extraction object with the highest probability is obtained. The object and its position may be output.

【0068】[0068]

【発明の効果】以上説明したように、この発明の画像処
理装置及び画像処理方法によれば、正確に任意の画像か
ら抽出対象物を抽出し、その位置を判別することができ
る。
As described above, according to the image processing apparatus and the image processing method of the present invention, it is possible to accurately extract an extraction target object from an arbitrary image and determine its position.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施形態にかかる画像処理装置の
構成を示す回路ブロック図である。
FIG. 1 is a circuit block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.

【図2】回転角θに応じて画像の見え方が変化する様子
を例示する図である。
FIG. 2 is a diagram illustrating how the appearance of an image changes according to a rotation angle θ.

【図3】抽出対象物と局所部分とを示す図である。FIG. 3 is a diagram showing an extraction target object and a local portion.

【図4】パターンモデルの作成方法を説明する図であ
る。
FIG. 4 is a diagram illustrating a method of creating a pattern model.

【図5】ロケーションモデルの作成方法を説明する図で
ある。
FIG. 5 is a diagram illustrating a method of creating a location model.

【図6】入力画像の一例を示す図である。FIG. 6 is a diagram showing an example of an input image.

【図7】入力画像から部分画像を切り出す処理を説明す
る図である。
FIG. 7 is a diagram illustrating a process of cutting out a partial image from an input image.

【図8】入力画像の座標系と、モデル作成用画像の座標
系との関係を示す図である。
FIG. 8 is a diagram showing a relationship between a coordinate system of an input image and a coordinate system of a model creating image.

【図9】パラメータ空間上の確率分布の一例を模式的に
示す図である。
FIG. 9 is a diagram schematically showing an example of a probability distribution on a parameter space.

【図10】入力画像に含まれる抽出対象物の一部が他の
物体により隠されている事例を示す図である。
FIG. 10 is a diagram showing an example in which a part of the extraction target object included in the input image is hidden by another object.

【図11】画像処理装置の他の構成例を示す回路ブロッ
ク図である。
FIG. 11 is a circuit block diagram showing another configuration example of the image processing apparatus.

【図12】図11に示す画像処理装置の動作を説明する
ためのフローチャートである。
12 is a flow chart for explaining the operation of the image processing apparatus shown in FIG.

【符号の説明】[Explanation of symbols]

11・・・画像入力部、12・・・モデル記憶部、13・・・マ
ッチング処理部、14・・・確率算出部、15・・・局所情報
内統合部、16・・・局所情報間統合部、17・・・物体位置
決定部、21・・・局所情報統合部、31・・・CPU、32
・・・RAM、33・・・ROM、34・・・補助記憶装置、3
5・・・撮像装置、36・・・入出力装置、37・・・バス
11 ... Image input unit, 12 ... Model storage unit, 13 ... Matching processing unit, 14 ... Probability calculation unit, 15 ... Local information integration unit, 16 ... Local information integration Part, 17 ... Object position determination unit, 21 ... Local information integration unit, 31 ... CPU, 32
... RAM, 33 ... ROM, 34 ... auxiliary storage device, 3
5 ... Imaging device, 36 ... Input / output device, 37 ... Bus

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】抽出対象物の複数の局所部分のモデルを記
憶するモデル記憶手段と、 画像を入力する画像入力手段と、 前記モデル記憶手段に記憶された各モデルと、前記画像
入力手段の入力画像の各部との一致度を算出するマッチ
ング手段と、 前記マッチング手段により算出された各一致度に基づい
て、抽出対象物の位置の確率分布を求める局所情報統合
手段と、 前記局所情報統合手段により算出された確率分布の中の
確率が最も高い位置を抽出対象物の位置として出力する
出力手段と、 を備えることを特徴とする画像処理装置。
1. Model storage means for storing models of a plurality of local parts of an extraction target, image input means for inputting an image, each model stored in the model storage means, and input of the image input means. Matching means for calculating the degree of coincidence with each part of the image, local information integrating means for obtaining the probability distribution of the position of the extraction object based on the degree of coincidence calculated by the matching means, and the local information integrating means An image processing device, comprising: an output unit that outputs a position having the highest probability in the calculated probability distribution as a position of the extraction target.
【請求項2】前記モデル記憶手段は、撮像環境による変
化をパラメータとして反映した各局所部分の画像のモデ
ルを記憶し、 前記マッチング手段は、前記入力画像から前記局所部分
と同一サイズの部分画像を順次切り出し、各局所部分の
モデルとの一致度を求め、 前記局所情報統合手段は、前記マッチング手段により求
められた一致度を用いて、画像の位置情報を含めたパラ
メータ空間において、抽出対象物の位置の確率分布を求
める、 ことを特徴とする請求項1に記載の画像処理装置。
2. The model storage means stores a model of an image of each local portion in which a change due to an imaging environment is reflected as a parameter, and the matching means extracts a partial image of the same size as the local portion from the input image. Sequentially cutting out, obtaining the degree of coincidence with the model of each local portion, the local information integrating means, using the degree of coincidence obtained by the matching means, in the parameter space including the position information of the image, the extraction object The image processing device according to claim 1, wherein a probability distribution of positions is obtained.
【請求項3】前記局所情報統合手段は、 各部分画像について、前記マッチング手段により各モデ
ルについて算出された一致度を用いて、部分画像毎に、
前記入力画像内の前記抽出対象物の位置の確率の分布を
求める確率算出手段と、 局所部分毎に前記確率算出手段により算出された確率分
布を統合する第1の統合手段と、 前記第1の統合手段により統合された確率分布を統合す
る第2の統合手段と、 より構成されることを特徴とする請求項2に記載の画像
処理装置。
3. The local information integration means uses, for each partial image, the degree of matching calculated for each model by the matching means, for each partial image.
Probability calculating means for obtaining a probability distribution of positions of the extraction object in the input image; first integrating means for integrating the probability distributions calculated by the probability calculating means for each local part; The image processing apparatus according to claim 2, further comprising a second integration unit that integrates the probability distributions integrated by the integration unit.
【請求項4】前記モデル記憶手段は、抽出対象物の異な
る回転角θに対する各局所部分の画像の変化を、所定の
固有ベクトルで表した固有空間で、曲線として表現する
第1のモデルと、抽出対象物の異なる回転角θに対する
各局所部分の位置を曲線で表現する第2のモデルと、を
記憶し、 前記マッチング手段は、前記画像入力手段により入力さ
れた画像の各部の画像を前記固有空間に射影した時に、
射影点と前記第1のモデルの曲線との距離から第1のモ
デルとの一致度を算出し、 前記統合手段は、入力画像の各部の画像について、前記
マッチング手段により第1のモデルについて算出された
一致度に基づいて、第1の確率分布を設定し、対応する
第2のモデルに基づいて第2の確率分布を設定し、前記
第1と第2の確率分布を乗算し、乗算により得られた部
分画像毎の確率分布を統合する、 ことを特徴とする請求項1、2又は3に記載の画像処理
装置。
4. The model storing means extracts a first model that represents a change in an image of each local portion with respect to different rotation angles θ of an extraction target as a curve in an eigenspace represented by a predetermined eigenvector, and an extraction. A second model that represents the position of each local portion with respect to different rotation angles θ of the object with a curve, and the matching unit stores the image of each part of the image input by the image input unit as the eigenspace. When projected onto
The degree of coincidence with the first model is calculated from the distance between the projection point and the curve of the first model, and the integration unit calculates the first model by the matching unit for each image of the input image. The first probability distribution is set on the basis of the degree of coincidence, the second probability distribution is set on the basis of the corresponding second model, the first and second probability distributions are multiplied, and the result is obtained by multiplication. The image processing apparatus according to claim 1, 2 or 3, wherein the probability distributions for each of the partial images are integrated.
【請求項5】前記局所情報統合手段は、位置と回転角θ
をパラメータとするパラメータ空間上の確率分布を求
め、 前記出力手段は、最も高い確率が得られた位置情報と回
転角θを出力する、 ことを特徴とする請求項4に記載の画像処理装置。
5. The position and rotation angle θ are set by the local information integration means.
The image processing apparatus according to claim 4, wherein a probability distribution in a parameter space having a parameter is obtained, and the output unit outputs the position information and the rotation angle θ at which the highest probability is obtained.
【請求項6】前記モデル記憶手段は、複数の抽出対象物
の局所部分の画像のモデルを記憶し、 前記局所情報統合手段は、各抽出対象物の位置の確率分
布を求め、 前記出力手段は、最も高い確率が得られた抽出対象物と
その位置を示す情報を出力する、 ことを特徴とする請求項1乃至5のいずれか1つに記載
の画像処理装置。
6. The model storage means stores models of images of local portions of a plurality of extraction objects, the local information integration means obtains a probability distribution of positions of the extraction objects, and the output means The image processing apparatus according to any one of claims 1 to 5, wherein the extraction target object having the highest probability and the information indicating the position thereof are output.
【請求項7】画像を入力する画像入力ステップと、 予め用意された抽出対象物の複数の局所部分のモデルと
前記画像入力ステップにより入力された画像の各部との
一致度を算出するマッチングステップと、 マッチングステップにおいて算出された一致度に基づい
て、抽出対象物の位置の確率分布を求める確率算出ステ
ップと、 前記確率算出ステップにより算出された確率分布を統合
する統合ステップと、 前記統合ステップにより統合された確率分布中の最も確
率が高い位置を抽出対象物の位置として出力する出力ス
テップと、 を備えることを特徴とする画像処理方法。
7. An image input step of inputting an image, a matching step of calculating a degree of coincidence between a model of a plurality of local parts of an extraction target prepared in advance and each part of the image input by the image input step. , A probability calculating step of obtaining a probability distribution of the positions of the extraction objects based on the degree of coincidence calculated in the matching step, an integrating step of integrating the probability distributions calculated by the probability calculating step, and an integrating step of the integrating step. An output step of outputting the position with the highest probability in the generated probability distribution as the position of the extraction target object.
JP7169039A 1995-07-04 1995-07-04 Image-processing apparatus and image-processing method Pending JPH0921610A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7169039A JPH0921610A (en) 1995-07-04 1995-07-04 Image-processing apparatus and image-processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7169039A JPH0921610A (en) 1995-07-04 1995-07-04 Image-processing apparatus and image-processing method

Publications (1)

Publication Number Publication Date
JPH0921610A true JPH0921610A (en) 1997-01-21

Family

ID=15879188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7169039A Pending JPH0921610A (en) 1995-07-04 1995-07-04 Image-processing apparatus and image-processing method

Country Status (1)

Country Link
JP (1) JPH0921610A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101405A (en) * 1999-09-30 2001-04-13 Matsushita Electric Ind Co Ltd Method and device for recognizing image
US6999623B1 (en) 1999-09-30 2006-02-14 Matsushita Electric Industrial Co., Ltd. Apparatus and method for recognizing an object and determining its position and shape
JP2006155594A (en) * 2004-11-08 2006-06-15 Toshiba Corp Pattern recognition device, pattern recognition method
JP2008508513A (en) * 2004-07-30 2008-03-21 イーグル・ヴィジョン・システムズ・ベスローテン・フェンノートシャップ Apparatus and method for inspecting containers
JP2011210054A (en) * 2010-03-30 2011-10-20 Secom Co Ltd Object detection device and learning device for the same
JP2014135092A (en) * 2009-06-18 2014-07-24 Canon Inc Image recognition method and image recognition apparatus
KR20150108567A (en) * 2014-03-18 2015-09-30 에스케이플래닛 주식회사 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor
US9852159B2 (en) 2009-06-18 2017-12-26 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
US20220152453A1 (en) * 2019-03-18 2022-05-19 Nippon Telegraph And Telephone Corporation Rotation state estimation device, method and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101405A (en) * 1999-09-30 2001-04-13 Matsushita Electric Ind Co Ltd Method and device for recognizing image
US6999623B1 (en) 1999-09-30 2006-02-14 Matsushita Electric Industrial Co., Ltd. Apparatus and method for recognizing an object and determining its position and shape
US7054489B2 (en) 1999-09-30 2006-05-30 Matsushita Electric Industrial Co., Ltd. Apparatus and method for image recognition
JP2008508513A (en) * 2004-07-30 2008-03-21 イーグル・ヴィジョン・システムズ・ベスローテン・フェンノートシャップ Apparatus and method for inspecting containers
JP4724182B2 (en) * 2004-07-30 2011-07-13 イーグル・ヴィジョン・システムズ・ベスローテン・フェンノートシャップ Method and apparatus for inspecting containers
JP2006155594A (en) * 2004-11-08 2006-06-15 Toshiba Corp Pattern recognition device, pattern recognition method
JP2016001489A (en) * 2009-06-18 2016-01-07 キヤノン株式会社 Image recognition method and image recognition apparatus
JP2014135092A (en) * 2009-06-18 2014-07-24 Canon Inc Image recognition method and image recognition apparatus
US9852159B2 (en) 2009-06-18 2017-12-26 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
US10891329B2 (en) 2009-06-18 2021-01-12 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
JP2011210054A (en) * 2010-03-30 2011-10-20 Secom Co Ltd Object detection device and learning device for the same
KR20150108567A (en) * 2014-03-18 2015-09-30 에스케이플래닛 주식회사 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor
US20220152453A1 (en) * 2019-03-18 2022-05-19 Nippon Telegraph And Telephone Corporation Rotation state estimation device, method and program

Similar Documents

Publication Publication Date Title
CN109859296B (en) Training method of SMPL parameter prediction model, server and storage medium
CN110675487B (en) Three-dimensional face modeling and recognition method and device based on multi-angle two-dimensional face
US10762704B2 (en) Method for establishing a deformable 3D model of an element, and associated system
US7324670B2 (en) Face image processing apparatus and method
CN110659582A (en) Image conversion model training method, heterogeneous face recognition method, device and equipment
CN109934847B (en) Method and device for estimating posture of weak texture three-dimensional object
KR20210002606A (en) Medical image processing method and apparatus, electronic device and storage medium
JP6624794B2 (en) Image processing apparatus, image processing method, and program
JP2000306095A (en) Image collation/retrieval system
EP3905194A1 (en) Pose estimation method and apparatus
JP2023545200A (en) Parameter estimation model training method, parameter estimation model training apparatus, device, and storage medium
JP2001067463A (en) Device and method for generating facial picture from new viewpoint based on plural facial pictures different in viewpoint, its application device and recording medium
Ozbay et al. A hybrid method for skeleton extraction on Kinect sensor data: Combination of L1-Median and Laplacian shrinking algorithms
JPH0921610A (en) Image-processing apparatus and image-processing method
JP2000099760A (en) Method for forming three-dimensional model and computer-readable recording medium recording three- dimensional model forming program
CN112270748B (en) Three-dimensional reconstruction method and device based on image
JPH1115945A (en) Device and method for processing picture and system and method for detecting dangerous substance
JPH10198824A (en) Video generation and processing device, and structure data preparing device for preparing structured data to be used for the same
Boukamcha et al. A real-time auto calibration technique for stereo camera
JP7405448B2 (en) Image processing method and image processing system
CN117372604B (en) 3D face model generation method, device, equipment and readable storage medium
JP7369247B2 (en) Information processing device, information processing method and program
TWI776668B (en) Image processing method and image processing system
Jankó et al. Registration of an uncalibrated image pair to a 3D surface model
JP3435286B2 (en) Template matching method