JP2006293602A - Image processing method and image processor - Google Patents
Image processing method and image processor Download PDFInfo
- Publication number
- JP2006293602A JP2006293602A JP2005112048A JP2005112048A JP2006293602A JP 2006293602 A JP2006293602 A JP 2006293602A JP 2005112048 A JP2005112048 A JP 2005112048A JP 2005112048 A JP2005112048 A JP 2005112048A JP 2006293602 A JP2006293602 A JP 2006293602A
- Authority
- JP
- Japan
- Prior art keywords
- image
- reduction
- feature point
- associating
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、複数の撮影画像を対応付けるための画像処理方法及び画像処理装置に関する。 The present invention relates to an image processing method and an image processing apparatus for associating a plurality of captured images.
同一の被写体を撮影して得られた複数の撮影画像(例えば、時系列的な撮影で得られた画像、異なる複数の撮影位置の撮影で得られた画像など)同士を対応付けることにより、被写体の動き、3次元形状等を求めることができる。例えば、特許文献1では、時系列的の撮影で得られた画像の各々から、対応付けの候補となる特徴点を抽出し、局所空間フィルタ等の前処理を施した後、当該特徴点とその近傍画素データとの相関を計算することにより、各撮影画像同士を対応付ける技術が開示されている。
特徴点の抽出処理及び特徴点の対応付け処理は、撮影画像の解像度の影響を受けるパラメータを多数有しているため、様々な解像度の撮影画像に対して同一条件でこれらの処理を行っても、多数のパラメータを調整しない限り、適切な結果を得ることができないという問題があった。また、処理対象の撮影画像のサイズが大きくなればなるほど、特徴点抽出処理及び対応付け処理に関する処理負荷が大きくなり、膨大な処理時間を要するという問題があった。 Since the feature point extraction process and the feature point association process have many parameters that are affected by the resolution of the captured image, even if these processes are performed on the captured image of various resolutions under the same conditions. There is a problem that an appropriate result cannot be obtained unless a large number of parameters are adjusted. In addition, as the size of the captured image to be processed increases, the processing load related to the feature point extraction processing and the association processing increases, and there is a problem that enormous processing time is required.
本発明の課題は、同一被写体を撮影して得られた複数の撮影画像同士を対応付ける処理において、多数のパラメータを調整することなく、様々な解像度の撮影画像に対して適切な対応特徴点を得るとともに、処理時間を短縮させることである。 An object of the present invention is to obtain appropriate corresponding feature points for captured images of various resolutions without adjusting a large number of parameters in the process of associating a plurality of captured images obtained by capturing the same subject. At the same time, the processing time is shortened.
上記課題を解決するため、請求項1に記載の発明は、同一の被写体を撮影して得られた複数の撮影画像の各々から特徴点を抽出し、当該被写体の同一点に対応する特徴点同士を対応付ける画像処理方法において、
前記複数の撮影画像の各々を同一の縮小比率で縮小する縮小工程と、
前記縮小された各撮影画像から特徴点を抽出する抽出工程と、
前記抽出された各撮影画像の特徴点同士を対応付ける対応付け工程と、
前記対応付けられた特徴点が、元のサイズの撮影画像のどの位置に対応するのかを関連付ける関連付け工程と、を含むことを特徴としている。
In order to solve the above problem, the invention according to claim 1 extracts feature points from each of a plurality of photographed images obtained by photographing the same subject, and features points corresponding to the same point of the subject. In the image processing method for associating
A reduction step of reducing each of the plurality of captured images at the same reduction ratio;
An extraction step of extracting feature points from each reduced photographed image;
An associating step for associating feature points of each of the extracted captured images;
An associating step of associating the associated feature point with which position of the captured image of the original size.
請求項2に記載の発明は、請求項1に記載の画像処理方法において、前記縮小工程における縮小処理は複数段階からなることを特徴としている。 According to a second aspect of the present invention, in the image processing method according to the first aspect, the reduction processing in the reduction step is composed of a plurality of stages.
請求項3に記載の発明は、請求項2に記載の画像処理方法において、前記関連付け工程は、複数段階の関連付け処理からなり、前記縮小工程における途中段階の撮影画像への関連付け処理を経て、元のサイズの撮影画像への関連付けが行われることを特徴としている。 According to a third aspect of the present invention, in the image processing method according to the second aspect, the associating step includes a plurality of steps of associating processing. It is characterized in that it is associated with a photographed image of a size of.
請求項4に記載の発明は、請求項1〜3の何れか一項に記載の画像処理方法において、前記縮小工程における1段階の縮小処理の縮小比率は1/2又は1/2の累乗であり、
前記関連付け工程では、1段階の関連付け処理で、2倍又は2の累乗倍の画像サイズの撮影画像との関連付けが行われることを特徴としている。
According to a fourth aspect of the present invention, in the image processing method according to any one of the first to third aspects, the reduction ratio of the one-step reduction process in the reduction process is a power of 1/2 or 1/2. Yes,
The associating step is characterized by associating with a photographed image having an image size that is twice or a power of 2 in a one-step association process.
請求項5に記載の発明は、請求項1〜4の何れか一項に記載の画像処理方法において、前記関連付け工程では、前記対応付けられた対応特徴点候補の間で、画像データの一致度合いを評価することにより対応特徴点が得られることを特徴としている。 According to a fifth aspect of the present invention, in the image processing method according to any one of the first to fourth aspects, in the association step, the matching degree of image data between the corresponding corresponding feature point candidates. It is characterized in that corresponding feature points can be obtained by evaluating.
請求項6に記載の発明は、請求項1〜4の何れか一項に記載の画像処理方法において、前記関連付け工程では、前記対応付けられた対応特徴候補の間で、近傍領域のデータ相関性を評価することにより対応特徴点が得られることを特徴としている。 According to a sixth aspect of the present invention, in the image processing method according to any one of the first to fourth aspects, in the associating step, data correlation of neighboring regions between the corresponding corresponding feature candidates. It is characterized in that corresponding feature points can be obtained by evaluating.
請求項7に記載の発明は、請求項1〜4の何れか一項に記載の画像処理方法において、前記関連付け工程では、前記対応付けられた対応特徴点候補の間で、各々の画素データの近傍画素に対する特異性を評価することにより対応特徴点が得られることを特徴としている。 According to a seventh aspect of the present invention, in the image processing method according to any one of the first to fourth aspects, in the associating step, each of the pixel data is associated between the corresponding corresponding feature point candidates. It is characterized in that corresponding feature points can be obtained by evaluating the specificity with respect to neighboring pixels.
請求項8に記載の発明は、請求項1〜7の何れか一項に記載の画像処理方法において、処理対象の撮影画像の画像サイズに応じて、当該撮影画像に対する縮小比率及び/又は縮小回数を決定する決定工程を含み、
前記縮小工程では、前記決定された縮小比率及び/又は縮小回数の縮小処理が行われることを特徴としている。
According to an eighth aspect of the present invention, in the image processing method according to any one of the first to seventh aspects, the reduction ratio and / or the number of reductions with respect to the photographed image according to the image size of the photographed image to be processed. Including a determination step of determining
In the reduction process, a reduction process of the determined reduction ratio and / or the number of reductions is performed.
請求項9に記載の発明は、請求項1〜7の何れか一項に記載の画像処理方法において、処理対象の撮影画像の空間周波数成分を解析する解析工程と、
前記解析工程における解析結果に基づいて、前記撮影画像に対する縮小比率及び/又は縮小回数を決定する決定工程と、を含み、
前記縮小工程では、前記決定された縮小比率及び/又は縮小回数の縮小処理が行われることを特徴としている。
The invention according to claim 9 is the image processing method according to any one of
Determining a reduction ratio and / or the number of reductions for the captured image based on the analysis result in the analysis step,
In the reduction process, a reduction process of the determined reduction ratio and / or the number of reductions is performed.
請求項10に記載の発明は、同一の被写体を撮影して得られた複数の撮影画像の各々から特徴点を抽出し、当該被写体の同一点に対応する特徴点同士を対応付ける画像処理装置において、
前記複数の撮影画像の各々を同一の縮小比率で縮小する縮小手段と、
前記縮小された各撮影画像から特徴点を抽出する抽出手段と、
前記抽出された各撮影画像の特徴点同士を対応付ける対応付け手段と、
前記対応付けられた特徴点が、元のサイズの撮影画像のどの位置に対応するのかを関連付ける関連付け手段と、を備えることを特徴としている。
The invention according to
Reduction means for reducing each of the plurality of captured images at the same reduction ratio;
Extraction means for extracting feature points from each reduced photographed image;
Associating means for associating feature points of each of the extracted captured images;
And an associating means for associating with which position of the photographed image of the original size the associated feature point corresponds.
請求項11に記載の発明は、請求項10に記載の画像処理装置において、前記縮小手段による縮小処理は複数段階からなることを特徴としている。 According to an eleventh aspect of the present invention, in the image processing apparatus according to the tenth aspect, the reduction processing by the reduction means includes a plurality of stages.
請求項12に記載の発明は、請求項11に記載の画像処理装置において、前記関連付け手段は、複数段階の関連付け処理からなり、前記縮小手段による途中段階の撮影画像への関連付け処理を経て、元のサイズの撮影画像への関連付けを行うことを特徴としている。 According to a twelfth aspect of the present invention, in the image processing apparatus according to the eleventh aspect, the associating unit includes a plurality of steps of associating processing, and the original processing unit performs processing of associating with a captured image in the middle step by the reducing unit. It is characterized by associating with a photographed image having a size of.
請求項13に記載の発明は、請求項10〜12の何れか一項に記載の画像処理装置において、前記縮小手段による1段階の縮小処理の縮小比率は1/2又は1/2の累乗であり、
前記関連付け手段は、1段階の関連付け処理で、2倍又は2の累乗倍の画像サイズの撮影画像との関連付けを行うことを特徴としている。
According to a thirteenth aspect of the present invention, in the image processing apparatus according to any one of the tenth to twelfth aspects, the reduction ratio of the one-step reduction processing by the reduction means is a power of 1/2 or 1/2. Yes,
The associating means is characterized by associating with a photographed image having an image size of 2 times or a power of 2 in a one-step associating process.
請求項14に記載の発明は、請求項10〜13の何れか一項に記載の画像処理装置において、前記関連付け手段は、前記対応付けられた対応特徴点候補の間で、画像データの一致度合いを評価することにより対応特徴点を得ることを特徴としている。 According to a fourteenth aspect of the present invention, in the image processing device according to any one of the tenth to thirteenth aspects, the associating means includes a degree of matching of image data between the corresponding corresponding feature point candidates. It is characterized in that corresponding feature points are obtained by evaluating.
請求項15に記載の発明は、請求項10〜13の何れか一項に記載の画像処理装置において、前記関連付け手段は、前記対応付けられた対応特徴候補の間で、近傍領域のデータ相関性を評価することにより対応特徴点を得ることを特徴としている。 According to a fifteenth aspect of the present invention, in the image processing device according to any one of the tenth to thirteenth aspects, the associating means includes data correlation of neighboring regions between the corresponding corresponding feature candidates. It is characterized in that corresponding feature points are obtained by evaluating.
請求項16に記載の発明は、請求項10〜13の何れか一項に記載の画像処理装置において、前記関連付け手段は、前記対応付けられた対応特徴点候補の間で、各々の画素データの近傍画素に対する特異性を評価することにより対応特徴点を得ることを特徴としている。 According to a sixteenth aspect of the present invention, in the image processing device according to any one of the tenth to thirteenth aspects, the associating means includes a pixel data item between the corresponding corresponding feature point candidates. It is characterized in that corresponding feature points are obtained by evaluating the specificity with respect to neighboring pixels.
請求項17に記載の発明は、請求項10〜16の何れか一項に記載の画像処理装置において、処理対象の撮影画像の画像サイズに応じて、当該撮影画像に対する縮小比率及び/又は縮小回数を決定する決定手段を備え、
前記縮小手段は、前記決定された縮小比率及び/又は縮小回数の縮小処理を行うことを特徴としている。
According to a seventeenth aspect of the present invention, in the image processing apparatus according to any one of the tenth to sixteenth aspects, the reduction ratio and / or the number of reductions with respect to the photographed image according to the image size of the photographed image to be processed. Determining means for determining
The reduction means performs a reduction process of the determined reduction ratio and / or the number of reductions.
請求項18に記載の発明は、請求項10〜16の何れか一項に記載の画像処理装置において、処理対象の撮影画像の空間周波数成分を解析する解析手段と、
前記解析手段による解析結果に基づいて、前記撮影画像に対する縮小比率及び/又は縮小回数を決定する決定手段と、を備え、
前記縮小手段は、前記決定された縮小比率及び/又は縮小回数の縮小処理を行うことを特徴としている。
The invention according to claim 18 is the image processing apparatus according to any one of
Determination means for determining a reduction ratio and / or the number of reductions for the captured image based on the analysis result by the analysis means,
The reduction means performs a reduction process of the determined reduction ratio and / or the number of reductions.
本発明によれば、同一被写体を撮影して得られた複数の撮影画像同士を対応付ける処理において、多くのパラメータを調整することなく、様々な解像度の撮影画像に対して適切な対応特徴点を得るとともに、処理時間を短縮させることが可能となる。 According to the present invention, in a process of associating a plurality of photographed images obtained by photographing the same subject, appropriate corresponding feature points are obtained for photographed images with various resolutions without adjusting many parameters. At the same time, the processing time can be shortened.
図1に、本発明の実施形態に係る画像処理装置100の構成を示す。画像処理装置100は、図1に示すように、画像入力部1、画像縮小部2、特徴点抽出部3、対応特徴点判定部4、解像度間関連付け部5、対応特徴点出力部6、画像解析部7、条件パラメータ設定部8により構成される。
FIG. 1 shows a configuration of an
画像入力部1は、被写体の撮影により得られた撮影画像を取得し、特徴点抽出部2及び画像解析部5に出力する。本実施形態において画像入力部1に入力される画像は、同一の被写体を撮影して得られた複数の撮影画像であるものとする。この複数の撮影画像としては、時系列的な撮影(例えば、動画撮影、連写撮影)で得られた画像、異なる複数の撮影位置で同時に撮影して得られた画像などがある。また、画像入力部1での撮影画像の取得方法(入力方法)としては、所定の通信ネットワークを介して外部に接続された装置から取得する方法、有線又は無線接続されたデジタルカメラ等の撮影装置から取得する方法、記録メディア(CD−R、メモリーカード等)に記録された撮影画像を読み込む方法などがある。
The
画像縮小部2は、条件パラメータ設定部8で設定された条件パラメータ(縮小比率及び/又は縮小回数)に基づいて、画像入力部1から入力された撮影画像に対し縮小処理を施す。図2に、縮小比率1/2の縮小処理の一例を示す。nx×ny画素の撮影画像を1/2サイズに縮小する場合、図2に示すように、2×2画素分のデータの平均値を1画素分のデータとすることにより、(nx/2)×(ny/2)画素に縮小された撮影画像が得られる。
The
特徴点抽出部3は、条件パラメータ設定部6で設定された条件パラメータに基づいて、画像縮小部2で縮小された各撮影画像から特徴点を抽出し、抽出結果を対応特徴点判定部4に出力する。具体的に、特徴点抽出部3は、撮影画像から周波数変換処理等により輪郭線(エッジ情報)を抽出し、その輪郭線を太さが1の線画に細線化し、得られた細線を解析して幾何学的特異点(端点、折点、分岐点、交差点(図8参照))を検出することにより特徴点を抽出する。
The feature
対応特徴点判定部4は、条件パラメータ設定部8で設定された条件パラメータに基づいて、画像縮小部2で縮小処理が施された各撮影画像に対し、被写体の同一点に対応する特徴点の候補となる対応特徴点候補同士の座標値、色情報、連結数、近傍特徴点との位置関係を評価し、これらの評価結果(評価情報)に基づいて対応特徴点があるか否かを判定する(図6〜図15参照)。そして、対応特徴点があると判定された場合、該当する対応特徴点候補を対応特徴点として決定し、決定された対応特徴点の情報を解像度間関連付け部5に出力する。
The corresponding feature
解像度間関連付け部5は、対応特徴点判定部4で決定された対応特徴点が、縮小前の撮影画像のどの位置に対応するのかを関連付ける処理を行うことによって、元のサイズの撮影画像の対応特徴点を決定し(図5参照)、決定された対応特徴点の情報を対応特徴点出力部7に出力する。例えば、画像縮小部2において縮小処理がn回行われた場合、対応特徴点の関連付け処理をn回施すと、元のサイズの撮影画像の対応特徴点が算出される。
The
対応特徴点出力部6は、解像度間関連付け部5から入力された対応特徴点の情報を画像条件パラメータ設定部8及び/又は外部に接続された装置(例えば、パーソナルコンピュータ等)に出力する。
The corresponding feature
画像解析部7は、処理対象の撮影画像の画像サイズ、空間周波数成分の分布状況を解析し、解析結果を条件パラメータ設定部8に出力する。撮影画像の空間周波数成分の分布は、撮影画像に対してフーリエ変換を施すことにより求めることができる。図3(a)に示すように、空間周波数分布より、ピーク周波数又は分布の重心である中心周波数が定められる。撮影画像を1/n(n>1)に縮小する場合、周波数はn倍になるため、図3(b)に示すように、空間周波数分布がシフトする。
The
条件パラメータ設定部8は、画像解析部7の解析結果及び/又は対応特徴点出力部6から出力された対応特徴点の情報に基づいて、画像縮小部2、特徴点抽出部3、対応特徴点判定部4、解像度間関連付け部5での処理に必要な条件パラメータを設定する。また、ユーザにより設定されたパラメータを条件パラメータとしてもよい。
Based on the analysis result of the
具体的に、条件パラメータ設定部8は、画像縮小部2での縮小処理に必要な条件パラメータとして縮小比率及び/又は縮小回数を設定する。縮小比率及び/又は縮小回数は予め固定された値であってもよいし、処理対象の撮影画像の特性(画像サイズ、空間周波数特性等)に応じて設定するようにしてもよい。
Specifically, the condition
例えば、縮小比率1/2で、画像サイズ範囲を50000〜200000とした場合、2000×1500画素サイズの撮影画像が入力されたとき、以下のように2回の縮小処理が行われることになる。
非縮小状態:2000×1500=3000000画素;
1段階縮小状態:1000×750=750000画素;
2段階縮小状態:500×375=187500画素.
また、画像サイズ範囲ではなく、画像サイズ最適値を定め、この最適値に最も近くなるな条件を選択するようにしてもよい。
For example, when the reduction ratio is 1/2 and the image size range is 50,000 to 200,000, when a captured image having a size of 2000 × 1500 pixels is input, the reduction processing is performed twice as follows.
Non-reduced state: 2000 × 1500 = 3000000 pixels;
One-stage reduced state: 1000 × 750 = 750,000 pixels;
Two-stage reduction state: 500 × 375 = 187500 pixels.
Further, instead of the image size range, an optimal image size value may be determined, and a condition closest to the optimal value may be selected.
撮影画像の空間周波数特性を用いて条件パラメータを設定する場合、条件パラメータ設定部8は、図3(b)に示すように、画像縮小によってシフトした空間周波数分布と、予め設定された許容周波数範囲或いは最適周波数に基づいて縮小比率及び/又は縮小回数を設定する。同じ画像サイズであっても、被写体の撮影状況(アップでの撮影、遠景の撮影)に応じてエッジ情報が異なるため、空間周波数情報を用いて縮小処理を制御する方が、一層適切に抽出点を抽出することが可能となる。
When setting the condition parameter using the spatial frequency characteristics of the captured image, the condition
また、条件パラメータ設定部8は、対応特徴点判定部4における特徴点の対応付け処理に必要な条件パラメータとして、座標値の評価に必要な許容値(ε1)、連結数の評価に必要な許容値(ε2)、色情報の評価に必要な許容値(ε3、ε4)、近傍特徴点との位置関係の評価に必要な許容値(ε5)等を設定する。
In addition, the condition
次に、本実施形態における動作について説明する。
図4のフローチャートを参照して、画像処理装置100において実行される特徴点対応付け処理について説明する。図4の処理では、撮影画像に対する縮小比率が予め決まっている場合(縮小比率1/2)の処理について説明する。
Next, the operation in this embodiment will be described.
With reference to the flowchart of FIG. 4, the feature point association process executed in the
まず、本特徴点対応付け処理の処理対象である、同一の被写体を撮影して得られた複数の撮影画像(例えば、露出ブラケット撮影により得られた撮影画像)が入力される(ステップA1)。次いで、各撮影画像が1/2のサイズに縮小される(ステップA2)。 First, a plurality of photographed images (for example, photographed images obtained by exposure bracket photography) obtained by photographing the same subject, which is a processing target of the feature point association processing, are input (step A1). Next, each captured image is reduced to a half size (step A2).
次いで、ステップA2で縮小された撮影画像のサイズが適切な範囲内(予め設定されたサイズ範囲内)(例えば、50000〜200000画素サイズ)にあるか否かが判定される(ステップA3)。ステップA3において、縮小された撮影画像のサイズが適切な範囲内に入っていないと判定された場合(ステップA3;NO)、ステップA2に戻り、各撮影画像のサイズが更に1/2に縮小される。ステップA3において、縮小された撮影画像のサイズが適切な範囲内にあると判定された場合(ステップA3;YES)、縮小された各撮影画像から特徴点が抽出される(ステップA4)。 Next, it is determined whether or not the size of the captured image reduced in step A2 is within an appropriate range (within a preset size range) (for example, 50000-200000 pixel size) (step A3). If it is determined in step A3 that the size of the reduced captured image is not within the appropriate range (step A3; NO), the process returns to step A2, and the size of each captured image is further reduced by half. The If it is determined in step A3 that the size of the reduced captured image is within an appropriate range (step A3; YES), feature points are extracted from each reduced captured image (step A4).
次いで、縮小された各撮影画像について、被写体の同一点に対応する特徴点同士を対応付ける処理が行われる(ステップA5)。ステップA5における対応付け処理については、後に図6〜図15を参照して詳細に説明する。 Next, a process of associating feature points corresponding to the same point of the subject is performed on each reduced photographed image (step A5). The association process in step A5 will be described in detail later with reference to FIGS.
次いで、撮影画像同士で対応付けられた特徴点が、縮小前の撮影画像(縮小された撮影画像の2倍サイズの撮影画像)のどの位置に対応するのかが関連付けられる(ステップA6)。ステップA6の関連付け処理については、後に図16〜図18を参照して詳細に説明する。 Next, it is associated with which position of the feature point associated with the captured images the position of the pre-reduced captured image (the captured image that is twice the size of the reduced captured image) (step A6). The association processing in step A6 will be described in detail later with reference to FIGS.
次いで、元のサイズの撮影画像までの関連付け処理が完了したか否かが判定される(ステップA7)。ステップA7において、元の撮影画像までの関連付け処理が完了していないと判定された場合(ステップA7;NO)、ステップA6に戻り、更に関連付け処理が行われる。ステップA7において、元の撮影画像までの関連付け処理が終了したと判定された場合(ステップA7;YES)、本特徴点対応付け処理が終了する。 Next, it is determined whether or not the association processing up to the original size of the captured image is completed (step A7). If it is determined in step A7 that the association process up to the original photographed image has not been completed (step A7; NO), the process returns to step A6, and the association process is further performed. If it is determined in step A7 that the association process up to the original photographed image has been completed (step A7; YES), the feature point association process is terminated.
図5に、2枚の撮影画像(画像1、画像2)に対して縮小率1/2の縮小処理をn回施した場合の特徴点対応付け処理の流れを示す。画像1のサイズを1/2nに縮小した画像から抽出された特徴点と、画像2のサイズを1/2nに縮小した画像から抽出された特徴点とを対応付けさせることにより対応特徴点候補が決定される。そして、対応特徴点候補の関連付け処理をn回施すと、元のサイズの撮影画像(画像1及び画像2)の対応特徴点が決定される。
FIG. 5 shows a flow of the feature point association process when the reduction process with the reduction ratio of 1/2 is performed n times on the two captured images (
図4のフローチャートでは、予め縮小比率が設定されている場合を示したが、条件パラメータ設定部8において、処理対象の撮影画像の特性(画像サイズ、空間周波数特性等)に応じて縮小比率及び/又は縮小回数を設定して、その設定された縮小比率及び/又は縮小回数に基づいて縮小処理を行うようにしてもよい。
In the flowchart of FIG. 4, the reduction ratio is set in advance. However, in the condition
本発明では、基本的に対応づけを行う画像のサイズは同一であることが想定しており、それぞれの画像は同一条件で縮小すればよい。仮に、異なるサイズの画像間で対応づけを行う場合は、一方の画像を拡大または縮小することで画像サイズを揃える前処理を行い、その結果得られる同じサイズの画像同士で本発明による対応づけを行うことすればよい。その場合、前処理による縮小処理と本発明の縮小処理を一体化させて実施してもよい。このような場合も考慮すると、対応づけを行うそれぞれの画像の縮小条件は必ずしも同一でなくてもよい。 In the present invention, it is assumed that the sizes of images to be associated are basically the same, and each image may be reduced under the same conditions. For example, when matching between images of different sizes, pre-processing for aligning the image size is performed by enlarging or reducing one of the images, and matching according to the present invention is performed between images of the same size obtained as a result. You can do it. In that case, the reduction process by the pre-processing and the reduction process of the present invention may be integrated. Considering such a case, the reduction conditions of the images to be associated with each other may not necessarily be the same.
〈対応付け処理〉
次に、図4のステップA5に示した特徴点の対応付け処理について説明する。対応特徴点判定部4では、被写体の同一点に対応する特徴点の候補となる対応特徴点候補同士の座標値、連結数、色情報、近傍特徴点との位置関係が評価され、これらの評価結果(評価情報)に基づいて対応特徴点があるか否かが判定される。
<Association process>
Next, the feature point association processing shown in step A5 of FIG. 4 will be described. The corresponding feature
まず、図6を参照して、対応特徴点候補同士の座標値の評価について説明する。以下では、画像2を基準画像とする。図6(a)に示すように、画像1の特徴点をTi(i=1、2、…、m)とし、画像2の特徴点をSj(j=1、2、…、n)とする。特徴点同士の座標値を評価するには、図6(b)に示すように、TiとSjの全ての組み合わせについて、TiとSjとの距離を算出すればよい。Tiの座標を(xi,yi)、Sjの座標を(x’j,y’j)とすると、TiとSjとの距離Δijは式(1)のように定義される。
次に、図7〜図9を参照して、連結数の評価について説明する。
上述のように、撮影画像からエッジが抽出され、エッジの細線化で得られた細線の特異点が特徴点として抽出される。図7(a)に、撮影画像の一例を示し、図7(b)に、当該撮影画像の細線及び特徴点(図中の白丸)の一例を示す。このようにして抽出された特徴点は、その特徴点に細線が何本集中しているかを表す連結数(order)で分類される。
Next, evaluation of the number of connections will be described with reference to FIGS.
As described above, an edge is extracted from the captured image, and a singular point of a thin line obtained by thinning the edge is extracted as a feature point. FIG. 7A shows an example of a photographed image, and FIG. 7B shows an example of fine lines and feature points (white circles in the figure) of the photographed image. The feature points extracted in this way are classified by the number of connections (order) indicating how many thin lines are concentrated on the feature points.
図8に示すように、細線の端点は連結数=1、分岐点は連結数=3、折点(角点)は連結数=2、交差点は連結数=4、複合点は連結数>4である。なお、極めて近接した特徴点同士は1つの特徴点とみなされる。また、図9に示すように、評価対象の連結数(評価連結数)に上限値を設け、実際の連結数(真の連結数)が一定数以上である場合は、上限値(一定数)を評価連結数としてもよい。特徴点TiとSjの全ての組み合わせについてTiとSjの連結数を比較し、双方の連結数の差分(差の絶対値)が許容値ε2以下となる特徴点Tiを、テーブルα(図12参照)への登録候補とする。 As shown in FIG. 8, the end point of the thin line is the connection number = 1, the branch point is the connection number = 3, the break (corner) is the connection number = 2, the intersection is the connection number = 4, and the composite point is the connection number> 4. It is. Note that very close feature points are regarded as one feature point. Also, as shown in FIG. 9, an upper limit is provided for the number of connections to be evaluated (evaluation connection number), and when the actual connection number (true connection number) is a certain number or more, the upper limit value (a constant number). May be used as the evaluation connection number. The number of connections between Ti and Sj is compared for all combinations of feature points Ti and Sj, and a feature point Ti whose difference (absolute value of the difference) between both is less than or equal to the allowable value ε2 is represented in table α (see FIG. 12). ) Registration candidates.
次に、図10及び図11を参照して、色情報の評価について説明する。
露出条件の異なる撮影画像を位置合わせするアプリケーションを想定した場合、対応特徴点候補同士の明度情報にはある程度の開きがあることが考えられるため、図10に示すように、対応特徴点同士の色相のみを評価する方法(図10(a))又は対応特徴点同士の色相及び彩度を評価する方法(図10(b))を採用する。
Next, evaluation of color information will be described with reference to FIGS.
Assuming an application that aligns captured images with different exposure conditions, it is conceivable that the brightness information between the corresponding feature point candidates has some degree of opening, and as shown in FIG. A method of evaluating only the color (FIG. 10A) or a method of evaluating the hue and saturation between corresponding feature points (FIG. 10B) is adopted.
色度座標の例としてL*a*b*を用いる場合、対応特徴点同士の色相のみを評価する方法では、図10(a)に示すように、TiとSjの全ての組み合わせについて、a*b*平面に、対応特徴点候補同士の色度座標をプロットし、各々の色度座標と原点とを結ぶ線がつくる角θ(色相差)を算出し、この色相差θが許容値ε3以下である特徴点Tiを、テーブルα(図12参照)への登録候補とする。但し、一方の色度座標が、原点との距離が一定値以内のニュートラル領域にある場合、中性色とみなして色相差θが有意ではないものとする。 When L * a * b * is used as an example of chromaticity coordinates, in the method of evaluating only the hues of the corresponding feature points, as shown in FIG. 10A, for all combinations of Ti and Sj, a * The chromaticity coordinates of the corresponding feature point candidates are plotted on the b * plane, and an angle θ (hue difference) formed by a line connecting each chromaticity coordinate and the origin is calculated. This hue difference θ is an allowable value ε3 or less. Is a candidate for registration in the table α (see FIG. 12). However, if one of the chromaticity coordinates is in a neutral region whose distance from the origin is within a certain value, the hue difference θ is assumed to be insignificant as a neutral color.
色度座標の例としてL*a*b*を用いる場合、対応特徴点同士の色相及び彩度を評価する方法では、図10(b)に示すように、TiとSjの全ての組み合わせについて、a*b*平面に、対応特徴点候補同士の色度座標をプロットして色度座標間の距離を算出し、この算出された距離が許容値ε4以下となる特徴点Tiを、テーブルα(図12参照)への登録候補とする。 When L * a * b * is used as an example of chromaticity coordinates, in the method of evaluating the hue and saturation between corresponding feature points, as shown in FIG. 10B, for all combinations of Ti and Sj, The distance between the chromaticity coordinates is calculated by plotting the chromaticity coordinates of the corresponding feature point candidates on the a * b * plane, and the feature point Ti whose calculated distance is equal to or less than the allowable value ε4 is stored in the table α ( (See FIG. 12).
図11に、色情報の評価に用いる色情報の算出方法を示す。
通常、デジタルカメラ等で撮影され、現像された画像データのRGB値は、色空間が規定されている。最も一般的なsRGB色空間の場合は、図11の変換式(10)を用いて、RGBデータからCIE XYZ空間の色度値に変換される。更に、図11の変換式(20)を用いて白色点の色度(観察照明条件)を規定することにより、CIE L*a*b*空間の色度値に変換される。
FIG. 11 shows a method for calculating color information used for evaluating color information.
Usually, a color space is defined for RGB values of image data photographed and developed by a digital camera or the like. In the case of the most common sRGB color space, the RGB data is converted into chromaticity values in the CIE XYZ space using the conversion formula (10) in FIG. Furthermore, by defining the chromaticity (observation illumination condition) of the white point using the conversion equation (20) in FIG. 11, the white point is converted into a chromaticity value in the CIE L * a * b * space.
なお、図10では、評価に用いる色情報としてL*a*b*を用いる場合を示したが、明度と色情報を分離可能な他の様々な色空間(L*u*v*、HSV、HLS、YCbCr等)を用いるようにしてもよい。 FIG. 10 shows the case where L * a * b * is used as the color information used for the evaluation. However, various other color spaces (L * u * v *, HSV, HLS, YCbCr, etc.) may be used.
これら3つの評価処理(対応特徴点候補同士の座標値、連結数、色情報の評価)が終了すると、各評価処理での結果(評価情報)に基づいて、テーブルαへの登録候補となった特徴点Tiを順位付けし、順位が上位(例えば、1位〜6位まで)の特徴点がテーブルαに登録されることにより、テーブルαが作成される。例えば、座標ずれ(式(1)の距離Δijの値)が小さく、連結数の差が小さく、色相差θ又は色度座標間の距離が小さくなるほど、テーブルαでの順位は上位となる。 When these three evaluation processes (evaluation of coordinate values of corresponding feature point candidates, the number of connections, and color information) are completed, the candidate for registration in the table α is obtained based on the result (evaluation information) in each evaluation process. The feature points Ti are ranked, and the feature points with higher ranks (for example, 1st to 6th) are registered in the table α, thereby creating the table α. For example, the coordinates shift (Equation (1) distance Δ value of ij) of small, the difference in coupling number is small, as the distance between the hue difference θ or chromaticity coordinates decreases, position on a table α becomes higher.
図12に、画像1と画像2の対応特徴点候補を順位付けしたテーブルαの一例を示す。図12によると、画像2の特徴点S1の対応特徴点候補として、画像1の特徴点T2が最も上位に位置し、画像1の中に、画像2の特徴点S5に対応する特徴点が存在しないことを示している。
FIG. 12 shows an example of the table α in which the corresponding feature point candidates of the
上記3つの評価処理及びテーブルαの作成処理と並行して、各々の撮影画像内の各特徴点について、特徴点から一定距離以内に位置する近傍特徴点(一般に複数)が探索される。次いで、撮影画像同士で、特徴点とその近傍特徴点との位置関係を評価する処理(以下、位置関係評価処理と呼ぶ。)が行われる。 In parallel with the three evaluation processes and the table α creation process, for each feature point in each captured image, a neighboring feature point (generally a plurality) located within a certain distance from the feature point is searched. Next, a process of evaluating the positional relationship between the feature points and their neighboring feature points (hereinafter referred to as a positional relationship evaluation process) is performed between the captured images.
基準画像の特徴点(注目特徴点:Sj)とその近傍特徴点に対して、それぞれテーブルαに登録された対応特徴点候補(Ti)が存在する(存在しない場合もある)。位置関係評価処理では、SjとSkが近傍関係にある場合、Sjの対応特徴点候補Tiと、Skの対応特徴点候補Tlの全ての組み合わせ(Ti、Tl)について、その位置関係が、基準画像の注目特徴点とその近傍特徴点との位置関係に一致するか否かが判断される。テーブルαの例において、画像2の特徴点S3とS4が近傍関係にあった場合、S3の対応特徴点候補T3、T4、T1に対して、S4の対応特徴点候補T4、T2があるため、6通りの組み合わせについての位置関係が評価される。
Corresponding feature point candidates (Ti) registered in the table α exist for feature points of the reference image (attention feature point: Sj) and their neighboring feature points (may not exist). In the positional relationship evaluation process, when Sj and Sk are in a close relationship, the positional relationship of all combinations (Ti, Tl) of the corresponding feature point candidate Ti of Sj and the corresponding feature point candidate Tl of Sk is the reference image. It is determined whether or not the current feature point matches the positional relationship between the feature point and its neighboring feature points. In the example of the table α, when the feature points S3 and S4 of the
図13に示すように、基準画像(画像2)の注目特徴点とその近傍特徴点の座標をそれぞれ、(x1,y1)、(x2,y2)とし(図13(a))、注目特徴点の対応特徴点候補とその近傍特徴点の座標をそれぞれ、(x’1,y’1)、(x’2,y’2)とする(図13(b))。位置関係評価処理では、式(2)に示す評価値が用いられる。
位置関係評価処理では、式(2)又は式(3)に示した評価値が許容値ε5以下である場合に、該当する対応特徴点候補の組み合わせについてカウントアップされる。図14に、対応特徴点候補のカウント情報を表すテーブルβの一例を示す。図12のテーブルαにおいて、基準画像の特徴点S3とその近傍特徴点S4の位置関係と、S3の対応特徴点候補T3とその近傍特徴点T2との位置関係の評価値が許容値ε5以下である場合、図14のように、該当するテーブル情報がカウントアップ(+1)される。 In the positional relationship evaluation process, when the evaluation value shown in Expression (2) or Expression (3) is the allowable value ε5 or less, the corresponding combination of corresponding feature point candidates is counted up. FIG. 14 shows an example of the table β representing the count information of the corresponding feature point candidates. In the table α in FIG. 12, the evaluation value of the positional relationship between the feature point S3 of the reference image and its neighboring feature point S4 and the positional relationship between the corresponding feature point candidate T3 of S3 and its neighboring feature point T2 is less than or equal to the allowable value ε5. In some cases, the corresponding table information is counted up (+1) as shown in FIG.
テーブルα及びテーブルβが作成されると、テーブルαの順位情報及びテーブルβのカウント情報に基づいて、被写体の同一点に対応する対応特徴点があるか否かが判定され、対応特徴点があると判定された場合、対応特徴点が1点決定される。この対応特徴点の決定方法は、座標ずれによる評価情報と、近傍特徴点との位置関係による評価情報のどちらを優先的に使用するかに応じて2通りに分類される。 When the tables α and β are created, whether or not there is a corresponding feature point corresponding to the same point of the subject is determined based on the rank information of the table α and the count information of the table β, and there is a corresponding feature point. Is determined, one corresponding feature point is determined. The corresponding feature point determination method is classified into two types depending on which of the evaluation information based on the coordinate shift and the evaluation information based on the positional relationship with the neighboring feature points is used preferentially.
座標ずれによる評価情報を優先的に用いる場合、図15(a)に示すように、まず、テーブルβでカウント値が0でない対応特徴点候補が選ばれ、その選ばれた対応特徴点候補のうち、テーブルαで最も上位にある(即ち、座標ずれが最も小さい)対応特徴点候補が対応特徴点として決定される。 When the evaluation information based on the coordinate shift is used preferentially, as shown in FIG. 15A, first, a corresponding feature point candidate whose count value is not 0 is selected in the table β, and among the selected corresponding feature point candidates, The corresponding feature point candidate at the top of the table α (that is, the smallest coordinate deviation) is determined as the corresponding feature point.
近傍特徴点との位置関係による評価情報を優先的に用いる場合、図15(b)に示すように、テーブルαで登録済みの対応特徴点候補のうち、テーブルβでカウント値が最大である対応特徴点候補が対応特徴点として決定される。 When the evaluation information based on the positional relationship with neighboring feature points is used preferentially, as shown in FIG. 15B, among the corresponding feature point candidates registered in the table α, the correspondence with the maximum count value in the table β. Feature point candidates are determined as corresponding feature points.
なお、優先的に使用する評価情報は、ユーザによる設定又は状況に応じて切り替え可能である。例えば、特徴点の分布状況の解析やパターンマッチングにより、被写体の動き量及び変形具合等を推定し、例えば、動き量が所定量より小さい場合には、座標ずれによる評価情報(図12(a))を優先的に使用する。 Note that the evaluation information used preferentially can be switched according to the setting or situation by the user. For example, the amount of motion and deformation of the subject are estimated by analyzing the distribution of feature points and pattern matching. For example, when the amount of motion is smaller than a predetermined amount, evaluation information based on coordinate deviation (FIG. 12A) ) Is used preferentially.
〈関連付け処理〉
次に、図16〜図18を参照して、縮小画像の対応特徴点候補が、縮小前画像のどの位置に対応するのかを関連付ける関連付け処理について説明する。
<Association process>
Next, with reference to FIGS. 16 to 18, association processing for associating which position of the corresponding feature point candidate of the reduced image corresponds to which position of the pre-reduction image will be described.
図16に、関連付け処理の一例を示す。図16に示すように縮小率が1/2である場合、縮小前画像には、縮小画像の特徴点に対応する候補点が2×2点あり、この4点の候補点の中から最も適切な点が選択されることになる。従って、n枚の撮影画像で関連付け処理を行う場合、関連付けの組み合わせは4n通りある。 FIG. 16 shows an example of the association process. As shown in FIG. 16, when the reduction ratio is 1/2, the pre-reduction image has 2 × 2 candidate points corresponding to the feature points of the reduced image, and the most appropriate of the four candidate points. The point will be selected. Therefore, when the association process is performed with n photographed images, there are 4 n combinations of associations.
2枚の撮影画像(画像1、画像2)で関連付け処理を行う場合、画像1の縮小前画像の4点の対応特徴点候補と、画像2の縮小前画像の4点の対応特徴点候補をそれぞれ突き合わせると、関連付けの組み合わせは16通りあり、この16通りの組み合わせの中から、対応特徴点として最適な組み合わせが選択される。実際には、図17に示すように、画像1の縮小前画像の対応特徴点候補の画素データI22及びその近傍画素(8画素)の画素データと、画像2の縮小前画像の対応特徴点候補の画素データI’22及びその近傍画素(8画素)の画素データに基づいて、最適な組み合わせが選択される。
When the association processing is performed on two photographed images (
2枚の縮小前画像の対応特徴点候補から最適な組み合わせを選択する方法としては、以下の3つの方法の少なくとも一つを採用することができる。 As a method for selecting the optimum combination from the corresponding feature point candidates of the two pre-reduction images, at least one of the following three methods can be employed.
(a)第1の方法は、2枚の縮小前画像の対応特徴点候補間で、画像データの一致度合いを評価する方法である。この第1の方法では、画像1の対応特徴点候補及びその近傍画素と、画像2の対応特徴点候補及びその近傍画素とのデータ格差が最小になる組み合わせが選択される。具体的には、16通りの組み合わせのうち、式(4)に示すΔ1の値が最小となる組み合わせが選択される。
(b)第2の方法は、2枚の縮小前画像の対応特徴点候補間で、近傍領域のデータ相関性を評価する方法である。具体的には、16通りの組み合わせのうち、式(5)に示すΔ2の値が最大となる組み合わせが選択される。
(c)第3の方法は、2枚の縮小画像の対応特徴点候補間で、各々の画素データの近傍画素に対する特異性を評価する方法である。ここで、特異性とは、画像のエッジやピーク的特徴を有するか否かの性質を示しており、空間フィルタの畳み込み演算等により検出することができる。特徴点は特異性を有するはずであり、図18に示すように、その特異性を検出するための空間フィルタ(例えば、ラプラシアンフィルタ)M(mij、i,j=1,2,3)の畳み込み演算により、その結果が最大となる対応特徴点候補が選択される。 (C) The third method is a method for evaluating the specificity of each pixel data with respect to neighboring pixels between corresponding feature point candidates of two reduced images. Here, the peculiarity indicates the property of whether or not the image has an edge or a peak characteristic, and can be detected by a convolution operation of a spatial filter or the like. The feature point should have specificity, and as shown in FIG. 18, a spatial filter (for example, Laplacian filter) M (m ij , i, j = 1, 2, 3) for detecting the specificity is used. By the convolution operation, the corresponding feature point candidate that maximizes the result is selected.
以上のように、本実施形態の画像処理装置100によれば、同一被写体を撮影して得られた複数の撮影画像同士を対応付ける処理において、多くのパラメータを調整することなく、様々な解像度の撮影画像に対して適切な対応特徴点を得るとともに、処理時間を短縮させることが可能となる。
As described above, according to the
1 画像入力部
2 画像縮小部
3 特徴点抽出部
4 対応特徴点判定部
5 解像度間関連付け部
6 対応特徴点出力部
7 画像解析部
8 条件パラメータ設定部
100 画像処理装置
DESCRIPTION OF
Claims (18)
前記複数の撮影画像の各々を同一の縮小比率で縮小する縮小工程と、
前記縮小された各撮影画像から特徴点を抽出する抽出工程と、
前記抽出された各撮影画像の特徴点同士を対応付ける対応付け工程と、
前記対応付けられた特徴点が、元のサイズの撮影画像のどの位置に対応するのかを関連付ける関連付け工程と、
を含むことを特徴とする画像処理方法。 In an image processing method for extracting feature points from each of a plurality of captured images obtained by photographing the same subject, and associating feature points corresponding to the same point of the subject,
A reduction step of reducing each of the plurality of captured images at the same reduction ratio;
An extraction step of extracting feature points from each reduced photographed image;
An associating step for associating feature points of each of the extracted captured images;
An associating step for associating which position of the photographed image of the original size corresponds to the associated feature point;
An image processing method comprising:
前記関連付け工程では、1段階の関連付け処理で、2倍又は2の累乗倍の画像サイズの撮影画像との関連付けが行われることを特徴とする請求項1〜3の何れか一項に記載の画像処理方法。 The reduction ratio of the one-stage reduction process in the reduction process is a power of 1/2 or 1/2,
The image according to any one of claims 1 to 3, wherein in the associating step, associating with a photographed image having an image size of 2 times or a power of 2 is performed in one step of associating processing. Processing method.
前記縮小工程では、前記決定された縮小比率及び/又は縮小回数の縮小処理が行われることを特徴とする請求項1〜7の何れか一項に記載の画像処理方法。 Including a determination step of determining a reduction ratio and / or the number of reductions with respect to the photographed image according to the image size of the photographed image to be processed;
The image processing method according to claim 1, wherein in the reduction step, reduction processing of the determined reduction ratio and / or number of reductions is performed.
前記解析工程における解析結果に基づいて、前記撮影画像に対する縮小比率及び/又は縮小回数を決定する決定工程と、を含み、
前記縮小工程では、前記決定された縮小比率及び/又は縮小回数の縮小処理が行われることを特徴とする請求項1〜7の何れか一項に記載の画像処理方法。 An analysis process for analyzing a spatial frequency component of a captured image to be processed;
Determining a reduction ratio and / or the number of reductions for the captured image based on the analysis result in the analysis step,
The image processing method according to claim 1, wherein in the reduction step, reduction processing of the determined reduction ratio and / or number of reductions is performed.
前記複数の撮影画像の各々を同一の縮小比率で縮小する縮小手段と、
前記縮小された各撮影画像から特徴点を抽出する抽出手段と、
前記抽出された各撮影画像の特徴点同士を対応付ける対応付け手段と、
前記対応付けられた特徴点が、元のサイズの撮影画像のどの位置に対応するのかを関連付ける関連付け手段と、
を備えることを特徴とする画像処理装置。 In an image processing apparatus that extracts feature points from each of a plurality of captured images obtained by photographing the same subject, and associates feature points corresponding to the same point of the subject.
Reduction means for reducing each of the plurality of captured images at the same reduction ratio;
Extraction means for extracting feature points from each reduced photographed image;
Associating means for associating feature points of each of the extracted captured images;
Associating means for associating which position of the associated feature point corresponds to the position of the captured image of the original size;
An image processing apparatus comprising:
前記関連付け手段は、1段階の関連付け処理で、2倍又は2の累乗倍の画像サイズの撮影画像との関連付けを行うことを特徴とする請求項10〜12の何れか一項に記載の画像処理装置。 The reduction ratio of the one-stage reduction process by the reduction means is a power of 1/2 or 1/2,
The image processing according to any one of claims 10 to 12, wherein the associating means performs associating with a captured image having an image size that is twice or a power of 2 in one-step association processing. apparatus.
前記縮小手段は、前記決定された縮小比率及び/又は縮小回数の縮小処理を行うことを特徴とする請求項10〜16の何れか一項に記載の画像処理装置。 In accordance with the image size of the captured image to be processed, the image processing apparatus includes a determination unit that determines a reduction ratio and / or the number of reductions for the captured image
The image processing apparatus according to claim 10, wherein the reduction unit performs a reduction process of the determined reduction ratio and / or the number of reductions.
前記解析手段による解析結果に基づいて、前記撮影画像に対する縮小比率及び/又は縮小回数を決定する決定手段と、を備え、
前記縮小手段は、前記決定された縮小比率及び/又は縮小回数の縮小処理を行うことを特徴とする請求項10〜16の何れか一項に記載の画像処理装置。 An analysis means for analyzing a spatial frequency component of a captured image to be processed;
Determination means for determining a reduction ratio and / or the number of reductions for the captured image based on the analysis result by the analysis means,
The image processing apparatus according to claim 10, wherein the reduction unit performs a reduction process of the determined reduction ratio and / or the number of reductions.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005112048A JP2006293602A (en) | 2005-04-08 | 2005-04-08 | Image processing method and image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005112048A JP2006293602A (en) | 2005-04-08 | 2005-04-08 | Image processing method and image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006293602A true JP2006293602A (en) | 2006-10-26 |
Family
ID=37414126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005112048A Pending JP2006293602A (en) | 2005-04-08 | 2005-04-08 | Image processing method and image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006293602A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217053A (en) * | 2007-02-28 | 2008-09-18 | Fuji Xerox Co Ltd | Image processor and image processing program |
JP2009200923A (en) * | 2008-02-22 | 2009-09-03 | Fuji Xerox Co Ltd | Image processing apparatus and program |
-
2005
- 2005-04-08 JP JP2005112048A patent/JP2006293602A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217053A (en) * | 2007-02-28 | 2008-09-18 | Fuji Xerox Co Ltd | Image processor and image processing program |
JP2009200923A (en) * | 2008-02-22 | 2009-09-03 | Fuji Xerox Co Ltd | Image processing apparatus and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5699788B2 (en) | Screen area detection method and system | |
JP6701118B2 (en) | Image processing apparatus and image processing method | |
US6714689B1 (en) | Image synthesizing method | |
EP2833288B1 (en) | Face calibration method and system, and computer storage medium | |
US20190220685A1 (en) | Image processing apparatus that identifies object and method therefor | |
JP4375322B2 (en) | Image processing apparatus, image processing method, program thereof, and computer-readable recording medium recording the program | |
JP4001162B2 (en) | Image processing method, image processing program and storage medium therefor, and image processing apparatus | |
TW201437925A (en) | Object identification device, method, and storage medium | |
JP2011097251A (en) | Image processor, image processing method, image processing program, and recording medium with image processing program recorded thereon | |
JPWO2009020047A1 (en) | Composition analysis method, image apparatus having composition analysis function, composition analysis program, and computer-readable recording medium | |
JP2010041417A (en) | Image processing unit, image processing method, image processing program, and imaging apparatus | |
WO2018147059A1 (en) | Image processing device, image processing method, and program | |
JP2011008704A (en) | Image processing apparatus, image processing method and program | |
JP2011165043A (en) | Image processing device | |
KR101624801B1 (en) | Matting method for extracting object of foreground and apparatus for performing the matting method | |
JPWO2015145917A1 (en) | Image correction apparatus, image correction method, and program | |
JP2018137636A (en) | Image processing device and image processing program | |
JP2007115109A (en) | Image processor and processing method, program and storage medium | |
JPH10149449A (en) | Picture division method, picture identification method, picture division device and picture identification device | |
JP2006293600A (en) | Image processing method, image processor, and image composition processor | |
JP4682782B2 (en) | Image processing device | |
JP2006293602A (en) | Image processing method and image processor | |
JP6006675B2 (en) | Marker detection apparatus, marker detection method, and program | |
TWI384418B (en) | Image processing method and system using regionalized architecture | |
JP6478282B2 (en) | Information terminal device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20070827 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20080221 |