JPH1083442A - Picture synthesis method - Google Patents
Picture synthesis methodInfo
- Publication number
- JPH1083442A JPH1083442A JP23767196A JP23767196A JPH1083442A JP H1083442 A JPH1083442 A JP H1083442A JP 23767196 A JP23767196 A JP 23767196A JP 23767196 A JP23767196 A JP 23767196A JP H1083442 A JPH1083442 A JP H1083442A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- reduced
- images
- corresponding point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像合成方法に関
し、特に、互いに画像の一部が重複する2つの画像を合
成することにより、画角の広い画像を形成する画像合成
方法に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing method, and more particularly, to an image synthesizing method for forming an image having a wide angle of view by synthesizing two images whose images partially overlap each other. .
【0002】[0002]
【従来の技術】従来より、互いに画像の一部が重複する
2つの画像から画角の広い画像を形成する方法として
は、2つの画像の重複する領域内の同一な点が一致する
ように、前記2つの画像に対してアフィン変換等の幾何
変換を施して前記2つの画像を平面上でつなぎ合わせる
方法が知られている。2. Description of the Related Art Conventionally, as a method of forming an image having a wide angle of view from two images whose images partially overlap each other, the same point in an overlapping area of the two images coincides with each other. There is known a method of performing geometric transformation such as affine transformation on the two images and joining the two images on a plane.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上記従
来の方法においては、2つの画像の重複する領域を認識
し、2つの画像中の同一な点(以下、対応点と称す)を
抽出する必要があり、その手法として、例えば、合成し
ようとする2つの画像をディスプレイ上に表示し、マウ
ス等を操作することにより2つの画像中の対応点をカー
ソルで指定する方法等が考えられるが、この方法の場合
は、操作が手動であるため操作性が悪く、また操作する
に当たっては熟練を要するという問題がある。However, in the above-described conventional method, it is necessary to recognize an overlapping area between two images and extract the same point (hereinafter referred to as a corresponding point) in the two images. There is a method of displaying two images to be combined on a display and operating a mouse or the like to specify a corresponding point in the two images with a cursor. In the case of (1), there is a problem that the operability is poor because the operation is manual, and that the operation requires skill.
【0004】そこで、2つの画像中の対応点を自動的に
抽出する方法として、一方の画像を小領域に分割し、分
割されたそれぞれの小領域を他方の画像と比較し、該小
領域それぞれに対して他方の画像中で最も似た領域を対
応点とするテンプレートマッチング法がある。Therefore, as a method of automatically extracting corresponding points in two images, one image is divided into small regions, each divided small region is compared with the other image, and each of the small regions is compared with each other. In contrast, there is a template matching method in which the most similar area in the other image is a corresponding point.
【0005】しかしながら、このテンプレートマッチン
グ法の場合には、合成しようとする2つの画像の重複す
る領域が指定されていないと、2つの画像の重複する領
域以外の領域で誤った対応点を抽出してしまい、対応点
の抽出精度が悪くなってしまう。そして、このように対
応点の抽出精度が悪い場合には、2つの画像を正確につ
なげることができない。[0005] However, in the case of the template matching method, if an overlapping area of two images to be combined is not specified, an erroneous corresponding point is extracted in an area other than the overlapping area of the two images. As a result, the extraction accuracy of the corresponding points deteriorates. Then, when the extraction accuracy of the corresponding points is poor, the two images cannot be connected accurately.
【0006】また、テンプレートマッチング法の場合に
は、合成しようとする2つの画像の重複する領域を指定
する際に、他方の画像中における対応点の探索領域とし
て指定する領域が広いと、該他方の画像中に似通った部
分が多く存在する場合には、正確な対応点を抽出するの
に時間がかかってしまい、迅速に2つの画像をつなげる
ことができないといった問題が生じてしまう。[0006] In the case of the template matching method, when an overlapping area of two images to be combined is specified, if the area specified as a search area for a corresponding point in the other image is wide, the other If there are many similar parts in the image, it takes time to extract an accurate corresponding point, and a problem arises that two images cannot be connected quickly.
【0007】本発明は、例えば入力される複数の画像デ
ータが示す複数の画像の輝度成分のレベルに差がある場
合でも、面倒な操作を必要とせず、しかも短い処理時間
で、自動的に複数の画像を画像の継ぎ目があまりずれず
に、精度良く合成することができる画像合成方法を提供
することを目的とする。According to the present invention, for example, even when there is a difference between the levels of the luminance components of a plurality of images represented by a plurality of input image data, a complicated operation is not required, and a plurality of images are automatically processed in a short processing time. It is an object of the present invention to provide an image synthesizing method capable of synthesizing the image with high accuracy without causing the seam of the image to be shifted so much.
【0008】[0008]
【課題を解決するための手段】上述の目的を達成するた
め、本出願に係る第1の発明としての画像合成方法は、
互いに一部が重複している画像領域を有する複数の画像
を合成し、一つの合成画像を作成する方法であって、そ
れぞれが複数の画像に対応している複数の画像データを
入力し、入力された前記複数の画像データが示す複数の
画像を互いに異なる縮小率にて段階的にそれぞれ縮小
し、それぞれが形成された縮小画像を示す複数の縮小画
像データを形成する縮小画像データ形成ステップと、前
記縮小画像データ形成ステップにおいて形成された縮小
画像データについて、最も縮小率が高い縮小画像を示す
縮小画像データから、入力された前記複数の画像データ
が示す画像と同じサイズの画像を示す等倍画像データま
で順番に、それぞれが示す画像間における対応点を段階
的に抽出する対応点抽出ステップと、前記対応点抽出ス
テップにおいて抽出された対応点に従って、画像合成変
換を行なうために必要な各種パラメータを設定するパラ
メータ設定ステップと、前記パラメータ設定ステップに
おいて設定された各種パラメータが、前記対応点抽出ス
テップにおいて縮小画像データが示す縮小画像について
設定されたものである場合には、前記対応点抽出ステッ
プにおいて既に抽出された対応点や前記パラメータ設定
ステップにおいて設定された各種パラメータを用いて、
縮小率が1段高い縮小画像データが示す複数の縮小画像
の重複部を予測し、前記複数の縮小画像のうちの一つの
縮小画像から対応点を求めるための小領域をテンプレー
トとして設定し、前記対応点抽出ステップにおいて縮小
率が1段高い縮小画像データが示す複数の縮小画像間に
おける対応点の抽出を行なわせ、前記対応点抽出ステッ
プにおいて等倍画像データが示す画像について設定され
たものである場合には、前記パラメータ設定ステップに
おいて設定された各種パラメータに従って、入力された
前記複数の画像データが示す複数の画像のうちの少なく
とも一つの画像を変換し、他の画像と合成する画像変換
合成ステップとを有することを特徴とする。In order to achieve the above-mentioned object, an image synthesizing method according to a first aspect of the present invention includes:
A method of synthesizing a plurality of images having image areas partially overlapping each other to create one synthesized image, and inputting a plurality of image data each corresponding to a plurality of images, A reduced image data forming step of reducing a plurality of images indicated by the plurality of image data in a stepwise manner at different reduction ratios to form a plurality of reduced image data indicating the reduced images formed respectively; For the reduced image data formed in the reduced image data forming step, from the reduced image data indicating the reduced image having the highest reduction ratio, to the same size image indicating an image of the same size as the image indicated by the input plurality of image data A corresponding point extracting step of sequentially extracting corresponding points between the images indicated by the data, and extracting the corresponding points in the corresponding point extracting step. A parameter setting step of setting various parameters necessary for performing image synthesis conversion according to the corresponding points, and a reduced image indicated by the reduced image data in the corresponding point extracting step. If it is set for, using the corresponding points already extracted in the corresponding point extraction step and various parameters set in the parameter setting step,
Predicting an overlapping portion of a plurality of reduced images indicated by reduced image data whose reduction ratio is one step higher, setting a small area as a template for obtaining a corresponding point from one reduced image of the plurality of reduced images, In the corresponding point extracting step, a corresponding point is extracted from among a plurality of reduced images indicated by reduced image data having a reduction ratio one step higher, and the corresponding point is set for an image indicated by the same size image data in the corresponding point extracting step. In the case, according to various parameters set in the parameter setting step, an image conversion / combining step of converting at least one of a plurality of images indicated by the plurality of input image data and combining with another image And characterized in that:
【0009】また、上記本出願に係る第2の発明として
の画像合成方法は、互いに一部が重複している画像領域
を有する複数の画像を合成し、一つの合成画像を作成す
る方法はであって、それぞれが複数の画像に対応してい
る複数の画像データを入力し、入力された前記複数の画
像データが示す複数の画像を互いに異なる縮小率にて段
階的にそれぞれ縮小し、それぞれが形成された縮小画像
を示す複数の縮小画像データを形成する縮小画像データ
形成ステップと、上前記縮小画像データ形成ステップに
おいて形成された縮小画像データについて、該縮小画像
の特徴点を抽出し、特徴点縮小画像を形成する特徴点縮
小画像形成ステップと、前記特徴点画像形成ステップに
おいて形成された特徴点縮小画像データについて、最も
縮小率が高い縮小画像を示す特徴点縮小画像データか
ら、入力された前記複数の画像データが示す画像と同じ
サイズの特徴点画像を示す特徴点等倍画像データまで順
番に、それぞれが示す特徴点画像間における対応点を段
階的に抽出する対応点抽出ステップと、前記対応点抽出
ステップにおいて抽出された対応点に従って、画像合成
変換を行なうために必要な各種パラメータを設定するパ
ラメータ設定ステップと、前記パラメータ設定ステップ
において設定された各種パラメータが、前記対応点抽出
ステップにおいて特徴点縮小画像データが示す特徴点縮
小画像について設定されたものである場合には、前記対
応点抽出ステップにおいて既に抽出された対応点や前記
パラメータ設定ステップにおいて設定された各種パラメ
ータを用いて、縮小率が1段高い特徴点縮小画像データ
が示す複数の特徴点縮小画像の重複部を予測し、前記複
数の特徴点縮小画像のうちの一つの特徴点縮小画像から
対応点を求めるための小領域をテンプレートとして設定
し、前記対応点抽出ステップにおいて縮小率が1段高い
特徴点縮小画像データが示す複数の特徴点縮小画像間に
おける対応点の抽出を行なわせ、前記対応点抽出ステッ
プにおいて特徴点等倍画像データが示す画像について設
定されたものである場合には、前記パラメータ設定ステ
ップにおいて設定された各種パラメータに従って、入力
された前記複数の画像データが示す複数の画像のうちの
少なくとも一つの画像を変換し、他の画像と合成する画
像変換合成ステップとを有することを特徴とする。The image synthesizing method according to the second aspect of the present invention is a method of synthesizing a plurality of images having image areas partially overlapping each other to create one synthesized image. A plurality of image data, each corresponding to a plurality of images, are input, and the plurality of images indicated by the input plurality of image data are reduced stepwise at different reduction rates, and each of the plurality of images is reduced. A reduced image data forming step of forming a plurality of reduced image data indicating the formed reduced image; and a feature point of the reduced image is extracted from the reduced image data formed in the upper reduced image data forming step. A feature point reduced image forming step of forming a reduced image; and a reduction of the feature point reduced image data formed in the feature point image formation step, the reduction rate being the highest. Corresponding points between the feature point images indicated in order from feature point reduced image data indicating an image to feature point equal-size image data indicating a feature point image having the same size as the image indicated by the plurality of input image data A corresponding point extraction step of extracting step by step, a parameter setting step of setting various parameters necessary for performing image synthesis conversion according to the corresponding points extracted in the corresponding point extraction step, and a setting step of the parameter setting step. If the set various parameters are set for the feature point reduced image indicated by the feature point reduced image data in the corresponding point extraction step, the corresponding points already extracted in the corresponding point extraction step and the parameter setting Using the various parameters set in the step, the reduction ratio is one step higher Predicting an overlapping portion of the plurality of reduced feature point images indicated by the reduced image data, setting a small area for obtaining a corresponding point from one reduced feature point image of the plurality of reduced reduced feature points as a template, In the corresponding point extraction step, a corresponding point is extracted from a plurality of reduced feature point images represented by the reduced feature point image data having a reduction ratio one step higher. If it is set, according to various parameters set in the parameter setting step, convert at least one of the plurality of images indicated by the plurality of input image data, and other images And an image conversion / combining step of combining.
【0010】(作用)上述の様にすることにより、面倒
な操作を必要とせず、しかも短い処理時間で、自動的に
複数の画像を精度良く合成することができる様になる。(Operation) By the above-mentioned operation, a plurality of images can be automatically synthesized with high accuracy without a troublesome operation and with a short processing time.
【0011】[0011]
(第1の実施の形態)図1に、本発明の第1の実施の形
態における画像合成装置の構成を示す。(First Embodiment) FIG. 1 shows a configuration of an image synthesizing apparatus according to a first embodiment of the present invention.
【0012】図中において、入力端子10a,10bは
それぞれ合成しようとする画像を示す画像データa及び
画像データbであり、不図示の電子スチルカメラ、ビデ
オカメラ等で画像の一部が重複するように撮像されるこ
とにより発生されたもので、例えば画像データaは図2
のaに示すような画像に対応し,画像データbは図2の
bに示すような画像に対応している。In the figure, input terminals 10a and 10b are image data a and image data b, respectively, indicating an image to be synthesized, and are not shown so that a part of the image may be overlapped by an electronic still camera, a video camera or the like (not shown). For example, the image data a is generated by being imaged in FIG.
The image data b corresponds to an image as shown in FIG. 2B.
【0013】11,12は画像縮小部であり、入力され
る画像データa,bから該画像データa,bが示す画像
のサイズに対して、例えば1/2倍,1/4倍,1/8
倍といったように画像のサイズを縮小した縮小画像に対
応する縮小画像データを階層的に形成するもので、形成
された縮小画像データは、該画像縮小部11,12内の
画像メモリに格納される。Numerals 11 and 12 denote image reduction units, for example, from input image data a and b to に 対 し て times, 倍 times and 1 / times of the size of the image indicated by the image data a and b. 8
The reduced image data corresponding to the reduced image obtained by reducing the size of the image such as double is hierarchically formed, and the formed reduced image data is stored in the image memories in the image reduction units 11 and 12. .
【0014】20は対応点抽出部であり、入力端子10
a,10bより入力された画像データa,bあるいは前
記画像縮小部11,12において形成された縮小画像デ
ータが示すそれぞれの画像の中から、それぞれの画像間
の対応点を抽出するものである。Reference numeral 20 denotes a corresponding point extracting unit, and the input terminal 10
A corresponding point between the respective images is extracted from the image data a, b input from a, 10b or the respective images indicated by the reduced image data formed in the image reduction units 11, 12.
【0015】30は対応点ベクトル選択部であり、前記
対応点抽出部20で抽出された対応点が示す対応点ベク
トルのうち、信頼性の高い対応点ベクトルのみ選択して
出力するものである。Reference numeral 30 denotes a corresponding point vector selecting unit which selects and outputs only a highly reliable corresponding point vector from the corresponding point vectors indicated by the corresponding points extracted by the corresponding point extracting unit 20.
【0016】40はパラメータ推定部であり、前記対応
点ベクトル選択部30において選択された対応点ベクト
ルから画像の座標変換を行う座標変換パラメータを推定
するものである。Reference numeral 40 denotes a parameter estimating unit for estimating a coordinate conversion parameter for performing coordinate conversion of an image from the corresponding point vector selected by the corresponding point vector selecting unit 30.
【0017】50は画像変換合成部であり、入力される
画像データa,bを前記パラメータ推定部40において
推定された座標変換パラメータにしたがって座標変換
し、合成することにより、一つの合成画像を示す合成画
像データcを形成するものである。Reference numeral 50 denotes an image conversion / synthesis unit, which performs coordinate conversion on the input image data a and b in accordance with the coordinate conversion parameters estimated by the parameter estimating unit 40 and synthesizes the data, thereby indicating one synthesized image. The composite image data c is formed.
【0018】なお、以上の画像合成装置全体の制御は不
図示の制御部で行われるように構成されている。The control of the whole image synthesizing apparatus is performed by a control unit (not shown).
【0019】以下、入力される画像データa,bから合
成画像データcを形成する場合の本発明の第1の実施の
形態における画像合成装置の動作を説明する。The operation of the image synthesizing apparatus according to the first embodiment of the present invention in the case where the synthesized image data c is formed from the input image data a and b will be described below.
【0020】尚、本実施の形態では、入力される画像デ
ータa,bはそれぞれ、512×512画素の濃淡画像
を示す画像データとして以下説明を行う。In the present embodiment, input image data a and b will be described below as image data representing a gray image of 512 × 512 pixels.
【0021】まず、この入力された画像データa,bは
それぞれ画像縮小部11,12において該画像データ
a,bが示す画像のサイズに対して、例えば1/2倍,
1/4倍,1/8倍といったように画像のサイズを縮小
した縮小画像に対応する縮小画像データ、すなわち、そ
れぞれ256×256画素,128×128画素,64
×64画素の画像サイズの縮小画像データに縮小される
(これらの縮小画像データを以下a2,b2,a4,b
4,a8,b8とする)。First, the input image data a and b are, for example, 1 / times the size of the image indicated by the image data a and b in the image reduction units 11 and 12, respectively.
Reduced image data corresponding to a reduced image obtained by reducing the size of the image such as 4 times or 8 times, that is, 256 × 256 pixels, 128 × 128 pixels, 64
It is reduced to reduced image data of an image size of × 64 pixels (these reduced image data are hereinafter referred to as a2, b2, a4, b
4, a8, b8).
【0022】対応点抽出部20では、まず最初に、入力
される画像データa,bが示す画像のサイズに対して1
/8倍の縮小画像を示す縮小画像データa8,b8につ
いて対応点抽出を行い、次に順次1/4倍,1/2倍、
等倍の画像のサイズの縮小画像データについて対応点抽
出を行う。なお、1/4倍,1/2倍、等倍の画像のサ
イズの縮小画像データのそれぞれについて対応点抽出を
行う際には、後述するように、その前に行われた対応点
抽出に基づき形成された変換パラメータを用いて重複部
における予測が行われる。First, the corresponding point extracting unit 20 sets the size of the image indicated by the input image data a and b to 1
Corresponding points are extracted from reduced image data a8 and b8 indicating a / 8-times reduced image, and then, 1 / times, 倍 times,
Corresponding point extraction is performed on reduced image data of the same size of the image. When extracting corresponding points for each of the reduced image data having the size of 1/4, 1/2 and 1 times, the corresponding points are extracted based on the corresponding points extracted before that as described later. The prediction in the overlapping portion is performed using the formed conversion parameters.
【0023】以下、図3に示すフローチャートに従っ
て、対応点抽出部20における対応点抽出アルゴリズム
について説明する。Hereinafter, the corresponding point extraction algorithm in the corresponding point extraction unit 20 will be described with reference to the flowchart shown in FIG.
【0024】図3において、s21で、まず縮小画像デ
ータa8についてテンプレート切り出し領域の設定を行
う。ところで、縮小画像データa8,b8に対して対応
点抽出を行う場合には、予め2つの縮小画像の重複領域
がわかっていないので、所定の領域をテンプレート切り
出し領域として設定する。In FIG. 3, at s21, a template cutout area is first set for the reduced image data a8. By the way, when the corresponding points are extracted from the reduced image data a8 and b8, a predetermined region is set as a template cutout region because the overlapping region of the two reduced images is not known in advance.
【0025】本実施の形態では、図2に示すように入力
された画像データa,bが示す入力画像が左,右の順で
並んでいる場合には、例えば画像の水平方向については
右端の3割、画像の垂直方向については1割から9割の
領域を、左側の縮小画像データa8におけるテンプレー
ト切り出し領域(図4中の領域T)とする。In the present embodiment, when the input images indicated by the input image data a and b are arranged in the order of left and right as shown in FIG. 2, for example, the right end in the horizontal direction of the image is used. An area of 30% and 10% to 90% in the vertical direction of the image is defined as a template cutout area (area T in FIG. 4) in the reduced image data a8 on the left side.
【0026】次に、図3のs22において、図3のs2
1において設定されたテンプレート切り出し領域から図
4中の破線で示すように、すなわち、1つのブロックの
大きさが元の画像サイズの1割程度、すなわち7×7画
素程度のブロックをテンプレートとして切り出す。Next, at s22 of FIG. 3, s2 of FIG.
As shown by the broken line in FIG. 4, that is, a block whose size of one block is about 10% of the original image size, that is, about 7 × 7 pixels is cut out from the template cutout area set in 1 as a template.
【0027】なお、入力された画像データa,bが示す
入力画像が、上,下の順で並んでいる場合には、画像の
垂直方向については下端から3割、画像の水平方向につ
いて1割から9割の領域を、上側の縮小画像データa8
におけるテンプレート切り出し領域として設定し、テン
プレートの切り出しを行うものとする。When the input images indicated by the input image data a and b are arranged in the order of top and bottom, 30% from the bottom in the vertical direction of the image and 10% from the bottom in the horizontal direction of the image. From the reduced image data a8 on the upper side
It is assumed that the template is set as the template cutout area in and the template is cut out.
【0028】以上のように、図3のs22において切り
出された全てのテンプレートについて以下のs23〜s
25の処理を行う。As described above, for all templates cut out in s22 of FIG.
25 is performed.
【0029】図3のs23では、上述のようにして切り
出されたテンプレートそれぞれについて、右側の縮小画
像データb8が示す画像における対応点を探索するため
の探索領域を設定する。ところで、縮小画像データa
8,b8に対して対応点抽出を行う場合には、予め2つ
の縮小画像の重複領域がわかっていないので、所定の領
域を対応点の探索領域として設定する。In s23 of FIG. 3, for each template cut out as described above, a search area for searching for a corresponding point in the image indicated by the reduced image data b8 on the right side is set. By the way, reduced image data a
When the corresponding points are extracted for b8 and b8, a predetermined area is set as a corresponding point search area because the overlapping area of the two reduced images is not known in advance.
【0030】本実施の形態では、上述のようにして前記
左側の縮小画像データa8において切り出される複数の
テンプレートのうちの任意のテンプレートに対する右側
の縮小画像データb8における対応点の探索領域とし
て、画像の水平方向については左端から前記任意のテン
プレートが存在する位置から当該テンプレートのサイズ
の5割程度左にずらした位置までの領域、画像の垂直方
向については前記任意のテンプレートが存在する位置を
当該テンプレートのサイズの1割程度上下した領域を、
右側の縮小画像データb8における探索領域として設定
する。In the present embodiment, as described above, a search area for a corresponding point in the right reduced image data b8 with respect to an arbitrary template among a plurality of templates cut out from the left reduced image data a8 is used. In the horizontal direction, the area from the left end to the position shifted from the position where the arbitrary template exists by about 50% of the size of the template to the left, and in the vertical direction of the image, the position where the arbitrary template exists is defined as the position of the template. The area about 10% of the size up and down,
It is set as a search area in the reduced image data b8 on the right side.
【0031】図5に右側の縮小画像データb8における
対応点の探索領域の一例を示す(図5中、左側の縮小画
像データa8の斜線で示したテンプレートに対応する右
側の縮小画像データb8における対応点の探索領域を領
域Sで示した)。FIG. 5 shows an example of a search area for a corresponding point in the right reduced image data b8 (corresponding to the right reduced image data b8 corresponding to the hatched template of the left reduced image data a8 in FIG. 5). The point search area is indicated by area S).
【0032】なお、この対応点の探索領域の設定は、入
力された画像データa,bが示す画像の重複領域が水平
方向については入力画像サイズの5割以下で、垂直方向
については入力画像サイズの上下1割以上は、ずれない
という条件に基づいており、入力された画像データa,
bが示す画像に想定される重複領域の条件が、当該条件
と異なる場合は、この対応点の探索領域の初期設定を変
えればよい。The setting of the search area for the corresponding point is such that the overlapping area of the image indicated by the input image data a and b is 50% or less of the input image size in the horizontal direction, and the input image size in the vertical direction. Are based on the condition that there is no shift, and the input image data a,
If the condition of the overlap area assumed in the image indicated by b is different from the condition, the initial setting of the search area of the corresponding point may be changed.
【0033】図3のs24では、上述のようにして設定
された右側の縮小画像データb8における対応点の探索
領域内の画像と左側の縮小画像データa8における任意
のテンプレートが示す画像とを該任意のテンプレートの
位置を順次ずらしながら比較して行き、当該テンプレー
トが示す画像と対応点の探索領域内の画像とにおいてぞ
れぞれの画像を構成している画素同士の差分値が算出さ
れ、該差分値の絶対値の総和が最小となるテンプレート
の位置を対応点として検出する。In s24 of FIG. 3, the image in the search area for the corresponding point in the right reduced image data b8 set as described above and the image indicated by an arbitrary template in the left reduced image data a8 are compared with the arbitrary image. The position of the template is sequentially shifted and compared, and a difference value between pixels constituting each image in the image indicated by the template and the image in the search area of the corresponding point is calculated. The position of the template where the sum of the absolute values of the difference values is minimum is detected as the corresponding point.
【0034】なお、本実施の形態では、差分の絶対値の
総和が最小となるテンプレートの位置を対応点として検
出したが、例えばテンプレートが示す画像と対応点の探
索領域内の画像とにおいて相関演算を行って、該相関演
算の結果、相関値が最大となるテンプレートの位置を対
応点として検出するようにしてもよい。In this embodiment, the position of the template at which the sum of the absolute values of the differences is minimum is detected as the corresponding point. For example, the correlation calculation is performed between the image indicated by the template and the image in the search area for the corresponding point. And the position of the template at which the correlation value becomes maximum as a result of the correlation operation may be detected as the corresponding point.
【0035】図3のs25では、s24において検出さ
れた対応点に対する信頼性の判定を行う。なお、信頼性
の判定は上述の差分値の絶対値の総和が最小となるテン
プレートの位置と、上述の差分値の絶対値の総和が2番
目に小さくなるテンプレートの位置とを用いて行われ
る。At s25 in FIG. 3, the reliability of the corresponding point detected at s24 is determined. Note that the reliability is determined using the position of the template where the sum of the absolute values of the difference values is the smallest and the position of the template where the sum of the absolute values of the difference values is the second smallest.
【0036】すなわち、本実施の形態の場合は、前記差
分値の絶対値の総和の最小値が所定の閾値以下であり、
且つ前記最小値と前記差分値の絶対値の総和が2番目に
小さい値との差が所定の閾値以上であった場合には、検
出された当該対応点は信頼性があるものと判定し、縮小
画像データa8,b8が示す画像において抽出された対
応点の座標に関するデータを対応点抽出部20内部のメ
モリに格納しておく。That is, in the case of this embodiment, the minimum value of the sum of the absolute values of the difference values is equal to or less than a predetermined threshold value,
And if the difference between the minimum value and the sum of the absolute values of the difference values is the second smallest value is equal to or greater than a predetermined threshold value, it is determined that the detected corresponding point is reliable, Data relating to the coordinates of the corresponding points extracted in the images indicated by the reduced image data a8 and b8 is stored in the memory inside the corresponding point extracting unit 20.
【0037】以上s23からs25までの処理は、s2
6において全てのテンプレートにおける処理が完了した
ことが検出されるまで、前記s21において切り出され
た各テンプレートにおいて夫々行われる。The processing from s23 to s25 is performed in s2
Until it is detected in 6 that the processing in all the templates is completed, the processing is performed for each template cut out in s21.
【0038】次に、対応点ベクトル選択部30の処理に
ついて説明する。Next, the processing of the corresponding point vector selecting section 30 will be described.
【0039】対応点ベクトル選択部30では、まず、前
記対応点抽出部20で抽出され内部のメモリに格納され
ている縮小画像データa8、b8が示す画像において抽
出されたそれぞれの対応点の座標に関するデータを読み
出し、読み出されたデータが示すそれぞれの座標の水平
方向及び垂直方向の差を計算することにより対応点ベク
トルを算出し、算出された全ての対応点ベクトルのヒス
トグラムを座標の水平方向、垂直方向それぞれについて
作成する。そして、作成された対応点ベクトルのヒスト
グラムを座標の水平方向及び垂直方向それぞれにおい
て、最も出現頻度の高い範囲に属する対応点ベクトルの
みを選択し、選択された対応点ベクトルに関するデータ
を次段のパラメータ推定部40に出力する。In the corresponding point vector selecting section 30, first, the coordinates of each corresponding point extracted in the image indicated by the reduced image data a8 and b8 extracted by the corresponding point extracting section 20 and stored in the internal memory are obtained. Read the data, calculate the corresponding point vector by calculating the difference between the horizontal direction and the vertical direction of the respective coordinates indicated by the read data, and calculate the histogram of all the calculated corresponding point vectors in the horizontal direction of the coordinates, Create for each vertical direction. Then, in the horizontal direction and the vertical direction of the coordinates, only the corresponding point vectors belonging to the most frequently occurring range are selected from the histogram of the created corresponding point vectors, and the data related to the selected corresponding point vectors are converted into the parameters of the next stage. Output to the estimation unit 40.
【0040】以上のように、対応点ベクトル選択部30
では、最も出現頻度の高い範囲に属する対応点ベクトル
のみを選択することにより、前記対応点抽出部20にお
いて誤った対応点が抽出されても、より信頼性の高い対
応点ベクトルに関するデータのみをパラメータ推定部4
0に出力することができる。As described above, the corresponding point vector selection unit 30
By selecting only the corresponding point vectors belonging to the most frequently occurring range, even if an erroneous corresponding point is extracted in the corresponding point extracting unit 20, only the data relating to the more reliable corresponding point vector is used as a parameter. Estimation unit 4
0 can be output.
【0041】そして、パラメータ推定部40では、前記
対応点ベクトル選択部30から供給される対応点ベクト
ルに関するデータが示す縮小画像データa8,b8の対
応点の座標から、座標変換パラメータを推定する。The parameter estimating unit 40 estimates the coordinate conversion parameters from the coordinates of the corresponding points of the reduced image data a8 and b8 indicated by the data on the corresponding point vectors supplied from the corresponding point vector selecting unit 30.
【0042】尚、座標変換パラメータの推定について
は、後に詳細に説明する。The estimation of the coordinate conversion parameters will be described later in detail.
【0043】なお、上述のようにして得られた入力画像
の1/8倍の画像サイズの縮小画像を示す縮小画像デー
タa8,b8について求められた対応点ベクトルに関す
るデータは、次に行う入力画像の1/4倍の画像サイズ
の縮小画像を示す縮小画像データa4,b4の対応点抽
出処理において2つの縮小画像の重複領域を予測する際
に用いられる。The data relating to the corresponding point vectors obtained for the reduced image data a8 and b8 representing the reduced image having an image size 1/8 times the size of the input image obtained as described above is the input image to be executed next. This is used when predicting an overlapping area of two reduced images in corresponding point extraction processing of reduced image data a4 and b4 indicating reduced images having an image size that is times the image size.
【0044】すなわち、縮小画像データa8,b8につ
いて求められた対応点ベクトルに関するデータは、パラ
メータ推定部40において水平方向、垂直方向それぞれ
について平均値が算出され、縮小画像データa4,b4
の対応点抽出処理において2つの縮小画像の重複領域を
予測する際に用いるため、対応点抽出部20に出力され
る。That is, the data relating to the corresponding point vectors obtained for the reduced image data a8 and b8 are averaged in the horizontal and vertical directions by the parameter estimating section 40, and the reduced image data a4 and b4 are calculated.
Are output to the corresponding point extracting unit 20 for use in predicting the overlapping area of the two reduced images in the corresponding point extracting process.
【0045】また、1/4倍,1/2倍の画像サイズの
縮小画像を示す縮小画像データについて求められた対応
点ベクトルに関するデータも同様に次に行う画像データ
の対応点抽出処理において2つの画像の重複領域を予測
する際に用いられる。Similarly, data relating to the corresponding point vector obtained with respect to the reduced image data representing the reduced image having the image size of 4 times and 2 times the two corresponding points in the corresponding point extraction processing of the next image data. It is used when predicting an overlapping area of an image.
【0046】そして、以上のようにして縮小画像データ
a8,b8の座標変換パラメータがパラメータ推定部4
0から出力されたら、対応点抽出部20では1/4倍の
画像サイズの縮小画像を示す縮小画像データa4,b4
に対して対応点抽出を行う。As described above, the coordinate conversion parameters of the reduced image data a8 and b8 are
When output from 0, the corresponding point extracting unit 20 generates reduced image data a4, b4 indicating a reduced image having a 1 / 4-fold image size.
Corresponding points are extracted.
【0047】なお、入力画像の1/4倍の画像サイズの
縮小画像を示す縮小画像データa4,b4についての対
応点抽出部20の対応点抽出アルゴリズムは、前記図3
に示したものとほぼ同様であるが、図3のs21におけ
るテンプレート切り出し領域の設定、s23における対
応点の探索領域の設定には、前記パラメータ推定部40
から出力される入力画像の1/8倍の画像サイズの縮小
画像を示す縮小画像データa8,b8の対応点ベクトル
に関するデータの座標の水平方向、垂直方向それぞれに
ついての平均値が用いられる。Note that the corresponding point extraction algorithm of the corresponding point extraction unit 20 for the reduced image data a4 and b4 indicating a reduced image having an image size 1/4 times that of the input image is shown in FIG.
However, the setting of the template cutout area in s21 and the setting of the corresponding point search area in s23 in FIG.
The average value in the horizontal direction and the vertical direction of the coordinates of the data regarding the corresponding point vector of the reduced image data a8 and b8 indicating the reduced image having an image size 1/8 times as large as the input image output from is used.
【0048】図6は縮小画像データa4についてのテン
プレート切り出し領域の設定方法を説明するための図で
ある。FIG. 6 is a diagram for explaining a method of setting a template cutout area for reduced image data a4.
【0049】図3のs21におけるテンプレート切り出
し領域の設定は、前記パラメータ推定部40から出力さ
れる対応点ベクトルに関するデータの座標の水平方向、
垂直方向それぞれについての平均値(図6中の矢印)を
示すデータから、縮小画像データa4が示す縮小画像に
おける重複領域(図6中の斜線部分)を予測し、予測さ
れた縮小画像データa4が示す縮小画像の重複領域から
該縮小画像データa4についてのテンプレート切り出し
領域の左端、上端、下端の位置の設定し、テンプレート
の切り出しを行う。The setting of the template cut-out area in s21 of FIG. 3 is performed in the horizontal direction of the coordinates of the data relating to the corresponding point vector output from the parameter estimating unit 40.
From the data indicating the average value in each of the vertical directions (arrows in FIG. 6), an overlapping area (shaded portion in FIG. 6) in the reduced image indicated by the reduced image data a4 is predicted, and the predicted reduced image data a4 is obtained. From the overlapping area of the reduced image shown, the positions of the left end, the upper end, and the lower end of the template cutout area for the reduced image data a4 are set, and the template is cut out.
【0050】図7は縮小画像データb4についての対応
点の探索領域の設定方法を説明するための図である。FIG. 7 is a diagram for explaining a method of setting a search area for a corresponding point for reduced image data b4.
【0051】図3のs23ではs21で切り出された複
数のテンプレートそれぞれについて、縮小画像データa
4が示す画像におけるテンプレートが存在する位置から
前記パラメータ推定部40から供給される前記縮小画像
データa8,b8の対応点ベクトルに関するデータの座
標の水平方向、垂直方向それぞれの平均値分だけシフト
した点(図7中の矢印の先)を設定し、設定された点を
中心に上下左右の方向に所定の幅(例えば、上下左右の
方向にそれぞれ5画素分)の領域(図7中の領域S′)
のみ対応点の探索領域として設定する。In s23 of FIG. 3, the reduced image data a is set for each of the plurality of templates cut out in s21.
4 is a point shifted from the position where the template exists in the image indicated by 4 by the average value in the horizontal and vertical directions of the coordinates of the data on the corresponding point vector of the reduced image data a8 and b8 supplied from the parameter estimating unit 40. (Points of arrows in FIG. 7) are set, and a predetermined width (for example, 5 pixels in each of up, down, left, and right directions) in the vertical and horizontal directions around the set point (the area S in FIG. 7). ′)
Only the corresponding point is set as a search area.
【0052】以下、1/4倍の画像サイズの縮小画像を
示す縮小画像データa4,b4について、対応点抽出、
対応点ベクトルの選択、パラメータ推定が前記1/8倍
の画像サイズの縮小画像を示す縮小画像データa8,b
8の場合と同様に行われる。Hereinafter, corresponding point extraction is performed on reduced image data a4 and b4 indicating reduced images of 1/4 times the image size.
Reduced image data a8, b indicating selection of corresponding point vectors and parameter estimation indicating a reduced image having an image size of 1/8 of the aforementioned size
8 is performed in the same manner.
【0053】また、入力画像の1/2倍、及び等倍の画
像サイズの画像を示す画像データについての対応点抽出
処理も、上述の1/4倍の画像サイズの縮小画像を示す
縮小画像データの場合と同様にして行われ、入力画像の
1/2倍の画像サイズの画像を示す画像データa2,b
2についての対応点抽出、対応点ベクトルの選択、パラ
メータ推定が順次行われ、次に、入力画像の等倍の画像
サイズの画像を示す画像データa,bについての対応点
抽出処理、対応点ベクトルの選択、パラメータ推定が順
次階層的に行われる。The corresponding point extraction processing for image data representing an image having an image size of 1/2 and 1 times the size of the input image is also performed in the reduced image data representing a reduced image having a 1/4 time image size. Is performed in the same manner as in the case of (a), and image data a2 and b
2, corresponding point extraction, selection of a corresponding point vector, and parameter estimation are sequentially performed. Next, corresponding point extraction processing is performed on image data a and b indicating images of the same size as the input image. And parameter estimation are sequentially performed hierarchically.
【0054】ところで、上述の処理において、入力画像
の等倍の画像サイズの画像を示す画像データa,bに対
しては、後処理として行われる画像変換合成処理でアフ
ィン変換による座標変換を行うため、座標の水平方向、
垂直方向の対応点ベクトルが一定の範囲に入るとは限ら
ないので、ヒストグラムによる対応点ベクトルの選択は
行わなくてもよい。By the way, in the above-described processing, image data a and b indicating images of the same size as the input image are subjected to coordinate transformation by affine transformation in image transformation / combination processing performed as post-processing. , The horizontal direction of the coordinates,
Since the corresponding point vector in the vertical direction does not always fall within a certain range, the selection of the corresponding point vector based on the histogram need not be performed.
【0055】ここで、パラメータ推定処理について詳細
に説明する。Here, the parameter estimation processing will be described in detail.
【0056】上述のようにして入力された画像データ
a,bが示す2つの画像についての座標変換パラメータ
が得られた後、最後に画像変換合成部50において、入
力された画像データa,bがパラメータ推定部40にお
いて推定された座標変換パラメータにしたがって座標変
換され、1つの画像に合成される。After the coordinate conversion parameters for the two images represented by the input image data a and b are obtained as described above, finally, the input image data a and b are Coordinate conversion is performed according to the coordinate conversion parameters estimated by the parameter estimating unit 40, and the images are combined into one image.
【0057】なお、このとき行われる座標変換としては
アフィン変換で、入力された画像データa,bが示す画
像のサイズの等倍の画像についての対応点ベクトルに関
するデータから座標変換パラメータを推定する際には、
パラメータ推定部40は対応点ベクトルに関するデータ
の平均値ではなく、以下の方法によりアフィン変換のパ
ラメータを出力する。The coordinate transformation performed at this time is an affine transformation, and a coordinate transformation parameter is estimated from data on a corresponding point vector of an image of the same size as the image represented by the input image data a and b. In
The parameter estimating unit 40 outputs the parameters of the affine transformation by the following method instead of the average value of the data on the corresponding point vector.
【0058】今、入力画像データaが示す画像に対して
入力画像データbが示す画像がθ回転、(dx,dy)
平行移動、m倍の拡大変換した関係にあるとすると、入
力画像データaが示す画像中の点(xa,xa)は以下
の式(1)の入力画像データbが示す画像中の点(x
b,yb)に対応する。Now, the image indicated by the input image data b is rotated by θ with respect to the image indicated by the input image data a, (dx, dy)
Assuming that the relationship has been obtained by performing parallel translation and magnifying conversion by a factor of m, the point (xa, xa) in the image indicated by the input image data a is the point (x) in the image indicated by the input image data b in the following equation (1).
b, yb).
【0059】 xb=(cosθ・xa+sinθ・ya−dx)×m =A・xa+B・ya+C yb=(−sinθ・xa+cosθ・ya−dy)×m =−B・xa+A・ya+D ただし、A=m・cosθ,B=m・sinθ, C=−m・dx,D=−m・dy ・・・式(1)Xb = (cos θ · xa + sin θ · ya−dx) × m = A · xa + B · ya + C yb = (− sin θ · xa + cos θ · ya−dy) × m = −B · xa + A · ya + D where A = m · cos θ , B = m · sin θ, C = −m · dx, D = −m · dy (1)
【0060】このときのパラメータA,B,Cをパラメ
ータ推定部40で最小自乗法により推定する。The parameters A, B, and C at this time are estimated by the parameter estimating unit 40 by the least square method.
【0061】ただし、上記パラメータをパラメータ推定
部40で推定するには、対応点の座標が最低二対必要で
あるが、対応点の座標が一対しか求まらなかった場合に
は、入力画像の1/2倍の画像サイズの縮小画像を示す
縮小画像データについての対応点ベクトルの平均値を平
行移動パラメータとして設定すればよい。すなわち、入
力画像の1/2倍の画像サイズの縮小画像を示す縮小画
像データについての対応点ベクトルの平均値を(ax,
ay)とすると、以下の式(2)に示すパラメータが平
行移動パラメータとして設定される。However, in order to estimate the above parameters by the parameter estimating unit 40, at least two pairs of coordinates of corresponding points are required. However, if only one pair of coordinates of corresponding points is obtained, the input image What is necessary is just to set the average value of the corresponding point vector with respect to the reduced image data indicating the reduced image of the 1/2 image size as the translation parameter. That is, the average value of the corresponding point vectors for reduced image data representing a reduced image having an image size that is 倍 the size of the input image is represented by (ax,
ay), the parameter shown in the following equation (2) is set as the translation parameter.
【0062】 A=1,B=0,C=−ax,D=−ay ・・・式(2)A = 1, B = 0, C = −ax, D = −ay Expression (2)
【0063】また、対応点の座標が一対も求まらなかっ
た場合は、以後の処理を行えないので、例えばモニター
画面上にその旨を示すメッセージ等を表示し、操作者に
知らせると共に、合成処理動作を終了する。If no pair of coordinates of the corresponding point is found, the subsequent processing cannot be performed. For example, a message indicating the fact is displayed on the monitor screen to inform the operator and to combine The processing operation ends.
【0064】なお、本実施の形態におけるパラメータ推
定部40では、入力画像の等倍の画像サイズを示す画像
に対してはアフィン変換パラメータ、それ以外の縮小画
像に対しては平行移動パラメータを推定出力している
が、入力画像の等倍の画像サイズを示す画像、縮小画像
ともにアフィン変換パラメータを推定出力するようにし
てもよい。The parameter estimating unit 40 according to the present embodiment estimates and outputs an affine transformation parameter for an image having the same size as the input image and a translation parameter for other reduced images. However, the affine transformation parameter may be estimated and output for both the image showing the same size as the input image and the reduced image.
【0065】そして、画像変換合成部50では、図8に
示すアルゴリズムに従って合成画像データcが形成され
る。Then, in the image conversion / synthesis unit 50, synthesized image data c is formed in accordance with the algorithm shown in FIG.
【0066】図8のs51では、まず合成画像データc
が示す合成画像の画像領域の設定を行う。In s51 of FIG. 8, first, the synthesized image data c
The image area of the composite image indicated by is set.
【0067】本実施の形態では画像領域を、入力された
画像データaが示す画像の座標系を基準とし、図9にお
いて破線で示す領域のように設定する。すなわち、画像
領域の左端は画像データaが示す画像の左端座標とし、
右端は画像データbが示す画像の右上端および右下端の
画素を画像データaが示す画像の座標に変換して求めた
座標のうちの大きい方の座標値とする。尚、画像データ
bが示す画像の座標を画像データaが示す画像の座標に
変換するには、前記式(1)のアフィン変換の逆変換を
用いる。すなわち、逆変換のパラメータをA′,B′,
C′,D′とすると以下に示す式(3)の変換を行うこ
とになる。In this embodiment, the image area is set as shown by a broken line in FIG. 9 with reference to the coordinate system of the image indicated by the input image data a. That is, the left end of the image area is the left end coordinate of the image indicated by the image data a,
The right end is the larger one of the coordinates obtained by converting the upper right end and lower right pixels of the image indicated by the image data b into the coordinates of the image indicated by the image data a. In order to convert the coordinates of the image represented by the image data b into the coordinates of the image represented by the image data a, the inverse transformation of the affine transformation of the above equation (1) is used. That is, the parameters of the inverse transformation are A ', B',
If C 'and D' are used, the conversion of the following equation (3) is performed.
【0068】 xa=A′・xb+B′・yb+C′ ya=−B′・xb+A′・yb+D′ ただし、A′=A/(A2 +B2 ),B′=−B/(A2 +B2 ), C′=(−A・C+B・D)/(A2 +B2 ), D′=(−B・C−A・D)/(A2 +B2 ) ・・・式(3)Xa = A ′ · xb + B ′ · yb + C ′ ya = −B ′ · xb + A ′ · yb + D ′ where A ′ = A / (A 2 + B 2 ) and B ′ = − B / (A 2 + B 2 ) , C ′ = (− A · C + B · D) / (A 2 + B 2 ), D ′ = (− B · C−A · D) / (A 2 + B 2 ) Equation (3)
【0069】また、合成画像データcが示す合成画像の
上端は画像データaが示す画像の上端座標値および画像
データbが示す画像の右上端および左上端の画素を画像
データaが示す画像の座標に変換して求めた座標のうち
小さい方の座標値、下端は画像データaが示す画像の下
端座標値および画像データbが示す画像の右下端および
左下端の画素を画像データaが示す画像の座標に変換し
て求めた座標のうち大きい方の座標値とする。The upper end of the composite image indicated by the composite image data c is the upper end coordinate value of the image indicated by the image data a, and the upper right and upper left pixels of the image indicated by the image data b are the coordinates of the image indicated by the image data a. The lower coordinate is the lower coordinate value of the image represented by the image data a, and the lower right coordinate and the lower left pixel of the image represented by the image data b are those of the image represented by the image data a. The larger coordinate value of the coordinates obtained by converting the coordinates is used.
【0070】次に、図8のs52では、継ぎ目の位置が
重複部の中心となるよう図9の点線Lで示すように設定
する。すなわち、画像データaが示す画像の右端座標値
と、画像データbが示す画像の左上端および左下端の画
素を画像データaが示す画像の座標に変換して求めた座
標のうち小さい方の座標値との平均値を継ぎ目の位置と
する。Next, in s52 of FIG. 8, the position of the joint is set as indicated by a dotted line L in FIG. That is, the smaller coordinate of the right end coordinate value of the image indicated by the image data a and the coordinates obtained by converting the upper left and lower left pixels of the image indicated by the image data b into the coordinates of the image indicated by the image data a The average value is used as the seam position.
【0071】図8のs53ではs51で設定した合成画
像データcが示す画像領域におけるそれぞれの画素値を
求め、メモリ領域に書き込む。In s53 of FIG. 8, each pixel value in the image area indicated by the composite image data c set in s51 is obtained and written in the memory area.
【0072】図8のs54では、合成画像データcが示
す画像領域内の画像データaが示す画像領域について
は、前記合成画像データcが示す画像領域に対応したメ
モリ領域のうちの前記画像データaが示す画像領域に対
応したメモリ領域に該画像データaが示す画素値をその
まま書き込む。At s54 in FIG. 8, the image area indicated by the image data a in the image area indicated by the composite image data c is the image data a of the memory area corresponding to the image area indicated by the composite image data c. The pixel value indicated by the image data a is directly written into the memory area corresponding to the image area indicated by.
【0073】そして、図8のs55では、合成画像デー
タcが示す画像領域内の座標変換された画像データbが
示す画像領域については、前記合成画像データcが示す
画像領域に対応したメモリ領域のうちの前記座標変換さ
れた画像データbが示す画像領域に対応したメモリ領域
に、該座標変換された画像データbが示す画素値をその
まま書き込む。このとき、すでに画像データaが示す画
素値が書き込まれていた場合は、継ぎ目の位置より右に
あるものについてのみ書き込むようにする。In s55 of FIG. 8, the image area indicated by the coordinate-converted image data b in the image area indicated by the composite image data c is stored in the memory area corresponding to the image area indicated by the composite image data c. The pixel value indicated by the coordinate-transformed image data b is directly written into a memory area corresponding to the image area indicated by the coordinate-converted image data b. At this time, if the pixel value indicated by the image data a has already been written, only the pixel value to the right of the joint position is written.
【0074】このようにして求めた合成画像データcが
示す合成画像は、図10に示すようになる。なお、図1
0中で斜線で示した部分は入力された画像データa,b
が示す画像の何れからも対応する画素が割当てられない
領域である為、例えば白画素等のダミー画素を割り当て
ればよい。The composite image indicated by the composite image data c thus obtained is as shown in FIG. FIG.
The hatched portions in 0 indicate input image data a and b.
Is a region where a corresponding pixel is not assigned from any of the images indicated by..., For example, a dummy pixel such as a white pixel may be assigned.
【0075】以上、本実施の形態における画像変換合成
部50では、画像の重複する領域には、画像a,bの何
れかの画像データを割り当てるようにしたが、画像デー
タa,bの画素値の単なる平均値を求め割り当てたり、
画像データa,bの画素値に例えば水平方向に可変に重
みを付けた上で、平均値を求め割り当ててもよい。As described above, in the image conversion / combination unit 50 according to the present embodiment, any one of the image data a and b is assigned to the overlapping area of the image. Calculate the average value of
The pixel values of the image data a and b may be variably weighted in the horizontal direction, for example, and then the average value may be obtained and assigned.
【0076】そして、画像変換合成部50において形成
された合成画像データcは表示装置、プリンタ装置等に
出力される。Then, the composite image data c formed in the image conversion / combination section 50 is output to a display device, a printer device or the like.
【0077】また、本実施の形態では、それぞれが濃淡
画像を示す2つの画像に対応した画像データを合成する
場合を対象に説明したが、本発明は、カラー画像を示す
2つの画像に対応した画像データを合成する場合にも適
用でき、その際には、例えば2つの画像の対応点抽出を
行うときに、カラー画像を構成するR(赤),G
(緑),B(青)の各成分を示す画像のうち、G成分を
示す画像のみを用いて対応点抽出を行ったり、R,G,
Bの3つの成分の平均値を示す画像を形成し、形成され
た画像を用いて対応点抽出を行ったりすることにより、
本発明を容易に適応することができる。Although the present embodiment has been described with respect to a case where image data corresponding to two images each representing a grayscale image are combined, the present invention is applicable to two images representing a color image. The present invention can also be applied to a case where image data is combined. In this case, for example, when extracting corresponding points of two images, R (red), G
Of the images indicating the (green) and B (blue) components, corresponding points are extracted using only the image indicating the G component, or R, G,
By forming an image showing the average value of the three components of B, and performing corresponding point extraction using the formed image,
The present invention can be easily adapted.
【0078】また、本実施の形態では、電子スチルカメ
ラ、ビデオカメラ等で撮像されることにより発生される
2つの画像に対応した画像データを合成する場合を対象
に説明したが、本発明は、コンピュータ等で生成された
所謂CG(コンピュータ・グラフィック)画像データを
合成する場合にも適用できることを言うまでもない。Further, the present embodiment has been described with respect to a case where image data corresponding to two images generated by being picked up by an electronic still camera, a video camera, or the like is synthesized. It goes without saying that the present invention is also applicable to a case where so-called CG (computer graphic) image data generated by a computer or the like is synthesized.
【0079】以上説明したように、本実施形態における
画像合成装置によれば、複数の画像における同一な対応
点をポインタ等で指定するといった面倒な操作を必要と
せず、複数の画像を自動的に精度良く合成することがで
きる。As described above, according to the image synthesizing apparatus of the present embodiment, it is not necessary to perform a troublesome operation of designating the same corresponding point in a plurality of images with a pointer or the like, and a plurality of images can be automatically converted. It can be synthesized with high accuracy.
【0080】また、本実施形態における画像合成装置で
は、複数の画像のうちの1つの画像から対応点を求める
ために用いる小領域をテンプレートとして切り出すテン
プレート切り出し領域を限定する様にしたので、複数の
画像の重複領域外において、誤った対応点を抽出してし
まうことがなく、複数の画像を精度良く合成することが
できる。Further, in the image synthesizing apparatus according to the present embodiment, the template cut-out area for cutting out a small area used for obtaining a corresponding point from one of a plurality of images as a template is limited. A plurality of images can be synthesized with high accuracy without erroneous corresponding points being extracted outside the overlapping region of the images.
【0081】また、本実施形態における画像合成装置で
は、パラメータ推定部より出力される情報を用いて、複
数の画像のうちの1つの画像から対応点を求めるために
用いる小領域をテンプレートとして切り出すテンプレー
ト切り出し領域に対応する対応点を他の画像から探索す
るための探索領域を限定する様にしたので、短い処理時
間で複数の画像を合成することができ、複数の画像の中
に似通った部分が多く存在しても、正確に対応点を抽出
することができ、複数の画像を精度良く合成することが
できる。In the image synthesizing apparatus according to the present embodiment, a template for extracting a small area used for obtaining a corresponding point from one of a plurality of images as a template by using information output from the parameter estimating unit. Since the search area for searching the corresponding point corresponding to the cut-out area from other images is limited, a plurality of images can be combined in a short processing time, and a similar part in the plurality of images is used. Even if there are many, the corresponding points can be accurately extracted, and a plurality of images can be synthesized with high accuracy.
【0082】また、本実施形態における画像合成装置で
は、縮小画像についての対応点の抽出結果を用いて、複
数の画像のうちの1つの画像から対応点を求めるために
用いる小領域をテンプレートとして切り出すテンプレー
ト切り出し領域に対応する対応点を他の画像から探索す
るための探索領域を限定する様にしたので、短い処理時
間で複数の画像を合成することができ、複数の画像の中
に似通った部分が多く存在しても、正確に対応点を抽出
することができ、複数の画像を精度良く合成することが
できる。Further, in the image synthesizing apparatus according to the present embodiment, a small area used for obtaining a corresponding point from one of a plurality of images is cut out as a template by using a result of extracting the corresponding point from the reduced image. Since the search area for searching the corresponding point corresponding to the template cut-out area from other images is limited, a plurality of images can be synthesized in a short processing time, and a similar part in the plurality of images can be obtained. Can be accurately extracted, and a plurality of images can be synthesized with high accuracy.
【0083】更に、本実施形態における画像合成装置で
は、画像合成を行なう継ぎ目付近で多くの対応点を抽出
するようにしているので、合成された画像の継ぎ目にお
けるずれを少なくすることができる。Furthermore, in the image synthesizing apparatus according to the present embodiment, since many corresponding points are extracted near the seam where the image is synthesized, it is possible to reduce the displacement at the seam of the synthesized image.
【0084】(第2の実施の形態)図11に、本発明の
第2の実施の形態における画像合成装置の構成を示す。
尚、図11に示した構成において、前記図1に示した前
記第1の実施の形態としての画像合成装置と同等の機能
を有するものには、同一の付番を付し、詳細な説明は省
略する。(Second Embodiment) FIG. 11 shows a configuration of an image synthesizing apparatus according to a second embodiment of the present invention.
In the configuration shown in FIG. 11, those having the same functions as those of the image synthesizing apparatus according to the first embodiment shown in FIG. 1 are denoted by the same reference numerals, and detailed description thereof will be omitted. Omitted.
【0085】図中において、13,14は特徴点抽出部
であり、画像縮小部11,12より出力される縮小画像
データに対して、該縮小画像データが示す縮小画像のエ
ッジ部分を強調するような処理を行うことにより、特徴
点画像データを形成し、特徴点抽出部13,14内の画
像メモリに格納する。(以下、これらの特徴点画像デー
タをa2′,b2′,a4′,b4′,a8′,b8′
と表わす。)In the figure, reference numerals 13 and 14 denote feature point extraction units for enhancing the edge portions of the reduced image indicated by the reduced image data with respect to the reduced image data output from the image reduction units 11 and 12. By performing various processes, feature point image data is formed and stored in the image memory in the feature point extraction units 13 and 14. (Hereinafter, these feature point image data are referred to as a2 ', b2', a4 ', b4', a8 ', b8'
It is expressed as )
【0086】以上のように、本発明の第2の実施の形態
としての画像合成装置では、画像縮小部11,12には
画像メモリを設けず、次段の特徴点抽出部13,14に
画像メモリを設け、形成された特徴点画像データを格納
するようにしている。尚、特徴点画像データを形成する
ため、本実施の形態では縮小画像データに対して図12
に示す3×3画素の二次元フィルタでコンボリューショ
ン演算処理を施すことにより、該縮小画像データが示す
縮小画像のエッジ部分を強調している。As described above, in the image synthesizing apparatus according to the second embodiment of the present invention, the image reduction units 11 and 12 do not have an image memory, and the next-stage feature point extraction units 13 and 14 store image data. A memory is provided to store the formed feature point image data. Note that, in order to form feature point image data, in the present embodiment, the reduced image data is
By performing a convolution operation with a 3 × 3 pixel two-dimensional filter shown in FIG. 1, the edge portion of the reduced image indicated by the reduced image data is emphasized.
【0087】21は対応点抽出部であり、入力端子10
a,10bより入力された画像データa,bあるいは前
記特徴点抽出部13,14において形成された特徴点画
像データが示す画像の中から、それぞれの画像間の対応
点を抽出するものである。Reference numeral 21 denotes a corresponding point extracting unit, and the input terminal 10
A corresponding point between the respective images is extracted from the image data a, b input from a, 10b or the image indicated by the feature point image data formed by the feature point extraction units 13, 14.
【0088】対応点抽出部21では、まず最初に、入力
される画像データa,bが示す画像のサイズに対して1
/8倍の特徴点画像を示す特徴点画像データa8′,b
8′について対応点抽出を行い、次に順次1/4倍,1
/2倍,等倍の画像サイズの特徴点画像データについて
対応点抽出を行う。なお、1/4倍,1/2倍,等倍の
画像サイズの対応点画像データのそれぞれについて対応
点抽出を行う際には、前記第1の実施の形態と同様に、
その前に行われた対応点抽出に基づき形成された変換パ
ラメータを用いて重複部における予測が行われる。First, the corresponding point extracting section 21 sets the size of the image indicated by the input image data a and b to 1
Feature point image data a8 ', b indicating a feature point image of / 8 times
The corresponding points are extracted for 8 ', and then 1/4 times, 1
Corresponding points are extracted for feature point image data having an image size of / 2 and 1: 1. When the corresponding points are extracted for each of the corresponding point image data having the image size of 1/4, 1/2, and 1: 1, the same as in the first embodiment,
Prediction in the overlapping portion is performed using the conversion parameters formed based on the corresponding point extraction performed before that.
【0089】以下、図13に示すフローチャートに従っ
て、対応点抽出部21における対応点抽出アルゴリズム
について説明する。Hereinafter, the corresponding point extracting algorithm in the corresponding point extracting section 21 will be described with reference to the flowchart shown in FIG.
【0090】図13において、s31で、まず特徴点画
像データa8′についてテンプレート切り出し領域の設
定を行う。ところで、特徴点画像データa8′,b8′
に対して対応点抽出を行う場合には、予め2つの特徴点
画像の重複領域がわかっていないので、前記第1の実施
の形態と同様に、所定の領域をテンプレート切り出し領
域として設定する。In FIG. 13, at s31, a template cutout area is first set for the feature point image data a8 '. By the way, feature point image data a8 ', b8'
When the corresponding point is extracted, the overlapping area of the two feature point images is not known in advance, so that a predetermined area is set as the template cutout area as in the first embodiment.
【0091】そして、図13のs32において切り出さ
れた全てのテンプレート切り出し領域内の全画素につい
て以下のs33〜s36の処理を行う。Then, the following processes s33 to s36 are performed on all the pixels in all the template cutout regions cut out in s32 of FIG.
【0092】s33では特徴点を中心にテンプレート切
り出しを行う。In s33, a template is cut out centering on the feature point.
【0093】つまり、1/8倍の画像サイズの特徴点画
像データa8′について対応点抽出を行う場合には、図
14に示すように、s31において設定されたテンプレ
ート切り出し領域を上下にT1,T2の領域に分割し、
T1,T2それぞれの領域について図中の矢印に沿っ
て、すなわち特徴点画像データa8′の右端から順次処
理を行い、図13のs33〜s36の処理により前記T
1,T2の領域それぞれについて対応点が所定の数抽出
されまで処理が継続される。That is, when corresponding points are extracted from feature point image data a8 'having an image size of 1/8 times, as shown in FIG. 14, the template cutout area set in s31 is vertically moved to T1, T2. Divided into regions
The processing is sequentially performed on the respective areas of T1 and T2 along the arrow in the figure, that is, from the right end of the feature point image data a8 ', and by the processing of s33 to s36 in FIG.
The process is continued until a predetermined number of corresponding points are extracted for each of the regions 1 and T2.
【0094】なお、対応点の抽出を行なうかどうかは、
特徴点画像データa8′が示す特徴点画像の画素値が所
定の閾値以上あるかどうかで判断し、該特徴点画像の画
素値が所定の閾値以上ある場合には、特徴点画像である
ものとして図13のs34〜s36の処理に従って対応
点抽出を行ない、該特徴点画像の画素値が所定の閾値以
上ない場合には、特徴点画像でないものとして、図13
のs34〜s36の処理よる対応点抽出を行わないで、
次の画像サイズの特徴点画像の処理に移る。Whether to extract corresponding points is determined by
It is determined whether or not the pixel value of the feature point image indicated by the feature point image data a8 'is equal to or greater than a predetermined threshold. If the pixel value of the feature point image is equal to or greater than the predetermined threshold, it is determined that the image is a feature point image. Corresponding points are extracted according to the processing of s34 to s36 in FIG. 13. If the pixel value of the feature point image is not equal to or greater than a predetermined threshold, it is determined that the image is not a feature point image.
Without performing the corresponding point extraction by the processing of s34 to s36,
The process proceeds to processing of a feature point image having the next image size.
【0095】また、本実施の形態では、対応点が所定の
数抽出されるまで処理を継続し、該所定の数に達したら
処理を終了するようにしているので、余分な処理時間を
省略し、処理時間を短縮する事ができ、また、特徴点画
像データa8′の右端から順次処理を行うようにしてい
るので、例えば、処理を途中で中断した場合でも、2つ
の画像の継ぎ目付近で対応点を多く抽出できるため、2
つの画像の継ぎ目のずれを少なくすることができ、更
に、テンプレート切り出し領域をあらかじめ上下に分割
しているので、2つの画像の継ぎ目部分を上下でバラン
スよくつなぐ事ができるようになる。In the present embodiment, the processing is continued until a predetermined number of corresponding points are extracted, and the processing is terminated when the predetermined number is reached, so that an unnecessary processing time is omitted. Since the processing time can be shortened and the processing is sequentially performed from the right end of the feature point image data a8 ', for example, even if the processing is interrupted in the middle, the processing is performed near the joint between the two images. Since many points can be extracted, 2
The displacement of the seam between the two images can be reduced, and the template cut-out region is divided into upper and lower parts in advance, so that the seam between the two images can be connected in a well-balanced manner in the upper and lower parts.
【0096】なお、1/4倍,1/2倍の画像サイズの
特徴点画像データについて対応点抽出を行う場合も同様
の処理を行うが、等倍の画像サイズの特徴点画像データ
について対応点抽出を行う場合は、次段の画像変換合成
部50で前記第1の実施の形態と同様に、前記図9で示
したように2つの画像の継ぎ目を設定するので、継ぎ目
付近において対応点を抽出する。なお、2つの画像の継
ぎ目の位置については、前記第1の実施の形態の画像変
換合成部50の動作説明の中で、前記図8のs52の処
理と同等の処理によって算出する。The same processing is performed when extracting corresponding points for feature point image data having 1/4 times and 1/2 times the image size. When the extraction is performed, the seam between the two images is set by the next-stage image conversion / synthesis unit 50 as shown in FIG. 9 in the same manner as in the first embodiment. Extract. The position of the seam between the two images is calculated by the same processing as the processing of s52 in FIG. 8 in the description of the operation of the image conversion / combination unit 50 according to the first embodiment.
【0097】以上のように、2つの画像の継ぎ目の位置
を算出したら、図15に示すように、s31において設
定されたテンプレート切り出し領域を前記継ぎ目の位置
を境に左右にT3,T4の領域に分割し、それぞれの領
域について図中の矢印に沿って、すなわち特徴点画像デ
ータaの継ぎ目の位置(図15中のL′)付近から順次
処理を行う。As described above, when the position of the joint between the two images is calculated, as shown in FIG. 15, the template cutout region set in s31 is divided into regions T3 and T4 on the left and right of the position of the joint. The region is divided, and processing is sequentially performed on each of the regions along the arrow in the drawing, that is, from near the position of the joint (L 'in FIG. 15) of the feature point image data a.
【0098】なお、1/4倍,1/2倍の画像サイズの
特徴点画像データa2′,a4′について対応点抽出を
行う場合も同様にしてテンプレート切り出し領域の設定
を行うが、等倍の画像サイズの画像データaについて対
応点抽出を行う場合、該等倍の画像サイズの画像データ
aには、図11の特徴点抽出部13,14による処理が
行われていないので、前記図12に示した3×3画素の
二次元フィルタでコンボリューション演算処理を施した
後、閾値処理による特徴点抽出を行い、抽出された特徴
点を中心にテンプレートの切り出しを行う。When extracting corresponding points for feature point image data a2 'and a4' having image sizes of 1/4 times and 1/2 times, the template cutout area is set in the same manner. When corresponding points are extracted from image data a having an image size, the image data a having the same size is not subjected to the processing by the feature point extracting units 13 and 14 in FIG. After performing the convolution operation processing with the indicated 3 × 3 pixel two-dimensional filter, feature points are extracted by threshold processing, and a template is cut out around the extracted feature points.
【0099】次に、図13のs34では、s33におい
て切り出されたテンプレートに対応する点を探索する探
索領域を右側の画像データbから設定する。ところで、
1/8倍の画像サイズの特徴点画像a8′,b8′に対
しては、あらかじめ重複領域が分かっていないので、前
記第1の実施の形態と同様に、所定の領域を対応点の探
索領域とし、また、1/4倍,1/2倍,等倍の画像サ
イズの特徴点画像を示す特徴点画像データに対してはパ
ラメータ推定部40から出力される座標変換パラメータ
を用いて前記第1の実施の形態と同様に予測され設定さ
れる。Next, in s34 of FIG. 13, a search area for searching for a point corresponding to the template cut out in s33 is set from the right image data b. by the way,
As for the feature point images a8 'and b8' having an image size of 1/8, the overlapping area is not known in advance, so that the predetermined area is set to the corresponding point search area as in the first embodiment. In addition, for the feature point image data indicating the feature point image having the image size of 4 times, , times, and 1 ×, the first coordinate conversion parameter output from the parameter estimating unit 40 is used. Is predicted and set in the same manner as in the first embodiment.
【0100】図13のs35では上述のようにして設定
された右側の特徴点画像データb8′における対応点の
探索領域内の画像と左側の特徴点画像データa8′にお
けるテンプレートが示す画像とを該テンプレートを平行
に順次ずらしながら比較していき、当該テンプレートが
示す画像と対応点の探索領域内の画像とにおいてそれぞ
れの画像を構成している画素同士の差分値が算出され、
該差分値の絶対値の総和が最小となるテンプレートの位
置を対応点として検出する。In s35 of FIG. 13, the image in the search area for the corresponding point in the right-side feature point image data b8 'set as described above and the image indicated by the template in the left-side feature point image data a8' are displayed. Comparison is performed while sequentially shifting the template in parallel, and a difference value between pixels constituting each image in the image indicated by the template and the image in the search area for the corresponding point is calculated,
The position of the template at which the sum of the absolute values of the difference values is minimum is detected as a corresponding point.
【0101】図13のs36では、s35において検出
された対応点に対する信頼性の判定を行い、抽出された
対応点の座標に関するデータを対応点抽出部21内部の
メモリに格納しておく。In s36 in FIG. 13, the reliability of the corresponding point detected in s35 is determined, and data on the coordinates of the extracted corresponding point is stored in the memory inside the corresponding point extracting unit 21.
【0102】本実施の形態では、縮小画像に対しては特
徴点画像で対応点抽出を行っているので、入力された画
像同士に多少の輝度レベル差が生じていても、該輝度レ
ベル差に影響を受けずに対応点を抽出することができ、
また、入力画像そのものに対する対応点抽出処理は特徴
点画像で行っていないので、画像ノイズを強調すること
なく対応点抽出を行うことができる。In the present embodiment, since the corresponding points are extracted from the reduced image using the feature point image, even if there is a slight difference in luminance level between the input images, the difference in the luminance level can be reduced. The corresponding points can be extracted without being affected,
Further, since the corresponding point extraction processing for the input image itself is not performed on the feature point image, the corresponding point can be extracted without emphasizing image noise.
【0103】本発明の第2の実施形態としての画像合成
装置のその他の部分の動作については、本発明の第1の
実施の形態と同様であるので、説明は省略する。The operation of the other parts of the image synthesizing apparatus according to the second embodiment of the present invention is the same as that of the first embodiment of the present invention, and the description is omitted.
【0104】(第3の実施の形態)図16に、本発明の
第3の実施の形態における画像合成装置の構成を示す。
なお、図16に示した構成において、前記図1に示した
前記第1の実施の形態としての画像合成装置と同等の機
能を有するものには、同一の付番を付し、詳細な説明は
省略する。(Third Embodiment) FIG. 16 shows a configuration of an image synthesizing apparatus according to a third embodiment of the present invention.
In the configuration shown in FIG. 16, those having the same functions as those of the image synthesizing apparatus according to the first embodiment shown in FIG. Omitted.
【0105】すなわち、本実施の形態では、対応点抽出
部22において、対応点ベクトル選択部30から出力さ
れる対応点の座標データを用いて対応点抽出処理を行う
点が異なる。That is, the present embodiment is different from the first embodiment in that the corresponding point extracting unit 22 performs the corresponding point extracting process using the coordinate data of the corresponding points output from the corresponding point vector selecting unit 30.
【0106】そして、本実施の形態は、対応点抽出部2
2における対応点抽出アルゴリズムは図3に示した本発
明の第1の実施の形態と同様であるので、以下、図3に
示すフローチャートに従って、対応点抽出部22におけ
る対応点抽出アルゴリズムについて説明する。In the present embodiment, the corresponding point extracting unit 2
Since the corresponding point extraction algorithm in FIG. 2 is the same as that of the first embodiment of the present invention shown in FIG. 3, the corresponding point extraction algorithm in the corresponding point extraction unit 22 will be described below with reference to the flowchart shown in FIG.
【0107】図3において、s21で、まず縮小画像デ
ータa8についてテンプレート切り出し領域の設定を行
う。そして、s22において切り出された全てのテンプ
レートについて以下のs23〜s25の処理を行う。た
だし、1/4倍、1/2倍、等倍の画像サイズの縮小画
像対応点抽出を行う場合には、それぞれ1/8倍,1/
4倍、1/2倍の画像サイズの縮小画像を示す縮小画像
データに対して行われた対応点抽出により対応点が抽出
できたテンプレートのみにより対応点抽出を行う。In FIG. 3, at s21, a template cutout area is first set for the reduced image data a8. Then, the following processes s23 to s25 are performed for all templates cut out in s22. However, when extracting reduced image corresponding points of 1/4, 1/2, and 1 × image size, 1/8 times, 1 /
Corresponding point extraction is performed using only the template from which the corresponding point can be extracted by the corresponding point extraction performed on the reduced image data indicating the reduced image having the image size of 4 times and 1/2 times.
【0108】図3のs23では、上述のようにして切り
出されたテンプレートそれぞれについて、右側の縮小画
像データb8が示す画像における対応点を探索するため
の探索領域を設定する。ところで、縮小画像データa
8,b8に対して対応点抽出を行う場合には、予め2つ
の縮小画像の重複領域がわかっていないので、前記第1
の実施の形態と同様に、所定の領域を対応点の探索領域
として設定する。また、1/4倍、1/2倍、等倍の画
像サイズの画像を示す縮小画像データに対して対応点を
抽出する場合には、対応点ベクトル選択部30から出力
される対応点の座標に関するデータを参照し、該対応点
の座標位置を中心に上下左右に所定の幅(例えば±5画
素)の領域のみ探索するように探索領域を設定する。In s23 of FIG. 3, for each template cut out as described above, a search area for searching for a corresponding point in the image indicated by the reduced image data b8 on the right side is set. By the way, reduced image data a
When the corresponding points are extracted for 8 and b8, since the overlapping area of the two reduced images is not known in advance,
As in the first embodiment, a predetermined area is set as a corresponding point search area. When extracting a corresponding point from reduced image data indicating an image having an image size of 1/4, 1/2 or 1: 1, the coordinates of the corresponding point output from the corresponding point vector selection unit 30 The search area is set so that only the area of a predetermined width (for example, ± 5 pixels) is searched in the vertical and horizontal directions centering on the coordinate position of the corresponding point with reference to the data regarding the corresponding point.
【0109】図3のs24では、上述のようにして設定
された右側の縮小画像データb8における対応点の探索
領域内の画像と左側の縮小画像データa8における任意
のテンプレートが示す画像とを該任意のテンプレートの
位置を順次ずらしながら比較していき、当該テンプレー
トが示す画像と対応点の探索領域内の画像とにおいてそ
れぞれの画像を構成している画素同士の差分値が算出さ
れ、該差分値の絶対値の総和が最小となるテンプレート
の位置を対応点として検出する。In s24 of FIG. 3, the image in the search area for the corresponding point in the right reduced image data b8 set as described above and the image indicated by an arbitrary template in the left reduced image data a8 are compared with the arbitrary image. Are compared while sequentially shifting the position of the template, a difference value between pixels constituting each image is calculated between the image indicated by the template and the image in the search area of the corresponding point, and the difference value of the difference value is calculated. The position of the template where the sum of the absolute values is minimum is detected as the corresponding point.
【0110】図3のs25では、s24において検出さ
れた対応点に対する信頼性の判定を行い、抽出された対
応点の座標に関するデータを対応点抽出部21内部のメ
モリに格納しておく。In s25 of FIG. 3, the reliability of the corresponding point detected in s24 is determined, and data on the coordinates of the extracted corresponding point is stored in the memory inside the corresponding point extracting unit 21.
【0111】なお、本発明の第3の実施の形態としての
画像合成装置の他の部分の動作についての動作は、本発
明の第1の実施の形態と同様であるので説明は省略す
る。The operation of the other parts of the image synthesizing apparatus according to the third embodiment of the present invention is the same as that of the first embodiment of the present invention, and the description is omitted.
【0112】以上説明したように、本実施形態における
画像合成装置では、対応点ベクトル選択部より出力され
る情報を用いて、複数の画像のうちの1つの画像から対
応点を求めるために用いる小領域をテンプレートとして
切り出すテンプレート切り出し領域に対応する対応点を
他の画像から探索するための探索領域を限定する様にし
たので、更に短い処理時間で複数の画像を合成すること
ができ、複数の画像の中に似通った部分が多く存在して
も、正確に対応点を抽出することができ、複数の画像を
精度良く合成することができる。As described above, the image synthesizing apparatus according to the present embodiment uses the information output from the corresponding point vector selection unit to obtain the small point used to obtain the corresponding point from one of the plurality of images. Since the search area for searching for a corresponding point corresponding to the template cutout area from another image is limited as a template, a plurality of images can be combined in a shorter processing time, and a plurality of images can be synthesized. Even if there are many similar parts, the corresponding points can be accurately extracted, and a plurality of images can be synthesized with high accuracy.
【0113】[0113]
【発明の効果】以上説明したように、本発明の画像合成
方法によれば、例えば入力される複数の画像データが示
す複数の画像の輝度成分のレベルに差がある場合でも、
面倒な操作を必要とせず、しかも短い処理時間で、自動
的に複数の画像を画像の継ぎ目があまりずれずに、精度
良く合成することができる様になる。As described above, according to the image synthesizing method of the present invention, for example, even when there is a difference in the level of the luminance component between a plurality of images indicated by a plurality of input image data,
This makes it possible to automatically combine a plurality of images with high accuracy without any troublesome operation and with a short processing time, without much deviation of the seams of the images.
【図1】本発明の第1の実施の形態としての画像合成装
置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an image composition device according to a first embodiment of the present invention.
【図2】入力画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an input image.
【図3】本発明の第1の実施の形態の対応点抽出部の処
理アルゴリズムを示すフローチャートである。FIG. 3 is a flowchart illustrating a processing algorithm of a corresponding point extracting unit according to the first embodiment of this invention.
【図4】本発明の第1の実施の形態における対応点抽出
でのテンプレートの切り出し方法の説明図である。FIG. 4 is an explanatory diagram of a template extracting method for extracting corresponding points according to the first embodiment of the present invention.
【図5】本発明の第1の実施例の形態における対応点抽
出での探索領域の設定方法の説明図である。FIG. 5 is an explanatory diagram of a method of setting a search area in corresponding point extraction according to the first embodiment of the present invention.
【図6】本発明の第1の実施の形態における対応点抽出
でのテンプレート切り出し領域の設定方法の説明図であ
る。FIG. 6 is an explanatory diagram of a method for setting a template cutout region in corresponding point extraction according to the first embodiment of the present invention.
【図7】本発明の第1の実施例の形態における対応点抽
出での探索領域の設定方法の説明図である。FIG. 7 is an explanatory diagram of a method of setting a search area in corresponding point extraction according to the first embodiment of the present invention.
【図8】本実施の形態の画像変換合成部の処理アルゴリ
ズムを示すフローチャートである。FIG. 8 is a flowchart illustrating a processing algorithm of an image conversion / combination unit according to the present embodiment.
【図9】本実施の形態の画像合成方法の説明図である。FIG. 9 is an explanatory diagram of an image synthesizing method according to the present embodiment.
【図10】本実施の形態の合成画像の一例を示す図であ
る。FIG. 10 is a diagram illustrating an example of a composite image according to the present embodiment.
【図11】本発明の第2実施の形態としての画像合成装
置の構成を示すブロック図である。FIG. 11 is a block diagram illustrating a configuration of an image synthesizing apparatus according to a second embodiment of the present invention.
【図12】本発明の第2実施の形態における二次元フィ
ルタを示す図である。FIG. 12 is a diagram illustrating a two-dimensional filter according to a second embodiment of the present invention.
【図13】本発明の第2実施の形態の対応点抽出部の処
理アルゴリズムを示すフローチャートである。FIG. 13 is a flowchart illustrating a processing algorithm of a corresponding point extraction unit according to the second embodiment of this invention.
【図14】本発明の第2実施の形態における対応点抽出
でのテンプレートの切り出し方法の説明図である。FIG. 14 is an explanatory diagram of a template extracting method for extracting corresponding points according to the second embodiment of the present invention.
【図15】本発明の第2実施の形態における対応点抽出
でのテンプレートの切り出し方法の説明図である。FIG. 15 is an explanatory diagram of a template extracting method for extracting corresponding points according to the second embodiment of the present invention.
【図16】本発明の第3実施例の形態としての画像合成
装置の構成を示すブロック図である。FIG. 16 is a block diagram illustrating a configuration of an image synthesizing apparatus according to a third embodiment of the present invention.
11,12 画像縮小部 13,14 特徴点抽出部 20,21,22 対応点抽出部 30 対応点ベクトル選択部 40 パラメータ推定部 50 画像変換合成部 11,12 Image reduction unit 13,14 Feature point extraction unit 20,21,22 Corresponding point extraction unit 30 Corresponding point vector selection unit 40 Parameter estimation unit 50 Image conversion and synthesis unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 羽鳥 健司 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Kenji Hatori 3-30-2 Shimomaruko, Ota-ku, Tokyo Inside Canon Inc.
Claims (8)
する複数の画像を合成し、一つの合成画像を作成する方
法であってそれぞれが複数の画像に対応している複数の
画像データを入力し、入力された前記複数の画像データ
が示す複数の画像を互いに異なる縮小率にて段階的にそ
れぞれ縮小し、それぞれが形成された縮小画像を示す複
数の縮小画像データを形成する縮小画像データ形成ステ
ップと、 前記縮小画像データ形成ステップにおいて形成された縮
小画像データについて、最も縮小率が高い縮小画像を示
す縮小画像データから、入力された前記複数の画像デー
タが示す画像と同じサイズの画像を示す等倍画像データ
まで順番に、それぞれが示す画像間における対応点を段
階的に抽出する対応点抽出ステップと、 前記対応点抽出ステップにおいて抽出された対応点に従
って、画像合成変換を行なうために必要な各種パラメー
タを設定するパラメータ設定ステップと、 前記パラメータ設定ステップにおいて設定された各種パ
ラメータが、前記対応点抽出ステップにおいて縮小画像
データが示す縮小画像について設定されたものである場
合には、前記対応点抽出ステップにおいて既に抽出され
た対応点や前記パラメータ設定ステップにおいて設定さ
れた各種パラメータを用いて、縮小率が1段高い縮小画
像データが示す複数の縮小画像の重複部を予測し、前記
複数の縮小画像のうちの一つの縮小画像から対応点を求
めるための小領域をテンプレートとして設定し、前記対
応点抽出ステップにおいて縮小率が1段高い縮小画像デ
ータが示す複数の縮小画像間における対応点の抽出を行
なわせ、前記対応点抽出ステップにおいて等倍画像デー
タが示す画像について設定されたものである場合には、
前記パラメータ設定ステップにおいて設定された各種パ
ラメータに従って、入力された前記複数の画像データが
示す複数の画像のうちの少なくとも一つの画像を変換
し、他の画像と合成する画像変換合成ステップとを有す
る画像合成方法。1. A method of composing a plurality of images having image areas partially overlapping each other to create one composite image, wherein a plurality of image data each corresponding to the plurality of images are generated. Reduced image data that is input, and the plurality of images indicated by the plurality of input image data are reduced stepwise at different reduction rates, and form a plurality of reduced image data indicating the reduced images formed respectively. Forming the reduced image data formed in the reduced image data forming step, from the reduced image data indicating the reduced image with the highest reduction ratio, the image having the same size as the image indicated by the plurality of input image data A corresponding point extraction step of sequentially extracting corresponding points between the images indicated by the same size image data shown in order, and the corresponding point extracting step A parameter setting step of setting various parameters necessary for performing image synthesis conversion in accordance with the corresponding points extracted in the above, and the various parameters set in the parameter setting step are the reduced image data in the corresponding point extraction step. In the case where the reduced image data is set for the indicated reduced image, the reduced image data having the reduction ratio one step higher is used by using the corresponding points already extracted in the corresponding point extracting step and various parameters set in the parameter setting step. Is predicted, and a small area for obtaining a corresponding point from one of the plurality of reduced images is set as a template. In the corresponding point extracting step, a reduction ratio of 1 is set. Extraction of corresponding points between multiple reduced images indicated by stepped reduced image data Align, wherein when the corresponding point extraction step in which the equal magnification image data set for the image shown is
An image conversion / combining step of converting at least one of a plurality of images indicated by the plurality of input image data according to various parameters set in the parameter setting step, and combining the converted image with another image Synthesis method.
ータ設定ステップにおいて設定された各種パラメータを
用いて、縮小率が1段高い縮小画像データが示す複数の
縮小画像のうちの一つの縮小画像において設定されるテ
ンプレートに対応する対応点を、他の縮小画像において
探索するための探索領域を設定することを特徴とする請
求項1に記載の画像合成方法。2. The method according to claim 1, wherein the corresponding point extracting step sets, using the various parameters set in the parameter setting step, one of a plurality of reduced images indicated by reduced image data having a reduction ratio higher by one step. 2. The image synthesizing method according to claim 1, wherein a search area for searching for a corresponding point corresponding to the template to be performed in another reduced image is set.
れた対応点を用いて、縮小率が1段高い縮小画像データ
が示す複数の縮小画像のうちの一つの縮小画像において
設定されるテンプレートに対応する対応点を、他の縮小
画像において探索するための探索領域を設定することを
特徴とする請求項1に記載の画像合成方法。3. The corresponding point extracting step includes: using a corresponding point already extracted, a template set in one reduced image of a plurality of reduced images indicated by reduced image data having a reduction ratio one step higher. The method according to claim 1, wherein a search area for searching for a corresponding corresponding point in another reduced image is set.
画像間の継ぎ目付近で多くの対応点を抽出することを特
徴とする請求項1に記載の画像合成方法。4. The method according to claim 1, wherein the corresponding point extracting step extracts a number of corresponding points near a joint between the plurality of images.
する複数の画像を合成し、一つの合成画像を作成する方
法はであって、 それぞれが複数の画像に対応している複数の画像データ
を入力し、入力された前記複数の画像データが示す複数
の画像を互いに異なる縮小率にて段階的にそれぞれ縮小
し、それぞれが形成された縮小画像を示す複数の縮小画
像データを形成する縮小画像データ形成ステップと、 上前記縮小画像データ形成ステップにおいて形成された
縮小画像データについて、該縮小画像の特徴点を抽出
し、特徴点縮小画像を形成する特徴点縮小画像形成ステ
ップと、 前記特徴点画像形成ステップにおいて形成された特徴点
縮小画像データについて、最も縮小率が高い縮小画像を
示す特徴点縮小画像データから、入力された前記複数の
画像データが示す画像と同じサイズの特徴点画像を示す
特徴点等倍画像データまで順番に、それぞれが示す特徴
点画像間における対応点を段階的に抽出する対応点抽出
ステップと、 前記対応点抽出ステップにおいて抽出された対応点に従
って、画像合成変換を行なうために必要な各種パラメー
タを設定するパラメータ設定ステップと、 前記パラメータ設定ステップにおいて設定された各種パ
ラメータが、前記対応点抽出ステップにおいて特徴点縮
小画像データが示す特徴点縮小画像について設定された
ものである場合には、前記対応点抽出ステップにおいて
既に抽出された対応点や前記パラメータ設定ステップに
おいて設定された各種パラメータを用いて、縮小率が1
段高い特徴点縮小画像データが示す複数の特徴点縮小画
像の重複部を予測し、前記複数の特徴点縮小画像のうち
の一つの特徴点縮小画像から対応点を求めるための小領
域をテンプレートとして設定し、前記対応点抽出ステッ
プにおいて縮小率が1段高い特徴点縮小画像データが示
す複数の特徴点縮小画像間における対応点の抽出を行な
わせ、前記対応点抽出ステップにおいて特徴点等倍画像
データが示す画像について設定されたものである場合に
は、前記パラメータ設定ステップにおいて設定された各
種パラメータに従って、入力された前記複数の画像デー
タが示す複数の画像のうちの少なくとも一つの画像を変
換し、他の画像と合成する画像変換合成ステップとを有
することを特徴とする画像合成方法。5. A method for composing a plurality of images having image areas partially overlapping each other to create one composite image, comprising: a plurality of images each corresponding to a plurality of images. Data reduction, a plurality of images represented by the plurality of input image data are reduced stepwise at different reduction rates, and a plurality of reduced image data representing reduced images formed respectively are formed. An image data forming step; and a feature point reduced image forming step of extracting a feature point of the reduced image from the reduced image data formed in the reduced image data forming step to form a feature point reduced image; For the feature point reduced image data formed in the image forming step, the input plurality of feature point reduced image data indicating the reduced image with the highest reduction rate A corresponding point extracting step of sequentially extracting corresponding points between the feature point images indicated by each of the feature point images, in order up to feature point equal-size image data indicating a feature point image having the same size as the image indicated by the corresponding image data; A parameter setting step of setting various parameters required for performing image synthesis conversion according to the corresponding points extracted in the extraction step; and various parameters set in the parameter setting step are feature point reduction in the corresponding point extraction step. When the image data is set for the feature point reduced image indicated by the image data, the reduction ratio is set to 1 using the corresponding points already extracted in the corresponding point extraction step and the various parameters set in the parameter setting step.
A small area for predicting an overlapping portion of a plurality of reduced feature point images indicated by the stepped reduced feature point image data and obtaining a corresponding point from one reduced feature point image of the plurality of reduced feature point images is used as a template. Setting, and causing the corresponding point extracting step to perform extraction of corresponding points between a plurality of reduced feature point images indicated by the reduced feature point image data whose reduction ratio is one step higher. If it is set for the image shown, according to various parameters set in the parameter setting step, to convert at least one of the plurality of images indicated by the plurality of input image data, An image conversion method for synthesizing the image with another image.
ータ設定ステップにおいて設定された各種パラメータを
用いて、縮小率が1段高い特徴点縮小画像データが示す
複数の特徴点縮小画像のうちの一つの特徴点縮小画像に
おいて設定されるテンプレートに対応する対応点を、他
の特徴点縮小画像において探索するための探索領域を設
定することを特徴とする請求項5に記載の画像合成方
法。6. The corresponding point extracting step includes using one of various parameters set in the parameter setting step to select one of a plurality of reduced feature point images represented by reduced feature point image data having a higher reduction ratio by one step. 6. The image synthesizing method according to claim 5, wherein a search area for searching a corresponding point corresponding to the template set in the reduced feature point image in another reduced feature point image is set.
れた対応点を用いて、縮小率が1段高い特徴点縮小画像
データが示す複数の特徴点縮小画像のうちの一つの特徴
点縮小画像において設定されるテンプレートに対応する
対応点を、他の特徴点縮小画像において探索するための
探索領域を設定することを特徴とする請求項5に記載の
画像合成方法。7. The corresponding point extracting step includes: using the corresponding points already extracted, one of the plurality of reduced feature point images represented by the reduced feature point image data whose reduction ratio is one step higher. 6. The image synthesizing method according to claim 5, wherein a search area for searching for a corresponding point corresponding to the template set in step (a) in another reduced feature point image is set.
特徴点画像間の継ぎ目付近で多くの対応点を抽出するこ
とを特徴とする請求項5に記載の画像合成方法。8. The image synthesizing method according to claim 5, wherein the corresponding point extracting step extracts a number of corresponding points near a joint between the plurality of feature point images.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23767196A JPH1083442A (en) | 1996-09-09 | 1996-09-09 | Picture synthesis method |
US08/723,825 US6714689B1 (en) | 1995-09-29 | 1996-09-30 | Image synthesizing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23767196A JPH1083442A (en) | 1996-09-09 | 1996-09-09 | Picture synthesis method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH1083442A true JPH1083442A (en) | 1998-03-31 |
Family
ID=17018792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23767196A Withdrawn JPH1083442A (en) | 1995-09-29 | 1996-09-09 | Picture synthesis method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH1083442A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1295244A2 (en) * | 1998-04-02 | 2003-03-26 | Arch Development Corporation | Method, system and computer readable medium for iterative image warping prior to temporal subtraction of chest radiographs in the detection of interval changes |
JP2005332375A (en) * | 2004-04-19 | 2005-12-02 | Fuji Photo Film Co Ltd | Image processing method, apparatus, and program |
JP2006048451A (en) * | 2004-08-05 | 2006-02-16 | Toshiba Corp | Periphery monitoring device and bird's-eye image display method |
WO2006131967A1 (en) | 2005-06-08 | 2006-12-14 | Fujitsu Limited | Image processor |
JP2010516003A (en) * | 2007-01-12 | 2010-05-13 | クゥアルコム・インコーポレイテッド | Panorama image technology |
JP2015177510A (en) * | 2014-03-18 | 2015-10-05 | 株式会社リコー | camera system, image processing method and program |
-
1996
- 1996-09-09 JP JP23767196A patent/JPH1083442A/en not_active Withdrawn
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1295244A2 (en) * | 1998-04-02 | 2003-03-26 | Arch Development Corporation | Method, system and computer readable medium for iterative image warping prior to temporal subtraction of chest radiographs in the detection of interval changes |
EP1295244A4 (en) * | 1998-04-02 | 2009-06-03 | Arch Dev Corp | Method, system and computer readable medium for iterative image warping prior to temporal subtraction of chest radiographs in the detection of interval changes |
JP2005332375A (en) * | 2004-04-19 | 2005-12-02 | Fuji Photo Film Co Ltd | Image processing method, apparatus, and program |
JP2006048451A (en) * | 2004-08-05 | 2006-02-16 | Toshiba Corp | Periphery monitoring device and bird's-eye image display method |
JP4744823B2 (en) * | 2004-08-05 | 2011-08-10 | 株式会社東芝 | Perimeter monitoring apparatus and overhead image display method |
WO2006131967A1 (en) | 2005-06-08 | 2006-12-14 | Fujitsu Limited | Image processor |
US8401333B2 (en) | 2005-06-08 | 2013-03-19 | Fujitsu Limited | Image processing method and apparatus for multi-resolution feature based image registration |
JP2010516003A (en) * | 2007-01-12 | 2010-05-13 | クゥアルコム・インコーポレイテッド | Panorama image technology |
US8331725B2 (en) | 2007-01-12 | 2012-12-11 | Qualcomm Incorporated | Panoramic imaging techniques |
JP2015177510A (en) * | 2014-03-18 | 2015-10-05 | 株式会社リコー | camera system, image processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6714689B1 (en) | Image synthesizing method | |
EP2491531B1 (en) | Alignment of an ordered stack of images from a specimen. | |
US6393162B1 (en) | Image synthesizing apparatus | |
JP4620607B2 (en) | Image processing device | |
US7672538B2 (en) | Generation of still image from a plurality of frame images | |
CN110622497A (en) | Device with cameras having different focal lengths and method of implementing a camera | |
JPH10178564A (en) | Panorama image generator and recording medium | |
JP2002305647A (en) | Device for combining image | |
JP2005100407A (en) | System and method for creating panorama image from two or more source images | |
JP2005122320A (en) | Photographing apparatus, and its image processing method and program | |
JP3696952B2 (en) | Image composition apparatus and method | |
JP2020182045A (en) | Panorama video composition device, panorama video composition method, and panorama video composition program | |
JPWO2007074605A1 (en) | Image processing method, image processing program, image processing apparatus, and imaging apparatus | |
JPH09321972A (en) | Image synthesis device and method | |
JPH1083442A (en) | Picture synthesis method | |
KR101558573B1 (en) | Method for compositing stereo camera images | |
WO2021186672A1 (en) | Image processing method | |
JPH10108003A (en) | Image compositing device and image compositing method | |
JPH11331696A (en) | Image processing method, device and recording medium | |
JP2004072677A (en) | Device, method and program for compositing image and recording medium recording the program | |
JP2007087218A (en) | Image processor | |
JP5687370B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium | |
JP2005182098A (en) | Device and method for generating and displaying composite image | |
JPH10336506A (en) | Image-processing system, system and method for tracking and storage medium | |
JP2005275765A (en) | Image processor, image processing method, image processing program and recording medium recording the program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20031202 |