JP2000227958A - Method for extracting corresponding area of image, method and device for compositing image, image compositing program, and computer-readable recording medium recording image compositing program - Google Patents

Method for extracting corresponding area of image, method and device for compositing image, image compositing program, and computer-readable recording medium recording image compositing program

Info

Publication number
JP2000227958A
JP2000227958A JP11029034A JP2903499A JP2000227958A JP 2000227958 A JP2000227958 A JP 2000227958A JP 11029034 A JP11029034 A JP 11029034A JP 2903499 A JP2903499 A JP 2903499A JP 2000227958 A JP2000227958 A JP 2000227958A
Authority
JP
Japan
Prior art keywords
image
area
original
images
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11029034A
Other languages
Japanese (ja)
Other versions
JP3384764B2 (en
Inventor
Hisanori Kataoka
久典 片岡
Naoki Chiba
直樹 千葉
Hiroshi Kano
浩 蚊野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP02903499A priority Critical patent/JP3384764B2/en
Publication of JP2000227958A publication Critical patent/JP2000227958A/en
Application granted granted Critical
Publication of JP3384764B2 publication Critical patent/JP3384764B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately extract a corresponding area from two images without being influenced by a change in a luminance level. SOLUTION: Secondary differential images are found out by secondarily differentiating two original images, and while changing an overlapped area between the two secondary differential images, the number of edges of at least one of the secondary differential images on the overlapped area is calculated. Then, an error map is found out based on an error between the secondary differential images on the overlapped area and a corresponding area between the two original images is extracted based on the number of edges calculated and the error map found out.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像の対応領域抽
出方法、画像合成方法、画像合成装置、画像合成プログ
ラム、画像合成プログラムを記録したコンピュータ読み
取り可能な記録媒体に関する。
The present invention relates to a method for extracting a corresponding area of an image, an image synthesizing method, an image synthesizing apparatus, an image synthesizing program, and a computer-readable recording medium on which the image synthesizing program is recorded.

【0002】[0002]

【従来の技術】従来から複数の画像を貼り合わせて、視
野が広く解像度の高い画像を継目が目立たないように合
成する技術(イメージモザイキング)が活発に研究され
ている。古典的な応用には、航空写真、衛星写真の合成
がある。最近では、複数枚のデジタル画像から継目のな
いパノラマ画像を合成し、臨場感の高い仮想現実環境ほ
構築する手法が注目されている。
2. Description of the Related Art Hitherto, a technique (image mosaicing) of pasting a plurality of images and synthesizing an image having a wide field of view and a high resolution so that seams are not conspicuous has been actively studied. Classic applications include the synthesis of aerial and satellite photographs. Recently, a method of synthesizing a seamless panoramic image from a plurality of digital images to construct a virtual reality environment with a high sense of reality has attracted attention.

【0003】パノラマ画像を合成する技術としては、カ
メラを移動させて複数枚の画像を予め撮像しておき、得
られた複数枚の画像のうち互いに対応する領域(対応領
域)を有する2枚をユーザが選択した後、その共通の領
域が重なるように2枚の画像を合成する種々の方法が提
案されている。
As a technique for synthesizing a panoramic image, a plurality of images are captured in advance by moving a camera, and two images having regions (corresponding regions) corresponding to each other are obtained from the obtained plurality of images. Various methods have been proposed for synthesizing two images so that the common area overlaps after the user makes a selection.

【0004】そして、この2枚の画像における共通の領
域をコンピュータ等を用いて自動的に抽出する方法とし
て、一般にSSD法(Sum of Square Difference)とい
う手法が用いられている。
[0004] As a method of automatically extracting a common area between the two images using a computer or the like, a technique called an SSD method (Sum of Square Difference) is generally used.

【0005】このSSD法は、まず、ユーザによって指
定された2枚の画像をパソコン内のメモリに読み込んだ
後、2枚の画像それぞれについて、原画像もしくはそれ
より解像度の低い画像J1、J2を生成する。この2枚
の画像J1、J2の重なり領域ω(サイズ:M×N)
が、次式数1に示すように画素あたりの2乗誤差(E)
を用いて求められる。すなわち、画像間の移動量(d)
を可能な範囲で変化させ、Eが最も小さくなる移動量
(d)を求め、そのときの重なり領域ωを対応領域とし
て抽出する。
In the SSD method, first, two images specified by a user are read into a memory in a personal computer, and then, for each of the two images, an original image or images J1 and J2 having a lower resolution than the original image are generated. I do. An overlap area ω of these two images J1 and J2 (size: M × N)
Is the square error per pixel (E) as shown in the following equation 1.
Is determined using That is, the amount of movement between images (d)
Is changed as much as possible, the movement amount (d) at which E becomes the smallest is obtained, and the overlapping area ω at that time is extracted as the corresponding area.

【0006】[0006]

【数1】 (Equation 1)

【0007】[0007]

【発明が解決しようとする課題】しかしながら、SSD
法では、原画像もしくはそれより解像度の低い画像を用
いているため、ユーザが指定した2枚の画像について、
撮影時における天候や照明等の変化により全体的な明る
さ(輝度レベル)が変化した場合には、この輝度レベル
の変化による影響を受けて、精度よく対応領域を抽出す
ることができない虞がある。
However, SSDs
The method uses the original image or an image with a lower resolution than the original image.
If the overall brightness (luminance level) changes due to changes in the weather, lighting, or the like at the time of shooting, the corresponding area may not be accurately extracted due to the influence of the change in the luminance level. .

【0008】また、海や空などエッジの少ない領域で
は、対応領域が一致していなくてもSSDの計算結果が
が低くなり、対応領域の抽出を誤ってしまう虞がある。
Further, in a region having few edges such as the sea and the sky, even if the corresponding regions do not coincide with each other, the SSD calculation result becomes low, and there is a possibility that the corresponding region is erroneously extracted.

【0009】そこで、本発明は、輝度レベルの変化やエ
ッジの少ない領域の存在に影響されることなく2枚の画
像の対応領域を精度よく抽出することができる画像の対
応領域抽出方法、その対応領域抽出方法を用いて画像を
合成する画像合成方法、画像合成装置、画像合成プログ
ラム、そのプログラムを記録した記録媒体を提供するこ
とを目的とする。
Therefore, the present invention provides a method for extracting a corresponding area of an image which can accurately extract a corresponding area of two images without being affected by a change in luminance level or the presence of an area having few edges. It is an object of the present invention to provide an image synthesizing method for synthesizing an image using an area extracting method, an image synthesizing device, an image synthesizing program, and a recording medium storing the program.

【0010】[0010]

【課題を解決するための手段】本発明の画像の対応領域
抽出方法は、2枚の原画像それぞれを2次微分した2次
微分画像を求め、その2次微分画像に基づいて原画像間
の対応領域を抽出するものである。原画像を2次微分し
た2次微分画像は、各原画像における画素値の変化が強
調されたものであり、輝度レベルの影響が取り除かれ
る。
According to the present invention, there is provided a method for extracting a corresponding region of an image, wherein a second differential image is obtained by secondarily differentiating each of the two original images, and a difference between the original images is obtained based on the second differential image. The corresponding area is extracted. The secondary differential image obtained by secondarily differentiating the original image is one in which the change in the pixel value in each original image is emphasized, and the influence of the luminance level is removed.

【0011】また、本発明の画像の対応領域抽出方法
は、2次微分画像間の重なり領域を変化させながら、重
なり領域における少なくとも一方の2次微分画像のエッ
ジ数を算出するとともに、重なり領域における2次微分
画像間の誤差に基づいて誤差マップを求め、エッジ数と
誤差マップとに基づいて原画像間の対応領域を抽出する
ものである。
Further, according to the method for extracting a corresponding region of an image of the present invention, the number of edges of at least one of the secondary differential images in the overlapping region is calculated while changing the overlapping region between the secondary differential images. An error map is obtained based on an error between the secondary differential images, and a corresponding region between the original images is extracted based on the number of edges and the error map.

【0012】具体的には、エッジ数が所定値以上であ
り、且つ、誤差マップが最小値をとる重なり領域を抽出
し、その重なり領域に対応する各原画像の領域を原画像
間の対応領域として抽出するものである。これにより、
所定値よりエッジ数の少ない重なり領域が対応領域とし
て抽出されず、所定値よりエッジ数の多い重なり領域の
中から最も誤差の少ない重なり領域が対応領域として抽
出される。
More specifically, an overlap area where the number of edges is equal to or more than a predetermined value and an error map takes a minimum value is extracted, and a region of each original image corresponding to the overlap region is defined as a corresponding region between the original images. Is extracted as This allows
An overlapping area having a smaller number of edges than the predetermined value is not extracted as a corresponding area, and an overlapping area having the smallest error is extracted as a corresponding area from among the overlapping areas having a larger number of edges than the predetermined value.

【0013】また、具体的には、エッジ数が所定値以上
であり、且つ、誤差マップが極小値をとり、且つ、誤差
マップの極小値における2次微分値が最大となる2次微
分画像の重なり領域を抽出し、その重なり領域に対応す
る各原画像の領域を原画像間の対応領域として抽出する
ものである。これにより、通常、複数存在する誤差マッ
プの極小値の中から、その前後において最も大きく誤差
が変化する重なり領域が対応領域として抽出される。
[0013] More specifically, the number of edges is equal to or more than a predetermined value, the error map takes a minimum value, and the secondary differential value at the minimum value of the error map is maximum. The overlapping area is extracted, and the area of each original image corresponding to the overlapping area is extracted as a corresponding area between the original images. As a result, an overlapping area where the error changes most before and after the minimum value of the plurality of error maps is extracted as a corresponding area.

【0014】また、具体的には、エッジ数が原画像内に
ある全エッジ数に対して所定の割合以上であり、且つ、
誤差マップが最小値をとる重なり領域を抽出し、その重
なり領域に対応する各原画像の領域を原画像間の対応領
域として抽出するものである。これにより、原画像に対
して所定の割合よりエッジ数の少ない重なり領域が対応
領域として抽出されず、所定の割合よりエッジ数の多い
重なり領域の中から最も誤差の少ない重なり領域が対応
領域として抽出される。
Specifically, the number of edges is equal to or more than a predetermined ratio with respect to the total number of edges in the original image;
The overlap area where the error map takes the minimum value is extracted, and the area of each original image corresponding to the overlap area is extracted as a corresponding area between the original images. As a result, an overlapping region having a smaller number of edges than the predetermined ratio is not extracted as a corresponding region from the original image, and an overlapping region having the least error is extracted as a corresponding region from among the overlapping regions having a larger number of edges than the predetermined ratio. Is done.

【0015】また、具体的には、エッジ数が原画像内に
ある全エッジ数に対して所定の割合以上であり、且つ、
誤差マップの極小値における2次微分値が最大となる2
次微分画像の重なり領域を抽出し、その重なり領域に対
応する各原画像の領域を原画像間の対応領域として抽出
するものである。これにより、通常、複数存在する誤差
マップの極小値の中から、その前後において最も大きく
誤差が変化する重なり領域が対応領域として抽出され
る。
More specifically, the number of edges is equal to or more than a predetermined ratio with respect to the total number of edges in the original image, and
2 where the second derivative value at the minimum value of the error map is the maximum
An overlapping area of the next differential image is extracted, and an area of each original image corresponding to the overlapping area is extracted as a corresponding area between the original images. As a result, an overlapping area where the error changes most before and after the minimum value of the plurality of error maps is extracted as a corresponding area.

【0016】本発明の画像合成方法は、第1原画像と第
2原画像それぞれを2次微分した2次微分画像を求め、
その2次微分画像に基づいて原画像間の対応領域を抽出
する第1ステップ、その対応領域における両原画像間の
関係式を算出する第2ステップ、その関係式に基づいて
第1原画像または第2原画像を変換して両原画像を合成
する第3ステップを備えたものである。
In the image synthesizing method according to the present invention, a second differential image is obtained by secondarily differentiating each of the first original image and the second original image.
A first step of extracting a corresponding area between the original images based on the secondary differential image, a second step of calculating a relational expression between the two original images in the corresponding area, and a first original image or It comprises a third step of converting the second original image to combine the two original images.

【0017】第1ステップは、各原画像を2次微分した
2次微分画像を算出するステップ、両2次微分画像間の
重なり領域を変化させながら、重なり領域における少な
くとも一方の2次微分画像のエッジ数を算出するととも
に、重なり領域における両2次微分画像間の誤差に基づ
いて誤差マップを求めるステップ、エッジ数と誤差マッ
プとに基づいて両原画像間の対応領域を抽出するステッ
プを備えたものである。
The first step is a step of calculating a second derivative image obtained by secondarily differentiating each of the original images. While changing an overlap area between the two second derivative images, at least one of the second derivative images in the overlap area is changed. Calculating the number of edges, obtaining an error map based on an error between the two secondary differential images in the overlapping area, and extracting a corresponding area between the original images based on the number of edges and the error map. Things.

【0018】具体的には、エッジ数が所定値以上であ
り、且つ、誤差マップが最小値をとる重なり領域を抽出
し、その重なり領域に対応する原画像の領域を原画像間
の対応領域として抽出するものである。
More specifically, an overlap area where the number of edges is equal to or more than a predetermined value and an error map takes a minimum value is extracted, and an area of the original image corresponding to the overlap area is defined as a corresponding area between the original images. It is to extract.

【0019】また、具体的には、エッジ数が所定値以上
であり、且つ、誤差マップが極小値をとり、且つ、誤差
マップの極小値における2次微分値が最大となる2次微
分画像の重なり領域を抽出し、その重なり領域に対応す
る各原画像の領域を原画像間の対応領域として抽出する
ものである。
More specifically, the number of edges is equal to or more than a predetermined value, the error map takes a minimum value, and the second derivative value at the minimum value of the error map becomes maximum. The overlapping area is extracted, and the area of each original image corresponding to the overlapping area is extracted as a corresponding area between the original images.

【0020】また、具体的には、エッジ数が原画像内に
ある全エッジ数に対して所定の割合以上であり、且つ、
誤差マップが最小値をとる重なり領域を抽出し、その重
なり領域に対応する原画像の領域を原画像間の対応領域
として抽出するものである。
More specifically, the number of edges is equal to or more than a predetermined ratio with respect to the total number of edges in the original image, and
The overlap area where the error map takes the minimum value is extracted, and the area of the original image corresponding to the overlap area is extracted as a corresponding area between the original images.

【0021】また、具体的には、エッジ数が原画像内に
ある全エッジ数に対して所定の割合以上であり、誤差マ
ップが極小値をとり、且つ、誤差マップの極小値におけ
る2次微分値が最大となる2次微分画像の重なり領域を
抽出し、その重なり領域に対応する各原画像の領域を原
画像間の対応領域として抽出するものである。
More specifically, the number of edges is equal to or more than a predetermined ratio with respect to the total number of edges in the original image, the error map takes a minimum value, and the second derivative at the minimum value of the error map is obtained. The overlapping region of the secondary differential image having the maximum value is extracted, and the region of each original image corresponding to the overlapping region is extracted as a corresponding region between the original images.

【0022】本発明の画像合成装置は、第1原画像と第
2原画像それぞれを2次微分した2次微分画像を求め、
その2次微分画像に基づいて原画像間の対応領域を抽出
する第1手段、その対応領域における両原画像間の関係
式を算出する第2手段、その関係式に基づいて第1原画
像または第2原画像を変換して両原画像を合成する第3
手段を備えたものである。
The image synthesizing apparatus according to the present invention obtains a second differential image obtained by secondarily differentiating each of the first original image and the second original image,
First means for extracting a corresponding area between the original images based on the second derivative image, second means for calculating a relational expression between the two original images in the corresponding area, and a first original image or A third method of converting the second original image and combining the two original images
Means.

【0023】第1手段は、各原画像を2次微分した2次
微分画像を算出する手段、両2次微分画像間の重なり領
域を変化させながら、重なり領域における少なくとも一
方の2次微分画像のエッジ数を算出するとともに、重な
り領域における両2次微分画像間の誤差に基づいて誤差
マップを求める手段、エッジ数と誤差マップとに基づい
て両原画像間の対応領域を抽出する手段を備えたもので
ある。
The first means is means for calculating a second derivative image obtained by secondarily differentiating each of the original images. While changing an overlap area between the two second derivative images, at least one of the second derivative images in the overlap area is changed. Means for calculating the number of edges, obtaining an error map based on an error between the two secondary differential images in the overlapping area, and means for extracting a corresponding area between the two original images based on the number of edges and the error map Things.

【0024】具体的には、エッジ数が所定値以上であ
り、且つ、誤差マップが最小値をとる重なり領域を抽出
し、その重なり領域に対応する原画像の領域を原画像間
の対応領域として抽出するものである。
More specifically, an overlap area where the number of edges is equal to or more than a predetermined value and an error map takes a minimum value is extracted, and an area of the original image corresponding to the overlap area is defined as a corresponding area between the original images. It is to extract.

【0025】また、具体的には、エッジ数が所定値以上
であり、且つ、誤差マップが極小値をとり、且つ、誤差
マップの極小値における2次微分値が最大となる2次微
分画像の重なり領域を抽出し、その重なり領域に対応す
る各原画像の領域を原画像間の対応領域として抽出する
ものである。
More specifically, the number of edges is equal to or more than a predetermined value, the error map takes a minimum value, and the second derivative value at the minimum value of the error map becomes maximum. The overlapping area is extracted, and the area of each original image corresponding to the overlapping area is extracted as a corresponding area between the original images.

【0026】また、具体的には、エッジ数が原画像内に
ある全エッジ数に対して所定の割合以上であり、且つ、
誤差マップが最小値をとる重なり領域を抽出し、その重
なり領域に対応する原画像の領域を原画像間の対応領域
として抽出するものである。
More specifically, the number of edges is equal to or more than a predetermined ratio with respect to the total number of edges in the original image, and
The overlap area where the error map takes the minimum value is extracted, and the area of the original image corresponding to the overlap area is extracted as a corresponding area between the original images.

【0027】また、具体的には、エッジ数が原画像内に
ある全エッジ数に対して所定の割合以上であり、且つ、
誤差マップが極小値をとり、且つ、誤差マップの極小値
における2次微分値が最大となる2次微分画像の重なり
領域を抽出し、その重なり領域に対応する各原画像の領
域を原画像間の対応領域として抽出するものである。
More specifically, the number of edges is equal to or more than a predetermined ratio with respect to the total number of edges in the original image, and
The overlapping area of the secondary differential image in which the error map has a minimum value and the secondary differential value at the minimum value of the error map is maximum is extracted, and the area of each original image corresponding to the overlapping area is extracted between the original images. Is extracted as the corresponding area of

【0028】本発明の画像合成プログラムを記録したコ
ンピュータ読み取り可能な記録媒体は、第1原画像と第
2原画像それぞれを2次微分した2次微分画像を求め、
その2次微分画像に基づいて原画像間の対応領域を抽出
する第1ステップ、その対応領域における両原画像間の
関係式を算出する第2ステップ、その関係式に基づいて
第1原画像または第2原画像を変換して両原画像を合成
する第3ステップを備えた画像合成プログラムが記録さ
れている。
The computer-readable recording medium on which the image synthesizing program of the present invention is recorded obtains a second differential image obtained by secondarily differentiating each of the first original image and the second original image.
A first step of extracting a corresponding area between the original images based on the secondary differential image, a second step of calculating a relational expression between the two original images in the corresponding area, and a first original image or An image synthesizing program including a third step of converting the second original image and synthesizing the two original images is recorded.

【0029】第1ステップは、各原画像を2次微分した
2次微分画像を算出するステップ、両2次微分画像間の
重なり領域を変化させながら、重なり領域における少な
くとも一方の2次微分画像のエッジ数を算出するととも
に、重なり領域における両2次微分画像間の誤差に基づ
いて誤差マップを求めるステップ、エッジ数と誤差マッ
プとに基づいて両原画像間の対応領域を抽出するステッ
プを備えたものである。
The first step is a step of calculating a second derivative image obtained by secondarily differentiating each of the original images. While changing an overlap area between the two second derivative images, at least one of the second derivative images in the overlap area is changed. Calculating the number of edges, obtaining an error map based on an error between the two secondary differential images in the overlapping area, and extracting a corresponding area between the original images based on the number of edges and the error map. Things.

【0030】具体的には、エッジ数が所定値以上であ
り、且つ、誤差マップが最小値をとる重なり領域を抽出
し、その重なり領域に対応する原画像の領域を原画像間
の対応領域として抽出するものである。
More specifically, an overlap area where the number of edges is equal to or more than a predetermined value and an error map takes a minimum value is extracted, and an area of the original image corresponding to the overlap area is defined as a corresponding area between the original images. It is to extract.

【0031】また、具体的には、エッジ数が所定値以上
であり、且つ、誤差マップが極小値をとり、且つ、誤差
マップの極小値における2次微分値が最大となる2次微
分画像の重なり領域を抽出し、その重なり領域に対応す
る各原画像の領域を原画像間の対応領域として抽出する
ものである。
More specifically, the number of edges is equal to or larger than a predetermined value, the error map takes a minimum value, and the secondary differential value at the minimum value of the error map becomes maximum. The overlapping area is extracted, and the area of each original image corresponding to the overlapping area is extracted as a corresponding area between the original images.

【0032】また、具体的には、エッジ数が原画像内に
ある全エッジ数に対して所定の割合以上であり、且つ、
誤差マップが最小値をとる重なり領域を抽出し、その重
なり領域に対応する原画像の領域を原画像間の対応領域
として抽出するものである。
More specifically, the number of edges is at least a predetermined ratio to the total number of edges in the original image, and
The overlap area where the error map takes the minimum value is extracted, and the area of the original image corresponding to the overlap area is extracted as a corresponding area between the original images.

【0033】また、具体的には、エッジ数が原画像内に
ある全エッジ数に対して所定の割合以上であり、且つ、
誤差マップが極小値をとり、且つ、誤差マップの極小値
における2次微分値が最大となる2次微分画像の重なり
領域を抽出し、その重なり領域に対応する各原画像の領
域を原画像間の対応領域として抽出するものである。
More specifically, the number of edges is a predetermined ratio or more to the total number of edges in the original image, and
The overlapping area of the secondary differential image in which the error map has a minimum value and the secondary differential value at the minimum value of the error map is maximum is extracted, and the area of each original image corresponding to the overlapping area is extracted between the original images. Is extracted as the corresponding area of

【0034】[0034]

【発明の実施の形態】以下、本発明の対応領域抽出方法
を用いた画像合成装置の一例を図面に沿って説明する。
尚、本実施の形態においては、本実施の形態における画
像合成に用いるオプティカルフロー推定方法を説明した
後、画像合成装置について説明を行なう。 〔1〕オプティカルフロー推定方法についての説明。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An example of an image synthesizing apparatus using a corresponding area extracting method according to the present invention will be described below with reference to the drawings.
In the present embodiment, an optical flow estimation method used for image synthesis in the present embodiment will be described, and then an image synthesis device will be described. [1] Description of Optical Flow Estimation Method

【0035】オプティカルフロー推定方法は、ピラミッ
ド階層型に数段回の解像度の異なる画像を作成して、オ
プティカルフローを段階的に計算する階層的推定を前提
とし、オプティカルフローの計算方法は、Lucas-Kanade
法等の勾配法を前提としている。つまり、階層構造化し
た勾配法によるオプティカルフロー推定法を前提として
いる。ここでは、勾配法としてLucas-Kanade法を用い
る。
The optical flow estimation method presupposes hierarchical estimation in which images having different resolutions are formed several times in a pyramid hierarchy and the optical flow is calculated stepwise. The optical flow calculation method is Lucas- Kanade
It assumes a gradient method such as a method. That is, the optical flow estimation method based on the hierarchically structured gradient method is assumed. Here, Lucas-Kanade method is used as the gradient method.

【0036】また、オプティカルフロー推定方法におい
ては、階層構造化したLucas-Kanade法によるオプティカ
ルフロー推定法の各段階において得られたオプティカル
フローが、膨張処理によって補完される。以下、これに
ついて詳しく説明する。 Lucas-Kanade法 Lucas-Kanade法の詳細については、文献: B.Lucas and
T.Kanade,"An Iterative Image Registration Techniq
ue with an Application to Stereo Vision,"In Sevent
h International Joint Conference on Artificial Int
elligence(IJCAI-81), pp. 674-979, 1981を参照のこ
と。
In the optical flow estimating method, the optical flows obtained at each stage of the hierarchically structured optical flow estimating method using the Lucas-Kanade method are complemented by dilation processing. Hereinafter, this will be described in detail. Lucas-Kanade Method For details of the Lucas-Kanade method, see B. Lucas and
T. Kanade, "An Iterative Image Registration Techniq
ue with an Application to Stereo Vision, "In Sevent
h International Joint Conference on Artificial Int
See elligence (IJCAI-81), pp. 674-979, 1981.

【0037】以下に、Lucas-Kanade法の概要を述べる。An outline of the Lucas-Kanade method will be described below.

【0038】ある時刻t の画像座標P=(x,y) の濃淡パタ
ーンI(x,y,t)が、ある微小時間後(δt)に座標(x+δx
,y +δy )に、その濃淡分布を一定に保ったまま移
動した時、次のオプティカルフロー拘束式数2が成り立
つ。
The grayscale pattern I (x, y, t) of the image coordinates P = (x, y) at a certain time t is changed to the coordinates (x + δx) after a certain short time (δt).
, Y + δy) while maintaining the density distribution constant, the following optical flow constraint equation 2 holds.

【0039】[0039]

【数2】 2次元画像でオプティカルフロー{v =( δx /δt ,
δy /δt )=(u,v)}を計算するには、未知パラメー
タ数が2個であるので、もう一個拘束式が必要である。
LucasとKanade(金出) は、同一物体の局所領域では、同
一のオプティカルフローを持つと仮定した。
(Equation 2) Optical flow 次 元 v = (δx / δt,
In order to calculate δy / δt) = (u, v)}, one constraint equation is required because the number of unknown parameters is two.
Lucas and Kanade (Kinade) assumed that local areas of the same object had the same optical flow.

【0040】例えば、画像上の局所領域ω内で、オプテ
ィカルフローが一定であるとすると、最小化したい濃淡
パターンの二乗誤差Eは、 I0(p) =I(x,y,t),I1(p+v)=I(x +u ,y +v ,t +
δt) と書き改めると、次式数3で定義できる。
For example, assuming that the optical flow is constant in the local region ω on the image, the square error E of the gray pattern to be minimized is I 0 (p) = I (x, y, t), I 1 (p + v) = I (x + u, y + v, t +
δt), it can be defined by the following equation (3).

【0041】[0041]

【数3】 ここで、vが微少な場合には、テーラー展開の2次以上
の項を無視できるので、次式数4の関係が成り立つ。
(Equation 3) Here, when v is very small, the second-order or higher-order term of the Taylor expansion can be ignored, so that the following equation 4 holds.

【0042】[0042]

【数4】 ここで、g(p)は、I1(p) の一次微分である。(Equation 4) Here, g (p) is the first derivative of I 1 (p).

【0043】誤差Eが最小になるのは、Eのvに対する
微分値が0の時であるので、次式数5の関係が成り立
つ。
Since the error E is minimized when the differential value of E with respect to v is 0, the following equation 5 holds.

【0044】[0044]

【数5】 故にオプティカルフローvは次式数6で求められる。(Equation 5) Therefore, the optical flow v is obtained by the following equation (6).

【0045】[0045]

【数6】 更に、次式数7に示すように、ニュートン・ラフソン的
な反復演算によって精度良く求めることができる。
(Equation 6) In addition, as shown in the following equation 7, it can be obtained with high accuracy by a Newton-Raphson-like iterative operation.

【0046】[0046]

【数7】 階層的推定法 まず、2枚の連続した画像から、予めそれぞれの画像に
ついて数段階の解像度の異なる画像を作成する。次に、
最も解像度の低い画像間において、おおまかなオプティ
カルフローを計算する。そして、この結果を参考にし
て、一段解像度の高い画像間においてより精密なオプテ
ィカルフローを計算する。この処理を最も解像度の高い
画像間まで順次繰り返す。
(Equation 7) Hierarchical Estimation Method First, an image having several levels of different resolutions is created for each image in advance from two continuous images. next,
A rough optical flow is calculated between the images having the lowest resolution. Then, referring to the result, a more precise optical flow is calculated between the images with higher resolution. This processing is sequentially repeated up to the image with the highest resolution.

【0047】図1(d)は原画像を、図1(c)は図1
(d)の原画像より解像度の低い画像を、図1(b)は
図1(c)の低解像度画像より解像度の低い画像を、図
1(a)は図1(b)の低解像度画像より解像度の低い
画像を大きさ(たとえば13×13画素)のパッチ毎に
求められる。図1(a)〜図1(d)において、Sは、
1つのパッチを示している。
FIG. 1D shows the original image, and FIG.
1D shows an image having a lower resolution than the original image, FIG. 1B shows an image having a lower resolution than the low-resolution image shown in FIG. 1C, and FIG. 1A shows a low-resolution image shown in FIG. An image with a lower resolution is obtained for each patch having a size (for example, 13 × 13 pixels). 1 (a) to 1 (d), S is
One patch is shown.

【0048】図1(a)の画像(階層1の画像)、図1
(b)の画像(階層2の画像)、図1(c)の画像(階
層3の画像)および図1(d)の画像(階層4の画像)
の順番で段階的にオプティカルフローが求められる。図
1(a)〜図1(d)において矢印は、パッチ毎に求め
られた求められたオプティカルフローベクトルを示して
いる。 (3)膨張処理による補完 Lucas-Kanade法の長所の一つは、追跡結果が信頼性を持
つことである。TomasiとKanadeとは、ある領域の追跡可
能性が、以下のように微分画像から算出できることを示
した(C.Tomasi and Kanade,"Shape and Motion from Im
age Streams: aFactorization method-Part 3 Detectio
n and Tracking of Point Features,"CMU-CS-91-132, C
arnegie Mellon University, 1991.)。
The image of FIG. 1A (the image of the hierarchy 1), FIG.
(B) image (layer 2 image), FIG. 1 (c) image (layer 3 image), and FIG. 1 (d) image (layer 4 image)
The optical flow is obtained step by step in the following order. In FIGS. 1A to 1D, arrows indicate the obtained optical flow vectors obtained for each patch. (3) Completion by dilation processing One of the advantages of the Lucas-Kanade method is that the tracking results have reliability. Tomasi and Kanade have shown that the traceability of a certain area can be calculated from differential images as follows (C. Tomasi and Kanade, "Shape and Motion from Im
age Streams: aFactorization method-Part 3 Detectio
n and Tracking of Point Features, "CMU-CS-91-132, C
arnegie Mellon University, 1991.).

【0049】ある領域画像ωの垂直・水平方向の微分の
2乗を要素に持つ次式数8の2×2の係数行列Gから、
その固有値を計算することで、そり領域の追跡可能性を
決定することができる。
From the 2 × 2 coefficient matrix G of the following equation (8) having the square of the vertical and horizontal differentiation of a certain area image ω as an element,
By calculating the eigenvalue, the traceability of the sled area can be determined.

【0050】[0050]

【数8】 この行列Gの固有値が両方とも大きい場合には、その領
域は直交方向に変化を持ち、一意の位置決めが可能であ
る。従って、小さい方の固有値λminと、追跡後の領
域間の濃淡残差Eから、追跡結果の信頼度γを次式数9
によって得ることができる。
(Equation 8) When both eigenvalues of the matrix G are large, the area has a change in the orthogonal direction, and unique positioning is possible. Therefore, from the smaller eigenvalue λmin and the gray level residual E between the areas after tracking, the reliability γ of the tracking result is calculated by the following equation (9).
Can be obtained by

【0051】[0051]

【数9】 そして、この信頼度を用いて模様(テクスチャ)が少な
い領域でも、精度よくオプティカルフローを求める。こ
れは、一段階粗い階層での結果を、追跡の初期値だけに
用いて、着目している現段階の階層の結果には何も利用
しない。代わりに、テクスチャの少ない領域のオプティ
カルフローはその周囲のオプティカルフローに近い値を
持つと仮定し、モルフォロジー処理によりフロー場を補
完するものである。
(Equation 9) Then, an optical flow is obtained with high accuracy even in an area having a small number of patterns (textures) using the reliability. In this method, the result of the one-stage coarse hierarchy is used only for the initial value of tracking, and nothing is used for the result of the current stage of interest. Instead, it is assumed that the optical flow in an area with a small texture has a value close to the optical flow around the area, and the flow field is complemented by morphological processing.

【0052】図2にフローベクトルの膨張処理の様子を
示す。
FIG. 2 shows how the flow vector is expanded.

【0053】左図は、フローベクトルの信頼度のマップ
を濃淡で表したものである。ここで、黒ければ黒い程信
頼度が高いとする。
The left figure shows a map of the reliability of the flow vector by shading. Here, it is assumed that the darker the black, the higher the reliability.

【0054】まず、得られたフローをしきい値処理す
る。白い部分は、結果の信頼度が低いために、しきい値
処理されたものである。
First, the obtained flow is subjected to threshold processing. The white part has been thresholded due to the low reliability of the result.

【0055】次に、2値画像でのモルフォロジー演算に
よる穴埋め処理を模して、フロー場において結果の膨張
処理を次のように行う。ある領域i,jのフローベクト
ルu(i,j)は、その4近傍のフローベクトルから信
頼度γに応じて重み付けを行って次式数10のように計
算できる。
Next, a dilation process of the result is performed in the flow field as follows, simulating a filling process by a morphological operation in a binary image. The flow vector u (i, j) of a certain region i, j can be calculated as in the following equation 10 by weighting the flow vectors in the vicinity of the four in accordance with the reliability γ.

【0056】[0056]

【数10】 この処理を、しきい値処理されたすべての信頼度の低い
領域が埋まるまで、繰り返す。この補完処理を、各階層
において行う。なお、ある領域i,jのフローベクトル
u(i,j)を、その8近傍のフローベクトルから信頼度γに
応じて重み付けを行って算出するようにしてもよい。
(Equation 10) This process is repeated until all the low reliability areas subjected to the threshold processing are filled. This complementing process is performed in each layer. Note that the flow vector of a certain region i, j
u (i, j) may be calculated by performing weighting according to the reliability γ from the eight neighboring flow vectors.

【0057】図3(a)は、ある階層の画像に対してし
きい値処理されたオプティカルフローを示し、図3
(b)は補完後のオプティカルフローを示している。図
3(a)において、矢印はしきい値処理によって信頼度
が高いと判定されたオプティカルフローベクトルであ
り、×印は信頼度が低いとされた部分を示している。 〔2〕画像合成装置の説明 図4は、本実施の形態における画像合成装置の構成を示
している。
FIG. 3A shows an optical flow obtained by performing threshold processing on an image of a certain hierarchy.
(B) shows the optical flow after the complement. In FIG. 3A, an arrow is an optical flow vector determined to have high reliability by the threshold processing, and an x mark indicates a portion having low reliability. [2] Description of Image Synthesizing Apparatus FIG. 4 shows a configuration of the image synthesizing apparatus in the present embodiment.

【0058】パーソナルコンピュータ10には、ディス
プレイ21、マウス22およびキーボード23が接続さ
れている。パーソナルコンピュータ10は、CPU1
1、メモリ12、ハードディスク13、CD−ROMの
ようなリムーバブルディスクのドライバ14を備えてい
る。
A display 21, a mouse 22, and a keyboard 23 are connected to the personal computer 10. The personal computer 10 has a CPU 1
1, a memory 12, a hard disk 13, and a driver 14 for a removable disk such as a CD-ROM.

【0059】ハードディスク13には、OS(オペレー
ティングシステム)等の他、画像合成ソフトウエアが格
納されている。画像合成ソフトウエアは、それが格納さ
れたCD−ROM20を用いて、ハードディスク13に
インストールされる。また、ハードディスク13には、
デジタルカメラによって撮像された複数の画像が予め格
納されているものとする。
The hard disk 13 stores image compositing software in addition to an OS (operating system). The image synthesis software is installed on the hard disk 13 using the CD-ROM 20 in which the image synthesis software is stored. Also, the hard disk 13 has
It is assumed that a plurality of images captured by a digital camera are stored in advance.

【0060】図5は、パノラマ画像合成ソフトが起動せ
しめられた場合にCPU11によって行われるパノラマ
画像合成処理手順を示している。
FIG. 5 shows a procedure of a panoramic image synthesizing process performed by the CPU 11 when the panoramic image synthesizing software is activated.

【0061】ここでは、説明の便宜上、2枚の画像を合
成する場合について説明する。 (I) まず、ユーザによって指定された2枚の画像(第1
画像及び第 2画像)がメモリ12に読み込まれる(ステ
ップ1)。 (II) 次に、2枚の画像について対応領域の抽出処理が
行われる(ステップ2)。この対応領域の抽出処理は、
図6に示す手順に従って行われる。
Here, for convenience of explanation, a case where two images are combined will be described. (I) First, two images specified by the user (first image)
The image and the second image) are read into the memory 12 (step 1). (II) Next, the corresponding area is extracted from the two images (step 2). This corresponding area extraction processing
This is performed according to the procedure shown in FIG.

【0062】まず、2枚の画像I1org、I2orgそれぞれ
について、2次微分処理を施した2次微分画像I1、I2
が生成される。各2次微分画像I1、I2では、原画像I
1org、I2orgにおけるエッジに対応する部分の周囲にお
いて、画素の値が正負に大きく変化する。(ステップ2
1) そして、2次微分画像I1、I2を所定の閾値で2値化す
ると、エッジの周辺部だけが論理値1となり、それ以外
の部分は論理値0となる。これにより、エッジの検出が
行われる。(ステップ22) 次に、一方の2次微分画像I2を他方の2次微分画像I1
に対して1画素ずつx方向及びy方向に2次元的に移動
させながら、両2次微分画像I1、I2が重なる重なり領
域ω(サイズ:M×N)に含まれる各2次微分画像
1、I2のエッジ(論理値1となる画素)の数a1、a
2をカウントする。但し、2次微分画像I2の移動量を
(d)とすると、その移動量(d)は、両2次微分画像
1、I2が重なり領域を持つ範囲内で変化せしめられ
る。(ステップ23) また、エッジ数がカウントされる一方で、各移動量
(d)毎に重なり領域ω(サイズ:M×N)における2
次微分画像I1、I2間の2乗誤差(E)が、次式数11
を用いて演算される。
First, the secondary differential images I 1 and I 2 obtained by performing the secondary differential processing on the two images I 1org and I 2org, respectively.
Is generated. In each of the second derivative images I 1 and I 2 , the original image I
The pixel values greatly change in the positive and negative directions around portions corresponding to edges in 1org and I2org . (Step 2
1) When the secondary differential images I 1 and I 2 are binarized with a predetermined threshold value, only the peripheral portion of the edge has a logical value of 1 and the other portions have a logical value of 0. Thus, edge detection is performed. (Step 22) Next, one secondary differential image I 2 is replaced with the other secondary differential image I 1
Each of the secondary differential images included in the overlapping area ω (size: M × N) where the two secondary differential images I 1 and I 2 overlap while moving two-dimensionally in the x direction and the y direction one pixel at a time. Number a1, a of edges (pixels having logical value 1) of I 1 and I 2
Count 2. However, assuming that the amount of movement of the secondary differential image I 2 is (d), the amount of movement (d) is changed within a range where the two secondary differential images I 1 and I 2 have an overlapping area. (Step 23) In addition, while the number of edges is counted, 2 in the overlapping area ω (size: M × N) for each movement amount (d).
The square error (E) between the next differential images I 1 and I 2 is given by
Is calculated using

【0063】[0063]

【数11】 そして、この誤差(E)に基づいて、例えば図9に示す
ような誤差マップが得られる。この誤差マップにおける
各線分は、重なり領域における誤差値が同一となる移動
量に対応する座標を結んだものであり、2つの線分に挟
まれた領域においては、両線分の誤差値の間の値をと
る。(ステップ24) 最後に、各移動量(d)毎に求められるエッジ数a1、
a2と、誤差マップとに基づいて、以下の条件Z1及び
Z2を満たす重なり領域が対応領域として抽出される。
[Equation 11] Then, based on this error (E), for example, an error map as shown in FIG. 9 is obtained. Each line segment in this error map is obtained by connecting coordinates corresponding to the amount of movement at which the error value in the overlap region is the same. In the region between the two line segments, the error value between the two line segments is Take the value of (Step 24) Finally, the number of edges a1 obtained for each movement amount (d),
Based on a2 and the error map, an overlapping area satisfying the following conditions Z1 and Z2 is extracted as a corresponding area.

【0064】Z1:移動量(d)における2次微分画像
1、I2の重なり領域ωにおけるエッジ数a1、a2
が、ともに各々の原画像内にある全エッジ数に対して所
定の割合α以上であること。
Z1: the number of edges a1, a2 in the overlapping area ω of the secondary differential images I 1 , I 2 in the movement amount (d)
Is a predetermined ratio α or more with respect to the total number of edges in each original image.

【0065】Z2:誤差マップにおいて、移動量(d)
における2次微分画像l1,12間の誤差マップが極小値
(図9においては、単一の線分で囲まれ、且つ、周囲よ
り誤差値が小さい領域における最小の値)をとり、且
つ、その極小値において誤差マップを2次微分した値が
最大となること。(ステップ25) このように、2次微分画像を用いて原画像の重なり領域
を抽出しているため、原画像間における輝度レベルの差
の影響がなくなり、精度よく対応領域の抽出を行なうこ
とが可能となる。
Z2: Movement amount (d) in the error map
Takes the minimum value (the minimum value in a region surrounded by a single line segment and having a smaller error value than the surroundings in FIG. 9), and The value obtained by secondarily differentiating the error map at the minimum value becomes the maximum. (Step 25) Since the overlapping area of the original image is extracted using the secondary differential image, the influence of the difference in the luminance level between the original images is eliminated, and the corresponding area can be extracted with high accuracy. It becomes possible.

【0066】また、対応領域として重なり領域内におけ
るエッジ数が各々の原画像内にある全エッジ数に対して
所定の割合α以上あるものを抽出しているため、海や空
などを多く含むエッジの少ない重なり領域が誤って対応
領域として抽出されることがなく、信頼性の高い対応領
域の抽出を行なうことが可能となる。
Also, since the number of edges in the overlapping area as a corresponding area is extracted at a predetermined ratio α or more with respect to the total number of edges in each original image, an edge including a lot of sea and sky is extracted. It is possible to perform highly reliable extraction of a corresponding area without an erroneous extraction of an overlapping area having a small area.

【0067】また、合成の対象となる画像やエッジの閾
値αの値によっては、エッジ数の少ない重なり領域にお
いて、エッジ数の多い重なり領域より誤差の値が小さく
なる場合があるが、ここでは、対応領域となる極小値の
前後において誤差マップの値の変化率(傾き)がそれ以
外の極小値の前後における傾きより大きくなることを利
用しているため、更に精度よく対応領域の抽出を行なう
ことが可能となる。
Further, depending on the image to be synthesized and the value of the threshold value α of the edge, the error value may be smaller in the overlapping region with a small number of edges than in the overlapping region with a large number of edges. Since the change rate (slope) of the value of the error map before and after the minimum value serving as the corresponding area is larger than the slope before and after the other minimum values, the corresponding area is more accurately extracted. Becomes possible.

【0068】尚、ここでは、2次微分画像を用いて原画
像の重なり領域を抽出する際、2次微分画像間の誤差マ
ップが極小値をとり、且つ、その極小値において誤差マ
ップを2次微分した値が最大となる重なり領域を対応領
域として抽出する場合について説明したが、2次微分画
像間の誤差マップにおいて最小値をとる重なり領域を対
応領域として抽出してもよい。
Here, when the overlapping area of the original image is extracted using the secondary differential image, the error map between the secondary differential images takes a minimum value, and the error map is converted to a secondary value at the minimum value. Although the case where the overlap area where the differentiated value is the maximum is extracted as the corresponding area has been described, the overlap area having the minimum value in the error map between the secondary differential images may be extracted as the corresponding area.

【0069】また、ここでは、エッジの閾値αを各々の
原画像内にある全エッジ数に対して所定の割合とした
が、閾値αをエッジの個数として固定の値してもよい。
Further, here, the threshold value α of the edge is set to a predetermined ratio with respect to the total number of edges in each original image. However, the threshold value α may be a fixed value as the number of edges.

【0070】また、ここでは、重なり領域におけるエッ
ジ数を合成する2枚の画像両方について求めたが、一方
の画像について求めてもよい。 (III) 次に、特徴点抽出が行われる(ステップ3)。つ
まり、第1画像の対応領域から、追跡に有効な複数の部
分画像(矩形領域)が特徴点として抽出される。ただ
し、各特徴点は互いに重ならないように抽出される。具
体的には、上述した信頼度λminの高い部分が特徴点と
して抽出される。 (IV)次に、特徴点追跡処理が行われる(ステップ4)。
つまり、抽出された第1画像の特徴点の第2画像上の位
置が追跡される。
Further, here, the number of edges in the overlapping area is obtained for both images to be synthesized, but may be obtained for one of the images. (III) Next, feature point extraction is performed (step 3). That is, a plurality of partial images (rectangular regions) effective for tracking are extracted as feature points from the corresponding region of the first image. However, each feature point is extracted so as not to overlap each other. Specifically, a portion having a high reliability λmin is extracted as a feature point. (IV) Next, feature point tracking processing is performed (step 4).
That is, the positions of the extracted feature points of the first image on the second image are tracked.

【0071】具体的には、まず、〔1〕で説明したオプ
ティカルフロー推定方法で、適当なサイズ(例えば、1
3×13)のパッチ毎のオプティカルフローベクトルが
求められる。第1画像の特徴点に対応する第2画像上の
位置は、第1画像の特徴点の4近傍のパッチのフローベ
クトルから線形補間により画素単位以下で求められる。 (V) 次に、平面射影変換行列が算出される(ステップ
5)。
Specifically, first, an appropriate size (for example, 1) is obtained by the optical flow estimation method described in [1].
An optical flow vector for each 3 × 13) patch is obtained. The positions on the second image corresponding to the feature points of the first image are obtained in pixel units or less by linear interpolation from the flow vectors of the patches near the four feature points of the first image. (V) Next, a plane projection transformation matrix is calculated (step 5).

【0072】対象としているシーンが遠方にある場合
や、近くても建物や壁、黒板などの場合には、それらの
単一平面と仮定することができる。図7に示すように3
次元空間中の単一平面の点Mを2つの異なる視点C1
2から観察した時、これらの各画像面での座標m1、m
2の間の変換は、線形であることが射影幾何学において
知られており、homographyと呼ばれている(O.Faugera
s,"Three-Dimention Computer Viaion: a Geometric Vi
ewpoint",MIT press, 1993.)。
If the target scene is far away, or if it is close to buildings, walls, blackboards, etc., it can be assumed that these are single planes. As shown in FIG.
A point M on a single plane in a dimensional space is defined by two different viewpoints C 1 ,
When viewed from the C 2, the coordinates m 1, m of these in each image plane
Transformations between two are known in projective geometry to be linear and are called homography (O. Faugera
s, "Three-Dimention Computer Viaion: a Geometric Vi
ewpoint ", MIT press, 1993.).

【0073】すなわち、画像座標を斉次座標で表した第
1画像の点m1=(x1,y1,1)tは、第2画像上
で対応する点m2=(x2,y2,1)tを持ち、それ
らの関係は次式数12で定義される。
That is, the point m1 = (x1, y1, 1) t of the first image, which represents the image coordinates in homogeneous coordinates, is the corresponding point m2 = (x2, y2, 1) t on the second image. And their relationship is defined by the following equation (12).

【0074】[0074]

【数12】 ここでは射影的に等しいことを示し、スケール因子を残
す。そして、この変換行列は、次式数13のように書き
換えることができる。
(Equation 12) Here, it is shown that they are projectively equal, and the scale factor is left. This transformation matrix can be rewritten as in the following equation (13).

【0075】[0075]

【数13】 (VI)求められた平面射影変換行列に基づいて、2つの画
像の位置が合致するように、両画像が重ね合わされた画
像が生成される(ステップ6)。 (VII) そして、2つの画像が互いに重なり合っている部
分(以下、重合部という)に対して画素値調合が行われ
る(ステップ7)。つまり、第1画像と第2画像とは、
撮影条件が同じでないので、一方に比べて他方が暗い場
合がある。そこで、2つの画像の重合部内の注目点の画
素値は、2つの画像の重合部の両端からの注目点までの
距離に基づいて、注目点の第1画像の画素値および注目
点の第2画像の画素値とが調合された値とされる。
(Equation 13) (VI) Based on the obtained plane projection transformation matrix, an image is generated by superimposing the two images so that the positions of the two images coincide (step 6). (VII) Then, pixel value adjustment is performed on a portion where the two images overlap each other (hereinafter, referred to as a superimposed portion) (step 7). That is, the first image and the second image are:
Since the shooting conditions are not the same, the other may be darker than the other. Therefore, the pixel value of the point of interest in the overlapping portion of the two images is determined based on the distance from both ends of the overlapping portion of the two images to the point of interest, and the pixel value of the first image of the point of interest and the second pixel value of the point of interest. The pixel value of the image is a combined value.

【0076】このように、本実施の形態によれば、合成
の対象となる画像間の対応領域が精度よく抽出されるこ
とに伴って、精度よく画像合成を行なうことが可能とな
る。 〔3〕その他の応用例の説明 上記画像合成装置において用いられたパノラマ画像合成
ソフトウエアは、単体として商品化することが可能であ
る。また、このパノラマ画像合成プログラムを、デジタ
ルスチルカメラ画像印刷ラボの印刷装置、デジタルカメ
ラ画像出力用のプリンタ、デジタルカメラ、複写機等に
組み込むことができる。
As described above, according to the present embodiment, it is possible to perform image synthesis with high accuracy as the corresponding area between images to be synthesized is extracted with high accuracy. [3] Description of Other Application Examples The panoramic image synthesizing software used in the image synthesizing apparatus can be commercialized as a single unit. Further, the panoramic image synthesizing program can be incorporated into a printing device of a digital still camera image printing lab, a printer for outputting a digital camera image, a digital camera, a copying machine, and the like.

【0077】図8は、パノラマ画像合成プログラムが組
み込まれたデジタルスチルカメラの構成を示している。
FIG. 8 shows the configuration of a digital still camera in which a panorama image synthesizing program is incorporated.

【0078】このデジタルスチルカメラは、通常のデジ
タルスチルカメラと同様にCCD1、A/D変換器2、
映像処理部3、CPU4、ROM5、フラッシュメモリ
6、操作部7等を備えた。パノラマ画像合成プログラム
は、ROM5に格納されている。
This digital still camera has a CCD 1, an A / D converter 2,
A video processing unit 3, a CPU 4, a ROM 5, a flash memory 6, an operation unit 7, and the like are provided. The panorama image synthesizing program is stored in the ROM 5.

【0079】操作部7の操作により、パノラマ画像合成
プログラムを起動することによりって、フラッシュメモ
リ6に既に取り込まれている複数枚の画像を〔2〕で説
明したような方法により合成して、1枚のパノラマ画像
を生成する。生成されたパノラマ画像はフラッシュメモ
リ6に記憶される。
By activating the panoramic image synthesizing program by operating the operation unit 7, a plurality of images already taken into the flash memory 6 are synthesized by the method described in [2]. One panoramic image is generated. The generated panoramic image is stored in the flash memory 6.

【0080】[0080]

【発明の効果】本発明によれば、輝度レベルの変化に影
響されることなく2枚の画像の対応領域を精度よく抽出
することができる画像の対応領域抽出方法、その対応領
域抽出方法を用いて画像を合成する画像合成方法、画像
合成装置、画像合成プログラム、そのプログラムを記録
した記録媒体を提供することが可能となる。
According to the present invention, there is provided a method for extracting a corresponding area of an image which can accurately extract a corresponding area of two images without being affected by a change in luminance level, and a method for extracting the corresponding area. , An image synthesizing apparatus, an image synthesizing program, and a recording medium storing the program.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 図1は、階層的推定法を説明するための模式
図である。
FIG. 1 is a schematic diagram for explaining a hierarchical estimation method.

【図2】 図2は、この発明によるオプティカルフロー
推定方法において行われる膨張処理を説明するためろの
模式図である。
FIG. 2 is a schematic diagram for explaining an expansion process performed in the optical flow estimation method according to the present invention.

【図3】 図3は、ある階層の画像に対してしきい値処
理されたオプティカルフローの例と、補完後のオプティ
カルフローを示す模式図である。
FIG. 3 is a schematic diagram illustrating an example of an optical flow obtained by performing threshold processing on an image of a certain hierarchy and an optical flow after interpolation.

【図4】 図4は、パノラマ画像合成装置の構成を示す
ブロック図である。
FIG. 4 is a block diagram illustrating a configuration of a panoramic image synthesizing apparatus.

【図5】 図5は、パノラマ画像合成処理手順を示すフ
ローチャートである。
FIG. 5 is a flowchart illustrating a panoramic image synthesis processing procedure;

【図6】 図6は、図5のフローチャートにおける対応
領域抽出の手順を示すフローチャートである。
FIG. 6 is a flowchart showing a procedure for extracting a corresponding region in the flowchart of FIG. 5;

【図7】 図7は、平面射影行列を説明するための説明
図である。
FIG. 7 is an explanatory diagram for explaining a plane projection matrix.

【図8】 図8は、パノラマ画像合成プログラムが組み
込まれたデジタルスチルカメラの構成を示すブロック図
てある。
FIG. 8 is a block diagram showing a configuration of a digital still camera in which a panorama image synthesizing program is incorporated.

【図9】 図9は、誤差マップの一例を示すグラフであ
る。
FIG. 9 is a graph showing an example of an error map.

【符号の説明】[Explanation of symbols]

10 パーソナルコンピュータ 11 CPU 12 メモリ 13 ハードディスク 14 リムーバブルディスクのドライバ 21 ディスプレイ 22 マウス 23 キーボード DESCRIPTION OF SYMBOLS 10 Personal computer 11 CPU 12 Memory 13 Hard disk 14 Removable disk driver 21 Display 22 Mouse 23 Keyboard

───────────────────────────────────────────────────── フロントページの続き (72)発明者 蚊野 浩 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 Fターム(参考) 5B057 CA12 CA16 CC01 CD02 CD03 CE20 DA08 DA20 DC16 DC30 5C076 AA19  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Hiroshi Kamosono 2-5-5 Keihanhondori, Moriguchi-shi, Osaka Sanyo Electric Co., Ltd. F-term (reference) 5B057 CA12 CA16 CC01 CD02 CD03 CE20 DA08 DA20 DC16 DC30 5C076 AA19

Claims (25)

【特許請求の範囲】[Claims] 【請求項1】 2枚の原画像それぞれを2次微分した2
次微分画像を求め、該2次微分画像に基づいて前記原画
像間の対応領域を抽出する画像の対応領域抽出方法。
1. A second derivative of each of two original images
A method for extracting a corresponding area of an image, wherein a corresponding area between the original images is extracted based on the second derivative image.
【請求項2】 前記2次微分画像間の重なり領域を変化
させながら、重なり領域における少なくとも一方の2次
微分画像のエッジ数を算出するとともに、重なり領域に
おける2次微分画像間の誤差に基づいて誤差マップを求
め、前記エッジ数と前記誤差マップとに基づいて原画像
間の対応領域を抽出する画像の対応領域抽出方法。
2. The method according to claim 1, further comprising calculating an edge number of at least one of the secondary differential images in the overlapping area while changing an overlapping area between the secondary differential images, and based on an error between the secondary differential images in the overlapping area. A method for extracting a corresponding area of an image, wherein an error map is obtained and a corresponding area between original images is extracted based on the number of edges and the error map.
【請求項3】 前記エッジ数が所定値以上であり、且
つ、前記誤差マップが最小値をとる重なり領域を抽出
し、該重なり領域に対応する各原画像の領域を原画像間
の対応領域として抽出する請求項2記載の画像の対応領
域抽出方法。
3. An overlapping area where the number of edges is equal to or more than a predetermined value and the error map takes a minimum value is extracted, and a region of each original image corresponding to the overlapping region is defined as a corresponding region between the original images. 3. The method according to claim 2, wherein the corresponding area is extracted.
【請求項4】 前記エッジ数が所定値以上であり、且
つ、前記誤差マップが極小値をとり、且つ、前記誤差マ
ップの極小値における2次微分値が最大となる2次微分
画像の重なり領域を抽出し、該重なり領域に対応する各
原画像の領域を原画像間の対応領域として抽出する請求
項2記載の画像の対応領域抽出方法。
4. An overlapping area of a secondary differential image in which the number of edges is equal to or more than a predetermined value, the error map has a minimum value, and a secondary differential value at the minimum value of the error map is maximum. 3. The method according to claim 2, wherein a region of each original image corresponding to the overlapping region is extracted as a corresponding region between the original images.
【請求項5】 前期エッジ数が前期原画像内にある全エ
ッジ数に対して所定の割合以上であり、且つ、前記誤差
マップが最小値をとる重なり領域を抽出し、該重なり領
域に対応する各原画像の領域を原画像間の対応領域とし
て抽出する請求項2記載の画像の対応領域抽出方法。
5. An overlapping region in which the number of edges in the previous period is equal to or more than a predetermined ratio with respect to the number of all edges in the original image in the previous period, and the error map takes a minimum value is extracted, and the extracted region corresponds to the overlapping region. 3. The method according to claim 2, wherein the area of each original image is extracted as a corresponding area between the original images.
【請求項6】 前期エッジ数が前期原画像内にある全エ
ッジ数に対して所定の割合以上であり、且つ、前期誤差
マップの極小値における2次微分値が最大となる2次微
分画像の重なり領域を抽出し、該重なり領域に対応する
各原画像の領域を原画像間の対応領域として抽出する請
求項2記載の画像の対応領域抽出方法。
6. A secondary differential image in which the number of edges in the previous period is equal to or more than a predetermined ratio with respect to the number of all edges in the original image in the previous period, and the second derivative at the minimum value of the error map is maximum. 3. The method according to claim 2, wherein the overlapping region is extracted, and a region of each original image corresponding to the overlapping region is extracted as a corresponding region between the original images.
【請求項7】 第1原画像と第2原画像それぞれを2次
微分した2次微分画像を求め、該2次微分画像に基づい
て前記原画像間の対応領域を抽出する第1ステップ、該
対応領域における両原画像間の関係式を算出する第2ス
テップ、該関係式に基づいて第1原画像または第2原画
像を変換して両原画像を合成する第3ステップを備えた
画像合成方法。
7. A first step of obtaining a second differential image obtained by secondarily differentiating each of the first original image and the second original image, and extracting a corresponding region between the original images based on the second differential image, Image synthesis including a second step of calculating a relational expression between the two original images in the corresponding region, and a third step of converting the first original image or the second original image based on the relational expression and synthesizing the two original images Method.
【請求項8】 前記第1ステップは、前記各原画像を2
次微分した2次微分画像を算出するステップ、両2次微
分画像間の重なり領域を変化させながら、重なり領域に
おける少なくとも一方の2次微分画像のエッジ数を算出
するとともに、重なり領域における両2次微分画像間の
誤差に基づいて誤差マップを求めるステップ、前記エッ
ジ数と前記誤差マップとに基づいて両原画像間の対応領
域を抽出するステップを備えた請求項7記載の画像合成
方法。
8. The method according to claim 1, wherein the first step comprises:
Calculating the second-order differentiated image by performing second-order differentiation, calculating the number of edges of at least one second-order differential image in the overlap region while changing the overlap region between the two second-order differential images, 8. The image synthesizing method according to claim 7, further comprising: obtaining an error map based on an error between the differential images; and extracting a corresponding region between the two original images based on the number of edges and the error map.
【請求項9】 前記エッジ数が所定値以上であり、且
つ、前記誤差マップが最小値をとる重なり領域を抽出
し、該重なり領域に対応する原画像の領域を原画像間の
対応領域として抽出する請求項8記載の画像合成方法。
9. An overlapping area where the number of edges is equal to or more than a predetermined value and the error map has a minimum value is extracted, and an area of an original image corresponding to the overlapping area is extracted as a corresponding area between the original images. 9. The image synthesizing method according to claim 8, wherein:
【請求項10】 前記エッジ数が所定値以上であり、且
つ、前記誤差マップが極小値をとり、且つ、前記誤差マ
ップの極小値における2次微分値が最大となる2次微分
画像の重なり領域を抽出し、該重なり領域に対応する各
原画像の領域を原画像間の対応領域として抽出する請求
項8記載の画像合成方法。
10. An overlapping area of a secondary differential image in which the number of edges is equal to or more than a predetermined value, the error map takes a local minimum value, and a secondary differential value at the local minimum value of the error map is maximum. 9. The image synthesizing method according to claim 8, further comprising extracting a region of each original image corresponding to the overlapping region as a corresponding region between the original images.
【請求項11】 前期エッジ数が前期原画像内にある全
エッジ数に対して所定の割合以上であり、、且つ、前記
誤差マップが最小値をとる重なり領域を抽出し、該重な
り領域に対応する原画像の領域を原画像間の対応領域と
して抽出する請求項8記載の画像合成方法。
11. An overlapping area in which the number of edges in the previous period is equal to or greater than a predetermined ratio with respect to the number of all edges in the original image in the previous period, and the error map takes a minimum value is extracted. 9. The image synthesizing method according to claim 8, wherein an area of the original image to be extracted is extracted as a corresponding area between the original images.
【請求項12】 前期エッジ数が前期原画像内にある全
エッジ数に対して所定の割合以上であり、且つ、前期誤
差マップの極小値における2次微分値が最大となる2次
微分画像の重なり領域を抽出し、該重なり領域に対応す
る各原画像の領域を原画像間の対応領域として抽出する
請求項8記載の画像合成方法。
12. A secondary differential image in which the number of edges in the previous period is equal to or more than a predetermined ratio with respect to the number of all edges in the original image in the previous period, and the second derivative at the minimum value of the error map is maximum. 9. The image synthesizing method according to claim 8, wherein an overlapping area is extracted, and an area of each original image corresponding to the overlapping area is extracted as a corresponding area between the original images.
【請求項13】 第1原画像と第2原画像それぞれを2
次微分した2次微分画像を求め、該2次微分画像に基づ
いて前記原画像間の対応領域を抽出する第1手段、該対
応領域における両原画像間の関係式を算出する第2手
段、該関係式に基づいて第1原画像または第2原画像を
変換して両原画像を合成する第3手段を備えた画像合成
装置。
13. Each of the first original image and the second original image is 2
First means for obtaining a second-order differentiated image obtained by performing second-order differentiation, and extracting a corresponding area between the original images based on the second-order differential image; second means for calculating a relational expression between the two original images in the corresponding area; An image synthesizing apparatus comprising third means for converting the first original image or the second original image based on the relational expression and synthesizing the two original images.
【請求項14】 前記第1手段は、前記各原画像を2次
微分した2次微分画像を算出する手段、両2次微分画像
間の重なり領域を変化させながら、重なり領域における
少なくとも一方の2次微分画像のエッジ数を算出すると
ともに、重なり領域における両2次微分画像間の誤差に
基づいて誤差マップを求める手段、前記エッジ数と前記
誤差マップとに基づいて両原画像間の対応領域を抽出す
る手段を備えた請求項13記載の画像合成装置。
14. The first means is means for calculating a second derivative image obtained by secondarily differentiating each of the original images, and changing at least one of the two overlapped images while changing an overlap area between the two second derivative images. Means for calculating the number of edges of the secondary differential image and for obtaining an error map based on the error between the two secondary differential images in the overlapping area, and determining the corresponding area between the two original images based on the number of edges and the error map. 14. The image synthesizing device according to claim 13, further comprising: means for extracting.
【請求項15】 前記エッジ数が所定値以上であり、且
つ、前記誤差マップが最小値をとる重なり領域を抽出
し、該重なり領域に対応する原画像の領域を原画像間の
対応領域として抽出する請求項14記載の画像合成装
置。
15. An overlapping area where the number of edges is equal to or more than a predetermined value and the error map takes a minimum value is extracted, and an area of an original image corresponding to the overlapping area is extracted as a corresponding area between the original images. The image synthesizing device according to claim 14, wherein
【請求項16】 前記エッジ数が所定値以上であり、且
つ、前記誤差マップが極小値をとり、且つ、前記誤差マ
ップの極小値における2次微分値が最大となる2次微分
画像の重なり領域を抽出し、該重なり領域に対応する各
原画像の領域を原画像間の対応領域として抽出する請求
項14記載の画像合成装置。
16. An overlapping area of a secondary differential image in which the number of edges is equal to or more than a predetermined value, the error map takes a local minimum value, and a secondary differential value at the local minimum value of the error map is maximum. 15. The image synthesizing apparatus according to claim 14, wherein the image synthesizing unit extracts a region of each original image corresponding to the overlapping region as a corresponding region between the original images.
【請求項17】 前期エッジ数が前期原画像内にある全
エッジ数に対して所定の割合以上であり、且つ、前記誤
差マップが最小値をとる重なり領域を抽出し、該重なり
領域に対応する原画像の領域を原画像間の対応領域とし
て抽出する請求項14記載の画像合成装置。
17. An overlapping area in which the number of edges in the previous period is equal to or more than a predetermined ratio with respect to the number of all edges in the original image in the previous period and the error map takes a minimum value is extracted, and the extracted region corresponds to the overlapping region. The image synthesizing apparatus according to claim 14, wherein an area of the original image is extracted as a corresponding area between the original images.
【請求項18】 前期エッジ数が前期原画像内にある全
エッジ数に対して所定の割合以上であり、且つ、前期誤
差マップの極小値における2次微分値が最大となる2次
微分画像の重なり領域を抽出し、該重なり領域に対応す
る各原画像の領域を原画像間の対応領域として抽出する
請求項14記載の画像合成装置。
18. A secondary differential image in which the number of edges in the previous period is equal to or more than a predetermined ratio with respect to the number of all edges in the original image in the previous period, and the second derivative at the minimum value of the error map is maximum. 15. The image synthesizing apparatus according to claim 14, wherein an overlapping area is extracted, and an area of each original image corresponding to the overlapping area is extracted as a corresponding area between the original images.
【請求項19】 第1原画像と第2原画像それぞれを2
次微分した2次微分画像を求め、該2次微分画像に基づ
いて前記原画像間の対応領域を抽出する第1ステップ、
該対応領域における両原画像間の関係式を算出する第2
ステップ、該関係式に基づいて第1原画像または第2原
画像を変換して両原画像を合成する第3ステップを備え
た画像合成プログラムを記録したコンピュータ読み取り
可能な記録媒体。
19. Each of the first original image and the second original image is 2
A first step of obtaining a second-order differential image obtained by performing a second-order differentiation, and extracting a corresponding region between the original images based on the second-order differential image;
Calculating a relational expression between the two original images in the corresponding area;
A computer-readable recording medium storing an image synthesizing program, comprising: a step of converting a first original image or a second original image based on the relational expression to synthesize the two original images.
【請求項20】 前記第1ステップは、前記各原画像を
2次微分した2次微分画像を算出するステップ、両2次
微分画像間の重なり領域を変化させながら、重なり領域
における少なくとも一方の2次微分画像のエッジ数を算
出するとともに、重なり領域における両2次微分画像間
の誤差に基づいて誤差マップを求めるステップ、前記エ
ッジ数と前記誤差マップとに基づいて両原画像間の対応
領域を抽出するステップを備えた請求項19記載の画像
合成プログラムを記録したコンピュータ読み取り可能な
記録媒体。
20. The method according to claim 19, wherein the first step is a step of calculating a second derivative image obtained by secondarily differentiating each of the original images, and changing at least one of the two overlapped images while changing the overlap region between the two second derivative images. Calculating the number of edges of the secondary differential image and obtaining an error map based on the error between the two secondary differential images in the overlapping area; and determining the corresponding area between the two original images based on the number of edges and the error map. 20. A computer-readable recording medium recording the image synthesizing program according to claim 19, further comprising an extracting step.
【請求項21】 前記エッジ数が所定値以上であり、且
つ、前記誤差マップが最小値をとる重なり領域を抽出
し、該重なり領域に対応する原画像の領域を原画像間の
対応領域として抽出する請求項20記載の画像合成プロ
グラムを記録したコンピュータ読み取り可能な記録媒
体。
21. An overlapping area in which the number of edges is equal to or more than a predetermined value and the error map has a minimum value is extracted, and an area of an original image corresponding to the overlapping area is extracted as a corresponding area between the original images. A computer-readable recording medium on which the image synthesizing program according to claim 20 is recorded.
【請求項22】 前記エッジ数が所定値以上であり、且
つ、前記誤差マップが極小値をとり、且つ、前記誤差マ
ップの極小値における2次微分値が最大となる2次微分
画像の重なり領域を抽出し、該重なり領域に対応する各
原画像の領域を原画像間の対応領域として抽出する請求
項20記載の画像合成プログラムを記録したコンピュー
タ読み取り可能な記録媒体。
22. An overlapping area of a secondary differential image in which the number of edges is equal to or more than a predetermined value, the error map takes a minimum value, and a secondary differential value at the minimum value of the error map is maximum. 21. A computer-readable recording medium in which an image synthesizing program according to claim 20, wherein an area of each original image corresponding to the overlapping area is extracted as a corresponding area between the original images.
【請求項23】 前期エッジ数が前期原画像内にある全
エッジ数に対して所定の割合以上であり、且つ、前記誤
差マップが最小値をとる重なり領域を抽出し、該重なり
領域に対応する原画像の領域を原画像間の対応領域とし
て抽出する請求項20記載の画像合成プログラムを記録
したコンピュータ読み取り可能な記録媒体。
23. An overlap area in which the number of edges in the previous period is equal to or more than a predetermined ratio with respect to the number of all edges in the original image in the previous period and the error map takes a minimum value is extracted, and the overlap region corresponds to the overlap region. 21. A computer-readable recording medium storing an image synthesizing program according to claim 20, wherein an area of the original image is extracted as a corresponding area between the original images.
【請求項24】 前期エッジ数が前期原画像内にある全
エッジ数に対して所定の割合以上であり、且つ、前期誤
差マップの極小値における2次微分値が最大となる2次
微分画像の重なり領域を抽出し、該重なり領域に対応す
る各原画像の領域を原画像間の対応領域として抽出する
請求項24記載の画像合成プログラムを記録したコンピ
ュータ読み取り可能な記録媒体。
24. A secondary differential image in which the number of edges in the previous period is equal to or more than a predetermined ratio with respect to the number of all edges in the original image in the previous period, and the second derivative at the minimum value of the error map is the largest. 25. A computer-readable recording medium recording an image synthesizing program according to claim 24, wherein an overlapping area is extracted, and an area of each original image corresponding to the overlapping area is extracted as a corresponding area between the original images.
【請求項25】 第1原画像と第2原画像それぞれを2
次微分した2次微分画像を求め、該2次微分画像に基づ
いて前記原画像間の対応領域を抽出する第1ステップ、
該対応領域における両原画像間の関係式を算出する第2
ステップ、該関係式に基づいて第1原画像または第2原
画像を変換して両原画像を合成する第3ステップを備え
た画像合成プログラム。
25. Each of the first original image and the second original image is 2
A first step of obtaining a second-order differential image obtained by performing a second-order differentiation, and extracting a corresponding region between the original images based on the second-order differential image;
Calculating a relational expression between the two original images in the corresponding area;
An image synthesizing program, comprising: a step of converting a first original image or a second original image based on the relational expression to synthesize the two original images.
JP02903499A 1999-02-05 1999-02-05 Image corresponding area extracting method, image synthesizing method, image synthesizing apparatus, computer-readable recording medium storing image synthesizing program Expired - Fee Related JP3384764B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02903499A JP3384764B2 (en) 1999-02-05 1999-02-05 Image corresponding area extracting method, image synthesizing method, image synthesizing apparatus, computer-readable recording medium storing image synthesizing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02903499A JP3384764B2 (en) 1999-02-05 1999-02-05 Image corresponding area extracting method, image synthesizing method, image synthesizing apparatus, computer-readable recording medium storing image synthesizing program

Publications (2)

Publication Number Publication Date
JP2000227958A true JP2000227958A (en) 2000-08-15
JP3384764B2 JP3384764B2 (en) 2003-03-10

Family

ID=12265135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02903499A Expired - Fee Related JP3384764B2 (en) 1999-02-05 1999-02-05 Image corresponding area extracting method, image synthesizing method, image synthesizing apparatus, computer-readable recording medium storing image synthesizing program

Country Status (1)

Country Link
JP (1) JP3384764B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004032055A1 (en) * 2002-09-30 2004-04-15 Sony Corporation Image processing device, image processing method, recording medium, and program
JP2007048122A (en) * 2005-08-11 2007-02-22 Casio Comput Co Ltd Image processing device and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004032055A1 (en) * 2002-09-30 2004-04-15 Sony Corporation Image processing device, image processing method, recording medium, and program
JP2007048122A (en) * 2005-08-11 2007-02-22 Casio Comput Co Ltd Image processing device and program

Also Published As

Publication number Publication date
JP3384764B2 (en) 2003-03-10

Similar Documents

Publication Publication Date Title
JP3435084B2 (en) Optical flow estimation method and image composition method
Wei et al. A survey on image and video stitching
CN110033475B (en) Aerial photograph moving object detection and elimination method based on high-resolution texture generation
KR101195942B1 (en) Camera calibration method and 3D object reconstruction method using the same
US11348267B2 (en) Method and apparatus for generating a three-dimensional model
Ke et al. Transforming camera geometry to a virtual downward-looking camera: Robust ego-motion estimation and ground-layer detection
Habbecke et al. A surface-growing approach to multi-view stereo reconstruction
KR101396346B1 (en) Method and apparatus for creating a 3D image using 2D photograph images
US6473536B1 (en) Image synthesis method, image synthesizer, and recording medium on which image synthesis program is recorded
GB2557398A (en) Method and system for creating images
EP0842498A2 (en) Method and system for image combination using a parallax-based technique
CN110245199B (en) Method for fusing large-dip-angle video and 2D map
CN110941996A (en) Target and track augmented reality method and system based on generation of countermeasure network
Ilan et al. A Survey on Data‐Driven Video Completion
Sharma et al. A flexible architecture for multi-view 3DTV based on uncalibrated cameras
CN114782628A (en) Indoor real-time three-dimensional reconstruction method based on depth camera
JP2001274973A (en) Device and method for synthesizing microscopic image and computer-readable recording medium with microscopic image synthesizing processing program recorded thereon
JP3557168B2 (en) Lens distortion coefficient calculation device and calculation method, computer-readable recording medium storing lens distortion coefficient calculation program
JP2000155831A (en) Method and device for image composition and recording medium storing image composition program
JP3540696B2 (en) Image synthesizing method, image synthesizing device, recording medium storing image synthesizing program
CN117173012A (en) Unsupervised multi-view image generation method, device, equipment and storage medium
JP3548071B2 (en) Intermediate image synthesizing method, intermediate image synthesizing device, recording medium storing intermediate image synthesizing program
JP2002094849A (en) Wide view image pickup device
JP2004046573A (en) Method for calculating tilt angle, method for synthesizing cylindrical panorama picture, and computer-readable recording medium with program for cylindrical panorama picture synthesis processing recorded thereon
JP3384764B2 (en) Image corresponding area extracting method, image synthesizing method, image synthesizing apparatus, computer-readable recording medium storing image synthesizing program

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081227

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081227

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091227

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees