JP2010512696A - Image joining method and device for joining digital images together - Google Patents
Image joining method and device for joining digital images together Download PDFInfo
- Publication number
- JP2010512696A JP2010512696A JP2009540553A JP2009540553A JP2010512696A JP 2010512696 A JP2010512696 A JP 2010512696A JP 2009540553 A JP2009540553 A JP 2009540553A JP 2009540553 A JP2009540553 A JP 2009540553A JP 2010512696 A JP2010512696 A JP 2010512696A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frequency band
- joining
- joining method
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
Abstract
重複領域において重複する入力画像同士を繋ぎ合わせる画像繋合方法は、各々の入力画像から低周波帯副画像を得ることと;各々の入力画像から高周波帯副画像を得ることとを含む。更に画像繋合方法は、低周波帯出力画像を作り出すべく重複領域の少なくとも一部を横切って低周波帯副画像同士をブレンドすることと;高周波帯出力画像を作り出すべく重複領域の少なくとも一部を横切って高周波帯副画像同士を接合することと;全帯域出力合成画像を作り出すべく低周波帯出力画像と高周波帯出力画像を合体することとを含む。An image joining method for joining overlapping input images in an overlapping region includes obtaining a low frequency band sub-image from each input image; and obtaining a high frequency band sub-image from each input image. The image joining method further includes blending the low frequency sub-images across at least a portion of the overlap region to produce a low frequency band output image; and at least part of the overlap region to create a high frequency band output image. Joining the high frequency band sub-images across; combining the low frequency band output image and the high frequency band output image to produce a full band output composite image.
Description
本発明は、2つ以上のデジタル画像を互いに繋ぎ合わせる(stitching)方法と装置に関する。 The present invention relates to a method and apparatus for stitching two or more digital images together.
重複視野を描写するデジタル画像同士は、「繋ぎ合わせ」として公知の工程によって、より大きな統合視野の合成画像を形成すべく合体(combine)され得る。何れの原画像よりも大きな視野を備える合成画像を作成すべく、繋ぎ合わせを用いることによって、幾つかの原画像を互いに継ぎ合わせ(join)得る。 Digital images depicting overlapping fields of view can be combined to form a composite image of a larger integrated field of view by a process known as “joining”. Several original images can be joined together by using splicing to create a composite image with a larger field of view than any original image.
幾つかの先行技術の合成画像(stitched images)において生じ得る1つの問題は、合体画像の視野が交わる、目に見える「継ぎ目」の出現である。公知の画像繋合方法は通常、合成画像を作り出すために、入力画像の正確またはほぼ正確なオーバーレイを必要とする。最も公知の画像繋合方法は、同一の画像露出量を必要とするし、仮にそうであったとしても高ダイナミックレンジ画像ではうまくいかない。幾つかの公知の画像繋合方法は、コンピュータ集約的であり、コンピュータソフトウエアで実行される場合はメモリ効率が悪い。 One problem that may arise in some prior art stitched images is the emergence of visible “seams” where the fields of view of the merged image intersect. Known image stitching methods typically require an accurate or near-accurate overlay of the input image to produce a composite image. Most known image stitching methods require the same image exposure and, if so, will not work for high dynamic range images. Some known image stitching methods are computer intensive and poorly memory efficient when executed with computer software.
高品質合成画像を得るため、デジタル画像の有効な繋合方法が一般的に必要とされる。特に、高ダイナミックレンジ画像を、合成画像に合体し得るような機材が必要である。 In order to obtain a high quality composite image, an effective method of joining digital images is generally required. In particular, there is a need for equipment that can merge a high dynamic range image into a composite image.
以下の実施形態とその特徴は、模範的と例示的であることを意味し、範囲を限定しない方法で記載と例示されている。様々な実施形態において、一あるいは複数の上記の問題は、軽減されるか、排除されているが、他の実施形態は、他の改良を対象にする。 The following embodiments and their features are meant to be exemplary and exemplary and are illustrated and illustrated in a way that does not limit the scope. In various embodiments, one or more of the above problems are alleviated or eliminated, but other embodiments are directed to other improvements.
本発明の1つの特徴は、重複画像同士を繋ぎ合わせる画像繋合方法に関する。画像繋合方法は、各々の入力画像から低周波帯副画像を得ることと、各々の入力画像から高周波帯副画像を得ることとを備える。更に画像繋合方法は、低周波帯副画像同士をブレンドすることによって低周波帯合成画像を作り出すことと、高周波帯出力合成画像を作り出すべく接合位置で高周波帯副画像同士を接合することによって高周波帯副画像を合体することと、低周波帯出力合成画像と高周波帯合成画像を合体することによって全帯域出力合成画像を作り出すこととを備える。 One feature of the present invention relates to an image joining method for joining overlapping images together. The image joining method includes obtaining a low-frequency band sub-image from each input image and obtaining a high-frequency band sub-image from each input image. Furthermore, the image merging method creates a low-frequency band composite image by blending low-frequency band sub-images, and joins the high-frequency band sub-images at the joint position to create a high-frequency band output composite image. Combining the band sub-images and creating a full-band output composite image by combining the low-frequency band output composite image and the high-frequency band composite image.
本発明の別の特徴は、重複画像同士を繋ぎ合わせる画像繋合装置に関する。画像繋合装置は、第1画像ブレンドプロセッサ、画像接合プロセッサ、および画像マージャを備える。画像マージャは、画像ブレンドプロセッサと画像接合プロセッサにそれぞれ連結される。 Another feature of the present invention relates to an image joining device that joins overlapping images together. The image splicing device includes a first image blend processor, an image splicing processor, and an image merger. The image merger is coupled to the image blend processor and the image splicing processor, respectively.
模範的実施形態は、添付図面において例示される。本明細書において開示される実施形態と図面は、例示であり、制限するものではない。
以下の説明を通して詳細情報は、本発明をより深く理解するために示される。しかし本発明は、これらの詳細なしで実行され得る。他の例において、周知の要素は、本発明を不必要に曖昧にしないように詳細に示されていないか、記載されていない。従って明細書と図面は、制限よりはむしろ例示的な意味で見なされるべきである。
Exemplary embodiments are illustrated in the accompanying drawings. The embodiments and drawings disclosed herein are illustrative and not limiting.
Detailed information is provided in the following description to provide a better understanding of the present invention. However, the present invention may be practiced without these details. In other instances, well-known elements have not been shown or described in detail so as not to unnecessarily obscure the present invention. The specification and drawings are, accordingly, to be regarded in an illustrative sense rather than a restrictive sense.
本明細書において記載された本発明の幾つかの実施形態に従う装置と方法は、1つの入力画像の低空間周波数成分を、別の入力画像の低空間周波数成分とブレンドし、更に入力画像の特徴と一致させるべく選択された位置で、入力画像同士の高空間周波数成分を不連続的に継ぎ合わす。低空間周波数成分同士は、顕著なアーチファクトを発生させることなく、滑らかにブレンドされ得る。高空間周波数成分同士は、走査線のエッジ特徴に最も近い各々の走査線上の接合位置で、重複領域の各々の複数走査線に沿って継ぎ合わされ得る。 An apparatus and method according to some embodiments of the invention described herein blends a low spatial frequency component of one input image with a low spatial frequency component of another input image, and further features the input image. The high spatial frequency components of the input images are discontinuously spliced at the position selected to match. Low spatial frequency components can be smoothly blended without producing significant artifacts. High spatial frequency components can be spliced along each scan line in the overlap region at the junction location on each scan line closest to the edge feature of the scan line.
本発明の1つの特徴は、画像を繋ぎ合わせる画像繋合方法に関する。以下の例示的説明において、方法例は、視野が共通の副視野を共有する2つの重複入力画像に適用されるように記載されているが、当然のことながら本発明の実施形態に従う方法は、任意数の入力画像を合体するためにも用いられ得る。共通の副視野を描写する各々の画像の一部は、重複領域と称され得る。各々の画像における重複領域は、他の画像の重複領域における点に対応する複数の点を含む。一方の画像の重複領域における点と他方の画像の重複領域における対応する点は、集合的に対応点と称され得る。 One feature of the present invention relates to an image joining method for joining images. In the following exemplary description, the example method is described as being applied to two overlapping input images, where the field of view shares a common sub-field of view, but it should be understood that the method according to embodiments of the present invention is: It can also be used to merge any number of input images. The portion of each image that depicts a common sub-field may be referred to as an overlapping region. The overlapping area in each image includes a plurality of points corresponding to the points in the overlapping area of other images. Points in the overlapping area of one image and corresponding points in the overlapping area of the other image may be collectively referred to as corresponding points.
図1aと図1bは、それぞれ第1入力領域11aと第2入力領域11bとして描写される共通の副視野を共有する、第1入力画像10aと第2入力画像10bを示す。図1cは、本明細書において記載されるような方法を、第1入力画像10aと第2入力画像10bに適用することによって得られる合成画像10cを示す。合成画像10cは、重複領域11cとして描写される共通の副視野を含む。本発明の実施形態に従う方法は、画像の何れもが、他の画像のうちの少なくとも1つと重複領域を共有する限りにおいて、任意数の画像の繋ぎ合わせに適用され得る。
FIGS. 1a and 1b show a
図2a〜図2dは、それぞれ重複領域例111a〜111dを示す。各々の重複領域111は、複数のピクセルを備え、各々のピクセルは、第1入力画像由来の第1ピクセル値と、それに関連する第2入力画像由来の第2ピクセル値とを備える。各々の重複領域111は、第1境界線123と第2境界線124の間に区画形成されると共に、複数の走査線によって分割され得る。走査線例121a〜121dは、それぞれ図2a〜図2dにおいて陰線で示す。図2aに示す重複領域例111aの走査線は、互いに平行な第1境界線123aと第2境界線124aに対して、全般的に垂直に規定される。
2a to 2d show overlapping area examples 111a to 111d, respectively. Each overlapping region 111 comprises a plurality of pixels, each pixel comprising a first pixel value derived from the first input image and an associated second pixel value derived from the second input image. Each overlapping region 111 is partitioned between the first boundary line 123 and the second boundary line 124 and can be divided by a plurality of scanning lines. Scan line examples 121a to 121d are indicated by hidden lines in FIGS. 2a to 2d, respectively. The scanning lines of the overlapping region example 111a shown in FIG. 2a are generally defined perpendicular to the
幾つかの状況において入力画像は、重複領域の境界線同士が互いに平行にはならないように方向付けられ得る。そのような状況において入力画像は、重複領域の境界線同士が互いに平行になるように、回転関数によってトリミングと処理のうちの少なくとも一方が行
われ得るが、これは全ての実施形態には必ずしも必要ない。
In some situations, the input image can be oriented such that the borders of the overlapping regions are not parallel to each other. In such a situation, the input image may be subjected to at least one of trimming and processing by a rotation function so that the boundary lines of the overlapping regions are parallel to each other, but this is not necessarily required for all embodiments. Absent.
図2b〜図2dに示す実施例において、入力画像は、重複領域111b〜111dそれぞれの第1境界線123b〜123dと第2境界線124b〜124dが互いに平行ではないように方向付けられる。たとえば図2bの重複領域121bの走査線は、第1境界線123bに全般的に垂直に規定され、図2cの重複領域121cの走査線は、第2境界線124cに全般的に垂直に規定され、図2dの重複領域121dの走査線は、第1境界線123dと第2境界線124dの両方に対して斜角に規定される。
In the embodiment shown in FIGS. 2b to 2d, the input image is oriented so that the
幾つかの状況において入力画像は、互いに異なる露出量レベルを占めるように正規化され得る。たとえば実施形態によっては、入力画像は、入力画像に関連する露出量情報に基づき正規化され得る。別または付加的に正規化は、平均露出量を算出し、更に重複領域の露出量レベルを正規化することによって達成され得る。 In some situations, the input images can be normalized to account for different exposure levels. For example, in some embodiments, the input image can be normalized based on exposure information associated with the input image. Alternatively or in addition, normalization can be achieved by calculating an average exposure and further normalizing the exposure level of the overlapping area.
図3は、第1入力画像10aと第2入力画像10bを繋ぎ合わせる画像繋合方法20の例を示す。画像繋合方法20は、公知の技術を用いて得られ得る画像対応データに従って、第1入力画像10aと第2入力画像10bを整列することを含み得る。幾つかの実施形態において画像繋合方法20は、画像間の対応点対に従って、入力画像を整列することを含む。対応点対は、手動によって選択され得るか、たとえばルーカス・カナデ・モーション推定法(Lucas and Kanade motion estimation)、または最適走査線特徴マッチングなどの公知の技法を用いることによって、自動的に生成され得る。一般的に重複領域における単一の特徴適合が、入力画像の整列に十分である。
FIG. 3 shows an example of an
ブロックS22において、画像繋合方法20は、第1入力画像10aと第2入力画像10bから、第1低周波帯副画像と第2低周波帯副画像を得る。第1低周波帯副画像と第2低周波帯副画像は各々、第1低周波帯副画像と第2低周波帯副画像の両方によって共有される共通の副視野によって区画形成される重複領域の少なくとも一部を備える。実施形態によっては、低周波帯副画像は、低周波数空間フィルタによって入力画像をフィルタリングすることによって得られる。低周波帯副画像は、入力画像の解像度よりも低い解像度を有し得る。1つの特定実施形態において低周波帯副画像は、入力画像解像度の16分の1に等しい解像度を備える。
In block S22, the
ブロックS24において、画像繋合方法20は、第1入力画像10aと第2入力画像10bから、第1高周波帯副画像と第2高周波帯副画像を得る。第1高周波帯副画像と第2高周波帯副画像はまた各々、第1入力画像10aと第2入力画像10bの両方によって共有される共通の副視野によって区画形成される重複領域の少なくとも一部を含む。実施形態によっては、高周波帯副画像は、高周波数空間フィルタで入力画像をフィルタリングすることによって得られる。1つの特定実施形態において高周波帯副画像は、入力画像の解像度に等しい解像度を備える。
In block S24, the
ブロックS26において、画像繋合方法20は、低周波帯出力副画像を作り出すべく、第1低周波帯副画像と第2低周波帯副画像をブレンドする。第1低周波帯副画像と第2低周波帯副画像のブレンドは、一または複数の走査線に沿って進行し得る。一実施形態においてブレンドは、正弦波融合関数を用いることによって、低周波帯出力副画像を作り出すことを備える。たとえば指数融合関数、または一次融合関数などの他の適切な融合関数もまた、用いられ得る。
In block S26, the
第1低周波帯副画像と第2低周波帯副画像のブレンドは、第1入力画像10aと第2入力画像10bの露出量が互いに異なる場合、マッハバンド・アーチファクトMach b
and artifactsの出現を減らす。第1入力画像10aと第2入力画像10b
の間の露出量の差によって生じるマッハバンド・アーチファクトの出現を更に最小限に抑えるため、画像繋合方法20は更に、共有重複領域の一部または全部に基づき、複数の副画像を正規化する段階を備える。
The blending of the first low frequency band sub-image and the second low frequency band sub image is performed when the exposure amounts of the
and reduce the appearance of artifacts.
In order to further minimize the appearance of Machband artifacts caused by exposure differences between images, the
ブロックS28において、画像繋合方法20は、高周波帯出力副画像を作り出すべく、第1高周波帯副画像と第2高周波帯副画像を接合する。第1高周波帯副画像と第2高周波帯副画像の接合は、一あるいは複数の走査線に沿って進行し得る。例示実施形態の以下の説明において、本発明は、複数の走査線を逐次的または同時に接合することによって実施され得るが、接合は、単一の走査線について記載される。
In block S28, the
接合は、入力として第1高周波帯副画像と第2高周波帯副画像からそれぞれ第1走査線と第2走査線を採用し、出力として合成走査線を生成する。各々の第1走査線と第2走査線のうちの一部は、その対応する高周波帯副画像の重複領域由来である。接合において第1入力走査線由来のピクセル値は、重複領域の第1境界線と、接合位置との間の出力走査線の第1側のピクセルに割当てられ、第2入力走査線由来のピクセル値は、接合位置と、重複領域の第2境界線との間の出力走査線の第2側のピクセルに割当てられる。 The joining employs the first scanning line and the second scanning line from the first high-frequency band sub-image and the second high-frequency band sub-image, respectively, as an input, and generates a combined scanning line as an output. A part of each of the first scanning line and the second scanning line is derived from the overlapping region of the corresponding high frequency band sub-image. The pixel value derived from the first input scan line at the junction is assigned to the pixel on the first side of the output scan line between the first boundary line of the overlapping region and the junction position, and the pixel value derived from the second input scan line. Are assigned to pixels on the second side of the output scan line between the junction location and the second boundary of the overlap region.
出力走査線の接合位置は、第1入力走査線と第2入力走査線におけるエッジ特徴に基づき選択され得る。走査線におけるエッジ特徴の位置は、公知の算法を用いることによって得られ得る。一実施形態において、エッジ特徴は、ピクセルインタフェースに隣接するピクセル間の強度の差が閾値を超えるピクセルインタフェースで同定される。他の実施形態は、勾配ラプラスまたはソーベル法を用いることによってエッジ特徴を同定し得る。 The junction position of the output scan lines can be selected based on the edge characteristics of the first input scan line and the second input scan line. The position of the edge feature in the scan line can be obtained by using a known algorithm. In one embodiment, edge features are identified at a pixel interface where the intensity difference between pixels adjacent to the pixel interface exceeds a threshold. Other embodiments may identify edge features by using gradient Laplace or Sobel methods.
出力走査線の接合位置は、たとえば第1入力走査線と第2入力走査線の両方に共通するエッジ特徴に対応するピクセルインタフェースを含み得る。出力走査線が、共通エッジ特徴に対応する1つのピクセルインタフェースのみを含む場合、そのピクセルインタフェースは、その走査線の接合位置として選択され得る。出力走査線が、共通エッジ特徴に対応する複数のピクセルインタフェースを含む場合、接合位置としての特定ピクセルインタフェースの選択は、以下の因子:
i)ピクセルインタフェースを含むエッジ特徴の強度勾配;
ii)ピクセルインタフェースに対応するエッジ特徴が、隣接する走査線に存在するか否か;
iii)ピクセルインタフェースに対応するエッジ特徴を含む副画像における走査線数;
iv)複数の適切なピクセルインタフェース間のランダム選択
のうちの1つか、その組み合わせに従って決定され得る。
The junction position of the output scan line can include, for example, a pixel interface corresponding to an edge feature common to both the first input scan line and the second input scan line. If the output scan line includes only one pixel interface corresponding to a common edge feature, that pixel interface can be selected as the junction location for that scan line. If the output scan line includes multiple pixel interfaces corresponding to common edge features, the selection of a particular pixel interface as a junction location will have the following factors:
i) Intensity gradient of edge features including pixel interface;
ii) whether edge features corresponding to the pixel interface are present in adjacent scan lines;
iii) the number of scan lines in the sub-image including edge features corresponding to the pixel interface;
iv) may be determined according to one or a combination of random selections between a plurality of suitable pixel interfaces.
隣接する出力走査線の接合位置は、各々の走査線で接合位置を切り換えることによって生じるアーチファクトが減少するように、幾つかの実施形態において互いの近くに選択するのが有利であり得る。実施形態によっては、共通のエッジ特徴に対応する多重ピクセルインタフェースが、現行の走査線の接合位置として選択される場合には、近くの走査線の接合位置に最も近いエッジ特徴に対応するピクセルインタフェースが、現行の走査線の接合位置として選択される。 The joint positions of adjacent output scan lines may be advantageously selected close to each other in some embodiments so that artifacts caused by switching the joint positions on each scan line are reduced. In some embodiments, when a multiple pixel interface corresponding to a common edge feature is selected as the current scanline junction location, the pixel interface corresponding to the edge feature closest to the nearest scanline junction location is , Selected as the junction position of the current scan line.
幾つかの実施形態は、エッジ特徴が1つの走査線から次の走査線に連続し得る可能性、従って隣接する走査線の接合位置が互いに近い可能性を最大にすべく、たとえば走査線をスカッシングか、ストレッチングの何れかによって、走査線の長さを変化させることも含み得る。スカッシングまたはストレッチングは、任意の適当な尺度構成法を用いることによって達成され得る。走査線の長さは、たとえば幾つかの実施形態において最大15%まで変更され得る。走査線の長さが変更される実施形態において、低周波帯出力副画像の対
応走査線の長さは、転位アーチファクトを最小限にするため、同量だけ変更され得る。また、1つの走査線の長さにおける任意の偏差は、隣接走査線の長さを変更する場合に考慮され得る。走査線の長さの変更は、入力画像が重複領域において目に見える縦線を有する状況において望まれ得る。走査線の長さは、手動または自動的に変更され得る。
Some embodiments may, for example, scramble scan lines to maximize the possibility that edge features may be continuous from one scan line to the next, and therefore the joint positions of adjacent scan lines are close to each other. It may also include changing the length of the scan line by either singing or stretching. Squashing or stretching can be achieved by using any suitable scaling method. The length of the scan line can be varied, for example, up to 15% in some embodiments. In embodiments where the scan line length is changed, the corresponding scan line length of the low frequency band output sub-image can be changed by the same amount to minimize dislocation artifacts. Also, any deviation in the length of one scan line can be taken into account when changing the length of adjacent scan lines. Changing the length of the scan line may be desired in situations where the input image has visible vertical lines in the overlap region. The length of the scan line can be changed manually or automatically.
高周波帯副画像のうちの1つの入力走査線が、エッジ特徴に対応する任意のピクセルインタフェースを含まない場合、誤ったエッジが高周波帯出力副画像において生じないように、出力走査線を得るべく接合の代わりにブレンドが用いられ得る。低周波帯副画像のブレンドにおいて記載されるように、ブレンドは、正弦波融合関数または他の適切な融合関数を用いて実施されることが可能である。 If one input scan line of the high frequency band sub-image does not include any pixel interface corresponding to the edge feature, the spline is joined to obtain an output scan line so that no false edges occur in the high frequency band output sub-image. Instead of blends can be used. As described in blending low frequency sub-images, blending can be performed using a sinusoidal fusion function or other suitable fusion function.
ブロックS30において、画像繋合方法20は、低周波帯出力副画像と高周波帯出力副画像を合体することによって、全帯域出力合成画像を作り出す。状況によっては、全帯域出力合成画像は、図1cに示すような方形画像を含み得る。しかし入力画像は、全帯域出力合成画像が図4a〜図4cに示すような非方形であるように、方向付けられ得る。
In block S30, the
図4aは、2つの入力画像41と42から生成された非方形出力画像40を示す。図4bに示すように非方形出力画像40は、方形画像を得るべく、クロップ領域43で示すようにクロッピングされ得る。しかしクロッピングは、不都合であり得る幾つかのクロップ画像データ44の損失が生じる。別の解決策は、図4cに拡大画像領域45で示すような拡大方形画像を規定することである。画像を拡大することによって、目をそらさせ得る幾つかの空白の縁画像領域46が生じる。
FIG. 4 a shows a
本発明の幾つかの実施形態において、拡大出力画像の縁画像領域は、ランダム近傍サンプリング方法random neighborhood sampling method
によって充填され得る。そのような実施形態において各々の非充填ピクセルには、非充填(宛先)ピクセルを中心とする正方形または円形の領域から入力ピクセルがランダムに選択され得る。棄却サンプリングは、充填入力ピクセルが突き止められるまで用いられ得る。各々がうまくいかない(棄却される)場合、検索領域の半径が僅かに増加され得るので、最終的に充填入力ピクセルが確実に突き止められる。非充填宛先ピクセルが充填されれば、方法は、次の(通常、隣接する)非充填ピクセルに進み、僅かな前の検索半径から工程が繰返され得る。これによって、サンプリング半径が制約なしに増大しないようになるので、有効な近傍ピクセルを見つけるべく検索半径を平均して良好なサイズに維持する。最終的に縁画像領域、その色と特徴が最も近くの有効ピクセルに一致するピクセルを有するが、外観は「スノーイ」(snowy。雪状に白い)である。
In some embodiments of the present invention, the edge image region of the enlarged output image is a random neighborhood sampling method random neighborhood sampling method.
Can be filled. In such an embodiment, for each unfilled pixel, an input pixel may be randomly selected from a square or circular area centered around the unfilled (destination) pixel. Reject sampling can be used until the fill input pixel is located. If each is not successful (rejected), the radius of the search area can be slightly increased so that the final filled input pixels are reliably located. If an unfilled destination pixel is filled, the method proceeds to the next (usually adjacent) unfilled pixel and the process may be repeated from a slight previous search radius. This keeps the sampling radius from increasing unconstrained, so the search radius is averaged and kept at a good size to find valid neighborhood pixels. Eventually it has a border image area, pixels whose color and characteristics match the nearest valid pixel, but the appearance is “snowy” (snowy white).
図5は、上記の方法の例示実施形態を示す。互いに隣接する第1入力画像210aと第2入力画像210bは、それぞれ第1画像領域211aと第2画像領域211bによって捕らえられる共通の副視野を共有する。第1入力画像210aと第2入力画像210bは、第1高周波帯副画像H−210aと第2高周波帯副画像H−210bを得るべく、第1高域フィルタ212aと第2高域フィルタ212bに入力される。第1入力画像210aと第2入力画像210bは、第1低周波帯副画像L−210aと第2低周波帯副画像L−210bを得るべく、第1低域フィルタ213aと第2低域フィルタ213bにも入力される。第1高周波帯副画像H−210aと第2高周波帯副画像H−210bは、接合器214によって合体される。第1低周波帯副画像L−210aと第2低周波帯副画像L−210bは、ブレンド器215によって合体される。高周波帯接合出力H−210cと低周波帯ブレンド出力L−210cは、重複領域211cによって描写される共通の副視野を含む全帯域出力画像210cを作り出すべくマージすることによって、加算器216で合体される。高周波帯接合出力H−210cと低周波帯ブレンド出力L−210cのマージングは、出力が加算される場合に生じ得る負の数と丸め誤差を回避するため、たとえば高
周波帯接合出力H−210cと低周波帯ブレンド出力L−210cの増倍を含み得る。
FIG. 5 shows an exemplary embodiment of the above method. The
図6a、図6bおよび図6cは、走査線に適用された上記の接合の例示実施形態を示す。図6aと図6bは、それぞれ第1入力走査線330aと第2入力走査線330b、および各々の走査線に沿ったピクセル値の第1対応グラフ340Aと第2対応グラフ340bを示す。第1入力走査線330aは、第1境界線331を越え、重複領域332を横切って第2境界線333まで延びる。第2入力走査線330bは、第1境界線331から重複領域332を横切って、第2境界線333の先まで延びる。第1入力走査線330aと第2入力走査線330bは、それぞれ共通のエッジ特徴335a,335bに対応するそれぞれ第1ピクセルインタフェース334aと第2ピクセルインタフェース334bを含む。例示実施例において、第1ピクセルインタフェース334aと第2ピクセルインタフェース334bは、エッジ特徴に対応するものとして検出される各々の走査線における唯一のピクセルインタフェースなので、第1ピクセルインタフェース334aと第2ピクセルインタフェース334bの位置は、接合位置として選択される。
Figures 6a, 6b and 6c show an exemplary embodiment of the above junction applied to a scan line. FIGS. 6a and 6b show a first
図6cは、第1入力走査線330aと第2入力走査線330bを接合することによって生じる出力合成走査線330cを示す。出力合成走査線330cは、ピクセルインタフェース334cで接合位置周囲の第1入力走査線330aと第2入力走査線330bを接合することから生じる。第1走査線330a由来のピクセル値は、ピクセルインタフェース334cよりも左方の出力合成走査線330cの一部に用いられ、第2走査線330b由来のピクセル値は、ピクセルインタフェース334cよりも右方の出力合成走査線330cの一部に用いられる。従って、出力合成走査線330cに沿ったピクセル値のグラフ340cに示すように、エッジ特徴335cよりも左方の接合出力は、第1対応グラフ340Aに対応し、エッジ特徴335cよりも右方の接合出力は、第2対応グラフ340bに対応する。
FIG. 6c shows an output composite scan line 330c that results from joining the first
本発明の別の特徴は、合成または「繋ぎ合わされた」画像を形成すべく画像を繋ぎ合わせる画像繋合装置を提供する。画像繋合装置の機能要素は、一あるいは複数のデータプロセッサ(マイクロプロセッサ、画像プロセッサ、その他を含み得る)で実行するソフトウエアとハードウエア要素のうちの少なくとも一方によって提供され得る。図7は、実施形態例に従う画像繋合装置50を示す。画像繋合装置50は、画像マージャ56に両方が連結される走査線接合プロセッサ52と第1走査線ブレンドプロセッサ54を備える。高周波帯副画像、画像対応データ、および画像エッジ位置データは、第1走査線接合プロセッサ52に入力される。低周波帯副画像と画像対応データは、第1走査線ブレンドプロセッサ54に入力される。画像繋合装置50は、高周波帯副画像と画像対応データが入力される第2走査線ブレンドプロセッサを備え得る。画像繋合装置50は、入力画像から高周波帯副画像を得るべく走査線接合プロセッサ52に連結される高域画像フィルタも備え得る。画像繋合装置50は、入力画像から低周波帯副画像を得るべく第1走査線ブレンドプロセッサに連結される低域画像フィルタを更に含み得る。画像繋合装置50は、第1走査線ブレンドプロセッサ、第2走査線ブレンドプロセッサまたは走査線接合プロセッサ52のうちの1つか組合せに入力されるべき画像対応データを生成する画像整列検出器を更に備え得る。画像繋合装置50は更に、走査線接合プロセッサ52に入力すべくエッジ特徴に対応するピクセルインタフェースを捜し出すエッジ特徴検出器を備え得る。
Another feature of the present invention provides an image splicing device that stitches images together to form a composite or “joined” image. The functional elements of the image splicing device may be provided by at least one of software and hardware elements executing on one or more data processors (which may include a microprocessor, an image processor, etc.). FIG. 7 shows an
図8は、本発明の別の実施形態に従う画像繋合装置440を示す。画像繋合装置440は、走査線接合プロセッサH−441、低域走査線ブレンドプロセッサL−442、および高域走査線ブレンドプロセッサH−442を備える。高域画像フィルタH−443は、走査線接合プロセッサH−441と高域走査線ブレンドプロセッサH−442にそれぞれ入力される高周波帯副画像H−450を得るべく、入力画像450をフィルタにかける。低域画像フィルタL−443は、低域走査線ブレンドプロセッサL−442に入力される
低周波帯副画像L−450を得るべく、入力画像450をフィルタにかける。エッジ特徴検出器445は、入力画像450におけるエッジ特徴に対応するピクセルインタフェースを突き止めると共に、ピクセルインタフェースエッジデータ455を接合位置選択装置446に転送する。接合位置選択装置446は、走査線接合プロセッサH−441と高域走査線ブレンドプロセッサH−442に連結される。画像整列検出器444は、接合位置選択装置446、低域走査線ブレンドプロセッサL−442、および高域走査線ブレンドプロセッサH−442に入力される画像対応データ454を生成する。高周波数帯接合出力画像H−451S、高周波帯ブレンド出力画像H−451B、および低周波帯ブレンド出力画像L−451Bは、全帯域合成画像451を出力する画像マージャ447で合体する。
FIG. 8 shows an
当業者には明らかになり得るように、前述の開示物の観点から、多くの変更と修正は、この発明の実施に際してその趣旨と範囲を逸脱しなければ可能である。従って本発明の範囲は、以下の請求項によって規定される内容に従って解釈されるものとする。当業者は、特定の修正、置換、追加、およびその部分組合せを認めるだろう。従って以下の添付請求項と今後に導入される請求項は、その真の趣旨と範囲内にあるとして、そのような修正、置換、追加、および部分組合せを含むと解釈するように意図される。 Many changes and modifications can be made in the practice of the invention without departing from its spirit and scope, as will be apparent to those skilled in the art in view of the foregoing disclosure. Accordingly, the scope of the invention should be construed in accordance with the content defined by the following claims. Those skilled in the art will recognize certain modifications, substitutions, additions, and subcombinations thereof. Accordingly, the following appended claims and claims subsequently introduced are intended to be construed as including such modifications, substitutions, additions, and subcombinations as falling within the true spirit and scope thereof.
Claims (27)
各々の前記入力画像から低周波帯副画像を得ることと;
各々の前記入力画像から高周波帯副画像を得ることと;
低周波帯出力画像を作り出すべく、前記重複領域のうちの少なくとも一部を横切って前記低周波帯副画像同士をブレンドすることと;
高周波帯出力画像を作り出すべく、前記重複領域のうちの少なくとも一部を横切って前記高周波帯副画像同士を接合することと;
全帯域出力合成画像を作り出すべく、前記低周波帯出力画像と前記高周波帯出力画像を合体することと
を備える、画像繋合方法。 An image joining method for joining input images that overlap each other in an overlapping region, wherein the image joining method includes:
Obtaining a low frequency sub-image from each said input image;
Obtaining a high frequency band sub-image from each said input image;
Blending the low frequency sub-images across at least a portion of the overlap region to produce a low frequency output image;
Joining the high frequency band sub-images across at least a portion of the overlap region to produce a high frequency band output image;
An image joining method comprising combining the low-frequency band output image and the high-frequency band output image to produce a full-band output composite image.
前記入力画像同士に共通のエッジ特徴に対応する接合位置を選択して選択接合位置とすることと;
前記選択接合位置で前記高周波帯副画像同士を接合することと
を含む、請求項1または2記載の画像繋合方法。 Bonding between the high frequency band sub-images,
Selecting a joint position corresponding to an edge feature common to the input images as a selected joint position;
The image joining method according to claim 1, further comprising joining the high-frequency band sub-images at the selective joining position.
前記選択接合位置での前記高周波帯副画像同士の接合は、走査線ベースで前記高周波帯副画像同士を接合することを含む、請求項3記載の画像繋合方法。 The image joining method includes defining a plurality of scanning lines for each of the high frequency band sub-images,
The image joining method according to claim 3, wherein joining of the high-frequency band sub-images at the selective joining position includes joining the high-frequency band sub-images on a scanning line basis.
前記非充填ピクセルに最も近い検索領域を規定することと;
前記非充填ピクセルを充填すべく、前記検索領域における入力ピクセルの特徴を選択することと
を含む、請求項14記載の画像繋合方法。 The random neighborhood sampling is for each unfilled pixel.
Defining a search area closest to the unfilled pixels;
The method of claim 14, comprising selecting features of input pixels in the search region to fill the unfilled pixels.
画像ブレンドプロセッサと;
画像接合プロセッサと;
前記画像ブレンドプロセッサと前記画像接合プロセッサにそれぞれ連結される画像マージャと
を備える、画像繋合装置。 An image joining device that joins input images that overlap each other in an overlapping region, the image joining device,
An image blending processor;
An image splicing processor;
An image joining device comprising: the image blend processor and an image merger coupled to the image joining processor.
前記画像ブレンドプロセッサに連結される低域フィルタと;
前記画像接合プロセッサに連結される高域フィルタと
を備える、請求項18記載の画像繋合装置。 The image joining device further includes:
A low pass filter coupled to the image blend processor;
The image stitching device of claim 18, comprising a high pass filter coupled to the image stitching processor.
画像同士をブレンドする第1機能と;
画像同士を接合する第2機能と;
画像同士を加える第3機能と
を実現させるためのプログラムを記憶した、コンピュータ読取可能な記憶媒体。 On the computer,
A first function for blending images;
A second function for joining the images;
A computer-readable storage medium storing a program for realizing a third function for adding images.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CA2006/002028 WO2008070949A1 (en) | 2006-12-13 | 2006-12-13 | Methods and apparatus for stitching digital images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010512696A true JP2010512696A (en) | 2010-04-22 |
JP5230873B2 JP5230873B2 (en) | 2013-07-10 |
Family
ID=39511174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009540553A Expired - Fee Related JP5230873B2 (en) | 2006-12-13 | 2006-12-13 | Image joining method and device for joining digital images together |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP2100270A4 (en) |
JP (1) | JP5230873B2 (en) |
CN (1) | CN101583974B (en) |
CA (1) | CA2671894C (en) |
HK (1) | HK1137072A1 (en) |
WO (1) | WO2008070949A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101396743B1 (en) | 2011-09-08 | 2014-05-16 | 가시오게산키 가부시키가이샤 | An image processing device, an image processing method, and a recording medium |
WO2022075040A1 (en) * | 2020-10-09 | 2022-04-14 | ソニーグループ株式会社 | Image generation system, microscope system, and image generation method |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101751659B (en) * | 2009-12-24 | 2012-07-25 | 北京优纳科技有限公司 | Large-volume rapid image splicing method |
CN106600532B (en) * | 2016-12-08 | 2020-01-10 | 广东威创视讯科技股份有限公司 | Image amplification method and device |
US20180241982A1 (en) * | 2017-02-23 | 2018-08-23 | Nokia Technologies Oy | Method, apparatus and computer program product for generating composite images with three-dimensional effects and reducing pole contraction lines |
US11734796B2 (en) * | 2020-04-15 | 2023-08-22 | Gopro, Inc. | Methods and apparatus for shared image processing among multiple devices |
CN113077387B (en) * | 2021-04-14 | 2023-06-27 | 杭州海康威视数字技术股份有限公司 | Image processing method and device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002197486A (en) * | 2000-12-22 | 2002-07-12 | Square Co Ltd | Video game machine, its control method, video game program and computer-readable recording medium with the program recorded thereon |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5187754A (en) * | 1991-04-30 | 1993-02-16 | General Electric Company | Forming, with the aid of an overview image, a composite image from a mosaic of images |
US6075905A (en) * | 1996-07-17 | 2000-06-13 | Sarnoff Corporation | Method and apparatus for mosaic image construction |
US6434265B1 (en) * | 1998-09-25 | 2002-08-13 | Apple Computers, Inc. | Aligning rectilinear images in 3D through projective registration and calibration |
US6456323B1 (en) * | 1999-12-31 | 2002-09-24 | Stmicroelectronics, Inc. | Color correction estimation for panoramic digital camera |
US20050063608A1 (en) * | 2003-09-24 | 2005-03-24 | Ian Clarke | System and method for creating a panorama image from a plurality of source images |
-
2006
- 2006-12-13 WO PCT/CA2006/002028 patent/WO2008070949A1/en active Application Filing
- 2006-12-13 CN CN2006800568704A patent/CN101583974B/en not_active Expired - Fee Related
- 2006-12-13 CA CA2671894A patent/CA2671894C/en not_active Expired - Fee Related
- 2006-12-13 EP EP06840459A patent/EP2100270A4/en not_active Withdrawn
- 2006-12-13 JP JP2009540553A patent/JP5230873B2/en not_active Expired - Fee Related
-
2010
- 2010-01-21 HK HK10100631.3A patent/HK1137072A1/en not_active IP Right Cessation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002197486A (en) * | 2000-12-22 | 2002-07-12 | Square Co Ltd | Video game machine, its control method, video game program and computer-readable recording medium with the program recorded thereon |
Non-Patent Citations (1)
Title |
---|
JPN7012001853; Greg Ward: 'Hiding Seams in High Dynamic Range Panoramas' Proceedings APGV 2006 , 20060729, P.150, ACM * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101396743B1 (en) | 2011-09-08 | 2014-05-16 | 가시오게산키 가부시키가이샤 | An image processing device, an image processing method, and a recording medium |
WO2022075040A1 (en) * | 2020-10-09 | 2022-04-14 | ソニーグループ株式会社 | Image generation system, microscope system, and image generation method |
Also Published As
Publication number | Publication date |
---|---|
CA2671894A1 (en) | 2008-06-19 |
EP2100270A4 (en) | 2011-08-17 |
CA2671894C (en) | 2013-07-16 |
HK1137072A1 (en) | 2010-07-16 |
CN101583974B (en) | 2012-11-14 |
JP5230873B2 (en) | 2013-07-10 |
WO2008070949A1 (en) | 2008-06-19 |
CN101583974A (en) | 2009-11-18 |
EP2100270A1 (en) | 2009-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5230873B2 (en) | Image joining method and device for joining digital images together | |
US9111389B2 (en) | Image generation apparatus and image generation method | |
Zhang et al. | Parallax-tolerant image stitching | |
US9654765B2 (en) | System for executing 3D propagation for depth image-based rendering | |
Shamir et al. | Seam carving for media retargeting | |
US7805003B1 (en) | Identifying one or more objects within an image | |
CN103168315B (en) | Solid (3D) panorama sketch on portable equipment creates | |
JP4551018B2 (en) | Image combiner | |
US7477800B2 (en) | Method for retargeting images | |
US7889948B2 (en) | Image stitching using partially overlapping views of a scene | |
US20150022518A1 (en) | Image process device, image process method, and image process program | |
US20160295108A1 (en) | System and method for panoramic imaging | |
US8971611B2 (en) | Image process device, image process method, and image process program | |
CN112862685B (en) | Image stitching processing method, device and electronic system | |
CN106447602B (en) | Image splicing method and device | |
KR20170131694A (en) | A foreground image generation method and apparatus used in a user terminal | |
JP2002514359A (en) | Method and apparatus for creating a mosaic image | |
US6879733B2 (en) | Image artifact removal technique for LCP | |
Kang et al. | Seamless stitching using multi-perspective plane sweep | |
Ward | Hiding seams in high dynamic range panoramas | |
KR100521962B1 (en) | Memory efficient image artifact removal technique for lcp | |
EP3563338A1 (en) | Method and apparatus for multi-band blending of a seam in an image derived from multiple cameras | |
AU2015271981A1 (en) | Method, system and apparatus for modifying a perceptual attribute for at least a part of an image | |
Sun et al. | Error compensation and reliability based view synthesis | |
Sugimoto et al. | Multi-layered image retargeting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20120127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120822 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130123 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20130201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130320 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160329 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5230873 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |