JP2010512696A - Image joining method and device for joining digital images together - Google Patents

Image joining method and device for joining digital images together Download PDF

Info

Publication number
JP2010512696A
JP2010512696A JP2009540553A JP2009540553A JP2010512696A JP 2010512696 A JP2010512696 A JP 2010512696A JP 2009540553 A JP2009540553 A JP 2009540553A JP 2009540553 A JP2009540553 A JP 2009540553A JP 2010512696 A JP2010512696 A JP 2010512696A
Authority
JP
Japan
Prior art keywords
image
frequency band
joining
joining method
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009540553A
Other languages
Japanese (ja)
Other versions
JP5230873B2 (en
Inventor
ジョン ワード、グレゴリー
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2010512696A publication Critical patent/JP2010512696A/en
Application granted granted Critical
Publication of JP5230873B2 publication Critical patent/JP5230873B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images

Abstract

重複領域において重複する入力画像同士を繋ぎ合わせる画像繋合方法は、各々の入力画像から低周波帯副画像を得ることと;各々の入力画像から高周波帯副画像を得ることとを含む。更に画像繋合方法は、低周波帯出力画像を作り出すべく重複領域の少なくとも一部を横切って低周波帯副画像同士をブレンドすることと;高周波帯出力画像を作り出すべく重複領域の少なくとも一部を横切って高周波帯副画像同士を接合することと;全帯域出力合成画像を作り出すべく低周波帯出力画像と高周波帯出力画像を合体することとを含む。An image joining method for joining overlapping input images in an overlapping region includes obtaining a low frequency band sub-image from each input image; and obtaining a high frequency band sub-image from each input image. The image joining method further includes blending the low frequency sub-images across at least a portion of the overlap region to produce a low frequency band output image; and at least part of the overlap region to create a high frequency band output image. Joining the high frequency band sub-images across; combining the low frequency band output image and the high frequency band output image to produce a full band output composite image.

Description

本発明は、2つ以上のデジタル画像を互いに繋ぎ合わせる(stitching)方法と装置に関する。   The present invention relates to a method and apparatus for stitching two or more digital images together.

重複視野を描写するデジタル画像同士は、「繋ぎ合わせ」として公知の工程によって、より大きな統合視野の合成画像を形成すべく合体(combine)され得る。何れの原画像よりも大きな視野を備える合成画像を作成すべく、繋ぎ合わせを用いることによって、幾つかの原画像を互いに継ぎ合わせ(join)得る。   Digital images depicting overlapping fields of view can be combined to form a composite image of a larger integrated field of view by a process known as “joining”. Several original images can be joined together by using splicing to create a composite image with a larger field of view than any original image.

幾つかの先行技術の合成画像(stitched images)において生じ得る1つの問題は、合体画像の視野が交わる、目に見える「継ぎ目」の出現である。公知の画像繋合方法は通常、合成画像を作り出すために、入力画像の正確またはほぼ正確なオーバーレイを必要とする。最も公知の画像繋合方法は、同一の画像露出量を必要とするし、仮にそうであったとしても高ダイナミックレンジ画像ではうまくいかない。幾つかの公知の画像繋合方法は、コンピュータ集約的であり、コンピュータソフトウエアで実行される場合はメモリ効率が悪い。   One problem that may arise in some prior art stitched images is the emergence of visible “seams” where the fields of view of the merged image intersect. Known image stitching methods typically require an accurate or near-accurate overlay of the input image to produce a composite image. Most known image stitching methods require the same image exposure and, if so, will not work for high dynamic range images. Some known image stitching methods are computer intensive and poorly memory efficient when executed with computer software.

高品質合成画像を得るため、デジタル画像の有効な繋合方法が一般的に必要とされる。特に、高ダイナミックレンジ画像を、合成画像に合体し得るような機材が必要である。   In order to obtain a high quality composite image, an effective method of joining digital images is generally required. In particular, there is a need for equipment that can merge a high dynamic range image into a composite image.

以下の実施形態とその特徴は、模範的と例示的であることを意味し、範囲を限定しない方法で記載と例示されている。様々な実施形態において、一あるいは複数の上記の問題は、軽減されるか、排除されているが、他の実施形態は、他の改良を対象にする。   The following embodiments and their features are meant to be exemplary and exemplary and are illustrated and illustrated in a way that does not limit the scope. In various embodiments, one or more of the above problems are alleviated or eliminated, but other embodiments are directed to other improvements.

本発明の1つの特徴は、重複画像同士を繋ぎ合わせる画像繋合方法に関する。画像繋合方法は、各々の入力画像から低周波帯副画像を得ることと、各々の入力画像から高周波帯副画像を得ることとを備える。更に画像繋合方法は、低周波帯副画像同士をブレンドすることによって低周波帯合成画像を作り出すことと、高周波帯出力合成画像を作り出すべく接合位置で高周波帯副画像同士を接合することによって高周波帯副画像を合体することと、低周波帯出力合成画像と高周波帯合成画像を合体することによって全帯域出力合成画像を作り出すこととを備える。   One feature of the present invention relates to an image joining method for joining overlapping images together. The image joining method includes obtaining a low-frequency band sub-image from each input image and obtaining a high-frequency band sub-image from each input image. Furthermore, the image merging method creates a low-frequency band composite image by blending low-frequency band sub-images, and joins the high-frequency band sub-images at the joint position to create a high-frequency band output composite image. Combining the band sub-images and creating a full-band output composite image by combining the low-frequency band output composite image and the high-frequency band composite image.

本発明の別の特徴は、重複画像同士を繋ぎ合わせる画像繋合装置に関する。画像繋合装置は、第1画像ブレンドプロセッサ、画像接合プロセッサ、および画像マージャを備える。画像マージャは、画像ブレンドプロセッサと画像接合プロセッサにそれぞれ連結される。   Another feature of the present invention relates to an image joining device that joins overlapping images together. The image splicing device includes a first image blend processor, an image splicing processor, and an image merger. The image merger is coupled to the image blend processor and the image splicing processor, respectively.

模範的実施形態は、添付図面において例示される。本明細書において開示される実施形態と図面は、例示であり、制限するものではない。
以下の説明を通して詳細情報は、本発明をより深く理解するために示される。しかし本発明は、これらの詳細なしで実行され得る。他の例において、周知の要素は、本発明を不必要に曖昧にしないように詳細に示されていないか、記載されていない。従って明細書と図面は、制限よりはむしろ例示的な意味で見なされるべきである。
Exemplary embodiments are illustrated in the accompanying drawings. The embodiments and drawings disclosed herein are illustrative and not limiting.
Detailed information is provided in the following description to provide a better understanding of the present invention. However, the present invention may be practiced without these details. In other instances, well-known elements have not been shown or described in detail so as not to unnecessarily obscure the present invention. The specification and drawings are, accordingly, to be regarded in an illustrative sense rather than a restrictive sense.

本明細書において記載された本発明の幾つかの実施形態に従う装置と方法は、1つの入力画像の低空間周波数成分を、別の入力画像の低空間周波数成分とブレンドし、更に入力画像の特徴と一致させるべく選択された位置で、入力画像同士の高空間周波数成分を不連続的に継ぎ合わす。低空間周波数成分同士は、顕著なアーチファクトを発生させることなく、滑らかにブレンドされ得る。高空間周波数成分同士は、走査線のエッジ特徴に最も近い各々の走査線上の接合位置で、重複領域の各々の複数走査線に沿って継ぎ合わされ得る。   An apparatus and method according to some embodiments of the invention described herein blends a low spatial frequency component of one input image with a low spatial frequency component of another input image, and further features the input image. The high spatial frequency components of the input images are discontinuously spliced at the position selected to match. Low spatial frequency components can be smoothly blended without producing significant artifacts. High spatial frequency components can be spliced along each scan line in the overlap region at the junction location on each scan line closest to the edge feature of the scan line.

本発明の1つの特徴は、画像を繋ぎ合わせる画像繋合方法に関する。以下の例示的説明において、方法例は、視野が共通の副視野を共有する2つの重複入力画像に適用されるように記載されているが、当然のことながら本発明の実施形態に従う方法は、任意数の入力画像を合体するためにも用いられ得る。共通の副視野を描写する各々の画像の一部は、重複領域と称され得る。各々の画像における重複領域は、他の画像の重複領域における点に対応する複数の点を含む。一方の画像の重複領域における点と他方の画像の重複領域における対応する点は、集合的に対応点と称され得る。   One feature of the present invention relates to an image joining method for joining images. In the following exemplary description, the example method is described as being applied to two overlapping input images, where the field of view shares a common sub-field of view, but it should be understood that the method according to embodiments of the present invention is: It can also be used to merge any number of input images. The portion of each image that depicts a common sub-field may be referred to as an overlapping region. The overlapping area in each image includes a plurality of points corresponding to the points in the overlapping area of other images. Points in the overlapping area of one image and corresponding points in the overlapping area of the other image may be collectively referred to as corresponding points.

図1a〜図1cは、互いに共通の副視野を共有する重複入力画像と出力合成画像。FIGS. 1a to 1c show overlapping input images and output composite images that share a common sub-field of view. 図2a〜図2dは、それぞれ入力画像によって共有される重複領域例の走査線。FIGS. 2A to 2D are scanning lines of an example of overlapping areas shared by input images. 本発明の実施形態例に従う方法を例示するフローチャート。5 is a flowchart illustrating a method according to an example embodiment of the invention. 図4a〜図4cは、それぞれ非方形の出力合成画像。4a to 4c are non-rectangular output composite images. 画像の接合例を例示するデータフロー線図。The data flow diagram which illustrates the example of a joining of an image. 図6a〜図6cは、出力副画像走査線を作り出すべく接合された2つの副画像走査線。6a-6c are two sub-image scan lines joined to create an output sub-image scan line. 本発明の一実施形態に従う、画像接合装置のブロック線図。1 is a block diagram of an image joining device according to an embodiment of the present invention. 本発明の別の実施形態に従う、画像接合装置のブロック線図。FIG. 3 is a block diagram of an image joining device according to another embodiment of the present invention.

図1aと図1bは、それぞれ第1入力領域11aと第2入力領域11bとして描写される共通の副視野を共有する、第1入力画像10aと第2入力画像10bを示す。図1cは、本明細書において記載されるような方法を、第1入力画像10aと第2入力画像10bに適用することによって得られる合成画像10cを示す。合成画像10cは、重複領域11cとして描写される共通の副視野を含む。本発明の実施形態に従う方法は、画像の何れもが、他の画像のうちの少なくとも1つと重複領域を共有する限りにおいて、任意数の画像の繋ぎ合わせに適用され得る。   FIGS. 1a and 1b show a first input image 10a and a second input image 10b that share a common sub-field depicted as a first input region 11a and a second input region 11b, respectively. FIG. 1c shows a composite image 10c obtained by applying the method as described herein to the first input image 10a and the second input image 10b. The composite image 10c includes a common sub-field that is depicted as an overlapping region 11c. The method according to embodiments of the present invention can be applied to stitch together any number of images as long as any of the images shares an overlapping area with at least one of the other images.

図2a〜図2dは、それぞれ重複領域例111a〜111dを示す。各々の重複領域111は、複数のピクセルを備え、各々のピクセルは、第1入力画像由来の第1ピクセル値と、それに関連する第2入力画像由来の第2ピクセル値とを備える。各々の重複領域111は、第1境界線123と第2境界線124の間に区画形成されると共に、複数の走査線によって分割され得る。走査線例121a〜121dは、それぞれ図2a〜図2dにおいて陰線で示す。図2aに示す重複領域例111aの走査線は、互いに平行な第1境界線123aと第2境界線124aに対して、全般的に垂直に規定される。   2a to 2d show overlapping area examples 111a to 111d, respectively. Each overlapping region 111 comprises a plurality of pixels, each pixel comprising a first pixel value derived from the first input image and an associated second pixel value derived from the second input image. Each overlapping region 111 is partitioned between the first boundary line 123 and the second boundary line 124 and can be divided by a plurality of scanning lines. Scan line examples 121a to 121d are indicated by hidden lines in FIGS. 2a to 2d, respectively. The scanning lines of the overlapping region example 111a shown in FIG. 2a are generally defined perpendicular to the first boundary line 123a and the second boundary line 124a that are parallel to each other.

幾つかの状況において入力画像は、重複領域の境界線同士が互いに平行にはならないように方向付けられ得る。そのような状況において入力画像は、重複領域の境界線同士が互いに平行になるように、回転関数によってトリミングと処理のうちの少なくとも一方が行
われ得るが、これは全ての実施形態には必ずしも必要ない。
In some situations, the input image can be oriented such that the borders of the overlapping regions are not parallel to each other. In such a situation, the input image may be subjected to at least one of trimming and processing by a rotation function so that the boundary lines of the overlapping regions are parallel to each other, but this is not necessarily required for all embodiments. Absent.

図2b〜図2dに示す実施例において、入力画像は、重複領域111b〜111dそれぞれの第1境界線123b〜123dと第2境界線124b〜124dが互いに平行ではないように方向付けられる。たとえば図2bの重複領域121bの走査線は、第1境界線123bに全般的に垂直に規定され、図2cの重複領域121cの走査線は、第2境界線124cに全般的に垂直に規定され、図2dの重複領域121dの走査線は、第1境界線123dと第2境界線124dの両方に対して斜角に規定される。   In the embodiment shown in FIGS. 2b to 2d, the input image is oriented so that the first boundary lines 123b to 123d and the second boundary lines 124b to 124d of the overlapping regions 111b to 111d are not parallel to each other. For example, the scan line of the overlap region 121b of FIG. 2b is defined generally perpendicular to the first boundary line 123b, and the scan line of the overlap region 121c of FIG. 2c is defined generally perpendicular to the second boundary line 124c. The scanning line of the overlapping region 121d in FIG. 2d is defined at an oblique angle with respect to both the first boundary line 123d and the second boundary line 124d.

幾つかの状況において入力画像は、互いに異なる露出量レベルを占めるように正規化され得る。たとえば実施形態によっては、入力画像は、入力画像に関連する露出量情報に基づき正規化され得る。別または付加的に正規化は、平均露出量を算出し、更に重複領域の露出量レベルを正規化することによって達成され得る。   In some situations, the input images can be normalized to account for different exposure levels. For example, in some embodiments, the input image can be normalized based on exposure information associated with the input image. Alternatively or in addition, normalization can be achieved by calculating an average exposure and further normalizing the exposure level of the overlapping area.

図3は、第1入力画像10aと第2入力画像10bを繋ぎ合わせる画像繋合方法20の例を示す。画像繋合方法20は、公知の技術を用いて得られ得る画像対応データに従って、第1入力画像10aと第2入力画像10bを整列することを含み得る。幾つかの実施形態において画像繋合方法20は、画像間の対応点対に従って、入力画像を整列することを含む。対応点対は、手動によって選択され得るか、たとえばルーカス・カナデ・モーション推定法(Lucas and Kanade motion estimation)、または最適走査線特徴マッチングなどの公知の技法を用いることによって、自動的に生成され得る。一般的に重複領域における単一の特徴適合が、入力画像の整列に十分である。   FIG. 3 shows an example of an image joining method 20 for joining the first input image 10a and the second input image 10b. The image joining method 20 may include aligning the first input image 10a and the second input image 10b according to image correspondence data that can be obtained using known techniques. In some embodiments, the image joining method 20 includes aligning the input images according to corresponding point pairs between the images. Corresponding point pairs can be selected manually or can be automatically generated by using known techniques such as Lucas and Kanade motion estimation, or optimal scan line feature matching, for example. . In general, a single feature match in the overlap region is sufficient for input image alignment.

ブロックS22において、画像繋合方法20は、第1入力画像10aと第2入力画像10bから、第1低周波帯副画像と第2低周波帯副画像を得る。第1低周波帯副画像と第2低周波帯副画像は各々、第1低周波帯副画像と第2低周波帯副画像の両方によって共有される共通の副視野によって区画形成される重複領域の少なくとも一部を備える。実施形態によっては、低周波帯副画像は、低周波数空間フィルタによって入力画像をフィルタリングすることによって得られる。低周波帯副画像は、入力画像の解像度よりも低い解像度を有し得る。1つの特定実施形態において低周波帯副画像は、入力画像解像度の16分の1に等しい解像度を備える。   In block S22, the image joining method 20 obtains a first low-frequency band sub-image and a second low-frequency band sub-image from the first input image 10a and the second input image 10b. The first low-frequency band sub-image and the second low-frequency band sub-image are respectively overlap regions formed by a common sub-field shared by both the first low-frequency band sub-image and the second low-frequency band sub-image. At least a part of. In some embodiments, the low frequency band sub-image is obtained by filtering the input image with a low frequency spatial filter. The low frequency band sub-image may have a resolution that is lower than the resolution of the input image. In one particular embodiment, the low frequency band sub-image comprises a resolution equal to 1 / 16th of the input image resolution.

ブロックS24において、画像繋合方法20は、第1入力画像10aと第2入力画像10bから、第1高周波帯副画像と第2高周波帯副画像を得る。第1高周波帯副画像と第2高周波帯副画像はまた各々、第1入力画像10aと第2入力画像10bの両方によって共有される共通の副視野によって区画形成される重複領域の少なくとも一部を含む。実施形態によっては、高周波帯副画像は、高周波数空間フィルタで入力画像をフィルタリングすることによって得られる。1つの特定実施形態において高周波帯副画像は、入力画像の解像度に等しい解像度を備える。   In block S24, the image joining method 20 obtains a first high-frequency band sub-image and a second high-frequency band sub-image from the first input image 10a and the second input image 10b. Each of the first high-frequency band sub-image and the second high-frequency band sub-image also includes at least a part of an overlapping region defined by a common sub-field shared by both the first input image 10a and the second input image 10b. Including. In some embodiments, the high frequency band sub-image is obtained by filtering the input image with a high frequency spatial filter. In one specific embodiment, the high frequency band sub-image comprises a resolution equal to the resolution of the input image.

ブロックS26において、画像繋合方法20は、低周波帯出力副画像を作り出すべく、第1低周波帯副画像と第2低周波帯副画像をブレンドする。第1低周波帯副画像と第2低周波帯副画像のブレンドは、一または複数の走査線に沿って進行し得る。一実施形態においてブレンドは、正弦波融合関数を用いることによって、低周波帯出力副画像を作り出すことを備える。たとえば指数融合関数、または一次融合関数などの他の適切な融合関数もまた、用いられ得る。   In block S26, the image joining method 20 blends the first low frequency band sub-image and the second low frequency band sub-image to produce a low frequency band output sub-image. The blending of the first low frequency sub-image and the second low frequency sub-image may proceed along one or more scan lines. In one embodiment, blending comprises creating a low frequency band output sub-image by using a sinusoidal fusion function. Other suitable fusion functions can also be used, such as, for example, an exponential fusion function, or a linear fusion function.

第1低周波帯副画像と第2低周波帯副画像のブレンドは、第1入力画像10aと第2入力画像10bの露出量が互いに異なる場合、マッハバンド・アーチファクトMach b
and artifactsの出現を減らす。第1入力画像10aと第2入力画像10b
の間の露出量の差によって生じるマッハバンド・アーチファクトの出現を更に最小限に抑えるため、画像繋合方法20は更に、共有重複領域の一部または全部に基づき、複数の副画像を正規化する段階を備える。
The blending of the first low frequency band sub-image and the second low frequency band sub image is performed when the exposure amounts of the first input image 10a and the second input image 10b are different from each other.
and reduce the appearance of artifacts. First input image 10a and second input image 10b
In order to further minimize the appearance of Machband artifacts caused by exposure differences between images, the image stitching method 20 further normalizes multiple sub-images based on some or all of the shared overlap region. With stages.

ブロックS28において、画像繋合方法20は、高周波帯出力副画像を作り出すべく、第1高周波帯副画像と第2高周波帯副画像を接合する。第1高周波帯副画像と第2高周波帯副画像の接合は、一あるいは複数の走査線に沿って進行し得る。例示実施形態の以下の説明において、本発明は、複数の走査線を逐次的または同時に接合することによって実施され得るが、接合は、単一の走査線について記載される。   In block S28, the image joining method 20 joins the first high-frequency band sub-image and the second high-frequency band sub-image to create a high-frequency band output sub-image. The joining of the first high-frequency band sub-image and the second high-frequency band sub-image can proceed along one or more scanning lines. In the following description of exemplary embodiments, the present invention may be implemented by joining a plurality of scan lines sequentially or simultaneously, but the junction is described for a single scan line.

接合は、入力として第1高周波帯副画像と第2高周波帯副画像からそれぞれ第1走査線と第2走査線を採用し、出力として合成走査線を生成する。各々の第1走査線と第2走査線のうちの一部は、その対応する高周波帯副画像の重複領域由来である。接合において第1入力走査線由来のピクセル値は、重複領域の第1境界線と、接合位置との間の出力走査線の第1側のピクセルに割当てられ、第2入力走査線由来のピクセル値は、接合位置と、重複領域の第2境界線との間の出力走査線の第2側のピクセルに割当てられる。   The joining employs the first scanning line and the second scanning line from the first high-frequency band sub-image and the second high-frequency band sub-image, respectively, as an input, and generates a combined scanning line as an output. A part of each of the first scanning line and the second scanning line is derived from the overlapping region of the corresponding high frequency band sub-image. The pixel value derived from the first input scan line at the junction is assigned to the pixel on the first side of the output scan line between the first boundary line of the overlapping region and the junction position, and the pixel value derived from the second input scan line. Are assigned to pixels on the second side of the output scan line between the junction location and the second boundary of the overlap region.

出力走査線の接合位置は、第1入力走査線と第2入力走査線におけるエッジ特徴に基づき選択され得る。走査線におけるエッジ特徴の位置は、公知の算法を用いることによって得られ得る。一実施形態において、エッジ特徴は、ピクセルインタフェースに隣接するピクセル間の強度の差が閾値を超えるピクセルインタフェースで同定される。他の実施形態は、勾配ラプラスまたはソーベル法を用いることによってエッジ特徴を同定し得る。   The junction position of the output scan lines can be selected based on the edge characteristics of the first input scan line and the second input scan line. The position of the edge feature in the scan line can be obtained by using a known algorithm. In one embodiment, edge features are identified at a pixel interface where the intensity difference between pixels adjacent to the pixel interface exceeds a threshold. Other embodiments may identify edge features by using gradient Laplace or Sobel methods.

出力走査線の接合位置は、たとえば第1入力走査線と第2入力走査線の両方に共通するエッジ特徴に対応するピクセルインタフェースを含み得る。出力走査線が、共通エッジ特徴に対応する1つのピクセルインタフェースのみを含む場合、そのピクセルインタフェースは、その走査線の接合位置として選択され得る。出力走査線が、共通エッジ特徴に対応する複数のピクセルインタフェースを含む場合、接合位置としての特定ピクセルインタフェースの選択は、以下の因子:
i)ピクセルインタフェースを含むエッジ特徴の強度勾配;
ii)ピクセルインタフェースに対応するエッジ特徴が、隣接する走査線に存在するか否か;
iii)ピクセルインタフェースに対応するエッジ特徴を含む副画像における走査線数;
iv)複数の適切なピクセルインタフェース間のランダム選択
のうちの1つか、その組み合わせに従って決定され得る。
The junction position of the output scan line can include, for example, a pixel interface corresponding to an edge feature common to both the first input scan line and the second input scan line. If the output scan line includes only one pixel interface corresponding to a common edge feature, that pixel interface can be selected as the junction location for that scan line. If the output scan line includes multiple pixel interfaces corresponding to common edge features, the selection of a particular pixel interface as a junction location will have the following factors:
i) Intensity gradient of edge features including pixel interface;
ii) whether edge features corresponding to the pixel interface are present in adjacent scan lines;
iii) the number of scan lines in the sub-image including edge features corresponding to the pixel interface;
iv) may be determined according to one or a combination of random selections between a plurality of suitable pixel interfaces.

隣接する出力走査線の接合位置は、各々の走査線で接合位置を切り換えることによって生じるアーチファクトが減少するように、幾つかの実施形態において互いの近くに選択するのが有利であり得る。実施形態によっては、共通のエッジ特徴に対応する多重ピクセルインタフェースが、現行の走査線の接合位置として選択される場合には、近くの走査線の接合位置に最も近いエッジ特徴に対応するピクセルインタフェースが、現行の走査線の接合位置として選択される。   The joint positions of adjacent output scan lines may be advantageously selected close to each other in some embodiments so that artifacts caused by switching the joint positions on each scan line are reduced. In some embodiments, when a multiple pixel interface corresponding to a common edge feature is selected as the current scanline junction location, the pixel interface corresponding to the edge feature closest to the nearest scanline junction location is , Selected as the junction position of the current scan line.

幾つかの実施形態は、エッジ特徴が1つの走査線から次の走査線に連続し得る可能性、従って隣接する走査線の接合位置が互いに近い可能性を最大にすべく、たとえば走査線をスカッシングか、ストレッチングの何れかによって、走査線の長さを変化させることも含み得る。スカッシングまたはストレッチングは、任意の適当な尺度構成法を用いることによって達成され得る。走査線の長さは、たとえば幾つかの実施形態において最大15%まで変更され得る。走査線の長さが変更される実施形態において、低周波帯出力副画像の対
応走査線の長さは、転位アーチファクトを最小限にするため、同量だけ変更され得る。また、1つの走査線の長さにおける任意の偏差は、隣接走査線の長さを変更する場合に考慮され得る。走査線の長さの変更は、入力画像が重複領域において目に見える縦線を有する状況において望まれ得る。走査線の長さは、手動または自動的に変更され得る。
Some embodiments may, for example, scramble scan lines to maximize the possibility that edge features may be continuous from one scan line to the next, and therefore the joint positions of adjacent scan lines are close to each other. It may also include changing the length of the scan line by either singing or stretching. Squashing or stretching can be achieved by using any suitable scaling method. The length of the scan line can be varied, for example, up to 15% in some embodiments. In embodiments where the scan line length is changed, the corresponding scan line length of the low frequency band output sub-image can be changed by the same amount to minimize dislocation artifacts. Also, any deviation in the length of one scan line can be taken into account when changing the length of adjacent scan lines. Changing the length of the scan line may be desired in situations where the input image has visible vertical lines in the overlap region. The length of the scan line can be changed manually or automatically.

高周波帯副画像のうちの1つの入力走査線が、エッジ特徴に対応する任意のピクセルインタフェースを含まない場合、誤ったエッジが高周波帯出力副画像において生じないように、出力走査線を得るべく接合の代わりにブレンドが用いられ得る。低周波帯副画像のブレンドにおいて記載されるように、ブレンドは、正弦波融合関数または他の適切な融合関数を用いて実施されることが可能である。   If one input scan line of the high frequency band sub-image does not include any pixel interface corresponding to the edge feature, the spline is joined to obtain an output scan line so that no false edges occur in the high frequency band output sub-image. Instead of blends can be used. As described in blending low frequency sub-images, blending can be performed using a sinusoidal fusion function or other suitable fusion function.

ブロックS30において、画像繋合方法20は、低周波帯出力副画像と高周波帯出力副画像を合体することによって、全帯域出力合成画像を作り出す。状況によっては、全帯域出力合成画像は、図1cに示すような方形画像を含み得る。しかし入力画像は、全帯域出力合成画像が図4a〜図4cに示すような非方形であるように、方向付けられ得る。   In block S30, the image joining method 20 creates a full-band output composite image by combining the low-frequency band output sub-image and the high-frequency band output sub-image. In some circumstances, the full-band output composite image may include a square image as shown in FIG. However, the input image can be oriented such that the full-band output composite image is non-square as shown in FIGS. 4a-4c.

図4aは、2つの入力画像41と42から生成された非方形出力画像40を示す。図4bに示すように非方形出力画像40は、方形画像を得るべく、クロップ領域43で示すようにクロッピングされ得る。しかしクロッピングは、不都合であり得る幾つかのクロップ画像データ44の損失が生じる。別の解決策は、図4cに拡大画像領域45で示すような拡大方形画像を規定することである。画像を拡大することによって、目をそらさせ得る幾つかの空白の縁画像領域46が生じる。   FIG. 4 a shows a non-rectangular output image 40 generated from two input images 41 and 42. As shown in FIG. 4b, the non-rectangular output image 40 can be cropped as shown by the crop area 43 to obtain a square image. However, cropping results in loss of some crop image data 44 that can be inconvenient. Another solution is to define an enlarged square image as shown by the enlarged image area 45 in FIG. Enlarging the image results in a number of blank border image areas 46 that can distract.

本発明の幾つかの実施形態において、拡大出力画像の縁画像領域は、ランダム近傍サンプリング方法random neighborhood sampling method
によって充填され得る。そのような実施形態において各々の非充填ピクセルには、非充填(宛先)ピクセルを中心とする正方形または円形の領域から入力ピクセルがランダムに選択され得る。棄却サンプリングは、充填入力ピクセルが突き止められるまで用いられ得る。各々がうまくいかない(棄却される)場合、検索領域の半径が僅かに増加され得るので、最終的に充填入力ピクセルが確実に突き止められる。非充填宛先ピクセルが充填されれば、方法は、次の(通常、隣接する)非充填ピクセルに進み、僅かな前の検索半径から工程が繰返され得る。これによって、サンプリング半径が制約なしに増大しないようになるので、有効な近傍ピクセルを見つけるべく検索半径を平均して良好なサイズに維持する。最終的に縁画像領域、その色と特徴が最も近くの有効ピクセルに一致するピクセルを有するが、外観は「スノーイ」(snowy。雪状に白い)である。
In some embodiments of the present invention, the edge image region of the enlarged output image is a random neighborhood sampling method random neighborhood sampling method.
Can be filled. In such an embodiment, for each unfilled pixel, an input pixel may be randomly selected from a square or circular area centered around the unfilled (destination) pixel. Reject sampling can be used until the fill input pixel is located. If each is not successful (rejected), the radius of the search area can be slightly increased so that the final filled input pixels are reliably located. If an unfilled destination pixel is filled, the method proceeds to the next (usually adjacent) unfilled pixel and the process may be repeated from a slight previous search radius. This keeps the sampling radius from increasing unconstrained, so the search radius is averaged and kept at a good size to find valid neighborhood pixels. Eventually it has a border image area, pixels whose color and characteristics match the nearest valid pixel, but the appearance is “snowy” (snowy white).

図5は、上記の方法の例示実施形態を示す。互いに隣接する第1入力画像210aと第2入力画像210bは、それぞれ第1画像領域211aと第2画像領域211bによって捕らえられる共通の副視野を共有する。第1入力画像210aと第2入力画像210bは、第1高周波帯副画像H−210aと第2高周波帯副画像H−210bを得るべく、第1高域フィルタ212aと第2高域フィルタ212bに入力される。第1入力画像210aと第2入力画像210bは、第1低周波帯副画像L−210aと第2低周波帯副画像L−210bを得るべく、第1低域フィルタ213aと第2低域フィルタ213bにも入力される。第1高周波帯副画像H−210aと第2高周波帯副画像H−210bは、接合器214によって合体される。第1低周波帯副画像L−210aと第2低周波帯副画像L−210bは、ブレンド器215によって合体される。高周波帯接合出力H−210cと低周波帯ブレンド出力L−210cは、重複領域211cによって描写される共通の副視野を含む全帯域出力画像210cを作り出すべくマージすることによって、加算器216で合体される。高周波帯接合出力H−210cと低周波帯ブレンド出力L−210cのマージングは、出力が加算される場合に生じ得る負の数と丸め誤差を回避するため、たとえば高
周波帯接合出力H−210cと低周波帯ブレンド出力L−210cの増倍を含み得る。
FIG. 5 shows an exemplary embodiment of the above method. The first input image 210a and the second input image 210b adjacent to each other share a common sub-field of view captured by the first image region 211a and the second image region 211b, respectively. The first input image 210a and the second input image 210b are applied to the first high-pass filter 212a and the second high-pass filter 212b to obtain a first high-frequency band sub-image H-210a and a second high-frequency band sub-image H-210b. Entered. The first input image 210a and the second input image 210b are divided into a first low-pass filter 213a and a second low-pass filter to obtain a first low-frequency band sub-image L-210a and a second low-frequency band sub-image L-210b. Also input to 213b. The first high frequency band sub-image H-210a and the second high frequency band sub-image H-210b are merged by the junction unit 214. The first low frequency band sub-image L-210a and the second low frequency band sub-image L-210b are merged by the blender 215. The high frequency band junction output H-210c and the low frequency band blend output L-210c are merged by an adder 216 by merging to produce a full band output image 210c that includes a common subfield of view depicted by the overlap region 211c. The The merging of the high-frequency band junction output H-210c and the low-frequency band blend output L-210c avoids negative numbers and rounding errors that may occur when the outputs are added. It may include multiplication of the band blend output L-210c.

図6a、図6bおよび図6cは、走査線に適用された上記の接合の例示実施形態を示す。図6aと図6bは、それぞれ第1入力走査線330aと第2入力走査線330b、および各々の走査線に沿ったピクセル値の第1対応グラフ340Aと第2対応グラフ340bを示す。第1入力走査線330aは、第1境界線331を越え、重複領域332を横切って第2境界線333まで延びる。第2入力走査線330bは、第1境界線331から重複領域332を横切って、第2境界線333の先まで延びる。第1入力走査線330aと第2入力走査線330bは、それぞれ共通のエッジ特徴335a,335bに対応するそれぞれ第1ピクセルインタフェース334aと第2ピクセルインタフェース334bを含む。例示実施例において、第1ピクセルインタフェース334aと第2ピクセルインタフェース334bは、エッジ特徴に対応するものとして検出される各々の走査線における唯一のピクセルインタフェースなので、第1ピクセルインタフェース334aと第2ピクセルインタフェース334bの位置は、接合位置として選択される。   Figures 6a, 6b and 6c show an exemplary embodiment of the above junction applied to a scan line. FIGS. 6a and 6b show a first input scan line 330a and a second input scan line 330b, respectively, and a first correspondence graph 340A and a second correspondence graph 340b of pixel values along each scan line. The first input scanning line 330 a extends beyond the first boundary line 331, crosses the overlapping region 332, and reaches the second boundary line 333. The second input scanning line 330 b extends from the first boundary line 331 across the overlap region 332 to the end of the second boundary line 333. The first input scan line 330a and the second input scan line 330b include a first pixel interface 334a and a second pixel interface 334b, respectively, corresponding to common edge features 335a and 335b, respectively. In the exemplary embodiment, the first pixel interface 334a and the second pixel interface 334b are the only pixel interfaces in each scan line that are detected as corresponding to the edge feature, so the first pixel interface 334a and the second pixel interface 334b. This position is selected as the joining position.

図6cは、第1入力走査線330aと第2入力走査線330bを接合することによって生じる出力合成走査線330cを示す。出力合成走査線330cは、ピクセルインタフェース334cで接合位置周囲の第1入力走査線330aと第2入力走査線330bを接合することから生じる。第1走査線330a由来のピクセル値は、ピクセルインタフェース334cよりも左方の出力合成走査線330cの一部に用いられ、第2走査線330b由来のピクセル値は、ピクセルインタフェース334cよりも右方の出力合成走査線330cの一部に用いられる。従って、出力合成走査線330cに沿ったピクセル値のグラフ340cに示すように、エッジ特徴335cよりも左方の接合出力は、第1対応グラフ340Aに対応し、エッジ特徴335cよりも右方の接合出力は、第2対応グラフ340bに対応する。   FIG. 6c shows an output composite scan line 330c that results from joining the first input scan line 330a and the second input scan line 330b. The output composite scan line 330c results from joining the first input scan line 330a and the second input scan line 330b around the junction position at the pixel interface 334c. Pixel values derived from the first scan line 330a are used for a part of the output composite scan line 330c on the left side of the pixel interface 334c, and pixel values derived from the second scan line 330b are on the right side of the pixel interface 334c. Used for part of the output composite scanning line 330c. Accordingly, as shown in the pixel value graph 340c along the output composite scan line 330c, the joint output to the left of the edge feature 335c corresponds to the first correspondence graph 340A and the joint to the right of the edge feature 335c. The output corresponds to the second correspondence graph 340b.

本発明の別の特徴は、合成または「繋ぎ合わされた」画像を形成すべく画像を繋ぎ合わせる画像繋合装置を提供する。画像繋合装置の機能要素は、一あるいは複数のデータプロセッサ(マイクロプロセッサ、画像プロセッサ、その他を含み得る)で実行するソフトウエアとハードウエア要素のうちの少なくとも一方によって提供され得る。図7は、実施形態例に従う画像繋合装置50を示す。画像繋合装置50は、画像マージャ56に両方が連結される走査線接合プロセッサ52と第1走査線ブレンドプロセッサ54を備える。高周波帯副画像、画像対応データ、および画像エッジ位置データは、第1走査線接合プロセッサ52に入力される。低周波帯副画像と画像対応データは、第1走査線ブレンドプロセッサ54に入力される。画像繋合装置50は、高周波帯副画像と画像対応データが入力される第2走査線ブレンドプロセッサを備え得る。画像繋合装置50は、入力画像から高周波帯副画像を得るべく走査線接合プロセッサ52に連結される高域画像フィルタも備え得る。画像繋合装置50は、入力画像から低周波帯副画像を得るべく第1走査線ブレンドプロセッサに連結される低域画像フィルタを更に含み得る。画像繋合装置50は、第1走査線ブレンドプロセッサ、第2走査線ブレンドプロセッサまたは走査線接合プロセッサ52のうちの1つか組合せに入力されるべき画像対応データを生成する画像整列検出器を更に備え得る。画像繋合装置50は更に、走査線接合プロセッサ52に入力すべくエッジ特徴に対応するピクセルインタフェースを捜し出すエッジ特徴検出器を備え得る。   Another feature of the present invention provides an image splicing device that stitches images together to form a composite or “joined” image. The functional elements of the image splicing device may be provided by at least one of software and hardware elements executing on one or more data processors (which may include a microprocessor, an image processor, etc.). FIG. 7 shows an image joining device 50 according to an example embodiment. The image splicing device 50 includes a scan line splicing processor 52 and a first scan line blending processor 54 that are both coupled to the image merger 56. The high frequency band sub-image, the image correspondence data, and the image edge position data are input to the first scanning line joining processor 52. The low frequency band sub-image and the image correspondence data are input to the first scanning line blend processor 54. The image joining device 50 may include a second scanning line blend processor to which a high frequency band sub-image and image correspondence data are input. The image splicer 50 may also include a high pass image filter coupled to the scanline splice processor 52 to obtain a high frequency band sub-image from the input image. Image splicer 50 may further include a low pass image filter coupled to the first scan line blend processor to obtain a low frequency sub-image from the input image. The image stitching device 50 further comprises an image alignment detector that generates image correspondence data to be input to one or a combination of the first scanline blend processor, the second scanline blend processor, or the scanline splice processor 52. obtain. The image splicer 50 may further comprise an edge feature detector that locates a pixel interface corresponding to the edge feature for input to the scanline splice processor 52.

図8は、本発明の別の実施形態に従う画像繋合装置440を示す。画像繋合装置440は、走査線接合プロセッサH−441、低域走査線ブレンドプロセッサL−442、および高域走査線ブレンドプロセッサH−442を備える。高域画像フィルタH−443は、走査線接合プロセッサH−441と高域走査線ブレンドプロセッサH−442にそれぞれ入力される高周波帯副画像H−450を得るべく、入力画像450をフィルタにかける。低域画像フィルタL−443は、低域走査線ブレンドプロセッサL−442に入力される
低周波帯副画像L−450を得るべく、入力画像450をフィルタにかける。エッジ特徴検出器445は、入力画像450におけるエッジ特徴に対応するピクセルインタフェースを突き止めると共に、ピクセルインタフェースエッジデータ455を接合位置選択装置446に転送する。接合位置選択装置446は、走査線接合プロセッサH−441と高域走査線ブレンドプロセッサH−442に連結される。画像整列検出器444は、接合位置選択装置446、低域走査線ブレンドプロセッサL−442、および高域走査線ブレンドプロセッサH−442に入力される画像対応データ454を生成する。高周波数帯接合出力画像H−451S、高周波帯ブレンド出力画像H−451B、および低周波帯ブレンド出力画像L−451Bは、全帯域合成画像451を出力する画像マージャ447で合体する。
FIG. 8 shows an image stitching device 440 according to another embodiment of the present invention. The image splicing device 440 includes a scanning line joining processor H-441, a low-frequency scanning line blending processor L-442, and a high-frequency scanning line blending processor H-442. The high-frequency image filter H-443 filters the input image 450 to obtain a high-frequency band sub-image H-450 that is input to the scanning line splicing processor H-441 and the high-frequency scanning line blend processor H-442, respectively. The low pass image filter L-443 filters the input image 450 to obtain a low frequency band sub-image L-450 that is input to the low pass scan line blend processor L-442. The edge feature detector 445 locates the pixel interface corresponding to the edge feature in the input image 450 and forwards the pixel interface edge data 455 to the joint position selector 446. The joining position selection device 446 is connected to the scanning line joining processor H-441 and the high-frequency scanning line blend processor H-442. The image alignment detector 444 generates image correspondence data 454 that is input to the joint position selection device 446, the low-frequency scan line blend processor L-442, and the high-frequency scan line blend processor H-442. The high-frequency band joint output image H-451S, the high-frequency band blend output image H-451B, and the low-frequency band blend output image L-451B are merged by an image merger 447 that outputs a full-band synthesized image 451.

当業者には明らかになり得るように、前述の開示物の観点から、多くの変更と修正は、この発明の実施に際してその趣旨と範囲を逸脱しなければ可能である。従って本発明の範囲は、以下の請求項によって規定される内容に従って解釈されるものとする。当業者は、特定の修正、置換、追加、およびその部分組合せを認めるだろう。従って以下の添付請求項と今後に導入される請求項は、その真の趣旨と範囲内にあるとして、そのような修正、置換、追加、および部分組合せを含むと解釈するように意図される。   Many changes and modifications can be made in the practice of the invention without departing from its spirit and scope, as will be apparent to those skilled in the art in view of the foregoing disclosure. Accordingly, the scope of the invention should be construed in accordance with the content defined by the following claims. Those skilled in the art will recognize certain modifications, substitutions, additions, and subcombinations thereof. Accordingly, the following appended claims and claims subsequently introduced are intended to be construed as including such modifications, substitutions, additions, and subcombinations as falling within the true spirit and scope thereof.

Claims (27)

重複領域において互いに重複する入力画像同士を繋ぎ合わせる画像繋合方法であって、前記画像繋合方法は、
各々の前記入力画像から低周波帯副画像を得ることと;
各々の前記入力画像から高周波帯副画像を得ることと;
低周波帯出力画像を作り出すべく、前記重複領域のうちの少なくとも一部を横切って前記低周波帯副画像同士をブレンドすることと;
高周波帯出力画像を作り出すべく、前記重複領域のうちの少なくとも一部を横切って前記高周波帯副画像同士を接合することと;
全帯域出力合成画像を作り出すべく、前記低周波帯出力画像と前記高周波帯出力画像を合体することと
を備える、画像繋合方法。
An image joining method for joining input images that overlap each other in an overlapping region, wherein the image joining method includes:
Obtaining a low frequency sub-image from each said input image;
Obtaining a high frequency band sub-image from each said input image;
Blending the low frequency sub-images across at least a portion of the overlap region to produce a low frequency output image;
Joining the high frequency band sub-images across at least a portion of the overlap region to produce a high frequency band output image;
An image joining method comprising combining the low-frequency band output image and the high-frequency band output image to produce a full-band output composite image.
各々の前記入力画像は、高ダイナミックレンジ画像を含む、請求項1記載の画像繋合方法。   The image joining method according to claim 1, wherein each of the input images includes a high dynamic range image. 前記高周波帯副画像同士の接合は、
前記入力画像同士に共通のエッジ特徴に対応する接合位置を選択して選択接合位置とすることと;
前記選択接合位置で前記高周波帯副画像同士を接合することと
を含む、請求項1または2記載の画像繋合方法。
Bonding between the high frequency band sub-images,
Selecting a joint position corresponding to an edge feature common to the input images as a selected joint position;
The image joining method according to claim 1, further comprising joining the high-frequency band sub-images at the selective joining position.
前記画像繋合方法は、互いに共通のエッジ特徴を同定不可能な前記高周波帯副画像同士をブレンドすることを含む、請求項3記載の画像繋合方法。   The image joining method according to claim 3, wherein the image joining method includes blending the high-frequency band sub-images whose edge characteristics common to each other cannot be identified. 前記画像繋合方法は、各々の前記高周波帯副画像に対して複数の走査線を規定することを含み、
前記選択接合位置での前記高周波帯副画像同士の接合は、走査線ベースで前記高周波帯副画像同士を接合することを含む、請求項3記載の画像繋合方法。
The image joining method includes defining a plurality of scanning lines for each of the high frequency band sub-images,
The image joining method according to claim 3, wherein joining of the high-frequency band sub-images at the selective joining position includes joining the high-frequency band sub-images on a scanning line basis.
前記画像繋合方法は、前記高周波帯副画像の各々の走査線に対して、接合位置として両方の前記入力画像に共通のエッジ特徴に対応するピクセルインタフェースを選択することを含む、請求項5記載の画像繋合方法。   6. The image joining method includes selecting a pixel interface corresponding to an edge feature common to both of the input images as a joint position for each scanning line of the high-frequency band sub-image. Image joining method. 前記画像繋合方法は、前記入力画像におけるエッジ特徴を同定することを含む、請求項3記載の画像繋合方法。   The image joining method according to claim 3, wherein the image joining method includes identifying an edge feature in the input image. 前記画像繋合方法は、前記入力画像における対応点を同定することを含む、請求項3記載の画像繋合方法。   The image joining method according to claim 3, wherein the image joining method includes identifying corresponding points in the input image. 前記低周波帯副画像同士の前記ブレンドは、正弦波融合関数を用いることを含む、請求項1〜8何れか一項記載の画像繋合方法。   The image joining method according to claim 1, wherein the blending of the low frequency band sub-images includes using a sinusoidal fusion function. 前記画像繋合方法は、前記入力画像の正規化を含む、請求項1〜9何れか一項記載の画像繋合方法。   The image joining method according to claim 1, wherein the image joining method includes normalization of the input image. 前記画像繋合方法は、前記低周波帯副画像の正規化を含む、請求項1〜9何れか一項記載の画像繋合方法。   The image joining method according to claim 1, wherein the image joining method includes normalization of the low frequency band sub-image. 前記画像繋合方法は、前記高周波帯副画像の正規化を含む、請求項1〜9何れか一項記載の画像繋合方法。   The image joining method according to claim 1, wherein the image joining method includes normalization of the high-frequency band sub-image. 前記画像繋合方法は、前記高周波帯副画像のサイズを変更することを含む、請求項1〜12何れか一項記載の画像繋合方法。   The image joining method according to any one of claims 1 to 12, wherein the image joining method includes changing a size of the high-frequency band sub-image. 前記画像繋合方法は更に、前記全帯域出力合成画像が非方形画像を含む場合、方形拡大画像領域を規定し、ランダム近傍サンプリングによって空白の縁画像領域を充填する、請求項1〜13何れか一項記載の画像繋合方法。   The image joining method further includes defining a rectangular enlarged image region and filling a blank edge image region by random neighborhood sampling when the full-band output composite image includes a non-rectangular image. The image joining method according to one item. 前記ランダム近傍サンプリングは、各々の非充填ピクセルに対して、
前記非充填ピクセルに最も近い検索領域を規定することと;
前記非充填ピクセルを充填すべく、前記検索領域における入力ピクセルの特徴を選択することと
を含む、請求項14記載の画像繋合方法。
The random neighborhood sampling is for each unfilled pixel.
Defining a search area closest to the unfilled pixels;
The method of claim 14, comprising selecting features of input pixels in the search region to fill the unfilled pixels.
前記画像繋合方法は、前記検索領域が非充填ピクセルしか含まない場合、前記検索領域を拡大することを含む、請求項15記載の画像繋合方法。   The image joining method according to claim 15, wherein the image joining method includes enlarging the search area when the search area includes only unfilled pixels. 前記画像繋合方法は、1つの非充填ピクセルに対して、前に充填された非充填ピクセルの前記検索領域のサイズよりも小さい前記検索領域のサイズを選択することを含む、請求項16記載の画像繋合方法。   The method of claim 16, wherein the image joining method includes selecting, for one unfilled pixel, a size of the search area that is smaller than a size of the search area of previously filled unfilled pixels. Image connection method. 重複領域において互いに重複する入力画像同士を繋ぎ合わせる画像繋合装置であって、前記画像繋合装置は、
画像ブレンドプロセッサと;
画像接合プロセッサと;
前記画像ブレンドプロセッサと前記画像接合プロセッサにそれぞれ連結される画像マージャと
を備える、画像繋合装置。
An image joining device that joins input images that overlap each other in an overlapping region, the image joining device,
An image blending processor;
An image splicing processor;
An image joining device comprising: the image blend processor and an image merger coupled to the image joining processor.
前記画像繋合装置は更に、
前記画像ブレンドプロセッサに連結される低域フィルタと;
前記画像接合プロセッサに連結される高域フィルタと
を備える、請求項18記載の画像繋合装置。
The image joining device further includes:
A low pass filter coupled to the image blend processor;
The image stitching device of claim 18, comprising a high pass filter coupled to the image stitching processor.
前記画像繋合装置は更に、前記画像ブレンドプロセッサに連結される画像整列検出器を備える、請求項18または19記載の画像繋合装置。   20. The image splicing device of claim 18 or 19, further comprising an image alignment detector coupled to the image blend processor. 前記画像繋合装置は更に、前記画像接合プロセッサに連結される画像整列検出器を備える、請求項18〜20何れか一項記載の画像繋合装置。   21. The image splicing device according to any one of claims 18 to 20, further comprising an image alignment detector coupled to the image splicing processor. 前記画像繋合装置は更に、前記画像接合プロセッサに連結される接合位置選択装置を備える、請求項18〜21何れか一項記載の画像繋合装置。   The image joining device according to any one of claims 18 to 21, further comprising a joining position selection device coupled to the image joining processor. 前記画像繋合装置は更に、前記画像接合プロセッサに連結されるエッジ特徴検出器を備える、請求項22記載の画像繋合装置。   23. The image splicing device of claim 22, further comprising an edge feature detector coupled to the image splicing processor. 前記画像繋合装置は更に、前記画像マージャに連結される第2画像ブレンドプロセッサを備える、請求項18〜23何れか一項記載の画像繋合装置。   24. The image stitching device according to any one of claims 18 to 23, further comprising a second image blend processor coupled to the image merger. 前記画像マージャは、画像増倍器を備える、請求項18〜24何れか一項記載の画像繋合装置。   The image joining device according to any one of claims 18 to 24, wherein the image merger includes an image intensifier. コンピュータに、請求項1記載の画像繋合方法の手順を実行させるためのプログラムを記憶した、コンピュータ読取可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to execute the procedure of the image joining method according to claim 1. コンピュータに、
画像同士をブレンドする第1機能と;
画像同士を接合する第2機能と;
画像同士を加える第3機能と
を実現させるためのプログラムを記憶した、コンピュータ読取可能な記憶媒体。
On the computer,
A first function for blending images;
A second function for joining the images;
A computer-readable storage medium storing a program for realizing a third function for adding images.
JP2009540553A 2006-12-13 2006-12-13 Image joining method and device for joining digital images together Expired - Fee Related JP5230873B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CA2006/002028 WO2008070949A1 (en) 2006-12-13 2006-12-13 Methods and apparatus for stitching digital images

Publications (2)

Publication Number Publication Date
JP2010512696A true JP2010512696A (en) 2010-04-22
JP5230873B2 JP5230873B2 (en) 2013-07-10

Family

ID=39511174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009540553A Expired - Fee Related JP5230873B2 (en) 2006-12-13 2006-12-13 Image joining method and device for joining digital images together

Country Status (6)

Country Link
EP (1) EP2100270A4 (en)
JP (1) JP5230873B2 (en)
CN (1) CN101583974B (en)
CA (1) CA2671894C (en)
HK (1) HK1137072A1 (en)
WO (1) WO2008070949A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396743B1 (en) 2011-09-08 2014-05-16 가시오게산키 가부시키가이샤 An image processing device, an image processing method, and a recording medium
WO2022075040A1 (en) * 2020-10-09 2022-04-14 ソニーグループ株式会社 Image generation system, microscope system, and image generation method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101751659B (en) * 2009-12-24 2012-07-25 北京优纳科技有限公司 Large-volume rapid image splicing method
CN106600532B (en) * 2016-12-08 2020-01-10 广东威创视讯科技股份有限公司 Image amplification method and device
US20180241982A1 (en) * 2017-02-23 2018-08-23 Nokia Technologies Oy Method, apparatus and computer program product for generating composite images with three-dimensional effects and reducing pole contraction lines
US11734796B2 (en) * 2020-04-15 2023-08-22 Gopro, Inc. Methods and apparatus for shared image processing among multiple devices
CN113077387B (en) * 2021-04-14 2023-06-27 杭州海康威视数字技术股份有限公司 Image processing method and device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197486A (en) * 2000-12-22 2002-07-12 Square Co Ltd Video game machine, its control method, video game program and computer-readable recording medium with the program recorded thereon

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5187754A (en) * 1991-04-30 1993-02-16 General Electric Company Forming, with the aid of an overview image, a composite image from a mosaic of images
US6075905A (en) * 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US6434265B1 (en) * 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
US6456323B1 (en) * 1999-12-31 2002-09-24 Stmicroelectronics, Inc. Color correction estimation for panoramic digital camera
US20050063608A1 (en) * 2003-09-24 2005-03-24 Ian Clarke System and method for creating a panorama image from a plurality of source images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197486A (en) * 2000-12-22 2002-07-12 Square Co Ltd Video game machine, its control method, video game program and computer-readable recording medium with the program recorded thereon

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN7012001853; Greg Ward: 'Hiding Seams in High Dynamic Range Panoramas' Proceedings APGV 2006 , 20060729, P.150, ACM *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396743B1 (en) 2011-09-08 2014-05-16 가시오게산키 가부시키가이샤 An image processing device, an image processing method, and a recording medium
WO2022075040A1 (en) * 2020-10-09 2022-04-14 ソニーグループ株式会社 Image generation system, microscope system, and image generation method

Also Published As

Publication number Publication date
CA2671894A1 (en) 2008-06-19
EP2100270A4 (en) 2011-08-17
CA2671894C (en) 2013-07-16
HK1137072A1 (en) 2010-07-16
CN101583974B (en) 2012-11-14
JP5230873B2 (en) 2013-07-10
WO2008070949A1 (en) 2008-06-19
CN101583974A (en) 2009-11-18
EP2100270A1 (en) 2009-09-16

Similar Documents

Publication Publication Date Title
JP5230873B2 (en) Image joining method and device for joining digital images together
US9111389B2 (en) Image generation apparatus and image generation method
Zhang et al. Parallax-tolerant image stitching
US9654765B2 (en) System for executing 3D propagation for depth image-based rendering
Shamir et al. Seam carving for media retargeting
US7805003B1 (en) Identifying one or more objects within an image
CN103168315B (en) Solid (3D) panorama sketch on portable equipment creates
JP4551018B2 (en) Image combiner
US7477800B2 (en) Method for retargeting images
US7889948B2 (en) Image stitching using partially overlapping views of a scene
US20150022518A1 (en) Image process device, image process method, and image process program
US20160295108A1 (en) System and method for panoramic imaging
US8971611B2 (en) Image process device, image process method, and image process program
CN112862685B (en) Image stitching processing method, device and electronic system
CN106447602B (en) Image splicing method and device
KR20170131694A (en) A foreground image generation method and apparatus used in a user terminal
JP2002514359A (en) Method and apparatus for creating a mosaic image
US6879733B2 (en) Image artifact removal technique for LCP
Kang et al. Seamless stitching using multi-perspective plane sweep
Ward Hiding seams in high dynamic range panoramas
KR100521962B1 (en) Memory efficient image artifact removal technique for lcp
EP3563338A1 (en) Method and apparatus for multi-band blending of a seam in an image derived from multiple cameras
AU2015271981A1 (en) Method, system and apparatus for modifying a perceptual attribute for at least a part of an image
Sun et al. Error compensation and reliability based view synthesis
Sugimoto et al. Multi-layered image retargeting

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120822

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130123

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130320

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160329

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5230873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees