JP4919165B2 - Image composition apparatus and program - Google Patents

Image composition apparatus and program Download PDF

Info

Publication number
JP4919165B2
JP4919165B2 JP2007157253A JP2007157253A JP4919165B2 JP 4919165 B2 JP4919165 B2 JP 4919165B2 JP 2007157253 A JP2007157253 A JP 2007157253A JP 2007157253 A JP2007157253 A JP 2007157253A JP 4919165 B2 JP4919165 B2 JP 4919165B2
Authority
JP
Japan
Prior art keywords
image data
pixel block
image
search
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007157253A
Other languages
Japanese (ja)
Other versions
JP2008311906A (en
Inventor
和久 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007157253A priority Critical patent/JP4919165B2/en
Publication of JP2008311906A publication Critical patent/JP2008311906A/en
Application granted granted Critical
Publication of JP4919165B2 publication Critical patent/JP4919165B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像合成装置及びプログラムに関し、たとえば、デジタルカメラ等の撮影装置において、夜景等の撮影感度の向上技術の一つとして用いられている連写画像合成に適用できる画像合成装置及びプログラムに関する。
The present invention relates to an image synthesizing apparatus and program, for example, in the photographing apparatus such as a digital camera, an image synthesizing apparatus and program which can be applied to continuous image synthesis is used as a technology for improving imaging sensitivity of night view, etc. .

CCDやCMOS等の半導体撮像デバイスを用いたデジタルカメラ等の撮影装置は、カメラ自体で撮影感度(半導体撮像デバイスの撮影感度のこと。ISO感度ともいう。)を変更することが可能であり、暗所での撮影性能に優れているとされているが、ISO感度を高くし過ぎると、半導体撮像デバイスのノイズが増加して画質が低下するという弊害がある。   An imaging apparatus such as a digital camera using a semiconductor imaging device such as a CCD or CMOS can change the imaging sensitivity (the imaging sensitivity of the semiconductor imaging device; also referred to as ISO sensitivity) with the camera itself. However, if the ISO sensitivity is increased too much, noise of the semiconductor imaging device increases and the image quality deteriorates.

そこで、下記の特許文献1では、低速シャッタスピード(たとえば、1/60秒)と高速シャッタスピード(たとえば、1/1000秒)で2枚の画像を連写し、それらの画像を合成することにより、半導体撮像デバイスのダイナミックレンジを実質的に拡大することができる技術が記載されている。   Therefore, in the following Patent Document 1, two images are continuously shot at a low shutter speed (for example, 1/60 seconds) and a high shutter speed (for example, 1/1000 seconds), and these images are combined, A technique is described that can substantially expand the dynamic range of a semiconductor imaging device.

この技術のポイントは、低速シャッタスピードで撮影した画像(以下、低速画像という。)は、黒レベルの再現性に優れた画像であり、一方、高速シャッタスピードで撮影した画像(以下、高速画像という。)は、その逆に、白レベルの再現性に優れた画像であり、言い換えれば、低速画像では明るい部分が白く飛んだ「白飛び」の画像になりやすく、一方、高速画像では暗い部分が黒くつぶれた「黒つぶれ」の画像になりやすいという欠点を持つが、これら二つの画像を合成することにより、両画像の欠点(白飛びと黒つぶれ)を相互に補い合って、白飛びと黒つぶれのないダイナミックレンジの広い画像を得ることができるというものである。   The point of this technique is that an image shot at a low shutter speed (hereinafter referred to as a low-speed image) is an image having excellent black level reproducibility, while an image shot at a high shutter speed (hereinafter referred to as a high-speed image). .), On the other hand, is an image with excellent white level reproducibility. In other words, in a low-speed image, a bright part is likely to be a white-out image, whereas in a high-speed image, a dark part is Although it has the disadvantage that it tends to be a black-out “black-out” image, by combining these two images, it compensates for the shortcomings of both images (out-of-brightness and under-exposure), and over-exposure and under-exposure An image with a wide dynamic range can be obtained.

さて、この特許文献1の技術においては、その画像合成について、単に白飛び部分と黒つぶれ部分とを検出し、それらの部分に他方側の画像の該当部分を充当しているだけのものに過ぎず、たとえば、動きのある被写体や、撮影時に手振れがあった場合に、正確な画像合成を行うことが困難になるという欠点がある。   In the technique of this Patent Document 1, the image composition is merely detected by detecting a white-out part and a black-out part and applying the corresponding part of the image on the other side to those parts. For example, there is a drawback that it is difficult to perform accurate image composition when there is a moving subject or when there is a camera shake at the time of shooting.

これに対して、下記の特許文献2では、静止画撮影で生じる手振れを防止するために、防振モードにおいては、短い露光時間で複数回露光を行い、これら露光された結果得られた画像から輝度の高い画素からなる特徴点を抽出し、動きベクトルを求め、これらのデータに基づいて座標変換を行い画像合成する技術が開示されている。   On the other hand, in Patent Document 2 below, in order to prevent camera shake that occurs in still image shooting, in the image stabilization mode, exposure is performed a plurality of times with a short exposure time, and from the images obtained as a result of these exposures. A technique is disclosed in which feature points composed of pixels with high luminance are extracted, a motion vector is obtained, coordinate transformation is performed based on these data, and an image is synthesized.

特許第3110797号Japanese Patent No. 3110797 特開2004−357202号公報JP 2004-357202 A

しかしながら、特許文献2の技術においては、特徴点の検出対象が輝度の高い領域となっているため、たとえば、連続的に撮影された画像の構図そのものが異なる場合であっても、特徴点が一致してしまう可能性があり、不適切な画像合成が行われてしまうという問題があった。   However, in the technique of Patent Document 2, since the feature point detection target is a high-luminance region, for example, even when the composition of continuously captured images is different, the feature point is one. There has been a problem that improper image composition is performed.

本発明はこのような問題点に鑑みてなされたものであり、連続的に撮影された画像間の一致/不一致を判定し、より精度の高い画像合成を行うことができるようにする画像合成装置及びプログラムを提供することにある。
The present invention has been made in view of such a problem, and an image composition device that determines coincidence / non-coincidence between continuously photographed images and performs image synthesis with higher accuracy. And providing a program.

請求項記載の発明は、連続的に複数の画像データを取得する画像取得手段と、この画像取得手段によって連続的に取得された複数の画像データのうちの第1の画像データを基準画像データとして、この基準画像データを複数のエリアに分割する分割手段と、この分割手段によって分割された各エリアから、特徴量の多い第1の画素ブロックの位置を夫々選択する位置選択手段と、この位置選択手段によって選択された第1の画素ブロックの位置を基準にし、前記複数の画像データのうちの第2の画像データから、前記第1のブロックの位置に対応した第2の画素ブロックの位置をサーチする第1のサーチ手段と、この第1のサーチ手段によるサーチの結果得られる前記第2の画素ブロックの位置を基準にし、前記基準画像データの所定範囲で前記第2の画素ブロックに対応する第3の画素ブロックが存在するか否かを判断する判断手段と、この判断手段により、前記第3の画素ブロックが存在すると判断されたときに、前記第1の画素ブロックの位置と、この第1の画素ブロックの位置に対応する前記第2の画素ブロックの位置との間の動きベクトルの組を所定数選択する動きベクトル選択手段と、この動きベクトル選択手段によって選択された所定数の組の動きベクトル基づいて、前記第2の画像データを射影変換して前記第1の画像データと合成する合成手段とを備えることを特徴とする。
また、請求項2記載の発明は、請求項1記載の発明において、前記第1のサーチ手段は、前記第1の画素ブロックの画素値と前記第2の画像データにおける指定検索領域内の画素値との間の差分二乗和または差分絶対値和を演算することで、前記第1の画素ブロックに対応する前記第2の画素ブロックをサーチし、前記判断手段は、前記第2の画素ブロックの画素値と前記基準画像データにおける前記指定検索領域内の画素値との間の差分二乗和または差分絶対値和を演算することで、前記第3の画素ブロックが存在するか否かを判断することを特徴とする。
According to the first aspect of the present invention, image acquisition means for continuously acquiring a plurality of image data, and first image data among the plurality of image data continuously acquired by the image acquisition means as reference image data A dividing unit that divides the reference image data into a plurality of areas, a position selecting unit that selects a position of the first pixel block having a large feature amount from each of the areas divided by the dividing unit, and the position Based on the position of the first pixel block selected by the selection means, the position of the second pixel block corresponding to the position of the first block is determined from the second image data of the plurality of image data. a first search means for searching, based on the position of the second pixel block obtained search result by the first search means, a predetermined range of the reference image data Determining means for determining whether the third pixel block corresponding to the second pixel block exists, this determination means, when the third pixel block is determined to exist, the first Motion vector selection means for selecting a predetermined number of sets of motion vectors between the position of the pixel block and the position of the second pixel block corresponding to the position of the first pixel block, and the motion vector selection means based on the set of motion vectors of a predetermined number selected by, characterized in that it comprises a synthesizing means for synthesizing the first image data and the second image data by projective transformation.
According to a second aspect of the present invention, in the first aspect of the invention, the first search means includes a pixel value of the first pixel block and a pixel value in a designated search area in the second image data. The second pixel block corresponding to the first pixel block is searched by calculating a sum of squared differences or a sum of absolute differences between the first and second pixel blocks, and the determination unit includes a pixel of the second pixel block Calculating whether or not the third pixel block exists by calculating a sum of squares of differences or a sum of absolute differences between a value and a pixel value in the designated search area in the reference image data. Features.

請求項3記載の発明は、上記請求項1又は2記載の発明において、撮像手段を更に備え、前記画像取得手段は、この撮像手段を連続的に駆動させて複数の画像データを取得することを特徴とする。
The invention described in claim 3 is the invention described in claim 1 or 2, further comprising an imaging unit, wherein the image acquisition unit acquires a plurality of image data by continuously driving the imaging unit. Features.

請求項記載の発明は、コンピュータを、連続的に複数の画像データを取得する画像取得手段、この画像取得手段によって連続的に取得された複数の画像データのうちの第1の画像データを基準画像データとして、この基準画像データを複数のエリアに分割する分割手段、この分割手段によって分割された各エリアから、特徴量の多い第1の画素ブロックの位置を夫々選択する位置選択手段、この位置選択手段によって選択された第1のブロックの位置を基準にし、前記複数の画像データのうちの第2の画像データから、前記第1のブロックの位置に対応した第2の画素ブロックの位置をサーチする第1のサーチ手段、この第1のサーチ手段によるサーチの結果得られる前記第2の画素ブロックの位置を基準にし、前記基準画像データの所定範囲で前記第2の画素ブロックに対応する第3の画素ブロックが存在するか否かを判断する第1の判断手段、この第1の判断手段により、前記第3の画素ブロックが存在すると判断されたときに、前記第1の画素ブロックの位置と、この第1の画素ブロックの位置に対応する前記第2の画素ブロックの位置との間の動きベクトルの組を所定数選択する動きベクトル選択手段、この動きベクトル選択手段によって選択された所定数の組の動きベクトル基づいて、前記第2の画像データを射影変換して前記第1の画像データと合成する合成手段として機能させることを特徴とする。
According to a fourth aspect of the present invention, there is provided a computer based on image acquisition means for continuously acquiring a plurality of image data, and based on the first image data of the plurality of image data continuously acquired by the image acquisition means. As image data, dividing means for dividing the reference image data into a plurality of areas, position selecting means for selecting the position of the first pixel block having a large amount of feature from each area divided by the dividing means, and this position Based on the position of the first block selected by the selection means, the position of the second pixel block corresponding to the position of the first block is searched from the second image data of the plurality of image data. first search means, and the position relative to the first search means search result by the resulting second pixel blocks, given the reference image data to be First determining means for determining whether a third pixel block corresponding to the second pixel block enclosed there by the first determining means, it is determined that the third pixel blocks exist Motion vector selection means for selecting a predetermined number of sets of motion vectors between the position of the first pixel block and the position of the second pixel block corresponding to the position of the first pixel block. and characterized in that the movement on the basis of a predetermined number of sets of motion vectors selected by the vector selecting means, said second image data and projective transformation function as synthesizing means for synthesizing the first image data To do.

本発明では、連続的に撮影された画像間の一致/不一致を判定し、より精度の高い画像合成を行うことができる。 According to the present invention, it is possible to determine the coincidence / non-coincidence between continuously captured images, and to perform image synthesis with higher accuracy.

以下、本発明の実施形態を、図面を参照しながら説明する。
図1は、実施形態に係る撮影装置の構成図である。この図において、撮影装置1は、撮影レンズや絞り機構等を含む光学系2、機械的に光軸を遮断し得るシャッタ機構3、光学系2とシャッタ機構3を通過した光を結像して電気的な画像信号に変換するCCD4、CCD4の出力をアナログからデジタルに変換するA/D変換器5、A/D変換器5の出力を一時的に保持するDRAM6、DRAM6に保持されている画像信号を所定の表示形式に変換して液晶表示画面8に出力する液晶表示コントローラ7、液晶表示コントローラ7から出力された画像を表示する液晶表示画面8、液晶表示画面8に表示されている画像が所望の構図になったときにユーザによって操作されるシャッタボタン9、当該撮影装置1のモードを通常撮影モードや連写撮影モードにしたり、あるいはそれらのモードから撮影済み画像の再生モードにしたりその逆にしたり又は所定のシステム設定モード等にしたりするためのモードボタン10、集積回路部11、撮影済み画像を保存する外部記憶メモリMを備える。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a configuration diagram of a photographing apparatus according to the embodiment. In this figure, a photographing apparatus 1 forms an image of an optical system 2 including a photographing lens and a diaphragm mechanism, a shutter mechanism 3 that can mechanically block an optical axis, and light that has passed through the optical system 2 and the shutter mechanism 3. CCD 4 for converting to an electrical image signal, A / D converter 5 for converting the output of CCD 4 from analog to digital, DRAM 6 for temporarily holding the output of A / D converter 5, and images held in DRAM 6 A liquid crystal display controller 7 that converts the signal into a predetermined display format and outputs it to the liquid crystal display screen 8, a liquid crystal display screen 8 that displays an image output from the liquid crystal display controller 7, and an image displayed on the liquid crystal display screen 8 The shutter button 9 that is operated by the user when a desired composition is obtained, and the mode of the photographing apparatus 1 is set to the normal photographing mode or the continuous photographing mode, or these modes. Mode button 10 for or in or or predetermined system setting mode or the like in the opposite or in the playback mode of recorded images, the integrated circuit 11, and an external storage memory M for storing the captured image.

集積回路部11は、シャッタ機構3を制御するシャッタ制御部12、CCD4やA/D変換器5を制御する受光制御部13、DRAM6に保存されている画像信号をYUV信号(色信号)と輝度信号に変換するデモザイク部14、連写撮影モードで撮影された2枚の画像の特徴量を演算する特徴量演算部15、特徴量演算やブロックマッチング及び画像合成の際のワークメモリとして用いられるSRAM16、連写撮影モードで撮影された2枚の画像のブロックマッチングを行うブロックマッチング部17、そのブロックマッチングの結果に基づいて2枚の画像の画像変形及び合成加算処理を行う画像変形合成加算部18、当該集積回路部11の全体動作を制御するCPUコア19を含む。   The integrated circuit unit 11 includes a shutter control unit 12 that controls the shutter mechanism 3, a light reception control unit 13 that controls the CCD 4 and the A / D converter 5, and image signals stored in the DRAM 6 as YUV signals (color signals) and luminance. A demosaic unit 14 for converting to a signal, a feature amount calculation unit 15 for calculating feature amounts of two images shot in the continuous shooting mode, and an SRAM 16 used as a work memory for feature amount calculation, block matching, and image synthesis The block matching unit 17 that performs block matching of two images shot in the continuous shooting mode, and the image deformation / synthesis adding unit 18 that performs image deformation and synthesis / addition processing of the two images based on the result of the block matching. A CPU core 19 that controls the overall operation of the integrated circuit unit 11 is included.

図2、図3は、本実施形態における画像合成処理の概略フローを示す図である。このフローでは、まず、ユーザがモードボタン10を操作して連写撮影モードにし、液晶表示画面8の表示を見ながら所望の構図に調整した上、シャッタボタン9を操作して2枚の画像を連写(ステップS0)すると、それらの2枚の画像データがCCD4からA/D変換器5を介してDRAMに取り込まれ、デモザイク部14によって、2枚の画像のYUVデータと輝度データが作られる。次いで、2枚の画像のうちの一方の画像を「基準画像」、他方の画像を「被追跡画像」とする(ステップS1)。   2 and 3 are diagrams showing a schematic flow of image composition processing in the present embodiment. In this flow, first, the user operates the mode button 10 to enter the continuous shooting mode, adjusts to a desired composition while viewing the display on the liquid crystal display screen 8, and then operates the shutter button 9 to display two images. When continuous shooting (step S0) is performed, the two pieces of image data are taken from the CCD 4 into the DRAM via the A / D converter 5, and the demosaic unit 14 generates YUV data and luminance data of the two images. . Next, one of the two images is set as a “reference image”, and the other image is set as a “tracked image” (step S1).

次に、基準画像を複数のエリアに分割し、各エリアを構成する所定画素数(ここでは、16×16画素)のブロックから、特徴量の多いブロックを選択する(ステップS2)。   Next, the reference image is divided into a plurality of areas, and a block having a large feature amount is selected from blocks having a predetermined number of pixels (here, 16 × 16 pixels) constituting each area (step S2).

図4は、基準画像の構造図である。この図において、基準画像20は、画像の上下左右の縁部20a〜20dを除く部分を等分割し、各々の分割部分をエリアとしている。ここでは、一例として4×3分割し、各々をエリアE0〜E11としている。また、各エリアE0〜E11をさらに等分割(ここでは、3×3分割)し、各々を16×16画素の集まりであるブロックB0〜B8としている。   FIG. 4 is a structural diagram of the reference image. In this figure, the reference image 20 is divided into equal parts except for the upper, lower, left and right edges 20a to 20d of the image, and each divided part is used as an area. Here, 4 × 3 is divided as an example, and each area is defined as areas E0 to E11. Each area E0 to E11 is further equally divided (here, 3 × 3 divisions), and each of the areas E0 to E11 is formed as a block B0 to B8 that is a collection of 16 × 16 pixels.

再びフローに戻り、ステップS2で、基準画像のブロックから特徴量の多いブロックを選択すると、次に、選択された基準画像における特徴量の多いブロックと、そのブロックに対応する被追跡画像における指定検索領域内で差分二乗和(または差分絶対値和)を演算する(ステップS3)。   Returning to the flow again, if a block with a large amount of features is selected from the blocks of the reference image in step S2, then a block with a large amount of features in the selected reference image and a designated search in the tracked image corresponding to that block The sum of squared differences (or sum of absolute differences) is calculated within the region (step S3).

図5は、ステップS3の概念図であり、(a)は基準画像の選択ブロックBi(iは1、2、3、・・・・)と被追跡画像21のサーチエリア22(指定検索領域)の関係を示す図、(b)は、ステップS3の演算結果(差分二乗和または差分絶対値和)が最小となる、被追跡画像のサーチエリア22(指定検索領域)の位置を示す図である。   FIG. 5 is a conceptual diagram of step S3. (A) is a reference image selection block Bi (i is 1, 2, 3,...) And a search area 22 (designated search area) of the tracked image 21. (B) is a diagram showing the position of the search area 22 (designated search area) of the tracked image where the calculation result (sum of squares of differences or sum of absolute differences) of step S3 is minimized. .

(b)のように、ステップS3の演算結果(差分二乗和または差分絶対値和)が最小となる位置が得られると、次に、当該位置での、被追跡画像の対応ブロックBi(16×16画素)で、対応する基準画像ブロック側とその周辺を含む指定検索領域内22で、差分二乗和(または差分絶対値和)を演算する(ステップS4)。   As shown in (b), when the position at which the calculation result (sum of squared differences or sum of absolute differences) in step S3 is minimized is obtained, the corresponding block Bi (16 × 16) of the tracked image at that position is then obtained. 16 pixels), the sum of squared differences (or sum of absolute differences) is calculated in the designated search area 22 including the corresponding reference image block side and its periphery (step S4).

図6は、ステップS4の概念図であり、Bi´は被追跡画像の対応ブロック、23は対応する基準画像ブロック側とその周辺を含む指定検索領域である。   FIG. 6 is a conceptual diagram of step S4, where Bi ′ is a corresponding block of the tracked image, and 23 is a designated search area including the corresponding reference image block side and its periphery.

そして、ステップS4の演算の結果、探索結果の動きベクトル群それぞれについて“0”もしくは一定値以内である動きベクトルを複数選択し、これらの動きベクトル群を元に、たとえば、RANSAC法により、基準画像と被追跡画像の関係を表す射影変換行列を求め(ステップS6)、その変換行列を用いて、被追跡画像が基準画像と同じ位置関係になるように被追跡画像を変形し、変形された被追跡画像を基準画像に加算して合成画像を生成(ステップS7)した後、フローを終了する。   Then, as a result of the calculation in step S4, a plurality of motion vectors that are “0” or within a certain value are selected for each motion vector group as a search result, and based on these motion vector groups, for example, a reference image A projection transformation matrix representing the relationship between the tracked image and the tracked image is obtained (step S6), and the tracked image is deformed using the transformation matrix so that the tracked image has the same positional relationship as the reference image. After the tracking image is added to the reference image to generate a composite image (step S7), the flow ends.

ここで、RANSAC(RANdom SAmple Consensus)とは、パラメータ推定の一手法であり、少数の点から求めたパラメータ推定の候補に対して、多数の点の中からその推定に適合する点の数や適合の正確性の度合い、すなわち、サポート数を算出し、サポート数の多い推定候補を最終の推定結果として採用する方法のことであり、本実施の形態においては、このRANSACによる推定結果、すなわち、サポート率を勘案して被追跡画像を射影変換行列により変形させる。   Here, RANSAC (RANdom Sample Consensus) is a method of parameter estimation. For a parameter estimation candidate obtained from a small number of points, the number of points suitable for the estimation from a large number of points and the adaptation In this embodiment, the estimation result by the RANSAC, that is, the support is calculated. The tracked image is transformed by the projective transformation matrix in consideration of the rate.

以上のとおり、本実施形態では、所定の分割されたエリア内の、特徴量が高いブロックで、通常のテンプレートマッチングを行い、そして、一度マッチングした位置から、基準画像と被追跡画像の役割を逆転させ、被追跡画像のマッチング位置のブロックで、基準画像のブロック周辺部をマッチングさせ、役割を逆転させてもマッチングの位置変動が一定値以内であれば、マッチングが成功したとみなして、テンプレートマッチングのデータ信頼性を向上させるようにしたので、大きな手振れや被写体振れ、または、視差の影響(見る角度によって見えたり見えなかったりすること)で原理的に追跡が不可能な場合の追跡失敗を検出するだけでなく、輝度値が低い暗所における追跡においても認識誤りを防ぐことができ、輝度値の低い画像を精度良く合成することにより、撮影画像に発生するノイズを抑えることができる。   As described above, in this embodiment, normal template matching is performed on a block having a high feature amount in a predetermined divided area, and the roles of the reference image and the tracked image are reversed from the position once matched. Matching the block periphery of the reference image with the block at the matching position of the tracked image, and if the position fluctuation of the matching is within a certain value even if the role is reversed, it is considered that the matching is successful and the template matching In order to improve the reliability of data, it is possible to detect tracking failure when tracking is impossible in principle due to large camera shake, subject shake, or parallax effect (visible or invisible depending on viewing angle). In addition, it can prevent recognition errors even when tracking in a dark place where the brightness value is low. By better synthesis time, it is possible to suppress the noise generated in the captured image.

なお、以上の実施形態では、差分和値が最小となる位置が求まった後に、求まった位置の被追跡画像側のブロックで、基準画像側をサーチするとしたが、以下のように改良してもよい。   In the above embodiment, after the position where the difference sum value is minimum is obtained, the block on the tracked image side of the obtained position is searched for the reference image side. However, the following improvement is also possible. Good.

図7は、実施形態の改良例(第1の改良例)を示す図である。この図に示すように、差分和値が最小となる位置が求まった後に、基準画像側ブロックBiのブロックサイズを小さくしたブロックで、求まった位置を中心として小範囲(被追跡画像側の検索範囲)で検索し、マッチング位置がずれなければ、マッチング成功するとしてもよい。   FIG. 7 is a diagram illustrating an improved example (first improved example) of the embodiment. As shown in this figure, after the position where the difference sum value is minimized is obtained, the block in which the block size of the reference image side block Bi is reduced, and a small range (search range on the tracked image side) centered on the obtained position. If the matching position is not shifted, the matching may be successful.

または、以下のように改良してもよい。
図8は、第2の改良例を示す図であり、この図は既出の図2、図3に相当する図である。なお、この図におけるステップ番号(ステップS0〜ステップS7)は、図2、図3のものと同じである。図2、図3との相違点は、ステップS3の後に「夜景モード撮影?」の判定(ステップS8)が入っていることにあり、この判定結果が“YES”の場合にのみ、ステップS4〜ステップS5を実行する点にある。すなわち、強制的に射影変換・画像合成を行う夜景モードが選択された際にのみ前記実施形態のプロセス(ステップS4〜ステップS5)を実行する。このようにすることにより、特徴点の一致ミスによる像ブレの影響が少ない、綺麗な静止画像データを得ることができる。
Or you may improve as follows.
FIG. 8 is a diagram showing a second improvement example, and this diagram corresponds to FIGS. 2 and 3 described above. The step numbers (steps S0 to S7) in this figure are the same as those in FIGS. The difference from FIG. 2 and FIG. 3 is that there is a determination (step S8) of “night view mode shooting?” After step S3. Only when this determination result is “YES”, steps S4 to S4 are performed. The point is that step S5 is executed. That is, the process of the above embodiment (steps S4 to S5) is executed only when the night scene mode for forcibly performing projective transformation / image synthesis is selected. By doing this, it is possible to obtain beautiful still image data that is less affected by image blur due to feature point mismatch errors.

図9は、第3の改良例を示す図であり、この図も既出の図2、図3に相当する図である。同様に、この図におけるステップ番号(ステップS0〜ステップS7)も、図2、図3のものと同じである。図2、図3との相違点は、ステップS3の後に「低コントラストの画像撮影?」の判定(ステップS9)が入っていることにあり、この判定結果が“YES”の場合にのみ、ステップS4〜ステップS5を実行する点にある。すなわち、撮影した画像全体のコントラストが低い(特徴量が出にくい)画像を撮影し、射影変換・画像合成を行う場合にのみ前記実施形態のプロセス(ステップS4〜ステップS5)を実行する。このようにすることにより、特徴点の一致ミスによる像ブレの影響が少ない、綺麗な静止画像データを得ることができる。   FIG. 9 is a diagram showing a third improvement example, and this diagram is also a diagram corresponding to FIGS. 2 and 3 described above. Similarly, the step numbers (steps S0 to S7) in this figure are the same as those in FIGS. The difference from FIG. 2 and FIG. 3 is that there is a determination (step S9) of “low-contrast image capture?” After step S3. Only when this determination result is “YES”, step The point is that steps S4 to S5 are executed. That is, the process of the above-described embodiment (steps S4 to S5) is executed only when an image with a low contrast of the entire captured image (a feature amount is difficult to generate) is captured and projection conversion / image synthesis is performed. By doing this, it is possible to obtain beautiful still image data that is less affected by image blur due to feature point mismatch errors.

実施形態に係る撮影装置の構成図である。It is a block diagram of the imaging device which concerns on embodiment. 本実施形態における画像合成処理の概略フローを示す図(1/2)である。It is a figure (1/2) which shows the schematic flow of the image composition process in this embodiment. 本実施形態における画像合成処理の概略フローを示す図(2/2)である。It is a figure (2/2) which shows the schematic flow of the image composition process in this embodiment. 基準画像の構造図である。FIG. 6 is a structural diagram of a reference image. ステップS3の概念図である。It is a conceptual diagram of step S3. ステップS4の概念図である。It is a conceptual diagram of step S4. 第1の改良例を示す図である。It is a figure which shows the 1st example of improvement. 第2の改良例を示す図である。It is a figure which shows the 2nd improvement example. 第3の改良例を示す図である。It is a figure which shows the 3rd improvement example.

符号の説明Explanation of symbols

1 撮影装置
4 CCD
15 特徴量演算部
17 ブロックマッチング部
18 画像変形合成加算部
19 CPUコア
1 Shooting device 4 CCD
15 Feature Quantity Calculation Unit 17 Block Matching Unit 18 Image Deformation Synthesis Addition Unit 19 CPU Core

Claims (4)

連続的に複数の画像データを取得する画像取得手段と、
この画像取得手段によって連続的に取得された複数の画像データのうちの第1の画像データを基準画像データとして、この基準画像データを複数のエリアに分割する分割手段と、
この分割手段によって分割された各エリアから、特徴量の多い第1の画素ブロックの位置を夫々選択する位置選択手段と、
この位置選択手段によって選択された第1の画素ブロックの位置を基準にし、前記複数の画像データのうちの第2の画像データから、前記第1のブロックの位置に対応した第2の画素ブロックの位置をサーチする第1のサーチ手段と、
この第1のサーチ手段によるサーチの結果得られる前記第2の画素ブロックの位置を基準にし、前記基準画像データの所定範囲で前記第2の画素ブロックに対応する第3の画素ブロックが存在するか否かを判断する判断手段と、
この判断手段により、前記第3の画素ブロックが存在すると判断されたときに、前記第1の画素ブロックの位置と、この第1の画素ブロックの位置に対応する前記第2の画素ブロックの位置との間の動きベクトルの組を所定数選択する動きベクトル選択手段と、
この動きベクトル選択手段によって選択された所定数の組の動きベクトル基づいて、前記第2の画像データを射影変換して前記第1の画像データと合成する合成手段と
を備えることを特徴とする画像合成装置。
Image acquisition means for continuously acquiring a plurality of image data;
Dividing means for dividing the reference image data into a plurality of areas using the first image data of the plurality of image data continuously acquired by the image acquisition means as reference image data;
Position selecting means for selecting the position of the first pixel block having a large amount of features from each area divided by the dividing means;
Based on the position of the first pixel block selected by the position selection means, the second pixel block corresponding to the position of the first block is selected from the second image data of the plurality of image data. First search means for searching for a position;
Whether there is a third pixel block corresponding to the second pixel block in a predetermined range of the reference image data with reference to the position of the second pixel block obtained as a result of the search by the first search means A determination means for determining whether or not,
When the determination means determines that the third pixel block exists, the position of the first pixel block and the position of the second pixel block corresponding to the position of the first pixel block Motion vector selection means for selecting a predetermined number of sets of motion vectors between
Based on the set of motion vectors of a predetermined number selected by the motion vector selecting means, characterized in that it comprises a synthesizing means for synthesizing the first image data and the second image data by projective transformation Image composition device.
前記第1のサーチ手段は、前記第1の画素ブロックの画素値と前記第2の画像データにおける指定検索領域内の画素値との間の差分二乗和または差分絶対値和を演算することで、前記第1の画素ブロックに対応する前記第2の画素ブロックをサーチし、The first search means calculates a sum of squared differences or a sum of absolute differences between a pixel value of the first pixel block and a pixel value in a designated search area in the second image data, Searching for the second pixel block corresponding to the first pixel block;
前記判断手段は、前記第2の画素ブロックの画素値と前記基準画像データにおける前記指定検索領域内の画素値との間の差分二乗和または差分絶対値和を演算することで、前記第3の画素ブロックが存在するか否かを判断することを特徴とする請求項1記載の画像合成装置。The determination means calculates the third sum of squares or the sum of absolute differences between the pixel value of the second pixel block and the pixel value in the designated search area in the reference image data. The image composition apparatus according to claim 1, wherein it is determined whether or not a pixel block exists.
撮像手段を更に備え、
前記画像取得手段は、この撮像手段を連続的に駆動させて複数の画像データを取得することを特徴とする請求項1又は2に記載の画像合成装置。
Further comprising an imaging means,
It said image acquisition means, the image synthesizing apparatus according to claim 1 or 2, characterized in that to obtain a plurality of image data continuously driven the imaging means.
コンピュータを、
連続的に複数の画像データを取得する画像取得手段、
この画像取得手段によって連続的に取得された複数の画像データのうちの第1の画像データを基準画像データとして、この基準画像データを複数のエリアに分割する分割手段、
この分割手段によって分割された各エリアから、特徴量の多い第1の画素ブロックの位置を夫々選択する位置選択手段、
この位置選択手段によって選択された第1のブロックの位置を基準にし、前記複数の画像データのうちの第2の画像データから、前記第1のブロックの位置に対応した第2の画素ブロックの位置をサーチする第1のサーチ手段、
この第1のサーチ手段によるサーチの結果得られる前記第2の画素ブロックの位置を基準にし、前記基準画像データの所定範囲で前記第2の画素ブロックに対応する第3の画素ブロックが存在するか否かを判断する第1の判断手段、
この第1の判断手段により、前記第3の画素ブロックが存在すると判断されたときに、前記第1の画素ブロックの位置と、この第1の画素ブロックの位置に対応する前記第2の画素ブロックの位置との間の動きベクトルの組を所定数選択する動きベクトル選択手段、
この動きベクトル選択手段によって選択された所定数の組の動きベクトル基づいて、前記第2の画像データを射影変換して前記第1の画像データと合成する合成手段
として機能させることを特徴とするプログラム。
Computer
Image acquisition means for continuously acquiring a plurality of image data;
Dividing means for dividing the reference image data into a plurality of areas, using the first image data of the plurality of image data continuously acquired by the image acquisition means as reference image data;
Position selecting means for selecting the position of the first pixel block having a large amount of features from each area divided by the dividing means;
The position of the second pixel block corresponding to the position of the first block from the second image data of the plurality of image data based on the position of the first block selected by the position selection means A first search means for searching
Whether there is a third pixel block corresponding to the second pixel block in a predetermined range of the reference image data with reference to the position of the second pixel block obtained as a result of the search by the first search means First judging means for judging whether or not,
When the first determination unit determines that the third pixel block exists, the position of the first pixel block and the second pixel block corresponding to the position of the first pixel block Motion vector selection means for selecting a predetermined number of sets of motion vectors between the positions of
Based on the set of motion vectors of a predetermined number selected by the motion vector selection unit, wherein the function as combining means for combining said said second image data and projective transformation first image data program.
JP2007157253A 2007-06-14 2007-06-14 Image composition apparatus and program Expired - Fee Related JP4919165B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007157253A JP4919165B2 (en) 2007-06-14 2007-06-14 Image composition apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007157253A JP4919165B2 (en) 2007-06-14 2007-06-14 Image composition apparatus and program

Publications (2)

Publication Number Publication Date
JP2008311906A JP2008311906A (en) 2008-12-25
JP4919165B2 true JP4919165B2 (en) 2012-04-18

Family

ID=40239117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007157253A Expired - Fee Related JP4919165B2 (en) 2007-06-14 2007-06-14 Image composition apparatus and program

Country Status (1)

Country Link
JP (1) JP4919165B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015144475A (en) * 2015-03-11 2015-08-06 キヤノン株式会社 Imaging apparatus, control method of the same, program and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3759834B2 (en) * 1998-03-05 2006-03-29 日本放送協会 Motion vector estimation method and apparatus
JP4300787B2 (en) * 2002-11-11 2009-07-22 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP4080942B2 (en) * 2003-04-28 2008-04-23 株式会社東芝 Corresponding point estimation method between images and template matching system
JP4471364B2 (en) * 2004-09-15 2010-06-02 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2008311906A (en) 2008-12-25

Similar Documents

Publication Publication Date Title
US8593533B2 (en) Image processing apparatus, image-pickup apparatus, and image processing method
KR101062502B1 (en) Image pickup device having a panning mode for picking up panning images
JP5445363B2 (en) Image processing apparatus, image processing method, and image processing program
EP2219366B1 (en) Image capturing device, image capturing method, and image capturing program
JP4597087B2 (en) Image processing apparatus and method, and imaging apparatus
JP5237721B2 (en) Imaging device
JP2010062952A (en) Imaging device, image processing device, method for processing image, program, and recording medium
GB2557437A (en) Display control apparatus and method of controlling display control apparatus
JP2017175364A (en) Image processing device, imaging device, and control method of image processing device
WO2019124289A1 (en) Device, control method, and storage medium
JP2006229868A (en) Image processing apparatus and method, and motion detection apparatus and method
US8731327B2 (en) Image processing system and image processing method
JP6604908B2 (en) Image processing apparatus, control method thereof, and control program
KR102592745B1 (en) Posture estimating apparatus, posture estimating method and computer program stored in recording medium
JP6541501B2 (en) IMAGE PROCESSING APPARATUS, IMAGING APPARATUS, AND IMAGE PROCESSING METHOD
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP2017049947A (en) Image processing apparatus and image processing method
JP5446847B2 (en) Image processing apparatus and method, and program
JP4936222B2 (en) Motion vector collation device, image composition device, and program
JP4919165B2 (en) Image composition apparatus and program
JP2018185576A (en) Image processing device and image processing method
JP2022099120A (en) Subject tracking device and control method for the same
JP2017212698A (en) Imaging apparatus, control method for imaging apparatus, and program
JP5636660B2 (en) Image processing apparatus, image processing method, and program
JP2009027437A (en) Image processor, image processing method and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120119

R150 Certificate of patent or registration of utility model

Ref document number: 4919165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150210

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees