JP2008311906A - Image data collating device, image composition device, and program - Google Patents

Image data collating device, image composition device, and program Download PDF

Info

Publication number
JP2008311906A
JP2008311906A JP2007157253A JP2007157253A JP2008311906A JP 2008311906 A JP2008311906 A JP 2008311906A JP 2007157253 A JP2007157253 A JP 2007157253A JP 2007157253 A JP2007157253 A JP 2007157253A JP 2008311906 A JP2008311906 A JP 2008311906A
Authority
JP
Japan
Prior art keywords
image data
pixel block
image
large amount
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007157253A
Other languages
Japanese (ja)
Other versions
JP4919165B2 (en
Inventor
Kazuhisa Matsunaga
和久 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007157253A priority Critical patent/JP4919165B2/en
Publication of JP2008311906A publication Critical patent/JP2008311906A/en
Application granted granted Critical
Publication of JP4919165B2 publication Critical patent/JP4919165B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform image composition with higher precision by securely deciding whether images which are successively photographed match each other. <P>SOLUTION: An image collating device includes an image acquisition means (4) of acquiring a plurality of images successively, a position detection means (15) of detecting the position of a first pixel block whose feature quantity is large from first image data among the plurality of image data which are acquired successively by the image acquiring means, a first search means (17) of searching for the position of a second pixel block whose feature quantity is large from second image data among the plurality of pixel data based upon the position detected by the position detecting means, and a deciding means (19) of deciding that the first image data and second image data match each other by deciding whether a pixel block whose feature quantity is large is present within a predetermined range including the first pixel block based upon the position of the second pixel block obtained from the result of search by the first search means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像データ照合装置、画像合成装置及びプログラムに関し、たとえば、デジタルカメラ等の撮影装置において、夜景等の撮影感度の向上技術の一つとして用いられている連写画像合成に適用できる画像データ照合装置、画像合成装置及びプログラムに関する。   The present invention relates to an image data collating device, an image synthesizing device, and a program. For example, in a photographing device such as a digital camera, an image that can be applied to continuous-shot image composition used as one of techniques for improving photographing sensitivity such as night scenes The present invention relates to a data collation device, an image composition device, and a program.

CCDやCMOS等の半導体撮像デバイスを用いたデジタルカメラ等の撮影装置は、カメラ自体で撮影感度(半導体撮像デバイスの撮影感度のこと。ISO感度ともいう。)を変更することが可能であり、暗所での撮影性能に優れているとされているが、ISO感度を高くし過ぎると、半導体撮像デバイスのノイズが増加して画質が低下するという弊害がある。   An imaging apparatus such as a digital camera using a semiconductor imaging device such as a CCD or CMOS can change the imaging sensitivity (the imaging sensitivity of the semiconductor imaging device; also referred to as ISO sensitivity) with the camera itself. However, if the ISO sensitivity is increased too much, noise of the semiconductor imaging device increases and the image quality deteriorates.

そこで、下記の特許文献1では、低速シャッタスピード(たとえば、1/60秒)と高速シャッタスピード(たとえば、1/1000秒)で2枚の画像を連写し、それらの画像を合成することにより、半導体撮像デバイスのダイナミックレンジを実質的に拡大することができる技術が記載されている。   Therefore, in the following Patent Document 1, two images are continuously shot at a low shutter speed (for example, 1/60 seconds) and a high shutter speed (for example, 1/1000 seconds), and these images are combined, A technique is described that can substantially expand the dynamic range of a semiconductor imaging device.

この技術のポイントは、低速シャッタスピードで撮影した画像(以下、低速画像という。)は、黒レベルの再現性に優れた画像であり、一方、高速シャッタスピードで撮影した画像(以下、高速画像という。)は、その逆に、白レベルの再現性に優れた画像であり、言い換えれば、低速画像では明るい部分が白く飛んだ「白飛び」の画像になりやすく、一方、高速画像では暗い部分が黒くつぶれた「黒つぶれ」の画像になりやすいという欠点を持つが、これら二つの画像を合成することにより、両画像の欠点(白飛びと黒つぶれ)を相互に補い合って、白飛びと黒つぶれのないダイナミックレンジの広い画像を得ることができるというものである。   The point of this technique is that an image shot at a low shutter speed (hereinafter referred to as a low-speed image) is an image having excellent black level reproducibility, while an image shot at a high shutter speed (hereinafter referred to as a high-speed image). .), On the other hand, is an image with excellent white level reproducibility. In other words, in a low-speed image, a bright part is likely to be a white-out image, whereas in a high-speed image, a dark part is Although it has the disadvantage that it tends to be a blackened “blackout” image, by combining these two images, it compensates for the shortcomings of both images (out-of-brightness and underexposure). An image with a wide dynamic range can be obtained.

さて、この特許文献1の技術においては、その画像合成について、単に白飛び部分と黒つぶれ部分とを検出し、それらの部分に他方側の画像の該当部分を充当しているだけのものに過ぎず、たとえば、動きのある被写体や、撮影時に手振れがあった場合に、正確な画像合成を行うことが困難になるという欠点がある。   In the technique of this Patent Document 1, the image composition is merely detected by detecting a white-out part and a black-out part and applying the corresponding part of the image on the other side to those parts. For example, there is a drawback that it is difficult to perform accurate image composition when there is a moving subject or when there is a camera shake at the time of shooting.

これに対して、下記の特許文献2では、静止画撮影で生じる手振れを防止するために、防振モードにおいては、短い露光時間で複数回露光を行い、これら露光された結果得られた画像から輝度の高い画素からなる特徴点を抽出し、動きベクトルを求め、これらのデータに基づいて座標変換を行い画像合成する技術が開示されている。   On the other hand, in Patent Document 2 below, in order to prevent camera shake that occurs in still image shooting, in the image stabilization mode, exposure is performed a plurality of times with a short exposure time, and from the images obtained as a result of these exposures. A technique is disclosed in which feature points composed of pixels with high luminance are extracted, a motion vector is obtained, coordinate transformation is performed based on these data, and an image is synthesized.

特許第3110797号Japanese Patent No. 3110797 特開2004−357202号公報JP 2004-357202 A

しかしながら、特許文献2の技術においては、特徴点の検出対象が輝度の高い領域となっているため、たとえば、連続的に撮影された画像の構図そのものが異なる場合であっても、特徴点が一致してしまう可能性があり、不適切な画像合成が行われてしまうという問題があった。   However, in the technique of Patent Document 2, since the feature point detection target is a high-luminance region, for example, even when the composition of continuously captured images is different, the feature point is one. There has been a problem that improper image composition is performed.

本発明はこのような問題点に鑑みてなされたものであり、連続的に撮影された画像間の一致/不一致を確実に判定し、より精度の高い画像合成を行うことができるようにする画像データ照合装置、画像合成装置及びプログラムを提供することにある。   The present invention has been made in view of such a problem, and is an image that can reliably determine match / mismatch between consecutively shot images and perform more accurate image synthesis. The object is to provide a data collation device, an image composition device, and a program.

請求項1記載の発明は、連続的に複数の画像データを取得する画像取得手段と、この画像取得手段によって連続的に取得された複数の画像データのうちの第1の画像データを基準画像データとして、この基準画像データから、特徴量の多い第1の画素ブロックの位置を検出する位置検出手段と、この位置検出手段によって検出された位置を基準にし、前記複数の画像データのうちの第2の画像データを被追跡画像データとして、この被追跡画像データから、特徴量の多い第2の画素ブロックの位置をサーチする第1のサーチ手段と、この第1のサーチ手段によるサーチの結果得られる前記第2の画素ブロックの位置を基準にし、前記第1の画素ブロックを含む所定範囲で特徴量の多い画素ブロックが存在するか否かを判断することにより、前記第1の画像データと前記第2の画像データとの一致を判断する判断手段とを備えることを特徴とする。   According to the first aspect of the present invention, image acquisition means for continuously acquiring a plurality of image data, and first image data among the plurality of image data continuously acquired by the image acquisition means as reference image data As a reference, the position detection means for detecting the position of the first pixel block having a large amount of feature from the reference image data, and the position detected by the position detection means as a reference, the second of the plurality of image data. Obtained as a result of the search by the first search means for searching for the position of the second pixel block having a large amount of features from the tracked image data. Based on the position of the second pixel block as a reference, it is determined whether or not there is a pixel block with a large amount of features in a predetermined range including the first pixel block. Further comprising a determining means for determining a match between the first image data and the second image data, wherein.

請求項2記載の発明は、連続的に複数の画像データを取得する画像取得手段と、この画像取得手段によって連続的に取得された複数の画像データのうちの第1の画像データを基準画像データとして、この基準画像データを複数のエリアに分割する分割手段と、この分割手段によって分割された各エリアから、各々特徴量の多い第1の画素ブロックの位置を検出する位置検出手段と、この位置検出手段によって検出された位置を基準にし、前記複数の画像データのうちの第2の画像データを被追跡画像データとして、この被追跡画像データから、特徴量の多い第2の画素ブロックの位置をサーチする第1のサーチ手段と、この第1のサーチ手段によるサーチの結果得られる前記第2の画素ブロックの位置を基準にし、前記第1の画素ブロックを含む所定範囲で特徴量の多い画素ブロックが存在するか否かを判断する第1の判断手段と、この第1の判断手段により、特徴量の多い画素ブロックが存在すると判断されたときに、前記第1の画素ブロックの位置と、この第1の画素ブロックの位置とこれに対応する前記第2の画素ブロックの位置との間の動きベクトルの組を所定数選択し、この選択された所定数の組の前記第1の画素ブロックの位置と動きベクトルとに基づいて、前記第2の画像データを射影変換して前記第1の画像データと合成する合成手段とを備えることを特徴とする。   According to a second aspect of the present invention, image acquisition means for continuously acquiring a plurality of image data, and first image data among the plurality of image data continuously acquired by the image acquisition means as reference image data A dividing means for dividing the reference image data into a plurality of areas, a position detecting means for detecting the position of the first pixel block having a large amount of feature from each area divided by the dividing means, and the position Based on the position detected by the detecting means, the second image data of the plurality of image data is set as tracked image data, and the position of the second pixel block having a large amount of feature is determined from the tracked image data. A first search means for searching and a position of the second pixel block obtained as a result of the search by the first search means as a reference, A first determination unit that determines whether or not there is a pixel block with a large amount of feature in a predetermined range; and when the first determination unit determines that a pixel block with a large amount of feature exists, A predetermined number of sets of motion vectors between the position of the first pixel block and the position of the first pixel block and the position of the second pixel block corresponding to the position are selected, and the selected predetermined number And combining means for projectively transforming the second image data based on the position and motion vector of the first pixel block in the set and combining the first image data with the first image data.

請求項3記載の発明は、上記請求項2記載の発明において、撮像手段を更に備え、前記画像取得手段は、この撮像手段を連続的に駆動させて複数の画像データを取得することを特徴とする。   The invention according to claim 3 is the invention according to claim 2, further comprising an imaging unit, wherein the image acquisition unit continuously drives the imaging unit to acquire a plurality of image data. To do.

請求項4記載の発明は、コンピュータを、連続的に複数の画像データを取得する画像取得手段と、この画像取得手段によって連続的に取得された複数の画像データのうちの第1の画像データを基準画像データとして、この基準画像データから、特徴量の多い第1の画素ブロックの位置を検出する位置検出手段と、この位置検出手段によって検出された位置を基準にし、前記複数の画像データのうちの第2の画像データを被追跡画像データとして、この被追跡画像データから、特徴量の多い第2の画素ブロックの位置をサーチする第1のサーチ手段と、この第1のサーチ手段によるサーチの結果得られる前記第2の画素ブロックの位置を基準にし、前記第1の画素ブロックを含む所定範囲で特徴量の多い画素ブロックが存在するか否かを判断することにより、前記第1の画像データと前記第2の画像データとの一致を判断する判断手段として機能させることを特徴とする。   According to a fourth aspect of the present invention, there is provided a computer comprising: an image acquisition unit that continuously acquires a plurality of image data; and first image data of the plurality of image data that are continuously acquired by the image acquisition unit. As reference image data, position detection means for detecting the position of the first pixel block having a large amount of feature from the reference image data, and the position detected by the position detection means as a reference, out of the plurality of image data The second image data is the tracked image data, and from this tracked image data, a first search means for searching for the position of the second pixel block having a large amount of features, and the search by the first search means Based on the position of the second pixel block obtained as a reference, it is determined whether or not there is a pixel block having a large amount of feature in a predetermined range including the first pixel block. It allows, characterized in that to function as a determining means for determining a match between said first image data and the second image data.

請求項5記載の発明は、コンピュータを、連続的に複数の画像データを取得する画像取得手段、この画像取得手段によって連続的に取得された複数の画像データのうちの第1の画像データを基準画像データとして、この基準画像データを複数のエリアに分割する分割手段、この分割手段によって分割された各エリアから、各々特徴量の多い第1の画素ブロックの位置を検出する位置検出手段、この位置検出手段によって検出された位置を基準にし、前記複数の画像データのうちの第2の画像データを被追跡画像データとして、この被追跡画像データから、特徴量の多い第2の画素ブロックの位置をサーチする第1のサーチ手段、この第1のサーチ手段によるサーチの結果得られる前記第2の画素ブロックの位置を基準にし、前記第1の画素ブロックを含む所定範囲で特徴量の多い画素ブロックが存在するか否かを判断する第1の判断手段、この第1の判断手段により、特徴量の多い画素ブロックが存在すると判断されたときに、前記第1の画素ブロックの位置と、この第1の画素ブロックの位置とこれに対応する前記第2の画素ブロックの位置との間の動きベクトルの組を所定数選択し、この選択された所定数の組の前記第1の画素ブロックの位置と動きベクトルとに基づいて、前記第2の画像データを射影変換して前記第1の画像データと合成する合成手段として機能させることを特徴とする。   According to a fifth aspect of the present invention, the computer is configured to use the image acquisition means for continuously acquiring a plurality of image data, and the first image data of the plurality of image data continuously acquired by the image acquisition means as a reference. Dividing means for dividing the reference image data into a plurality of areas as image data, position detecting means for detecting the position of the first pixel block having a large amount of feature from each area divided by the dividing means, Based on the position detected by the detecting means, the second image data of the plurality of image data is set as tracked image data, and the position of the second pixel block having a large amount of feature is determined from the tracked image data. First search means for searching, and the position of the second pixel block obtained as a result of the search by the first search means is used as a reference, and the first pixel block is First determining means for determining whether or not there is a pixel block having a large amount of feature in a predetermined range including a block, and when the first determining means determines that a pixel block having a large amount of feature exists. A predetermined number of sets of motion vectors between the position of the first pixel block and the position of the first pixel block and the position of the second pixel block corresponding to the position are selected, and the selected The second image data is projected and transformed based on a predetermined number of sets of the first pixel block positions and motion vectors, and is combined with the first image data. To do.

本発明では、連続的に撮影された画像間の一致/不一致を確実に判定し、より精度の高い画像合成を行うことができる。   According to the present invention, it is possible to reliably determine coincidence / non-coincidence between continuously shot images, and to perform image synthesis with higher accuracy.

以下、本発明の実施形態を、図面を参照しながら説明する。
図1は、実施形態に係る撮影装置の構成図である。この図において、撮影装置1は、撮影レンズや絞り機構等を含む光学系2、機械的に光軸を遮断し得るシャッタ機構3、光学系2とシャッタ機構3を通過した光を結像して電気的な画像信号に変換するCCD4、CCD4の出力をアナログからデジタルに変換するA/D変換器5、A/D変換器5の出力を一時的に保持するDRAM6、DRAM6に保持されている画像信号を所定の表示形式に変換して液晶表示画面8に出力する液晶表示コントローラ7、液晶表示コントローラ7から出力された画像を表示する液晶表示画面8、液晶表示画面8に表示されている画像が所望の構図になったときにユーザによって操作されるシャッタボタン9、当該撮影装置1のモードを通常撮影モードや連写撮影モードにしたり、あるいはそれらのモードから撮影済み画像の再生モードにしたりその逆にしたり又は所定のシステム設定モード等にしたりするためのモードボタン10、集積回路部11、撮影済み画像を保存する外部記憶メモリMを備える。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a configuration diagram of a photographing apparatus according to the embodiment. In this figure, a photographing apparatus 1 forms an image of an optical system 2 including a photographing lens and a diaphragm mechanism, a shutter mechanism 3 that can mechanically block an optical axis, and light that has passed through the optical system 2 and the shutter mechanism 3. CCD 4 for converting to an electrical image signal, A / D converter 5 for converting the output of CCD 4 from analog to digital, DRAM 6 for temporarily holding the output of A / D converter 5, and images held in DRAM 6 A liquid crystal display controller 7 that converts the signal into a predetermined display format and outputs it to the liquid crystal display screen 8, a liquid crystal display screen 8 that displays an image output from the liquid crystal display controller 7, and an image displayed on the liquid crystal display screen 8 The shutter button 9 that is operated by the user when a desired composition is obtained, and the mode of the photographing apparatus 1 is set to the normal photographing mode or the continuous photographing mode, or these modes. Mode button 10 for or in or or predetermined system setting mode or the like in the opposite or in the playback mode of recorded images, the integrated circuit 11, and an external storage memory M for storing the captured image.

集積回路部11は、シャッタ機構3を制御するシャッタ制御部12、CCD4やA/D変換器5を制御する受光制御部13、DRAM6に保存されている画像信号をYUV信号(色信号)と輝度信号に変換するデモザイク部14、連写撮影モードで撮影された2枚の画像の特徴量を演算する特徴量演算部15、特徴量演算やブロックマッチング及び画像合成の際のワークメモリとして用いられるSRAM16、連写撮影モードで撮影された2枚の画像のブロックマッチングを行うブロックマッチング部17、そのブロックマッチングの結果に基づいて2枚の画像の画像変形及び合成加算処理を行う画像変形合成加算部18、当該集積回路部11の全体動作を制御するCPUコア19を含む。   The integrated circuit unit 11 includes a shutter control unit 12 that controls the shutter mechanism 3, a light reception control unit 13 that controls the CCD 4 and the A / D converter 5, and image signals stored in the DRAM 6 as YUV signals (color signals) and luminance. A demosaic unit 14 for converting to a signal, a feature amount calculation unit 15 for calculating feature amounts of two images shot in the continuous shooting mode, and an SRAM 16 used as a work memory for feature amount calculation, block matching, and image synthesis The block matching unit 17 that performs block matching of two images shot in the continuous shooting mode, and the image deformation / synthesis adding unit 18 that performs image deformation and synthesis / addition processing of the two images based on the result of the block matching. A CPU core 19 that controls the overall operation of the integrated circuit unit 11 is included.

図2、図3は、本実施形態における画像合成処理の概略フローを示す図である。このフローでは、まず、ユーザがモードボタン10を操作して連写撮影モードにし、液晶表示画面8の表示を見ながら所望の構図に調整した上、シャッタボタン9を操作して2枚の画像を連写(ステップS0)すると、それらの2枚の画像データがCCD4からA/D変換器5を介してDRAMに取り込まれ、デモザイク部14によって、2枚の画像のYUVデータと輝度データが作られる。次いで、2枚の画像のうちの一方の画像を「基準画像」、他方の画像を「被追跡画像」とする(ステップS1)。   2 and 3 are diagrams showing a schematic flow of image composition processing in the present embodiment. In this flow, first, the user operates the mode button 10 to enter the continuous shooting mode, adjusts to a desired composition while viewing the display on the liquid crystal display screen 8, and then operates the shutter button 9 to display two images. When continuous shooting (step S0) is performed, the two pieces of image data are taken from the CCD 4 into the DRAM via the A / D converter 5, and the demosaic unit 14 generates YUV data and luminance data of the two images. . Next, one of the two images is set as a “reference image”, and the other image is set as a “tracked image” (step S1).

次に、基準画像を複数のエリアに分割し、各エリアを構成する所定画素数(ここでは、16×16画素)のブロックから、特徴量の多いブロックを選択する(ステップS2)。   Next, the reference image is divided into a plurality of areas, and a block having a large feature amount is selected from blocks having a predetermined number of pixels (here, 16 × 16 pixels) constituting each area (step S2).

図4は、基準画像の構造図である。この図において、基準画像20は、画像の上下左右の縁部20a〜20dを除く部分を等分割し、各々の分割部分をエリアとしている。ここでは、一例として4×3分割し、各々をエリアE0〜E11としている。また、各エリアE0〜E11をさらに等分割(ここでは、3×3分割)し、各々を16×16画素の集まりであるブロックB0〜B8としている。   FIG. 4 is a structural diagram of the reference image. In this figure, the reference image 20 is divided into equal parts except for the upper, lower, left and right edges 20a to 20d of the image, and each divided part is used as an area. Here, 4 × 3 is divided as an example, and each area is defined as areas E0 to E11. Each area E0 to E11 is further equally divided (here, 3 × 3 divisions), and each of the areas E0 to E11 is formed as a block B0 to B8 that is a collection of 16 × 16 pixels.

再びフローに戻り、ステップS2で、基準画像のブロックから特徴量の多いブロックを選択すると、次に、選択された基準画像における特徴量の多いブロックと、そのブロックに対応する被追跡画像における指定検索領域内で差分二乗和(または差分絶対値和)を演算する(ステップS3)。   Returning to the flow again, if a block with a large amount of features is selected from the blocks of the reference image in step S2, then a block with a large amount of features in the selected reference image and a designated search in the tracked image corresponding to that block The sum of squared differences (or sum of absolute differences) is calculated within the region (step S3).

図5は、ステップS3の概念図であり、(a)は基準画像の選択ブロックBi(iは1、2、3、・・・・)と被追跡画像21のサーチエリア22(指定検索領域)の関係を示す図、(b)は、ステップS3の演算結果(差分二乗和または差分絶対値和)が最小となる、被追跡画像のサーチエリア22(指定検索領域)の位置を示す図である。   FIG. 5 is a conceptual diagram of step S3. (A) is a reference image selection block Bi (i is 1, 2, 3,...) And a search area 22 (designated search area) of the tracked image 21. (B) is a diagram showing the position of the search area 22 (designated search area) of the tracked image where the calculation result (sum of squares of differences or sum of absolute differences) of step S3 is minimized. .

(b)のように、ステップS3の演算結果(差分二乗和または差分絶対値和)が最小となる位置が得られると、次に、当該位置での、被追跡画像の対応ブロックBi(16×16画素)で、対応する基準画像ブロック側とその周辺を含む指定検索領域内22で、差分二乗和(または差分絶対値和)を演算する(ステップS4)。   As shown in (b), when the position at which the calculation result (sum of squared differences or sum of absolute differences) in step S3 is minimized is obtained, the corresponding block Bi (16 × 16) of the tracked image at that position is then obtained. 16 pixels), the sum of squared differences (or sum of absolute differences) is calculated in the designated search area 22 including the corresponding reference image block side and its periphery (step S4).

図6は、ステップS4の概念図であり、Bi´は被追跡画像の対応ブロック、23は対応する基準画像ブロック側とその周辺を含む指定検索領域である。   FIG. 6 is a conceptual diagram of step S4, where Bi ′ is a corresponding block of the tracked image, and 23 is a designated search area including the corresponding reference image block side and its periphery.

そして、ステップS4の演算の結果、探索結果の動きベクトル群それぞれについて“0”もしくは一定値以内である動きベクトルを複数選択し、これらの動きベクトル群を元に、たとえば、RANSAC法により、基準画像と被追跡画像の関係を表す射影変換行列を求め(ステップS6)、その変換行列を用いて、被追跡画像が基準画像と同じ位置関係になるように被追跡画像を変形し、変形された被追跡画像を基準画像に加算して合成画像を生成(ステップS7)した後、フローを終了する。   Then, as a result of the calculation in step S4, “0” or a plurality of motion vectors within a certain value are selected for each motion vector group as a search result, and based on these motion vector groups, for example, the reference image is obtained by the RANSAC method. A projection transformation matrix representing the relationship between the tracked image and the tracked image is obtained (step S6), and the tracked image is deformed using the transformation matrix so that the tracked image has the same positional relationship as the reference image. After the tracking image is added to the reference image to generate a composite image (step S7), the flow ends.

ここで、RANSAC(RANdom SAmple Consensus)とは、パラメータ推定の一手法であり、少数の点から求めたパラメータ推定の候補に対して、多数の点の中からその推定に適合する点の数や適合の正確性の度合い、すなわち、サポート数を算出し、サポート数の多い推定候補を最終の推定結果として採用する方法のことであり、本実施の形態においては、このRANSACによる推定結果、すなわち、サポート率を勘案して被追跡画像を射影変換行列により変形させる。   Here, RANSAC (RANdom Sample Consensus) is a method of parameter estimation. For a parameter estimation candidate obtained from a small number of points, the number of points suitable for the estimation from a large number of points and the adaptation In this embodiment, the estimation result by the RANSAC, that is, the support is calculated. The tracked image is transformed by the projective transformation matrix in consideration of the rate.

以上のとおり、本実施形態では、所定の分割されたエリア内の、特徴量が高いブロックで、通常のテンプレートマッチングを行い、そして、一度マッチングした位置から、基準画像と被追跡画像の役割を逆転させ、被追跡画像のマッチング位置のブロックで、基準画像のブロック周辺部をマッチングさせ、役割を逆転させてもマッチングの位置変動が一定値以内であれば、マッチングが成功したとみなして、テンプレートマッチングのデータ信頼性を向上させるようにしたので、大きな手振れや被写体振れ、または、視差の影響(見る角度によって見えたり見えなかったりすること)で原理的に追跡が不可能な場合の追跡失敗を検出するだけでなく、輝度値が低い暗所における追跡においても認識誤りを防ぐことができ、輝度値の低い画像を精度良く合成することにより、撮影画像に発生するノイズを抑えることができる。   As described above, in this embodiment, normal template matching is performed on a block having a high feature amount in a predetermined divided area, and the roles of the reference image and the tracked image are reversed from the position once matched. Matching the block periphery of the reference image with the block at the matching position of the tracked image, and if the position fluctuation of the matching is within a certain value even if the role is reversed, it is considered that the matching is successful and the template matching In order to improve the reliability of data, it is possible to detect tracking failure when tracking is impossible in principle due to large camera shake, subject shake, or parallax effect (visible or invisible depending on viewing angle). In addition, it can prevent recognition errors even when tracking in a dark place where the brightness value is low. By better synthesis time, it is possible to suppress the noise generated in the captured image.

なお、以上の実施形態では、差分和値が最小となる位置が求まった後に、求まった位置の被追跡画像側のブロックで、基準画像側をサーチするとしたが、以下のように改良してもよい。   In the above embodiment, after the position where the difference sum value is minimum is obtained, the block on the tracked image side of the obtained position is searched for the reference image side. However, the following improvement is also possible. Good.

図7は、実施形態の改良例(第1の改良例)を示す図である。この図に示すように、差分和値が最小となる位置が求まった後に、基準画像側ブロックBiのブロックサイズを小さくしたブロックで、求まった位置を中心として小範囲(被追跡画像側の検索範囲)で検索し、マッチング位置がずれなければ、マッチング成功するとしてもよい。   FIG. 7 is a diagram illustrating an improved example (first improved example) of the embodiment. As shown in this figure, after the position where the difference sum value is minimized is obtained, the block in which the block size of the reference image side block Bi is reduced, and a small range (search range on the tracked image side) centered on the obtained position If the matching position is not shifted, the matching may be successful.

または、以下のように改良してもよい。
図8は、第2の改良例を示す図であり、この図は既出の図2、図3に相当する図である。なお、この図におけるステップ番号(ステップS0〜ステップS7)は、図2、図3のものと同じである。図2、図3との相違点は、ステップS3の後に「夜景モード撮影?」の判定(ステップS8)が入っていることにあり、この判定結果が“YES”の場合にのみ、ステップS4〜ステップS5を実行する点にある。すなわち、強制的に射影変換・画像合成を行う夜景モードが選択された際にのみ前記実施形態のプロセス(ステップS4〜ステップS5)を実行する。このようにすることにより、特徴点の一致ミスによる像ブレの影響が少ない、綺麗な静止画像データを得ることができる。
Or you may improve as follows.
FIG. 8 is a diagram showing a second improvement example, and this diagram corresponds to FIGS. 2 and 3 described above. The step numbers (steps S0 to S7) in this figure are the same as those in FIGS. The difference from FIG. 2 and FIG. 3 is that there is a determination (step S8) of “night view mode shooting?” After step S3. Only when this determination result is “YES”, steps S4 to S4 are performed. The point is that step S5 is executed. That is, the process of the above embodiment (steps S4 to S5) is executed only when the night scene mode for forcibly performing projective transformation / image synthesis is selected. By doing this, it is possible to obtain beautiful still image data that is less affected by image blur due to feature point mismatch errors.

図9は、第3の改良例を示す図であり、この図も既出の図2、図3に相当する図である。同様に、この図におけるステップ番号(ステップS0〜ステップS7)も、図2、図3のものと同じである。図2、図3との相違点は、ステップS3の後に「低コントラストの画像撮影?」の判定(ステップS9)が入っていることにあり、この判定結果が“YES”の場合にのみ、ステップS4〜ステップS5を実行する点にある。すなわち、撮影した画像全体のコントラストが低い(特徴量が出にくい)画像を撮影し、射影変換・画像合成を行う場合にのみ前記実施形態のプロセス(ステップS4〜ステップS5)を実行する。このようにすることにより、特徴点の一致ミスによる像ブレの影響が少ない、綺麗な静止画像データを得ることができる。   FIG. 9 is a diagram showing a third improvement example, and this diagram is also a diagram corresponding to FIGS. 2 and 3 described above. Similarly, the step numbers (steps S0 to S7) in this figure are the same as those in FIGS. The difference from FIG. 2 and FIG. 3 is that there is a determination (step S9) of “low-contrast image capture?” After step S3. Only when this determination result is “YES”, step The point is that steps S4 to S5 are executed. That is, the process of the above-described embodiment (steps S4 to S5) is executed only when an image with a low contrast of the entire captured image (a feature amount is difficult to generate) is captured and projection conversion / image synthesis is performed. By doing this, it is possible to obtain beautiful still image data that is less affected by image blur due to feature point mismatch errors.

実施形態に係る撮影装置の構成図である。It is a block diagram of the imaging device which concerns on embodiment. 本実施形態における画像合成処理の概略フローを示す図(1/2)である。It is a figure (1/2) which shows the schematic flow of the image composition process in this embodiment. 本実施形態における画像合成処理の概略フローを示す図(2/2)である。It is a figure (2/2) which shows the schematic flow of the image composition process in this embodiment. 基準画像の構造図である。FIG. 6 is a structural diagram of a reference image. ステップS3の概念図である。It is a conceptual diagram of step S3. ステップS4の概念図である。It is a conceptual diagram of step S4. 第1の改良例を示す図である。It is a figure which shows the 1st example of improvement. 第2の改良例を示す図である。It is a figure which shows the 2nd improvement example. 第3の改良例を示す図である。It is a figure which shows the 3rd improvement example.

符号の説明Explanation of symbols

1 撮影装置
4 CCD
15 特徴量演算部
17 ブロックマッチング部
18 画像変形合成加算部
19 CPUコア
1 Shooting device 4 CCD
15 Feature Quantity Calculation Unit 17 Block Matching Unit 18 Image Deformation Synthesis Addition Unit 19 CPU Core

Claims (5)

連続的に複数の画像データを取得する画像取得手段と、
この画像取得手段によって連続的に取得された複数の画像データのうちの第1の画像データを基準画像データとして、この基準画像データから、特徴量の多い第1の画素ブロックの位置を検出する位置検出手段と、
この位置検出手段によって検出された位置を基準にし、前記複数の画像データのうちの第2の画像データを被追跡画像データとして、この被追跡画像データから、特徴量の多い第2の画素ブロックの位置をサーチする第1のサーチ手段と、
この第1のサーチ手段によるサーチの結果得られる前記第2の画素ブロックの位置を基準にし、前記第1の画素ブロックを含む所定範囲で特徴量の多い画素ブロックが存在するか否かを判断することにより、前記第1の画像データと前記第2の画像データとの一致を判断する判断手段と
を備えることを特徴とする画像データ照合装置。
Image acquisition means for continuously acquiring a plurality of image data;
Position for detecting the position of the first pixel block having a large amount of feature from the reference image data using the first image data of the plurality of image data continuously acquired by the image acquisition means as the reference image data. Detection means;
Based on the position detected by the position detecting means, the second image data of the plurality of image data is used as tracked image data, and the second pixel block having a large amount of features is detected from the tracked image data. First search means for searching for a position;
Based on the position of the second pixel block obtained as a result of the search by the first search means, it is determined whether or not there is a pixel block with a large amount of feature in a predetermined range including the first pixel block. Thus, an image data collating apparatus comprising: a determination unit that determines whether the first image data matches the second image data.
連続的に複数の画像データを取得する画像取得手段と、
この画像取得手段によって連続的に取得された複数の画像データのうちの第1の画像データを基準画像データとして、この基準画像データを複数のエリアに分割する分割手段と、
この分割手段によって分割された各エリアから、各々特徴量の多い第1の画素ブロックの位置を検出する位置検出手段と、
この位置検出手段によって検出された位置を基準にし、前記複数の画像データのうちの第2の画像データを被追跡画像データとして、この被追跡画像データから、特徴量の多い第2の画素ブロックの位置をサーチする第1のサーチ手段と、
この第1のサーチ手段によるサーチの結果得られる前記第2の画素ブロックの位置を基準にし、前記第1の画素ブロックを含む所定範囲で特徴量の多い画素ブロックが存在するか否かを判断する第1の判断手段と、
この第1の判断手段により、特徴量の多い画素ブロックが存在すると判断されたときに、前記第1の画素ブロックの位置と、この第1の画素ブロックの位置とこれに対応する前記第2の画素ブロックの位置との間の動きベクトルの組を所定数選択し、この選択された所定数の組の前記第1の画素ブロックの位置と動きベクトルとに基づいて、前記第2の画像データを射影変換して前記第1の画像データと合成する合成手段と
を備えることを特徴とする画像合成装置。
Image acquisition means for continuously acquiring a plurality of image data;
Dividing means for dividing the reference image data into a plurality of areas using the first image data of the plurality of image data continuously acquired by the image acquisition means as reference image data;
Position detecting means for detecting the position of the first pixel block having a large amount of features from each area divided by the dividing means;
Based on the position detected by the position detecting means, the second image data of the plurality of image data is used as tracked image data, and the second pixel block having a large amount of features is detected from the tracked image data. First search means for searching for a position;
Based on the position of the second pixel block obtained as a result of the search by the first search means, it is determined whether or not there is a pixel block with a large amount of feature in a predetermined range including the first pixel block. A first determination means;
When it is determined by the first determination means that a pixel block with a large amount of features exists, the position of the first pixel block, the position of the first pixel block, and the second pixel block corresponding to the position. A predetermined number of sets of motion vectors between the positions of the pixel blocks are selected, and the second image data is selected based on the positions and motion vectors of the first pixel blocks of the selected predetermined number of sets. An image synthesizing apparatus comprising: a synthesizing unit that performs projective transformation and synthesizes the first image data.
撮像手段を更に備え、
前記画像取得手段は、この撮像手段を連続的に駆動させて複数の画像データを取得することを特徴とする請求項2に記載の画像合成装置。
Further comprising an imaging means,
The image synthesizing apparatus according to claim 2, wherein the image acquiring unit acquires a plurality of image data by continuously driving the imaging unit.
コンピュータを、
連続的に複数の画像データを取得する画像取得手段、
この画像取得手段によって連続的に取得された複数の画像データのうちの第1の画像データを基準画像データとして、この基準画像データから、特徴量の多い第1の画素ブロックの位置を検出する位置検出手段、
この位置検出手段によって検出された位置を基準にし、前記複数の画像データのうちの第2の画像データを被追跡画像データとして、この被追跡画像データから、特徴量の多い第2の画素ブロックの位置をサーチする第1のサーチ手段、
この第1のサーチ手段によるサーチの結果得られる前記第2の画素ブロックの位置を基準にし、前記第1の画素ブロックを含む所定範囲で特徴量の多い画素ブロックが存在するか否かを判断することにより、前記第1の画像データと前記第2の画像データとの一致を判断する判断手段
として機能させることを特徴とするプログラム。
Computer
Image acquisition means for continuously acquiring a plurality of image data;
Position for detecting the position of the first pixel block having a large amount of feature from the reference image data using the first image data of the plurality of image data continuously acquired by the image acquisition means as the reference image data. Detection means,
Based on the position detected by the position detecting means, the second image data of the plurality of image data is used as tracked image data, and the second pixel block having a large amount of features is detected from the tracked image data. First search means for searching for a position;
Based on the position of the second pixel block obtained as a result of the search by the first search means, it is determined whether or not there is a pixel block with a large amount of feature in a predetermined range including the first pixel block. Accordingly, a program that causes the first image data and the second image data to function as determination means.
コンピュータを、
連続的に複数の画像データを取得する画像取得手段、
この画像取得手段によって連続的に取得された複数の画像データのうちの第1の画像データを基準画像データとして、この基準画像データを複数のエリアに分割する分割手段、
この分割手段によって分割された各エリアから、各々特徴量の多い第1の画素ブロックの位置を検出する位置検出手段、
この位置検出手段によって検出された位置を基準にし、前記複数の画像データのうちの第2の画像データを被追跡画像データとして、この被追跡画像データから、特徴量の多い第2の画素ブロックの位置をサーチする第1のサーチ手段、
この第1のサーチ手段によるサーチの結果得られる前記第2の画素ブロックの位置を基準にし、前記第1の画素ブロックを含む所定範囲で特徴量の多い画素ブロックが存在するか否かを判断する第1の判断手段、
この第1の判断手段により、特徴量の多い画素ブロックが存在すると判断されたときに、前記第1の画素ブロックの位置と、この第1の画素ブロックの位置とこれに対応する前記第2の画素ブロックの位置との間の動きベクトルの組を所定数選択し、この選択された所定数の組の前記第1の画素ブロックの位置と動きベクトルとに基づいて、前記第2の画像データを射影変換して前記第1の画像データと合成する合成手段
として機能させることを特徴とするプログラム。
Computer
Image acquisition means for continuously acquiring a plurality of image data;
Dividing means for dividing the reference image data into a plurality of areas, using the first image data of the plurality of image data continuously acquired by the image acquisition means as reference image data;
Position detecting means for detecting the position of the first pixel block having a large amount of features from each area divided by the dividing means;
Based on the position detected by the position detecting means, the second image data of the plurality of image data is used as tracked image data, and the second pixel block having a large amount of features is detected from the tracked image data. First search means for searching for a position;
Based on the position of the second pixel block obtained as a result of the search by the first search means, it is determined whether or not there is a pixel block with a large amount of feature in a predetermined range including the first pixel block. First determination means,
When it is determined by the first determination means that a pixel block with a large amount of features exists, the position of the first pixel block, the position of the first pixel block, and the second pixel block corresponding to the position. A predetermined number of sets of motion vectors between the positions of the pixel blocks are selected, and the second image data is selected based on the positions and motion vectors of the first pixel blocks of the selected predetermined number of sets. A program that functions as a combining unit that performs projective conversion and combines with the first image data.
JP2007157253A 2007-06-14 2007-06-14 Image composition apparatus and program Expired - Fee Related JP4919165B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007157253A JP4919165B2 (en) 2007-06-14 2007-06-14 Image composition apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007157253A JP4919165B2 (en) 2007-06-14 2007-06-14 Image composition apparatus and program

Publications (2)

Publication Number Publication Date
JP2008311906A true JP2008311906A (en) 2008-12-25
JP4919165B2 JP4919165B2 (en) 2012-04-18

Family

ID=40239117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007157253A Expired - Fee Related JP4919165B2 (en) 2007-06-14 2007-06-14 Image composition apparatus and program

Country Status (1)

Country Link
JP (1) JP4919165B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015144475A (en) * 2015-03-11 2015-08-06 キヤノン株式会社 Imaging apparatus, control method of the same, program and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250264A (en) * 1998-03-05 1999-09-17 Nippon Hoso Kyokai <Nhk> Method and device for estimating motion vector
JP2004164117A (en) * 2002-11-11 2004-06-10 Sony Corp Image processor and method, recording medium, and program
JP2004326688A (en) * 2003-04-28 2004-11-18 Toshiba Corp Method for estimating corresponding points between images and template matching system
JP2006086741A (en) * 2004-09-15 2006-03-30 Canon Inc Apparatus and method for image processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11250264A (en) * 1998-03-05 1999-09-17 Nippon Hoso Kyokai <Nhk> Method and device for estimating motion vector
JP2004164117A (en) * 2002-11-11 2004-06-10 Sony Corp Image processor and method, recording medium, and program
JP2004326688A (en) * 2003-04-28 2004-11-18 Toshiba Corp Method for estimating corresponding points between images and template matching system
JP2006086741A (en) * 2004-09-15 2006-03-30 Canon Inc Apparatus and method for image processing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015144475A (en) * 2015-03-11 2015-08-06 キヤノン株式会社 Imaging apparatus, control method of the same, program and storage medium

Also Published As

Publication number Publication date
JP4919165B2 (en) 2012-04-18

Similar Documents

Publication Publication Date Title
US7664293B2 (en) Image sensing apparatus and control method thereof
US8345109B2 (en) Imaging device and its shutter drive mode selection method
JP6157242B2 (en) Image processing apparatus and image processing method
JP4781233B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP4597087B2 (en) Image processing apparatus and method, and imaging apparatus
JP5536010B2 (en) Electronic camera, imaging control program, and imaging control method
KR20090093817A (en) Imaging apparatus provided with panning mode for taking panned image
EP2219366B1 (en) Image capturing device, image capturing method, and image capturing program
JP2010183560A (en) Image capturing apparatus, image processing method, and program
JP2008085531A (en) Image processor, image processing method, image processing program, and imaging apparatus
JP6656035B2 (en) Image processing apparatus, imaging apparatus, and control method for image processing apparatus
JP2012109835A (en) Imaging apparatus, imaging method and program
JP2013165487A (en) Image processing apparatus, image capturing apparatus, and program
US8731327B2 (en) Image processing system and image processing method
JP6604908B2 (en) Image processing apparatus, control method thereof, and control program
KR102592745B1 (en) Posture estimating apparatus, posture estimating method and computer program stored in recording medium
WO2019124289A1 (en) Device, control method, and storage medium
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP5446847B2 (en) Image processing apparatus and method, and program
JP4936222B2 (en) Motion vector collation device, image composition device, and program
JP6921606B2 (en) Image processing equipment, image processing methods and programs
JP4919165B2 (en) Image composition apparatus and program
JP7102150B2 (en) Image processing equipment, image processing methods, and programs
JP2009027437A (en) Image processor, image processing method and imaging device
JP2017220834A (en) Imaging apparatus, imaging method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120119

R150 Certificate of patent or registration of utility model

Ref document number: 4919165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150210

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees