JP2008167092A - Image synthesizer, image synthesis program and image synthesizing method - Google Patents

Image synthesizer, image synthesis program and image synthesizing method Download PDF

Info

Publication number
JP2008167092A
JP2008167092A JP2006353575A JP2006353575A JP2008167092A JP 2008167092 A JP2008167092 A JP 2008167092A JP 2006353575 A JP2006353575 A JP 2006353575A JP 2006353575 A JP2006353575 A JP 2006353575A JP 2008167092 A JP2008167092 A JP 2008167092A
Authority
JP
Japan
Prior art keywords
image
feature amount
movement vector
calculated
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006353575A
Other languages
Japanese (ja)
Other versions
JP5103899B2 (en
Inventor
Hiroshi Shimizu
博 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006353575A priority Critical patent/JP5103899B2/en
Priority to US12/005,251 priority patent/US8107769B2/en
Publication of JP2008167092A publication Critical patent/JP2008167092A/en
Priority to NI200900083A priority patent/NI200900083A/en
Application granted granted Critical
Publication of JP5103899B2 publication Critical patent/JP5103899B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prepare a panoramic image by combining photographed images with high accuracy irrespective of frame images and objects of the frame images. <P>SOLUTION: Frame images are selected from a DRAM in a storing order (S201), and a feature amount of the selected frame images is calculated (S202). A block having the calculated feature amount is searched within the next frame image X+1 (S203), and a motion vector is calculated (S204). Extraction width showing the width of a partial image to be extracted is set (S205), and an image is extracted with the extraction width from a center line in the current frame image X (S206). The extracted partial image is combined with an edge part in the opposite direction from a motion vector of a composite panoramic image already prepared, that is, an edge part in the turning direction of an electronic camera to prepare the panoramic image (S207). <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像により順次得られる複数のフレーム画像を結合して合成したパノラマ画像を生成する画像合成装置、画像合成プログラム及び画像合成方法に関する。   The present invention relates to an image composition device, an image composition program, and an image composition method for generating a panoramic image obtained by combining a plurality of frame images sequentially obtained by imaging.

従来、1つの撮影フレームで撮影可能な画角以上の画角を得るために複数の撮影フレームの各画像を合成してパノラマ画像を合成する撮像装置が提案されている。このパノラマ画像を合成するに際しては、撮影した画像の特徴点を抽出してその座標を検出し、次に撮影した隣接する画像の同じ特徴点の座標を検出し、これらの特徴点が一致するように隣接する画像を結合合成してパノラマ画像を得るようにしている(特許文献1参照)。
特開平11−282100号公報
2. Description of the Related Art Conventionally, there has been proposed an imaging apparatus that combines panoramic images by combining images of a plurality of shooting frames in order to obtain an angle of view that is greater than the angle of view that can be shot with one shooting frame. When synthesizing this panoramic image, the feature points of the captured images are extracted and their coordinates are detected, and then the coordinates of the same feature points of the adjacent images captured are detected so that these feature points match. A panoramic image is obtained by combining and synthesizing images adjacent to each other (see Patent Document 1).
JP-A-11-282100

このように従来の撮像装置においては、画像の特徴点を抽出し、この特徴点を隣接する画像で一致させることによりパノラマ画像を得るようにしている。このとき、撮像装置においては、光学系により結像される画像の両側に不可避的な歪みが生ずることから、精度よく特徴点を検出するためには、各フレーム画像において歪みのないフレーム画像の中央部付近において特徴点を検出することが必要となる。   As described above, in the conventional imaging apparatus, a feature point of an image is extracted, and a panoramic image is obtained by matching the feature point with an adjacent image. At this time, in the imaging apparatus, inevitable distortion occurs on both sides of the image formed by the optical system. Therefore, in order to accurately detect the feature point, the center of the frame image without distortion in each frame image. It is necessary to detect feature points in the vicinity of the part.

しかし、フレーム画像の中央部付近のみを特徴点抽出領域として設定すると、フレーム画像の中央部付近において被写体から特徴点を抽出することが困難な場合には、隣接する画像を正確に合成したパノラマ画像を得ることも困難となってしまう。すなわち、隣接した一方のフレーム画像の中央部付近に、例えば白の壁や柱等が含まれており特徴点を抽出することが困難な場合には、隣接する画像を正確に合成することが困難となる。   However, if only the vicinity of the center of the frame image is set as the feature point extraction region, it is difficult to extract the feature points from the subject near the center of the frame image. It will also be difficult to obtain. In other words, when it is difficult to extract feature points near the center of one adjacent frame image, for example, white walls or pillars, it is difficult to accurately synthesize the adjacent images. It becomes.

つまり、従来の撮像装置においては、撮像した一方のフレーム画像の構図のみに依存して、パノラマ合成を行うことから、隣接する他の画像を正確に合成することができるか否かが、当該フレーム画像の構図により左右されてしまうこととなる。   In other words, in the conventional imaging device, panorama synthesis is performed only depending on the composition of one captured frame image, and therefore whether or not other adjacent images can be accurately synthesized is determined according to the frame. It will be influenced by the composition of the image.

本発明は、かかる従来の課題に鑑みなされたものであり、フレーム画像の構図に左右されることなく、撮影された画像を精度よく結合してパノラマ画像を合成することのできる画像合成装置、画像合成プログラム及び画像合成方法を提供することを目的とする。   The present invention has been made in view of such a conventional problem, and is an image composition apparatus and image that can synthesize a panoramic image by accurately combining captured images without depending on the composition of the frame image. An object is to provide a composition program and an image composition method.

前記課題を解決するために請求項1の発明に係る画像合成装置にあっては、撮像して複数のフレーム画像を順次取得する取得手段と、この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段とを備え、前記画像抽出手段は、前記設定手段により設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする。   In order to solve the above-mentioned problem, in the image composition device according to the first aspect of the present invention, an acquisition means for capturing and sequentially acquiring a plurality of frame images, and a predetermined in each frame image sequentially acquired by the acquisition means Based on the feature amount calculated by the feature amount calculation unit that calculates the feature amount of the region and the feature amount calculation unit, the feature amount calculation unit has a predetermined temporal correspondence with the first frame image in which the feature amount is calculated. Movement vector calculation means for sequentially calculating the movement vector of the second frame image, setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means, and this setting means The image extraction means for extracting the partial image having the extraction width set by the first and / or second frame image and the image extraction means Image synthesizing means for sequentially combining and synthesizing the partial images, the image extracting means corresponding to the movement vector from the predetermined reference line in the frame image the partial image of the extraction width set by the setting means It is characterized by extracting in the direction.

また、請求項2記載の発明に係る画像合成装置にあっては、前記特徴量算出手段が前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断手段を更に備え、前記移動ベクトル算出手段は、前記判断手段により、前記特徴量算出手段が前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段により最後に算出された特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする。   In the image composition device according to the second aspect of the present invention, the image composition apparatus further includes a determination unit that determines whether or not the feature amount calculation unit can calculate the feature amount in the predetermined region. The movement vector calculation means includes the feature within a non-calculatable time during which the determination means determines that the feature quantity calculation means cannot calculate the feature quantity in the predetermined area. Based on the feature amount last calculated by the amount calculation unit, the movement vector of the frame image last acquired by the acquisition unit within the non-calculatable time is calculated.

また、請求項3記載の発明に係る画像合成装置にあっては、撮像して複数のフレーム画像を順次取得する取得手段と、この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段と、前記特徴量算出手段が前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断手段を備え、前記移動ベクトル算出手段は、前記判断手段により、前記特徴量算出手段が前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段が最後に算出した特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする。   In the image composition device according to the third aspect of the present invention, an acquisition unit that sequentially captures and acquires a plurality of frame images, and a feature amount of a predetermined region in each frame image that is sequentially acquired by the acquisition unit And a second frame having a predetermined temporal correspondence with the first frame image in which the feature value is calculated based on the feature value calculated by the feature value calculation unit. The movement vector calculation means for sequentially calculating the movement vector of the image, the setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means, and the setting means Image extracting means for extracting the partial image of the extraction width from the first and / or second frame image, and the partial images extracted by the image extracting means in order Image synthesizing means for combining, and determining means for determining whether or not the feature amount calculating means can calculate a feature amount in the predetermined region, and the movement vector calculating means comprises The feature amount calculated last by the feature amount calculation unit within the non-calculation time in which it is determined by the determination unit that the feature amount calculation unit cannot calculate the feature amount in the predetermined area. Based on the amount, the movement vector of the frame image last acquired by the acquisition unit within the non-calculatable time is calculated.

また、請求項4記載の発明に係る画像合成装置にあっては、前記画像抽出手段は、前記設定手段により設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする。   In the image composition device according to the invention of claim 4, the image extraction means converts a partial image having an extraction width set by the setting means from the predetermined reference line in the frame image to the movement vector. It is characterized by extracting in the corresponding direction.

また、請求項5記載の発明に係る画像合成装置にあっては、前記基準線は、フレーム画像の中心部付近に設定されることを特徴とする。   In the image composition device according to the invention described in claim 5, the reference line is set near the center of the frame image.

また、請求項6記載の発明に係る画像合成装置にあっては、前記移動ベクトル算出手段により最初の移動ベクトルが算出されたことを条件として、前記画像合成手段の動作を開始させる開始動作制御手段を備えることを特徴とする。   In the image synthesizing apparatus according to the sixth aspect of the present invention, start operation control means for starting the operation of the image synthesizing means on condition that the first movement vector is calculated by the movement vector calculating means. It is characterized by providing.

また、請求項7記載の発明に係る画像合成装置にあっては、前記移動ベクトル算出手段により移動ベクトルが最初に算出された移動ベクトルを記憶する記憶手段と、その後前記移動ベクトル算出手段により算出された移動ベクトルが前記記憶手段に記憶された最初の移動ベクトルとは異なる方向である場合、前記画像合成手段の動作を終了させる終了動作制御手段を備えることを特徴とする。   In the image composition device according to the invention of claim 7, the movement vector is calculated by the movement vector calculation means and then the storage means for storing the movement vector first calculated by the movement vector calculation means and then the movement vector calculation means. When the movement vector is in a direction different from the initial movement vector stored in the storage means, the movement vector is provided with an end operation control means for ending the operation of the image composition means.

また、請求項8記載の発明に係る画像合成装置にあっては、前記特徴量算出手段が特徴量を算出する所定領域は、フレーム画像における中央部の領域であることを特徴とする。   In the image composition device according to the invention described in claim 8, the predetermined area in which the feature quantity calculation means calculates the feature quantity is a central area in the frame image.

また、請求項2記載の発明に係る画像合成装置にあっては、前記特徴量算出手段が特徴量を算出する所定領域は、優先順位に対応して区分された複数の区分領域から構成され、前記判断手段は、前記優先順位が高い区分領域にて特徴量の算出が可能であるか否かを判断し、前記特徴量算出手段は、前記判断手段により前記優先順位が高い区分領域にて特徴量の算出が不可能であると判断された場合には、より優先順位の低い区分領域から特徴量を算出することを特徴とする。   Further, in the image composition device according to the invention of claim 2, the predetermined area where the feature quantity calculating means calculates the feature quantity is composed of a plurality of divided areas divided according to the priority order, The determination unit determines whether or not the feature amount can be calculated in the partitioned region having a high priority, and the feature amount calculating unit is characterized in the partitioned region having the high priority by the determining unit. When it is determined that the amount cannot be calculated, the feature amount is calculated from the segment area having a lower priority.

また、請求項10記載の発明に係る画像合成装置にあっては、前記移動ベクトル積算手段は、前記判断手段により、前記特徴量算出手段が前記いずれの区分領域からも特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段により最後に算出された特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする。   In the image composition device according to the invention of claim 10, the movement vector integrating means may cause the feature quantity calculating means to calculate a feature quantity from any of the divided regions by the judging means. In the non-calculatable time determined to be impossible, it was lastly acquired by the acquiring means within the non-calculatable time based on the feature quantity last calculated by the feature quantity calculating means. The movement vector of the frame image is calculated.

また、請求項11記載の発明に係る画像合成プログラムにあっては、前記取得手段は、操作に応答して一定の時間間隔で撮像を実行する撮像手段を備えることを特徴とする。   In the image composition program according to an eleventh aspect of the present invention, the acquisition unit includes an imaging unit that performs imaging at regular time intervals in response to an operation.

また、請求項12記載の発明に係る画像合成装置にあっては、画像合成装置が備えるコンピュータを、撮像して複数のフレーム画像を順次取得する取得手段と、この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段として機能させるとともに、前記画像抽出手段は、前記設定手段により設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする。   In the image composition device according to the twelfth aspect of the present invention, the computer included in the image composition device captures images of a plurality of frame images sequentially, and obtains each of the frame images sequentially. A feature amount calculation unit that calculates a feature amount of a predetermined region in the frame image, and a first frame image in which the feature amount is calculated based on the feature amount calculated by the feature amount calculation unit and a predetermined temporal amount Movement vector calculation means for sequentially calculating movement vectors of the second frame images having a correspondence relationship; setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means; The image extraction means for extracting the partial image having the extraction width set by the setting means from the first and / or second frame images, and the image The image extraction unit functions as an image synthesis unit that sequentially combines and combines the partial images extracted by the output unit, and the image extraction unit converts the partial image having the extraction width set by the setting unit to a predetermined reference line in the frame image. To the direction according to the movement vector.

また、請求項13記載の発明に係る画像合成プログラムにあっては、画像合成装置が備えるコンピュータを、撮像して複数のフレーム画像を順次取得する取得手段と、この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段と、前記特徴量算出手段が前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断手段として機能させるとともに、前記移動ベクトル算出手段は、前記判断手段により、前記特徴量算出手段が前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段が最後に算出した特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする。   In the image composition program according to the invention described in claim 13, an acquisition unit that captures images of a computer included in the image composition apparatus and sequentially acquires a plurality of frame images, and each of the acquisition units sequentially acquired by the acquisition unit A feature amount calculation unit that calculates a feature amount of a predetermined region in the frame image, and a first frame image in which the feature amount is calculated based on the feature amount calculated by the feature amount calculation unit and a predetermined temporal amount Movement vector calculation means for sequentially calculating movement vectors of the second frame images having a correspondence relationship; setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means; Image extracting means for extracting the partial image having the extraction width set by the setting means from the first and / or second frame images; Image combining means for sequentially combining and combining the partial images extracted by the image extracting means, and determination means for determining whether or not the feature amount calculating means can calculate a feature amount in the predetermined area And the movement vector calculation means within the non-calculatable time in which the determination means determines that the feature quantity calculation means cannot calculate the feature quantity in the predetermined area. Is characterized in that the movement vector of the frame image last acquired by the acquisition unit within the non-calculatable time is calculated based on the feature amount last calculated by the feature amount calculation unit.

また、請求項14記載の発明に係る画像合成方法にあっては、撮像して複数のフレーム画像を順次取得する取得ステップと、この取得ステップにより順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出ステップと、この特徴量算出ステップにより算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出ステップと、この移動ベクトル算出ステップにより算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定ステップと、この設定ステップにより設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出ステップと、この画像抽出ステップにより抽出された部分画像を順次結合して合成する画像合成ステップとを備え、前記画像抽出ステップは、前記設定ステップにより設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする。   In the image composition method according to the fourteenth aspect of the present invention, an acquisition step of capturing and sequentially acquiring a plurality of frame images, and a feature amount of a predetermined region in each frame image sequentially acquired by the acquisition step And a second frame having a predetermined temporal correspondence with the first frame image for which the feature value is calculated based on the feature value calculated by the feature value calculation step. The movement vector calculation step for sequentially calculating the movement vector of the image, the setting step for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation step, and the setting step An image extraction step of extracting the partial image of the extraction width from the first and / or second frame image; An image synthesis step of sequentially combining and synthesizing the partial images extracted in the output step, wherein the image extraction step extracts a partial image having an extraction width set in the setting step from a predetermined reference line in the frame image. Extracting in a direction according to the movement vector.

また、請求項15記載の発明に係る画像合成方法にあっては、撮像して複数のフレーム画像を順次取得する取得ステップと、この取得ステップにより順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出ステップと、この特徴量算出ステップにより算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出ステップと、この移動ベクトル算出ステップにより算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定ステップと、この設定ステップにより設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出ステップと、この画像抽出ステップにより抽出された部分画像を順次結合して合成する画像合成ステップと、前記特徴量算出ステップが前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断ステップとを含み、前記移動ベクトル算出ステップは、前記判断ステップにより、前記特徴量算出ステップで前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出ステップが最後に算出した特徴量に基づいて、前記算出不可能時間内において前記取得ステップにより最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする。   In the image composition method according to the fifteenth aspect of the present invention, an acquisition step of capturing and sequentially acquiring a plurality of frame images, and a feature amount of a predetermined region in each frame image sequentially acquired by the acquisition step And a second frame having a predetermined temporal correspondence with the first frame image for which the feature value is calculated based on the feature value calculated by the feature value calculation step. The movement vector calculation step for sequentially calculating the movement vector of the image, the setting step for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation step, and the setting step An image extraction step of extracting the partial image of the extraction width from the first and / or second frame image; An image synthesis step for sequentially combining and synthesizing the partial images extracted in the output step; a determination step for determining whether or not the feature amount calculation step can calculate a feature amount in the predetermined region; The movement vector calculation step includes a non-calculatable time in which it is determined by the determination step that it is impossible to calculate a feature amount in the predetermined region in the feature amount calculation step. Based on the feature amount last calculated by the feature amount calculation step, a movement vector of the frame image last acquired by the acquisition step is calculated within the uncalculatable time.

また、請求項16記載の発明に係る画像合成方法にあっては、少なくとも時間的に隣接するフレーム画像間で、被写体画像の一部が重複するように撮影された複数のフレーム画像に基づいてパノラマ画像を生成する画像合成方法であって、フレーム画像の予め設定されている所定の領域が特徴量抽出領域として不適格となる画像であったときに当該フレーム画像をパノラマ合成される画像から省きながら、順次、第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像との間で算出される移動ベクトルに基づいて部分画像を抽出するとともに、前記抽出した各部分画像を結合することでパノラマ画像を生成することを特徴とする。
In the image composition method according to the sixteenth aspect of the present invention, the panorama is based on a plurality of frame images photographed so that a part of the subject image overlaps at least between temporally adjacent frame images. An image composition method for generating an image, wherein a predetermined region of a frame image is an image that is ineligible as a feature amount extraction region, while omitting the frame image from the panoramic image The partial images are sequentially extracted based on the movement vector calculated between the first frame image and the second frame image having a predetermined temporal correspondence, and the extracted partial images are combined. In this way, a panoramic image is generated.

請求項1に係る発明によれば、設定した抽出幅の部分画像をフレーム画像における所定の基準線から移動ベクトルに応じた方向に抽出し、この抽出した部分画像を順次結合して合成することから、時間的に隣接するフレーム画像間において、抽出された前のフレーム画像からの抽出画像の終端縁と、次のフレーム画像からの抽出画像の始端縁とにおける画像を精度よく合致させることができる。したがって、撮影された画像を精度よく結合してパノラマ画像を合成することができる。   According to the first aspect of the present invention, the partial image having the set extraction width is extracted from the predetermined reference line in the frame image in the direction corresponding to the movement vector, and the extracted partial images are sequentially combined and combined. In addition, between the temporally adjacent frame images, the image at the end edge of the extracted image from the extracted previous frame image and the start edge of the extracted image from the next frame image can be accurately matched. Therefore, it is possible to combine the photographed images with high accuracy to synthesize a panoramic image.

また、請求項3に係る発明によれば、所定領域にて特徴量を算出することが可能であると判断されている算出不可能時間内においては、特徴量算出手段により最後に算出された特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することから、定領域において特徴量を算出することが不可能なフレーム画像が取得された場合であっても、支障なくパノラマ合成を行うことができる。よって、フレーム画像の構図に左右されてしまうことなく、撮影された画像を精度よく結合してパノラマ画像を合成することができる。   According to the invention of claim 3, the feature last calculated by the feature amount calculation means within the non-calculatable time during which it is determined that the feature amount can be calculated in the predetermined region. Based on the amount, since the movement vector of the frame image last acquired by the acquisition unit within the non-calculatable time is calculated, a frame image in which the feature amount cannot be calculated in the constant region is acquired. Even if it is a case, panorama composition can be performed without any trouble. Therefore, the panoramic image can be synthesized by accurately combining the captured images without being influenced by the composition of the frame image.

以下、本発明の一実施の形態を図に従って説明する。
(第1の実施の形態)
図1は、本発明の各実施の形態に共通する電子カメラ1の概略構成を示すブロック図である。この電子カメラ1は、所定の画角からなるフレーム画像を撮影する機能を有するのみならず、複数のフレーム画像の各画像部分を合成してパノラマ画像を合成するパノラマ撮影機能を備えたものであって、図示しない光学系の光軸上に配置されたCCD2と、DSP/CPU3とを有している。DSP/CPU3は、JPEG方式による画像のデータの圧縮・伸張を含む各種デジタル信号処理機能を有するとともに電子カメラ1の各部を制御するワンチップマイコンである。DSP/CPU3には、CCD2を駆動するTG(Timing Generator)4が接続されており、TG4には、CCD2から出力される被写体の光学像に応じたアナログの撮像信号が入力するユニット回路5が接続されている。ユニット回路5は、入力した撮像信号を保持するCDSと、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅された撮像信号をデジタルの撮像信号に変換するA/D変換器(AD)から構成されており、CCD2の出力信号はユニット回路5を経てデジタル信号としてDSP/CPU3に送られる。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of an electronic camera 1 common to each embodiment of the present invention. The electronic camera 1 has not only a function of shooting a frame image having a predetermined angle of view, but also a panorama shooting function of combining each image portion of a plurality of frame images to synthesize a panoramic image. The CCD 2 is disposed on the optical axis of an optical system (not shown) and the DSP / CPU 3. The DSP / CPU 3 is a one-chip microcomputer that has various digital signal processing functions including image data compression / decompression according to the JPEG method and controls each part of the electronic camera 1. A TG (Timing Generator) 4 that drives the CCD 2 is connected to the DSP / CPU 3, and a unit circuit 5 that receives an analog imaging signal corresponding to the optical image of the subject output from the CCD 2 is connected to the TG 4. Has been. The unit circuit 5 includes a CDS that holds an input imaging signal, a gain adjustment amplifier (AGC) that amplifies the imaging signal, and an A / D converter (AD) that converts the amplified imaging signal into a digital imaging signal. The output signal of the CCD 2 is sent to the DSP / CPU 3 as a digital signal through the unit circuit 5.

また、DSP/CPU3には、表示装置6、キー入力部7、時計部8が接続されるとともに、アドレス・データバス9を介してDRAM10、内蔵フラッシュメモリ11、カード・インターフェイス12が接続されている。カード・インターフェイス12には、図示しないカメラ本体のカードスロットに着脱自在に装着されたメモリ・カード13が接続されている。   The DSP / CPU 3 is connected to a display device 6, a key input unit 7, and a clock unit 8, and is also connected to a DRAM 10, a built-in flash memory 11, and a card interface 12 through an address / data bus 9. . The card interface 12 is connected to a memory card 13 that is detachably attached to a card slot of a camera body (not shown).

DRAM10は、撮影待機モードの設定時にCCD2によって撮像され、デジタル化された被写体の画像データを一時保存するバッファであるとともに、DSP/CPU3のワーキングメモリとしても使用される。DRAM10に一時保存された画像データは圧縮され、最終的にはメモリ・カード13に記録される。内蔵フラッシュメモリ11には、DSP/CPU3の動作プログラムや各部の制御に使用する各種データが記憶されており、DSP/CPU3は、前記動作プログラムに従い動作することにより本発明の取得手段、特徴量算出手段、移動ベクトル算出手段、画像抽出手段、画像合成手段、判断手段、移動ベクトル積算手段等として機能する。   The DRAM 10 is a buffer for temporarily storing image data of a subject imaged and digitized by the CCD 2 when the shooting standby mode is set, and is also used as a working memory of the DSP / CPU 3. The image data temporarily stored in the DRAM 10 is compressed and finally recorded in the memory card 13. The built-in flash memory 11 stores an operation program of the DSP / CPU 3 and various data used for control of each unit, and the DSP / CPU 3 operates according to the operation program to obtain the acquisition means and feature amount calculation of the present invention. It functions as a means, a movement vector calculation means, an image extraction means, an image composition means, a judgment means, a movement vector integration means, and the like.

表示装置6はカラーLCDとその駆動回路とを含み、撮影待機状態にあるときにはCCD2によって撮像された被写体画像をスルー画像として表示し、記録画像の再生時にはメモリ・カード13から読み出され伸張された記録画像を表示する。キー入力部7は、シャッターキー、電源キー、モード選択キー、十字キー等の複数の操作キーを含み、使用者によるキー操作に応じたキー入力信号をDSP/CPU3に出力する。時計部8は日付及び時刻をカウントするカレンダー機能と時計機能とを有しており、撮影動作時等に必要に応じて日付データ及び時刻データをDSP/CPU3へ送る。   The display device 6 includes a color LCD and its drive circuit, and displays the subject image captured by the CCD 2 as a through image when in the shooting standby state, and is read from the memory card 13 and expanded when the recorded image is reproduced. Display the recorded image. The key input unit 7 includes a plurality of operation keys such as a shutter key, a power key, a mode selection key, and a cross key, and outputs a key input signal corresponding to the key operation by the user to the DSP / CPU 3. The clock unit 8 has a calendar function that counts the date and time and a clock function, and sends date data and time data to the DSP / CPU 3 as necessary during a shooting operation or the like.

以上の構成からなる電子カメラ1において、DSP/CPU3は、前記プログラムに従って、図2に示すフローチャートに示すように処理を実行する。すなわち、ユーザによるキー入力部7における前記モード選択キーの操作により、パノラマ撮影モードが選択されると、撮影処理を実行した後(ステップS1)、画像合成処理を実行する(ステップS1)。   In the electronic camera 1 having the above configuration, the DSP / CPU 3 executes processing as shown in the flowchart shown in FIG. 2 according to the program. That is, when the panorama shooting mode is selected by the user's operation of the mode selection key in the key input unit 7, the shooting process is executed (step S1), and then the image composition process is executed (step S1).

図3は、前記撮影処理(ステップS1)の手順を示すフローチャートである。先ず、スルー画像の表示を開始し(ステップS101)、このステップS101での処理により、表示装置6にはスルー画像が表示される。次に、シャッターキーが押下されたか否かを判断する(ステップS102)。シャッターキーが押下されたならば、撮影・記録処理を実行してCCD2からフレーム画像を取り込んでDRAM10に保存する(ステップS103)。   FIG. 3 is a flowchart showing the procedure of the photographing process (step S1). First, display of a through image is started (step S101), and the through image is displayed on the display device 6 by the processing in step S101. Next, it is determined whether or not the shutter key has been pressed (step S102). If the shutter key is pressed, the photographing / recording process is executed to capture the frame image from the CCD 2 and store it in the DRAM 10 (step S103).

次に、前記シャッターキーの押下が解除されたか否かを判断する(ステップS104)。シャッターキーの押下が解除されない場合には、所定時間(本実施の形態においていては、1/16秒)が経過したか否かを判断し(ステップS105)、所定時間が経過した時点で、ステップS103からの処理を繰り返す。したがって、前記シャッターキーの押下が解除されない状態においては、所定時間(1/16秒)間隔でステップS105からの処理が繰り返されることとなる。   Next, it is determined whether or not the pressing of the shutter key is released (step S104). If the pressing of the shutter key is not released, it is determined whether or not a predetermined time (1/16 second in the present embodiment) has elapsed (step S105). The processing from S103 is repeated. Therefore, in a state where the pressing of the shutter key is not released, the processing from step S105 is repeated at predetermined time (1/16 second) intervals.

よって、ユーザが繰り返しシャッターキーを操作することなく、シャッターキーの押下を継続すれば、DRAM10に所定時間をフレームレートとする複数枚分のフレーム画像が記憶させることができる。   Therefore, if the user continues to press the shutter key without repeatedly operating the shutter key, the DRAM 10 can store a plurality of frame images having a predetermined frame rate.

そして、ユーザが押下しているシャッターキーを解除するとステップS104がYESとなり、図2に示したゼネラルフローにリターンする。したがって、DRAM10には、ユーザがシャッターキーを押下してから解除するまでに所定時間(1/16秒)間隔で撮影された複数枚のフレーム画像が記憶される。このとき、ユーザはパノラマ撮影を行うべく電子カメラ1を所望の方向、例えば右方向に回動させながら撮影を行ったとすると、DRAM10には、電子カメラ1の回動方向とは逆方向の被写体が移動した複数のフレーム画像が記憶されることとなる。   When the shutter key pressed by the user is released, step S104 is YES, and the process returns to the general flow shown in FIG. Therefore, the DRAM 10 stores a plurality of frame images taken at predetermined time intervals (1/16 seconds) from when the user presses the shutter key until the release. At this time, if the user performs the shooting while rotating the electronic camera 1 in a desired direction, for example, the right direction to perform panoramic shooting, the DRAM 10 has a subject in a direction opposite to the rotation direction of the electronic camera 1. A plurality of moved frame images are stored.

図4は、前記画像合成処理(ステップS2)の処理手順を示すフローチャートである。なお、ここでは、電子カメラを右方向に回動させて撮影を行うことで得た複数のフレーム画像に対して画像合成処理を行う場合について説明する。つまり、各フレーム画像間では、時間を追うに従って、被写体画像が左方向に移動していくように見える複数のフレーム画像に対して画像合成処理を行う場合について説明する。   FIG. 4 is a flowchart showing the processing procedure of the image composition processing (step S2). Here, a case will be described in which image composition processing is performed on a plurality of frame images obtained by photographing by rotating the electronic camera in the right direction. That is, a case will be described in which image composition processing is performed on a plurality of frame images that appear to move the subject image in the left direction as time elapses between the frame images.

先ず、DRAM10から記憶された順序でフレーム画像を選択する(ステップS201)。つまり、フレーム画像を撮影された順に従って選択する。   First, frame images are selected in the order stored from the DRAM 10 (step S201). That is, the frame images are selected according to the order in which they were taken.

次に、この選択したフレーム画像の特徴量を算出する(ステップS202)。この特徴量の算出に際しては、図5(A)に示すように、ステップS201で選択した今フレーム画像Xの中央付近(中央領域)に設定された複数のブロックを注目画像とする。この複数のブロックにおいて各々特徴量を算出し、特徴量が所定以上であるブロックを抽出する。この特徴量の算出においては、演算式としてHARRIS演算子を用いる。   Next, the feature amount of the selected frame image is calculated (step S202). In calculating the feature amount, as shown in FIG. 5A, a plurality of blocks set near the center (center region) of the current frame image X selected in step S201 are set as the target image. A feature amount is calculated for each of the plurality of blocks, and a block having a feature amount equal to or greater than a predetermined value is extracted. In the calculation of the feature amount, a HARRIS operator is used as an arithmetic expression.

次に、この算出した特徴量が所定以上である各ブロックと、共通の特徴量を有するブロックを図5(B)に示す次フレーム(後フレーム)画像X+1内にて探索する(ステップS203)。ここで、次フレーム(後フレーム)画像X+1は、今フレーム画像Xの次に記憶された(撮影された)フレーム画像である。そして、今フレーム画像Xと次フレーム画像X+1において、各共通の特徴量を有する対応するブロック毎にそれぞれの移動ベクトル(X軸成分、Y軸成分)を検出する。さらに、この検出した各移動ベクトルの例えば平均値を算出することにより、フレーム全体の移動ベクトルを算出する(ステップS204)。つまり、今フレーム画像Xから次フレーム画像X+1への被写体画像の移動ベクトルとして算出する。   Next, each block whose calculated feature quantity is greater than or equal to a predetermined block and a block having a common feature quantity are searched for in the next frame (rear frame) image X + 1 shown in FIG. 5B (step S203). Here, the next frame (rear frame) image X + 1 is a frame image stored (captured) next to the current frame image X. Then, in the current frame image X and the next frame image X + 1, each movement vector (X-axis component, Y-axis component) is detected for each corresponding block having each common feature amount. Further, by calculating, for example, an average value of the detected movement vectors, the movement vector of the entire frame is calculated (step S204). That is, the movement vector of the subject image from the current frame image X to the next frame image X + 1 is calculated.

次に、抽出する部分画像の幅である抽出幅を設定する(ステップS205)。この抽出幅の設定は、前記フレーム全体の移動ベクトルから予め設定されている移動方向成分を抽出し、この抽出した移動方向成分に基づいて、図6(C)に示す内蔵フラッシュメモリ11に予め記憶されている変換テーブル112から読み出すことで行われる。   Next, an extraction width that is the width of the partial image to be extracted is set (step S205). The extraction width is set by extracting a preset movement direction component from the movement vector of the entire frame, and storing it in the built-in flash memory 11 shown in FIG. 6C based on the extracted movement direction component. This is done by reading from the conversion table 112 that has been set.

本実施の形態の場合、左右方向のパノラマ合成画像を生成するものとし、前記フレーム全体の移動ベクトルから左右方向成分(X軸方向成分)、つまり、例えば被写体画像の左方向への移動量を抽出し、この移動量に対応する抽出幅Wを読み出すことにより行う。   In the case of the present embodiment, a panorama composite image in the left-right direction is generated, and a left-right direction component (X-axis direction component), that is, an amount of movement of the subject image in the left direction, for example, is extracted from the movement vector of the entire frame. Then, the extraction width W corresponding to this movement amount is read out.

引き続き、今フレーム画像Xの所定の中心線を基準として、今フレーム画像Xから前記抽出幅で画像を抽出する(ステップS206)。すなわち、図6(B)に示すように、先ずフレームの中心点を通る直線であって、前記抽出された移動方向成分と直交する方向(ここではY軸方向)に走る中心線Cを今フレーム画像X上に設定する。そして、今フレーム画像Xにおいて前記中心線Cから、移動ベクトルとは逆方向である電子カメラ1の回動方向(ここでは右方向)に前記抽出幅W分の画像の部分画像XPを抽出する。つまり、今フレーム画像から部分画像を抽出する場合には、中心線Cを基準として、移動ベクトルとは逆方向(電子カメラ1の回動方向)に部分画像XPを抽出する。   Subsequently, an image is extracted from the current frame image X with the extraction width with reference to a predetermined center line of the current frame image X (step S206). That is, as shown in FIG. 6B, first, a center line C that is a straight line passing through the center point of the frame and runs in a direction orthogonal to the extracted moving direction component (here, the Y-axis direction) is the current frame. Set on image X. Then, the partial image XP of the image corresponding to the extraction width W is extracted from the center line C in the current frame image X in the rotation direction (here, the right direction) of the electronic camera 1 which is the direction opposite to the movement vector. That is, when a partial image is extracted from the current frame image, the partial image XP is extracted in the direction opposite to the movement vector (the rotation direction of the electronic camera 1) with the center line C as a reference.

しかる後に、図6(A)に示すように、この抽出した部分画像XPをこの時点までに合成されているパノラマ合成画像XSの移動ベクトルとは逆方向の後端部、つまり電子カメラ1の回動方向の後端部(ここでは右側)に結合させて合成する(ステップS207)。   Thereafter, as shown in FIG. 6 (A), the extracted partial image XP is rearward in the direction opposite to the movement vector of the panoramic composite image XS synthesized up to this point, that is, the time of the electronic camera 1. It is combined with the rear end portion (here, the right side) in the moving direction and synthesized (step S207).

引き続き、DRAM10に記憶された最後−1のフレーム画像まで以上の特徴量算出にかかる処理を行ったか否かを判断し(ステップS208)、最後−1までのフレーム画像に対しての処理が終了するまで、ステップS201からの処理を繰り返す。   Subsequently, it is determined whether or not the above processing for calculating the feature amount has been performed up to the last −1 frame image stored in the DRAM 10 (step S208), and the processing for the last −1 frame image is completed. Until this, the processing from step S201 is repeated.

このようなパノラマ画像合成を行うことにより、光学系により結像される画像において、両側の歪みがある部分が抽出されることなく、歪みのない中央部の画像部分を抽出して合成することができる。その結果、パノラマ合成画像XSを全域に亙って歪みのないものにすることができる。   By performing such panoramic image synthesis, in the image formed by the optical system, it is possible to extract and synthesize the central image portion without distortion without extracting the portions with distortion on both sides. it can. As a result, it is possible to make the panorama composite image XS free from distortion over the entire area.

また、各フレーム画像から基準となる同一の中心線Cから移動ベクトルの大きさに応じた抽出幅で抽出すれば、時間的に隣接するフレーム画像間において、抽出された前のフレーム画像からの抽出画像の終端縁と、次のフレーム画像からの抽出画像の始端縁とにおける画像を精度よく合致させることができる。したがって、時間的に隣接して撮影された画像を精度よく結合してパノラマ画像を合成することができる。   If each frame image is extracted from the same center line C as a reference with an extraction width corresponding to the magnitude of the movement vector, extraction from the previous frame image extracted between temporally adjacent frame images is performed. It is possible to accurately match the image at the end edge of the image and the start edge of the extracted image from the next frame image. Therefore, it is possible to combine panoramic images by accurately combining images taken adjacent in time.

なお、ステップS207における画像合成において、パノラマ合成画像XSに抽出した部分画像XPの端部を結合合成する際の、上下方向の位置合わせは、移動ベクトルの上下方向成分に応じて部分画像XPを上下に移動調整することにより行う。したがって、ユーザが電子カメラ1を構えて右方向に回動させた場合であっても、当該電子カメラ1には不可避的に上下方向の振動が生ずるときには、パノラマ合成画像XSは図7に示すように上下にずれた部分画像の結合体となる。   In the image composition in step S207, the vertical alignment when combining and synthesizing the end of the partial image XP extracted to the panorama composite image XS is performed by moving the partial image XP up and down according to the vertical component of the movement vector. This is done by adjusting the movement. Therefore, even when the user holds the electronic camera 1 and rotates it to the right, if the electronic camera 1 inevitably undergoes vertical vibration, the panorama composite image XS is as shown in FIG. It becomes a combined body of partial images shifted vertically.

そして、最後−1のフレーム画像までステップS201〜207が実行されることによりステップS208の判断がYESとなると、このステップS208に続くステップS209において、切り出し・記憶処理を実行する。この切り出し・記憶処理においては、図7に示すように、最後のステップS207の処理までに結合合成されたパノラマ合成画像XSから、結合方向に沿った所定幅の画像部分を切り出し、この切り出した画像部分を最終的なパノラマ合成画像XEとして、メモリ・カード13に記録する。   If the determination in step S208 is YES by executing steps S201 to 207 up to the last −1 frame image, the cutout / storage process is executed in step S209 following step S208. In this cutout / storing process, as shown in FIG. 7, an image portion having a predetermined width along the joining direction is cut out from the panorama composite image XS combined and synthesized up to the last step S207. The portion is recorded on the memory card 13 as the final panorama composite image XE.

つまり、前述のように、ユーザが電子カメラ1を構えて右方向に回動させた場合であっても、当該電子カメラ1には不可避的に上下方向の振動が生ずることから、パノラマ合成画像XSは図7に示すように上下にずれた部分画像の結合体となる。したがって、結合方向に沿った所定幅の画像部分を切り出し、この切り出した画像部分を最終的なパノラマ合成画像XEとして、メモリ・カード13に記録することにより、周部に凹凸のないパノラマ合成画像XEを記録保存することができる。   That is, as described above, even when the user holds the electronic camera 1 and rotates it to the right, the electronic camera 1 inevitably generates vertical vibrations. As shown in FIG. 7, it becomes a combined body of partial images shifted vertically. Therefore, an image portion having a predetermined width along the joining direction is cut out, and the cut out image portion is recorded as a final panorama composite image XE in the memory card 13, so that the panorama composite image XE having no unevenness in the peripheral portion is recorded. Can be recorded and saved.

なお、本実施の形態においては、フレームの中心点を通る直線である中心線Cを基準に合成する部分画像の抽出を行うようにしたが、基準線は中心線Cに限ることなく、中心部付近であれば、側部に若干ずれた位置であってもよい。特に、ユーザに電子カメラを回動させる方向を予め定めていて、更に、上述したように、今フレーム画像における特徴量を用いて次フレーム内を探索した移動ベクトルに基づいて今フレーム画像内から部分画像を抽出するような場合には、基準線は、電子カメラの回動方向とは逆方向にずれた位置に予め設定しておくことが好ましい。つまり、今フレーム画像から部分画像を抽出する場合には、中心線Cを基準として、移動ベクトルとは逆方向(電子カメラ1の回動方向)に部分画像XPを抽出するため、基準線を電子カメラの回動方向とは逆方向にずれた位置に予め設定しておけば、フレーム画像の中心領域を部分画像に含むように抽出することができる。
なお、ユーザに電子カメラを回動させる方向は、ユーザがキー入力部7により予め任意に設定できる構成としていてもよい。
In the present embodiment, the partial image to be synthesized is extracted based on the center line C that is a straight line passing through the center point of the frame. However, the reference line is not limited to the center line C, and the center portion If it is near, the position may be slightly shifted to the side. In particular, the direction in which the user rotates the electronic camera is determined in advance. Further, as described above, a part from the current frame image based on the movement vector searched for in the next frame using the feature amount in the current frame image. When extracting an image, the reference line is preferably set in advance at a position shifted in the direction opposite to the rotation direction of the electronic camera. That is, when the partial image is extracted from the current frame image, the partial image XP is extracted in the direction opposite to the movement vector (the rotation direction of the electronic camera 1) with the center line C as a reference. If a position shifted in the direction opposite to the camera rotation direction is set in advance, it is possible to extract the central region of the frame image so as to be included in the partial image.
Note that the direction in which the user rotates the electronic camera may be configured to be arbitrarily set in advance by the user using the key input unit 7.

また、本実施の形態においては、今フレーム画像Xから合成する部分画像の抽出を行うようにしたが、次フレーム画像X+1から前記抽出幅で抽出してもよい。なお、次フレーム画像X+1から前記抽出幅で抽出する場合には、次フレーム画像X+1の所定の中心線を基準として、次フレーム画像X+1から前記抽出幅で画像を抽出するが、このとき、次フレーム画像X+1において前記中心線Cから、移動ベクトルの方向、即ち、電子カメラ1の回動方向とは逆方向(ここでは左方向)に前記抽出幅W分の画像の部分画像XPを抽出する。そして、特に、ユーザに電子カメラを回動させる方向を予め定めている場合には、基準線は、電子カメラの回動方向にずれた位置に予め設定しておくことが好ましい。つまり、次フレーム画像から部分画像を抽出する場合には、中心線Cを基準として、移動ベクトルの方向(電子カメラ1の回動方向とは逆方向)に部分画像XPを抽出するため、基準線を電子カメラの回動方向にずれた位置に予め設定しておけば、フレーム画像の中心領域を部分画像に含むように抽出することができる。なお、ユーザに電子カメラを回動させる方向は、ユーザがキー入力部7により予め任意に設定できる構成としていてもよい。   Further, in the present embodiment, the partial image to be synthesized from the current frame image X is extracted, but it may be extracted from the next frame image X + 1 with the extraction width. When extracting from the next frame image X + 1 with the extraction width, an image is extracted with the extraction width from the next frame image X + 1 with reference to a predetermined center line of the next frame image X + 1. In the image X + 1, the partial image XP of the image corresponding to the extraction width W is extracted from the center line C in the direction of the movement vector, that is, the direction opposite to the rotation direction of the electronic camera 1 (here, the left direction). In particular, when the direction in which the user rotates the electronic camera is determined in advance, the reference line is preferably set in advance at a position shifted in the rotation direction of the electronic camera. That is, when extracting the partial image from the next frame image, the partial image XP is extracted in the direction of the movement vector (the direction opposite to the rotation direction of the electronic camera 1) with the center line C as a reference. Can be extracted so as to include the center region of the frame image in the partial image. Note that the direction in which the user rotates the electronic camera may be configured to be arbitrarily set in advance by the user using the key input unit 7.

(第2の実施の形態)
図8は、本発明の第2の実施の形態において、前記プログラム等とともに内蔵フラッシュメモリ11に記憶されている優先順位テーブル111を示す図である。そして、本実施の形態の場合、左右方向のパノラマ合成画像を生成するものとし、この優先順位テーブル111には、後述する移動ベクトルが左方向である(移動ベクトルに左方向の成分を含む)パノラマ撮影の場合のデータ(A)と、移動ベクトルが右方向である(移動ベクトルに右方向の成分を含む)パノラマ撮影の場合のデータ(B)とで構成されている。
(Second Embodiment)
FIG. 8 is a diagram showing a priority table 111 stored in the built-in flash memory 11 together with the program and the like in the second embodiment of the present invention. In the case of the present embodiment, a panorama composite image in the left-right direction is generated, and in this priority table 111, a later-described movement vector is the left direction (the movement vector includes a left-direction component). Data (A) in the case of shooting and data (B) in the case of panoramic shooting in which the movement vector is in the right direction (the movement vector includes a component in the right direction).

データ(A)としては、検出予測される移動ベクトルが左方向である場合の、つまり、電子カメラの回動方向が右方向である場合の、今回選択された今フレームXにおいて特徴量を抽出するための優先順位1〜4となる領域(特徴量抽出領域)が記憶されている。この優先順位1〜4は、中央領域が優先順位1である。また、この中央領域から左に行くに従って優先順位が低下するように設定され、優先順位4の領域は、前記光学系により結像される画像の歪みがあるため、本来は特徴量抽出に用いたくない領域である。   As the data (A), when the motion vector to be detected and predicted is the left direction, that is, when the rotation direction of the electronic camera is the right direction, the feature amount is extracted in the current frame X selected this time. For this reason, areas (feature amount extraction areas) having priorities 1 to 4 are stored. With regard to the priorities 1 to 4, the central region is prioritized 1. Further, the priority order is set so as to decrease from the central area to the left, and the priority order 4 area is originally intended to be used for feature quantity extraction because of the distortion of the image formed by the optical system. There is no area.

そして、本実施の形態においては、後述するステップS302で説明するように、優先順位1である中央領域を最優先にして、可能である限り中央領域から特徴量の抽出を行うようにしている。よって、光学系により結像される画像の歪みない部分の画像領域を特徴量算出のための優先的な領域とすることができ、これにより、特徴量の算出を適正に行うことができる。   In this embodiment, as will be described later in step S302, the central area having priority 1 is given the highest priority, and feature amounts are extracted from the central area as much as possible. Therefore, an image area of a non-distorted portion of the image formed by the optical system can be set as a preferential area for calculating the feature quantity, whereby the feature quantity can be calculated appropriately.

また、データ(B)としては、検出予測される移動ベクトルが右方向である場合の、つまり、電子カメラの回動方向が左方向である場合の、今回選択された今フレームPXにおいて特徴量を抽出するための優先順位1〜4となる領域(特徴量抽出領域)が記憶されている。この優先順位1〜4は、中央領域が優先順位1であり、この中央領域から右に行くに従って優先順位が低下するように設定され、優先順位4の領域は、前記光学系により結像される画像の歪みがあるため、本来は特徴量抽出に用いたくない領域である。   Further, as data (B), when the motion vector to be detected and predicted is the right direction, that is, when the rotation direction of the electronic camera is the left direction, the feature amount in the present frame PX selected this time is A region (feature amount extraction region) having priorities 1 to 4 for extraction is stored. The priorities 1 to 4 are set such that the central area has the priority 1 and the priority decreases as it goes to the right from the central area. The priority 4 area is imaged by the optical system. Since the image is distorted, it is an area that is not originally desired for feature amount extraction.

なお、本実施の形態においては、移動ベクトルが左方向である場合と右方向である場合のデータ(A)(B)のみを記憶させておくようにしたが、上方向である場合と下方向である場合の同様のデータを記憶させておくようにしてもよい。   In the present embodiment, only the data (A) and (B) when the movement vector is in the left direction and in the right direction are stored. Similar data in the case of the above may be stored.

図9は、第2の実施の形態における前記画像合成処理(ステップS2)の処理手順を示すフローチャートである。なお、ここでは、電子カメラの回動方向が左右方向のうち特に右方向である場合について説明する。先ず、DRAM10から記憶された順序でフレーム画像を選択する(ステップS301)。次に、この選択したフレーム画像において、上述の優先順位に従って特徴量を算出する(ステップS302)。   FIG. 9 is a flowchart showing a processing procedure of the image composition processing (step S2) in the second embodiment. Here, a case will be described in which the rotation direction of the electronic camera is the right direction among the left and right directions. First, frame images are selected in the order stored from the DRAM 10 (step S301). Next, in the selected frame image, a feature amount is calculated according to the above-described priority order (step S302).

このステップS3の処理においては、優先順位を規定するためのカウンタNの値に初期値「1」を設定し、前フレームにおける優先順位N領域で特徴量を算出可能であるか否かを判断する。すなわち、N=1であるならば、図8(A)に示したように、今フレーム画像Xにおける中央領域である優先順位1領域を、前述したステップS202での処理と同様に、複数のブロックに区分する。そして、この複数のブロックにおいて各々特徴量の算出を実行した結果に基づき、特徴量を算出することが可能であるか(又は、特徴量が所定以上であるブロックがあるか否か)を判断する。   In the process of step S3, an initial value “1” is set as the value of the counter N for defining the priority order, and it is determined whether or not the feature amount can be calculated in the priority order N region in the previous frame. . That is, if N = 1, as shown in FIG. 8A, the priority order 1 area, which is the central area in the current frame image X, is divided into a plurality of blocks in the same manner as the processing in step S202 described above. Divide into Then, based on the result of the calculation of the feature values in each of the plurality of blocks, it is determined whether the feature value can be calculated (or whether there is a block whose feature value is equal to or greater than a predetermined value). .

このとき、今フレーム画像Xにおける優先順位1領域に、例えば白色の幅広い柱や壁が撮影されている場合には、当該優先順位1領域内のいずれのブロックでも特徴量を算出することが不可能となる。したがって、この場合には、カウンタNの値をインクリメントして優先順位2領域に対して同様の処理を行う。また、当該優先順位2領域内のいずれのブロックでも特徴量を算出することが不可能である場合には、順次優先順位3、4領域に対して同様の処理を行う。   At this time, if, for example, a wide white column or wall is photographed in the priority order 1 area in the frame image X, it is impossible to calculate the feature amount in any block in the priority order 1 area. It becomes. Therefore, in this case, the value of the counter N is incremented and the same processing is performed for the priority order 2 area. In addition, when it is impossible to calculate the feature amount in any block in the priority order 2 area, the same processing is sequentially performed on the priority order 3 and 4 areas.

したがって、優先順位1領域内のいずれのブロックでも特徴量を算出することが不可能である場合であっても、他の領域を用いて特徴量の算出を行うことができる。   Therefore, even if it is impossible to calculate the feature amount in any block in the priority order 1 region, the feature amount can be calculated using another region.

次に、優先順位1〜4のいずれかの領域で所定以上の特徴量が算出できたか否かを判断する(ステップS303)。算出できた場合には、後述する更新移動ベクトルが記憶されているか否かを判断する(ステップS303)。記憶されていない場合には、ステップS305〜S310において、前述した第1の実施の形態におけるステップS203〜208と同様の処理を実行する。   Next, it is determined whether or not a feature amount greater than or equal to a predetermined value has been calculated in any of the priorities 1 to 4 (step S303). If it can be calculated, it is determined whether or not an update movement vector to be described later is stored (step S303). If not stored, in steps S305 to S310, processing similar to that in steps S203 to 208 in the first embodiment described above is executed.

すなわち、ステップS303で算出した特徴量が所定以上である各ブロックと、共通の特徴量を有するブロックを図10(ロ)に示す次フレーム(後フレーム)画像X+1内にて探索する(ステップS305)。つまり、図10(イ)において今フレーム画像Xが「(1)」であり特徴量が「a」であるならば、図10(ロ)の次フレームX+1においてフレーム画像(2)内にて特徴量「a」を探索する。   That is, each block whose feature value calculated in step S303 is equal to or greater than a predetermined block and a block having a common feature value are searched in the next frame (rear frame) image X + 1 shown in FIG. 10B (step S305). . That is, if the current frame image X is “(1)” and the feature amount is “a” in FIG. 10A, the feature in the frame image (2) in the next frame X + 1 in FIG. Search for the quantity “a”.

そして、今フレーム画像X(1)と次フレーム画像X+1(2)において、各共通の特徴量aを有する対応するブロック毎にそれぞれの移動ベクトル(X軸成分、Y軸成分)を検出する。さらに、この検出した各移動ベクトルの例えば平均値を算出することにより、フレーム全体の移動ベクトル(A)を算出する(ステップS306)。   Then, in the current frame image X (1) and the next frame image X + 1 (2), each movement vector (X-axis component, Y-axis component) is detected for each corresponding block having each common feature amount a. Further, by calculating, for example, an average value of the detected movement vectors, the movement vector (A) of the entire frame is calculated (step S306).

次に、抽出する部分画像の幅である抽出幅を設定する(ステップS307)。この抽出幅の設定は、前記フレーム全体の移動ベクトルから予め設定されている移動方向成分を抽出し、この抽出した移動方向成分に基づいて、図6(C)に示す内蔵フラッシュメモリ11に予め記憶されている変換テーブル112から読み出すことで行われる。   Next, an extraction width that is the width of the partial image to be extracted is set (step S307). The extraction width is set by extracting a preset movement direction component from the movement vector of the entire frame, and storing it in the built-in flash memory 11 shown in FIG. 6C based on the extracted movement direction component. This is done by reading from the conversion table 112 that has been set.

本実施の形態の場合、左右方向のパノラマ合成画像を生成するものとし、前記フレーム全体の移動ベクトルから左右方向成分(X軸方向成分)、つまり、例えば被写体画像の左方向への移動量を抽出し、この移動量に対応する抽出幅Wを読み出すことにより行う。   In the case of the present embodiment, a panorama composite image in the left-right direction is generated, and a left-right direction component (X-axis direction component), that is, an amount of movement of the subject image in the left direction, for example, is extracted from the movement vector of the entire frame. Then, the extraction width W corresponding to this movement amount is read out.

引き続き、今フレーム画像Xの所定の中心線を基準として、今フレーム画像Xから前記抽出幅で画像を抽出する(ステップS308)。すなわち、図10(ハ)に示すように、先ずフレームの中心付近を通る直線であって、前記抽出された移動方向成分と直交する方向(ここではY軸方向)に走る基準線Lを今フレーム画像X上に設定する。そして、今フレーム画像Xにおいて前記基準線Lから、移動ベクトルとは逆方向である電子カメラ1の回動方向(ここでは右方向)に前記抽出幅W分の画像の部分画像XPを抽出する。つまり、今フレーム画像から部分画像を抽出する場合には、基準線Lを基準として、移動ベクトルとは逆方向(電子カメラ1の回動方向)に部分画像XPを抽出する。   Subsequently, an image is extracted from the current frame image X with the extraction width with reference to a predetermined center line of the current frame image X (step S308). That is, as shown in FIG. 10C, first, a reference line L that runs in a direction (in this case, the Y-axis direction) that is a straight line passing through the vicinity of the center of the frame and that is orthogonal to the extracted movement direction component is set to the current frame. Set on image X. Then, the partial image XP of the image corresponding to the extraction width W is extracted from the reference line L in the current frame image X in the rotation direction of the electronic camera 1 which is the direction opposite to the movement vector (here, the right direction). That is, when a partial image is extracted from the current frame image, the partial image XP is extracted in the direction opposite to the movement vector (the rotation direction of the electronic camera 1) with reference to the reference line L.

しかる後に、図6(A)に示すように、この抽出した部分画像XPをこの時点までに合成されているパノラマ合成画像XSの移動ベクトルとは逆方向の後端部、つまり電子カメラ1の回動方向の後端部(ここでは右側)に結合させて合成する(ステップS309)。   Thereafter, as shown in FIG. 6 (A), the extracted partial image XP is rearward in the direction opposite to the movement vector of the panoramic composite image XS synthesized up to this point, that is, the time of the electronic camera 1. It is combined with the rear end portion (here, the right side) in the moving direction and synthesized (step S309).

引き続き、DRAM10に記憶された最後−1のフレーム画像−1まで以上の処理を行ったか否かを判断し(ステップS310)、最後−1までのフレーム画像に対しての処理が終了するまで、ステップS301からの処理を繰り返す。   Subsequently, it is determined whether or not the above processing has been performed up to the last -1 frame image-1 stored in the DRAM 10 (step S310), and the steps until the processing for the last -1 frame image is completed. The processing from S301 is repeated.

すなわち、図10(イ)の(1)〜(6)に示すように、優先順位1〜4領域のいずれかに「特徴量の抽出不適格被写体」以外の被写体が撮影されている場合には、ステップS303の判断がYESとなり、かつ、ステップS304の判断がNOとなる。したがって、ステップS301〜S310のループが繰り返されることとなり、ステップS205での処理により、今フレーム画像(1)〜(6)に対応する図10(ロ)の次フレーム画像(2)〜(7)内にて特徴量a,b,c,d,e,fが各々探索されて、ステップS206での処理により、移動ベクトルA,B,C,D,E,Fが算出される。   That is, as shown in (1) to (6) of FIG. 10A, when a subject other than the “feature feature extraction inappropriate subject” is photographed in any of the priority order 1 to 4 regions. The determination in step S303 is YES, and the determination in step S304 is NO. Therefore, the loop of steps S301 to S310 is repeated, and the processing in step S205 results in the next frame images (2) to (7) in FIG. 10B corresponding to the current frame images (1) to (6). The feature quantities a, b, c, d, e, and f are respectively searched, and the movement vectors A, B, C, D, E, and F are calculated by the processing in step S206.

そして、ステップS307及びステップS308での処理により、図10(ハ)に示すように、今フレーム画像(1)〜(6)から、各々移動ベクトルA,B,C,D,E,Fに応じた抽出幅で基準線Lより部分画像WA,WB,WC,WD,WE,WFが抽出される。また、ステップS309での処理により、これら部分画像WA,WB,WC,WD,WEが結合合成されることとなり、また後述する部分画像WFもこの時点においては結合合成される。   Then, by the processing in step S307 and step S308, as shown in FIG. 10 (c), from the current frame images (1) to (6), according to the movement vectors A, B, C, D, E, and F, respectively. The partial images WA, WB, WC, WD, WE, and WF are extracted from the reference line L with the extracted width. The partial images WA, WB, WC, WD, and WE are combined and combined by the processing in step S309, and the partial image WF described later is also combined and combined at this point.

しかし、図10(イ)の今フレーム画像(7)のように、優先順位1〜4領域の全てに「特徴量の抽出不適格被写体」が撮影されている場合には、優先順位1〜4領域のいずれにおいても所定以上の特徴量の算出ができず、ステップS303の判断はNOとなる。したがって、ステップS303からステップS311に進み、最後に算出された特徴量に基づき、次フレーム画像X+1(ステップS301で選択された今フレーム画像Xの次のフレーム画像)内を探索する(ステップS311)。   However, as shown in the current frame image (7) in FIG. 10 (a), when “feature feature extraction ineligible subjects” are photographed in all of the priority order 1 to 4 areas, the priority orders 1 to 4 are taken. In any of the regions, a feature amount greater than a predetermined value cannot be calculated, and the determination in step S303 is NO. Accordingly, the process proceeds from step S303 to step S311, and the next frame image X + 1 (the next frame image of the current frame image X selected in step S301) is searched based on the feature amount calculated last (step S311).

つまり、最後に算出された特徴量は、図10(イ)のフレーム画像(6)であることから、このフレーム画像(6)の特徴量fに基づき、次フレーム画像X+1である図10(ロ)のフレーム画像(8)内を探索する。そして、前述のステップS306と同様に、次フレーム画像X+1(フレーム画像(8))全体の移動ベクトルを算出する(ステップS306)。また、この算出した移動ベクトルをDRAM10に更新しつつ記憶し(ステップS313)、ステップS301に戻る。したがって、このとき算出された移動ベクトルが図10(ロ)の(8)に示すように、「G」であったとすると、ステップS313での処理により、「移動ベクトルG」がDRAM10に記憶されることとなる。   That is, since the feature amount calculated last is the frame image (6) in FIG. 10 (a), the next frame image X + 1 in FIG. 10 (b) is based on the feature amount f of the frame image (6). ) In the frame image (8). Then, similarly to step S306 described above, the movement vector of the entire next frame image X + 1 (frame image (8)) is calculated (step S306). The calculated movement vector is stored in the DRAM 10 while being updated (step S313), and the process returns to step S301. Therefore, if the movement vector calculated at this time is “G” as shown in (8) of FIG. 10B, “movement vector G” is stored in the DRAM 10 by the processing in step S313. It will be.

また、再度ステップS301からの処理が実行されると、該ステップS301で図10(イ)のフレーム画像(7)に続くフレーム画像(8)が今フレーム画像Xとして選択されることとなる。しかし、このフレーム画像X(8)も優先順位1〜4領域の全てに「特徴量の抽出不適格被写体」が撮影されていることから、優先順位1〜4領域のいずれにおいても所定以上の特徴量の算出ができず、ステップS303の判断はNOとなる。   When the processing from step S301 is executed again, the frame image (8) following the frame image (7) in FIG. 10 (a) is selected as the current frame image X in step S301. However, since the frame image X (8) also has “feature feature extraction ineligible subjects” in all of the priority order 1 to 4 areas, the predetermined or higher characteristics are obtained in any of the priority order 1 to 4 areas. The amount cannot be calculated, and the determination in step S303 is NO.

したがって、ステップS303からステップS311に進み、最後に算出された特徴量に基づき、次フレーム画像X+1(ステップS301で選択された今フレーム画像Xの次のフレーム画像)内を探索する(ステップS311)。このとき、最後に算出された特徴量は、前述と同様に図10(イ)のフレーム画像(6)からであることから、このフレーム画像(6)の特徴量fに基づき、次フレーム画像X+1である図10(ロ)のフレーム画像(9)内を探索する。そして、前述のステップS306と同様に、次フレーム画像X+1(フレーム画像(9))全体の移動ベクトルを算出する(ステップS306)。また、この算出した移動ベクトルをDRAM10に更新しつつ記憶し(ステップS313)、ステップS301に戻る。したがって、このとき算出された移動ベクトルが図10(ロ)の(9)に示すように、「H」であったとすると、ステップS313での処理により、前記「移動ベクトルG」に代わって「移動ベクトルH」がDRAM10に記憶されることとなる。   Accordingly, the process proceeds from step S303 to step S311, and the next frame image X + 1 (the next frame image of the current frame image X selected in step S301) is searched based on the feature amount calculated last (step S311). At this time, since the feature amount calculated last is from the frame image (6) of FIG. 10 (a) as described above, the next frame image X + 1 is based on the feature amount f of the frame image (6). A search is made in the frame image (9) of FIG. Then, similarly to step S306 described above, the movement vector of the entire next frame image X + 1 (frame image (9)) is calculated (step S306). The calculated movement vector is stored in the DRAM 10 while being updated (step S313), and the process returns to step S301. Accordingly, if the movement vector calculated at this time is “H” as shown in (9) of FIG. 10B, “movement” is substituted for the “movement vector G” by the process in step S313. The vector H ”is stored in the DRAM 10.

また、再度ステップS301からの処理が実行されると、該ステップS301で図10(イ)のフレーム画像(8)に続くフレーム画像(9)が今フレーム画像Xとして選択されることとなる。このフレーム画像X(9)は優先順位4領域において「特徴量g」が算出可能であることから、ステップS303の判断はYESとなる。よって、ステップS303からステップS304に進み、更新移動ベクトルがあるか否か、つまり前記ステップS313でDRAM10に記憶された移動ベクトルである、更新移動ベクトルがあるか否かを判断する。   When the processing from step S301 is executed again, the frame image (9) following the frame image (8) in FIG. 10 (a) is selected as the current frame image X in step S301. Since this frame image X (9) can calculate the “feature amount g” in the priority order 4 region, the determination in step S303 is YES. Therefore, the process proceeds from step S303 to step S304, and it is determined whether or not there is an updated movement vector, that is, whether or not there is an updated movement vector that is the movement vector stored in the DRAM 10 in step S313.

本例においては、ステップS303の処理が2回行われ、DRAM10には2回目の更新移動ベクトルHが記憶されている。したがって、ステップS304の判断がYESとなり、ステップS304からステップS314に進み、記憶されている更新移動ベクトルHを読み出す(ステップS314)。次に、抽出する部分画像の幅である抽出幅を設定する(ステップS315)。この抽出幅の設定は、図6(C)に示す内蔵フラッシュメモリ11に予め記憶されている変換テーブル112から、前記更新移動ベクトルHの移動方向成分の大きさ(本例の場合、左方向成分の大きさ)に対応する抽出幅Wを読み出すことにより行う。   In this example, the process of step S303 is performed twice, and the DRAM 10 stores the second updated movement vector H. Accordingly, the determination in step S304 is YES, and the process advances from step S304 to step S314 to read the stored updated movement vector H (step S314). Next, an extraction width that is the width of the partial image to be extracted is set (step S315). This extraction width is set from the conversion table 112 stored in advance in the built-in flash memory 11 shown in FIG. 6C by the size of the movement direction component of the updated movement vector H (in this example, the left direction component). This is performed by reading the extraction width W corresponding to

引き続き、最後に部分画像が抽出されたフレーム画像において、基準線Lから前記抽出幅で画像を抽出する(ステップS316)。すなわち、本例においては図10(ハ)に示すように、最後に部分画像が抽出されたフレーム画像は、部分画像Fが抽出されたフレーム画像(6)である。よって、図10(ニ)に示すように、先ずフレームの中心付近を通る直線であって、前記移動ベクトルと直交する方向の基準線Lをフレーム画像(6)上に設定する。そして、フレーム画像(6)において前記基準線Lから、移動ベクトルとは逆方向である電子カメラ1の回動方向に前記抽出幅W分の画像の部分画像WHを抽出する。   Subsequently, in the frame image from which the partial image is finally extracted, an image is extracted with the extraction width from the reference line L (step S316). That is, in this example, as shown in FIG. 10C, the frame image from which the partial image is extracted last is the frame image (6) from which the partial image F is extracted. Therefore, as shown in FIG. 10 (d), first, a reference line L that is a straight line passing through the vicinity of the center of the frame and orthogonal to the movement vector is set on the frame image (6). Then, a partial image WH of the image corresponding to the extraction width W is extracted from the reference line L in the frame image (6) in the rotation direction of the electronic camera 1 which is the direction opposite to the movement vector.

しかる後に、この部分画像WHをこの時点までに合成されているパノラマ合成画像の最後に合成された部分画像上に上書き合成する(ステップS317)。すなわち、前述のように、図10(イ)のフレーム画像(1)〜(6)の場合には、今フレーム画像(1)〜(6)から、各々移動ベクトルA,B,C,D,E,Fに応じた抽出幅で基準線Lより部分画像WA,WB,WC,WD,WE,WFが抽出されて、ステップS309での処理により、これら部分画像WA,WB,WC,WD,WE,WFが結合合成されている。これら部分画像WA,WB,WC,WD,WE,WFからなる合成済画像において、最後に合成された部分画像は部分画像WFである。したがって、部分画像WFに部分画像WHが上書き合成されることにより、図10(ホ)に示すように、部分画像WEに部分画像WHが結合された状態となる。   Thereafter, this partial image WH is overwritten and synthesized on the last synthesized partial image of the panorama synthesized image synthesized up to this point (step S317). That is, as described above, in the case of the frame images (1) to (6) in FIG. 10 (a), the movement vectors A, B, C, D, Partial images WA, WB, WC, WD, WE, and WF are extracted from the reference line L with an extraction width corresponding to E and F, and the partial images WA, WB, WC, WD, and WE are extracted by processing in step S309. , WF are combined and synthesized. Of the combined images composed of these partial images WA, WB, WC, WD, WE, and WF, the last combined partial image is a partial image WF. Therefore, when the partial image WH is overwritten and combined with the partial image WF, the partial image WH is combined with the partial image WE as shown in FIG.

しかる後に、ステップS317からステップS305に進み、前述したステップS305以降の処理を実行する。したがって、ステップS305では、図10(イ)のフレーム画像(9)の特徴量gに基づいて、次フレーム画像X+1である図10(ロ)のフレーム画像(10)が探索され、ステップS306でその移動ベクトルIが算出され、ステップS307で移動ベクトルに応じた幅Wが設定され、ステップS308で今フレーム画像Xである図10(ロ)のフレーム画像(9)において基準線Lから部分画像WIが抽出され、ステップS309で、端部に部分画像WHを有する合成済画像に部分画像WIが結合合成されることとなる。   Thereafter, the process proceeds from step S317 to step S305, and the processes after step S305 described above are executed. Therefore, in step S305, the next frame image X + 1, which is the frame image (10) of FIG. 10 (b), is searched based on the feature amount g of the frame image (9) of FIG. 10 (b). The movement vector I is calculated, a width W corresponding to the movement vector is set in step S307, and in step S308, the partial image WI is extracted from the reference line L in the frame image (9) of FIG. In step S309, the partial image WI is combined and combined with the combined image having the partial image WH at the end.

また、図10(イ)の(10)〜(14)に示すように、優先順位1〜4領域のいずれかに「特徴量の抽出不適格被写体」以外の被写体が撮影されている場合には、ステップS303の判断がYESとなり、かつ、ステップS304の判断がNOとなる。したがって、ステップS301〜S310のループが繰り返される。   Further, as shown in (10) to (14) of FIG. 10 (a), when a subject other than the “feature feature extraction ineligible subject” is photographed in any of the priority order 1-4 regions. The determination in step S303 is YES, and the determination in step S304 is NO. Therefore, the loop of steps S301 to S310 is repeated.

そして、DRAM10に図10(イ)に示す15枚のフレーム画像(1)〜(15)が記憶されている場合、最後−1であるフレーム画像(14)がステップS301で選択されると、ステップS310の判断がYESとなる。よって、ステップS310からステップS318に進み、前述したステップS209と同一の処理である切り出し・記憶処理を実行する。これにより、図10(ホ)に示すように、「WA−WB−WC−WD−WE−WH−WI−WJ−WK−WL−WM−WN」の部分画像を合成した最終的に得られるパノラマ画像がメモリ・カード13に格納されることとなる。   When the 15 frame images (1) to (15) shown in FIG. 10A are stored in the DRAM 10, when the last frame image (14) is selected in step S301, The determination in S310 is YES. Therefore, the process proceeds from step S310 to step S318, and the cutout / storage process, which is the same process as step S209 described above, is executed. As a result, as shown in FIG. 10E, the final panorama obtained by combining the partial images of “WA-WB-WC-WD-WE-WH-WI-WJ-WK-WL-WM-WN”. The image is stored in the memory card 13.

つまり、本実施の形態では、少なくとも時間的に隣接するフレーム画像間で、被写体画像の一部が重複するように撮影された複数のフレーム画像に基づいてパノラマ画像を生成する場合に、フレーム画像の予め設定されている所定の領域が特徴量抽出領域として不適格となる画像であったときに当該フレーム画像をパノラマ合成される画像から省きながら、順次、第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像との間で算出される移動ベクトルに基づいて部分画像を抽出するとともに、前記抽出した各部分画像を結合することでパノラマ画像を生成している。   That is, in this embodiment, when generating a panoramic image based on a plurality of frame images that are captured so that a part of the subject image overlaps at least between temporally adjacent frame images, When the predetermined region set in advance is an image that is ineligible as a feature amount extraction region, the frame image is omitted from the panorama synthesized image, and sequentially corresponds to the first frame image for a predetermined time. A partial image is extracted based on a movement vector calculated between the second frame images having a relationship, and a panoramic image is generated by combining the extracted partial images.

なお、本実施の形態においては、今フレーム画像Xから部分画像を抽出するようにしたが、図11に示すように、次フレーム画像X+1から部分画像を抽出するようにしてもよい。この場合、図11(ハ)に示すように、各部分画像WA,WB,WC,WD・・・は、次フレーム画像(2)(3)(4)(5)・・・において、移動ベクトル方向(電子カメラ1の移動方向とは逆方向)に切り出せばよい。   In the present embodiment, the partial image is extracted from the current frame image X. However, as shown in FIG. 11, the partial image may be extracted from the next frame image X + 1. In this case, as shown in FIG. 11C, each partial image WA, WB, WC, WD... Is a movement vector in the next frame image (2) (3) (4) (5). What is necessary is just to cut out in the direction (the direction opposite to the moving direction of the electronic camera 1).

また、本実施の形態においては、部分画像を抽出した直後にこの部分画像を合成済画像に合成するようにしたが、抽出した部分画像を保存しておき、次の特徴量が検出された時点で、保存しておいた部分画像を合成済画像に合成するようにしてもよい。このようにすれば、ステップS317に示したように、部分画像をこの時点までに合成されているパノラマ合成画像の最後に合成された部分画像上に上書きすることなく、結合合成することにより、パノラマ合成画像を得ることができる。   In the present embodiment, the partial image is synthesized with the synthesized image immediately after the partial image is extracted, but the extracted partial image is stored and the next feature amount is detected. Thus, the stored partial image may be combined with the combined image. In this way, as shown in step S317, the panorama image is combined and synthesized without overwriting the partial image synthesized at the end of the panorama synthesized image synthesized up to this point, so that the panorama is combined. A composite image can be obtained.

また、上述の各実施の形態においては、左右方向のパノラマ合成画像を生成するものとして説明したが、上下方向のパノラマ合成画像を生成する場合にも適用できる。   Further, in each of the above-described embodiments, it has been described that a panoramic composite image in the left-right direction is generated. However, the present invention can also be applied to a case where a panoramic composite image in the vertical direction is generated.

また、各実施の形態においては、図4及び図9のフローチャートに示したように、DRAM10に記憶された最初のフレーム画像から合成対象として画像合成処理を開始するようにした。しかし、画像合成処理の冒頭において特徴量の算出及び移動ベクトルの算出を実行し、所定以上の移動ベクトルが最初に算出されたことを条件として、ステップS201以降の処理、あるいはステップS301からの処理を実行するようにしてもよい。   In each embodiment, as shown in the flowcharts of FIGS. 4 and 9, the image synthesis process is started as a synthesis target from the first frame image stored in the DRAM 10. However, at the beginning of the image compositing process, the calculation of the feature amount and the calculation of the movement vector are executed, and the process after step S201 or the process from step S301 is performed on condition that a predetermined or more movement vector is calculated first. You may make it perform.

これにより、ユーザが電子カメラ1を回動させたか否か、つまりユーザがパノラマ撮影を開始する意図を持って電子カメラ1を回動し始めたか検出することができる。よって、ユーザがパノラマ撮影を開始する意図を持って電子カメラ1を回動し始める前の不要な画像を用いてパノラマ画像合成処理等が実行される不都合を未然に防止することができる。   This makes it possible to detect whether or not the user has rotated the electronic camera 1, that is, whether or not the user has started to rotate the electronic camera 1 with the intention of starting panoramic photography. Therefore, it is possible to prevent inconvenience that the panoramic image synthesis process or the like is performed using an unnecessary image before the user starts to rotate the electronic camera 1 with the intention of starting panoramic shooting.

なお、このとき、検出された所定以上の移動ベクトルの方向に基づいて、電子カメラの回動方向が、上下左右方向の何れであるかを検出し、この検出された電子カメラの回動方向に応じたパノラマ合成画像の生成処理を行う構成としてもよい。つまり、例えば、電子カメラの回動方向が左方向または右方向であったときには、左右方向のパノラマ合成画像を生成し、上方向または下方向であったときには、上下方向のパノラマ合成画像を生成する構成としてもよい。また、例えば、電子カメラの回動方向が右方向であると検出されたときには、例えば特徴量の抽出領域の優先順位を上述した図8(A)に設定し、左方向であると検出されたときには、例えば特徴量の抽出領域の優先順位を上述した図8(B)に設定する構成とすればよい。   At this time, based on the detected direction of the predetermined or larger movement vector, it is detected whether the rotation direction of the electronic camera is the up / down / left / right direction, and the detected rotation direction of the electronic camera is detected. It may be configured to perform a corresponding panorama composite image generation process. That is, for example, when the rotation direction of the electronic camera is the left direction or the right direction, a panoramic composite image in the left-right direction is generated, and when it is upward or downward, a panoramic composite image in the vertical direction is generated. It is good also as a structure. For example, when it is detected that the rotation direction of the electronic camera is the right direction, for example, the priority order of the feature amount extraction region is set in FIG. 8A described above, and the left direction is detected. In some cases, for example, the priority order of the feature amount extraction regions may be set in the above-described FIG.

また、各実施の形態においては、図4及び図9のフローチャートに示したように、最後−1のフレーム画像を選択した時点で画像合成処理を終了するようした。しかし、前記最初に算出された移動ベクトルを記憶しておき、この移動ベクトルとは異なる方向(例えば、反対方向)の移動ベクトルが検出された時点で、画像合成処理を終了するようにしてもよい。   In each embodiment, as shown in the flowcharts of FIGS. 4 and 9, the image composition process is terminated when the last −1 frame image is selected. However, the movement vector calculated first may be stored, and the image synthesis process may be terminated when a movement vector in a direction different from the movement vector (for example, the opposite direction) is detected. .

これにより、前記ステップS104で説明したシャッターキーの押下を解除せずとも、パノラマ撮影を行うべく回動させた電子カメラ1を当該回動方向とは異なる方向に回動させる簡単な操作により、実質的にパノラマ撮影を終了させることができる。   As a result, the electronic camera 1 that has been rotated to perform panoramic photography can be rotated substantially in a direction different from the rotation direction without releasing the pressing of the shutter key described in step S104. Thus, panoramic shooting can be terminated.

さらに、各実施の形態においては、撮影処理を実行してDRAMに複数のフレーム画像を記憶させた後、画像合成処理を実行するようにしたが、撮影処理によりフレーム画像が取得される都度、順次画像合成処理を実行するようにしてもよい。   Further, in each embodiment, the image processing is performed and a plurality of frame images are stored in the DRAM, and then the image composition processing is performed. However, each time a frame image is acquired by the image capturing processing, the image processing is sequentially performed. An image composition process may be executed.

本発明の一実施の形態に係る電子カメラのブロック図である。It is a block diagram of the electronic camera which concerns on one embodiment of this invention. 本発明の第1及び第2の実施の形態に共通するゼネラルフローチャートである。3 is a general flowchart common to the first and second embodiments of the present invention. 撮影処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of an imaging | photography process. 第1の実施の形態における画像合成処理の処理手順を示すフローチャートである。3 is a flowchart illustrating a processing procedure of image composition processing in the first embodiment. 移動ベクトルの算出手順を示す説明図である。It is explanatory drawing which shows the calculation procedure of a movement vector. 今フレーム画像から合成する部分画像を抽出する処理と、合成処理の手順を示す説明図である。It is explanatory drawing which shows the process of extracting the partial image to synthesize | combine from a now frame image, and the procedure of a synthesis | combination process. パノラマ合成画像のトリミング領域を示す説明図である。It is explanatory drawing which shows the trimming area | region of a panoramic composite image. 優先順位テーブルの記憶内容を示す説明図である。It is explanatory drawing which shows the memory content of a priority table. 第2の実施の形態における画像合成処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the image composition process in 2nd Embodiment. 同実施の形態における画像合成処理の処理手順を示す説明図である。It is explanatory drawing which shows the process sequence of the image composition process in the embodiment. 次フレーム画像から部分画像を抽出する場合の説明図である。It is explanatory drawing in the case of extracting a partial image from the next frame image.

符号の説明Explanation of symbols

1 電子カメラ
2 CCD
3 DSP/CPU
4 TG
5 ユニット回路
6 表示装置
7 キー入力部
9 データバス
10 DRAM
11 内蔵フラッシュメモリ
111 優先順位テーブル
112 変換テーブル
1 Electronic camera 2 CCD
3 DSP / CPU
4 TG
5 Unit Circuit 6 Display Device 7 Key Input Unit 9 Data Bus 10 DRAM
11 Built-in flash memory 111 Priority table 112 Conversion table

Claims (16)

撮像して複数のフレーム画像を順次取得する取得手段と、
この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、
この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、
この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、
この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、
この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段とを備え、
前記画像抽出手段は、前記設定手段により設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする画像合成装置。
Acquisition means for capturing and sequentially acquiring a plurality of frame images;
A feature amount calculating means for calculating a feature amount of a predetermined area in each frame image sequentially acquired by the acquiring means;
Based on the feature amount calculated by the feature amount calculation means, a movement for sequentially calculating a movement vector of a second frame image having a predetermined temporal correspondence with the first frame image for which the feature amount has been calculated Vector calculation means;
Setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means;
Image extraction means for extracting the partial image having the extraction width set by the setting means from the first and / or second frame images;
Image combining means for sequentially combining and combining the partial images extracted by the image extracting means,
The image synthesizing apparatus, wherein the image extracting unit extracts a partial image having an extraction width set by the setting unit from a predetermined reference line in the frame image in a direction according to the movement vector.
前記特徴量算出手段が前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断手段を更に備え、
前記移動ベクトル算出手段は、前記判断手段により、前記特徴量算出手段が前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段により最後に算出された特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする請求項1記載の画像合成装置。
A determination unit that determines whether the feature amount calculation unit can calculate the feature amount in the predetermined region;
The movement vector calculation means includes the feature quantity within a non-calculatable time during which it is determined by the judgment means that the feature quantity calculation means cannot calculate the feature quantity in the predetermined area. 2. The image composition according to claim 1, wherein a movement vector of a frame image last acquired by the acquisition unit within the uncalculatable time is calculated based on a feature amount calculated last by the calculation unit. apparatus.
撮像して複数のフレーム画像を順次取得する取得手段と、
この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、
この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、
この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、
この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、
この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段と、
前記特徴量算出手段が前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断手段を備え、
前記移動ベクトル算出手段は、前記判断手段により、前記特徴量算出手段が前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段が最後に算出した特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする画像合成装置。
Acquisition means for capturing and sequentially acquiring a plurality of frame images;
A feature amount calculating means for calculating a feature amount of a predetermined area in each frame image sequentially acquired by the acquiring means;
Based on the feature amount calculated by the feature amount calculation means, a movement for sequentially calculating a movement vector of a second frame image having a predetermined temporal correspondence with the first frame image for which the feature amount has been calculated Vector calculation means;
Setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means;
Image extraction means for extracting the partial image having the extraction width set by the setting means from the first and / or second frame images;
Image combining means for sequentially combining and combining the partial images extracted by the image extracting means;
A determination unit that determines whether the feature amount calculation unit can calculate a feature amount in the predetermined region;
The movement vector calculation means includes the feature quantity within a non-calculatable time during which it is determined by the judgment means that the feature quantity calculation means cannot calculate the feature quantity in the predetermined area. An image synthesizing apparatus that calculates a movement vector of a frame image last acquired by the acquisition unit within the non-calculatable time based on a feature amount calculated last by the calculation unit.
前記画像抽出手段は、前記設定手段により設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする請求項3記載の画像合成装置。   4. The image composition according to claim 3, wherein the image extraction unit extracts a partial image having an extraction width set by the setting unit in a direction corresponding to the movement vector from a predetermined reference line in the frame image. apparatus. 前記基準線は、フレーム画像の中心部付近に設定されることを特徴とする請求項1、2又は4記載の画像合成装置。   5. The image synthesizing apparatus according to claim 1, wherein the reference line is set near a center portion of a frame image. 前記移動ベクトル算出手段により最初の移動ベクトルが算出されたことを条件として、前記画像合成手段の動作を開始させる開始動作制御手段を備えることを特徴とする請求項1から5にいずれか記載の画像合成装置。   6. The image according to claim 1, further comprising start operation control means for starting the operation of the image composition means on condition that the first movement vector is calculated by the movement vector calculation means. Synthesizer. 前記移動ベクトル算出手段により移動ベクトルが最初に算出された移動ベクトルを記憶する記憶手段と、
その後前記移動ベクトル算出手段により算出された移動ベクトルが前記記憶手段に記憶された最初の移動ベクトルとは異なる方向である場合、前記画像合成手段の動作を終了させる終了動作制御手段を備えることを特徴とする請求項1から6にいずれか記載の画像合成装置。
Storage means for storing a movement vector first calculated by the movement vector calculation means;
Thereafter, when the movement vector calculated by the movement vector calculation means is in a direction different from the initial movement vector stored in the storage means, an end operation control means for ending the operation of the image synthesizing means is provided. The image composition device according to any one of claims 1 to 6.
前記特徴量算出手段が特徴量を算出する所定領域は、フレーム画像における中央部の領域であることを特徴とする請求項1から7にいずか記載の画像合成装置。   The image synthesizing apparatus according to any one of claims 1 to 7, wherein the predetermined area in which the feature quantity calculating unit calculates the feature quantity is a central area of the frame image. 前記特徴量算出手段が特徴量を算出する所定領域は、優先順位に対応して区分された複数の区分領域から構成され、
前記判断手段は、前記優先順位が高い区分領域にて特徴量の算出が可能であるか否かを判断し、
前記特徴量算出手段は、前記判断手段により前記優先順位が高い区分領域にて特徴量の算出が不可能であると判断された場合には、より優先順位の低い区分領域から特徴量を算出することを特徴とする請求項1から7にいずか記載の画像合成装置。
The predetermined area where the feature quantity calculating means calculates the feature quantity is composed of a plurality of divided areas divided according to the priority order,
The determination means determines whether or not the feature amount can be calculated in the divided region having a high priority,
The feature amount calculation unit calculates the feature amount from the segment region with a lower priority when the determination unit determines that the feature amount cannot be calculated in the segment region with the higher priority. 8. The image composition apparatus according to claim 1, wherein
前記移動ベクトル積算手段は、前記判断手段により、前記特徴量算出手段が前記いずれの区分領域からも特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段により最後に算出された特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする請求項9記載の画像合成装置。   The movement vector accumulating unit is configured so that the determination unit determines that the feature amount calculation unit is unable to calculate a feature amount from any of the divided regions. The movement vector of the frame image last acquired by the acquisition unit within the non-calculatable time is calculated based on the feature amount calculated last by the feature amount calculation unit. Image composition device. 前記取得手段は、操作に応答して一定の時間間隔で撮像を実行する撮像手段を備えることを特徴とする請求項1から10にいずれか記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the acquisition unit includes an imaging unit that performs imaging at a constant time interval in response to an operation. 画像合成装置が備えるコンピュータを、
撮像して複数のフレーム画像を順次取得する取得手段と、
この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、
この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、
この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、
この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、
この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段として機能させるとともに、
前記画像抽出手段は、前記設定手段により設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする画像合成プログラム。
A computer provided in the image composition device,
Acquisition means for capturing and sequentially acquiring a plurality of frame images;
A feature amount calculating means for calculating a feature amount of a predetermined area in each frame image sequentially acquired by the acquiring means;
Based on the feature amount calculated by the feature amount calculation means, a movement for sequentially calculating a movement vector of a second frame image having a predetermined temporal correspondence with the first frame image for which the feature amount has been calculated Vector calculation means;
Setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means;
Image extraction means for extracting the partial image having the extraction width set by the setting means from the first and / or second frame images;
While functioning as an image composition means for combining the partial images extracted by this image extraction means in sequence,
The image extracting program extracts a partial image having an extraction width set by the setting unit in a direction corresponding to the movement vector from a predetermined reference line in the frame image.
画像合成装置が備えるコンピュータを、
撮像して複数のフレーム画像を順次取得する取得手段と、
この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、
この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、
この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、
この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、
この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段と、
前記特徴量算出手段が前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断手段として機能させるとともに、
前記移動ベクトル算出手段は、前記判断手段により、前記特徴量算出手段が前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段が最後に算出した特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする画像合成プログラム。
A computer provided in the image composition device,
Acquisition means for capturing and sequentially acquiring a plurality of frame images;
A feature amount calculating means for calculating a feature amount of a predetermined area in each frame image sequentially acquired by the acquiring means;
Based on the feature amount calculated by the feature amount calculation means, a movement for sequentially calculating a movement vector of a second frame image having a predetermined temporal correspondence with the first frame image for which the feature amount has been calculated Vector calculation means;
Setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means;
Image extraction means for extracting the partial image having the extraction width set by the setting means from the first and / or second frame images;
Image combining means for sequentially combining and combining the partial images extracted by the image extracting means;
The feature amount calculation means functions as a determination means for determining whether or not the feature amount can be calculated in the predetermined area, and
The movement vector calculation means includes the feature quantity within a non-calculatable time during which it is determined by the judgment means that the feature quantity calculation means cannot calculate the feature quantity in the predetermined area. An image composition program for calculating a movement vector of a frame image last acquired by the acquisition unit within the non-calculatable time based on a feature amount calculated last by the calculation unit.
撮像して複数のフレーム画像を順次取得する取得ステップと、
この取得ステップにより順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出ステップと、
この特徴量算出ステップにより算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出ステップと、
この移動ベクトル算出ステップにより算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定ステップと、
この設定ステップにより設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出ステップと、
この画像抽出ステップにより抽出された部分画像を順次結合して合成する画像合成ステップとを備え、
前記画像抽出ステップは、前記設定ステップにより設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする画像合成方法。
An acquisition step of capturing and sequentially acquiring a plurality of frame images;
A feature amount calculating step for calculating a feature amount of a predetermined region in each frame image sequentially acquired by the acquiring step;
Based on the feature amount calculated in the feature amount calculation step, a movement for sequentially calculating a movement vector of a second frame image having a predetermined temporal correspondence with the first frame image for which the feature amount has been calculated A vector calculation step;
A setting step for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation step;
An image extraction step of extracting the partial image having the extraction width set by the setting step from the first and / or second frame images;
An image synthesis step of sequentially combining and synthesizing the partial images extracted by the image extraction step,
The image extracting method includes extracting a partial image having an extraction width set in the setting step from a predetermined reference line in the frame image in a direction according to the movement vector.
撮像して複数のフレーム画像を順次取得する取得ステップと、
この取得ステップにより順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出ステップと、
この特徴量算出ステップにより算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出ステップと、
この移動ベクトル算出ステップにより算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定ステップと、
この設定ステップにより設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出ステップと、
この画像抽出ステップにより抽出された部分画像を順次結合して合成する画像合成ステップと、
前記特徴量算出ステップが前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断ステップとを含み、
前記移動ベクトル算出ステップは、前記判断ステップにより、前記特徴量算出ステップで前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出ステップが最後に算出した特徴量に基づいて、前記算出不可能時間内において前記取得ステップにより最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする画像合成方法。
An acquisition step of capturing and sequentially acquiring a plurality of frame images;
A feature amount calculating step for calculating a feature amount of a predetermined region in each frame image sequentially acquired by the acquiring step;
Based on the feature amount calculated in the feature amount calculation step, a movement for sequentially calculating a movement vector of a second frame image having a predetermined temporal correspondence with the first frame image for which the feature amount has been calculated A vector calculation step;
A setting step for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation step;
An image extraction step of extracting the partial image having the extraction width set by the setting step from the first and / or second frame images;
An image synthesis step of sequentially combining and synthesizing the partial images extracted by the image extraction step;
A step of determining whether the feature amount calculating step can calculate a feature amount in the predetermined region;
In the movement vector calculation step, the feature amount is calculated within the non-calculatable time in which it is determined by the determination step that the feature amount cannot be calculated in the predetermined region in the feature amount calculation step. An image synthesizing method comprising: calculating a movement vector of a frame image last acquired by the acquisition step within the non-calculatable time based on a feature amount calculated last by the calculation step.
少なくとも時間的に隣接するフレーム画像間で、被写体画像の一部が重複するように撮影された複数のフレーム画像に基づいてパノラマ画像を生成する画像合成方法であって、
フレーム画像の予め設定されている所定の領域が特徴量抽出領域として不適格となる画像であったときに当該フレーム画像をパノラマ合成される画像から省きながら、順次、第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像との間で算出される移動ベクトルに基づいて部分画像を抽出するとともに、前記抽出した各部分画像を結合することでパノラマ画像を生成することを特徴とする画像合成方法。
An image synthesis method for generating a panoramic image based on a plurality of frame images photographed so that a part of a subject image overlaps at least between temporally adjacent frame images,
When a predetermined region set in advance in the frame image is an image that is ineligible as a feature amount extraction region, the first frame image and a predetermined amount are sequentially deleted while omitting the frame image from the panoramic image. A partial image is extracted based on a movement vector calculated with respect to a second frame image having a temporal correspondence relationship, and a panoramic image is generated by combining the extracted partial images. Image synthesis method.
JP2006353575A 2006-12-28 2006-12-28 Image composition apparatus, image composition program, and image composition method Expired - Fee Related JP5103899B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006353575A JP5103899B2 (en) 2006-12-28 2006-12-28 Image composition apparatus, image composition program, and image composition method
US12/005,251 US8107769B2 (en) 2006-12-28 2007-12-26 Image synthesis device, image synthesis method and memory medium storage image synthesis program
NI200900083A NI200900083A (en) 2006-12-28 2009-05-12 NEW AMINOPYRIMIDINE DERIVATIVES AS PLK1 INHIBITORS

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006353575A JP5103899B2 (en) 2006-12-28 2006-12-28 Image composition apparatus, image composition program, and image composition method

Publications (2)

Publication Number Publication Date
JP2008167092A true JP2008167092A (en) 2008-07-17
JP5103899B2 JP5103899B2 (en) 2012-12-19

Family

ID=39695939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006353575A Expired - Fee Related JP5103899B2 (en) 2006-12-28 2006-12-28 Image composition apparatus, image composition program, and image composition method

Country Status (1)

Country Link
JP (1) JP5103899B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010141697A (en) * 2008-12-12 2010-06-24 Keyence Corp Imaging apparatus
JP2010146043A (en) * 2008-12-16 2010-07-01 Sony Corp Information processing apparatus, information processing method, program and image processing apparatus
JP2011078132A (en) * 2010-12-28 2011-04-14 Sony Corp Imaging apparatus, imaging method, image processing apparatus, image processing method, program and recording medium
JP2011188035A (en) * 2010-03-04 2011-09-22 Fujifilm Corp Imaging device, panoramic image synthesis method, and program therefor
JP2012080204A (en) * 2010-09-30 2012-04-19 Casio Comput Co Ltd Image processing device and method, and program
WO2013015148A1 (en) * 2011-07-27 2013-01-31 オリンパス株式会社 Image processing system, information processing device, program, and image processing method
JP2013062850A (en) * 2012-11-07 2013-04-04 Olympus Imaging Corp Camera, image reproducing device, image compositing method, and program
JP2014123916A (en) * 2012-12-21 2014-07-03 Casio Comput Co Ltd Image composition device, image composition method, and program
US9077899B2 (en) 2008-09-04 2015-07-07 Sony Corporation Image pickup apparatus, image processing apparatus, image processing method, program and recording medium
JP2015181302A (en) * 2015-07-10 2015-10-15 カシオ計算機株式会社 Image processing device, image processing method and program
JP2016134183A (en) * 2015-01-19 2016-07-25 株式会社リコー Image acquisition user interface for linear panoramic image connection
KR101868758B1 (en) * 2017-12-27 2018-06-18 세종대학교산학협력단 Method for authoring 360°video-based virtual reality content and Terminal device for performing the method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH114398A (en) * 1997-06-11 1999-01-06 Hitachi Ltd Digital wide camera
JP2005038412A (en) * 2003-06-30 2005-02-10 Sony Corp Image verification device, image verification method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH114398A (en) * 1997-06-11 1999-01-06 Hitachi Ltd Digital wide camera
JP2005038412A (en) * 2003-06-30 2005-02-10 Sony Corp Image verification device, image verification method, and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9077899B2 (en) 2008-09-04 2015-07-07 Sony Corporation Image pickup apparatus, image processing apparatus, image processing method, program and recording medium
JP2010141697A (en) * 2008-12-12 2010-06-24 Keyence Corp Imaging apparatus
JP2010146043A (en) * 2008-12-16 2010-07-01 Sony Corp Information processing apparatus, information processing method, program and image processing apparatus
JP2011188035A (en) * 2010-03-04 2011-09-22 Fujifilm Corp Imaging device, panoramic image synthesis method, and program therefor
JP2012080204A (en) * 2010-09-30 2012-04-19 Casio Comput Co Ltd Image processing device and method, and program
JP2011078132A (en) * 2010-12-28 2011-04-14 Sony Corp Imaging apparatus, imaging method, image processing apparatus, image processing method, program and recording medium
WO2013015148A1 (en) * 2011-07-27 2013-01-31 オリンパス株式会社 Image processing system, information processing device, program, and image processing method
JP2013030874A (en) * 2011-07-27 2013-02-07 Olympus Corp Image processing system, information processing device, and program
US9781340B2 (en) 2011-07-27 2017-10-03 Olympus Corporation Image processing system, information processing device, information storage device, and image processing method
JP2013062850A (en) * 2012-11-07 2013-04-04 Olympus Imaging Corp Camera, image reproducing device, image compositing method, and program
JP2014123916A (en) * 2012-12-21 2014-07-03 Casio Comput Co Ltd Image composition device, image composition method, and program
JP2016134183A (en) * 2015-01-19 2016-07-25 株式会社リコー Image acquisition user interface for linear panoramic image connection
JP2015181302A (en) * 2015-07-10 2015-10-15 カシオ計算機株式会社 Image processing device, image processing method and program
KR101868758B1 (en) * 2017-12-27 2018-06-18 세종대학교산학협력단 Method for authoring 360°video-based virtual reality content and Terminal device for performing the method

Also Published As

Publication number Publication date
JP5103899B2 (en) 2012-12-19

Similar Documents

Publication Publication Date Title
JP5103899B2 (en) Image composition apparatus, image composition program, and image composition method
US8107769B2 (en) Image synthesis device, image synthesis method and memory medium storage image synthesis program
JP4905144B2 (en) Image composition apparatus, image composition program, and image composition method
WO2015143842A1 (en) Mobile terminal photographing method and mobile terminal
JP5230013B2 (en) Imaging device
JP2007266667A (en) Camera-equipped mobile apparatus, control method thereof, and photographing support method thereof
JP5578442B2 (en) Imaging apparatus, image composition method, and program
JP4772009B2 (en) Digital camera
JP5282530B2 (en) Digital camera
JP4830828B2 (en) Image composition apparatus, image composition program, and image composition method
JP5035614B2 (en) Imaging apparatus and program
JP6249596B2 (en) Imaging apparatus and imaging method
JP2011216958A (en) Imaging apparatus and program
JP2010171491A (en) Imaging device, imaging method, and program
JP2007028331A (en) Image generating apparatus and program thereof
JP2009118084A (en) Digital camera
JP2001094919A (en) Device and method for recording image and computer- readable storage medium
JP5230558B2 (en) Document presentation device
JP5696525B2 (en) Imaging apparatus, imaging method, and program
CN104735342B (en) Moving image processing apparatus, dynamic image processing method and recording medium
JP2009044235A (en) Camera
JP2002058046A (en) Imaging system and three-dimensional camera
JP2003125289A (en) Image composite device
JP2005109647A (en) Image processor and program
JP6241503B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120917

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees