JP2008167092A - Image synthesizer, image synthesis program and image synthesizing method - Google Patents
Image synthesizer, image synthesis program and image synthesizing method Download PDFInfo
- Publication number
- JP2008167092A JP2008167092A JP2006353575A JP2006353575A JP2008167092A JP 2008167092 A JP2008167092 A JP 2008167092A JP 2006353575 A JP2006353575 A JP 2006353575A JP 2006353575 A JP2006353575 A JP 2006353575A JP 2008167092 A JP2008167092 A JP 2008167092A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature amount
- movement vector
- calculated
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像により順次得られる複数のフレーム画像を結合して合成したパノラマ画像を生成する画像合成装置、画像合成プログラム及び画像合成方法に関する。 The present invention relates to an image composition device, an image composition program, and an image composition method for generating a panoramic image obtained by combining a plurality of frame images sequentially obtained by imaging.
従来、1つの撮影フレームで撮影可能な画角以上の画角を得るために複数の撮影フレームの各画像を合成してパノラマ画像を合成する撮像装置が提案されている。このパノラマ画像を合成するに際しては、撮影した画像の特徴点を抽出してその座標を検出し、次に撮影した隣接する画像の同じ特徴点の座標を検出し、これらの特徴点が一致するように隣接する画像を結合合成してパノラマ画像を得るようにしている(特許文献1参照)。
このように従来の撮像装置においては、画像の特徴点を抽出し、この特徴点を隣接する画像で一致させることによりパノラマ画像を得るようにしている。このとき、撮像装置においては、光学系により結像される画像の両側に不可避的な歪みが生ずることから、精度よく特徴点を検出するためには、各フレーム画像において歪みのないフレーム画像の中央部付近において特徴点を検出することが必要となる。 As described above, in the conventional imaging apparatus, a feature point of an image is extracted, and a panoramic image is obtained by matching the feature point with an adjacent image. At this time, in the imaging apparatus, inevitable distortion occurs on both sides of the image formed by the optical system. Therefore, in order to accurately detect the feature point, the center of the frame image without distortion in each frame image. It is necessary to detect feature points in the vicinity of the part.
しかし、フレーム画像の中央部付近のみを特徴点抽出領域として設定すると、フレーム画像の中央部付近において被写体から特徴点を抽出することが困難な場合には、隣接する画像を正確に合成したパノラマ画像を得ることも困難となってしまう。すなわち、隣接した一方のフレーム画像の中央部付近に、例えば白の壁や柱等が含まれており特徴点を抽出することが困難な場合には、隣接する画像を正確に合成することが困難となる。 However, if only the vicinity of the center of the frame image is set as the feature point extraction region, it is difficult to extract the feature points from the subject near the center of the frame image. It will also be difficult to obtain. In other words, when it is difficult to extract feature points near the center of one adjacent frame image, for example, white walls or pillars, it is difficult to accurately synthesize the adjacent images. It becomes.
つまり、従来の撮像装置においては、撮像した一方のフレーム画像の構図のみに依存して、パノラマ合成を行うことから、隣接する他の画像を正確に合成することができるか否かが、当該フレーム画像の構図により左右されてしまうこととなる。 In other words, in the conventional imaging device, panorama synthesis is performed only depending on the composition of one captured frame image, and therefore whether or not other adjacent images can be accurately synthesized is determined according to the frame. It will be influenced by the composition of the image.
本発明は、かかる従来の課題に鑑みなされたものであり、フレーム画像の構図に左右されることなく、撮影された画像を精度よく結合してパノラマ画像を合成することのできる画像合成装置、画像合成プログラム及び画像合成方法を提供することを目的とする。 The present invention has been made in view of such a conventional problem, and is an image composition apparatus and image that can synthesize a panoramic image by accurately combining captured images without depending on the composition of the frame image. An object is to provide a composition program and an image composition method.
前記課題を解決するために請求項1の発明に係る画像合成装置にあっては、撮像して複数のフレーム画像を順次取得する取得手段と、この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段とを備え、前記画像抽出手段は、前記設定手段により設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする。 In order to solve the above-mentioned problem, in the image composition device according to the first aspect of the present invention, an acquisition means for capturing and sequentially acquiring a plurality of frame images, and a predetermined in each frame image sequentially acquired by the acquisition means Based on the feature amount calculated by the feature amount calculation unit that calculates the feature amount of the region and the feature amount calculation unit, the feature amount calculation unit has a predetermined temporal correspondence with the first frame image in which the feature amount is calculated. Movement vector calculation means for sequentially calculating the movement vector of the second frame image, setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means, and this setting means The image extraction means for extracting the partial image having the extraction width set by the first and / or second frame image and the image extraction means Image synthesizing means for sequentially combining and synthesizing the partial images, the image extracting means corresponding to the movement vector from the predetermined reference line in the frame image the partial image of the extraction width set by the setting means It is characterized by extracting in the direction.
また、請求項2記載の発明に係る画像合成装置にあっては、前記特徴量算出手段が前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断手段を更に備え、前記移動ベクトル算出手段は、前記判断手段により、前記特徴量算出手段が前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段により最後に算出された特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする。 In the image composition device according to the second aspect of the present invention, the image composition apparatus further includes a determination unit that determines whether or not the feature amount calculation unit can calculate the feature amount in the predetermined region. The movement vector calculation means includes the feature within a non-calculatable time during which the determination means determines that the feature quantity calculation means cannot calculate the feature quantity in the predetermined area. Based on the feature amount last calculated by the amount calculation unit, the movement vector of the frame image last acquired by the acquisition unit within the non-calculatable time is calculated.
また、請求項3記載の発明に係る画像合成装置にあっては、撮像して複数のフレーム画像を順次取得する取得手段と、この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段と、前記特徴量算出手段が前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断手段を備え、前記移動ベクトル算出手段は、前記判断手段により、前記特徴量算出手段が前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段が最後に算出した特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする。 In the image composition device according to the third aspect of the present invention, an acquisition unit that sequentially captures and acquires a plurality of frame images, and a feature amount of a predetermined region in each frame image that is sequentially acquired by the acquisition unit And a second frame having a predetermined temporal correspondence with the first frame image in which the feature value is calculated based on the feature value calculated by the feature value calculation unit. The movement vector calculation means for sequentially calculating the movement vector of the image, the setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means, and the setting means Image extracting means for extracting the partial image of the extraction width from the first and / or second frame image, and the partial images extracted by the image extracting means in order Image synthesizing means for combining, and determining means for determining whether or not the feature amount calculating means can calculate a feature amount in the predetermined region, and the movement vector calculating means comprises The feature amount calculated last by the feature amount calculation unit within the non-calculation time in which it is determined by the determination unit that the feature amount calculation unit cannot calculate the feature amount in the predetermined area. Based on the amount, the movement vector of the frame image last acquired by the acquisition unit within the non-calculatable time is calculated.
また、請求項4記載の発明に係る画像合成装置にあっては、前記画像抽出手段は、前記設定手段により設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする。
In the image composition device according to the invention of
また、請求項5記載の発明に係る画像合成装置にあっては、前記基準線は、フレーム画像の中心部付近に設定されることを特徴とする。
In the image composition device according to the invention described in
また、請求項6記載の発明に係る画像合成装置にあっては、前記移動ベクトル算出手段により最初の移動ベクトルが算出されたことを条件として、前記画像合成手段の動作を開始させる開始動作制御手段を備えることを特徴とする。 In the image synthesizing apparatus according to the sixth aspect of the present invention, start operation control means for starting the operation of the image synthesizing means on condition that the first movement vector is calculated by the movement vector calculating means. It is characterized by providing.
また、請求項7記載の発明に係る画像合成装置にあっては、前記移動ベクトル算出手段により移動ベクトルが最初に算出された移動ベクトルを記憶する記憶手段と、その後前記移動ベクトル算出手段により算出された移動ベクトルが前記記憶手段に記憶された最初の移動ベクトルとは異なる方向である場合、前記画像合成手段の動作を終了させる終了動作制御手段を備えることを特徴とする。
In the image composition device according to the invention of
また、請求項8記載の発明に係る画像合成装置にあっては、前記特徴量算出手段が特徴量を算出する所定領域は、フレーム画像における中央部の領域であることを特徴とする。
In the image composition device according to the invention described in
また、請求項2記載の発明に係る画像合成装置にあっては、前記特徴量算出手段が特徴量を算出する所定領域は、優先順位に対応して区分された複数の区分領域から構成され、前記判断手段は、前記優先順位が高い区分領域にて特徴量の算出が可能であるか否かを判断し、前記特徴量算出手段は、前記判断手段により前記優先順位が高い区分領域にて特徴量の算出が不可能であると判断された場合には、より優先順位の低い区分領域から特徴量を算出することを特徴とする。
Further, in the image composition device according to the invention of
また、請求項10記載の発明に係る画像合成装置にあっては、前記移動ベクトル積算手段は、前記判断手段により、前記特徴量算出手段が前記いずれの区分領域からも特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段により最後に算出された特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする。
In the image composition device according to the invention of
また、請求項11記載の発明に係る画像合成プログラムにあっては、前記取得手段は、操作に応答して一定の時間間隔で撮像を実行する撮像手段を備えることを特徴とする。 In the image composition program according to an eleventh aspect of the present invention, the acquisition unit includes an imaging unit that performs imaging at regular time intervals in response to an operation.
また、請求項12記載の発明に係る画像合成装置にあっては、画像合成装置が備えるコンピュータを、撮像して複数のフレーム画像を順次取得する取得手段と、この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段として機能させるとともに、前記画像抽出手段は、前記設定手段により設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする。 In the image composition device according to the twelfth aspect of the present invention, the computer included in the image composition device captures images of a plurality of frame images sequentially, and obtains each of the frame images sequentially. A feature amount calculation unit that calculates a feature amount of a predetermined region in the frame image, and a first frame image in which the feature amount is calculated based on the feature amount calculated by the feature amount calculation unit and a predetermined temporal amount Movement vector calculation means for sequentially calculating movement vectors of the second frame images having a correspondence relationship; setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means; The image extraction means for extracting the partial image having the extraction width set by the setting means from the first and / or second frame images, and the image The image extraction unit functions as an image synthesis unit that sequentially combines and combines the partial images extracted by the output unit, and the image extraction unit converts the partial image having the extraction width set by the setting unit to a predetermined reference line in the frame image. To the direction according to the movement vector.
また、請求項13記載の発明に係る画像合成プログラムにあっては、画像合成装置が備えるコンピュータを、撮像して複数のフレーム画像を順次取得する取得手段と、この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段と、前記特徴量算出手段が前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断手段として機能させるとともに、前記移動ベクトル算出手段は、前記判断手段により、前記特徴量算出手段が前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段が最後に算出した特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする。
In the image composition program according to the invention described in
また、請求項14記載の発明に係る画像合成方法にあっては、撮像して複数のフレーム画像を順次取得する取得ステップと、この取得ステップにより順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出ステップと、この特徴量算出ステップにより算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出ステップと、この移動ベクトル算出ステップにより算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定ステップと、この設定ステップにより設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出ステップと、この画像抽出ステップにより抽出された部分画像を順次結合して合成する画像合成ステップとを備え、前記画像抽出ステップは、前記設定ステップにより設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする。 In the image composition method according to the fourteenth aspect of the present invention, an acquisition step of capturing and sequentially acquiring a plurality of frame images, and a feature amount of a predetermined region in each frame image sequentially acquired by the acquisition step And a second frame having a predetermined temporal correspondence with the first frame image for which the feature value is calculated based on the feature value calculated by the feature value calculation step. The movement vector calculation step for sequentially calculating the movement vector of the image, the setting step for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation step, and the setting step An image extraction step of extracting the partial image of the extraction width from the first and / or second frame image; An image synthesis step of sequentially combining and synthesizing the partial images extracted in the output step, wherein the image extraction step extracts a partial image having an extraction width set in the setting step from a predetermined reference line in the frame image. Extracting in a direction according to the movement vector.
また、請求項15記載の発明に係る画像合成方法にあっては、撮像して複数のフレーム画像を順次取得する取得ステップと、この取得ステップにより順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出ステップと、この特徴量算出ステップにより算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出ステップと、この移動ベクトル算出ステップにより算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定ステップと、この設定ステップにより設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出ステップと、この画像抽出ステップにより抽出された部分画像を順次結合して合成する画像合成ステップと、前記特徴量算出ステップが前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断ステップとを含み、前記移動ベクトル算出ステップは、前記判断ステップにより、前記特徴量算出ステップで前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出ステップが最後に算出した特徴量に基づいて、前記算出不可能時間内において前記取得ステップにより最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする。 In the image composition method according to the fifteenth aspect of the present invention, an acquisition step of capturing and sequentially acquiring a plurality of frame images, and a feature amount of a predetermined region in each frame image sequentially acquired by the acquisition step And a second frame having a predetermined temporal correspondence with the first frame image for which the feature value is calculated based on the feature value calculated by the feature value calculation step. The movement vector calculation step for sequentially calculating the movement vector of the image, the setting step for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation step, and the setting step An image extraction step of extracting the partial image of the extraction width from the first and / or second frame image; An image synthesis step for sequentially combining and synthesizing the partial images extracted in the output step; a determination step for determining whether or not the feature amount calculation step can calculate a feature amount in the predetermined region; The movement vector calculation step includes a non-calculatable time in which it is determined by the determination step that it is impossible to calculate a feature amount in the predetermined region in the feature amount calculation step. Based on the feature amount last calculated by the feature amount calculation step, a movement vector of the frame image last acquired by the acquisition step is calculated within the uncalculatable time.
また、請求項16記載の発明に係る画像合成方法にあっては、少なくとも時間的に隣接するフレーム画像間で、被写体画像の一部が重複するように撮影された複数のフレーム画像に基づいてパノラマ画像を生成する画像合成方法であって、フレーム画像の予め設定されている所定の領域が特徴量抽出領域として不適格となる画像であったときに当該フレーム画像をパノラマ合成される画像から省きながら、順次、第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像との間で算出される移動ベクトルに基づいて部分画像を抽出するとともに、前記抽出した各部分画像を結合することでパノラマ画像を生成することを特徴とする。
In the image composition method according to the sixteenth aspect of the present invention, the panorama is based on a plurality of frame images photographed so that a part of the subject image overlaps at least between temporally adjacent frame images. An image composition method for generating an image, wherein a predetermined region of a frame image is an image that is ineligible as a feature amount extraction region, while omitting the frame image from the panoramic image The partial images are sequentially extracted based on the movement vector calculated between the first frame image and the second frame image having a predetermined temporal correspondence, and the extracted partial images are combined. In this way, a panoramic image is generated.
請求項1に係る発明によれば、設定した抽出幅の部分画像をフレーム画像における所定の基準線から移動ベクトルに応じた方向に抽出し、この抽出した部分画像を順次結合して合成することから、時間的に隣接するフレーム画像間において、抽出された前のフレーム画像からの抽出画像の終端縁と、次のフレーム画像からの抽出画像の始端縁とにおける画像を精度よく合致させることができる。したがって、撮影された画像を精度よく結合してパノラマ画像を合成することができる。 According to the first aspect of the present invention, the partial image having the set extraction width is extracted from the predetermined reference line in the frame image in the direction corresponding to the movement vector, and the extracted partial images are sequentially combined and combined. In addition, between the temporally adjacent frame images, the image at the end edge of the extracted image from the extracted previous frame image and the start edge of the extracted image from the next frame image can be accurately matched. Therefore, it is possible to combine the photographed images with high accuracy to synthesize a panoramic image.
また、請求項3に係る発明によれば、所定領域にて特徴量を算出することが可能であると判断されている算出不可能時間内においては、特徴量算出手段により最後に算出された特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することから、定領域において特徴量を算出することが不可能なフレーム画像が取得された場合であっても、支障なくパノラマ合成を行うことができる。よって、フレーム画像の構図に左右されてしまうことなく、撮影された画像を精度よく結合してパノラマ画像を合成することができる。
According to the invention of
以下、本発明の一実施の形態を図に従って説明する。
(第1の実施の形態)
図1は、本発明の各実施の形態に共通する電子カメラ1の概略構成を示すブロック図である。この電子カメラ1は、所定の画角からなるフレーム画像を撮影する機能を有するのみならず、複数のフレーム画像の各画像部分を合成してパノラマ画像を合成するパノラマ撮影機能を備えたものであって、図示しない光学系の光軸上に配置されたCCD2と、DSP/CPU3とを有している。DSP/CPU3は、JPEG方式による画像のデータの圧縮・伸張を含む各種デジタル信号処理機能を有するとともに電子カメラ1の各部を制御するワンチップマイコンである。DSP/CPU3には、CCD2を駆動するTG(Timing Generator)4が接続されており、TG4には、CCD2から出力される被写体の光学像に応じたアナログの撮像信号が入力するユニット回路5が接続されている。ユニット回路5は、入力した撮像信号を保持するCDSと、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅された撮像信号をデジタルの撮像信号に変換するA/D変換器(AD)から構成されており、CCD2の出力信号はユニット回路5を経てデジタル信号としてDSP/CPU3に送られる。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of an
また、DSP/CPU3には、表示装置6、キー入力部7、時計部8が接続されるとともに、アドレス・データバス9を介してDRAM10、内蔵フラッシュメモリ11、カード・インターフェイス12が接続されている。カード・インターフェイス12には、図示しないカメラ本体のカードスロットに着脱自在に装着されたメモリ・カード13が接続されている。
The DSP /
DRAM10は、撮影待機モードの設定時にCCD2によって撮像され、デジタル化された被写体の画像データを一時保存するバッファであるとともに、DSP/CPU3のワーキングメモリとしても使用される。DRAM10に一時保存された画像データは圧縮され、最終的にはメモリ・カード13に記録される。内蔵フラッシュメモリ11には、DSP/CPU3の動作プログラムや各部の制御に使用する各種データが記憶されており、DSP/CPU3は、前記動作プログラムに従い動作することにより本発明の取得手段、特徴量算出手段、移動ベクトル算出手段、画像抽出手段、画像合成手段、判断手段、移動ベクトル積算手段等として機能する。
The
表示装置6はカラーLCDとその駆動回路とを含み、撮影待機状態にあるときにはCCD2によって撮像された被写体画像をスルー画像として表示し、記録画像の再生時にはメモリ・カード13から読み出され伸張された記録画像を表示する。キー入力部7は、シャッターキー、電源キー、モード選択キー、十字キー等の複数の操作キーを含み、使用者によるキー操作に応じたキー入力信号をDSP/CPU3に出力する。時計部8は日付及び時刻をカウントするカレンダー機能と時計機能とを有しており、撮影動作時等に必要に応じて日付データ及び時刻データをDSP/CPU3へ送る。
The
以上の構成からなる電子カメラ1において、DSP/CPU3は、前記プログラムに従って、図2に示すフローチャートに示すように処理を実行する。すなわち、ユーザによるキー入力部7における前記モード選択キーの操作により、パノラマ撮影モードが選択されると、撮影処理を実行した後(ステップS1)、画像合成処理を実行する(ステップS1)。
In the
図3は、前記撮影処理(ステップS1)の手順を示すフローチャートである。先ず、スルー画像の表示を開始し(ステップS101)、このステップS101での処理により、表示装置6にはスルー画像が表示される。次に、シャッターキーが押下されたか否かを判断する(ステップS102)。シャッターキーが押下されたならば、撮影・記録処理を実行してCCD2からフレーム画像を取り込んでDRAM10に保存する(ステップS103)。
FIG. 3 is a flowchart showing the procedure of the photographing process (step S1). First, display of a through image is started (step S101), and the through image is displayed on the
次に、前記シャッターキーの押下が解除されたか否かを判断する(ステップS104)。シャッターキーの押下が解除されない場合には、所定時間(本実施の形態においていては、1/16秒)が経過したか否かを判断し(ステップS105)、所定時間が経過した時点で、ステップS103からの処理を繰り返す。したがって、前記シャッターキーの押下が解除されない状態においては、所定時間(1/16秒)間隔でステップS105からの処理が繰り返されることとなる。 Next, it is determined whether or not the pressing of the shutter key is released (step S104). If the pressing of the shutter key is not released, it is determined whether or not a predetermined time (1/16 second in the present embodiment) has elapsed (step S105). The processing from S103 is repeated. Therefore, in a state where the pressing of the shutter key is not released, the processing from step S105 is repeated at predetermined time (1/16 second) intervals.
よって、ユーザが繰り返しシャッターキーを操作することなく、シャッターキーの押下を継続すれば、DRAM10に所定時間をフレームレートとする複数枚分のフレーム画像が記憶させることができる。
Therefore, if the user continues to press the shutter key without repeatedly operating the shutter key, the
そして、ユーザが押下しているシャッターキーを解除するとステップS104がYESとなり、図2に示したゼネラルフローにリターンする。したがって、DRAM10には、ユーザがシャッターキーを押下してから解除するまでに所定時間(1/16秒)間隔で撮影された複数枚のフレーム画像が記憶される。このとき、ユーザはパノラマ撮影を行うべく電子カメラ1を所望の方向、例えば右方向に回動させながら撮影を行ったとすると、DRAM10には、電子カメラ1の回動方向とは逆方向の被写体が移動した複数のフレーム画像が記憶されることとなる。
When the shutter key pressed by the user is released, step S104 is YES, and the process returns to the general flow shown in FIG. Therefore, the
図4は、前記画像合成処理(ステップS2)の処理手順を示すフローチャートである。なお、ここでは、電子カメラを右方向に回動させて撮影を行うことで得た複数のフレーム画像に対して画像合成処理を行う場合について説明する。つまり、各フレーム画像間では、時間を追うに従って、被写体画像が左方向に移動していくように見える複数のフレーム画像に対して画像合成処理を行う場合について説明する。 FIG. 4 is a flowchart showing the processing procedure of the image composition processing (step S2). Here, a case will be described in which image composition processing is performed on a plurality of frame images obtained by photographing by rotating the electronic camera in the right direction. That is, a case will be described in which image composition processing is performed on a plurality of frame images that appear to move the subject image in the left direction as time elapses between the frame images.
先ず、DRAM10から記憶された順序でフレーム画像を選択する(ステップS201)。つまり、フレーム画像を撮影された順に従って選択する。 First, frame images are selected in the order stored from the DRAM 10 (step S201). That is, the frame images are selected according to the order in which they were taken.
次に、この選択したフレーム画像の特徴量を算出する(ステップS202)。この特徴量の算出に際しては、図5(A)に示すように、ステップS201で選択した今フレーム画像Xの中央付近(中央領域)に設定された複数のブロックを注目画像とする。この複数のブロックにおいて各々特徴量を算出し、特徴量が所定以上であるブロックを抽出する。この特徴量の算出においては、演算式としてHARRIS演算子を用いる。 Next, the feature amount of the selected frame image is calculated (step S202). In calculating the feature amount, as shown in FIG. 5A, a plurality of blocks set near the center (center region) of the current frame image X selected in step S201 are set as the target image. A feature amount is calculated for each of the plurality of blocks, and a block having a feature amount equal to or greater than a predetermined value is extracted. In the calculation of the feature amount, a HARRIS operator is used as an arithmetic expression.
次に、この算出した特徴量が所定以上である各ブロックと、共通の特徴量を有するブロックを図5(B)に示す次フレーム(後フレーム)画像X+1内にて探索する(ステップS203)。ここで、次フレーム(後フレーム)画像X+1は、今フレーム画像Xの次に記憶された(撮影された)フレーム画像である。そして、今フレーム画像Xと次フレーム画像X+1において、各共通の特徴量を有する対応するブロック毎にそれぞれの移動ベクトル(X軸成分、Y軸成分)を検出する。さらに、この検出した各移動ベクトルの例えば平均値を算出することにより、フレーム全体の移動ベクトルを算出する(ステップS204)。つまり、今フレーム画像Xから次フレーム画像X+1への被写体画像の移動ベクトルとして算出する。 Next, each block whose calculated feature quantity is greater than or equal to a predetermined block and a block having a common feature quantity are searched for in the next frame (rear frame) image X + 1 shown in FIG. 5B (step S203). Here, the next frame (rear frame) image X + 1 is a frame image stored (captured) next to the current frame image X. Then, in the current frame image X and the next frame image X + 1, each movement vector (X-axis component, Y-axis component) is detected for each corresponding block having each common feature amount. Further, by calculating, for example, an average value of the detected movement vectors, the movement vector of the entire frame is calculated (step S204). That is, the movement vector of the subject image from the current frame image X to the next frame image X + 1 is calculated.
次に、抽出する部分画像の幅である抽出幅を設定する(ステップS205)。この抽出幅の設定は、前記フレーム全体の移動ベクトルから予め設定されている移動方向成分を抽出し、この抽出した移動方向成分に基づいて、図6(C)に示す内蔵フラッシュメモリ11に予め記憶されている変換テーブル112から読み出すことで行われる。
Next, an extraction width that is the width of the partial image to be extracted is set (step S205). The extraction width is set by extracting a preset movement direction component from the movement vector of the entire frame, and storing it in the built-in
本実施の形態の場合、左右方向のパノラマ合成画像を生成するものとし、前記フレーム全体の移動ベクトルから左右方向成分(X軸方向成分)、つまり、例えば被写体画像の左方向への移動量を抽出し、この移動量に対応する抽出幅Wを読み出すことにより行う。 In the case of the present embodiment, a panorama composite image in the left-right direction is generated, and a left-right direction component (X-axis direction component), that is, an amount of movement of the subject image in the left direction, for example, is extracted from the movement vector of the entire frame. Then, the extraction width W corresponding to this movement amount is read out.
引き続き、今フレーム画像Xの所定の中心線を基準として、今フレーム画像Xから前記抽出幅で画像を抽出する(ステップS206)。すなわち、図6(B)に示すように、先ずフレームの中心点を通る直線であって、前記抽出された移動方向成分と直交する方向(ここではY軸方向)に走る中心線Cを今フレーム画像X上に設定する。そして、今フレーム画像Xにおいて前記中心線Cから、移動ベクトルとは逆方向である電子カメラ1の回動方向(ここでは右方向)に前記抽出幅W分の画像の部分画像XPを抽出する。つまり、今フレーム画像から部分画像を抽出する場合には、中心線Cを基準として、移動ベクトルとは逆方向(電子カメラ1の回動方向)に部分画像XPを抽出する。
Subsequently, an image is extracted from the current frame image X with the extraction width with reference to a predetermined center line of the current frame image X (step S206). That is, as shown in FIG. 6B, first, a center line C that is a straight line passing through the center point of the frame and runs in a direction orthogonal to the extracted moving direction component (here, the Y-axis direction) is the current frame. Set on image X. Then, the partial image XP of the image corresponding to the extraction width W is extracted from the center line C in the current frame image X in the rotation direction (here, the right direction) of the
しかる後に、図6(A)に示すように、この抽出した部分画像XPをこの時点までに合成されているパノラマ合成画像XSの移動ベクトルとは逆方向の後端部、つまり電子カメラ1の回動方向の後端部(ここでは右側)に結合させて合成する(ステップS207)。
Thereafter, as shown in FIG. 6 (A), the extracted partial image XP is rearward in the direction opposite to the movement vector of the panoramic composite image XS synthesized up to this point, that is, the time of the
引き続き、DRAM10に記憶された最後−1のフレーム画像まで以上の特徴量算出にかかる処理を行ったか否かを判断し(ステップS208)、最後−1までのフレーム画像に対しての処理が終了するまで、ステップS201からの処理を繰り返す。 Subsequently, it is determined whether or not the above processing for calculating the feature amount has been performed up to the last −1 frame image stored in the DRAM 10 (step S208), and the processing for the last −1 frame image is completed. Until this, the processing from step S201 is repeated.
このようなパノラマ画像合成を行うことにより、光学系により結像される画像において、両側の歪みがある部分が抽出されることなく、歪みのない中央部の画像部分を抽出して合成することができる。その結果、パノラマ合成画像XSを全域に亙って歪みのないものにすることができる。 By performing such panoramic image synthesis, in the image formed by the optical system, it is possible to extract and synthesize the central image portion without distortion without extracting the portions with distortion on both sides. it can. As a result, it is possible to make the panorama composite image XS free from distortion over the entire area.
また、各フレーム画像から基準となる同一の中心線Cから移動ベクトルの大きさに応じた抽出幅で抽出すれば、時間的に隣接するフレーム画像間において、抽出された前のフレーム画像からの抽出画像の終端縁と、次のフレーム画像からの抽出画像の始端縁とにおける画像を精度よく合致させることができる。したがって、時間的に隣接して撮影された画像を精度よく結合してパノラマ画像を合成することができる。 If each frame image is extracted from the same center line C as a reference with an extraction width corresponding to the magnitude of the movement vector, extraction from the previous frame image extracted between temporally adjacent frame images is performed. It is possible to accurately match the image at the end edge of the image and the start edge of the extracted image from the next frame image. Therefore, it is possible to combine panoramic images by accurately combining images taken adjacent in time.
なお、ステップS207における画像合成において、パノラマ合成画像XSに抽出した部分画像XPの端部を結合合成する際の、上下方向の位置合わせは、移動ベクトルの上下方向成分に応じて部分画像XPを上下に移動調整することにより行う。したがって、ユーザが電子カメラ1を構えて右方向に回動させた場合であっても、当該電子カメラ1には不可避的に上下方向の振動が生ずるときには、パノラマ合成画像XSは図7に示すように上下にずれた部分画像の結合体となる。
In the image composition in step S207, the vertical alignment when combining and synthesizing the end of the partial image XP extracted to the panorama composite image XS is performed by moving the partial image XP up and down according to the vertical component of the movement vector. This is done by adjusting the movement. Therefore, even when the user holds the
そして、最後−1のフレーム画像までステップS201〜207が実行されることによりステップS208の判断がYESとなると、このステップS208に続くステップS209において、切り出し・記憶処理を実行する。この切り出し・記憶処理においては、図7に示すように、最後のステップS207の処理までに結合合成されたパノラマ合成画像XSから、結合方向に沿った所定幅の画像部分を切り出し、この切り出した画像部分を最終的なパノラマ合成画像XEとして、メモリ・カード13に記録する。
If the determination in step S208 is YES by executing steps S201 to 207 up to the last −1 frame image, the cutout / storage process is executed in step S209 following step S208. In this cutout / storing process, as shown in FIG. 7, an image portion having a predetermined width along the joining direction is cut out from the panorama composite image XS combined and synthesized up to the last step S207. The portion is recorded on the
つまり、前述のように、ユーザが電子カメラ1を構えて右方向に回動させた場合であっても、当該電子カメラ1には不可避的に上下方向の振動が生ずることから、パノラマ合成画像XSは図7に示すように上下にずれた部分画像の結合体となる。したがって、結合方向に沿った所定幅の画像部分を切り出し、この切り出した画像部分を最終的なパノラマ合成画像XEとして、メモリ・カード13に記録することにより、周部に凹凸のないパノラマ合成画像XEを記録保存することができる。
That is, as described above, even when the user holds the
なお、本実施の形態においては、フレームの中心点を通る直線である中心線Cを基準に合成する部分画像の抽出を行うようにしたが、基準線は中心線Cに限ることなく、中心部付近であれば、側部に若干ずれた位置であってもよい。特に、ユーザに電子カメラを回動させる方向を予め定めていて、更に、上述したように、今フレーム画像における特徴量を用いて次フレーム内を探索した移動ベクトルに基づいて今フレーム画像内から部分画像を抽出するような場合には、基準線は、電子カメラの回動方向とは逆方向にずれた位置に予め設定しておくことが好ましい。つまり、今フレーム画像から部分画像を抽出する場合には、中心線Cを基準として、移動ベクトルとは逆方向(電子カメラ1の回動方向)に部分画像XPを抽出するため、基準線を電子カメラの回動方向とは逆方向にずれた位置に予め設定しておけば、フレーム画像の中心領域を部分画像に含むように抽出することができる。
なお、ユーザに電子カメラを回動させる方向は、ユーザがキー入力部7により予め任意に設定できる構成としていてもよい。
In the present embodiment, the partial image to be synthesized is extracted based on the center line C that is a straight line passing through the center point of the frame. However, the reference line is not limited to the center line C, and the center portion If it is near, the position may be slightly shifted to the side. In particular, the direction in which the user rotates the electronic camera is determined in advance. Further, as described above, a part from the current frame image based on the movement vector searched for in the next frame using the feature amount in the current frame image. When extracting an image, the reference line is preferably set in advance at a position shifted in the direction opposite to the rotation direction of the electronic camera. That is, when the partial image is extracted from the current frame image, the partial image XP is extracted in the direction opposite to the movement vector (the rotation direction of the electronic camera 1) with the center line C as a reference. If a position shifted in the direction opposite to the camera rotation direction is set in advance, it is possible to extract the central region of the frame image so as to be included in the partial image.
Note that the direction in which the user rotates the electronic camera may be configured to be arbitrarily set in advance by the user using the
また、本実施の形態においては、今フレーム画像Xから合成する部分画像の抽出を行うようにしたが、次フレーム画像X+1から前記抽出幅で抽出してもよい。なお、次フレーム画像X+1から前記抽出幅で抽出する場合には、次フレーム画像X+1の所定の中心線を基準として、次フレーム画像X+1から前記抽出幅で画像を抽出するが、このとき、次フレーム画像X+1において前記中心線Cから、移動ベクトルの方向、即ち、電子カメラ1の回動方向とは逆方向(ここでは左方向)に前記抽出幅W分の画像の部分画像XPを抽出する。そして、特に、ユーザに電子カメラを回動させる方向を予め定めている場合には、基準線は、電子カメラの回動方向にずれた位置に予め設定しておくことが好ましい。つまり、次フレーム画像から部分画像を抽出する場合には、中心線Cを基準として、移動ベクトルの方向(電子カメラ1の回動方向とは逆方向)に部分画像XPを抽出するため、基準線を電子カメラの回動方向にずれた位置に予め設定しておけば、フレーム画像の中心領域を部分画像に含むように抽出することができる。なお、ユーザに電子カメラを回動させる方向は、ユーザがキー入力部7により予め任意に設定できる構成としていてもよい。
Further, in the present embodiment, the partial image to be synthesized from the current frame image X is extracted, but it may be extracted from the next frame image X + 1 with the extraction width. When extracting from the next frame image X + 1 with the extraction width, an image is extracted with the extraction width from the next frame image X + 1 with reference to a predetermined center line of the next frame
(第2の実施の形態)
図8は、本発明の第2の実施の形態において、前記プログラム等とともに内蔵フラッシュメモリ11に記憶されている優先順位テーブル111を示す図である。そして、本実施の形態の場合、左右方向のパノラマ合成画像を生成するものとし、この優先順位テーブル111には、後述する移動ベクトルが左方向である(移動ベクトルに左方向の成分を含む)パノラマ撮影の場合のデータ(A)と、移動ベクトルが右方向である(移動ベクトルに右方向の成分を含む)パノラマ撮影の場合のデータ(B)とで構成されている。
(Second Embodiment)
FIG. 8 is a diagram showing a priority table 111 stored in the built-in
データ(A)としては、検出予測される移動ベクトルが左方向である場合の、つまり、電子カメラの回動方向が右方向である場合の、今回選択された今フレームXにおいて特徴量を抽出するための優先順位1〜4となる領域(特徴量抽出領域)が記憶されている。この優先順位1〜4は、中央領域が優先順位1である。また、この中央領域から左に行くに従って優先順位が低下するように設定され、優先順位4の領域は、前記光学系により結像される画像の歪みがあるため、本来は特徴量抽出に用いたくない領域である。
As the data (A), when the motion vector to be detected and predicted is the left direction, that is, when the rotation direction of the electronic camera is the right direction, the feature amount is extracted in the current frame X selected this time. For this reason, areas (feature amount extraction areas) having
そして、本実施の形態においては、後述するステップS302で説明するように、優先順位1である中央領域を最優先にして、可能である限り中央領域から特徴量の抽出を行うようにしている。よって、光学系により結像される画像の歪みない部分の画像領域を特徴量算出のための優先的な領域とすることができ、これにより、特徴量の算出を適正に行うことができる。
In this embodiment, as will be described later in step S302, the central
また、データ(B)としては、検出予測される移動ベクトルが右方向である場合の、つまり、電子カメラの回動方向が左方向である場合の、今回選択された今フレームPXにおいて特徴量を抽出するための優先順位1〜4となる領域(特徴量抽出領域)が記憶されている。この優先順位1〜4は、中央領域が優先順位1であり、この中央領域から右に行くに従って優先順位が低下するように設定され、優先順位4の領域は、前記光学系により結像される画像の歪みがあるため、本来は特徴量抽出に用いたくない領域である。
Further, as data (B), when the motion vector to be detected and predicted is the right direction, that is, when the rotation direction of the electronic camera is the left direction, the feature amount in the present frame PX selected this time is A region (feature amount extraction region) having
なお、本実施の形態においては、移動ベクトルが左方向である場合と右方向である場合のデータ(A)(B)のみを記憶させておくようにしたが、上方向である場合と下方向である場合の同様のデータを記憶させておくようにしてもよい。 In the present embodiment, only the data (A) and (B) when the movement vector is in the left direction and in the right direction are stored. Similar data in the case of the above may be stored.
図9は、第2の実施の形態における前記画像合成処理(ステップS2)の処理手順を示すフローチャートである。なお、ここでは、電子カメラの回動方向が左右方向のうち特に右方向である場合について説明する。先ず、DRAM10から記憶された順序でフレーム画像を選択する(ステップS301)。次に、この選択したフレーム画像において、上述の優先順位に従って特徴量を算出する(ステップS302)。 FIG. 9 is a flowchart showing a processing procedure of the image composition processing (step S2) in the second embodiment. Here, a case will be described in which the rotation direction of the electronic camera is the right direction among the left and right directions. First, frame images are selected in the order stored from the DRAM 10 (step S301). Next, in the selected frame image, a feature amount is calculated according to the above-described priority order (step S302).
このステップS3の処理においては、優先順位を規定するためのカウンタNの値に初期値「1」を設定し、前フレームにおける優先順位N領域で特徴量を算出可能であるか否かを判断する。すなわち、N=1であるならば、図8(A)に示したように、今フレーム画像Xにおける中央領域である優先順位1領域を、前述したステップS202での処理と同様に、複数のブロックに区分する。そして、この複数のブロックにおいて各々特徴量の算出を実行した結果に基づき、特徴量を算出することが可能であるか(又は、特徴量が所定以上であるブロックがあるか否か)を判断する。
In the process of step S3, an initial value “1” is set as the value of the counter N for defining the priority order, and it is determined whether or not the feature amount can be calculated in the priority order N region in the previous frame. . That is, if N = 1, as shown in FIG. 8A, the
このとき、今フレーム画像Xにおける優先順位1領域に、例えば白色の幅広い柱や壁が撮影されている場合には、当該優先順位1領域内のいずれのブロックでも特徴量を算出することが不可能となる。したがって、この場合には、カウンタNの値をインクリメントして優先順位2領域に対して同様の処理を行う。また、当該優先順位2領域内のいずれのブロックでも特徴量を算出することが不可能である場合には、順次優先順位3、4領域に対して同様の処理を行う。
At this time, if, for example, a wide white column or wall is photographed in the
したがって、優先順位1領域内のいずれのブロックでも特徴量を算出することが不可能である場合であっても、他の領域を用いて特徴量の算出を行うことができる。
Therefore, even if it is impossible to calculate the feature amount in any block in the
次に、優先順位1〜4のいずれかの領域で所定以上の特徴量が算出できたか否かを判断する(ステップS303)。算出できた場合には、後述する更新移動ベクトルが記憶されているか否かを判断する(ステップS303)。記憶されていない場合には、ステップS305〜S310において、前述した第1の実施の形態におけるステップS203〜208と同様の処理を実行する。
Next, it is determined whether or not a feature amount greater than or equal to a predetermined value has been calculated in any of the
すなわち、ステップS303で算出した特徴量が所定以上である各ブロックと、共通の特徴量を有するブロックを図10(ロ)に示す次フレーム(後フレーム)画像X+1内にて探索する(ステップS305)。つまり、図10(イ)において今フレーム画像Xが「(1)」であり特徴量が「a」であるならば、図10(ロ)の次フレームX+1においてフレーム画像(2)内にて特徴量「a」を探索する。 That is, each block whose feature value calculated in step S303 is equal to or greater than a predetermined block and a block having a common feature value are searched in the next frame (rear frame) image X + 1 shown in FIG. 10B (step S305). . That is, if the current frame image X is “(1)” and the feature amount is “a” in FIG. 10A, the feature in the frame image (2) in the next frame X + 1 in FIG. Search for the quantity “a”.
そして、今フレーム画像X(1)と次フレーム画像X+1(2)において、各共通の特徴量aを有する対応するブロック毎にそれぞれの移動ベクトル(X軸成分、Y軸成分)を検出する。さらに、この検出した各移動ベクトルの例えば平均値を算出することにより、フレーム全体の移動ベクトル(A)を算出する(ステップS306)。 Then, in the current frame image X (1) and the next frame image X + 1 (2), each movement vector (X-axis component, Y-axis component) is detected for each corresponding block having each common feature amount a. Further, by calculating, for example, an average value of the detected movement vectors, the movement vector (A) of the entire frame is calculated (step S306).
次に、抽出する部分画像の幅である抽出幅を設定する(ステップS307)。この抽出幅の設定は、前記フレーム全体の移動ベクトルから予め設定されている移動方向成分を抽出し、この抽出した移動方向成分に基づいて、図6(C)に示す内蔵フラッシュメモリ11に予め記憶されている変換テーブル112から読み出すことで行われる。
Next, an extraction width that is the width of the partial image to be extracted is set (step S307). The extraction width is set by extracting a preset movement direction component from the movement vector of the entire frame, and storing it in the built-in
本実施の形態の場合、左右方向のパノラマ合成画像を生成するものとし、前記フレーム全体の移動ベクトルから左右方向成分(X軸方向成分)、つまり、例えば被写体画像の左方向への移動量を抽出し、この移動量に対応する抽出幅Wを読み出すことにより行う。 In the case of the present embodiment, a panorama composite image in the left-right direction is generated, and a left-right direction component (X-axis direction component), that is, an amount of movement of the subject image in the left direction, for example, is extracted from the movement vector of the entire frame. Then, the extraction width W corresponding to this movement amount is read out.
引き続き、今フレーム画像Xの所定の中心線を基準として、今フレーム画像Xから前記抽出幅で画像を抽出する(ステップS308)。すなわち、図10(ハ)に示すように、先ずフレームの中心付近を通る直線であって、前記抽出された移動方向成分と直交する方向(ここではY軸方向)に走る基準線Lを今フレーム画像X上に設定する。そして、今フレーム画像Xにおいて前記基準線Lから、移動ベクトルとは逆方向である電子カメラ1の回動方向(ここでは右方向)に前記抽出幅W分の画像の部分画像XPを抽出する。つまり、今フレーム画像から部分画像を抽出する場合には、基準線Lを基準として、移動ベクトルとは逆方向(電子カメラ1の回動方向)に部分画像XPを抽出する。
Subsequently, an image is extracted from the current frame image X with the extraction width with reference to a predetermined center line of the current frame image X (step S308). That is, as shown in FIG. 10C, first, a reference line L that runs in a direction (in this case, the Y-axis direction) that is a straight line passing through the vicinity of the center of the frame and that is orthogonal to the extracted movement direction component is set to the current frame. Set on image X. Then, the partial image XP of the image corresponding to the extraction width W is extracted from the reference line L in the current frame image X in the rotation direction of the
しかる後に、図6(A)に示すように、この抽出した部分画像XPをこの時点までに合成されているパノラマ合成画像XSの移動ベクトルとは逆方向の後端部、つまり電子カメラ1の回動方向の後端部(ここでは右側)に結合させて合成する(ステップS309)。
Thereafter, as shown in FIG. 6 (A), the extracted partial image XP is rearward in the direction opposite to the movement vector of the panoramic composite image XS synthesized up to this point, that is, the time of the
引き続き、DRAM10に記憶された最後−1のフレーム画像−1まで以上の処理を行ったか否かを判断し(ステップS310)、最後−1までのフレーム画像に対しての処理が終了するまで、ステップS301からの処理を繰り返す。 Subsequently, it is determined whether or not the above processing has been performed up to the last -1 frame image-1 stored in the DRAM 10 (step S310), and the steps until the processing for the last -1 frame image is completed. The processing from S301 is repeated.
すなわち、図10(イ)の(1)〜(6)に示すように、優先順位1〜4領域のいずれかに「特徴量の抽出不適格被写体」以外の被写体が撮影されている場合には、ステップS303の判断がYESとなり、かつ、ステップS304の判断がNOとなる。したがって、ステップS301〜S310のループが繰り返されることとなり、ステップS205での処理により、今フレーム画像(1)〜(6)に対応する図10(ロ)の次フレーム画像(2)〜(7)内にて特徴量a,b,c,d,e,fが各々探索されて、ステップS206での処理により、移動ベクトルA,B,C,D,E,Fが算出される。
That is, as shown in (1) to (6) of FIG. 10A, when a subject other than the “feature feature extraction inappropriate subject” is photographed in any of the
そして、ステップS307及びステップS308での処理により、図10(ハ)に示すように、今フレーム画像(1)〜(6)から、各々移動ベクトルA,B,C,D,E,Fに応じた抽出幅で基準線Lより部分画像WA,WB,WC,WD,WE,WFが抽出される。また、ステップS309での処理により、これら部分画像WA,WB,WC,WD,WEが結合合成されることとなり、また後述する部分画像WFもこの時点においては結合合成される。 Then, by the processing in step S307 and step S308, as shown in FIG. 10 (c), from the current frame images (1) to (6), according to the movement vectors A, B, C, D, E, and F, respectively. The partial images WA, WB, WC, WD, WE, and WF are extracted from the reference line L with the extracted width. The partial images WA, WB, WC, WD, and WE are combined and combined by the processing in step S309, and the partial image WF described later is also combined and combined at this point.
しかし、図10(イ)の今フレーム画像(7)のように、優先順位1〜4領域の全てに「特徴量の抽出不適格被写体」が撮影されている場合には、優先順位1〜4領域のいずれにおいても所定以上の特徴量の算出ができず、ステップS303の判断はNOとなる。したがって、ステップS303からステップS311に進み、最後に算出された特徴量に基づき、次フレーム画像X+1(ステップS301で選択された今フレーム画像Xの次のフレーム画像)内を探索する(ステップS311)。
However, as shown in the current frame image (7) in FIG. 10 (a), when “feature feature extraction ineligible subjects” are photographed in all of the
つまり、最後に算出された特徴量は、図10(イ)のフレーム画像(6)であることから、このフレーム画像(6)の特徴量fに基づき、次フレーム画像X+1である図10(ロ)のフレーム画像(8)内を探索する。そして、前述のステップS306と同様に、次フレーム画像X+1(フレーム画像(8))全体の移動ベクトルを算出する(ステップS306)。また、この算出した移動ベクトルをDRAM10に更新しつつ記憶し(ステップS313)、ステップS301に戻る。したがって、このとき算出された移動ベクトルが図10(ロ)の(8)に示すように、「G」であったとすると、ステップS313での処理により、「移動ベクトルG」がDRAM10に記憶されることとなる。
That is, since the feature amount calculated last is the frame image (6) in FIG. 10 (a), the next frame image X + 1 in FIG. 10 (b) is based on the feature amount f of the frame image (6). ) In the frame image (8). Then, similarly to step S306 described above, the movement vector of the entire next frame image X + 1 (frame image (8)) is calculated (step S306). The calculated movement vector is stored in the
また、再度ステップS301からの処理が実行されると、該ステップS301で図10(イ)のフレーム画像(7)に続くフレーム画像(8)が今フレーム画像Xとして選択されることとなる。しかし、このフレーム画像X(8)も優先順位1〜4領域の全てに「特徴量の抽出不適格被写体」が撮影されていることから、優先順位1〜4領域のいずれにおいても所定以上の特徴量の算出ができず、ステップS303の判断はNOとなる。
When the processing from step S301 is executed again, the frame image (8) following the frame image (7) in FIG. 10 (a) is selected as the current frame image X in step S301. However, since the frame image X (8) also has “feature feature extraction ineligible subjects” in all of the
したがって、ステップS303からステップS311に進み、最後に算出された特徴量に基づき、次フレーム画像X+1(ステップS301で選択された今フレーム画像Xの次のフレーム画像)内を探索する(ステップS311)。このとき、最後に算出された特徴量は、前述と同様に図10(イ)のフレーム画像(6)からであることから、このフレーム画像(6)の特徴量fに基づき、次フレーム画像X+1である図10(ロ)のフレーム画像(9)内を探索する。そして、前述のステップS306と同様に、次フレーム画像X+1(フレーム画像(9))全体の移動ベクトルを算出する(ステップS306)。また、この算出した移動ベクトルをDRAM10に更新しつつ記憶し(ステップS313)、ステップS301に戻る。したがって、このとき算出された移動ベクトルが図10(ロ)の(9)に示すように、「H」であったとすると、ステップS313での処理により、前記「移動ベクトルG」に代わって「移動ベクトルH」がDRAM10に記憶されることとなる。
Accordingly, the process proceeds from step S303 to step S311, and the next frame image X + 1 (the next frame image of the current frame image X selected in step S301) is searched based on the feature amount calculated last (step S311). At this time, since the feature amount calculated last is from the frame image (6) of FIG. 10 (a) as described above, the next frame image X + 1 is based on the feature amount f of the frame image (6). A search is made in the frame image (9) of FIG. Then, similarly to step S306 described above, the movement vector of the entire next frame image X + 1 (frame image (9)) is calculated (step S306). The calculated movement vector is stored in the
また、再度ステップS301からの処理が実行されると、該ステップS301で図10(イ)のフレーム画像(8)に続くフレーム画像(9)が今フレーム画像Xとして選択されることとなる。このフレーム画像X(9)は優先順位4領域において「特徴量g」が算出可能であることから、ステップS303の判断はYESとなる。よって、ステップS303からステップS304に進み、更新移動ベクトルがあるか否か、つまり前記ステップS313でDRAM10に記憶された移動ベクトルである、更新移動ベクトルがあるか否かを判断する。
When the processing from step S301 is executed again, the frame image (9) following the frame image (8) in FIG. 10 (a) is selected as the current frame image X in step S301. Since this frame image X (9) can calculate the “feature amount g” in the
本例においては、ステップS303の処理が2回行われ、DRAM10には2回目の更新移動ベクトルHが記憶されている。したがって、ステップS304の判断がYESとなり、ステップS304からステップS314に進み、記憶されている更新移動ベクトルHを読み出す(ステップS314)。次に、抽出する部分画像の幅である抽出幅を設定する(ステップS315)。この抽出幅の設定は、図6(C)に示す内蔵フラッシュメモリ11に予め記憶されている変換テーブル112から、前記更新移動ベクトルHの移動方向成分の大きさ(本例の場合、左方向成分の大きさ)に対応する抽出幅Wを読み出すことにより行う。
In this example, the process of step S303 is performed twice, and the
引き続き、最後に部分画像が抽出されたフレーム画像において、基準線Lから前記抽出幅で画像を抽出する(ステップS316)。すなわち、本例においては図10(ハ)に示すように、最後に部分画像が抽出されたフレーム画像は、部分画像Fが抽出されたフレーム画像(6)である。よって、図10(ニ)に示すように、先ずフレームの中心付近を通る直線であって、前記移動ベクトルと直交する方向の基準線Lをフレーム画像(6)上に設定する。そして、フレーム画像(6)において前記基準線Lから、移動ベクトルとは逆方向である電子カメラ1の回動方向に前記抽出幅W分の画像の部分画像WHを抽出する。
Subsequently, in the frame image from which the partial image is finally extracted, an image is extracted with the extraction width from the reference line L (step S316). That is, in this example, as shown in FIG. 10C, the frame image from which the partial image is extracted last is the frame image (6) from which the partial image F is extracted. Therefore, as shown in FIG. 10 (d), first, a reference line L that is a straight line passing through the vicinity of the center of the frame and orthogonal to the movement vector is set on the frame image (6). Then, a partial image WH of the image corresponding to the extraction width W is extracted from the reference line L in the frame image (6) in the rotation direction of the
しかる後に、この部分画像WHをこの時点までに合成されているパノラマ合成画像の最後に合成された部分画像上に上書き合成する(ステップS317)。すなわち、前述のように、図10(イ)のフレーム画像(1)〜(6)の場合には、今フレーム画像(1)〜(6)から、各々移動ベクトルA,B,C,D,E,Fに応じた抽出幅で基準線Lより部分画像WA,WB,WC,WD,WE,WFが抽出されて、ステップS309での処理により、これら部分画像WA,WB,WC,WD,WE,WFが結合合成されている。これら部分画像WA,WB,WC,WD,WE,WFからなる合成済画像において、最後に合成された部分画像は部分画像WFである。したがって、部分画像WFに部分画像WHが上書き合成されることにより、図10(ホ)に示すように、部分画像WEに部分画像WHが結合された状態となる。 Thereafter, this partial image WH is overwritten and synthesized on the last synthesized partial image of the panorama synthesized image synthesized up to this point (step S317). That is, as described above, in the case of the frame images (1) to (6) in FIG. 10 (a), the movement vectors A, B, C, D, Partial images WA, WB, WC, WD, WE, and WF are extracted from the reference line L with an extraction width corresponding to E and F, and the partial images WA, WB, WC, WD, and WE are extracted by processing in step S309. , WF are combined and synthesized. Of the combined images composed of these partial images WA, WB, WC, WD, WE, and WF, the last combined partial image is a partial image WF. Therefore, when the partial image WH is overwritten and combined with the partial image WF, the partial image WH is combined with the partial image WE as shown in FIG.
しかる後に、ステップS317からステップS305に進み、前述したステップS305以降の処理を実行する。したがって、ステップS305では、図10(イ)のフレーム画像(9)の特徴量gに基づいて、次フレーム画像X+1である図10(ロ)のフレーム画像(10)が探索され、ステップS306でその移動ベクトルIが算出され、ステップS307で移動ベクトルに応じた幅Wが設定され、ステップS308で今フレーム画像Xである図10(ロ)のフレーム画像(9)において基準線Lから部分画像WIが抽出され、ステップS309で、端部に部分画像WHを有する合成済画像に部分画像WIが結合合成されることとなる。 Thereafter, the process proceeds from step S317 to step S305, and the processes after step S305 described above are executed. Therefore, in step S305, the next frame image X + 1, which is the frame image (10) of FIG. 10 (b), is searched based on the feature amount g of the frame image (9) of FIG. 10 (b). The movement vector I is calculated, a width W corresponding to the movement vector is set in step S307, and in step S308, the partial image WI is extracted from the reference line L in the frame image (9) of FIG. In step S309, the partial image WI is combined and combined with the combined image having the partial image WH at the end.
また、図10(イ)の(10)〜(14)に示すように、優先順位1〜4領域のいずれかに「特徴量の抽出不適格被写体」以外の被写体が撮影されている場合には、ステップS303の判断がYESとなり、かつ、ステップS304の判断がNOとなる。したがって、ステップS301〜S310のループが繰り返される。 Further, as shown in (10) to (14) of FIG. 10 (a), when a subject other than the “feature feature extraction ineligible subject” is photographed in any of the priority order 1-4 regions. The determination in step S303 is YES, and the determination in step S304 is NO. Therefore, the loop of steps S301 to S310 is repeated.
そして、DRAM10に図10(イ)に示す15枚のフレーム画像(1)〜(15)が記憶されている場合、最後−1であるフレーム画像(14)がステップS301で選択されると、ステップS310の判断がYESとなる。よって、ステップS310からステップS318に進み、前述したステップS209と同一の処理である切り出し・記憶処理を実行する。これにより、図10(ホ)に示すように、「WA−WB−WC−WD−WE−WH−WI−WJ−WK−WL−WM−WN」の部分画像を合成した最終的に得られるパノラマ画像がメモリ・カード13に格納されることとなる。
When the 15 frame images (1) to (15) shown in FIG. 10A are stored in the
つまり、本実施の形態では、少なくとも時間的に隣接するフレーム画像間で、被写体画像の一部が重複するように撮影された複数のフレーム画像に基づいてパノラマ画像を生成する場合に、フレーム画像の予め設定されている所定の領域が特徴量抽出領域として不適格となる画像であったときに当該フレーム画像をパノラマ合成される画像から省きながら、順次、第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像との間で算出される移動ベクトルに基づいて部分画像を抽出するとともに、前記抽出した各部分画像を結合することでパノラマ画像を生成している。 That is, in this embodiment, when generating a panoramic image based on a plurality of frame images that are captured so that a part of the subject image overlaps at least between temporally adjacent frame images, When the predetermined region set in advance is an image that is ineligible as a feature amount extraction region, the frame image is omitted from the panorama synthesized image, and sequentially corresponds to the first frame image for a predetermined time. A partial image is extracted based on a movement vector calculated between the second frame images having a relationship, and a panoramic image is generated by combining the extracted partial images.
なお、本実施の形態においては、今フレーム画像Xから部分画像を抽出するようにしたが、図11に示すように、次フレーム画像X+1から部分画像を抽出するようにしてもよい。この場合、図11(ハ)に示すように、各部分画像WA,WB,WC,WD・・・は、次フレーム画像(2)(3)(4)(5)・・・において、移動ベクトル方向(電子カメラ1の移動方向とは逆方向)に切り出せばよい。
In the present embodiment, the partial image is extracted from the current frame image X. However, as shown in FIG. 11, the partial image may be extracted from the next frame
また、本実施の形態においては、部分画像を抽出した直後にこの部分画像を合成済画像に合成するようにしたが、抽出した部分画像を保存しておき、次の特徴量が検出された時点で、保存しておいた部分画像を合成済画像に合成するようにしてもよい。このようにすれば、ステップS317に示したように、部分画像をこの時点までに合成されているパノラマ合成画像の最後に合成された部分画像上に上書きすることなく、結合合成することにより、パノラマ合成画像を得ることができる。 In the present embodiment, the partial image is synthesized with the synthesized image immediately after the partial image is extracted, but the extracted partial image is stored and the next feature amount is detected. Thus, the stored partial image may be combined with the combined image. In this way, as shown in step S317, the panorama image is combined and synthesized without overwriting the partial image synthesized at the end of the panorama synthesized image synthesized up to this point, so that the panorama is combined. A composite image can be obtained.
また、上述の各実施の形態においては、左右方向のパノラマ合成画像を生成するものとして説明したが、上下方向のパノラマ合成画像を生成する場合にも適用できる。 Further, in each of the above-described embodiments, it has been described that a panoramic composite image in the left-right direction is generated. However, the present invention can also be applied to a case where a panoramic composite image in the vertical direction is generated.
また、各実施の形態においては、図4及び図9のフローチャートに示したように、DRAM10に記憶された最初のフレーム画像から合成対象として画像合成処理を開始するようにした。しかし、画像合成処理の冒頭において特徴量の算出及び移動ベクトルの算出を実行し、所定以上の移動ベクトルが最初に算出されたことを条件として、ステップS201以降の処理、あるいはステップS301からの処理を実行するようにしてもよい。
In each embodiment, as shown in the flowcharts of FIGS. 4 and 9, the image synthesis process is started as a synthesis target from the first frame image stored in the
これにより、ユーザが電子カメラ1を回動させたか否か、つまりユーザがパノラマ撮影を開始する意図を持って電子カメラ1を回動し始めたか検出することができる。よって、ユーザがパノラマ撮影を開始する意図を持って電子カメラ1を回動し始める前の不要な画像を用いてパノラマ画像合成処理等が実行される不都合を未然に防止することができる。
This makes it possible to detect whether or not the user has rotated the
なお、このとき、検出された所定以上の移動ベクトルの方向に基づいて、電子カメラの回動方向が、上下左右方向の何れであるかを検出し、この検出された電子カメラの回動方向に応じたパノラマ合成画像の生成処理を行う構成としてもよい。つまり、例えば、電子カメラの回動方向が左方向または右方向であったときには、左右方向のパノラマ合成画像を生成し、上方向または下方向であったときには、上下方向のパノラマ合成画像を生成する構成としてもよい。また、例えば、電子カメラの回動方向が右方向であると検出されたときには、例えば特徴量の抽出領域の優先順位を上述した図8(A)に設定し、左方向であると検出されたときには、例えば特徴量の抽出領域の優先順位を上述した図8(B)に設定する構成とすればよい。 At this time, based on the detected direction of the predetermined or larger movement vector, it is detected whether the rotation direction of the electronic camera is the up / down / left / right direction, and the detected rotation direction of the electronic camera is detected. It may be configured to perform a corresponding panorama composite image generation process. That is, for example, when the rotation direction of the electronic camera is the left direction or the right direction, a panoramic composite image in the left-right direction is generated, and when it is upward or downward, a panoramic composite image in the vertical direction is generated. It is good also as a structure. For example, when it is detected that the rotation direction of the electronic camera is the right direction, for example, the priority order of the feature amount extraction region is set in FIG. 8A described above, and the left direction is detected. In some cases, for example, the priority order of the feature amount extraction regions may be set in the above-described FIG.
また、各実施の形態においては、図4及び図9のフローチャートに示したように、最後−1のフレーム画像を選択した時点で画像合成処理を終了するようした。しかし、前記最初に算出された移動ベクトルを記憶しておき、この移動ベクトルとは異なる方向(例えば、反対方向)の移動ベクトルが検出された時点で、画像合成処理を終了するようにしてもよい。 In each embodiment, as shown in the flowcharts of FIGS. 4 and 9, the image composition process is terminated when the last −1 frame image is selected. However, the movement vector calculated first may be stored, and the image synthesis process may be terminated when a movement vector in a direction different from the movement vector (for example, the opposite direction) is detected. .
これにより、前記ステップS104で説明したシャッターキーの押下を解除せずとも、パノラマ撮影を行うべく回動させた電子カメラ1を当該回動方向とは異なる方向に回動させる簡単な操作により、実質的にパノラマ撮影を終了させることができる。
As a result, the
さらに、各実施の形態においては、撮影処理を実行してDRAMに複数のフレーム画像を記憶させた後、画像合成処理を実行するようにしたが、撮影処理によりフレーム画像が取得される都度、順次画像合成処理を実行するようにしてもよい。 Further, in each embodiment, the image processing is performed and a plurality of frame images are stored in the DRAM, and then the image composition processing is performed. However, each time a frame image is acquired by the image capturing processing, the image processing is sequentially performed. An image composition process may be executed.
1 電子カメラ
2 CCD
3 DSP/CPU
4 TG
5 ユニット回路
6 表示装置
7 キー入力部
9 データバス
10 DRAM
11 内蔵フラッシュメモリ
111 優先順位テーブル
112 変換テーブル
1
3 DSP / CPU
4 TG
5
11 Built-in
Claims (16)
この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、
この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、
この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、
この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、
この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段とを備え、
前記画像抽出手段は、前記設定手段により設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする画像合成装置。 Acquisition means for capturing and sequentially acquiring a plurality of frame images;
A feature amount calculating means for calculating a feature amount of a predetermined area in each frame image sequentially acquired by the acquiring means;
Based on the feature amount calculated by the feature amount calculation means, a movement for sequentially calculating a movement vector of a second frame image having a predetermined temporal correspondence with the first frame image for which the feature amount has been calculated Vector calculation means;
Setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means;
Image extraction means for extracting the partial image having the extraction width set by the setting means from the first and / or second frame images;
Image combining means for sequentially combining and combining the partial images extracted by the image extracting means,
The image synthesizing apparatus, wherein the image extracting unit extracts a partial image having an extraction width set by the setting unit from a predetermined reference line in the frame image in a direction according to the movement vector.
前記移動ベクトル算出手段は、前記判断手段により、前記特徴量算出手段が前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段により最後に算出された特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする請求項1記載の画像合成装置。 A determination unit that determines whether the feature amount calculation unit can calculate the feature amount in the predetermined region;
The movement vector calculation means includes the feature quantity within a non-calculatable time during which it is determined by the judgment means that the feature quantity calculation means cannot calculate the feature quantity in the predetermined area. 2. The image composition according to claim 1, wherein a movement vector of a frame image last acquired by the acquisition unit within the uncalculatable time is calculated based on a feature amount calculated last by the calculation unit. apparatus.
この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、
この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、
この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、
この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、
この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段と、
前記特徴量算出手段が前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断手段を備え、
前記移動ベクトル算出手段は、前記判断手段により、前記特徴量算出手段が前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段が最後に算出した特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする画像合成装置。 Acquisition means for capturing and sequentially acquiring a plurality of frame images;
A feature amount calculating means for calculating a feature amount of a predetermined area in each frame image sequentially acquired by the acquiring means;
Based on the feature amount calculated by the feature amount calculation means, a movement for sequentially calculating a movement vector of a second frame image having a predetermined temporal correspondence with the first frame image for which the feature amount has been calculated Vector calculation means;
Setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means;
Image extraction means for extracting the partial image having the extraction width set by the setting means from the first and / or second frame images;
Image combining means for sequentially combining and combining the partial images extracted by the image extracting means;
A determination unit that determines whether the feature amount calculation unit can calculate a feature amount in the predetermined region;
The movement vector calculation means includes the feature quantity within a non-calculatable time during which it is determined by the judgment means that the feature quantity calculation means cannot calculate the feature quantity in the predetermined area. An image synthesizing apparatus that calculates a movement vector of a frame image last acquired by the acquisition unit within the non-calculatable time based on a feature amount calculated last by the calculation unit.
その後前記移動ベクトル算出手段により算出された移動ベクトルが前記記憶手段に記憶された最初の移動ベクトルとは異なる方向である場合、前記画像合成手段の動作を終了させる終了動作制御手段を備えることを特徴とする請求項1から6にいずれか記載の画像合成装置。 Storage means for storing a movement vector first calculated by the movement vector calculation means;
Thereafter, when the movement vector calculated by the movement vector calculation means is in a direction different from the initial movement vector stored in the storage means, an end operation control means for ending the operation of the image synthesizing means is provided. The image composition device according to any one of claims 1 to 6.
前記判断手段は、前記優先順位が高い区分領域にて特徴量の算出が可能であるか否かを判断し、
前記特徴量算出手段は、前記判断手段により前記優先順位が高い区分領域にて特徴量の算出が不可能であると判断された場合には、より優先順位の低い区分領域から特徴量を算出することを特徴とする請求項1から7にいずか記載の画像合成装置。 The predetermined area where the feature quantity calculating means calculates the feature quantity is composed of a plurality of divided areas divided according to the priority order,
The determination means determines whether or not the feature amount can be calculated in the divided region having a high priority,
The feature amount calculation unit calculates the feature amount from the segment region with a lower priority when the determination unit determines that the feature amount cannot be calculated in the segment region with the higher priority. 8. The image composition apparatus according to claim 1, wherein
撮像して複数のフレーム画像を順次取得する取得手段と、
この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、
この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、
この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、
この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、
この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段として機能させるとともに、
前記画像抽出手段は、前記設定手段により設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする画像合成プログラム。 A computer provided in the image composition device,
Acquisition means for capturing and sequentially acquiring a plurality of frame images;
A feature amount calculating means for calculating a feature amount of a predetermined area in each frame image sequentially acquired by the acquiring means;
Based on the feature amount calculated by the feature amount calculation means, a movement for sequentially calculating a movement vector of a second frame image having a predetermined temporal correspondence with the first frame image for which the feature amount has been calculated Vector calculation means;
Setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means;
Image extraction means for extracting the partial image having the extraction width set by the setting means from the first and / or second frame images;
While functioning as an image composition means for combining the partial images extracted by this image extraction means in sequence,
The image extracting program extracts a partial image having an extraction width set by the setting unit in a direction corresponding to the movement vector from a predetermined reference line in the frame image.
撮像して複数のフレーム画像を順次取得する取得手段と、
この取得手段により順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出手段と、
この特徴量算出手段により算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出手段と、
この移動ベクトル算出手段により算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定手段と、
この設定手段により設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出手段と、
この画像抽出手段により抽出された部分画像を順次結合して合成する画像合成手段と、
前記特徴量算出手段が前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断手段として機能させるとともに、
前記移動ベクトル算出手段は、前記判断手段により、前記特徴量算出手段が前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出手段が最後に算出した特徴量に基づいて、前記算出不可能時間内において前記取得手段により最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする画像合成プログラム。 A computer provided in the image composition device,
Acquisition means for capturing and sequentially acquiring a plurality of frame images;
A feature amount calculating means for calculating a feature amount of a predetermined area in each frame image sequentially acquired by the acquiring means;
Based on the feature amount calculated by the feature amount calculation means, a movement for sequentially calculating a movement vector of a second frame image having a predetermined temporal correspondence with the first frame image for which the feature amount has been calculated Vector calculation means;
Setting means for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation means;
Image extraction means for extracting the partial image having the extraction width set by the setting means from the first and / or second frame images;
Image combining means for sequentially combining and combining the partial images extracted by the image extracting means;
The feature amount calculation means functions as a determination means for determining whether or not the feature amount can be calculated in the predetermined area, and
The movement vector calculation means includes the feature quantity within a non-calculatable time during which it is determined by the judgment means that the feature quantity calculation means cannot calculate the feature quantity in the predetermined area. An image composition program for calculating a movement vector of a frame image last acquired by the acquisition unit within the non-calculatable time based on a feature amount calculated last by the calculation unit.
この取得ステップにより順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出ステップと、
この特徴量算出ステップにより算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出ステップと、
この移動ベクトル算出ステップにより算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定ステップと、
この設定ステップにより設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出ステップと、
この画像抽出ステップにより抽出された部分画像を順次結合して合成する画像合成ステップとを備え、
前記画像抽出ステップは、前記設定ステップにより設定された抽出幅の部分画像を前記フレーム画像における所定の基準線から前記移動ベクトルに応じた方向に抽出することを特徴とする画像合成方法。 An acquisition step of capturing and sequentially acquiring a plurality of frame images;
A feature amount calculating step for calculating a feature amount of a predetermined region in each frame image sequentially acquired by the acquiring step;
Based on the feature amount calculated in the feature amount calculation step, a movement for sequentially calculating a movement vector of a second frame image having a predetermined temporal correspondence with the first frame image for which the feature amount has been calculated A vector calculation step;
A setting step for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation step;
An image extraction step of extracting the partial image having the extraction width set by the setting step from the first and / or second frame images;
An image synthesis step of sequentially combining and synthesizing the partial images extracted by the image extraction step,
The image extracting method includes extracting a partial image having an extraction width set in the setting step from a predetermined reference line in the frame image in a direction according to the movement vector.
この取得ステップにより順次取得される各フレーム画像における所定領域の特徴量を算出する特徴量算出ステップと、
この特徴量算出ステップにより算出された前記特徴量に基づいて、当該特徴量が算出された第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像の移動ベクトルを順次算出する移動ベクトル算出ステップと、
この移動ベクトル算出ステップにより算出された移動ベクトルの大きさに応じて、画像の抽出幅を設定する設定ステップと、
この設定ステップにより設定された前記抽出幅の部分画像を、前記第1及び/又は第2のフレーム画像から抽出する画像抽出ステップと、
この画像抽出ステップにより抽出された部分画像を順次結合して合成する画像合成ステップと、
前記特徴量算出ステップが前記所定領域にて特徴量を算出することが可能であるか否かを判断する判断ステップとを含み、
前記移動ベクトル算出ステップは、前記判断ステップにより、前記特徴量算出ステップで前記所定領域にて特徴量を算出することが不可能であると判断されている算出不可能時間内においては、前記特徴量算出ステップが最後に算出した特徴量に基づいて、前記算出不可能時間内において前記取得ステップにより最後に取得されたフレーム画像の移動ベクトルを算出することを特徴とする画像合成方法。 An acquisition step of capturing and sequentially acquiring a plurality of frame images;
A feature amount calculating step for calculating a feature amount of a predetermined region in each frame image sequentially acquired by the acquiring step;
Based on the feature amount calculated in the feature amount calculation step, a movement for sequentially calculating a movement vector of a second frame image having a predetermined temporal correspondence with the first frame image for which the feature amount has been calculated A vector calculation step;
A setting step for setting the extraction width of the image according to the magnitude of the movement vector calculated by the movement vector calculation step;
An image extraction step of extracting the partial image having the extraction width set by the setting step from the first and / or second frame images;
An image synthesis step of sequentially combining and synthesizing the partial images extracted by the image extraction step;
A step of determining whether the feature amount calculating step can calculate a feature amount in the predetermined region;
In the movement vector calculation step, the feature amount is calculated within the non-calculatable time in which it is determined by the determination step that the feature amount cannot be calculated in the predetermined region in the feature amount calculation step. An image synthesizing method comprising: calculating a movement vector of a frame image last acquired by the acquisition step within the non-calculatable time based on a feature amount calculated last by the calculation step.
フレーム画像の予め設定されている所定の領域が特徴量抽出領域として不適格となる画像であったときに当該フレーム画像をパノラマ合成される画像から省きながら、順次、第1のフレーム画像と所定の時間的対応関係を有する第2のフレーム画像との間で算出される移動ベクトルに基づいて部分画像を抽出するとともに、前記抽出した各部分画像を結合することでパノラマ画像を生成することを特徴とする画像合成方法。 An image synthesis method for generating a panoramic image based on a plurality of frame images photographed so that a part of a subject image overlaps at least between temporally adjacent frame images,
When a predetermined region set in advance in the frame image is an image that is ineligible as a feature amount extraction region, the first frame image and a predetermined amount are sequentially deleted while omitting the frame image from the panoramic image. A partial image is extracted based on a movement vector calculated with respect to a second frame image having a temporal correspondence relationship, and a panoramic image is generated by combining the extracted partial images. Image synthesis method.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006353575A JP5103899B2 (en) | 2006-12-28 | 2006-12-28 | Image composition apparatus, image composition program, and image composition method |
US12/005,251 US8107769B2 (en) | 2006-12-28 | 2007-12-26 | Image synthesis device, image synthesis method and memory medium storage image synthesis program |
NI200900083A NI200900083A (en) | 2006-12-28 | 2009-05-12 | NEW AMINOPYRIMIDINE DERIVATIVES AS PLK1 INHIBITORS |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006353575A JP5103899B2 (en) | 2006-12-28 | 2006-12-28 | Image composition apparatus, image composition program, and image composition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008167092A true JP2008167092A (en) | 2008-07-17 |
JP5103899B2 JP5103899B2 (en) | 2012-12-19 |
Family
ID=39695939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006353575A Expired - Fee Related JP5103899B2 (en) | 2006-12-28 | 2006-12-28 | Image composition apparatus, image composition program, and image composition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5103899B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010141697A (en) * | 2008-12-12 | 2010-06-24 | Keyence Corp | Imaging apparatus |
JP2010146043A (en) * | 2008-12-16 | 2010-07-01 | Sony Corp | Information processing apparatus, information processing method, program and image processing apparatus |
JP2011078132A (en) * | 2010-12-28 | 2011-04-14 | Sony Corp | Imaging apparatus, imaging method, image processing apparatus, image processing method, program and recording medium |
JP2011188035A (en) * | 2010-03-04 | 2011-09-22 | Fujifilm Corp | Imaging device, panoramic image synthesis method, and program therefor |
JP2012080204A (en) * | 2010-09-30 | 2012-04-19 | Casio Comput Co Ltd | Image processing device and method, and program |
WO2013015148A1 (en) * | 2011-07-27 | 2013-01-31 | オリンパス株式会社 | Image processing system, information processing device, program, and image processing method |
JP2013062850A (en) * | 2012-11-07 | 2013-04-04 | Olympus Imaging Corp | Camera, image reproducing device, image compositing method, and program |
JP2014123916A (en) * | 2012-12-21 | 2014-07-03 | Casio Comput Co Ltd | Image composition device, image composition method, and program |
US9077899B2 (en) | 2008-09-04 | 2015-07-07 | Sony Corporation | Image pickup apparatus, image processing apparatus, image processing method, program and recording medium |
JP2015181302A (en) * | 2015-07-10 | 2015-10-15 | カシオ計算機株式会社 | Image processing device, image processing method and program |
JP2016134183A (en) * | 2015-01-19 | 2016-07-25 | 株式会社リコー | Image acquisition user interface for linear panoramic image connection |
KR101868758B1 (en) * | 2017-12-27 | 2018-06-18 | 세종대학교산학협력단 | Method for authoring 360°video-based virtual reality content and Terminal device for performing the method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH114398A (en) * | 1997-06-11 | 1999-01-06 | Hitachi Ltd | Digital wide camera |
JP2005038412A (en) * | 2003-06-30 | 2005-02-10 | Sony Corp | Image verification device, image verification method, and program |
-
2006
- 2006-12-28 JP JP2006353575A patent/JP5103899B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH114398A (en) * | 1997-06-11 | 1999-01-06 | Hitachi Ltd | Digital wide camera |
JP2005038412A (en) * | 2003-06-30 | 2005-02-10 | Sony Corp | Image verification device, image verification method, and program |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9077899B2 (en) | 2008-09-04 | 2015-07-07 | Sony Corporation | Image pickup apparatus, image processing apparatus, image processing method, program and recording medium |
JP2010141697A (en) * | 2008-12-12 | 2010-06-24 | Keyence Corp | Imaging apparatus |
JP2010146043A (en) * | 2008-12-16 | 2010-07-01 | Sony Corp | Information processing apparatus, information processing method, program and image processing apparatus |
JP2011188035A (en) * | 2010-03-04 | 2011-09-22 | Fujifilm Corp | Imaging device, panoramic image synthesis method, and program therefor |
JP2012080204A (en) * | 2010-09-30 | 2012-04-19 | Casio Comput Co Ltd | Image processing device and method, and program |
JP2011078132A (en) * | 2010-12-28 | 2011-04-14 | Sony Corp | Imaging apparatus, imaging method, image processing apparatus, image processing method, program and recording medium |
WO2013015148A1 (en) * | 2011-07-27 | 2013-01-31 | オリンパス株式会社 | Image processing system, information processing device, program, and image processing method |
JP2013030874A (en) * | 2011-07-27 | 2013-02-07 | Olympus Corp | Image processing system, information processing device, and program |
US9781340B2 (en) | 2011-07-27 | 2017-10-03 | Olympus Corporation | Image processing system, information processing device, information storage device, and image processing method |
JP2013062850A (en) * | 2012-11-07 | 2013-04-04 | Olympus Imaging Corp | Camera, image reproducing device, image compositing method, and program |
JP2014123916A (en) * | 2012-12-21 | 2014-07-03 | Casio Comput Co Ltd | Image composition device, image composition method, and program |
JP2016134183A (en) * | 2015-01-19 | 2016-07-25 | 株式会社リコー | Image acquisition user interface for linear panoramic image connection |
JP2015181302A (en) * | 2015-07-10 | 2015-10-15 | カシオ計算機株式会社 | Image processing device, image processing method and program |
KR101868758B1 (en) * | 2017-12-27 | 2018-06-18 | 세종대학교산학협력단 | Method for authoring 360°video-based virtual reality content and Terminal device for performing the method |
Also Published As
Publication number | Publication date |
---|---|
JP5103899B2 (en) | 2012-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5103899B2 (en) | Image composition apparatus, image composition program, and image composition method | |
US8107769B2 (en) | Image synthesis device, image synthesis method and memory medium storage image synthesis program | |
JP4905144B2 (en) | Image composition apparatus, image composition program, and image composition method | |
WO2015143842A1 (en) | Mobile terminal photographing method and mobile terminal | |
JP5230013B2 (en) | Imaging device | |
JP2007266667A (en) | Camera-equipped mobile apparatus, control method thereof, and photographing support method thereof | |
JP5578442B2 (en) | Imaging apparatus, image composition method, and program | |
JP4772009B2 (en) | Digital camera | |
JP5282530B2 (en) | Digital camera | |
JP4830828B2 (en) | Image composition apparatus, image composition program, and image composition method | |
JP5035614B2 (en) | Imaging apparatus and program | |
JP6249596B2 (en) | Imaging apparatus and imaging method | |
JP2011216958A (en) | Imaging apparatus and program | |
JP2010171491A (en) | Imaging device, imaging method, and program | |
JP2007028331A (en) | Image generating apparatus and program thereof | |
JP2009118084A (en) | Digital camera | |
JP2001094919A (en) | Device and method for recording image and computer- readable storage medium | |
JP5230558B2 (en) | Document presentation device | |
JP5696525B2 (en) | Imaging apparatus, imaging method, and program | |
CN104735342B (en) | Moving image processing apparatus, dynamic image processing method and recording medium | |
JP2009044235A (en) | Camera | |
JP2002058046A (en) | Imaging system and three-dimensional camera | |
JP2003125289A (en) | Image composite device | |
JP2005109647A (en) | Image processor and program | |
JP6241503B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120904 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120917 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151012 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |