JP2009278475A - Camera apparatus, composite image creation supporting device, composite image creation supporting method, and composite image creation supporting program - Google Patents

Camera apparatus, composite image creation supporting device, composite image creation supporting method, and composite image creation supporting program Download PDF

Info

Publication number
JP2009278475A
JP2009278475A JP2008128951A JP2008128951A JP2009278475A JP 2009278475 A JP2009278475 A JP 2009278475A JP 2008128951 A JP2008128951 A JP 2008128951A JP 2008128951 A JP2008128951 A JP 2008128951A JP 2009278475 A JP2009278475 A JP 2009278475A
Authority
JP
Japan
Prior art keywords
image
unit
parameter
screen
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008128951A
Other languages
Japanese (ja)
Other versions
JP5166966B2 (en
Inventor
Junichi Kosaka
純一 小坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Ericsson Mobile Communications Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications Japan Inc filed Critical Sony Ericsson Mobile Communications Japan Inc
Priority to JP2008128951A priority Critical patent/JP5166966B2/en
Publication of JP2009278475A publication Critical patent/JP2009278475A/en
Application granted granted Critical
Publication of JP5166966B2 publication Critical patent/JP5166966B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To achieve a support for easily and surely photographing a plurality of images covering a wider range than an angle of view in photographing. <P>SOLUTION: A camera photographing section 2 captures an image, and a CPU 7 acquires the angle of view in the camera photographing section 2. An azimuth sensor 3 detects an azimuth angle of a photographing range, and a tilt sensor 4 detects a rotation angle and an elevation angle of the photographing range. A memory 5 holds the photographed image and parameters representing the photographing range such as the angle of view, the azimuth angle, the rotation angle, the elevation angle. Then, the CPU 7 displays the image under photographing at present on a screen of a view finder 8 in accordance with parameters representing the photographing range of the image and simultaneously displays the photographed images in the memory 5 on the screen of the view finder 8 in accordance with parameters of the images. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、いわゆるデジタルスチルカメラ等のカメラ装置と、撮影時の画角よりも広範囲の画像を生成するのに好適な合成画像作成支援装置、合成画像作成支援方法、及びプログラムに関する。   The present invention relates to a camera apparatus such as a so-called digital still camera, a composite image creation support apparatus, a composite image creation support method, and a program suitable for generating an image having a wider range than the angle of view at the time of shooting.

例えば特開平9−322060号の公開特許公報(特許文献1)には、デジタルカメラで撮影した複数の画像からパノラマ画像を生成するための技術が開示されている。すなわちこの公開特許公報には、撮影後の静止画を画面上に透過表示させ、その透過表示された撮影画像の一部と未撮影範囲の画像の一部とを画面上で重ねるように、撮影者自らがカメラの向きなど動かすことで、パノラマ画像の生成を支援する技術が開示されている。またこの公開公報には、撮影した静止画とこれから撮影される画像の特徴点を自動的に抽出し、それら特徴点により撮影者に両画像の重なり具合を知らしめる技術についても開示されている。   For example, Japanese Patent Application Laid-Open No. 9-322060 discloses a technique for generating a panoramic image from a plurality of images taken with a digital camera. That is, in this published patent publication, a still image after shooting is transparently displayed on the screen, and a part of the photographed image that is transparently displayed and a part of the image in the unphotographed range are overlapped on the screen. A technique for supporting generation of a panoramic image by moving a camera or the like by itself is disclosed. This publication also discloses a technique for automatically extracting feature points of a photographed still image and an image photographed from now on and letting the photographer know the degree of overlap between the two images using these feature points.

また、特開2006−33353号の公開特許公報(特許文献2)には、それぞれ重なりが無い複数の静止画像から一枚のパノラマ画像を生成する技術が開示されている。この公開特許公報では、上記重なりがない複数の画像の間を、別の画像で補完することにより、一枚のパノラマ画像を生成することが記載されている。   Japanese Unexamined Patent Application Publication No. 2006-33353 (Patent Document 2) discloses a technique for generating a single panoramic image from a plurality of still images that do not overlap each other. This published patent document describes that a single panoramic image is generated by complementing a plurality of non-overlapping images with another image.

その他、特開2006−129391号の公開特許公報(特許文献3)には、撮影時にカメラ本体の傾き角を検出して撮影画像と関連させて記憶し、その記憶画像を表示等する時に、上記撮影時の傾き角に応じて画像の傾きを修正する技術が開示されている。   In addition, in Japanese Patent Application Laid-Open No. 2006-129391 (Patent Document 3), the tilt angle of the camera body is detected and stored in association with a captured image at the time of shooting, and when the stored image is displayed or the like, A technique for correcting the tilt of an image according to the tilt angle at the time of shooting is disclosed.

特開平9−322060公報(図4)Japanese Patent Laid-Open No. 9-322060 (FIG. 4) 特開2006−33353公報(図1)JP 2006-33353 A (FIG. 1) 特開2006−129391公報(図15)JP 2006-129391 A (FIG. 15)

ところで、撮影時の画角よりも広い範囲の画像を生成する場合には、従来より、例えば上述の特許文献1や特許文献2に記載されている技術のように、複数の画像を繋ぎ合わせて合成するような手法が採られている。   By the way, in the case of generating an image in a wider range than the angle of view at the time of shooting, conventionally, a plurality of images are joined together as in the techniques described in Patent Document 1 and Patent Document 2, for example. A method of synthesizing is adopted.

しかしながら、そのような広範囲の画像を生成する場合、撮影者は、当該広範囲の画像を生成するのに必要な全ての撮影範囲を網羅するようにして画像を撮影しなければならない。すなわち、それら全ての撮影範囲を網羅した画像撮影を行うためには、各画像撮影時に何れの範囲を撮影しなければいけないのか、また、現在撮影しているのが何れの範囲になっているのかを、撮影者自身が判断しなければならない。このような判断は撮影者にとって非常に煩わしく且つ難しものである。   However, when generating such a wide range of images, the photographer must shoot the images so as to cover all the shooting ranges necessary to generate the wide range of images. In other words, in order to perform image capturing that covers all these image capturing ranges, which range must be captured at the time of each image capture, and which range is currently being captured. The photographer himself must judge this. Such a determination is very troublesome and difficult for the photographer.

なお、上述した特許文献1の場合、撮影後の静止画像を透過表示等するようになされているため、撮影者は、その撮影後の静止画像に繋げるべき範囲について或る程度知ることはできる。しかし、所望の広い範囲を全て網羅した画像を生成するために、他にどの範囲をどれだけ撮影しなければいけないのかを撮影者が判断するのは非常に難しい。   In the case of Patent Document 1 described above, the photographed still image is transparently displayed, so that the photographer can know to some extent the range to be connected to the photographed still image. However, it is very difficult for the photographer to determine what other range and how many other ranges must be taken in order to generate an image that covers the entire desired wide range.

また、特許文献2の場合には、撮影済みの複数の画像を繋げて合成する技術としては有効であるが、撮影者が実際に撮影を行う際に、所望の広い範囲の画像を生成するのに必要な全撮影範囲を網羅するための撮影支援については何ら考慮していない。   Further, in the case of Patent Document 2, it is effective as a technique for connecting and synthesizing a plurality of captured images. However, when a photographer actually performs photographing, a desired wide range of images is generated. No consideration is given to shooting support to cover the entire shooting range required for the camera.

本発明は、このような実情に鑑みて提案されたものであり、撮影時の画角よりも広い範囲を網羅する複数の画像を、容易かつ確実に撮影するための支援を実現可能とするカメラ装置、合成画像作成支援装置、合成画像作成支援方法、及び合成画像作成支援プログラムを提供することを目的とする。   The present invention has been proposed in view of such a situation, and a camera capable of realizing support for easily and surely photographing a plurality of images covering a wider range than the angle of view at the time of photographing. An object is to provide a device, a composite image creation support device, a composite image creation support method, and a composite image creation support program.

本発明のカメラ装置は、画像撮像部、画像表示部、操作入力部、画像保持部、パラメータ検知部、パラメータ保持部、制御演算部を有する。画像保持部は、操作入力部からの画像撮影開始の指示入力に応じて画像撮像部が撮像した画像の情報を保存する。パラメータ検知部は、画像撮像部による画像撮影時の撮影範囲を表すパラメータを検知し、パラメータ保持部は、画像保持部に保持された画像のパラメータを保持する。そして、制御演算部は、画像撮像部による撮像中の画像を、パラメータ検知部により検知されているパラメータに応じて画像表示部の画面上に表示すると同時に、画像保持部に保持されている画像を、パラメータ保持部に保持されたパラメータに応じて画像表示部の画面上に表示させる。これにより、本発明は上述した課題を解決する。   The camera device of the present invention includes an image capturing unit, an image display unit, an operation input unit, an image holding unit, a parameter detection unit, a parameter holding unit, and a control calculation unit. The image holding unit stores information on an image captured by the image capturing unit in response to an instruction input to start image capturing from the operation input unit. The parameter detection unit detects a parameter indicating a shooting range at the time of image shooting by the image pickup unit, and the parameter holding unit holds the parameters of the image held in the image holding unit. The control calculation unit displays the image being captured by the image capturing unit on the screen of the image display unit according to the parameter detected by the parameter detection unit, and at the same time displays the image held in the image holding unit. The image is displayed on the screen of the image display unit in accordance with the parameters held in the parameter holding unit. Thereby, this invention solves the subject mentioned above.

また、本発明合成画像作成支援装置、合成画像作成支援方法、及び合成画像作成支援プログラムでは、画像撮像中の撮影範囲を表すパラメータを取得し、その取得されたパラメータを保持し、また、撮像された画像の情報を保持する。そして、本発明では、撮像中の画像を、取得パラメータに応じて画像表示部の画面上に表示させると同時に、保持画像を、その保持画像のパラメータに応じて画面上に表示させる。これにより、本発明は上述した課題を解決する
すなわち、本発明によれば、これから撮影しようとしている撮影範囲の画像を画面上に表示すると同時に、既に撮影済みの画像についても、その画像の撮影時の撮影範囲を表すパラメータに応じて画面上に表示する。これにより、例えばパノラマ合成画像を生成するための新たな画像を撮影する際に、何れの撮影範囲の画像を撮影すべきかを、撮影者が認識できるようになる。
In the composite image creation support apparatus, composite image creation support method, and composite image creation support program of the present invention, a parameter representing a shooting range during image capture is acquired, the acquired parameter is retained, and the captured image is captured. Holds information about the image. In the present invention, the image being captured is displayed on the screen of the image display unit according to the acquired parameter, and at the same time, the retained image is displayed on the screen according to the parameter of the retained image. Thus, the present invention solves the above-described problem. That is, according to the present invention, an image of the shooting range to be shot is displayed on the screen and, at the same time, an already shot image is displayed when the image is shot. Is displayed on the screen in accordance with a parameter representing the shooting range. Accordingly, for example, when a new image for generating a panorama composite image is captured, the photographer can recognize which imaging range should be captured.

本発明においては、撮像中の画像を、現在の撮影範囲を表すパラメータに応じて画面上に表示すると同時に、撮影済みの画像をそのパラメータに応じて画面表示させることで、撮影時の画角よりも広い範囲を網羅する複数の画像を、容易かつ確実に撮影可能となっている。   In the present invention, the image being captured is displayed on the screen according to the parameter representing the current shooting range, and at the same time, the captured image is displayed on the screen according to the parameter. In addition, a plurality of images covering a wide range can be easily and reliably photographed.

以下、図面を参照しながら、本発明の一実施形態について説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

なお、以下の説明では、本発明の適用例としてデジタルスチルカメラを例に挙げているが、勿論それはあくまで一例であり、本発明はこの例に限定されず、例えばカメラ機能付きの携帯電話端末等にも適用可能である。   In the following description, a digital still camera is taken as an example of application of the present invention, but of course it is merely an example, and the present invention is not limited to this example. For example, a mobile phone terminal with a camera function, etc. It is also applicable to.

〔デジタルスチルカメラの概略構成〕
図1には、本発明実施形態のデジタルスチルカメラ1の概略的な内部構成例を示す。
[Schematic configuration of digital still camera]
FIG. 1 shows a schematic internal configuration example of a digital still camera 1 according to an embodiment of the present invention.

本実施形態において、カメラ撮影部2は、主要な構成要素として、オートフォーカス機構やズーム機構、絞り機構等を備えたカメラレンズと、そのカメラレンズを介して入射した被写体像等を光電変換により撮像データに変換する撮像素子及びその周辺回路とを有する。なお、カメラ撮影部2における撮像やカメラレンズのオートフォーカス等はCPU部7が制御する。   In the present embodiment, the camera photographing unit 2 captures, as main components, a camera lens including an autofocus mechanism, a zoom mechanism, a diaphragm mechanism, and the like, and a subject image incident through the camera lens by photoelectric conversion. It has an image sensor for converting data and its peripheral circuits. Note that the CPU unit 7 controls imaging in the camera photographing unit 2, autofocus of the camera lens, and the like.

ビューファインダ部8は、撮影ボタンが押される前の画像や、撮影済みの画像等を表示するための画面を備えた表示デバイスと、その周辺回路とからなる。なお、ビューファインダ部8における画像表示はCPU部7が制御する。撮影ボタンとその他の操作入力デバイスの図示及び説明については省略する。   The viewfinder unit 8 includes a display device including a screen for displaying an image before the shooting button is pressed, a captured image, and the like, and its peripheral circuits. Note that the CPU 7 controls image display in the viewfinder unit 8. Illustration and description of the shooting button and other operation input devices are omitted.

傾きセンサ部4は、撮影時における当該デジタルスチルカメラ1の傾きを検知する傾きセンサと、その周辺回路とからなる。本実施形態において、上記デジタルスチルカメラ1の傾きは、具体的には回転角と仰角として検知される。すなわち、上記回転角は、図2に示すように、撮像素子により撮像されている静止画像SIが、重力的な水平面HFに対して有する回転角度θとして求められる。また、上記仰角は、図3に示すように、撮影時における重力的な水平面HFに対してカメラレンズの光軸AL(合焦面FFに垂直な線)が指向する仰角φとして求められる。なお、傾きセンサ部4における傾きの検知動作の制御や、当該傾きセンサ部4の検知データによる回転角θと仰角φの算出は、CPU部7が行う。本実施形態において、これら回転角θと仰角φは、それぞれが当該デジタルスチルカメラによる撮影範囲を表すパラメータの一つとなされている。   The tilt sensor unit 4 includes a tilt sensor that detects the tilt of the digital still camera 1 at the time of shooting and its peripheral circuit. In the present embodiment, the tilt of the digital still camera 1 is specifically detected as a rotation angle and an elevation angle. That is, as shown in FIG. 2, the rotation angle is obtained as the rotation angle θ that the still image SI captured by the image sensor has with respect to the gravitational horizontal plane HF. Further, as shown in FIG. 3, the elevation angle is obtained as an elevation angle φ at which the optical axis AL of the camera lens (a line perpendicular to the focal plane FF) is directed with respect to the gravitational horizontal plane HF at the time of photographing. Note that the CPU unit 7 controls the tilt detection operation in the tilt sensor unit 4 and calculates the rotation angle θ and the elevation angle φ based on the detection data of the tilt sensor unit 4. In the present embodiment, each of the rotation angle θ and the elevation angle φ is one of the parameters representing the shooting range by the digital still camera.

方位センサ部3は、撮影時の当該デジタルスチルカメラ1の撮影方位を検知する方位センサと、その周辺回路とからなる。本実施形態において、上記撮影方位は、図4に示すように、カメラレンズの光軸AL(合焦面FFに垂直な線)が指向している方位と、或る基準方位BO(0°)との間の角度、すなわち方位角ζとして求められる。なお、方位センサ部3における方位の検知動作の制御や、当該方位センサ部3の検知データによる方位角ζの算出は、CPU部7が行う。本実施形態において、当該方位角ζは、当該デジタルスチルカメラによる撮影範囲を表すパラメータの一つとなされている。   The azimuth sensor unit 3 includes an azimuth sensor that detects the photographing azimuth of the digital still camera 1 at the time of photographing, and its peripheral circuit. In the present embodiment, as shown in FIG. 4, the shooting direction includes the direction in which the optical axis AL (line perpendicular to the focusing plane FF) of the camera lens is directed, and a certain reference direction BO (0 °). Is obtained as an azimuth angle ζ. The CPU 7 performs control of the direction detection operation in the direction sensor unit 3 and calculation of the azimuth angle ζ using the detection data of the direction sensor unit 3. In the present embodiment, the azimuth angle ζ is one of the parameters representing the shooting range of the digital still camera.

メモリ部5は、撮影された画像データと後述する合成された画像データ、上記撮影範囲を表すパラメータ等を記憶するための記憶素子と、その周辺回路とからなる。なお、メモリ部5における画像データ等の記憶や読み出しは、CPU部7が制御する。また、メモリ部5には、本発明の合成画像作成支援プログラム(後述するパノラマ画像撮影モード用のプログラム)を含む各種のプログラムも格納されている。メモリ部5に格納されている本発明にかかる合成画像作成支援プログラム等の各種プログラムは、ディスク状記録媒体や外部半導体メモリ等を介して格納されたり、外部インターフェースを通じたケーブル或いは無線を介して格納されたものであっても良い。   The memory unit 5 includes captured image data, synthesized image data to be described later, a storage element for storing parameters representing the imaging range, and peripheral circuits. The CPU unit 7 controls the storage and reading of image data and the like in the memory unit 5. The memory unit 5 also stores various programs including a composite image creation support program (a program for a panoramic image shooting mode described later) of the present invention. Various programs such as the composite image creation support program according to the present invention stored in the memory unit 5 are stored via a disk-shaped recording medium, an external semiconductor memory, or the like, or stored via a cable or wirelessly via an external interface. It may be what was done.

画像処理部6は、上記カメラ撮影部2の撮像データから、上記ビューファインダ部8の画面上に表示する画像データを生成する。また、画像処理部6は、後述する合成画像の生成処理も行う。さらに、画像処理部6は、メモリ部5に対する画像データの保存や読み出しも行う。なお、画像データの生成処理や合成画像の生成処理についての制御は、CPU部7が行う。   The image processing unit 6 generates image data to be displayed on the screen of the viewfinder unit 8 from the imaging data of the camera photographing unit 2. The image processing unit 6 also performs a composite image generation process, which will be described later. Further, the image processing unit 6 also stores and reads image data with respect to the memory unit 5. Note that the CPU unit 7 controls image data generation processing and composite image generation processing.

CPU部7は、当該デジタルスチルカメラ1の各部の制御や各種データ処理、演算処理等を行う。すなわちCPU部7は、上述したカメラ撮影部2、方位センサ部3、傾きセンサ部4、画像処理部6、ビューファインダ部8の制御や各種データ処理を行う。また、CPU部7は、カメラ撮影部2のカメラレンズのズーム情報を基に、図4に示すような画角εをも算出する。なお、画角εの算出には、実際にはカメラレンズのズーム情報の他に撮像素子の撮像面の大きさも考慮しなければならないが、当該撮像面の大きさは予め決まっている値であるため、CPU部7はズーム情報のみを用いて画角εを算出する。本実施形態において、上記画角εは、当該デジタルスチルカメラによる撮影範囲を表すパラメータの一つとなされている。   The CPU unit 7 performs control of each unit of the digital still camera 1, various data processing, calculation processing, and the like. That is, the CPU unit 7 controls the camera photographing unit 2, the orientation sensor unit 3, the tilt sensor unit 4, the image processing unit 6, and the viewfinder unit 8, and performs various data processing. The CPU unit 7 also calculates the angle of view ε as shown in FIG. 4 based on the zoom information of the camera lens of the camera photographing unit 2. In addition, in calculating the angle of view ε, it is actually necessary to consider the size of the imaging surface of the imaging element in addition to the zoom information of the camera lens, but the size of the imaging surface is a predetermined value. Therefore, the CPU unit 7 calculates the angle of view ε using only zoom information. In the present embodiment, the angle of view ε is one of the parameters representing the shooting range of the digital still camera.

〔パノラマ画像撮影モード時のビューファインダ表示〕
本実施形態のデジタルスチルカメラ1において、撮影時の画角よりも広い範囲の画像を生成する撮影モード時の動作について、図5〜図9のビューファインダ表示例を参照しながら説明する。なお、以下の説明では、当該撮影時の画角よりも広範囲の画像を生成する撮影モードを、パノラマ画像撮影モードと表記することとする。
(Viewfinder display in panoramic image shooting mode)
In the digital still camera 1 of the present embodiment, the operation in the shooting mode for generating an image in a wider range than the angle of view at the time of shooting will be described with reference to the viewfinder display examples of FIGS. In the following description, a shooting mode for generating an image having a wider range than the angle of view at the time of shooting is referred to as a panoramic image shooting mode.

図5には、パノラマ画像撮影モードにおいて一枚目の画像が撮影される時のビューファインダ部8の画面表示例を示している。   FIG. 5 shows a screen display example of the viewfinder unit 8 when the first image is shot in the panoramic image shooting mode.

すなわち、パノラマ画像撮影モード時において、一枚目の画像撮影時には、図5に示すように、カメラ撮影部2にて現在撮像されている画像11が、ビューファインダ画面10上の略々全面に表示される。   That is, in the panoramic image shooting mode, when the first image is shot, the image 11 currently captured by the camera shooting unit 2 is displayed on substantially the entire surface of the viewfinder screen 10 as shown in FIG. Is done.

そして、当該パノラマ画像撮影モードにおいて、使用者(撮影者)により撮影ボタンが押下されることで当該一枚目の画像の撮影がなされた場合、その画像データはメモリ部5に記録される。また、パノラマ画像撮影モード時には、当該画像を撮影した時の画角ε,回転角θ,仰角φ,方位角ζの情報が、撮影範囲を表すパラメータとしてメモリ部5に保持される。   In the panoramic image shooting mode, when the user (photographer) presses the shooting button and the first image is shot, the image data is recorded in the memory unit 5. In the panoramic image shooting mode, information on the angle of view ε, the rotation angle θ, the elevation angle φ, and the azimuth angle ζ when the image is shot is held in the memory unit 5 as a parameter representing the shooting range.

図6には、パノラマ画像撮影モードにおいて二枚目の画像を撮影する際のビューファインダ部8の画面表示例を示す。   FIG. 6 shows a screen display example of the viewfinder unit 8 when shooting the second image in the panoramic image shooting mode.

当該二枚目の画像を撮影する際、デジタルスチルカメラ1は、一枚目の画像が撮影された時の撮影範囲を表すパラメータと、当該二枚目の画像を撮影する際の撮影範囲を表すパラメータとを用い、それら両画像間の相対的な位置関係及び大きさを算出する。そして、デジタルスチルカメラ1は、上記一枚目と二枚目の両画像の相対的な位置関係及び大きさを維持した状態で、それら一枚目の画像21と二枚目の画像22の両者が収まるようにビューファインダ画面20上に表示する。   When shooting the second image, the digital still camera 1 represents a parameter indicating a shooting range when the first image is shot and a shooting range when shooting the second image. Using the parameters, the relative positional relationship and size between the two images are calculated. The digital still camera 1 maintains both the first image 21 and the second image 22 while maintaining the relative positional relationship and size between the first image and the second image. Is displayed on the viewfinder screen 20 so that the

ここで、あくまで一例であるが、上記両画像間の相対的な位置関係は、一枚目の画像が撮影された時の回転角θ,仰角φ,方位角ζをそれぞれ基準値とし、当該二枚目の画像を撮影している時の回転角θ,仰角φ,方位角ζと上記各基準値との間の差分を算出することで求めることができる。すなわち例えば、一枚目の画像撮影時の仰角φを基準仰角とした場合、二枚目の画像を撮影している時の仰角φと上記基準仰角との差分が、両画像間の仰角に関する相対的な位置関係として求められる。また、一枚目の画像撮影時の方位角ζを基準方位角とした場合、二枚目の画像を撮影している時の方位角ζと上記基準方位角との差分が、両画像間の方位角に関する相対的な位置関係として求められる。同様に、一枚目の画像撮影時の回転角θを基準回転角とした場合、二枚目の画像を撮影している時の回転角θと上記基準回転角との差分が、両画像間の回転角に関する相対的な位置関係として求められる。これにより、両画像間の相対的な位置関係が求められる。   Here, as an example only, the relative positional relationship between the two images is based on the rotation angle θ, the elevation angle φ, and the azimuth angle ζ when the first image is taken, respectively. It can be obtained by calculating the difference between the rotation angle θ, the elevation angle φ, the azimuth angle ζ and the above reference values when the first image is taken. That is, for example, when the elevation angle φ at the time of shooting the first image is set as the reference elevation angle, the difference between the elevation angle φ at the time of shooting the second image and the reference elevation angle is relative to the elevation angle between the two images. It is required as a general positional relationship. In addition, when the azimuth angle ζ at the time of shooting the first image is set as the reference azimuth angle, the difference between the azimuth angle ζ at the time of shooting the second image and the reference azimuth is the difference between the two images. It is calculated | required as a relative positional relationship regarding an azimuth. Similarly, when the rotation angle θ at the time of shooting the first image is set as the reference rotation angle, the difference between the rotation angle θ at the time of shooting the second image and the reference rotation angle is the difference between the two images. It is calculated | required as a relative positional relationship regarding the rotation angle. Thereby, the relative positional relationship between both images is obtained.

また、これも一例であるが、上記両画像間の相対的な大きさは、一枚目の画像が撮影された時の画角εを基準値とし、当該二枚目の画像を撮影している時の画角εと上記基準値との間の差分を算出することで求めることができる。すなわち例えば、一枚目の画像撮影時の画角εを基準画角とした場合、二枚目の画像を撮影している時の画角εと上記基準画角との差分が、両画像間の相対的な大きさとして求められる。   This is also an example, but the relative size between the two images is based on the angle of view ε when the first image is taken, and the second image is taken. It can be obtained by calculating the difference between the angle of view ε and the reference value. That is, for example, when the angle of view ε at the time of shooting the first image is set as the reference angle of view, the difference between the angle of view ε at the time of shooting the second image and the reference angle of view is the difference between both images. It is calculated as the relative size of.

そして、当該パノラマ画像撮影モードにおいて、撮影ボタンが押下されることで当該二枚目の画像の撮影がなされた場合、その画像データはメモリ部5に記録される。また、当該二枚目の画像を撮影した時の画角ε,回転角θ,仰角φ,方位角ζの情報が、その画像の撮影範囲を表すパラメータとしてメモリ部5に保持される。さらに、当該二枚目の画像の記録がなされた場合、その二枚目の画像が撮影された時のビューファインダ画面も同時にメモリ部5に保持される。すなわち、一枚目と二枚目の画像間の相対的な位置関係及び大きさが維持された状態でそれら両画像が収まるようになされたビューファインダ画面に相当する合成画像が、メモリ部5に保持される。   In the panoramic image shooting mode, when the second image is shot by pressing the shooting button, the image data is recorded in the memory unit 5. Further, information on the angle of view ε, the rotation angle θ, the elevation angle φ, and the azimuth angle ζ when the second image is captured is held in the memory unit 5 as a parameter representing the image capturing range of the image. Further, when the second image is recorded, the viewfinder screen when the second image is taken is also held in the memory unit 5 at the same time. That is, a composite image corresponding to a viewfinder screen in which both the images are accommodated while maintaining the relative positional relationship and size between the first and second images is stored in the memory unit 5. Retained.

さらに、この時のデジタルスチルカメラ1は、上記合成画像を次回撮影時の画像との間で相対的な位置関係及び大きさを求める際の基準画像とする。当該基準画像となされた合成画像を、以下合成基準画像と表記する。また、デジタルスチルカメラ1は、一枚目の画像の画角ε,回転角θ,仰角φ,方位角ζと、二枚目の画像の画角ε,回転角θ,仰角φ,方位角ζとから、上記合成基準画像に対応した合成画角,合成回転角,合成仰角,合成方位角を算出し、それらを当該合成基準画像の撮影範囲を表すパラメータとしてメモリ部5に保持する。なお、あくまで一例であるが、当該合成基準画像に対応した合成画角,合成回転角,合成仰角,合成方位角は、一枚目の画像の画角ε,回転角θ,仰角φ,方位角ζと二枚目の画像の画角ε,回転角θ,仰角φ,方位角ζのそれぞれ中間値として算出することができる。   Furthermore, the digital still camera 1 at this time uses the composite image as a reference image for obtaining a relative positional relationship and size with the image at the next shooting. The composite image that is the reference image is hereinafter referred to as a composite reference image. In addition, the digital still camera 1 has an angle of view ε, a rotation angle θ, an elevation angle φ, and an azimuth angle ζ of the first image, and an angle of view ε, a rotation angle θ, an elevation angle φ, and an azimuth angle ζ of the second image. Then, a composite field angle, a composite rotation angle, a composite elevation angle, and a composite azimuth angle corresponding to the composite reference image are calculated, and these are stored in the memory unit 5 as parameters representing the shooting range of the composite reference image. It should be noted that, as an example only, the composite field angle, composite rotation angle, composite elevation angle, and composite azimuth angle corresponding to the composite reference image are the field angle ε, rotation angle θ, elevation angle φ, and azimuth angle of the first image. The angle of view ε, the rotation angle θ, the elevation angle φ, and the azimuth angle ζ can be calculated as intermediate values of ζ and the second image.

図7には、パノラマ画像撮影モードにおいて三枚目の画像を撮影する際のビューファインダ部8の画面表示例を示す。   FIG. 7 shows a screen display example of the viewfinder unit 8 when the third image is captured in the panoramic image capturing mode.

当該三枚目の画像を撮影する際、デジタルスチルカメラ1は、上記合成基準画像の撮影範囲を表す各パラメータと、当該三枚目の画像を撮影する際の撮影範囲を表すパラメータとを用い、上記合成基準画像と当該三枚目の画像との間の相対的な位置関係及び大きさを算出する。そして、この時のデジタルスチルカメラ1は、上記合成基準画像と当該三枚目の画像との間の相対的な位置関係及び大きさを維持した状態で、それら合成基準画像31と当該三枚目の画像32の両者が収まるようにビューファインダ画面30上に表示する。   When shooting the third image, the digital still camera 1 uses each parameter indicating the shooting range of the composite reference image and a parameter indicating the shooting range when shooting the third image, The relative positional relationship and size between the composite reference image and the third image are calculated. At this time, the digital still camera 1 maintains the relative positional relationship and size between the composite reference image and the third image, and the composite reference image 31 and the third image. The image 32 is displayed on the viewfinder screen 30 so that both of the images 32 can be accommodated.

ここで、当該三枚目の画像撮影時において、合成基準画像と当該三枚目の画像との間の相対的な位置関係は、合成基準画像に対応した合成回転角,合成仰角,合成方位角をそれぞれ新たな基準値とし、当該三枚目の画像を撮影している時の回転角θ,仰角φ,方位角ζとそれら各基準値との間の差分を算出することで求めることができる。すなわち例えば、三枚目の画像を撮影している時の仰角φと上記基準仰角との差分が、両画像間の仰角に関する相対的な位置関係として求められる。また、三枚目の画像を撮影している時の方位角ζと上記基準方位角との差分が、両画像間の方位角に関する相対的な位置関係として求められる。同様に、三枚目の画像を撮影している時の回転角θと上記基準回転角との差分が、両画像間の回転角に関する相対的な位置関係として求められる。これにより、両画像間の相対的な位置関係が求められる。   Here, at the time of photographing the third image, the relative positional relationship between the composite reference image and the third image is the composite rotation angle, composite elevation angle, composite azimuth angle corresponding to the composite reference image. Can be obtained by calculating differences between the rotation angle θ, the elevation angle φ, the azimuth angle ζ, and the respective reference values when the third image is captured. . That is, for example, the difference between the elevation angle φ when the third image is captured and the reference elevation angle is obtained as a relative positional relationship regarding the elevation angle between the two images. Further, the difference between the azimuth angle ζ and the reference azimuth angle when the third image is captured is obtained as a relative positional relationship regarding the azimuth angle between the two images. Similarly, the difference between the rotation angle θ when the third image is captured and the reference rotation angle is obtained as a relative positional relationship regarding the rotation angle between the two images. Thereby, the relative positional relationship between both images is obtained.

また、当該三枚目の画像撮影時における画像間の相対的な大きさは、上記合成基準画像に対応した合成画角を基準値とし、当該三枚目の画像を撮影している時の画角εと上記合成画角の基準値との間の差分を算出することで求めることができる。すなわち例えば、合成基準画像に対応した合成画角を基準画角とした場合、三枚目の画像を撮影している時の画角εと上記合成基準画像の基準画角との差分が、両画像間の相対的な大きさとして求められる。   Further, the relative size between the images at the time of photographing the third image is an image when the third image is photographed with a composite angle of view corresponding to the composite reference image as a reference value. It can be obtained by calculating the difference between the angle ε and the reference value of the composite angle of view. That is, for example, when the composite field angle corresponding to the composite reference image is set as the reference field angle, the difference between the field angle ε when the third image is captured and the reference field angle of the composite reference image is It is calculated as a relative size between images.

そして、当該パノラマ画像撮影モードにおいて、撮影ボタンが押下されることで当該三枚目の画像の撮影がなされた場合、その画像データはメモリ部5に記録される。また、当該三枚目の画像を撮影した時の画角ε,回転角θ,仰角φ,方位角ζの情報が撮影範囲を表すパラメータとしてメモリ部5に保持される。さらに、当該三枚目の画像の記録がなされた場合、その三枚目の画像が撮影された時のビューファインダ画面も同時にメモリ部5に保持される。すなわち、上記一枚目及び二枚目の合成画像と上記三枚目の画像との間の相対的な位置関係及び大きさが維持された状態でそれら各画像が収まるようになされたビューファインダ画面に相当する合成画像が、メモリ部5に保持される。   In the panoramic image shooting mode, when the shooting button is pressed and the third image is shot, the image data is recorded in the memory unit 5. In addition, information on the angle of view ε, the rotation angle θ, the elevation angle φ, and the azimuth angle ζ when the third image is captured is held in the memory unit 5 as a parameter representing the imaging range. Further, when the third image is recorded, the viewfinder screen when the third image is taken is also held in the memory unit 5 at the same time. That is, a viewfinder screen in which the respective images are accommodated in a state where the relative positional relationship and size between the first and second composite images and the third image are maintained. Is stored in the memory unit 5.

さらに、この時のデジタルスチルカメラ1は、上記一枚目,二枚目,三枚目の合成画像を次回撮影時の画像との間で相対的な位置関係及び大きさを求める際の新たな合成基準画像とする。また、デジタルスチルカメラ1は、一枚目及び二枚目の合成画像の合成画角,合成回転角,合成仰角,合成方位角と、三枚目の画像の画角ε,回転角θ,仰角φ,方位角ζとから、当該新たな合成基準画像に対応した合成画角,合成回転角,合成仰角,合成方位角を算出し、それらを当該新たな合成基準画像の撮影範囲を表すパラメータとしてメモリ部5に保持する。なお、あくまで一例であるが、当該合成基準画像に対応した合成画角,合成回転角,合成仰角,合成方位角は、上記一枚目及び二枚目の合成画像の合成画角,合成回転角,合成仰角,合成方位角と、当該三枚目の画像の画角ε,回転角θ,仰角φ,方位角ζのそれぞれ中間値として算出することができる。   Further, the digital still camera 1 at this time is a new one for obtaining the relative positional relationship and size of the first, second, and third composite images with the next image. The composite reference image is used. In addition, the digital still camera 1 includes a composite field angle, a composite rotation angle, a composite elevation angle, and a composite azimuth angle of the first and second composite images, and a field angle ε, a rotation angle θ, and an elevation angle of the third image. From φ and the azimuth angle ζ, a composite field angle, a composite rotation angle, a composite elevation angle, and a composite azimuth angle corresponding to the new composite reference image are calculated, and these are used as parameters representing the imaging range of the new composite reference image. It is held in the memory unit 5. Note that, as an example only, the composite field angle, composite rotation angle, composite elevation angle, and composite azimuth angle corresponding to the composite reference image are the composite field angle and composite rotation angle of the first and second composite images. , The composite elevation angle, the composite azimuth angle, and the field angle ε, rotation angle θ, elevation angle φ, and azimuth angle ζ of the third image can be calculated as intermediate values.

図8には、パノラマ画像撮影モードにおいて三枚目の画像を撮影する際のビューファインダ部8の他の画面表示例を示す。すなわち、この図8は、図7の例よりも離れた撮影範囲を三枚目の画像として撮影しようとしている時の画面表示例を示している。   FIG. 8 illustrates another screen display example of the viewfinder unit 8 when the third image is captured in the panoramic image capturing mode. That is, FIG. 8 shows an example of a screen display when an attempt is made to capture a shooting range that is further away from the example of FIG. 7 as the third image.

この図8の例においても図7の場合と同様に、三枚目の画像を撮影する際、デジタルスチルカメラ1は、先の一枚目及び二枚目の画像を合成した合成基準画像に対応した撮影範囲を表す各パラメータと、当該三枚目の画像を撮影する際の撮影範囲を表すパラメータとを用い、上記合成基準画像と当該三枚目の画像との間の相対的な位置関係及び大きさを算出する。そして、デジタルスチルカメラ1は、上記合成基準画像と、当該三枚目の画像の相対的な位置関係及び大きさを維持した状態で、それら合成基準画像41と当該三枚目の画像42の両者が収まるようにビューファインダ画面40上に表示する。   In the example of FIG. 8, as in the case of FIG. 7, when the third image is taken, the digital still camera 1 corresponds to the combined reference image obtained by combining the first and second images. Relative positional relationship between the composite reference image and the third image, using each parameter representing the captured image range and a parameter representing the shooting range when the third image is captured, and Calculate the size. The digital still camera 1 maintains both the composite reference image 41 and the third image 42 while maintaining the relative positional relationship and size between the composite reference image and the third image. Is displayed on the viewfinder screen 40 so that the

この図8の場合は、図7の例よりも離れた撮影範囲を三枚目の画像として撮影しようとしているため、ビューファインダ画面40上に表示される上記合成基準画像41の大きさと、三枚目の画像42の大きさは、図7の例に比べて相対的に小さくなっている。すなわちこの例の場合、合成基準画像と三枚目の画像との相対的な位置関係が離れているため、合成基準画像41と三枚目の画像42の双方をビューファインダ画面40内に収めるようにした時には、それら合成基準画像41及び画像42の大きさが図7の例よりも縮小されたものとなる。   In the case of FIG. 8, the shooting range that is further away from the example of FIG. 7 is to be shot as the third image, so the size of the composite reference image 41 displayed on the viewfinder screen 40 and the three images are displayed. The size of the eye image 42 is relatively smaller than that of the example of FIG. That is, in this example, since the relative positional relationship between the synthesis reference image and the third image is separated, both the synthesis reference image 41 and the third image 42 are accommodated in the viewfinder screen 40. In this case, the sizes of the composite reference image 41 and the image 42 are smaller than those in the example of FIG.

一方、この図8に示した状態から、三枚目の画像の撮影範囲(つまりカメラレンズの向き)を上記合成基準画像に対して例えば近づける方向へ徐々に移動させた場合、デジタルスチルカメラ1は、ビューファインダ画面上に表示される上記合成基準画像の大きさと三枚目の画像の大きさを、図8の状態から徐々に大きくする。言い換えると、合成基準画像と三枚目の画像との間の相対的な位置関係が近づくと、ビューファインダ画面上では、それら合成基準画像と三枚目の画像が相対的に大きくなるように表示される。   On the other hand, when the shooting range of the third image (that is, the direction of the camera lens) is gradually moved from the state shown in FIG. 8 toward the composite reference image, for example, the digital still camera 1 The size of the composite reference image and the size of the third image displayed on the viewfinder screen are gradually increased from the state shown in FIG. In other words, when the relative positional relationship between the composite reference image and the third image approaches, the composite reference image and the third image are displayed relatively large on the viewfinder screen. Is done.

図9には、図8に示した状態から、三枚目の画像の撮影範囲を、一枚目及び二枚目の合成基準画像の方向(図中矢印方向)へ近づけるようにカメラレンズの向きを移動させた場合のビューファインダ部8の画面表示例を示す。   FIG. 9 shows the orientation of the camera lens from the state shown in FIG. 8 so that the shooting range of the third image is closer to the direction of the first and second composite reference images (arrow directions in the figure). An example of the screen display of the viewfinder unit 8 when is moved is shown.

この図9の例のように、三枚目の画像の撮影範囲を合成基準画像の方向に近づけるようにカメラレンズの向きを移動させた場合、デジタルスチルカメラ1は、ビューファインダ画面上に表示される合成基準画像51の大きさと三枚目の画像52の大きさを徐々に大きくする。なお、図9中の表示範囲53は、三枚目の画像撮影範囲を合成基準画像の方向へ近づけるようにカメラレンズを移動させたことで、それら各画像が前述の図7のような位置関係になった場合のビューファインダ画面に表示される範囲を示している。   As in the example of FIG. 9, when the direction of the camera lens is moved so that the shooting range of the third image approaches the direction of the composite reference image, the digital still camera 1 is displayed on the viewfinder screen. The size of the composite reference image 51 and the size of the third image 52 are gradually increased. Note that the display range 53 in FIG. 9 is obtained by moving the camera lens so that the third image capturing range is closer to the direction of the composite reference image, so that each image has a positional relationship as shown in FIG. This shows the range displayed on the viewfinder screen when.

〔パノラマ画像撮影モード時のフローチャート〕
図10には、上述したパノラマ画像撮影モードを実現する本発明の合成画像作成支援プログラムを、デジタルスチルカメラ1のCPU部7が実行することによる処理のフローチャートを示す。
[Flowchart in panoramic image shooting mode]
FIG. 10 shows a flowchart of processing executed by the CPU unit 7 of the digital still camera 1 executing the composite image creation support program of the present invention that realizes the above-described panoramic image shooting mode.

図10において、CPU部7は、ステップS1により合成画像作成支援プログラムが起動されてパノラマ画像撮影モードがスタートすると、先ずステップS2の処理として、カメラ撮影部2により得られている画像をビューファインダ部8の画面上に表示させる。なお、この時点では例えば前述の図5のような画像が表示される。   In FIG. 10, when the composite image creation support program is activated in step S1 and the panoramic image shooting mode is started, the CPU unit 7 first displays an image obtained by the camera shooting unit 2 as a process in step S2. 8 is displayed on the screen. At this time, for example, the image as shown in FIG. 5 is displayed.

次に、CPU部7は、ステップS3の処理として一枚目の画像撮影のために撮影ボタンが押されたか否か判断する。当該ステップS3にて撮影ボタンが押下されたと判断すると、ステップS4へ処理を進める。   Next, the CPU unit 7 determines whether or not the photographing button has been pressed for photographing the first image as the process of step S3. If it is determined in step S3 that the shooting button has been pressed, the process proceeds to step S4.

ステップS4の処理に進むと、CPU部7は、カメラ撮影部2に撮影を行わせる。そして、CPU部7は、ステップS5にて当該撮影時の前述した撮影範囲を表す各パラメータをメモリ部5に記録すると同時に、ステップS6にてその撮影画像をメモリ部5に記録する。また当該ステップS6の時のCPUは、当該画像撮影時のビューファインダ画面の表示画像もメモリ部5に格納する。   In step S4, the CPU unit 7 causes the camera photographing unit 2 to perform photographing. Then, the CPU unit 7 records each parameter representing the above-described photographing range at the time of photographing in the memory unit 5 in step S5, and simultaneously records the photographed image in the memory unit 5 in step S6. Further, the CPU at the time of step S6 also stores the display image of the viewfinder screen at the time of capturing the image in the memory unit 5.

次に、ステップS7の処理に進むと、CPU部7は、それ以前に撮影された画像との合成が必要であるか判断する。なお、一枚目の画像撮影が行われた時には、それ以前の撮影画像は存在しないため、CPU部7は当該ステップS7の判断処理をスキップし、ステップS8へ処理を進める。   Next, when the process proceeds to step S7, the CPU unit 7 determines whether it is necessary to combine with an image captured before that. Note that when the first image is shot, there is no previous shot image, so the CPU unit 7 skips the determination process in step S7 and proceeds to step S8.

ステップS8の処理に進むと、CPU部7は、ステップS6にてメモリ部5に記録した画像を合成基準画像としてメモリ部5に保存した後、ステップS9へ処理を進める。なお、この時点での合成基準画像は、一枚目の撮影画像となる。   In step S8, the CPU unit 7 stores the image recorded in the memory unit 5 in step S6 in the memory unit 5 as a composite reference image, and then proceeds to step S9. Note that the composite reference image at this point is the first photographed image.

ステップS9に進むと、CPU部7は、ビューファインダ画面の表示を更新する時間になったか否か判断する。なお、この更新時間としては、例えばいわゆる動画像のフレーム時間(1/30秒)、或いは、より処理を軽くしたい場合には1/15秒や1/10秒などの時間を挙げることができる。当該ステップS9にて更新時間になったと判断すると、CPU部7は、ステップS10へ処理を進める。   In step S9, the CPU unit 7 determines whether it is time to update the display on the viewfinder screen. The update time may be, for example, a so-called moving image frame time (1/30 second), or a time such as 1/15 second or 1/10 second in order to make the processing lighter. When determining that the update time has come in step S9, the CPU 7 advances the process to step S10.

ステップS10の処理に進むと、CPU部7は、ビューファインダ画面の表示を更新すると共に、その更新後の撮影範囲を表す各パラメータを取得する。   When the processing proceeds to step S10, the CPU unit 7 updates the display of the viewfinder screen and acquires each parameter representing the updated imaging range.

またCPU部7は、ステップS11の処理として、当該更新後において合成基準画像(この場合は一枚目の画像)と、その時点でカメラ撮影部2から得られている画像(この場合は二枚目の画像)との間の相対的な位置関係及び大きさを算出する。   In addition, as a process of step S11, the CPU unit 7 performs the composite reference image (in this case, the first image) after the update and an image (in this case, two images) obtained from the camera photographing unit 2 at that time. The relative positional relationship and size between the eye) are calculated.

さらに、CPU部7は、ステップS12の処理として、ステップS11にて求めた相対的な位置関係及び大きさを維持した状態でそれら両画像(この場合は一枚目の画像と二枚目の画像)が収まるようにしてビューファインダ画面に表示する。   Further, as a process in step S12, the CPU unit 7 maintains both the relative positional relationship and the size obtained in step S11 (in this case, the first image and the second image). ) Are displayed on the viewfinder screen.

そして、CPU部7は、ステップS13の処理として、画像撮影のために撮影ボタンが押されたか否か判断する。当該ステップS13にて撮影ボタンが押下されていない場合には、ステップS9へ処理を戻し、一方、撮影ボタンが押下された場合にはステップS4へ処理を戻す。   Then, the CPU unit 7 determines whether or not the shooting button has been pressed for image shooting as the processing of step S13. If the shooting button is not pressed in step S13, the process returns to step S9. If the shooting button is pressed, the process returns to step S4.

当該ステップS4の処理に戻った場合、CPU部7は、カメラ撮影部2に対して二枚目の画像の撮影を開始させる。したがって、ステップS5では、当該二枚目の撮影画像の撮影範囲を表す各パラメータがメモリ部5に記録され、ステップS6では、当該二枚目の撮影画像のデータがメモリ部5に記録されることになる。なお、当該ステップS6の時、当該二枚目の画像撮影時のビューファインダ画面の表示画像、すなわち例えば前述の図6のビューファインダ画像についてもメモリ部5に格納される。   When returning to the process of step S4, the CPU unit 7 causes the camera photographing unit 2 to start photographing the second image. Accordingly, in step S5, each parameter representing the shooting range of the second shot image is recorded in the memory unit 5, and in step S6, the data of the second shot image is recorded in the memory unit 5. become. At the time of the step S6, the display image on the viewfinder screen at the time of shooting the second image, that is, the viewfinder image of FIG. 6, for example, is also stored in the memory unit 5.

次に、ステップS7の処理に進むと、CPU部7は、それ以前に撮影された画像との合成が必要であるか判断する。この場合、CPU部7は、一枚目の撮影画像と二枚目の撮影画像との合成が必要であると判断し、ステップS20へ処理を進める。   Next, when the process proceeds to step S7, the CPU unit 7 determines whether it is necessary to combine with an image captured before that. In this case, the CPU unit 7 determines that it is necessary to combine the first captured image and the second captured image, and proceeds to step S20.

ステップS20の処理に進むと、CPU部7は、一枚目の画像と二枚目の画像を合成する。また、CPU部7は、ステップS21の処理として、それら一枚目と二枚目が合成された画像を、合成基準画像としてメモリ部5に記録する。さらに、CPU部7は、ステップS22の処理として、当該合成基準画像に対応した撮影範囲を表すパラメータを算出し、それをメモリ部5に保持する。そして、CPU部7は、ステップS23の処理として、当該合成基準画像をビューファインダ画面に表示する。すなわちこの場合、ビューファインダ画面には、前述の図7に示したように、一枚目と二枚目の画像が合成された合成基準画像と三枚目に撮影しようとしている画像が表示されることになる。   In step S20, the CPU unit 7 combines the first image and the second image. In addition, as a process of step S21, the CPU unit 7 records the image obtained by combining the first and second images in the memory unit 5 as a combined reference image. Further, the CPU unit 7 calculates a parameter representing a shooting range corresponding to the composite reference image as the process of step S <b> 22, and stores it in the memory unit 5. Then, the CPU unit 7 displays the composite reference image on the viewfinder screen as the process of step S23. That is, in this case, as shown in FIG. 7 described above, the composite reference image obtained by combining the first and second images and the image to be photographed on the third image are displayed on the viewfinder screen. It will be.

次に、CPU部24は、撮影終了の指示が使用者から入力されたか否か判断し、撮影終了指示が入力されていない時にはステップS9へ処理を戻す。   Next, the CPU unit 24 determines whether or not an instruction to end shooting is input from the user, and when the instruction to end shooting is not input, the process returns to step S9.

当該ステップS9に戻ると、CPU部7は、前述同様にビューファインダ画面の表示を更新する時間になったか否か判断し、当該更新時間になったと判断した時にはステップS10へ処理を進める。   When returning to step S9, the CPU 7 determines whether or not it is time to update the display of the viewfinder screen as described above, and proceeds to step S10 when it is determined that the update time is reached.

ステップS10の処理に進むと、CPU部7は、ビューファインダ画面の表示を更新すると共に、その更新後の撮影範囲を表す各パラメータを取得する。またCPU部7は、ステップS11の処理として、当該更新後において合成基準画像(この場合は一枚目及び二枚目の合成画像)と、その時点でカメラ撮影部2から得られている画像(この場合は三枚目の画像)との間の相対的な位置関係及び大きさを算出する。さらに、CPU部7は、ステップS12の処理として、それら相対的な位置関係及び大きさを維持した状態で両画像(この場合は一枚目及び二枚目の合成画像と三枚目の画像)が収まるようにしてビューファインダ画面に表示する。   When the processing proceeds to step S10, the CPU unit 7 updates the display of the viewfinder screen and acquires each parameter representing the updated imaging range. In addition, as the process of step S11, the CPU unit 7 performs a composite reference image (in this case, the first and second composite images) after the update and an image (from the camera photographing unit 2 at that time) ( In this case, the relative positional relationship and size with the third image) are calculated. Further, as a process of step S12, the CPU unit 7 maintains both of the relative positions and sizes of the two images (in this case, the first and second synthesized images and the third image). Is displayed on the viewfinder screen.

そして、CPU部7は、ステップS13にて画像撮影のために撮影ボタンが押されたか否か判断し、撮影ボタンが押下された場合にはステップS4へ処理を戻す。以下、同様であるため説明は省略する。   In step S13, the CPU 7 determines whether or not the shooting button has been pressed for image shooting. If the shooting button has been pressed, the process returns to step S4. Hereinafter, since it is the same, description is abbreviate | omitted.

また、ステップS24にて、撮影終了の指示が使用者から入力された場合、CPU部7は、ステップS25へ処理を進める。   If an instruction to end shooting is input from the user in step S24, the CPU 7 advances the process to step S25.

ステップS25の処理に進むと、CPU部7は、当該パノラマ画像撮影モードになってから撮影されてメモリ部5に格納されている各画像を全て合成する。なお、この時の画像合成処理には、既存の画像合成技術により各画像を繋ぎ合わせるような合成処理が用いられる。   When the processing proceeds to step S25, the CPU unit 7 combines all the images that have been shot and stored in the memory unit 5 after entering the panoramic image shooting mode. Note that the image composition process at this time uses a composition process in which the respective images are connected by an existing image composition technique.

上記ステップS25による画像合成処理が完了すると、CPU部7は、ステップS26の処理として、その合成画像を画像ファイルとしてメモリ部5に記録等する。   When the image composition processing in step S25 is completed, the CPU unit 7 records the composite image as an image file in the memory unit 5 as processing in step S26.

なお、ステップS25における画像合成処理は、デジタルスチルカメラ1内で行わず、別途パーソナルコンピュータ等にて行われても良い。   Note that the image composition processing in step S25 may be performed separately by a personal computer or the like without being performed in the digital still camera 1.

〔まとめ〕
以上説明したように、本発明実施形態によれば、パノラマ画像撮影モードの画像撮影時には、これから撮影する撮影範囲の画像とそれ以前に撮影した画像との間の相対的な位置関係及び大きさを維持した状態で、それら両画像が収まるようにビューファインダ画面上に表示される。このため、撮影時の画角よりも広い範囲を網羅する複数の画像を得る際に、撮影者は、当該ビューファインダ画面を見るだけで、何れの方向及び範囲を撮影すれば良いのか、また、現在撮影しているのが何れの範囲になっているのかを容易に知ることができる。すなわち本実施形態によれば、撮影時の画角よりも広い範囲を網羅する複数の画像を、容易かつ確実に撮影するための支援が実現されている。さらに、本実施形態によれば、撮影時の画角よりも広い範囲を網羅する複数の画像の撮影順序についても特に決める必要がなく、ビューファインダ画面上で撮影者が必要と判断した方向及び範囲の画像を、任意の順番で撮影すれば良い。
[Summary]
As described above, according to the embodiment of the present invention, when capturing an image in the panoramic image capturing mode, the relative positional relationship and size between the image of the capturing range to be captured and the image captured before that are determined. In the maintained state, both images are displayed on the viewfinder screen so as to fit. Therefore, when obtaining a plurality of images covering a wider range than the angle of view at the time of shooting, the photographer only needs to look at the viewfinder screen, which direction and range should be taken, It is easy to know which range is currently being photographed. That is, according to the present embodiment, support for easily and surely photographing a plurality of images covering a wider range than the angle of view at the time of photographing is realized. Furthermore, according to the present embodiment, there is no need to determine the shooting order of a plurality of images covering a wider range than the angle of view at the time of shooting, and the direction and range determined by the photographer as necessary on the viewfinder screen. These images may be taken in any order.

なお、上述した本発明の実施形態の説明は、本発明の一例である。このため、本発明は上述した実施形態に限定されることなく、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることはもちろんである。   The above description of the embodiment of the present invention is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and it is needless to say that various modifications can be made according to the design or the like as long as the technical idea according to the present invention is not deviated.

上述の実施形態では、合成画像作成支援処理を実行するための全ての構成要素を備えたデジタルスチルカメラを挙げているが、例えば撮影前後の画像を別のモニタ画面等に表示し、カメラ側では撮影と方位,傾き等の検知のみ行うようなシステムにも本発明は適用可能である。また、モニタ画面上に撮影前後の画像を同時に表示したり画像合成を行うようなプログラムの処理は、例えばパーソナルコンピュータ等により実行することもできる。この場合のパーソナルコンピュータは、カメラ側から画像データと、方位,傾きのデータ等を取得し、それらデータを用いて前述のビューファインダ部2の画面表示例と同様の画像表示処理を行う。   In the above-described embodiment, a digital still camera including all the components for executing the composite image creation support process is cited. For example, images before and after shooting are displayed on another monitor screen or the like. The present invention can also be applied to a system that only performs imaging and detection of orientation, inclination, and the like. Further, the processing of a program for simultaneously displaying images before and after photographing on a monitor screen or synthesizing images can be executed by a personal computer or the like, for example. In this case, the personal computer acquires image data, azimuth and tilt data, and the like from the camera side, and performs image display processing similar to the above-described screen display example of the viewfinder unit 2 using these data.

本発明実施形態のデジタルスチルカメラの概略的な内部構成例を示すブロック図である。1 is a block diagram illustrating a schematic internal configuration example of a digital still camera according to an embodiment of the present invention. 傾きセンサ部により検知される回転角の説明に用いる図である。It is a figure used for description of the rotation angle detected by the inclination sensor part. 傾きセンサ部により検知される仰角の説明に用いる図である。It is a figure used for description of the elevation angle detected by an inclination sensor part. 方位センサ部により検知される方位角の説明に用いる図である。It is a figure used for description of the azimuth angle detected by the azimuth | direction sensor part. パノラマ画像撮影モードにおいて一枚目の画像が撮影される時のビューファインダ部の画面表示例を示す図である。It is a figure which shows the example of a screen display of a viewfinder part when the 1st image is image | photographed in a panoramic image imaging | photography mode. パノラマ画像撮影モードにおいて二枚目の画像が撮影される時のビューファインダ部の画面表示例を示す図である。It is a figure which shows the example of a screen display of a viewfinder part when a 2nd image is image | photographed in a panoramic image imaging | photography mode. パノラマ画像撮影モードにおいて三枚目の画像が撮影される時のビューファインダ部の画面表示例を示す図である。It is a figure which shows the example of a screen display of a viewfinder part when a 3rd image is image | photographed in a panoramic image imaging | photography mode. パノラマ画像撮影モードにおいて三枚目の画像が撮影される時に、一枚目及び二枚目の撮影範囲と三枚目の撮影範囲が離れている場合のビューファインダ部の画面表示例を示す図である。FIG. 10 is a diagram illustrating a screen display example of the viewfinder when the first and second shooting ranges are separated from the third shooting range when the third image is shot in the panoramic image shooting mode. is there. パノラマ画像撮影モードにおいて三枚目の画像が撮影される時に、一枚目及び二枚目の撮影範囲へ三枚目の撮影範囲が近づくようにカメラレンズの向きを移動した場合のビューファインダ部の画面表示例を示す図である。When the third image is shot in the panoramic image shooting mode, the viewfinder section moves when the camera lens is moved so that the shooting range of the third image approaches the shooting range of the first and second images. It is a figure which shows the example of a screen display. パノラマ画像撮影モードを実現する本発明の合成画像作成支援プログラムをCPU部が実行している時の処理のフローチャートである。It is a flowchart of a process when the CPU part is executing the synthetic image creation assistance program of this invention which implement | achieves a panoramic image imaging | photography mode.

符号の説明Explanation of symbols

1 デジタルスチルカメラ、2 カメラ撮影部、3 方位センサ部、4 傾きセンサ部、5 メモリ部、6 画像処理部、7 CPU部、8 ビューファインダ部、10,20,30,40,50 ビューファインダ画面、11,21 一枚目の撮影画像、22 二枚目の撮影画像、31,41,51 一枚目と二枚目の合成画像、32,42,52 三枚目の撮影画像
DESCRIPTION OF SYMBOLS 1 Digital still camera, 2 Camera imaging | photography part, 3 Direction sensor part, 4 Tilt sensor part, 5 Memory part, 6 Image processing part, 7 CPU part, 8 Viewfinder part 10, 20, 30, 40, 50 Viewfinder screen 11, 21 First shot image, 22 Second shot image, 31, 41, 51 First and second composite image, 32, 42, 52 Third shot image

Claims (12)

画像を撮像する画像撮像部と、
少なくとも画像を表示する画面を備えた画像表示部と、
使用者からの指示入力を取得するための操作入力部と、
上記操作入力部を介した画像撮影開始の指示入力に応じて上記画像撮像部にて撮像された画像の情報を保持する画像保持部と、
上記画像撮像部による撮像中の撮影範囲を表すパラメータを検知するパラメータ検知部と、
上記画像保持部に保持された画像の撮影時に上記パラメータ検知部が検知したパラメータを保持するパラメータ保持部と、
上記画像撮像部による撮像中の画像を上記パラメータ検知部により検知されているパラメータに応じて上記画像表示部の画面上に表示すると同時に、上記画像保持部に保持されている画像を上記パラメータ保持部に保持されたパラメータに応じて上記画像表示部の画面上に表示させる制御演算部と、
を有するカメラ装置。
An image capturing unit for capturing an image;
An image display unit having at least a screen for displaying an image;
An operation input unit for obtaining an instruction input from the user;
An image holding unit that holds information of an image captured by the image capturing unit in response to an instruction input to start image capturing via the operation input unit;
A parameter detection unit for detecting a parameter representing a shooting range during imaging by the image imaging unit;
A parameter holding unit that holds parameters detected by the parameter detection unit when the image held in the image holding unit is captured;
The image being captured by the image capturing unit is displayed on the screen of the image display unit according to the parameter detected by the parameter detection unit, and at the same time, the image held in the image holding unit is displayed on the parameter holding unit A control calculation unit to display on the screen of the image display unit according to the parameters held in
A camera device.
上記パラメータ検知部は、上記パラメータとして、上記画像撮像部による撮像中の撮影範囲の画角と回転角と仰角と方位角を検知する請求項1記載のカメラ装置。   The camera device according to claim 1, wherein the parameter detection unit detects, as the parameter, an angle of view, a rotation angle, an elevation angle, and an azimuth angle of an imaging range during imaging by the image imaging unit. 上記制御演算部は、上記画像撮像部による撮像中の画像の上記パラメータと、上記画像保持部に保持されている画像の上記パラメータとに基づいて、それら各画像の画面上での相対的な位置関係及び大きさを算出し、当該位置関係及び大きさを維持した状態で各画像を上記画面上に表示させる請求項1又は請求項2記載のカメラ装置。   Based on the parameters of the image being picked up by the image pickup unit and the parameters of the image held in the image holding unit, the control calculation unit is configured to relatively position the images on the screen. The camera device according to claim 1, wherein the relationship and the size are calculated, and each image is displayed on the screen in a state where the positional relationship and the size are maintained. 上記制御演算部は、上記画面上に上記各画像を表示した表示画像の情報を上記画像保持部に保持させ、当該画像保持部に保持させた上記表示画像と上記画像撮像部による撮像中の画像の画面上での相対的な位置関係及び大きさを算出し、当該位置関係及び大きさを維持した状態でそれら画像を上記画面上に表示させる請求項3記載のカメラ装置。   The control calculation unit causes the image holding unit to hold information on a display image in which each image is displayed on the screen, and the display image held in the image holding unit and an image being captured by the image imaging unit. The camera apparatus according to claim 3, wherein the relative positional relationship and size on the screen are calculated, and the images are displayed on the screen while maintaining the positional relationship and size. 上記制御演算部は、上記操作入力部を介した所定の指示入力に応じて、上記画像保持部に保持されている全画像を合成し、その合成画像の情報を上記画像保持部に保持させる請求項1記載のカメラ装置。   The control arithmetic unit synthesizes all images held in the image holding unit in response to a predetermined instruction input via the operation input unit, and causes the image holding unit to hold information on the synthesized image. Item 2. The camera device according to Item 1. 画像撮像部による撮像中の画像の情報を取得する画像取得部と、
画像撮像部により撮影された画像の情報を保持する画像保持部と、
画像撮像部による撮像中の画像の撮影範囲を表すパラメータを取得するパラメータ取得部と、
上記パラメータ取得部により取得されたパラメータを保持するパラメータ保持部と、
上記画像撮像部による撮像中の画像を上記パラメータ取得部が取得しているパラメータに応じて画像表示部の画面上に表示すると同時に、画像保持部に保持されている画像を上記パラメータ保持部に保持されたパラメータに応じて上記画像表示部の画面上に表示させる制御演算部と、
を有する合成画像作成支援装置。
An image acquisition unit for acquiring information of an image being captured by the image capturing unit;
An image holding unit for holding information of an image taken by the image pickup unit;
A parameter acquisition unit for acquiring a parameter representing a shooting range of an image being captured by the image capturing unit;
A parameter holding unit for holding parameters acquired by the parameter acquisition unit;
The image being captured by the image capturing unit is displayed on the screen of the image display unit according to the parameters acquired by the parameter acquiring unit, and at the same time, the image held in the image holding unit is held in the parameter holding unit A control calculation unit that displays the image on the screen of the image display unit according to the set parameters,
A composite image creation support apparatus.
上記パラメータ取得部は、上記パラメータとして、上記画像撮像部による撮像中の撮影範囲の画角と回転角と仰角と方位角の情報を取得すする請求項6記載の合成画像作成支援装置。   The composite image creation support apparatus according to claim 6, wherein the parameter acquisition unit acquires, as the parameter, information on an angle of view, a rotation angle, an elevation angle, and an azimuth angle of an imaging range during imaging by the image imaging unit. 上記制御演算部は、上記画像撮像部による撮像中の画像の上記パラメータと、上記画像保持部に保持されている画像の上記パラメータとに基づいて、それら各画像の画面上での相対的な位置関係及び大きさを算出し、当該位置関係及び大きさを維持した状態で各画像を上記画面上に表示させる請求項6又は請求項7記載の合成画像作成支援装置。   Based on the parameters of the image being picked up by the image pickup unit and the parameters of the image held in the image holding unit, the control calculation unit is configured to relatively position the images on the screen. The composite image creation support apparatus according to claim 6 or 7, wherein the relationship and the size are calculated, and each image is displayed on the screen in a state where the positional relationship and the size are maintained. 上記制御演算部は、上記画面上に上記各画像を表示した表示画像の情報を上記画像保持部に保持させ、当該画像保持部に保持させた上記表示画像と上記画像撮像部による撮像中の画像の画面上での相対的な位置関係及び大きさを算出し、当該位置関係及び大きさを維持した状態でそれら各画像を上記画面上に表示させる請求項8記載の合成画像作成支援装置。   The control calculation unit causes the image holding unit to hold information on a display image in which each image is displayed on the screen, and the display image held in the image holding unit and an image being captured by the image imaging unit. 9. The composite image creation support apparatus according to claim 8, wherein a relative positional relationship and a size on the screen are calculated, and each image is displayed on the screen in a state where the positional relationship and the size are maintained. 上記制御演算部は、使用者からの所定の指示入力に応じて、上記画像保持部に保持されている全画像を合成し、その合成画像の情報を上記画像保持部に保持させる請求項6記載の合成画像作成支援装置。   The control calculation unit synthesizes all images held in the image holding unit in response to a predetermined instruction input from a user, and causes the image holding unit to hold information of the combined image. Composite image creation support device. 画像撮像部による撮像中の画像の情報を画像取得部が取得するステップと、
画像撮像部による撮像中の画像の撮影範囲を表すパラメータをパラメータ取得部が取得するステップと、
画像撮像部により撮影された画像の情報を画像保持部が保持するステップと、
上記パラメータ取得部により取得されたパラメータをパラメータ保持部が保持するステップと、
制御演算部が、上記画像撮像部による撮像中の画像を上記パラメータ取得部が取得しているパラメータに応じて画像表示部の画面上に表示させると同時に、画像保持部に保持されている画像を上記パラメータ保持部に保持されたパラメータに応じて上記画像表示部の画面上に表示させるステップと、
を有する合成画像作成支援方法。
An image acquisition unit acquiring information of an image being captured by the image capturing unit;
A parameter acquisition unit acquiring a parameter representing a shooting range of an image being captured by the image capturing unit;
An image holding unit holding information of an image taken by the image pickup unit; and
A parameter holding unit holding the parameter acquired by the parameter acquisition unit;
The control calculation unit displays the image being captured by the image capturing unit on the screen of the image display unit according to the parameter acquired by the parameter acquisition unit, and at the same time, displays the image held in the image holding unit. Displaying on the screen of the image display unit according to the parameters held in the parameter holding unit;
A synthetic image creation support method comprising:
画像撮像部による撮像中の画像の情報を取得する画像取得部と、
画像撮像部により撮影された画像の情報を画像保持部に保持させる画像保持制御部と、
画像撮像部による撮像中の画像の撮影範囲を表すパラメータを取得するパラメータ取得部と、
上記パラメータ取得部により取得されたパラメータをパラメータ保持部に保持させる保持するパラメータ保持制御部と、
上記画像撮像部による撮像中の画像を上記パラメータ取得部が取得しているパラメータに応じて画像表示部の画面上に表示すると同時に、画像保持部に保持されている画像を上記パラメータ保持部に保持されたパラメータに応じて上記画像表示部の画面上に表示させる制御演算部として、
コンピュータを機能させる合成画像作成支援プログラム。
An image acquisition unit for acquiring information of an image being captured by the image capturing unit;
An image holding control unit that causes the image holding unit to hold information of an image captured by the image capturing unit;
A parameter acquisition unit for acquiring a parameter representing a shooting range of an image being captured by the image capturing unit;
A parameter holding control unit for holding the parameter acquired by the parameter acquiring unit in the parameter holding unit;
The image being captured by the image capturing unit is displayed on the screen of the image display unit according to the parameters acquired by the parameter acquiring unit, and at the same time, the image held in the image holding unit is held in the parameter holding unit As a control calculation unit to be displayed on the screen of the image display unit according to the parameter that has been
A composite image creation support program that allows a computer to function.
JP2008128951A 2008-05-15 2008-05-15 Camera device, composite image creation support device, composite image creation support method, and composite image creation support program Expired - Fee Related JP5166966B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008128951A JP5166966B2 (en) 2008-05-15 2008-05-15 Camera device, composite image creation support device, composite image creation support method, and composite image creation support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008128951A JP5166966B2 (en) 2008-05-15 2008-05-15 Camera device, composite image creation support device, composite image creation support method, and composite image creation support program

Publications (2)

Publication Number Publication Date
JP2009278475A true JP2009278475A (en) 2009-11-26
JP5166966B2 JP5166966B2 (en) 2013-03-21

Family

ID=41443464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008128951A Expired - Fee Related JP5166966B2 (en) 2008-05-15 2008-05-15 Camera device, composite image creation support device, composite image creation support method, and composite image creation support program

Country Status (1)

Country Link
JP (1) JP5166966B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012209630A (en) * 2011-03-29 2012-10-25 Olympus Imaging Corp Image reproduction device, imaging device, and image reproduction program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169293A (en) * 1997-08-21 1999-03-09 Sony Corp Image processing system and camcorder
JP2006033353A (en) * 2004-07-15 2006-02-02 Seiko Epson Corp Apparatus and method of processing image, imaging apparatus, image processing program and recording medium recording image processing program
JP2008263538A (en) * 2007-04-13 2008-10-30 Fujifilm Corp Photographic device, method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169293A (en) * 1997-08-21 1999-03-09 Sony Corp Image processing system and camcorder
JP2006033353A (en) * 2004-07-15 2006-02-02 Seiko Epson Corp Apparatus and method of processing image, imaging apparatus, image processing program and recording medium recording image processing program
JP2008263538A (en) * 2007-04-13 2008-10-30 Fujifilm Corp Photographic device, method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012209630A (en) * 2011-03-29 2012-10-25 Olympus Imaging Corp Image reproduction device, imaging device, and image reproduction program

Also Published As

Publication number Publication date
JP5166966B2 (en) 2013-03-21

Similar Documents

Publication Publication Date Title
JP4293053B2 (en) Imaging apparatus and method
JP5550989B2 (en) Imaging apparatus, control method thereof, and program
US9641751B2 (en) Imaging apparatus, imaging method thereof, and computer readable recording medium
JP5819564B2 (en) Image determination apparatus, imaging apparatus, three-dimensional measurement apparatus, image determination method, and program
JP2009232471A (en) Image pickup apparatus
JP2013046270A (en) Image connecting device, photographing device, image connecting method, and image processing program
JP2005328497A (en) Image pickup apparatus and image pickup method
JP2019033344A (en) Image processing apparatus, image processing method, and program
JP5495760B2 (en) Imaging device
JP5115731B2 (en) Imaging apparatus, image processing method, and program
JP2001223932A (en) Image pickup device and digital camera
JP4655708B2 (en) Camera, camera shake state display method, and program
JP5696419B2 (en) Image processing apparatus and method, and program
JP5248951B2 (en) CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM
JP2011035752A (en) Imaging apparatus
JPH09322055A (en) Electronic camera system
JP2014050039A (en) Image processor, image processing method and computer program
JP5166966B2 (en) Camera device, composite image creation support device, composite image creation support method, and composite image creation support program
JP5021370B2 (en) Imaging apparatus, display method, and program
JP6376753B2 (en) Imaging apparatus, display control apparatus control method, and recording apparatus control method
JP5962974B2 (en) Imaging apparatus, imaging method, and program
JP2017085466A (en) Imaging apparatus and its control method
JP4923674B2 (en) Digital camera, focus position specifying method, program
JP2004117195A (en) Digital camera with speed measuring function
JP2009212803A (en) Imaging apparatus with composition assisting function, and composition assisting method of the same imaging apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20091002

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120416

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120419

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees