JP2012165405A - Imaging apparatus and program - Google Patents

Imaging apparatus and program Download PDF

Info

Publication number
JP2012165405A
JP2012165405A JP2012060836A JP2012060836A JP2012165405A JP 2012165405 A JP2012165405 A JP 2012165405A JP 2012060836 A JP2012060836 A JP 2012060836A JP 2012060836 A JP2012060836 A JP 2012060836A JP 2012165405 A JP2012165405 A JP 2012165405A
Authority
JP
Japan
Prior art keywords
image
imaging
captured
angle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012060836A
Other languages
Japanese (ja)
Other versions
JP2012165405A5 (en
JP5655804B2 (en
Inventor
Kosuke Matsumoto
康佑 松本
Naotomo Miyamoto
直知 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012060836A priority Critical patent/JP5655804B2/en
Publication of JP2012165405A publication Critical patent/JP2012165405A/en
Publication of JP2012165405A5 publication Critical patent/JP2012165405A5/ja
Application granted granted Critical
Publication of JP5655804B2 publication Critical patent/JP5655804B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus and a program capable of acquiring an image of wide field angle easily.SOLUTION: In an imaging apparatus, a CPU 11 allows a CCD (image pickup device) 5 to shoot a plurality of images continuously in a prescribed cycle (time-interval) while a user moves the shooting direction of a digital camera 1 so as to cover the desired scene, allows an image processing part 8 to synthesize reduced images of the plurality of shot images so that some parts are overlapping, and displays the reduced and synthesized images in an image display part 15 in real time. At that time, the CPU 11 stores an original image (high picture quality image) of the reduced image used for the synthesis, and when the shooting is finished, the CPU 11 synthesizes the original image stored so that some parts are overlapping, and finally generates an image of wide field angle which would not be able to obtain with one shot.

Description

本発明は、デジタルカメラや撮像機能を有する携帯電話などの撮像装置、及びプログラムに関する。   The present invention relates to an imaging apparatus such as a digital camera or a mobile phone having an imaging function, and a program.

デジタルカメラや、撮像機能を有する携帯電話などにおいては、撮像画角の限界はレンズの焦点距離、撮像素子のサイズなど、装置本体が備えるハードスペックに依存している。   In a digital camera, a mobile phone having an imaging function, and the like, the limit of the imaging angle of view depends on hardware specifications provided in the apparatus main body, such as the focal length of the lens and the size of the imaging element.

そして、このような撮像画角の限界の問題に対しては、撮像装置の中には、広角撮像用のコンバージョンレンズなどを、既存のレンズ前に装着したり(例えば、特許文献1、2、3参照)、複数のレンズを予め備え、撮像目的に応じてレンズを切り替えることで対処していた(例えば、特許文献4参照)。   For such a problem of the limit of the imaging angle of view, a conversion lens for wide-angle imaging or the like is mounted in front of an existing lens in the imaging apparatus (for example, Patent Documents 1, 2, 3), a plurality of lenses are provided in advance, and this is dealt with by switching the lenses according to the imaging purpose (for example, see Patent Document 4).

特開2004−191897号公報JP 2004-191897 A 特開2005−027142号公報Japanese Patent Laying-Open No. 2005-027142 特開2005−057548号公報JP 2005-057548 A 特開2007−081473号公報JP 2007-081473 A

しかしながら、上述した従来技術では、広角撮像を行うために、いちいち広角撮像用のコンバージョンレンズを装着したり、撮像目的に応じてレンズを切り替えたりしなくてはならず、操作性や、コストの面で問題があった。また、これら広角撮像用のコンバージョンレンズや、切り替え可能なレンズを用いたとしても、撮影者が希望する広角画像を得ることは難しいという問題があった。   However, in the above-described prior art, in order to perform wide-angle imaging, it is necessary to attach a conversion lens for wide-angle imaging one by one or switch the lens according to the imaging purpose. There was a problem. In addition, there is a problem that it is difficult to obtain a wide-angle image desired by the photographer even if these conversion lenses for wide-angle imaging and switchable lenses are used.

そこで本発明は、容易に広画角の画像を得ることができる撮像装置、及びプログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an imaging apparatus and a program that can easily obtain a wide-angle image.

上記目的達成のため、請求項1記載の発明は、表示手段と、第1の画角で撮像する撮像手段と、前記撮像手段により複数回の撮像を行う撮像制御手段と、前記撮像制御手段による複数回の撮像によって得られた複数の画像を合成することにより前記第1の画角よりも広い第2の画角で撮像された画像を再現した合成画像を生成する生成手段と、前記生成手段によって生成される合成画像を前記表示手段に表示する表示制御手段とを備えることを特徴とする撮像装置である。   In order to achieve the above object, the invention described in claim 1 is based on display means, imaging means for imaging at a first angle of view, imaging control means for performing imaging a plurality of times by the imaging means, and the imaging control means. Generating means for generating a composite image that reproduces an image captured at a second angle of view wider than the first angle of view by combining a plurality of images obtained by a plurality of times of imaging; and the generating means And a display control means for displaying the composite image generated by the display means on the display means.

また、好ましい態様として、例えば請求項2記載のように、請求項1に記載の撮像装置において、前記撮像制御手段による複数回の撮像における撮像動作間で、撮像された画像の撮像方向が大きく変化したか否かを判断する第1の判断手段と、前記第1の判断手段によって前記撮像方向が大きく変化したと判断された場合に、その旨を報知する第1の報知手段とを更に備えることを特徴とする。   Further, as a preferred aspect, for example, as in claim 2, in the imaging apparatus according to claim 1, the imaging direction of the captured image changes greatly between imaging operations in a plurality of imaging operations by the imaging control unit. A first determination unit that determines whether or not the image capturing direction has changed significantly by the first determination unit; and a first notification unit that notifies the fact when the first determination unit determines that the imaging direction has changed significantly. It is characterized by.

また、好ましい態様として、例えば請求項3記載のように、請求項2に記載の撮像装置において、前記第1の報知手段は、前記第1の判断手段によって前記撮像方向が大きく変化したと判断された場合に、前記表示手段にその旨を表示することを特徴とする。   Further, as a preferred aspect, for example, as in claim 3, in the imaging apparatus according to claim 2, the first notification means determines that the imaging direction has changed significantly by the first determination means. In such a case, a message to that effect is displayed on the display means.

また、好ましい態様として、例えば請求項4記載のように、請求項2または3に記載の撮像装置において、前前記撮像制御手段による複数回の撮像によって順次撮像される画像の中心座標の変化に基づいて、前記撮像方向が大きく変化したか否かを判断することを特徴とする。   Further, as a preferable aspect, for example, as in claim 4, in the imaging device according to claim 2 or 3, based on a change in center coordinates of images sequentially captured by a plurality of times of imaging by the previous imaging control means. Then, it is determined whether or not the imaging direction has changed significantly.

また、好ましい態様として、例えば請求項5記載のように、請求項2または3に記載の撮像装置において、前記第1の判断手段は、前記撮像制御手段による複数回の撮像によって順次撮像される画像間で、直前に撮像された画像と同一の領域が所定の面積以下か否かに基づいて、前記撮像方向が大きく変化したか否かを判断することを特徴とする。   Further, as a preferred aspect, for example, as in claim 5, in the imaging device according to claim 2 or 3, the first determination unit is an image sequentially captured by a plurality of times of imaging by the imaging control unit. In the meantime, it is determined whether or not the imaging direction has largely changed based on whether or not the same area as the image captured immediately before is a predetermined area or less.

また、好ましい態様として、例えば請求項6記載のように、請求項1乃至5のいずれかに記載の撮像装置において、前記撮像制御手段による複数回の撮像の撮像動作間で、撮像された画像の撮像方向が前記生成手段による画像合成の処理領域外であるか否かを判断する第2の判断手段と、前記第2の判断手段によって処理領域外であると判断された場合に、その旨を報知する第2の報知手段とを更に備えることを特徴とする。   Further, as a preferable aspect, for example, as in claim 6, in the imaging apparatus according to any one of claims 1 to 5, the image captured between the imaging operations of a plurality of times of imaging by the imaging control unit is recorded. When it is determined by the second determination means that the imaging direction is outside the processing area of the image synthesis by the generation means, and when the second determination means determines that the imaging direction is outside the processing area. And a second informing means for informing.

また、好ましい態様として、例えば請求項7記載のように、請求項6に記載の撮像装置において、前記第2の報知手段は、前記第2の判断手段によって処理領域外であると判断された場合に、前記表示手段にその旨を表示することを特徴とする。   As a preferred mode, for example, as in claim 7, in the imaging device according to claim 6, when the second notification means is determined to be outside the processing region by the second determination means. In addition, the display means displays that effect.

また、好ましい態様として、例えば請求項8記載のように、請求項6または7に記載の撮像装置において、前記第2の判断手段は、前記撮像制御手段による複数回の撮像によって順次撮像される画像間で、直前に撮像された画像と同一の領域があるか否かに基づいて、前記処理領域外であるか否かを判断することを特徴とする。   Further, as a preferred aspect, for example, as in claim 8, in the imaging apparatus according to claim 6 or 7, the second determination unit is an image sequentially captured by a plurality of times of imaging by the imaging control unit. In the meantime, based on whether or not there is the same region as the image captured immediately before, it is determined whether or not it is outside the processing region.

また、好ましい態様として、例えば請求項9記載のように、請求項1乃至8のいずれかに記載の撮像装置において、前記生成手段は、前記撮像制御手段による複数回の撮像によって順次撮像された複数の画像を順次合成して前記第1の画角よりも広い第2の画角の合成画像を生成し、前記表示制御手段は、前記生成手段によって順次合成される、前記第2の画角の合成画像を前記表示手段に表示することを特徴とする。   Further, as a preferable aspect, for example, as in claim 9, in the imaging device according to any one of claims 1 to 8, the generation unit includes a plurality of images sequentially captured by a plurality of times of imaging by the imaging control unit. Are sequentially combined to generate a composite image having a second field angle wider than the first field angle, and the display control unit is configured to sequentially combine the images of the second field angle. A synthesized image is displayed on the display means.

また、好ましい態様として、例えば請求項10記載のように、請求項1乃至9のいずれかに記載の撮像装置において、前記生成手段によって生成される合成画像から直前に合成された画像を中心とする所定領域をトリミングするトリミング手段を更に備え、前記表示制御手段は、前記トリミング手段によってトリミングされた前記直前に合成された画像を中心とする所定領域の画像を、前記表示手段の画面全体に表示することを特徴とする。   Further, as a preferred aspect, for example, as in claim 10, in the imaging device according to any one of claims 1 to 9, the image synthesized immediately before from the synthesized image generated by the generating means is centered. Trimming means for trimming a predetermined area is further provided, and the display control means displays an image of the predetermined area centered on the immediately previous synthesized image trimmed by the trimming means on the entire screen of the display means. It is characterized by that.

また、好ましい態様として、例えば請求項11記載のように、請求項1乃至10のいずれかに記載の撮像装置において、前記表示制御手段は、更に、前記撮像手段により撮像すべき方向を示す方向情報を、前記表示手段に表示することを特徴とする。   Further, as a preferred aspect, for example, as in claim 11, in the imaging apparatus according to any one of claims 1 to 10, the display control means further includes direction information indicating a direction to be imaged by the imaging means. Is displayed on the display means.

また、好ましい態様として、例えば請求項12記載のように、請求項11に記載の撮像装置において、前記表示制御手段は、前記生成手段により第2の画角の合成画像を生成する上で、既に撮像された画像の位置と、まだ撮像されていない画像の位置とを示す位置情報を、前記表示手段に表示することを特徴とする。   Further, as a preferable aspect, for example, as in claim 12, in the imaging apparatus according to claim 11, the display control unit has already generated a composite image having a second angle of view by the generation unit. Position information indicating the position of the captured image and the position of the image that has not yet been captured is displayed on the display means.

また、好ましい態様として、例えば請求項13記載のように、請求項1乃至12のいずれかに記載の撮像装置において、前記撮像制御手段は、所定の周期で連続して複数回の撮像を行うように前記撮像手段を制御することを特徴とする。   Further, as a preferred aspect, for example, as in claim 13, in the imaging apparatus according to any one of claims 1 to 12, the imaging control means performs imaging a plurality of times continuously in a predetermined cycle. The imaging means is controlled.

また、上記目的達成のため、請求項14記載の発明は、第1の画角で撮像する撮像手段と表示手段とを備える撮像装置のコンピュータに、前記撮像手段により複数回の撮像を行う撮像制御機能、前記撮像制御機能による複数回の撮像によって撮像された複数の画像を合成して前記第1の画角よりも広い第2の画角で撮像された画像を再現した合成画像を生成する生成機能、前記第2の画角の合成画像を前記表示手段に表示する表示制御機能を実行させることを特徴とするプログラムである。   In order to achieve the above object, the invention described in claim 14 is an image pickup control in which an image pickup device including an image pickup means for picking up an image at a first angle of view and a display means is picked up by the image pickup means. Generating a composite image that reproduces an image picked up at a second angle of view wider than the first angle of view by combining a plurality of images picked up by a plurality of times of shooting by the function and the image pickup control function A program for executing a display control function for displaying a composite image of the function and the second angle of view on the display means.

この発明によれば、容易に広画角の画像を得ることができるという利点が得られる。   According to the present invention, there is an advantage that an image with a wide angle of view can be easily obtained.

本発明の第1実施形態によるデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera by 1st Embodiment of this invention. 本第1実施形態によるデジタルカメラ1の広角撮像モードを説明するための概念図である。It is a conceptual diagram for demonstrating the wide angle imaging mode of the digital camera 1 by this 1st Embodiment. 本第1実施形態によるデジタルカメラ1における、レンズの画角と広角撮像モードで得られる合成画像との関係を示す概念図である。It is a conceptual diagram which shows the relationship between the field angle of a lens, and the synthesized image obtained by wide-angle imaging mode in the digital camera 1 by this 1st Embodiment. 本第1実施形態によるデジタルカメラ1の広角撮像モードにおけるユーザ操作を説明するための模式図である。It is a schematic diagram for demonstrating user operation in the wide angle imaging mode of the digital camera 1 by this 1st Embodiment. 本第1実施形態によるデジタルカメラの動作を説明するためのフローチャートである。4 is a flowchart for explaining the operation of the digital camera according to the first embodiment. 本第1実施形態によるデジタルカメラの広角撮像モードにおける画像合成を説明するための模式図である。It is a schematic diagram for demonstrating the image synthesis | combination in the wide angle imaging mode of the digital camera by this 1st Embodiment. 本第2実施形態によるデジタルカメラの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the digital camera by this 2nd Embodiment. 本第2実施形態によるデジタルカメラの画像表示部の表示例を示す模式図である。It is a schematic diagram which shows the example of a display of the image display part of the digital camera by this 2nd Embodiment. 本第2実施形態によるデジタルカメラの動作、及び画像表示部の表示例を示す模式図である。It is a schematic diagram which shows the operation | movement of the digital camera by this 2nd Embodiment, and the example of a display of an image display part. 本第3実施形態によるデジタルカメラの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the digital camera by this 3rd Embodiment. 本第3実施形態によるデジタルカメラの動作、及び画像表示部の表示例を示す模式図である。It is a schematic diagram which shows the operation | movement of the digital camera by this 3rd Embodiment, and the example of a display of an image display part. 本第4実施形態によるデジタルカメラの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the digital camera by this 4th Embodiment. 本第4実施形態によるデジタルカメラの動作、及び画像表示部の表示例を示す模式図である。It is a schematic diagram which shows the operation | movement of the digital camera by the 4th Embodiment, and the example of a display of an image display part. 本第4実施形態の変形例を示す模式図である。It is a schematic diagram which shows the modification of this 4th Embodiment.

以下、本発明の実施の形態を、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

A.第1実施形態
A−1.第1実施形態の構成
図1は、本発明の第1実施形態によるデジタルカメラの構成を示すブロック図である。図において、デジタルカメラ1は、撮像レンズ2、レンズ駆動部3、絞り兼用シャッタ4、CCD5、TG(Timing Generator)6、ユニット回路7、画像処理部8、CPU11、DRAM12、メモリ13、フラッシュメモリ14、画像表示部15、キー入力部16、カードI/F17、及びメモリ・カード18を備えている。
A. First embodiment A-1. Configuration of First Embodiment FIG. 1 is a block diagram showing a configuration of a digital camera according to a first embodiment of the present invention. In the figure, a digital camera 1 includes an imaging lens 2, a lens driving unit 3, a diaphragm / shutter 4, a CCD 5, a TG (Timing Generator) 6, a unit circuit 7, an image processing unit 8, a CPU 11, a DRAM 12, a memory 13, and a flash memory 14. , An image display unit 15, a key input unit 16, a card I / F 17, and a memory card 18.

撮像レンズ2は、フォーカスレンズ、ズームレンズなどを含み、レンズ駆動部3が接続されている。レンズ駆動部3は、撮像レンズ2を構成するフォーカスレンズ、ズームレンズをそれぞれ光軸方向に駆動させるモータと、CPU11からの制御信号に従ってフォーカスモータ、ズームモータを駆動させるフォーカスモータドライバ、ズームモータドライバから構成されている。   The imaging lens 2 includes a focus lens, a zoom lens, and the like, and a lens driving unit 3 is connected thereto. The lens driving unit 3 includes a motor for driving the focus lens and the zoom lens constituting the imaging lens 2 in the optical axis direction, a focus motor driver for driving the focus motor and the zoom motor according to a control signal from the CPU 11, and a zoom motor driver. It is configured.

絞り4は、図示しない駆動回路を含み、駆動回路はCPU11から送られてくる制御信号に従って絞り4を動作させる。該絞り4は、撮像レンズ2から入ってくる光の量を制御する。CCD(撮像素子)5は、撮像レンズ2、絞り4を介して投影された被写体の光を電気信号に変換し、撮像信号としてユニット回路7に出力する。また、CCD5は、TG6によって生成された所定周波数のタイミング信号に従って駆動される。   The diaphragm 4 includes a drive circuit (not shown), and the drive circuit operates the diaphragm 4 in accordance with a control signal sent from the CPU 11. The diaphragm 4 controls the amount of light that enters from the imaging lens 2. The CCD (imaging device) 5 converts the light of the subject projected through the imaging lens 2 and the diaphragm 4 into an electrical signal and outputs it to the unit circuit 7 as an imaging signal. The CCD 5 is driven according to a timing signal having a predetermined frequency generated by the TG 6.

ユニット回路7は、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行うAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されている。CCD5の撮像信号は、ユニット回路7を経てデジタル信号として画像処理部8に送られる。なお、ユニット回路7は、TG6によって生成された所定周波数のタイミング信号に従って駆動される。   The unit circuit 7 includes a CDS (Correlated Double Sampling) circuit that holds the imaging signal output from the CCD 5 by correlated double sampling, an AGC (Automatic Gain Control) circuit that performs automatic gain adjustment of the imaging signal after the sampling, It is composed of an A / D converter that converts an analog imaging signal after automatic gain adjustment into a digital signal. The imaging signal of the CCD 5 is sent to the image processing unit 8 as a digital signal through the unit circuit 7. The unit circuit 7 is driven according to a timing signal having a predetermined frequency generated by the TG 6.

画像処理部8は、ユニット回路7から送られてきた画像データの画像処理(画素補間処理、γ補正、輝度色差信号の生成、ホワイトバランス処理、露出補正処理等)、画像データの圧縮・伸張(例えば、JPEG形式やM−JPEG形式又はMPEG形式の圧縮・伸張)の処理、複数の撮像画像を合成する処理などを行う。なお、画像処理部8は、TG6によって生成された所定周波数のタイミング信号に従って駆動される。   The image processing unit 8 performs image processing (pixel interpolation processing, γ correction, luminance color difference signal generation, white balance processing, exposure correction processing, etc.) of image data sent from the unit circuit 7, and compression / decompression of image data ( For example, JPEG format, M-JPEG format, or MPEG format compression / expansion processing, processing of combining a plurality of captured images, and the like are performed. The image processing unit 8 is driven according to a timing signal having a predetermined frequency generated by the TG 6.

CPU11は、デジタルカメラ1の各部を制御するワンチップマイコンである。特に、本第1実施形態では、CPU11は、所定の周期(時間間隔)で複数枚の画像を連写し、撮像した複数の画像を、一部が重複するように(例えば、αブレンドを用いて)合成していき、広角で撮像したような1枚の合成画像を生成すべく各部を制御する。なお、画像合成の詳細については後述する。   The CPU 11 is a one-chip microcomputer that controls each part of the digital camera 1. In particular, in the first embodiment, the CPU 11 continuously shoots a plurality of images at a predetermined cycle (time interval), and the plurality of captured images are partially overlapped (for example, using an α blend). ) The respective components are controlled so as to generate a single composite image that is synthesized and captured at a wide angle. Details of the image composition will be described later.

DRAM12は、CCD5によって撮像された後、CPU11に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU11のワーキングメモリとして使用される。メモリ13は、CPU11によるデジタルカメラ1の各部の制御に必要なプログラム、及び各部の制御に必要なデータが記録されており、CPU11は、このプログラムに従って処理を行う。フラッシュメモリ14や、メモリ・カード18は、CCD5によって撮像された画像データなどを保存しておく記録媒体である。   The DRAM 12 is used as a buffer memory for temporarily storing image data sent to the CPU 11 after being imaged by the CCD 5 and also as a working memory for the CPU 11. The memory 13 stores a program necessary for controlling each part of the digital camera 1 by the CPU 11 and data necessary for controlling each part, and the CPU 11 performs processing according to this program. The flash memory 14 and the memory card 18 are recording media for storing image data captured by the CCD 5.

画像表示部15は、カラーLCDとその駆動回路を含み、撮像待機状態にあるときには、CCD5によって撮像された被写体をスルー画像として表示し、記録画像の再生時には、保存用フラッシュメモリ14や、メモリ・カード23から読み出され、伸張された記録画像を表示させる。また、本第1実施形態では、広角撮像モードにおいて連写される複数の画像を順次合成した合成画像を表示する。キー入力部16は、シャッタSW、ズームSW、モードキー、SETキー、十字キー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU11に出力する。カードI/F17には、デジタルカメラ1本体の図示しないカードスロットを介してメモリ・カード18が着脱自在に装着されている。   The image display unit 15 includes a color LCD and its driving circuit, and displays the subject imaged by the CCD 5 as a through image when in the imaging standby state, and when the recorded image is reproduced, the storage flash memory 14, The recorded image read from the card 23 and expanded is displayed. In the first embodiment, a composite image obtained by sequentially combining a plurality of images continuously shot in the wide-angle imaging mode is displayed. The key input unit 16 includes a plurality of operation keys such as a shutter SW, a zoom SW, a mode key, a SET key, and a cross key, and outputs an operation signal corresponding to the user's key operation to the CPU 11. A memory card 18 is detachably attached to the card I / F 17 through a card slot (not shown) of the digital camera 1 main body.

図2は、本第1実施形態によるデジタルカメラ1の広角撮像モードを説明するための概念図である。例えば、デジタルカメラ1で、図2に示すような景色を撮像する場合を想定する。撮像しようとする景色は、当該デジタルカメラ1の撮像系の画角Sに比べ、より広い画角を有する。したがって、一度の撮像では、所望する景色を全て撮像することができない。   FIG. 2 is a conceptual diagram for explaining the wide-angle imaging mode of the digital camera 1 according to the first embodiment. For example, assume that the digital camera 1 captures a scene as shown in FIG. The scenery to be imaged has a wider angle of view than the angle of view S of the imaging system of the digital camera 1. Therefore, it is not possible to capture all desired scenes with a single imaging.

そこで、本第1実施形態では、ユーザがデジタルカメラ1の撮像方向を所望する景色を網羅するように動かしている間に、所定の時間、あるいは所定の撮像枚数分の間、所定の周期(時間間隔)で複数枚の画像を連写し、撮像した複数の画像を、一部が重複するように合成することで、容易に広画角の画像を得ることができる広角撮像モードを提供する。   Therefore, in the first embodiment, while the user moves the imaging direction of the digital camera 1 so as to cover a desired scene, a predetermined period (time) for a predetermined time or a predetermined number of images is taken. Provided is a wide-angle imaging mode in which a plurality of images are continuously captured at intervals, and a plurality of captured images are combined so that a part of them is overlapped, so that a wide-angle image can be easily obtained.

なお、以下の説明では、撮像範囲や、撮像画角などを明確にするために、図2の景色を図3に示すように図式化して説明する。図3において、画角S1が最終的に生成する画像のサイズ(画角)であり、その外側は、撮像されたとしても最終的な画像としては残さない領域外とする。   In the following description, in order to clarify the imaging range, the imaging angle of view, and the like, the scenery in FIG. 2 is described as a diagram as shown in FIG. In FIG. 3, the angle of view S1 is the size (angle of view) of the image that is finally generated, and the outside thereof is outside the region that is not left as the final image even if it is captured.

本第1実施形態では、メモリ(DRAM12)上に画像書き込み用の配列を確保する。これを便宜上、本第1実施形態では、キャンバスと呼ぶ。本第1実施形態では、広角撮像モードにおいて連写した最初の撮像画像を基準画像(図3の画角Sの画像に相当)とし、該基準画像の縦横を、例えば、それぞれ2倍の大きさとし(図3の撮像領域S1)、キャンバスの中心に基準画像を貼り付ける。なお、キャンバスの大きさは、縦横2倍以外でもよい。そして、撮像した複数の画像を、基準画像と一部が重複するように位置合わせして合成し、キャンバスに上書きしていく。位置合わせの方法としては、例えば、ブロックマッチングなどの手法が考えられる。また、上書きをする場合には、投射変換などを行い、αブレンドなどの手法を用いて重ね合わせを行う方法が考えられる。   In the first embodiment, an image writing array is secured on the memory (DRAM 12). For convenience, this is referred to as a canvas in the first embodiment. In the first embodiment, the first captured image continuously shot in the wide-angle imaging mode is set as a reference image (corresponding to an image having an angle of view S in FIG. 3), and the vertical and horizontal dimensions of the reference image are, for example, twice as large. (Image pickup area S1 in FIG. 3), the reference image is pasted to the center of the canvas. Note that the size of the canvas may be other than twice the height and width. Then, the plurality of captured images are aligned and combined so that the reference image partially overlaps, and overwritten on the canvas. As a positioning method, for example, a technique such as block matching can be considered. In addition, in the case of overwriting, a method of performing projection conversion or the like and superimposing using a method such as α blending is conceivable.

図4は、本第1実施形態によるデジタルカメラ1の広角撮像モードにおけるユーザ操作を説明するための模式図である。ユーザは、所望する景色に対して、例えば、中央部でシャッタSWを押下(半押し→全押し)した状態で、矢印で示すように円を描くようにデジタルカメラ1を動かす。しかしながら、ユーザにとっては、どのようにデジタルカメラ1を動かしたらよいか、あるいは必要とされる画像が確実に得られているのかが分かりにくい。   FIG. 4 is a schematic diagram for explaining a user operation in the wide-angle imaging mode of the digital camera 1 according to the first embodiment. The user moves the digital camera 1 so as to draw a circle as indicated by an arrow with respect to a desired scene, for example, in a state where the shutter SW is pressed (half pressed → full pressed) at the center. However, it is difficult for the user to know how to move the digital camera 1 or whether the required image has been reliably obtained.

そこで、本第1実施形態では、ユーザによりシャッタSWが押下(半押し→全押し)されると、上述したように、所定の時間、あるいは所定の撮像枚数分の間、所定の周期(時間間隔)で複数枚の画像を連写しながら、撮像する毎に、リアルタイムで縮小画像(低解像度)を生成し、基準画像(または合成画像)と一部が重複するように合成し、該合成画像を画像表示部15に表示する。このとき、合成に用いた縮小画像の元画像(高画質画像)を保存しておく。   Therefore, in the first embodiment, when the user presses the shutter SW (half-press → full-press), as described above, the predetermined period (time interval) is maintained for a predetermined time or a predetermined number of images. ), Each time a plurality of images are captured, a reduced image (low resolution) is generated in real time, and the reference image (or composite image) is partially overlapped with the composite image. The image is displayed on the image display unit 15. At this time, the original image (high quality image) of the reduced image used for the synthesis is stored.

そして、所定の時間、あるいは所定の撮像枚数分の撮像が終了すると、縮小画像を用いて行った合成と同様に、上記保存しておいた元画像(高画質画像)を用いて、一部が重複するように合成し、最終的に、一度の撮像では得られない広画角の画像を生成する。連写中、画像合成した縮小画像を画像表示部15に表示するようにしたので、ユーザは、どの方向にデジタルカメラを向けたらよいかを容易に確認することが可能となっている。   Then, when imaging for a predetermined time or a predetermined number of images is completed, a part of the original image (high-quality image) is stored using the stored original image (high-quality image) in the same manner as the synthesis performed using the reduced image. The images are combined so that they overlap, and finally, a wide-angle image that cannot be obtained by one-time imaging is generated. During continuous shooting, the reduced image obtained by combining the images is displayed on the image display unit 15, so that the user can easily confirm in which direction the digital camera should be directed.

A−2.第1実施形態の動作
次に、上述した第1実施形態の動作について説明する。
図5は、本第1実施形態によるデジタルカメラの動作を説明するためのフローチャートである。また、図6(a)、(b)は、本第1実施形態によるデジタルカメラの広角撮像モードにおける画像合成を説明するための模式図である。
A-2. Operation of First Embodiment Next, the operation of the first embodiment described above will be described.
FIG. 5 is a flowchart for explaining the operation of the digital camera according to the first embodiment. FIGS. 6A and 6B are schematic diagrams for explaining image composition in the wide-angle imaging mode of the digital camera according to the first embodiment.

まず、CPU11は、シャッタSWが半押しされたか否かを判断し(ステップS10)、シャッタSWが半押しされない場合には、ステップS10を繰り返し実行する。一方、シャッタSWが半押しされると、AF(オートフォーカス)処理を実行し(ステップS12)、シャッタSWが全押しされたか否かを判断する(ステップS14)。シャッタSWが全押しされない場合には、ステップS10、S12を繰り返し実行する。   First, the CPU 11 determines whether or not the shutter SW is half-pressed (step S10). If the shutter SW is not half-pressed, the CPU 11 repeatedly executes step S10. On the other hand, when the shutter SW is half-pressed, AF (autofocus) processing is executed (step S12), and it is determined whether or not the shutter SW is fully pressed (step S14). If the shutter SW is not fully pressed, steps S10 and S12 are repeated.

一方、シャッタSWが全押しされると、撮像画像を取り込み、縮小(間引き)処理を実行し、縮小画像を生成する(ステップS16)。次に、縮小画像を用いて、重ね合わせ用画像位置を計算する(ステップS18)。重ね合わせ用画像位置の計算とは、例えば、縮小画像の中心位置(座標)を算出するとともに、既に基準画像(または合成画像)がある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように位置合わせして、現フレームの縮小画像のキャンバス内における位置などを算出することを意味する。次に、上記縮小画像の中心位置、及びキャンバス内における位置に基づいて、該縮小画像の中心位置が処理領域(キャンバス内)にあるか否かを判断する(ステップS20)。   On the other hand, when the shutter switch SW is fully pressed, the captured image is captured, a reduction (thinning) process is executed, and a reduced image is generated (step S16). Next, the image position for superimposition is calculated using the reduced image (step S18). The calculation of the image position for superimposition is, for example, calculating the center position (coordinates) of the reduced image and, if there is already a reference image (or composite image), the reduced image and reference image (or composite image) of the current frame. This means that the position of the reduced image of the current frame is calculated in the canvas and the like so as to partially overlap with the image. Next, based on the center position of the reduced image and the position in the canvas, it is determined whether or not the center position of the reduced image is in the processing area (in the canvas) (step S20).

そして、縮小画像の中心位置が処理領域内にある場合には、取り込んだ撮像画像(高解像度)を有効画像として保存し(ステップS22)、縮小画像を未取得部分であるブランク部分に上書きする(ステップS24)。つまり、現フレームの縮小画像の中心位置が処理領域内にある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように合成し、キャンバス40に上書きする(最初の1枚目の撮像画像の場合には基準画像としてキャンバス40の中央部に上書きする)。図6(a)に示す例では、現フレームの縮小画像31の中心位置が処理領域40内にあるので、現フレームの縮小画像31と基準画像30との一部が重複するように合成し、キャンバス40に上書きする。そして、該合成画像32を画像表示部15に表示する(ステップS26)。   If the center position of the reduced image is within the processing area, the captured image (high resolution) captured is saved as an effective image (step S22), and the reduced image is overwritten on the blank portion that is an unacquired portion ( Step S24). That is, when the center position of the reduced image of the current frame is within the processing region, the reduced image of the current frame and the reference image (or the synthesized image) are combined so that they overlap, and the canvas 40 is overwritten. (In the case of the first captured image, the center portion of the canvas 40 is overwritten as a reference image). In the example shown in FIG. 6A, since the center position of the reduced image 31 of the current frame is within the processing area 40, the reduced image 31 of the current frame and the reference image 30 are combined so that they partially overlap, The canvas 40 is overwritten. Then, the composite image 32 is displayed on the image display unit 15 (step S26).

次に、必要画像全てを取得したか否か(例えば、所定の時間、あるいは所定の撮像枚数分の画像を取得したか否か)を判断する(ステップS28)。そして、必要画像全てを取得していない場合には、ステップS16に戻り、次フレームの撮像画像に対して同様の処理を繰り返す。この結果、撮像する度に、撮像画像の中心位置が処理領域内にあれば、基準画像(または合成画像)に順次合成していき、その都度、合成画像を画像表示部15に表示することになる。   Next, it is determined whether or not all necessary images have been acquired (for example, whether or not images for a predetermined time or a predetermined number of images have been acquired) (step S28). If all the necessary images have not been acquired, the process returns to step S16, and the same processing is repeated for the captured image of the next frame. As a result, whenever the image is captured, if the center position of the captured image is within the processing region, the image is sequentially combined with the reference image (or the combined image), and the combined image is displayed on the image display unit 15 each time. Become.

一方、現フレームの縮小画像の中心位置が処理領域内にない場合には、ステップS16に戻り、次の撮像画像に対して同様の処理を繰り返す。例えば、図6(b)に示すように、現フレームの縮小画像31の中心位置が処理領域40内にない場合には、画像合成は行われない。   On the other hand, when the center position of the reduced image of the current frame is not within the processing region, the process returns to step S16, and the same processing is repeated for the next captured image. For example, as shown in FIG. 6B, when the center position of the reduced image 31 of the current frame is not within the processing area 40, image synthesis is not performed.

そして、必要画像全てを取得すると、合成に用いた縮小画像の元画像であって保存した有効画像を、縮小画像を用いて行った合成と同様に、一部が重複するように位置合わせして合成し、最終的に、図2に示すような広画角の画像を生成する(ステップS30)。   Once all the necessary images have been acquired, the saved effective image, which is the original image of the reduced image used for the composition, is aligned so that part of it overlaps, as in the composition performed using the reduced image. Finally, a wide angle image as shown in FIG. 2 is generated (step S30).

上述した第1実施形態によれば、連写中に、撮像する度に、リアルタイムで、画像合成した縮小画像を画像表示部15に表示するようにしたので、ユーザは、まだ撮像されていない方向、あるいは既に撮像された方向を容易に認識することができる。この結果、ユーザは、次にどこにデジタルカメラを向けたらよいかが分かるので、容易に、かつ効率的に広画角の画像を得ることができる。   According to the first embodiment described above, a reduced image obtained by combining images is displayed on the image display unit 15 in real time each time images are taken during continuous shooting. Alternatively, it is possible to easily recognize the direction that has already been imaged. As a result, the user can know where the digital camera should be pointed next, so that an image with a wide angle of view can be obtained easily and efficiently.

B.第2実施形態
次に、本発明の第2実施形態について説明する。
本第2実施形態では、処理領域外(キャンバス外)を撮像している場合や、デジタルカメラの移動(撮像方向の変化)が速すぎる場合などに、ユーザに対して、その旨を報知することで、デジタルカメラを、どの程度の速度で移動さればよいか、どの方向に向けたらよいかを知らせることを特徴としている。なお、デジタルカメラ1の構成は、図1と同様であるので説明を省略する。
B. Second Embodiment Next, a second embodiment of the present invention will be described.
In the second embodiment, when the outside of the processing area (outside the canvas) is imaged, or when the digital camera moves too quickly (changes in the imaging direction), the user is notified of that fact. Thus, it is characterized in that the speed at which the digital camera should be moved and in which direction the digital camera should be pointed are notified. The configuration of the digital camera 1 is the same as that shown in FIG.

図7は、本第2実施形態によるデジタルカメラ1の動作を説明するためのフローチャートである。また、図8、及び図9は、本第2実施形態によるデジタルカメラ1の画像表示部15の表示例を示す模式図である。まず、CPU11は、シャッタSWが半押しされたか否かを判断し(ステップS30)、シャッタSWが半押しされない場合には、ステップS30を繰り返し実行する。一方、シャッタSWが半押しされると、AF(オートフォーカス)処理を実行し(ステップS32)、シャッタSWが全押しされたか否かを判断する(ステップS34)。シャッタSWが全押しされない場合には、ステップS30、S32を繰り返し実行する。   FIG. 7 is a flowchart for explaining the operation of the digital camera 1 according to the second embodiment. 8 and 9 are schematic diagrams showing display examples of the image display unit 15 of the digital camera 1 according to the second embodiment. First, the CPU 11 determines whether or not the shutter SW is half-pressed (step S30). If the shutter SW is not half-pressed, the CPU 11 repeatedly executes step S30. On the other hand, when the shutter SW is half-pressed, AF (autofocus) processing is executed (step S32), and it is determined whether the shutter SW is fully pressed (step S34). If the shutter SW is not fully pressed, steps S30 and S32 are repeated.

一方、シャッタSWが全押しされると、撮像画像を取り込み、縮小(間引き)処理を実行し、縮小画像を生成する(ステップS36)。次に、縮小画像を用いて、重ね合わせ用画像位置を計算する(ステップS38)。重ね合わせ用画像位置の計算とは、例えば、縮小画像の中心位置(座標)を算出するとともに、既に基準画像(または合成画像)がある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように位置合わせして、現フレームの縮小画像のキャンバス内における位置、直前に撮像した画像(縮小画像)の中心位置(座標)との距離などを算出することを意味する。次に、上記縮小画像の中心位置、及びキャンバス内における位置に基づいて、縮小画像の中心位置が処理領域(キャンバス内)にあるか否かを判断する(ステップS40)。   On the other hand, when the shutter switch SW is fully pressed, the captured image is captured, a reduction (thinning) process is executed, and a reduced image is generated (step S36). Next, the image position for superimposition is calculated using the reduced image (step S38). The calculation of the image position for superimposition is, for example, calculating the center position (coordinates) of the reduced image and, if there is already a reference image (or composite image), the reduced image and reference image (or composite image) of the current frame. Position the image so that it partially overlaps the image, and calculate the position of the reduced image of the current frame in the canvas, the distance from the center position (coordinates) of the image (reduced image) that was captured immediately before, etc. Means. Next, based on the center position of the reduced image and the position in the canvas, it is determined whether or not the center position of the reduced image is in the processing area (in the canvas) (step S40).

そして、縮小画像の中心位置が処理領域内にない場合には、画像表示部15に領域超過マークを表示する(ステップS42)。例えば、図8(a)に示すように、現フレームの縮小画像31の中心が、処理領域であるキャンバス40の外に出てしまった場合には、図8(b)に示すように、処理領域内に戻すように、領域超過マークとして、移動した方向とは逆方向を示す矢印50を画像表示部15に表示する。これにより、ユーザは、デジタルカメラ1の撮像方向が上に行き過ぎたことが分かるので、矢印50の方向にデジタルカメラ1を移動させることで、撮像される画角を処理領域内に戻すことが可能となる。その後、ステップS36に戻り、次フレームの撮像画像に対して上述した処理を行う。つまり、この場合、画像合成は行われない。   If the center position of the reduced image is not within the processing area, an area excess mark is displayed on the image display unit 15 (step S42). For example, as shown in FIG. 8A, when the center of the reduced image 31 of the current frame is outside the processing area canvas 40, as shown in FIG. An arrow 50 indicating the direction opposite to the moved direction is displayed on the image display unit 15 as an area excess mark so as to return to the area. As a result, the user can know that the imaging direction of the digital camera 1 has gone up too much, and therefore, by moving the digital camera 1 in the direction of the arrow 50, the angle of view to be captured can be returned to the processing area. It becomes. Thereafter, the process returns to step S36, and the above-described processing is performed on the captured image of the next frame. That is, in this case, image composition is not performed.

一方、縮小画像の中心位置が処理領域内にある場合には、前フレームの縮小画像の中心位置と現フレームの縮小画像の中心位置との距離が所定の閾値より小さいか否かを判断する(ステップS44)。そして、上記距離が所定の閾値以上である場合には、画像表示部15にスピード超過マークを表示する(ステップS46)。その後、ステップS36に戻り、次フレームの撮像画像に対して上述した処理を行う。つまり、この場合、画像合成は行われない。   On the other hand, when the center position of the reduced image is within the processing region, it is determined whether or not the distance between the center position of the reduced image of the previous frame and the center position of the reduced image of the current frame is smaller than a predetermined threshold ( Step S44). If the distance is equal to or greater than the predetermined threshold, an overspeed mark is displayed on the image display unit 15 (step S46). Thereafter, the process returns to step S36, and the above-described processing is performed on the captured image of the next frame. That is, in this case, image composition is not performed.

本発明では、位置合わせをブロックマッチングなどの方法により実現しているが、デジタルカメラ1の移動速度が大きいと、位置合わせ用の2つの画像(前フレームの縮小画像と現フレームの縮小画像)の中で同一のものが写っている領域の面積が小さくなり、位置合わせが不正確になってしまう。そのため、デジタルカメラ1の移動速度を、ある一定速度以下に抑える必要がある。そこで、ユーザに明示的にデジタルカメラ1の移動速度(撮像方向の変化速度)を知らせるようにしている。   In the present invention, alignment is realized by a method such as block matching. However, if the moving speed of the digital camera 1 is high, two images for alignment (a reduced image of the previous frame and a reduced image of the current frame) are displayed. Among them, the area of the same image is reduced, and the alignment is inaccurate. Therefore, it is necessary to suppress the moving speed of the digital camera 1 below a certain fixed speed. Therefore, the user is explicitly notified of the moving speed of the digital camera 1 (change speed in the imaging direction).

例えば、図9(a)に示すように、前フレームの縮小画像31aの中心位置と現フレームの縮小画像31bの中心位置との距離が所定の閾値以上である場合には、双方の縮小画像との重なる面積が小さくなってしまい、位置合わせが不正確になる可能性が高いので、図9(b)に示すように、画像表示部15にスピード超過マーク60を表示する。   For example, as shown in FIG. 9A, when the distance between the center position of the reduced image 31a of the previous frame and the center position of the reduced image 31b of the current frame is equal to or greater than a predetermined threshold value, Since the overlapping area becomes small and there is a high possibility that the alignment will be inaccurate, an overspeed mark 60 is displayed on the image display unit 15 as shown in FIG.

スピード超過マーク60としては、図9(c)に示すように、画像の単位時間当たりの移動距離の大きさに応じて、メータの針の位置、及びメータの色を変化させるタコメータ状のマーク61や、画像の単位時間当たりの移動距離の大きさに応じて、円弧状の面積、及び円弧の色を変化させるようなマーク62などが考えられる。あるいは、画像の単位時間当たりの移動距離の大きさに応じて、長さや色を変化させるような棒グラフであってもよい(図示略)。   As the overspeed mark 60, as shown in FIG. 9C, a tachometer-shaped mark 61 that changes the position of the meter needle and the color of the meter according to the moving distance per unit time of the image. Or, a mark 62 that changes the arc-shaped area and the color of the arc according to the size of the moving distance per unit time of the image can be considered. Alternatively, it may be a bar graph in which the length and color are changed according to the size of the moving distance per unit time of the image (not shown).

一方、現フレームの縮小画像が処理領域内で、かつ、移動距離も所定の閾値より小さい場合には、画像を合成する上で十分に正確な位置合わせを行うことができるので、取り込んだ撮像画像(高解像度)を有効画像として保存し(ステップS48)、縮小画像を未取得部分であるブランク部分に上書きする(ステップS50)。つまり、現フレームの縮小画像の中心位置が処理領域内にある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように合成し、キャンバス40に上書きする(最初の1枚目の撮像画像の場合には基準画像としてキャンバス40の中央部に上書きする)。そして、該合成画像を画像表示部15に表示する(ステップS52)。   On the other hand, if the reduced image of the current frame is within the processing area and the moving distance is smaller than the predetermined threshold, sufficiently accurate alignment can be performed for combining the images. (High resolution) is stored as an effective image (step S48), and the reduced image is overwritten on the blank portion which is an unacquired portion (step S50). That is, when the center position of the reduced image of the current frame is within the processing region, the reduced image of the current frame and the reference image (or the synthesized image) are combined so that they overlap, and the canvas 40 is overwritten. (In the case of the first captured image, the center portion of the canvas 40 is overwritten as a reference image). Then, the composite image is displayed on the image display unit 15 (step S52).

次に、必要画像全てを取得したか否か(例えば、所定の時間、あるいは所定の撮像枚数分の画像を取得したか否か)を判断する(ステップS54)。そして、必要画像全てを取得していない場合には、ステップS36に戻り、次フレームの撮像画像に対して同様の処理を繰り返す。この結果、撮像する度に、撮像画像の中心位置が処理領域内にあれば、基準画像(または合成画像)に順次合成していき、その都度、合成画像を画像表示部15に表示することになる。   Next, it is determined whether or not all necessary images have been acquired (for example, whether or not images for a predetermined time or a predetermined number of images have been acquired) (step S54). If all the necessary images have not been acquired, the process returns to step S36, and the same processing is repeated for the captured image of the next frame. As a result, whenever the image is captured, if the center position of the captured image is within the processing region, the image is sequentially combined with the reference image (or the combined image), and the combined image is displayed on the image display unit 15 each time. Become.

そして、必要画像全てを取得すると、合成に用いた縮小画像の元画像であって保存した有効画像を、縮小画像を用いて行った合成と同様に、一部が重複するように位置合わせして合成し、最終的に、図2に示すような広画角の画像を生成する(ステップS56)。   Once all the necessary images have been acquired, the saved effective image, which is the original image of the reduced image used for the composition, is aligned so that part of it overlaps, as in the composition performed using the reduced image. Finally, a wide angle image as shown in FIG. 2 is generated (step S56).

上述した第2実施形態によれば、撮像する度に、リアルタイムで、ユーザに対して、処理領域外を撮像している場合や、デジタルカメラ1の移動(撮像方向の変化)が速すぎる場合などに、その旨を報知するようにしたので、ユーザは、デジタルカメラ1を、どの程度の速度で移動さればよいか、どの方向に向けたらよいかが分かるので、容易に、かつ効率的に広画角の画像を得ることができる。   According to the second embodiment described above, when the user captures an image outside the processing area in real time every time an image is captured, or when the movement of the digital camera 1 (change in the imaging direction) is too fast, etc. In addition, since the user is notified of this, the user can know how fast the digital camera 1 should be moved and in which direction it should be directed. A corner image can be obtained.

C.第3実施形態
次に、本発明の第3実施形態について説明する。
本第3実施形態では、連写される撮像画像(の縮小画像)を単に合成して表示するのではなく、現フレームの縮小画像が画像表示部15の中心に位置するように、合成画像から所定の範囲をトリミングして画像表示部15に表示することを特徴としている。なお、デジタルカメラ1の構成は、図1と同様であるので説明を省略する。
C. Third Embodiment Next, a third embodiment of the present invention will be described.
In the third embodiment, captured images (reduced images) that are continuously shot are not simply combined and displayed, but from a combined image so that the reduced image of the current frame is positioned at the center of the image display unit 15. A predetermined range is trimmed and displayed on the image display unit 15. The configuration of the digital camera 1 is the same as that shown in FIG.

図10は、本第3実施形態によるデジタルカメラの動作を説明するためのフローチャートである。まず、CPU11は、シャッタSWが半押しされたか否かを判断し(ステップS60)、シャッタSWが半押しされない場合には、ステップS60を繰り返し実行する。一方、シャッタSWが半押しされると、AF(オートフォーカス)処理を実行し(ステップS62)、シャッタSWが全押しされたか否かを判断する(ステップS64)。シャッタSWが全押しされない場合には、ステップS60、S62を繰り返し実行する。   FIG. 10 is a flowchart for explaining the operation of the digital camera according to the third embodiment. First, the CPU 11 determines whether or not the shutter SW is half-pressed (step S60). If the shutter SW is not half-pressed, the CPU 11 repeatedly executes step S60. On the other hand, when the shutter SW is half-pressed, AF (autofocus) processing is executed (step S62), and it is determined whether or not the shutter SW is fully pressed (step S64). If the shutter SW is not fully pressed, steps S60 and S62 are repeated.

一方、シャッタSWが全押しされると、撮像画像を取り込み、縮小(間引き)処理を実行し、縮小画像を生成する(ステップS66)。次に、縮小画像を用いて、重ね合わせ用画像位置を計算する(ステップS68)。重ね合わせ用画像位置の計算とは、例えば、縮小画像の中心位置(座標)を算出するとともに、既に基準画像(または合成画像)がある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように位置合わせして、現フレームの縮小画像のキャンバス内における位置などを算出することを意味する。次に、上記縮小画像の中心位置、及びキャンバス内における位置に基づいて、縮小画像の中心位置が処理領域(キャンバス内)にあるか否かを判断し(ステップS70)、縮小画像の中心位置が処理領域にない場合には、ステップS66に戻り、次フレームの撮像画像に対して上述した処理を行う。この場合、画像合成は行われない。   On the other hand, when the shutter switch SW is fully pressed, a captured image is captured, a reduction (thinning) process is executed, and a reduced image is generated (step S66). Next, the image position for superimposition is calculated using the reduced image (step S68). The calculation of the image position for superimposition is, for example, calculating the center position (coordinates) of the reduced image and, if there is already a reference image (or composite image), the reduced image and reference image (or composite image) of the current frame. This means that the position of the reduced image of the current frame is calculated in the canvas and the like so as to partially overlap with the image. Next, based on the center position of the reduced image and the position in the canvas, it is determined whether or not the center position of the reduced image is in the processing area (in the canvas) (step S70). If not in the processing area, the process returns to step S66, and the above-described processing is performed on the captured image of the next frame. In this case, image composition is not performed.

一方、縮小画像の中心位置が処理領域内にある場合には、取り込んだ撮像画像(高解像度)を有効画像として保存し(ステップS72)、縮小画像を未取得部分であるブランク部分に上書きする(ステップS74)。つまり、縮小画像の中心位置が処理領域内にある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように位置合わせして合成し、キャンバスに上書きする(最初の1枚目の撮像画像の場合には基準画像としてキャンバスの中央部に上書きする)。   On the other hand, if the center position of the reduced image is within the processing region, the captured image (high resolution) captured is saved as an effective image (step S72), and the reduced image is overwritten on the blank portion that is an unacquired portion ( Step S74). In other words, if the center position of the reduced image is within the processing region, the reduced image of the current frame and the reference image (or composite image) are aligned and combined so that they partially overlap, and the canvas is overwritten. (In the case of the first captured image, the reference image is overwritten on the center of the canvas).

次に、現フレームの縮小画像を中心として画像表示部15の表示サイズで合成画像をトリミングし(ステップS76)、該トリミングした合成画像を画像表示部15に表示する(ステップS78)。次に、必要画像全てを取得したか否か(例えば、所定の時間、あるいは所定の撮像枚数分の画像を取得したか否か)を判断する(ステップS80)。   Next, the composite image is trimmed with the display size of the image display unit 15 around the reduced image of the current frame (step S76), and the trimmed composite image is displayed on the image display unit 15 (step S78). Next, it is determined whether or not all necessary images have been acquired (for example, whether or not images for a predetermined time or a predetermined number of images have been acquired) (step S80).

そして、必要画像全てを取得していない場合には、ステップS66に戻り、次の撮像画像に対して同様の処理を繰り返す。この結果、撮像する度に、撮像画像の中心位置が処理領域内にあれば、基準画像(または合成画像)に順次合成していき、その都度、現フレームの縮小画像を中心として画像表示部15の表示サイズで合成画像をトリミングし、該トリミングした合成画像を画像表示部15に表示することになる。   If all the necessary images have not been acquired, the process returns to step S66, and the same processing is repeated for the next captured image. As a result, every time an image is captured, if the center position of the captured image is within the processing region, the image display unit 15 is sequentially combined with the reference image (or the combined image), and each time, the reduced image of the current frame is the center. The composite image is trimmed with the display size of, and the trimmed composite image is displayed on the image display unit 15.

そして、必要画像全てを取得すると、合成に用いた縮小画像の元画像であって保存した有効画像を、縮小画像を用いて行った合成と同様に、一部が重複するように位置合わせして合成し、最終的に、図2に示すような広画角の画像を生成する(ステップS82)。   Once all the necessary images have been acquired, the saved effective image, which is the original image of the reduced image used for the composition, is aligned so that part of it overlaps, as in the composition performed using the reduced image. Finally, a wide angle image as shown in FIG. 2 is generated (step S82).

図11は、本第3実施形態によるデジタルカメラの動作、及び画像表示部の表示例を示す模式図である。まず、1枚目の撮像画像である基準画像30が取得された後、2枚目の撮像画像(縮小画像)31が取得される。2枚目の縮小画像31の中心位置が画像取得位置にあったとすると、該2枚目の縮小画像31は、1枚目の基準画像30と一部を重ね合わせて合成される。次いで、現フレームの縮小画像31を中心として画像表示部15の表示サイズで合成画像32がトリミングされ、該トリミングした合成画像32aが画像表示部15に表示される。   FIG. 11 is a schematic diagram illustrating an operation of the digital camera according to the third embodiment and a display example of the image display unit. First, after the reference image 30 that is the first captured image is acquired, the second captured image (reduced image) 31 is acquired. If the center position of the second reduced image 31 is at the image acquisition position, the second reduced image 31 is synthesized by superimposing a part of the first reference image 30. Next, the composite image 32 is trimmed with the display size of the image display unit 15 around the reduced image 31 of the current frame, and the trimmed composite image 32 a is displayed on the image display unit 15.

上述した第3実施形態によれば、撮像画像が順次合成される度に、画像表示部15には、現フレームの縮小画像が画像表示部15の中央に位置するように表示される。すなわち、画像表示部15を見ながら撮像を行っているユーザは、リアルタイムでデジタルカメラが向いている方向を中心とした画像を見ることができ、まだ撮像されていないブランク部分を埋めるためには、次にどの方向にデジタルカメラを向ければよいかを直感的に、かつ容易に認識することができる。この結果、容易に、かつ効率的に広画角の画像を得ることができる。   According to the third embodiment described above, every time captured images are sequentially combined, the reduced image of the current frame is displayed on the image display unit 15 so as to be positioned at the center of the image display unit 15. That is, a user who is taking an image while looking at the image display unit 15 can view an image centered on a direction in which the digital camera is facing in real time, and in order to fill a blank portion that has not yet been taken, Next, it is possible to intuitively and easily recognize in which direction the digital camera should be directed. As a result, an image with a wide angle of view can be obtained easily and efficiently.

なお、上記一連の処理においては、基準画像が画像表示部15の画面上を移動してしまうので、ユーザに合成画像のどの部分が基準画像であるかを分からせるために、所定の色の枠で囲むようにしてもよい。   In the above-described series of processing, the reference image moves on the screen of the image display unit 15. Therefore, in order to let the user know which part of the composite image is the reference image, a frame of a predetermined color is used. You may make it surround with.

D.第4実施形態
次に、本発明の第4実施形態について説明する。
本第4実施形態では、連写中に、ユーザに対して、まだ撮像されていない方向、あるいは既に撮像された方向を明示しつつ、どのようにデジタルカメラを移動させればよいか、あるいはどの方向にデジタルカメラを向ければよいかを誘導するためのガイドを提示することを特徴としている。なお、デジタルカメラ1の構成は、図1と同様であるので説明を省略する。
D. Fourth Embodiment Next, a fourth embodiment of the present invention will be described.
In the fourth embodiment, during continuous shooting, how to move the digital camera while clearly indicating to the user the direction that has not yet been captured or the direction that has already been captured, or which It is characterized by presenting a guide for guiding whether the digital camera should be directed in the direction. The configuration of the digital camera 1 is the same as that shown in FIG.

図12は、本第4実施形態によるデジタルカメラの動作を説明するためのフローチャートである。また、図13(a)〜(e)は、本第4実施形態によるデジタルカメラの動作、及び画像表示部の表示例を示す模式図である。   FIG. 12 is a flowchart for explaining the operation of the digital camera according to the fourth embodiment. FIGS. 13A to 13E are schematic diagrams illustrating an operation of the digital camera according to the fourth embodiment and a display example of the image display unit.

まず、CPU11は、シャッタSWが半押しされたか否かを判断し(ステップS90)、シャッタSWが半押しされない場合には、ステップS90を繰り返し実行する。一方、シャッタSWが半押しされると、AF(オートフォーカス)処理を実行し(ステップS92)、シャッタSWが全押しされたか否かを判断する(ステップS94)。シャッタSWが全押しされない場合には、ステップS90、S92を繰り返し実行する。   First, the CPU 11 determines whether or not the shutter SW is half-pressed (step S90). If the shutter SW is not half-pressed, the CPU 11 repeatedly executes step S90. On the other hand, when the shutter SW is half-pressed, AF (autofocus) processing is executed (step S92), and it is determined whether or not the shutter SW is fully pressed (step S94). If the shutter switch is not fully pressed, steps S90 and S92 are repeated.

一方、シャッタSWが全押しされると、例えば、図13(a)に示すように、画像表示部15の右下に渦巻き状のガイド70を表示する(ステップS96)。次に、撮像画像を取り込み、縮小(間引き)処理を実行し、縮小画像を生成する(ステップS98)。次に、縮小画像を用いて、重ね合わせ用画像位置を計算する(ステップS100)。重ね合わせ用画像位置の計算とは、例えば、縮小画像の中心位置(座標)を算出するとともに、既に基準画像(または合成画像)がある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように位置合わせして、現フレームの縮小画像のキャンバス内における位置などを算出することを意味する。   On the other hand, when the shutter SW is fully pressed, for example, as shown in FIG. 13A, a spiral guide 70 is displayed on the lower right of the image display unit 15 (step S96). Next, the captured image is captured, and a reduction (thinning-out) process is executed to generate a reduced image (step S98). Next, the image position for superimposition is calculated using the reduced image (step S100). The calculation of the image position for superimposition is, for example, calculating the center position (coordinates) of the reduced image and, if there is already a reference image (or composite image), the reduced image and reference image (or composite image) of the current frame. This means that the position of the reduced image of the current frame is calculated in the canvas and the like so as to partially overlap with the image.

次に、上記縮小画像の中心位置、及びキャンバス内における位置に基づいて、縮小画像の中心位置が処理領域(キャンバス内)にあるか否かを判断し(ステップS102)、縮小画像の中心位置が処理領域にない場合には、ステップS96に戻り、次フレームの撮像画像に対して上述した処理を行う。この場合、画像合成は行われない。   Next, based on the center position of the reduced image and the position in the canvas, it is determined whether or not the center position of the reduced image is in the processing area (in the canvas) (step S102). If not in the processing area, the process returns to step S96, and the above-described processing is performed on the captured image of the next frame. In this case, image composition is not performed.

一方、縮小画像の中心位置が処理領域内にある場合には、取り込んだ撮像画像(高解像度)を有効画像として保存し(ステップS104)、縮小画像を未取得部分であるブランク部分に上書きする(ステップS106)。つまり、縮小画像の中心位置が処理領域内にある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように位置合わせして合成し、キャンバス40に上書きする(最初の1枚目の撮像画像の場合には基準画像としてキャンバス40の中央部に上書きする)。次に、合成画像を画像表示部15に表示する(ステップS108)。   On the other hand, when the center position of the reduced image is within the processing region, the captured image (high resolution) captured is saved as an effective image (step S104), and the reduced image is overwritten on the blank portion that is an unacquired portion ( Step S106). In other words, if the center position of the reduced image is within the processing area, the reduced image of the current frame and the reference image (or composite image) are aligned and combined so that a part of the image overlaps, and the canvas 40 is overwritten. (In the case of the first captured image, it is overwritten on the center of the canvas 40 as a reference image). Next, the composite image is displayed on the image display unit 15 (step S108).

次に、現フレームの縮小画像が合成された部分が取得済みであることを示すべく、該合成された部分に対応するガイド70の一部の色(図示の例では線種の違いで示した)を変更し、画像表示部15に表示されているガイド70を更新する(ステップS110)。例えば、図13(b)には、1枚目の基準画像30の撮像後における、画像表示部15の表示例を示している。このとき、ガイド70において、渦巻き状の中心から1枚目の基準画像の位置に相当する箇所の色が変化している(図示の例では、ガイド70の線種が変化)。ユーザは、該ガイド70を見て、渦巻きに沿ってデジタルカメラ1を動かせばよい。   Next, in order to show that the combined portion of the reduced image of the current frame has been acquired, a part of the color of the guide 70 corresponding to the combined portion (in the illustrated example, it is indicated by the difference in line type) ) And the guide 70 displayed on the image display unit 15 is updated (step S110). For example, FIG. 13B shows a display example of the image display unit 15 after the first reference image 30 is captured. At this time, in the guide 70, the color corresponding to the position of the first reference image from the spiral center changes (in the illustrated example, the line type of the guide 70 changes). The user may look at the guide 70 and move the digital camera 1 along the spiral.

そして、2枚目の縮小画像の合成後には、図13(c)に示すように、ガイド70において、渦巻き状の中心から2枚目の撮像画像の位置に相当する箇所までの色(図示の例では、ガイド70の線種)が変化している。ユーザは、該ガイド70を見て、さらに、渦巻きに沿ってデジタルカメラ1を動かせばよい。   After the synthesis of the second reduced image, as shown in FIG. 13C, the color from the spiral center to the location corresponding to the position of the second captured image (shown in the figure) in the guide 70. In the example, the line type of the guide 70 is changed. The user may look at the guide 70 and move the digital camera 1 along the spiral.

次に、必要画像全てを取得したか否か(例えば、所定の時間、あるいは所定の撮像枚数分の画像を取得したか否か)を判断する(ステップS112)。そして、必要画像全てを取得していない場合には、ステップS96に戻り、次の撮像画像に対して同様の処理を繰り返す。この結果、縮小画像が順次合成される度に、該合成される縮小画像の位置に対応するガイド70の一部の色が変化することになる。つまり、縮小画像が順次合成される度に、図13(d)の状態となり、最終的には、図13(e)に示すように、ガイド70の全体が変化し、画面全体の合成画像を取得したことが示されることになる。   Next, it is determined whether or not all necessary images have been acquired (for example, whether or not images for a predetermined time or a predetermined number of images have been acquired) (step S112). If all the necessary images have not been acquired, the process returns to step S96, and the same processing is repeated for the next captured image. As a result, each time the reduced images are sequentially combined, a part of the color of the guide 70 corresponding to the position of the reduced image to be combined changes. That is, every time reduced images are sequentially combined, the state shown in FIG. 13 (d) is obtained. Finally, as shown in FIG. 13 (e), the entire guide 70 changes, and the combined image of the entire screen is displayed. It will be shown that it has been acquired.

そして、必要画像全てを取得すると、合成に用いた縮小画像の元画像であって保存した有効画像を、縮小画像を用いて行った合成と同様に、一部が重複するように合成し、最終的に、図2に示すような広画角の画像を生成する(ステップS114)。   Then, when all the necessary images are obtained, the saved effective image that is the original image of the reduced image used for the synthesis is synthesized so as to partially overlap, as in the synthesis performed using the reduced image. Specifically, an image with a wide angle of view as shown in FIG. 2 is generated (step S114).

図14(a)〜(c)は、本第4実施形態の変形例を示す模式図である。上述した本第4実施形態では、ガイド70を渦巻き状とし、画像表示部15の右隅に表示するようにしたが、これに限らず、例えば、図14(a)に示すように、ガイド71を画像表示部15の画面全体に合成画像と重ねて表示したり、図14(b)に示すように、ガイド72を画面の左上から蛇行させたZ字形状にしてもよい。図14(b)の場合、1枚目の基準画像は、ガイド72の始点である左上隅となる。また、図14(c)に示すように、撮像すべき位置に円形状のガイド73を配置し、撮像されると、色を変更することで、撮像済みであるか未撮像であるかを分かるようにしてもよい。すなわち、ガイド70は、基準画像に対して何倍の画角(面積)の合成画像を生成するかに応じた形状を有するものであれば如何なるものでもよい。   FIGS. 14A to 14C are schematic views showing modifications of the fourth embodiment. In the fourth embodiment described above, the guide 70 has a spiral shape and is displayed at the right corner of the image display unit 15. However, the present invention is not limited to this. For example, as shown in FIG. May be displayed on the entire screen of the image display unit 15 so as to overlap with the composite image, or as shown in FIG. 14B, the guide 72 may be Z-shaped meandering from the upper left of the screen. In the case of FIG. 14B, the first reference image is the upper left corner that is the starting point of the guide 72. Further, as shown in FIG. 14C, a circular guide 73 is arranged at a position to be imaged, and when the image is captured, the color is changed to determine whether the image has been captured or not captured. You may do it. That is, the guide 70 may have any shape as long as it has a shape corresponding to how many times the angle of view (area) of the composite image is generated with respect to the reference image.

上述した第4実施形態によれば、連写中に、ユーザに対して、まだ撮像されていない方向、あるいは既に撮像された方向を明示しつつ、どのようにデジタルカメラを移動させればよいか、あるいはどの方向にデジタルカメラを向ければよいかを誘導するためのガイドを表示するようにしたので、画像表示部15を見ながら撮像を行っているユーザは、次にどのようにデジタルカメラを移動させればよいか、あるいはどの方向にデジタルカメラを向ければよいかを、直感的に、かつ容易に認識することができる。この結果、容易に、かつ効率的に広画角の画像を得ることができる。   According to the fourth embodiment described above, how should the digital camera be moved while clearly indicating to the user the direction that has not yet been captured or the direction that has already been captured during continuous shooting? Or a guide for guiding in which direction the digital camera should be directed is displayed, so that the user who is taking an image while looking at the image display unit 15 then moves the digital camera. It is possible to intuitively and easily recognize which should be performed or in which direction the digital camera should be directed. As a result, an image with a wide angle of view can be obtained easily and efficiently.

また、上述した第1実施形態から第4実施形態は、それぞれ組合わせ可能であり、例えば、第2実施形態による領域超過マークや、スピード超過マークの表示処理に、第3実施形態によるトリミング処理、または/及び第4実施形態によるガイド表示を加えるようにしてもよい。また、例えば、上述した第1実施形態から第4実施形態にあっては、デジタルカメラの移動を検出する加速度センサを更に備え、連写によって順次得られる撮像画像の重ね合わせの際には、この加速度センサによって検出された移動を考慮して重ね合わせ用の画像位置を計算するようにしてもよい。   In addition, the above-described first to fourth embodiments can be combined, for example, the region excess mark and the overspeed mark display processing according to the second embodiment, the trimming processing according to the third embodiment, Or / and a guide display according to the fourth embodiment may be added. In addition, for example, in the above-described first to fourth embodiments, an acceleration sensor that detects the movement of the digital camera is further provided, and when the captured images sequentially obtained by continuous shooting are overlapped, The image position for superimposition may be calculated in consideration of the movement detected by the acceleration sensor.

なお、上述した第1実施形態から第4実施形態では、撮像装置としてデジタルカメラについて説明したが、これに限らず、撮像機能を有する電子機器であれば、例えば、携帯電話などにも適用可能である。   In the first to fourth embodiments described above, the digital camera has been described as the imaging device. However, the present invention is not limited to this, and any electronic device having an imaging function can be applied to, for example, a mobile phone. is there.

1 デジタルカメラ
2 撮像レンズ
3 レンズ駆動部
4 絞り兼用シャッタ
5 CCD
6 TG
7 ユニット回路
8 画像処理部
11 CPU
12 DRAM
13 メモリ
14 フラッシュメモリ
15 画像表示部
16 キー入力部
17 カードI/F
18 メモリ・カード
DESCRIPTION OF SYMBOLS 1 Digital camera 2 Imaging lens 3 Lens drive part 4 Shutter combined shutter 5 CCD
6 TG
7 Unit Circuit 8 Image Processing Unit 11 CPU
12 DRAM
13 Memory 14 Flash memory 15 Image display section 16 Key input section 17 Card I / F
18 Memory card

Claims (14)

表示手段と、
第1の画角で撮像する撮像手段と、
前記撮像手段により複数回の撮像を行う撮像制御手段と、
前記撮像制御手段による複数回の撮像によって得られた複数の画像を合成することにより前記第1の画角よりも広い第2の画角で撮像された画像を再現した合成画像を生成する生成手段と、
前記生成手段によって生成される合成画像を前記表示手段に表示する表示制御手段と
を備えることを特徴とする撮像装置。
Display means;
Imaging means for imaging at a first angle of view;
Imaging control means for performing imaging a plurality of times by the imaging means;
Generating means for generating a composite image that reproduces an image picked up at a second angle of view wider than the first angle of view by combining a plurality of images obtained by a plurality of times of image pickup by the image pickup control means. When,
An image pickup apparatus comprising: a display control unit configured to display a composite image generated by the generation unit on the display unit.
前記撮像制御手段による複数回の撮像における撮像動作間で、撮像された画像の撮像方向が大きく変化したか否かを判断する第1の判断手段と、
前記第1の判断手段によって前記撮像方向が大きく変化したと判断された場合に、その旨を報知する第1の報知手段と
を更に備えることを特徴とする請求項1に記載の撮像装置。
First determination means for determining whether or not the imaging direction of the captured image has changed greatly between imaging operations in a plurality of imaging operations by the imaging control means;
2. The imaging apparatus according to claim 1, further comprising: a first notification unit that notifies the fact when the first determination unit determines that the imaging direction has changed significantly.
前記第1の報知手段は、
前記第1の判断手段によって前記撮像方向が大きく変化したと判断された場合に、前記表示手段にその旨を表示することを特徴とする請求項2に記載の撮像装置。
The first notification means includes
The imaging apparatus according to claim 2, wherein when the first determination unit determines that the imaging direction has changed significantly, the display unit displays the fact.
前記第1の判断手段は、
前記撮像制御手段による複数回の撮像によって順次撮像される画像の中心座標の変化に基づいて、前記撮像方向が大きく変化したか否かを判断することを特徴とする請求項2または3に記載の撮像装置。
The first determination means includes
4. The method according to claim 2, wherein it is determined whether or not the imaging direction has largely changed based on a change in center coordinates of images sequentially captured by a plurality of times of imaging by the imaging control unit. 5. Imaging device.
前記第1の判断手段は、
前記撮像制御手段による複数回の撮像によって順次撮像される画像間で、直前に撮像された画像と同一の領域が所定の面積以下か否かに基づいて、前記撮像方向が大きく変化したか否かを判断することを特徴とする請求項2または3に記載の撮像装置。
The first determination means includes
Whether or not the imaging direction has changed greatly based on whether or not the same area as the image captured immediately before is less than or equal to a predetermined area between images sequentially captured by the imaging control means multiple times. The imaging device according to claim 2, wherein the imaging device is determined.
前記撮像制御手段による複数回の撮像の撮像動作間で、撮像された画像の撮像方向が前記生成手段による画像合成の処理領域外であるか否かを判断する第2の判断手段と、
前記第2の判断手段によって処理領域外であると判断された場合に、その旨を報知する第2の報知手段と
を更に備えることを特徴とする請求項1乃至5のいずれかに記載の撮像装置。
A second determination unit that determines whether or not an imaging direction of a captured image is outside an image synthesis processing region by the generation unit between a plurality of imaging operations by the imaging control unit;
6. The imaging according to claim 1, further comprising: a second notifying unit that notifies that when the second determining unit determines that it is outside the processing region. apparatus.
前記第2の報知手段は、
前記第2の判断手段によって処理領域外であると判断された場合に、前記表示手段にその旨を表示することを特徴とする請求項6に記載の撮像装置。
The second notification means includes:
The imaging apparatus according to claim 6, wherein when it is determined that the second determination unit is outside the processing region, the display unit displays the fact.
前記第2の判断手段は、
前記撮像制御手段による複数回の撮像によって順次撮像される画像間で、直前に撮像された画像と同一の領域があるか否かに基づいて、前記処理領域外であるか否かを判断することを特徴とする請求項6または7に記載の撮像装置。
The second determination means includes
Determining whether or not the processing area is outside based on whether or not there is the same area as the image captured immediately before among the images sequentially captured by the imaging control means a plurality of times. The imaging apparatus according to claim 6, wherein:
前記生成手段は、前記撮像制御手段による複数回の撮像によって順次撮像された複数の画像を順次合成して前記第1の画角よりも広い第2の画角の合成画像を生成し、
前記表示制御手段は、
前記生成手段によって順次合成される、前記第2の画角の合成画像を前記表示手段に表示することを特徴とする請求項1乃至8のいずれかに記載の撮像装置。
The generating means sequentially generates a composite image having a second angle of view wider than the first angle of view by sequentially combining a plurality of images sequentially captured by the imaging control means a plurality of times;
The display control means includes
9. The imaging apparatus according to claim 1, wherein a composite image of the second angle of view sequentially synthesized by the generation unit is displayed on the display unit.
前記生成手段によって生成される合成画像から直前に合成された画像を中心とする所定領域をトリミングするトリミング手段を更に備え、
前記表示制御手段は、
前記トリミング手段によってトリミングされた前記直前に合成された画像を中心とする所定領域の画像を、前記表示手段の画面全体に表示することを特徴とする請求項1乃至9のいずれかに記載の撮像装置。
Trimming means for trimming a predetermined area centered on the image synthesized immediately before from the synthesized image generated by the generating means;
The display control means includes
The imaging according to any one of claims 1 to 9, wherein an image of a predetermined area centering on the immediately previous synthesized image trimmed by the trimming means is displayed on the entire screen of the display means. apparatus.
前記表示制御手段は、
更に、前記撮像手段により撮像すべき方向を示す方向情報を、前記表示手段に表示することを特徴とする請求項1乃至10のいずれかに記載の撮像装置。
The display control means includes
11. The imaging apparatus according to claim 1, further comprising: direction information indicating a direction to be imaged by the imaging unit is displayed on the display unit.
前記表示制御手段は、
前記生成手段により第2の画角の合成画像を生成する上で、既に撮像された画像の位置と、まだ撮像されていない画像の位置とを示す位置情報を、前記表示手段に表示することを特徴とする請求項11に記載の撮像装置。
The display control means includes
When generating the composite image having the second angle of view by the generation unit, the position information indicating the position of the image that has already been captured and the position of the image that has not yet been captured is displayed on the display unit. The imaging apparatus according to claim 11, wherein the imaging apparatus is characterized.
前記撮像制御手段は、
所定の周期で連続して複数回の撮像を行うように前記撮像手段を制御することを特徴とする請求項1乃至12のいずれかに記載の撮像装置。
The imaging control means includes
The imaging apparatus according to any one of claims 1 to 12, wherein the imaging unit is controlled to perform imaging a plurality of times continuously at a predetermined cycle.
第1の画角で撮像する撮像手段と表示手段とを備える撮像装置のコンピュータに、
前記撮像手段により複数回の撮像を行う撮像制御機能、
前記撮像制御機能による複数回の撮像によって撮像された複数の画像を合成して前記第1の画角よりも広い第2の画角で撮像された画像を再現した合成画像を生成する生成機能、
前記第2の画角の合成画像を前記表示手段に表示する表示制御機能
を実行させることを特徴とするプログラム。
In a computer of an imaging apparatus comprising an imaging means for imaging at a first angle of view and a display means
An imaging control function for performing imaging a plurality of times by the imaging means;
A generation function for generating a composite image in which a plurality of images picked up by a plurality of times of image pickup by the image pickup control function are combined to reproduce an image picked up at a second angle of view wider than the first angle of view;
A program for executing a display control function for displaying a composite image of the second angle of view on the display means.
JP2012060836A 2012-03-16 2012-03-16 Imaging apparatus and program Active JP5655804B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012060836A JP5655804B2 (en) 2012-03-16 2012-03-16 Imaging apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012060836A JP5655804B2 (en) 2012-03-16 2012-03-16 Imaging apparatus and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010063763A Division JP4985808B2 (en) 2010-03-19 2010-03-19 Imaging apparatus and program

Publications (3)

Publication Number Publication Date
JP2012165405A true JP2012165405A (en) 2012-08-30
JP2012165405A5 JP2012165405A5 (en) 2013-05-02
JP5655804B2 JP5655804B2 (en) 2015-01-21

Family

ID=46844281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012060836A Active JP5655804B2 (en) 2012-03-16 2012-03-16 Imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP5655804B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015186015A (en) * 2014-03-24 2015-10-22 株式会社Jvcケンウッド image processing apparatus, image processing method, program and camera
WO2024106223A1 (en) * 2022-11-16 2024-05-23 パナソニックIpマネジメント株式会社 Imaging device, imaging work assistance method, and imaging work assistance program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169293A (en) * 1997-08-21 1999-03-09 Sony Corp Image processing system and camcorder
JP2000305207A (en) * 1999-04-21 2000-11-02 Canon Inc Electronic still camera
JP2001008081A (en) * 1999-06-24 2001-01-12 Ricoh Co Ltd Digital camera
JP2004096156A (en) * 2002-08-29 2004-03-25 Oki Electric Ind Co Ltd Image compositing processing method and image compositing processing system, and program
JP2005303594A (en) * 2004-04-09 2005-10-27 Canon Inc Imaging apparatus
JP2008289095A (en) * 2007-05-21 2008-11-27 Olympus Imaging Corp Imaging apparatus, display method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169293A (en) * 1997-08-21 1999-03-09 Sony Corp Image processing system and camcorder
JP2000305207A (en) * 1999-04-21 2000-11-02 Canon Inc Electronic still camera
JP2001008081A (en) * 1999-06-24 2001-01-12 Ricoh Co Ltd Digital camera
JP2004096156A (en) * 2002-08-29 2004-03-25 Oki Electric Ind Co Ltd Image compositing processing method and image compositing processing system, and program
JP2005303594A (en) * 2004-04-09 2005-10-27 Canon Inc Imaging apparatus
JP2008289095A (en) * 2007-05-21 2008-11-27 Olympus Imaging Corp Imaging apparatus, display method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015186015A (en) * 2014-03-24 2015-10-22 株式会社Jvcケンウッド image processing apparatus, image processing method, program and camera
US9865070B2 (en) 2014-03-24 2018-01-09 JVC Kenwood Corporation Panoramic stitched image memory texture writing
WO2024106223A1 (en) * 2022-11-16 2024-05-23 パナソニックIpマネジメント株式会社 Imaging device, imaging work assistance method, and imaging work assistance program

Also Published As

Publication number Publication date
JP5655804B2 (en) 2015-01-21

Similar Documents

Publication Publication Date Title
JP4985808B2 (en) Imaging apparatus and program
JP5665013B2 (en) Image processing apparatus, image processing method, and program
JP5163676B2 (en) Imaging apparatus, imaging method, and program
KR101391042B1 (en) Image processing device capable of generating wide-range image
JP2009225072A (en) Imaging apparatus
KR101433121B1 (en) Image processing device for generating composite image having predetermined aspect ratio
JP2006162991A (en) Stereoscopic image photographing apparatus
JPWO2012002149A1 (en) Image processing method and apparatus
JP4957825B2 (en) Imaging apparatus and program
JP4986189B2 (en) Imaging apparatus and program
JP5655804B2 (en) Imaging apparatus and program
JP5892211B2 (en) Imaging apparatus and program
JP5364625B2 (en) Imaging device
JP5163333B2 (en) CAMERA DEVICE, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM
JP5641352B2 (en) Image processing apparatus, image processing method, and program
JP5648563B2 (en) Image processing apparatus, image processing method, and program
JP5637400B2 (en) Imaging apparatus and program
JP4930905B2 (en) Imaging apparatus and program thereof
JP2014072706A (en) Imaging apparatus
JP2013005166A (en) Imaging apparatus and image reproduction apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141110

R150 Certificate of patent or registration of utility model

Ref document number: 5655804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150