JP5655804B2 - Imaging apparatus and program - Google Patents

Imaging apparatus and program Download PDF

Info

Publication number
JP5655804B2
JP5655804B2 JP2012060836A JP2012060836A JP5655804B2 JP 5655804 B2 JP5655804 B2 JP 5655804B2 JP 2012060836 A JP2012060836 A JP 2012060836A JP 2012060836 A JP2012060836 A JP 2012060836A JP 5655804 B2 JP5655804 B2 JP 5655804B2
Authority
JP
Japan
Prior art keywords
image
imaging
range
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012060836A
Other languages
Japanese (ja)
Other versions
JP2012165405A (en
JP2012165405A5 (en
Inventor
康佑 松本
康佑 松本
直知 宮本
直知 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012060836A priority Critical patent/JP5655804B2/en
Publication of JP2012165405A publication Critical patent/JP2012165405A/en
Publication of JP2012165405A5 publication Critical patent/JP2012165405A5/ja
Application granted granted Critical
Publication of JP5655804B2 publication Critical patent/JP5655804B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、デジタルカメラや撮像機能を有する携帯電話などの撮像装置、及びプログラムに関する。   The present invention relates to an imaging apparatus such as a digital camera or a mobile phone having an imaging function, and a program.

デジタルカメラや、撮像機能を有する携帯電話などにおいては、撮像画角の限界はレンズの焦点距離、撮像素子のサイズなど、装置本体が備えるハードスペックに依存している。   In a digital camera, a mobile phone having an imaging function, and the like, the limit of the imaging angle of view depends on hardware specifications provided in the apparatus main body, such as the focal length of the lens and the size of the imaging element.

そして、このような撮像画角の限界の問題に対しては、撮像装置の中には、広角撮像用のコンバージョンレンズなどを、既存のレンズ前に装着したり(例えば、特許文献1、2、3参照)、複数のレンズを予め備え、撮像目的に応じてレンズを切り替えることで対処していた(例えば、特許文献4参照)。   For such a problem of the limit of the imaging angle of view, a conversion lens for wide-angle imaging or the like is mounted in front of an existing lens in the imaging apparatus (for example, Patent Documents 1, 2, 3), a plurality of lenses are provided in advance, and this is dealt with by switching the lenses according to the imaging purpose (for example, see Patent Document 4).

特開2004−191897号公報JP 2004-191897 A 特開2005−027142号公報Japanese Patent Laying-Open No. 2005-027142 特開2005−057548号公報JP 2005-057548 A 特開2007−081473号公報JP 2007-081473 A

しかしながら、上述した従来技術では、広角撮像を行うために、いちいち広角撮像用のコンバージョンレンズを装着したり、撮像目的に応じてレンズを切り替えたりしなくてはならず、操作性や、コストの面で問題があった。また、これら広角撮像用のコンバージョンレンズや、切り替え可能なレンズを用いたとしても、撮影者が希望する広角画像を得ることは難しいという問題があった。   However, in the above-described prior art, in order to perform wide-angle imaging, it is necessary to attach a conversion lens for wide-angle imaging one by one or switch the lens according to the imaging purpose. There was a problem. In addition, there is a problem that it is difficult to obtain a wide-angle image desired by the photographer even if these conversion lenses for wide-angle imaging and switchable lenses are used.

そこで本発明は、容易に広画角の画像を得ることができる撮像装置、及びプログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an imaging apparatus and a program that can easily obtain a wide-angle image.

上記目的達成のため、請求項1記載の発明は、被写体を連続して撮像することで、画像を順次出力する撮像手段と、前記撮像手段により出力された画像を順次合成することにより、当該出力された画像よりも広角な合成画像を生成する生成手段と、前記生成手段により合成画像を生成している間に、前記撮像手段の撮像範囲が前記合成画像を生成するのに必要な合成範囲を超過しているか否かを順次判断する判断手段と、前記判断手段により前記撮像範囲が前記合成範囲を超過していると判断されると、前記撮像範囲の修正方向を示す指標画像を表示手段に表示させる第1の表示制御手段とを備えることを特徴とする撮像装置である。 In order to achieve the above-mentioned object, the invention according to claim 1 is characterized in that the image output unit sequentially captures an image of the subject and sequentially outputs the image output by the image capturing unit. A generating unit that generates a composite image having a wider angle than the generated image, and a composite range required for generating the composite image by the imaging range of the imaging unit while the composite unit generates the composite image. A determination unit that sequentially determines whether or not the image capturing range is exceeded; and when the determination unit determines that the imaging range exceeds the combined range, an index image indicating a correction direction of the imaging range is displayed on the display unit . An image pickup apparatus comprising: a first display control means for displaying.

また、好ましい態様として、例えば請求項2記載のように、請求項1に記載の撮像装置において、前記修正方向を示す指標画像は、前記合成範囲に対して前記撮像範囲が超過した方向とは逆向きの矢印の画像であることを特徴とする。 Further, as a preferred aspect, for example, as in claim 2, in the imaging device according to claim 1, the index image indicating the correction direction is opposite to the direction in which the imaging range exceeds the synthesis range. It is an image of a direction arrow .

また、好ましい態様として、例えば請求項3記載のように、請求項1又は2に記載の撮像装置において、前記生成手段は、前記判断手段により前記撮像範囲が前記合成範囲を超過していると判断されると、当該判断時における画像を前記合成画像には合成しないことを特徴とする。 As a preferred aspect, for example, as in claim 3, in the imaging apparatus according to claim 1 or 2 , the generation unit determines that the imaging range exceeds the synthesis range by the determination unit. Then, the image at the time of the determination is not synthesized with the synthesized image .

また、好ましい態様として、例えば請求項記載のように、請求項1からの何れかに記載の撮像装置において、前記第の表示制御手段は、更に、前記合成範囲における未撮像部分の領域を、前記合成範囲と、前記撮像範囲の修正方向を示す指標画像とともに前記表示手段に表示させることを特徴とする。 Moreover, as a preferable aspect, for example, as in claim 4 , in the imaging apparatus according to any one of claims 1 to 3 , the first display control unit further includes a region of an unimaged portion in the synthesis range . Is displayed on the display unit together with the composite range and an index image indicating the correction direction of the imaging range .

また、好ましい態様として、例えば請求項5記載のように、請求項1から4の何れかに記載の撮像装置において、前記生成手段による合成画像を生成するために必要な合成範囲と前記撮像手段による撮像範囲とを表示手段に表示させる第2の表示制御手段を更に備えることを特徴とする。Moreover, as a preferable aspect, for example, as in claim 5, in the imaging apparatus according to any one of claims 1 to 4, a combination range necessary for generating a composite image by the generation unit and the imaging unit The display device further includes second display control means for displaying the imaging range on the display means.

また、好ましい態様として、例えば請求項6記載のように、請求項1から5の何れかに記載の撮像装置において、前記第の表示制御手段は、更に、前記指標画像を前記合成範囲の一部の領域に重畳させるように前記表示手段に表示させることを特徴とする。 Further, as a preferred aspect, for example, as in claim 6, in the imaging device according to any one of claims 1 to 5, the first display control means further includes the index image in the synthesis range. It is characterized in that it is displayed on the display means so as to be superimposed on the area of the part.

また、好ましい態様として、例えば請求項7記載のように、請求項に記載の撮像装置において、前記第1の表示制御手段は、前記撮像手段により順次出力される画像に対応する画像を前記撮像範囲として前記合成範囲とともに前記表示手段に表示させ、前記第1の表示制御手段により前記表示手段に表示された前記撮像範囲の中心位置を算出する算出手段を更に備え、前記判断手段は、前記算出手段により算出された前記撮像範囲の中心位置が前記合成範囲を超過しているか否かを判断することを特徴とする。 Further, as a preferred aspect, for example, as in claim 7, in the imaging apparatus according to claim 5 , the first display control means captures images corresponding to images sequentially output by the imaging means. A calculation unit that displays the combined range as a range on the display unit and calculates a center position of the imaging range displayed on the display unit by the first display control unit; and the determination unit includes the calculation unit It is determined whether or not the center position of the imaging range calculated by the means exceeds the synthesis range.

また、上記目的達成のため、請求項記載の発明は、コンピュータを、撮像手段により順次出力された画像を順次合成することにより、当該出力された画像よりも広角な合成画像を生成する生成手段、前記生成手段により合成画像を生成している間に、前記撮像手段撮像範囲が前記合成画像を生成するのに必要な合成範囲を超過しているか否かを順次判断する判断手段、前記判断手段により前記撮像範囲が前記合成範囲を超過していると判断されると、前記撮像範囲の修正方向を示す指標画像を表示手段に表示させる第2の表示制御手段して機能させることを特徴とするプログラムである。 In order to achieve the above object, the invention described in claim 8 is a generating means for generating a composite image having a wider angle than the output image by sequentially combining the images sequentially output by the imaging means. Determination means for sequentially determining whether or not the imaging range of the imaging means exceeds the synthesis range necessary for generating the composite image while the generation means generates the composite image; When it is determined by the means that the imaging range exceeds the composite range, the display means displays the index image indicating the correction direction of the imaging range, and functions as a second display control means. It is a program to do.

この発明によれば、容易に広画角の画像を得ることができるという利点が得られる。   According to the present invention, there is an advantage that an image with a wide angle of view can be easily obtained.

本発明の第1実施形態によるデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera by 1st Embodiment of this invention. 本第1実施形態によるデジタルカメラ1の広角撮像モードを説明するための概念図である。It is a conceptual diagram for demonstrating the wide angle imaging mode of the digital camera 1 by this 1st Embodiment. 本第1実施形態によるデジタルカメラ1における、レンズの画角と広角撮像モードで得られる合成画像との関係を示す概念図である。It is a conceptual diagram which shows the relationship between the field angle of a lens, and the synthesized image obtained by wide-angle imaging mode in the digital camera 1 by this 1st Embodiment. 本第1実施形態によるデジタルカメラ1の広角撮像モードにおけるユーザ操作を説明するための模式図である。It is a schematic diagram for demonstrating user operation in the wide angle imaging mode of the digital camera 1 by this 1st Embodiment. 本第1実施形態によるデジタルカメラの動作を説明するためのフローチャートである。4 is a flowchart for explaining the operation of the digital camera according to the first embodiment. 本第1実施形態によるデジタルカメラの広角撮像モードにおける画像合成を説明するための模式図である。It is a schematic diagram for demonstrating the image synthesis | combination in the wide angle imaging mode of the digital camera by this 1st Embodiment. 本第2実施形態によるデジタルカメラの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the digital camera by this 2nd Embodiment. 本第2実施形態によるデジタルカメラの画像表示部の表示例を示す模式図である。It is a schematic diagram which shows the example of a display of the image display part of the digital camera by this 2nd Embodiment. 本第2実施形態によるデジタルカメラの動作、及び画像表示部の表示例を示す模式図である。It is a schematic diagram which shows the operation | movement of the digital camera by this 2nd Embodiment, and the example of a display of an image display part. 本第3実施形態によるデジタルカメラの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the digital camera by this 3rd Embodiment. 本第3実施形態によるデジタルカメラの動作、及び画像表示部の表示例を示す模式図である。It is a schematic diagram which shows the operation | movement of the digital camera by this 3rd Embodiment, and the example of a display of an image display part. 本第4実施形態によるデジタルカメラの動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the digital camera by this 4th Embodiment. 本第4実施形態によるデジタルカメラの動作、及び画像表示部の表示例を示す模式図である。It is a schematic diagram which shows the operation | movement of the digital camera by the 4th Embodiment, and the example of a display of an image display part. 本第4実施形態の変形例を示す模式図である。It is a schematic diagram which shows the modification of this 4th Embodiment.

以下、本発明の実施の形態を、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

A.第1実施形態
A−1.第1実施形態の構成
図1は、本発明の第1実施形態によるデジタルカメラの構成を示すブロック図である。図において、デジタルカメラ1は、撮像レンズ2、レンズ駆動部3、絞り兼用シャッタ4、CCD5、TG(Timing Generator)6、ユニット回路7、画像処理部8、CPU11、DRAM12、メモリ13、フラッシュメモリ14、画像表示部15、キー入力部16、カードI/F17、及びメモリ・カード18を備えている。
A. First embodiment A-1. Configuration of First Embodiment FIG. 1 is a block diagram showing a configuration of a digital camera according to a first embodiment of the present invention. In the figure, a digital camera 1 includes an imaging lens 2, a lens driving unit 3, a diaphragm / shutter 4, a CCD 5, a TG (Timing Generator) 6, a unit circuit 7, an image processing unit 8, a CPU 11, a DRAM 12, a memory 13, and a flash memory 14. , An image display unit 15, a key input unit 16, a card I / F 17, and a memory card 18.

撮像レンズ2は、フォーカスレンズ、ズームレンズなどを含み、レンズ駆動部3が接続されている。レンズ駆動部3は、撮像レンズ2を構成するフォーカスレンズ、ズームレンズをそれぞれ光軸方向に駆動させるモータと、CPU11からの制御信号に従ってフォーカスモータ、ズームモータを駆動させるフォーカスモータドライバ、ズームモータドライバから構成されている。   The imaging lens 2 includes a focus lens, a zoom lens, and the like, and a lens driving unit 3 is connected thereto. The lens driving unit 3 includes a motor for driving the focus lens and the zoom lens constituting the imaging lens 2 in the optical axis direction, a focus motor driver for driving the focus motor and the zoom motor according to a control signal from the CPU 11, and a zoom motor driver. It is configured.

絞り4は、図示しない駆動回路を含み、駆動回路はCPU11から送られてくる制御信号に従って絞り4を動作させる。該絞り4は、撮像レンズ2から入ってくる光の量を制御する。CCD(撮像素子)5は、撮像レンズ2、絞り4を介して投影された被写体の光を電気信号に変換し、撮像信号としてユニット回路7に出力する。また、CCD5は、TG6によって生成された所定周波数のタイミング信号に従って駆動される。   The diaphragm 4 includes a drive circuit (not shown), and the drive circuit operates the diaphragm 4 in accordance with a control signal sent from the CPU 11. The diaphragm 4 controls the amount of light that enters from the imaging lens 2. The CCD (imaging device) 5 converts the light of the subject projected through the imaging lens 2 and the diaphragm 4 into an electrical signal and outputs it to the unit circuit 7 as an imaging signal. The CCD 5 is driven according to a timing signal having a predetermined frequency generated by the TG 6.

ユニット回路7は、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行うAGC(Automatic Gain Control)回路、その自動利得調整後のアナログの撮像信号をデジタル信号に変換するA/D変換器から構成されている。CCD5の撮像信号は、ユニット回路7を経てデジタル信号として画像処理部8に送られる。なお、ユニット回路7は、TG6によって生成された所定周波数のタイミング信号に従って駆動される。   The unit circuit 7 includes a CDS (Correlated Double Sampling) circuit that holds the imaging signal output from the CCD 5 by correlated double sampling, an AGC (Automatic Gain Control) circuit that performs automatic gain adjustment of the imaging signal after the sampling, It is composed of an A / D converter that converts an analog imaging signal after automatic gain adjustment into a digital signal. The imaging signal of the CCD 5 is sent to the image processing unit 8 as a digital signal through the unit circuit 7. The unit circuit 7 is driven according to a timing signal having a predetermined frequency generated by the TG 6.

画像処理部8は、ユニット回路7から送られてきた画像データの画像処理(画素補間処理、γ補正、輝度色差信号の生成、ホワイトバランス処理、露出補正処理等)、画像データの圧縮・伸張(例えば、JPEG形式やM−JPEG形式又はMPEG形式の圧縮・伸張)の処理、複数の撮像画像を合成する処理などを行う。なお、画像処理部8は、TG6によって生成された所定周波数のタイミング信号に従って駆動される。   The image processing unit 8 performs image processing (pixel interpolation processing, γ correction, luminance color difference signal generation, white balance processing, exposure correction processing, etc.) of image data sent from the unit circuit 7, and compression / decompression of image data ( For example, JPEG format, M-JPEG format, or MPEG format compression / expansion processing, processing of combining a plurality of captured images, and the like are performed. The image processing unit 8 is driven according to a timing signal having a predetermined frequency generated by the TG 6.

CPU11は、デジタルカメラ1の各部を制御するワンチップマイコンである。特に、本第1実施形態では、CPU11は、所定の周期(時間間隔)で複数枚の画像を連写し、撮像した複数の画像を、一部が重複するように(例えば、αブレンドを用いて)合成していき、広角で撮像したような1枚の合成画像を生成すべく各部を制御する。なお、画像合成の詳細については後述する。   The CPU 11 is a one-chip microcomputer that controls each part of the digital camera 1. In particular, in the first embodiment, the CPU 11 continuously shoots a plurality of images at a predetermined cycle (time interval), and the plurality of captured images are partially overlapped (for example, using an α blend). ) The respective components are controlled so as to generate a single composite image that is synthesized and captured at a wide angle. Details of the image composition will be described later.

DRAM12は、CCD5によって撮像された後、CPU11に送られてきた画像データを一時記憶するバッファメモリとして使用されるとともに、CPU11のワーキングメモリとして使用される。メモリ13は、CPU11によるデジタルカメラ1の各部の制御に必要なプログラム、及び各部の制御に必要なデータが記録されており、CPU11は、このプログラムに従って処理を行う。フラッシュメモリ14や、メモリ・カード18は、CCD5によって撮像された画像データなどを保存しておく記録媒体である。   The DRAM 12 is used as a buffer memory for temporarily storing image data sent to the CPU 11 after being imaged by the CCD 5 and also as a working memory for the CPU 11. The memory 13 stores a program necessary for controlling each part of the digital camera 1 by the CPU 11 and data necessary for controlling each part, and the CPU 11 performs processing according to this program. The flash memory 14 and the memory card 18 are recording media for storing image data captured by the CCD 5.

画像表示部15は、カラーLCDとその駆動回路を含み、撮像待機状態にあるときには、CCD5によって撮像された被写体をスルー画像として表示し、記録画像の再生時には、保存用フラッシュメモリ14や、メモリ・カード23から読み出され、伸張された記録画像を表示させる。また、本第1実施形態では、広角撮像モードにおいて連写される複数の画像を順次合成した合成画像を表示する。キー入力部16は、シャッタSW、ズームSW、モードキー、SETキー、十字キー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU11に出力する。カードI/F17には、デジタルカメラ1本体の図示しないカードスロットを介してメモリ・カード18が着脱自在に装着されている。   The image display unit 15 includes a color LCD and its driving circuit, and displays the subject imaged by the CCD 5 as a through image when in the imaging standby state, and when the recorded image is reproduced, the storage flash memory 14, The recorded image read from the card 23 and expanded is displayed. In the first embodiment, a composite image obtained by sequentially combining a plurality of images continuously shot in the wide-angle imaging mode is displayed. The key input unit 16 includes a plurality of operation keys such as a shutter SW, a zoom SW, a mode key, a SET key, and a cross key, and outputs an operation signal corresponding to the user's key operation to the CPU 11. A memory card 18 is detachably attached to the card I / F 17 through a card slot (not shown) of the digital camera 1 main body.

図2は、本第1実施形態によるデジタルカメラ1の広角撮像モードを説明するための概念図である。例えば、デジタルカメラ1で、図2に示すような景色を撮像する場合を想定する。撮像しようとする景色は、当該デジタルカメラ1の撮像系の画角Sに比べ、より広い画角を有する。したがって、一度の撮像では、所望する景色を全て撮像することができない。   FIG. 2 is a conceptual diagram for explaining the wide-angle imaging mode of the digital camera 1 according to the first embodiment. For example, assume that the digital camera 1 captures a scene as shown in FIG. The scenery to be imaged has a wider angle of view than the angle of view S of the imaging system of the digital camera 1. Therefore, it is not possible to capture all desired scenes with a single imaging.

そこで、本第1実施形態では、ユーザがデジタルカメラ1の撮像方向を所望する景色を網羅するように動かしている間に、所定の時間、あるいは所定の撮像枚数分の間、所定の周期(時間間隔)で複数枚の画像を連写し、撮像した複数の画像を、一部が重複するように合成することで、容易に広画角の画像を得ることができる広角撮像モードを提供する。   Therefore, in the first embodiment, while the user moves the imaging direction of the digital camera 1 so as to cover a desired scene, a predetermined period (time) for a predetermined time or a predetermined number of images is taken. Provided is a wide-angle imaging mode in which a plurality of images are continuously captured at intervals, and a plurality of captured images are combined so that a part of them is overlapped, so that a wide-angle image can be easily obtained.

なお、以下の説明では、撮像範囲や、撮像画角などを明確にするために、図2の景色を図3に示すように図式化して説明する。図3において、画角S1が最終的に生成する画像のサイズ(画角)であり、その外側は、撮像されたとしても最終的な画像としては残さない領域外とする。   In the following description, in order to clarify the imaging range, the imaging angle of view, and the like, the scenery in FIG. 2 is described as a diagram as shown in FIG. In FIG. 3, the angle of view S1 is the size (angle of view) of the image that is finally generated, and the outside thereof is outside the region that is not left as the final image even if it is captured.

本第1実施形態では、メモリ(DRAM12)上に画像書き込み用の配列を確保する。これを便宜上、本第1実施形態では、キャンバスと呼ぶ。本第1実施形態では、広角撮像モードにおいて連写した最初の撮像画像を基準画像(図3の画角Sの画像に相当)とし、該基準画像の縦横を、例えば、それぞれ2倍の大きさとし(図3の撮像領域S1)、キャンバスの中心に基準画像を貼り付ける。なお、キャンバスの大きさは、縦横2倍以外でもよい。そして、撮像した複数の画像を、基準画像と一部が重複するように位置合わせして合成し、キャンバスに上書きしていく。位置合わせの方法としては、例えば、ブロックマッチングなどの手法が考えられる。また、上書きをする場合には、投射変換などを行い、αブレンドなどの手法を用いて重ね合わせを行う方法が考えられる。   In the first embodiment, an image writing array is secured on the memory (DRAM 12). For convenience, this is referred to as a canvas in the first embodiment. In the first embodiment, the first captured image continuously shot in the wide-angle imaging mode is set as a reference image (corresponding to an image having an angle of view S in FIG. 3), and the vertical and horizontal dimensions of the reference image are, for example, twice as large. (Image pickup area S1 in FIG. 3), the reference image is pasted to the center of the canvas. Note that the size of the canvas may be other than twice the height and width. Then, the plurality of captured images are aligned and combined so that the reference image partially overlaps, and overwritten on the canvas. As a positioning method, for example, a technique such as block matching can be considered. In addition, in the case of overwriting, a method of performing projection conversion or the like and superimposing using a method such as α blending is conceivable.

図4は、本第1実施形態によるデジタルカメラ1の広角撮像モードにおけるユーザ操作を説明するための模式図である。ユーザは、所望する景色に対して、例えば、中央部でシャッタSWを押下(半押し→全押し)した状態で、矢印で示すように円を描くようにデジタルカメラ1を動かす。しかしながら、ユーザにとっては、どのようにデジタルカメラ1を動かしたらよいか、あるいは必要とされる画像が確実に得られているのかが分かりにくい。   FIG. 4 is a schematic diagram for explaining a user operation in the wide-angle imaging mode of the digital camera 1 according to the first embodiment. The user moves the digital camera 1 so as to draw a circle as indicated by an arrow with respect to a desired scene, for example, in a state where the shutter SW is pressed (half pressed → full pressed) at the center. However, it is difficult for the user to know how to move the digital camera 1 or whether the required image has been reliably obtained.

そこで、本第1実施形態では、ユーザによりシャッタSWが押下(半押し→全押し)されると、上述したように、所定の時間、あるいは所定の撮像枚数分の間、所定の周期(時間間隔)で複数枚の画像を連写しながら、撮像する毎に、リアルタイムで縮小画像(低解像度)を生成し、基準画像(または合成画像)と一部が重複するように合成し、該合成画像を画像表示部15に表示する。このとき、合成に用いた縮小画像の元画像(高画質画像)を保存しておく。   Therefore, in the first embodiment, when the user presses the shutter SW (half-press → full-press), as described above, the predetermined period (time interval) is maintained for a predetermined time or a predetermined number of images. ), Each time a plurality of images are captured, a reduced image (low resolution) is generated in real time, and the reference image (or composite image) is partially overlapped with the composite image. The image is displayed on the image display unit 15. At this time, the original image (high quality image) of the reduced image used for the synthesis is stored.

そして、所定の時間、あるいは所定の撮像枚数分の撮像が終了すると、縮小画像を用いて行った合成と同様に、上記保存しておいた元画像(高画質画像)を用いて、一部が重複するように合成し、最終的に、一度の撮像では得られない広画角の画像を生成する。連写中、画像合成した縮小画像を画像表示部15に表示するようにしたので、ユーザは、どの方向にデジタルカメラを向けたらよいかを容易に確認することが可能となっている。   Then, when imaging for a predetermined time or a predetermined number of images is completed, a part of the original image (high-quality image) is stored using the stored original image (high-quality image) in the same manner as the synthesis performed using the reduced image. The images are combined so that they overlap, and finally, a wide-angle image that cannot be obtained by one-time imaging is generated. During continuous shooting, the reduced image obtained by combining the images is displayed on the image display unit 15, so that the user can easily confirm in which direction the digital camera should be directed.

A−2.第1実施形態の動作
次に、上述した第1実施形態の動作について説明する。
図5は、本第1実施形態によるデジタルカメラの動作を説明するためのフローチャートである。また、図6(a)、(b)は、本第1実施形態によるデジタルカメラの広角撮像モードにおける画像合成を説明するための模式図である。
A-2. Operation of First Embodiment Next, the operation of the first embodiment described above will be described.
FIG. 5 is a flowchart for explaining the operation of the digital camera according to the first embodiment. FIGS. 6A and 6B are schematic diagrams for explaining image composition in the wide-angle imaging mode of the digital camera according to the first embodiment.

まず、CPU11は、シャッタSWが半押しされたか否かを判断し(ステップS10)、シャッタSWが半押しされない場合には、ステップS10を繰り返し実行する。一方、シャッタSWが半押しされると、AF(オートフォーカス)処理を実行し(ステップS12)、シャッタSWが全押しされたか否かを判断する(ステップS14)。シャッタSWが全押しされない場合には、ステップS10、S12を繰り返し実行する。   First, the CPU 11 determines whether or not the shutter SW is half-pressed (step S10). If the shutter SW is not half-pressed, the CPU 11 repeatedly executes step S10. On the other hand, when the shutter SW is half-pressed, AF (autofocus) processing is executed (step S12), and it is determined whether or not the shutter SW is fully pressed (step S14). If the shutter SW is not fully pressed, steps S10 and S12 are repeated.

一方、シャッタSWが全押しされると、撮像画像を取り込み、縮小(間引き)処理を実行し、縮小画像を生成する(ステップS16)。次に、縮小画像を用いて、重ね合わせ用画像位置を計算する(ステップS18)。重ね合わせ用画像位置の計算とは、例えば、縮小画像の中心位置(座標)を算出するとともに、既に基準画像(または合成画像)がある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように位置合わせして、現フレームの縮小画像のキャンバス内における位置などを算出することを意味する。次に、上記縮小画像の中心位置、及びキャンバス内における位置に基づいて、該縮小画像の中心位置が処理領域(キャンバス内)にあるか否かを判断する(ステップS20)。   On the other hand, when the shutter switch SW is fully pressed, the captured image is captured, a reduction (thinning) process is executed, and a reduced image is generated (step S16). Next, the image position for superimposition is calculated using the reduced image (step S18). The calculation of the image position for superimposition is, for example, calculating the center position (coordinates) of the reduced image and, if there is already a reference image (or composite image), the reduced image and reference image (or composite image) of the current frame. This means that the position of the reduced image of the current frame is calculated in the canvas and the like so as to partially overlap with the image. Next, based on the center position of the reduced image and the position in the canvas, it is determined whether or not the center position of the reduced image is in the processing area (in the canvas) (step S20).

そして、縮小画像の中心位置が処理領域内にある場合には、取り込んだ撮像画像(高解像度)を有効画像として保存し(ステップS22)、縮小画像を未取得部分であるブランク部分に上書きする(ステップS24)。つまり、現フレームの縮小画像の中心位置が処理領域内にある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように合成し、キャンバス40に上書きする(最初の1枚目の撮像画像の場合には基準画像としてキャンバス40の中央部に上書きする)。図6(a)に示す例では、現フレームの縮小画像31の中心位置が処理領域40内にあるので、現フレームの縮小画像31と基準画像30との一部が重複するように合成し、キャンバス40に上書きする。そして、該合成画像32を画像表示部15に表示する(ステップS26)。   If the center position of the reduced image is within the processing area, the captured image (high resolution) captured is saved as an effective image (step S22), and the reduced image is overwritten on the blank portion that is an unacquired portion ( Step S24). That is, when the center position of the reduced image of the current frame is within the processing region, the reduced image of the current frame and the reference image (or the synthesized image) are combined so that they overlap, and the canvas 40 is overwritten. (In the case of the first captured image, the center portion of the canvas 40 is overwritten as a reference image). In the example shown in FIG. 6A, since the center position of the reduced image 31 of the current frame is within the processing area 40, the reduced image 31 of the current frame and the reference image 30 are combined so that they partially overlap, The canvas 40 is overwritten. Then, the composite image 32 is displayed on the image display unit 15 (step S26).

次に、必要画像全てを取得したか否か(例えば、所定の時間、あるいは所定の撮像枚数分の画像を取得したか否か)を判断する(ステップS28)。そして、必要画像全てを取得していない場合には、ステップS16に戻り、次フレームの撮像画像に対して同様の処理を繰り返す。この結果、撮像する度に、撮像画像の中心位置が処理領域内にあれば、基準画像(または合成画像)に順次合成していき、その都度、合成画像を画像表示部15に表示することになる。   Next, it is determined whether or not all necessary images have been acquired (for example, whether or not images for a predetermined time or a predetermined number of images have been acquired) (step S28). If all the necessary images have not been acquired, the process returns to step S16, and the same processing is repeated for the captured image of the next frame. As a result, whenever the image is captured, if the center position of the captured image is within the processing region, the image is sequentially combined with the reference image (or the combined image), and the combined image is displayed on the image display unit 15 each time. Become.

一方、現フレームの縮小画像の中心位置が処理領域内にない場合には、ステップS16に戻り、次の撮像画像に対して同様の処理を繰り返す。例えば、図6(b)に示すように、現フレームの縮小画像31の中心位置が処理領域40内にない場合には、画像合成は行われない。   On the other hand, when the center position of the reduced image of the current frame is not within the processing region, the process returns to step S16, and the same processing is repeated for the next captured image. For example, as shown in FIG. 6B, when the center position of the reduced image 31 of the current frame is not within the processing area 40, image synthesis is not performed.

そして、必要画像全てを取得すると、合成に用いた縮小画像の元画像であって保存した有効画像を、縮小画像を用いて行った合成と同様に、一部が重複するように位置合わせして合成し、最終的に、図2に示すような広画角の画像を生成する(ステップS30)。   Once all the necessary images have been acquired, the saved effective image, which is the original image of the reduced image used for the composition, is aligned so that part of it overlaps, as in the composition performed using the reduced image. Finally, a wide angle image as shown in FIG. 2 is generated (step S30).

上述した第1実施形態によれば、連写中に、撮像する度に、リアルタイムで、画像合成した縮小画像を画像表示部15に表示するようにしたので、ユーザは、まだ撮像されていない方向、あるいは既に撮像された方向を容易に認識することができる。この結果、ユーザは、次にどこにデジタルカメラを向けたらよいかが分かるので、容易に、かつ効率的に広画角の画像を得ることができる。   According to the first embodiment described above, a reduced image obtained by combining images is displayed on the image display unit 15 in real time each time images are taken during continuous shooting. Alternatively, it is possible to easily recognize the direction that has already been imaged. As a result, the user can know where the digital camera should be pointed next, so that an image with a wide angle of view can be obtained easily and efficiently.

B.第2実施形態
次に、本発明の第2実施形態について説明する。
本第2実施形態では、処理領域外(キャンバス外)を撮像している場合や、デジタルカメラの移動(撮像方向の変化)が速すぎる場合などに、ユーザに対して、その旨を報知することで、デジタルカメラを、どの程度の速度で移動さればよいか、どの方向に向けたらよいかを知らせることを特徴としている。なお、デジタルカメラ1の構成は、図1と同様であるので説明を省略する。
B. Second Embodiment Next, a second embodiment of the present invention will be described.
In the second embodiment, when the outside of the processing area (outside the canvas) is imaged, or when the digital camera moves too quickly (changes in the imaging direction), the user is notified of that fact. Thus, it is characterized in that the speed at which the digital camera should be moved and in which direction the digital camera should be pointed are notified. The configuration of the digital camera 1 is the same as that shown in FIG.

図7は、本第2実施形態によるデジタルカメラ1の動作を説明するためのフローチャートである。また、図8、及び図9は、本第2実施形態によるデジタルカメラ1の画像表示部15の表示例を示す模式図である。まず、CPU11は、シャッタSWが半押しされたか否かを判断し(ステップS30)、シャッタSWが半押しされない場合には、ステップS30を繰り返し実行する。一方、シャッタSWが半押しされると、AF(オートフォーカス)処理を実行し(ステップS32)、シャッタSWが全押しされたか否かを判断する(ステップS34)。シャッタSWが全押しされない場合には、ステップS30、S32を繰り返し実行する。   FIG. 7 is a flowchart for explaining the operation of the digital camera 1 according to the second embodiment. 8 and 9 are schematic diagrams showing display examples of the image display unit 15 of the digital camera 1 according to the second embodiment. First, the CPU 11 determines whether or not the shutter SW is half-pressed (step S30). If the shutter SW is not half-pressed, the CPU 11 repeatedly executes step S30. On the other hand, when the shutter SW is half-pressed, AF (autofocus) processing is executed (step S32), and it is determined whether the shutter SW is fully pressed (step S34). If the shutter SW is not fully pressed, steps S30 and S32 are repeated.

一方、シャッタSWが全押しされると、撮像画像を取り込み、縮小(間引き)処理を実行し、縮小画像を生成する(ステップS36)。次に、縮小画像を用いて、重ね合わせ用画像位置を計算する(ステップS38)。重ね合わせ用画像位置の計算とは、例えば、縮小画像の中心位置(座標)を算出するとともに、既に基準画像(または合成画像)がある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように位置合わせして、現フレームの縮小画像のキャンバス内における位置、直前に撮像した画像(縮小画像)の中心位置(座標)との距離などを算出することを意味する。次に、上記縮小画像の中心位置、及びキャンバス内における位置に基づいて、縮小画像の中心位置が処理領域(キャンバス内)にあるか否かを判断する(ステップS40)。   On the other hand, when the shutter switch SW is fully pressed, the captured image is captured, a reduction (thinning) process is executed, and a reduced image is generated (step S36). Next, the image position for superimposition is calculated using the reduced image (step S38). The calculation of the image position for superimposition is, for example, calculating the center position (coordinates) of the reduced image and, if there is already a reference image (or composite image), the reduced image and reference image (or composite image) of the current frame. Position the image so that it partially overlaps the image, and calculate the position of the reduced image of the current frame in the canvas, the distance from the center position (coordinates) of the image (reduced image) that was captured immediately before, etc. Means. Next, based on the center position of the reduced image and the position in the canvas, it is determined whether or not the center position of the reduced image is in the processing area (in the canvas) (step S40).

そして、縮小画像の中心位置が処理領域内にない場合には、画像表示部15に領域超過マークを表示する(ステップS42)。例えば、図8(a)に示すように、現フレームの縮小画像31の中心が、処理領域であるキャンバス40の外に出てしまった場合には、図8(b)に示すように、処理領域内に戻すように、領域超過マークとして、移動した方向とは逆方向を示す矢印50を画像表示部15に表示する。これにより、ユーザは、デジタルカメラ1の撮像方向が上に行き過ぎたことが分かるので、矢印50の方向にデジタルカメラ1を移動させることで、撮像される画角を処理領域内に戻すことが可能となる。その後、ステップS36に戻り、次フレームの撮像画像に対して上述した処理を行う。つまり、この場合、画像合成は行われない。   If the center position of the reduced image is not within the processing area, an area excess mark is displayed on the image display unit 15 (step S42). For example, as shown in FIG. 8A, when the center of the reduced image 31 of the current frame is outside the processing area canvas 40, as shown in FIG. An arrow 50 indicating the direction opposite to the moved direction is displayed on the image display unit 15 as an area excess mark so as to return to the area. As a result, the user can know that the imaging direction of the digital camera 1 has gone up too much, and therefore, by moving the digital camera 1 in the direction of the arrow 50, the angle of view to be captured can be returned to the processing area. It becomes. Thereafter, the process returns to step S36, and the above-described processing is performed on the captured image of the next frame. That is, in this case, image composition is not performed.

一方、縮小画像の中心位置が処理領域内にある場合には、前フレームの縮小画像の中心位置と現フレームの縮小画像の中心位置との距離が所定の閾値より小さいか否かを判断する(ステップS44)。そして、上記距離が所定の閾値以上である場合には、画像表示部15にスピード超過マークを表示する(ステップS46)。その後、ステップS36に戻り、次フレームの撮像画像に対して上述した処理を行う。つまり、この場合、画像合成は行われない。   On the other hand, when the center position of the reduced image is within the processing region, it is determined whether or not the distance between the center position of the reduced image of the previous frame and the center position of the reduced image of the current frame is smaller than a predetermined threshold ( Step S44). If the distance is equal to or greater than the predetermined threshold, an overspeed mark is displayed on the image display unit 15 (step S46). Thereafter, the process returns to step S36, and the above-described processing is performed on the captured image of the next frame. That is, in this case, image composition is not performed.

本発明では、位置合わせをブロックマッチングなどの方法により実現しているが、デジタルカメラ1の移動速度が大きいと、位置合わせ用の2つの画像(前フレームの縮小画像と現フレームの縮小画像)の中で同一のものが写っている領域の面積が小さくなり、位置合わせが不正確になってしまう。そのため、デジタルカメラ1の移動速度を、ある一定速度以下に抑える必要がある。そこで、ユーザに明示的にデジタルカメラ1の移動速度(撮像方向の変化速度)を知らせるようにしている。   In the present invention, alignment is realized by a method such as block matching. However, if the moving speed of the digital camera 1 is high, two images for alignment (a reduced image of the previous frame and a reduced image of the current frame) are displayed. Among them, the area of the same image is reduced, and the alignment is inaccurate. Therefore, it is necessary to suppress the moving speed of the digital camera 1 below a certain fixed speed. Therefore, the user is explicitly notified of the moving speed of the digital camera 1 (change speed in the imaging direction).

例えば、図9(a)に示すように、前フレームの縮小画像31aの中心位置と現フレームの縮小画像31bの中心位置との距離が所定の閾値以上である場合には、双方の縮小画像との重なる面積が小さくなってしまい、位置合わせが不正確になる可能性が高いので、図9(b)に示すように、画像表示部15にスピード超過マーク60を表示する。   For example, as shown in FIG. 9A, when the distance between the center position of the reduced image 31a of the previous frame and the center position of the reduced image 31b of the current frame is equal to or greater than a predetermined threshold value, Since the overlapping area becomes small and there is a high possibility that the alignment will be inaccurate, an overspeed mark 60 is displayed on the image display unit 15 as shown in FIG.

スピード超過マーク60としては、図9(c)に示すように、画像の単位時間当たりの移動距離の大きさに応じて、メータの針の位置、及びメータの色を変化させるタコメータ状のマーク61や、画像の単位時間当たりの移動距離の大きさに応じて、円弧状の面積、及び円弧の色を変化させるようなマーク62などが考えられる。あるいは、画像の単位時間当たりの移動距離の大きさに応じて、長さや色を変化させるような棒グラフであってもよい(図示略)。   As the overspeed mark 60, as shown in FIG. 9C, a tachometer-shaped mark 61 that changes the position of the meter needle and the color of the meter according to the moving distance per unit time of the image. Or, a mark 62 that changes the arc-shaped area and the color of the arc according to the size of the moving distance per unit time of the image can be considered. Alternatively, it may be a bar graph in which the length and color are changed according to the size of the moving distance per unit time of the image (not shown).

一方、現フレームの縮小画像が処理領域内で、かつ、移動距離も所定の閾値より小さい場合には、画像を合成する上で十分に正確な位置合わせを行うことができるので、取り込んだ撮像画像(高解像度)を有効画像として保存し(ステップS48)、縮小画像を未取得部分であるブランク部分に上書きする(ステップS50)。つまり、現フレームの縮小画像の中心位置が処理領域内にある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように合成し、キャンバス40に上書きする(最初の1枚目の撮像画像の場合には基準画像としてキャンバス40の中央部に上書きする)。そして、該合成画像を画像表示部15に表示する(ステップS52)。   On the other hand, if the reduced image of the current frame is within the processing area and the moving distance is smaller than the predetermined threshold, sufficiently accurate alignment can be performed for combining the images. (High resolution) is stored as an effective image (step S48), and the reduced image is overwritten on the blank portion which is an unacquired portion (step S50). That is, when the center position of the reduced image of the current frame is within the processing region, the reduced image of the current frame and the reference image (or the synthesized image) are combined so that they overlap, and the canvas 40 is overwritten. (In the case of the first captured image, the center portion of the canvas 40 is overwritten as a reference image). Then, the composite image is displayed on the image display unit 15 (step S52).

次に、必要画像全てを取得したか否か(例えば、所定の時間、あるいは所定の撮像枚数分の画像を取得したか否か)を判断する(ステップS54)。そして、必要画像全てを取得していない場合には、ステップS36に戻り、次フレームの撮像画像に対して同様の処理を繰り返す。この結果、撮像する度に、撮像画像の中心位置が処理領域内にあれば、基準画像(または合成画像)に順次合成していき、その都度、合成画像を画像表示部15に表示することになる。   Next, it is determined whether or not all necessary images have been acquired (for example, whether or not images for a predetermined time or a predetermined number of images have been acquired) (step S54). If all the necessary images have not been acquired, the process returns to step S36, and the same processing is repeated for the captured image of the next frame. As a result, whenever the image is captured, if the center position of the captured image is within the processing region, the image is sequentially combined with the reference image (or the combined image), and the combined image is displayed on the image display unit 15 each time. Become.

そして、必要画像全てを取得すると、合成に用いた縮小画像の元画像であって保存した有効画像を、縮小画像を用いて行った合成と同様に、一部が重複するように位置合わせして合成し、最終的に、図2に示すような広画角の画像を生成する(ステップS56)。   Once all the necessary images have been acquired, the saved effective image, which is the original image of the reduced image used for the composition, is aligned so that part of it overlaps, as in the composition performed using the reduced image. Finally, a wide angle image as shown in FIG. 2 is generated (step S56).

上述した第2実施形態によれば、撮像する度に、リアルタイムで、ユーザに対して、処理領域外を撮像している場合や、デジタルカメラ1の移動(撮像方向の変化)が速すぎる場合などに、その旨を報知するようにしたので、ユーザは、デジタルカメラ1を、どの程度の速度で移動さればよいか、どの方向に向けたらよいかが分かるので、容易に、かつ効率的に広画角の画像を得ることができる。   According to the second embodiment described above, when the user captures an image outside the processing area in real time every time an image is captured, or when the movement of the digital camera 1 (change in the imaging direction) is too fast, etc. In addition, since the user is notified of this, the user can know how fast the digital camera 1 should be moved and in which direction it should be directed. A corner image can be obtained.

C.第3実施形態
次に、本発明の第3実施形態について説明する。
本第3実施形態では、連写される撮像画像(の縮小画像)を単に合成して表示するのではなく、現フレームの縮小画像が画像表示部15の中心に位置するように、合成画像から所定の範囲をトリミングして画像表示部15に表示することを特徴としている。なお、デジタルカメラ1の構成は、図1と同様であるので説明を省略する。
C. Third Embodiment Next, a third embodiment of the present invention will be described.
In the third embodiment, captured images (reduced images) that are continuously shot are not simply combined and displayed, but from a combined image so that the reduced image of the current frame is positioned at the center of the image display unit 15. A predetermined range is trimmed and displayed on the image display unit 15. The configuration of the digital camera 1 is the same as that shown in FIG.

図10は、本第3実施形態によるデジタルカメラの動作を説明するためのフローチャートである。まず、CPU11は、シャッタSWが半押しされたか否かを判断し(ステップS60)、シャッタSWが半押しされない場合には、ステップS60を繰り返し実行する。一方、シャッタSWが半押しされると、AF(オートフォーカス)処理を実行し(ステップS62)、シャッタSWが全押しされたか否かを判断する(ステップS64)。シャッタSWが全押しされない場合には、ステップS60、S62を繰り返し実行する。   FIG. 10 is a flowchart for explaining the operation of the digital camera according to the third embodiment. First, the CPU 11 determines whether or not the shutter SW is half-pressed (step S60). If the shutter SW is not half-pressed, the CPU 11 repeatedly executes step S60. On the other hand, when the shutter SW is half-pressed, AF (autofocus) processing is executed (step S62), and it is determined whether or not the shutter SW is fully pressed (step S64). If the shutter SW is not fully pressed, steps S60 and S62 are repeated.

一方、シャッタSWが全押しされると、撮像画像を取り込み、縮小(間引き)処理を実行し、縮小画像を生成する(ステップS66)。次に、縮小画像を用いて、重ね合わせ用画像位置を計算する(ステップS68)。重ね合わせ用画像位置の計算とは、例えば、縮小画像の中心位置(座標)を算出するとともに、既に基準画像(または合成画像)がある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように位置合わせして、現フレームの縮小画像のキャンバス内における位置などを算出することを意味する。次に、上記縮小画像の中心位置、及びキャンバス内における位置に基づいて、縮小画像の中心位置が処理領域(キャンバス内)にあるか否かを判断し(ステップS70)、縮小画像の中心位置が処理領域にない場合には、ステップS66に戻り、次フレームの撮像画像に対して上述した処理を行う。この場合、画像合成は行われない。   On the other hand, when the shutter switch SW is fully pressed, a captured image is captured, a reduction (thinning) process is executed, and a reduced image is generated (step S66). Next, the image position for superimposition is calculated using the reduced image (step S68). The calculation of the image position for superimposition is, for example, calculating the center position (coordinates) of the reduced image and, if there is already a reference image (or composite image), the reduced image and reference image (or composite image) of the current frame. This means that the position of the reduced image of the current frame is calculated in the canvas and the like so as to partially overlap with the image. Next, based on the center position of the reduced image and the position in the canvas, it is determined whether or not the center position of the reduced image is in the processing area (in the canvas) (step S70). If not in the processing area, the process returns to step S66, and the above-described processing is performed on the captured image of the next frame. In this case, image composition is not performed.

一方、縮小画像の中心位置が処理領域内にある場合には、取り込んだ撮像画像(高解像度)を有効画像として保存し(ステップS72)、縮小画像を未取得部分であるブランク部分に上書きする(ステップS74)。つまり、縮小画像の中心位置が処理領域内にある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように位置合わせして合成し、キャンバスに上書きする(最初の1枚目の撮像画像の場合には基準画像としてキャンバスの中央部に上書きする)。   On the other hand, if the center position of the reduced image is within the processing region, the captured image (high resolution) captured is saved as an effective image (step S72), and the reduced image is overwritten on the blank portion that is an unacquired portion ( Step S74). In other words, if the center position of the reduced image is within the processing region, the reduced image of the current frame and the reference image (or composite image) are aligned and combined so that they partially overlap, and the canvas is overwritten. (In the case of the first captured image, the reference image is overwritten on the center of the canvas).

次に、現フレームの縮小画像を中心として画像表示部15の表示サイズで合成画像をトリミングし(ステップS76)、該トリミングした合成画像を画像表示部15に表示する(ステップS78)。次に、必要画像全てを取得したか否か(例えば、所定の時間、あるいは所定の撮像枚数分の画像を取得したか否か)を判断する(ステップS80)。   Next, the composite image is trimmed with the display size of the image display unit 15 around the reduced image of the current frame (step S76), and the trimmed composite image is displayed on the image display unit 15 (step S78). Next, it is determined whether or not all necessary images have been acquired (for example, whether or not images for a predetermined time or a predetermined number of images have been acquired) (step S80).

そして、必要画像全てを取得していない場合には、ステップS66に戻り、次の撮像画像に対して同様の処理を繰り返す。この結果、撮像する度に、撮像画像の中心位置が処理領域内にあれば、基準画像(または合成画像)に順次合成していき、その都度、現フレームの縮小画像を中心として画像表示部15の表示サイズで合成画像をトリミングし、該トリミングした合成画像を画像表示部15に表示することになる。   If all the necessary images have not been acquired, the process returns to step S66, and the same processing is repeated for the next captured image. As a result, every time an image is captured, if the center position of the captured image is within the processing region, the image display unit 15 is sequentially combined with the reference image (or the combined image), and each time, the reduced image of the current frame is the center. The composite image is trimmed with the display size of, and the trimmed composite image is displayed on the image display unit 15.

そして、必要画像全てを取得すると、合成に用いた縮小画像の元画像であって保存した有効画像を、縮小画像を用いて行った合成と同様に、一部が重複するように位置合わせして合成し、最終的に、図2に示すような広画角の画像を生成する(ステップS82)。   Once all the necessary images have been acquired, the saved effective image, which is the original image of the reduced image used for the composition, is aligned so that part of it overlaps, as in the composition performed using the reduced image. Finally, a wide angle image as shown in FIG. 2 is generated (step S82).

図11は、本第3実施形態によるデジタルカメラの動作、及び画像表示部の表示例を示す模式図である。まず、1枚目の撮像画像である基準画像30が取得された後、2枚目の撮像画像(縮小画像)31が取得される。2枚目の縮小画像31の中心位置が画像取得位置にあったとすると、該2枚目の縮小画像31は、1枚目の基準画像30と一部を重ね合わせて合成される。次いで、現フレームの縮小画像31を中心として画像表示部15の表示サイズで合成画像32がトリミングされ、該トリミングした合成画像32aが画像表示部15に表示される。   FIG. 11 is a schematic diagram illustrating an operation of the digital camera according to the third embodiment and a display example of the image display unit. First, after the reference image 30 that is the first captured image is acquired, the second captured image (reduced image) 31 is acquired. If the center position of the second reduced image 31 is at the image acquisition position, the second reduced image 31 is synthesized by superimposing a part of the first reference image 30. Next, the composite image 32 is trimmed with the display size of the image display unit 15 around the reduced image 31 of the current frame, and the trimmed composite image 32 a is displayed on the image display unit 15.

上述した第3実施形態によれば、撮像画像が順次合成される度に、画像表示部15には、現フレームの縮小画像が画像表示部15の中央に位置するように表示される。すなわち、画像表示部15を見ながら撮像を行っているユーザは、リアルタイムでデジタルカメラが向いている方向を中心とした画像を見ることができ、まだ撮像されていないブランク部分を埋めるためには、次にどの方向にデジタルカメラを向ければよいかを直感的に、かつ容易に認識することができる。この結果、容易に、かつ効率的に広画角の画像を得ることができる。   According to the third embodiment described above, every time captured images are sequentially combined, the reduced image of the current frame is displayed on the image display unit 15 so as to be positioned at the center of the image display unit 15. That is, a user who is taking an image while looking at the image display unit 15 can view an image centered on a direction in which the digital camera is facing in real time, and in order to fill a blank portion that has not yet been taken, Next, it is possible to intuitively and easily recognize in which direction the digital camera should be directed. As a result, an image with a wide angle of view can be obtained easily and efficiently.

なお、上記一連の処理においては、基準画像が画像表示部15の画面上を移動してしまうので、ユーザに合成画像のどの部分が基準画像であるかを分からせるために、所定の色の枠で囲むようにしてもよい。   In the above-described series of processing, the reference image moves on the screen of the image display unit 15. Therefore, in order to let the user know which part of the composite image is the reference image, a frame of a predetermined color is used. You may make it surround with.

D.第4実施形態
次に、本発明の第4実施形態について説明する。
本第4実施形態では、連写中に、ユーザに対して、まだ撮像されていない方向、あるいは既に撮像された方向を明示しつつ、どのようにデジタルカメラを移動させればよいか、あるいはどの方向にデジタルカメラを向ければよいかを誘導するためのガイドを提示することを特徴としている。なお、デジタルカメラ1の構成は、図1と同様であるので説明を省略する。
D. Fourth Embodiment Next, a fourth embodiment of the present invention will be described.
In the fourth embodiment, during continuous shooting, how to move the digital camera while clearly indicating to the user the direction that has not yet been captured or the direction that has already been captured, or which It is characterized by presenting a guide for guiding whether the digital camera should be directed in the direction. The configuration of the digital camera 1 is the same as that shown in FIG.

図12は、本第4実施形態によるデジタルカメラの動作を説明するためのフローチャートである。また、図13(a)〜(e)は、本第4実施形態によるデジタルカメラの動作、及び画像表示部の表示例を示す模式図である。   FIG. 12 is a flowchart for explaining the operation of the digital camera according to the fourth embodiment. FIGS. 13A to 13E are schematic diagrams illustrating an operation of the digital camera according to the fourth embodiment and a display example of the image display unit.

まず、CPU11は、シャッタSWが半押しされたか否かを判断し(ステップS90)、シャッタSWが半押しされない場合には、ステップS90を繰り返し実行する。一方、シャッタSWが半押しされると、AF(オートフォーカス)処理を実行し(ステップS92)、シャッタSWが全押しされたか否かを判断する(ステップS94)。シャッタSWが全押しされない場合には、ステップS90、S92を繰り返し実行する。   First, the CPU 11 determines whether or not the shutter SW is half-pressed (step S90). If the shutter SW is not half-pressed, the CPU 11 repeatedly executes step S90. On the other hand, when the shutter SW is half-pressed, AF (autofocus) processing is executed (step S92), and it is determined whether or not the shutter SW is fully pressed (step S94). If the shutter switch is not fully pressed, steps S90 and S92 are repeated.

一方、シャッタSWが全押しされると、例えば、図13(a)に示すように、画像表示部15の右下に渦巻き状のガイド70を表示する(ステップS96)。次に、撮像画像を取り込み、縮小(間引き)処理を実行し、縮小画像を生成する(ステップS98)。次に、縮小画像を用いて、重ね合わせ用画像位置を計算する(ステップS100)。重ね合わせ用画像位置の計算とは、例えば、縮小画像の中心位置(座標)を算出するとともに、既に基準画像(または合成画像)がある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように位置合わせして、現フレームの縮小画像のキャンバス内における位置などを算出することを意味する。   On the other hand, when the shutter SW is fully pressed, for example, as shown in FIG. 13A, a spiral guide 70 is displayed on the lower right of the image display unit 15 (step S96). Next, the captured image is captured, and a reduction (thinning-out) process is executed to generate a reduced image (step S98). Next, the image position for superimposition is calculated using the reduced image (step S100). The calculation of the image position for superimposition is, for example, calculating the center position (coordinates) of the reduced image and, if there is already a reference image (or composite image), the reduced image and reference image (or composite image) of the current frame. This means that the position of the reduced image of the current frame is calculated in the canvas and the like so as to partially overlap with the image.

次に、上記縮小画像の中心位置、及びキャンバス内における位置に基づいて、縮小画像の中心位置が処理領域(キャンバス内)にあるか否かを判断し(ステップS102)、縮小画像の中心位置が処理領域にない場合には、ステップS96に戻り、次フレームの撮像画像に対して上述した処理を行う。この場合、画像合成は行われない。   Next, based on the center position of the reduced image and the position in the canvas, it is determined whether or not the center position of the reduced image is in the processing area (in the canvas) (step S102). If not in the processing area, the process returns to step S96, and the above-described processing is performed on the captured image of the next frame. In this case, image composition is not performed.

一方、縮小画像の中心位置が処理領域内にある場合には、取り込んだ撮像画像(高解像度)を有効画像として保存し(ステップS104)、縮小画像を未取得部分であるブランク部分に上書きする(ステップS106)。つまり、縮小画像の中心位置が処理領域内にある場合には、現フレームの縮小画像と基準画像(または合成画像)との一部が重複するように位置合わせして合成し、キャンバス40に上書きする(最初の1枚目の撮像画像の場合には基準画像としてキャンバス40の中央部に上書きする)。次に、合成画像を画像表示部15に表示する(ステップS108)。   On the other hand, when the center position of the reduced image is within the processing region, the captured image (high resolution) captured is saved as an effective image (step S104), and the reduced image is overwritten on the blank portion that is an unacquired portion ( Step S106). In other words, if the center position of the reduced image is within the processing area, the reduced image of the current frame and the reference image (or composite image) are aligned and combined so that a part of the image overlaps, and the canvas 40 is overwritten. (In the case of the first captured image, it is overwritten on the center of the canvas 40 as a reference image). Next, the composite image is displayed on the image display unit 15 (step S108).

次に、現フレームの縮小画像が合成された部分が取得済みであることを示すべく、該合成された部分に対応するガイド70の一部の色(図示の例では線種の違いで示した)を変更し、画像表示部15に表示されているガイド70を更新する(ステップS110)。例えば、図13(b)には、1枚目の基準画像30の撮像後における、画像表示部15の表示例を示している。このとき、ガイド70において、渦巻き状の中心から1枚目の基準画像の位置に相当する箇所の色が変化している(図示の例では、ガイド70の線種が変化)。ユーザは、該ガイド70を見て、渦巻きに沿ってデジタルカメラ1を動かせばよい。   Next, in order to show that the combined portion of the reduced image of the current frame has been acquired, a part of the color of the guide 70 corresponding to the combined portion (in the illustrated example, it is indicated by the difference in line type) ) And the guide 70 displayed on the image display unit 15 is updated (step S110). For example, FIG. 13B shows a display example of the image display unit 15 after the first reference image 30 is captured. At this time, in the guide 70, the color corresponding to the position of the first reference image from the spiral center changes (in the illustrated example, the line type of the guide 70 changes). The user may look at the guide 70 and move the digital camera 1 along the spiral.

そして、2枚目の縮小画像の合成後には、図13(c)に示すように、ガイド70において、渦巻き状の中心から2枚目の撮像画像の位置に相当する箇所までの色(図示の例では、ガイド70の線種)が変化している。ユーザは、該ガイド70を見て、さらに、渦巻きに沿ってデジタルカメラ1を動かせばよい。   After the synthesis of the second reduced image, as shown in FIG. 13C, the color from the spiral center to the location corresponding to the position of the second captured image (shown in the figure) in the guide 70. In the example, the line type of the guide 70 is changed. The user may look at the guide 70 and move the digital camera 1 along the spiral.

次に、必要画像全てを取得したか否か(例えば、所定の時間、あるいは所定の撮像枚数分の画像を取得したか否か)を判断する(ステップS112)。そして、必要画像全てを取得していない場合には、ステップS96に戻り、次の撮像画像に対して同様の処理を繰り返す。この結果、縮小画像が順次合成される度に、該合成される縮小画像の位置に対応するガイド70の一部の色が変化することになる。つまり、縮小画像が順次合成される度に、図13(d)の状態となり、最終的には、図13(e)に示すように、ガイド70の全体が変化し、画面全体の合成画像を取得したことが示されることになる。   Next, it is determined whether or not all necessary images have been acquired (for example, whether or not images for a predetermined time or a predetermined number of images have been acquired) (step S112). If all the necessary images have not been acquired, the process returns to step S96, and the same processing is repeated for the next captured image. As a result, each time the reduced images are sequentially combined, a part of the color of the guide 70 corresponding to the position of the reduced image to be combined changes. That is, every time reduced images are sequentially combined, the state shown in FIG. 13 (d) is obtained. Finally, as shown in FIG. 13 (e), the entire guide 70 changes, and the combined image of the entire screen is displayed. It will be shown that it has been acquired.

そして、必要画像全てを取得すると、合成に用いた縮小画像の元画像であって保存した有効画像を、縮小画像を用いて行った合成と同様に、一部が重複するように合成し、最終的に、図2に示すような広画角の画像を生成する(ステップS114)。   Then, when all the necessary images are obtained, the saved effective image that is the original image of the reduced image used for the synthesis is synthesized so as to partially overlap, as in the synthesis performed using the reduced image. Specifically, an image with a wide angle of view as shown in FIG. 2 is generated (step S114).

図14(a)〜(c)は、本第4実施形態の変形例を示す模式図である。上述した本第4実施形態では、ガイド70を渦巻き状とし、画像表示部15の右隅に表示するようにしたが、これに限らず、例えば、図14(a)に示すように、ガイド71を画像表示部15の画面全体に合成画像と重ねて表示したり、図14(b)に示すように、ガイド72を画面の左上から蛇行させたZ字形状にしてもよい。図14(b)の場合、1枚目の基準画像は、ガイド72の始点である左上隅となる。また、図14(c)に示すように、撮像すべき位置に円形状のガイド73を配置し、撮像されると、色を変更することで、撮像済みであるか未撮像であるかを分かるようにしてもよい。すなわち、ガイド70は、基準画像に対して何倍の画角(面積)の合成画像を生成するかに応じた形状を有するものであれば如何なるものでもよい。   FIGS. 14A to 14C are schematic views showing modifications of the fourth embodiment. In the fourth embodiment described above, the guide 70 has a spiral shape and is displayed at the right corner of the image display unit 15. However, the present invention is not limited to this. For example, as shown in FIG. May be displayed on the entire screen of the image display unit 15 so as to overlap with the composite image, or as shown in FIG. 14B, the guide 72 may be Z-shaped meandering from the upper left of the screen. In the case of FIG. 14B, the first reference image is the upper left corner that is the starting point of the guide 72. Further, as shown in FIG. 14C, a circular guide 73 is arranged at a position to be imaged, and when the image is captured, the color is changed to determine whether the image has been captured or not captured. You may do it. That is, the guide 70 may have any shape as long as it has a shape corresponding to how many times the angle of view (area) of the composite image is generated with respect to the reference image.

上述した第4実施形態によれば、連写中に、ユーザに対して、まだ撮像されていない方向、あるいは既に撮像された方向を明示しつつ、どのようにデジタルカメラを移動させればよいか、あるいはどの方向にデジタルカメラを向ければよいかを誘導するためのガイドを表示するようにしたので、画像表示部15を見ながら撮像を行っているユーザは、次にどのようにデジタルカメラを移動させればよいか、あるいはどの方向にデジタルカメラを向ければよいかを、直感的に、かつ容易に認識することができる。この結果、容易に、かつ効率的に広画角の画像を得ることができる。   According to the fourth embodiment described above, how should the digital camera be moved while clearly indicating to the user the direction that has not yet been captured or the direction that has already been captured during continuous shooting? Or a guide for guiding in which direction the digital camera should be directed is displayed, so that the user who is taking an image while looking at the image display unit 15 then moves the digital camera. It is possible to intuitively and easily recognize which should be performed or in which direction the digital camera should be directed. As a result, an image with a wide angle of view can be obtained easily and efficiently.

また、上述した第1実施形態から第4実施形態は、それぞれ組合わせ可能であり、例えば、第2実施形態による領域超過マークや、スピード超過マークの表示処理に、第3実施形態によるトリミング処理、または/及び第4実施形態によるガイド表示を加えるようにしてもよい。また、例えば、上述した第1実施形態から第4実施形態にあっては、デジタルカメラの移動を検出する加速度センサを更に備え、連写によって順次得られる撮像画像の重ね合わせの際には、この加速度センサによって検出された移動を考慮して重ね合わせ用の画像位置を計算するようにしてもよい。   In addition, the above-described first to fourth embodiments can be combined, for example, the region excess mark and the overspeed mark display processing according to the second embodiment, the trimming processing according to the third embodiment, Or / and a guide display according to the fourth embodiment may be added. In addition, for example, in the above-described first to fourth embodiments, an acceleration sensor that detects the movement of the digital camera is further provided, and when the captured images sequentially obtained by continuous shooting are overlapped, The image position for superimposition may be calculated in consideration of the movement detected by the acceleration sensor.

なお、上述した第1実施形態から第4実施形態では、撮像装置としてデジタルカメラについて説明したが、これに限らず、撮像機能を有する電子機器であれば、例えば、携帯電話などにも適用可能である。   In the first to fourth embodiments described above, the digital camera has been described as the imaging device. However, the present invention is not limited to this, and any electronic device having an imaging function can be applied to, for example, a mobile phone. is there.

1 デジタルカメラ
2 撮像レンズ
3 レンズ駆動部
4 絞り兼用シャッタ
5 CCD
6 TG
7 ユニット回路
8 画像処理部
11 CPU
12 DRAM
13 メモリ
14 フラッシュメモリ
15 画像表示部
16 キー入力部
17 カードI/F
18 メモリ・カード
DESCRIPTION OF SYMBOLS 1 Digital camera 2 Imaging lens 3 Lens drive part 4 Shutter combined shutter 5 CCD
6 TG
7 Unit Circuit 8 Image Processing Unit 11 CPU
12 DRAM
13 Memory 14 Flash memory 15 Image display section 16 Key input section 17 Card I / F
18 Memory card

Claims (8)

被写体を連続して撮像することで、画像を順次出力する撮像手段と、
前記撮像手段により出力された画像を順次合成することにより、当該出力された画像よりも広角な合成画像を生成する生成手段と、
前記生成手段により合成画像を生成している間に、前記撮像手段の撮像範囲が前記合成画像を生成するのに必要な合成範囲を超過しているか否かを順次判断する判断手段と、
前記判断手段により前記撮像範囲が前記合成範囲を超過していると判断されると、前記撮像範囲の修正方向を示す指標画像を表示手段に表示させる第1の表示制御手段と
を備えることを特徴とする撮像装置。
Imaging means for sequentially outputting images by continuously imaging a subject;
Generating means for generating a composite image having a wider angle than the output image by sequentially combining the images output by the imaging means;
A determination unit that sequentially determines whether or not an imaging range of the imaging unit exceeds a synthesis range necessary for generating the composite image while the generation unit generates the composite image ;
And a first display control unit that causes the display unit to display an index image indicating a correction direction of the imaging range when the determination unit determines that the imaging range exceeds the synthesis range. An imaging device.
前記修正方向を示す指標画像は、前記合成範囲に対して前記撮像範囲が超過した方向とは逆向きの矢印の画像であることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the index image indicating the correction direction is an arrow image that is opposite to a direction in which the imaging range has exceeded the combined range. 前記生成手段は、前記判断手段により前記撮像範囲が前記合成範囲を超過していると判断されると、当該判断時における画像を前記合成画像には合成しないことを特徴とする請求項1又は2に記載の撮像装置。   3. The generation unit according to claim 1, wherein when the determination unit determines that the imaging range exceeds the synthesis range, the generation unit does not combine the image at the time of the determination with the composite image. The imaging device described in 1. 前記第1の表示制御手段は、更に、前記合成範囲における未撮像部分の領域を、前記合成範囲と、前記撮像範囲の修正方向を示す指標画像とともに前記表示手段に表示させることを特徴とする請求項1から3の何れかに記載の撮像装置。   The first display control means further causes the display means to display an area of an unimaged portion in the synthesis range together with the synthesis range and an index image indicating a correction direction of the imaging range. Item 4. The imaging device according to any one of Items 1 to 3. 前記生成手段による合成画像を生成するために必要な合成範囲と前記撮像手段による撮像範囲とを表示手段に表示させる第2の表示制御手段を更に備えることを特徴とする請求項1から4の何れかに記載の撮像装置。   5. The display apparatus according to claim 1, further comprising: a second display control unit that causes a display unit to display a synthesis range necessary for generating a composite image by the generation unit and an imaging range by the imaging unit. An imaging apparatus according to claim 1. 前記第の表示制御手段は、更に、前記指標画像を前記合成範囲の一部の領域に重畳させるように前記表示手段に表示させることを特徴とする請求項1から5の何れかに記載の撮像装置。 The said 1st display control means is further displayed on the said display means so that the said index image may be superimposed on the one part area | region of the said synthetic | combination range, The one in any one of Claim 1 to 5 characterized by the above-mentioned. Imaging device. 前記第2の表示制御手段は、前記撮像手段により順次出力される画像に対応する画像を前記撮像範囲として前記合成範囲とともに前記表示手段に表示させ、
前記第2の表示制御手段により前記表示手段に表示された前記撮像範囲の中心位置を算出する算出手段を更に備え、
前記判断手段は、前記算出手段により算出された前記撮像範囲の中心位置が前記合成範囲を超過しているか否かを判断することを特徴とする請求項に記載の撮像装置。
The second display control means causes the display means to display an image corresponding to images sequentially output by the imaging means as the imaging range together with the synthesis range,
A calculation unit that calculates a center position of the imaging range displayed on the display unit by the second display control unit;
The imaging apparatus according to claim 5 , wherein the determination unit determines whether a center position of the imaging range calculated by the calculation unit exceeds the synthesis range.
コンピュータを、
撮像手段により順次出力された画像を順次合成することにより、当該出力された画像よりも広角な合成画像を生成する生成手段、
前記生成手段により合成画像を生成している間に、前記撮像手段撮像範囲が前記合成画像を生成するのに必要な合成範囲を超過しているか否かを順次判断する判断手段、
前記判断手段により前記撮像範囲が前記合成範囲を超過していると判断されると、前記撮像範囲の修正方向を示す指標画像を表示手段に表示させる第2の表示制御手段
として機能させることを特徴とするプログラム。
Computer
Generating means for generating a composite image having a wider angle than the output image by sequentially combining the images sequentially output by the imaging means;
Determination means for sequentially determining whether or not the imaging range of the imaging means exceeds the synthesis range necessary for generating the composite image while the generation means generates the composite image ;
When the determination unit determines that the imaging range exceeds the synthesis range, the display unit functions as a second display control unit that displays on the display unit an index image indicating a correction direction of the imaging range. Program.
JP2012060836A 2012-03-16 2012-03-16 Imaging apparatus and program Active JP5655804B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012060836A JP5655804B2 (en) 2012-03-16 2012-03-16 Imaging apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012060836A JP5655804B2 (en) 2012-03-16 2012-03-16 Imaging apparatus and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010063763A Division JP4985808B2 (en) 2010-03-19 2010-03-19 Imaging apparatus and program

Publications (3)

Publication Number Publication Date
JP2012165405A JP2012165405A (en) 2012-08-30
JP2012165405A5 JP2012165405A5 (en) 2013-05-02
JP5655804B2 true JP5655804B2 (en) 2015-01-21

Family

ID=46844281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012060836A Active JP5655804B2 (en) 2012-03-16 2012-03-16 Imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP5655804B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015186015A (en) * 2014-03-24 2015-10-22 株式会社Jvcケンウッド image processing apparatus, image processing method, program and camera

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3845968B2 (en) * 1997-08-21 2006-11-15 ソニー株式会社 Image processing system
JP2000305207A (en) * 1999-04-21 2000-11-02 Canon Inc Electronic still camera
JP2001008081A (en) * 1999-06-24 2001-01-12 Ricoh Co Ltd Digital camera
JP2004096156A (en) * 2002-08-29 2004-03-25 Oki Electric Ind Co Ltd Image compositing processing method and image compositing processing system, and program
JP2005303594A (en) * 2004-04-09 2005-10-27 Canon Inc Imaging apparatus
JP4818987B2 (en) * 2007-05-21 2011-11-16 オリンパスイメージング株式会社 Imaging apparatus, display method, and program

Also Published As

Publication number Publication date
JP2012165405A (en) 2012-08-30

Similar Documents

Publication Publication Date Title
JP4985808B2 (en) Imaging apparatus and program
JP5665013B2 (en) Image processing apparatus, image processing method, and program
JP5054583B2 (en) Imaging device
KR101391042B1 (en) Image processing device capable of generating wide-range image
US9560243B2 (en) Image processing device, imaging device, program, and image processing method suppressing a reduction in visibility of an image to check focus when distortion is corrected
JP2011199566A (en) Imaging apparatus, imaging method and program
KR101433121B1 (en) Image processing device for generating composite image having predetermined aspect ratio
JP6000446B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP2006162991A (en) Stereoscopic image photographing apparatus
JP2007225897A (en) Focusing position determination device and method
JP4925168B2 (en) Imaging method and apparatus
JP2011216958A (en) Imaging apparatus and program
JP5655804B2 (en) Imaging apparatus and program
JP5892211B2 (en) Imaging apparatus and program
JP5364625B2 (en) Imaging device
JP5648563B2 (en) Image processing apparatus, image processing method, and program
JP5641352B2 (en) Image processing apparatus, image processing method, and program
JP5163333B2 (en) CAMERA DEVICE, IMAGE DISPLAY METHOD, AND IMAGE DISPLAY PROGRAM
JP5934844B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5637400B2 (en) Imaging apparatus and program
JP4930905B2 (en) Imaging apparatus and program thereof
JP2018061231A (en) Imaging apparatus, imaging method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141110

R150 Certificate of patent or registration of utility model

Ref document number: 5655804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150