JP2008288798A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2008288798A
JP2008288798A JP2007130713A JP2007130713A JP2008288798A JP 2008288798 A JP2008288798 A JP 2008288798A JP 2007130713 A JP2007130713 A JP 2007130713A JP 2007130713 A JP2007130713 A JP 2007130713A JP 2008288798 A JP2008288798 A JP 2008288798A
Authority
JP
Japan
Prior art keywords
image
cpu
overlapping range
panorama
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007130713A
Other languages
Japanese (ja)
Other versions
JP4894616B2 (en
Inventor
Kenichi Kawaguchi
健一 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007130713A priority Critical patent/JP4894616B2/en
Publication of JP2008288798A publication Critical patent/JP2008288798A/en
Application granted granted Critical
Publication of JP4894616B2 publication Critical patent/JP4894616B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a means capable of generating a panoramic image of a preferable state matched with the taste of a user. <P>SOLUTION: The imaging apparatus comprises an imaging part, a first operation part, a control part and an image processing part. The imaging part generates a first image and a second image including an object image divided in a prescribed direction for constituting one continuous panoramic image by panoramic synthesis processing. The first operation part receives an operation from the user. The control part determines a priority order in the panoramic synthesis processing according to the operation for the overlapping range of the object image in the first image and the second image. The image processing part deletes one of low priority orders from the overlapping range of the first image and the overlapping range of the second image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、パノラマ画像の撮像補助機能を有する撮像装置に関する。   The present invention relates to an imaging apparatus having a panoramic image imaging assist function.

従来から、複数の画像で被写体を分割して撮像するとともに、これらの画像を合成してつなぎ合わせることで1つの連続したパノラマ画像を作成する手法が公知である。例えば、特許文献1には、上記のパノラマ画像の作成を容易にするカメラの一例が開示されている。
特開2005−223905号公報
2. Description of the Related Art Conventionally, there has been known a method for creating a single continuous panoramic image by dividing and capturing an image of a subject with a plurality of images and combining and joining these images. For example, Patent Document 1 discloses an example of a camera that facilitates the creation of the panoramic image.
JP 2005-223905 A

ところで、上記のパノラマ画像を生成するときには、2つの画像をつなぎ合わせるために重複範囲を設けて各々の画像が撮像される。このとき、2つの画像の重複範囲で被写体の状態に差があるときには、より好ましい状態の画像を選択してパノラマ画像に反映させることがユーザーから要望されている。   By the way, when the panoramic image is generated, an overlapping range is provided to connect the two images, and each image is captured. At this time, when there is a difference in the state of the subject in the overlapping range of the two images, the user requests to select an image in a more preferable state and reflect it in the panoramic image.

本発明は上記従来技術の課題を解決するためのものである。本発明の目的は、ユーザーの趣向に合致する好ましい状態のパノラマ画像を生成できる手段を提供することである。   The present invention is to solve the above-mentioned problems of the prior art. An object of the present invention is to provide a means capable of generating a panoramic image in a preferable state that matches a user's preference.

第1の発明の撮像装置は、撮像部と、第1操作部と、制御部と、画像処理部とを備える。撮像部は、各々の画像には所定方向に分割した被写体像が含まれるとともに、パノラマ合成処理によって1つの連続したパノラマ画像を構成するための第1画像および第2画像を生成する。第1操作部は、ユーザーからの操作を受け付ける。制御部は、第1画像および第2画像での被写体像の重複範囲について、パノラマ合成処理での優先順位を操作に応じて決定する。画像処理部は、第1画像の重複範囲および第2画像の重複範囲のうちから、優先順位の低い方を削除する。   An imaging apparatus according to a first invention includes an imaging unit, a first operation unit, a control unit, and an image processing unit. The imaging unit includes a subject image divided in a predetermined direction in each image, and generates a first image and a second image for forming one continuous panorama image by panorama synthesis processing. The first operation unit accepts an operation from the user. The control unit determines the priority order in the panorama synthesis process for the overlapping range of the subject images in the first image and the second image according to the operation. The image processing unit deletes the lower priority order from the overlapping range of the first image and the overlapping range of the second image.

第2の発明の撮像装置は、撮像部と、第1操作部と、制御部と、メタデータ生成部とを備える。撮像部は、各々の画像には所定方向に分割した被写体像が含まれるとともに、パノラマ合成処理によって1つの連続したパノラマ画像を構成するための第1画像および第2画像を生成する。第1操作部は、ユーザーからの操作を受け付ける。制御部は、第1画像および第2画像での被写体像の重複範囲について、パノラマ合成処理での優先順位を操作に応じて決定する。メタデータ生成部は、第1画像および第2画像の少なくとも一方のデータに、重複範囲の位置を示す第1メタデータと、優先順位に関する第2メタデータとを関連付けて記録する。   An imaging apparatus according to a second invention includes an imaging unit, a first operation unit, a control unit, and a metadata generation unit. The imaging unit includes a subject image divided in a predetermined direction in each image, and generates a first image and a second image for forming one continuous panorama image by panorama synthesis processing. The first operation unit accepts an operation from the user. The control unit determines the priority order in the panorama synthesis process for the overlapping range of the subject images in the first image and the second image according to the operation. The metadata generation unit records, in association with at least one of the first image and the second image, the first metadata indicating the position of the overlapping range and the second metadata related to the priority order.

第3の発明は、第1または第2の発明において、撮像部によって撮像されたスルー画像を動画表示するモニタを撮像装置がさらに備える。また、制御部は、第1画像の重複範囲に基づいてガイド画像を生成するとともに、第2画像の構図決定動作時に、モニタ上のスルー画像にガイド画像を重畳させる。   According to a third aspect, in the first or second aspect, the imaging apparatus further includes a monitor that displays a moving image of the through image captured by the imaging unit. Further, the control unit generates a guide image based on the overlapping range of the first image, and superimposes the guide image on the through image on the monitor during the composition determining operation of the second image.

第4の発明は、第3の発明において、第1画像に対するガイド画像の割合を変更するためのユーザーの第1変更操作を受け付ける第2操作部を撮像装置がさらに備える。また、制御部は、第1変更操作に基づいて重複範囲を変更する。   In a fourth aspect based on the third aspect, the imaging apparatus further includes a second operation unit that accepts a user's first change operation for changing a ratio of the guide image to the first image. Further, the control unit changes the overlapping range based on the first change operation.

第5の発明は、第1または第2の発明において、重複範囲の変更に関する第2変更操作をユーザーから受け付ける第3操作部を撮像装置がさらに備える。また、制御部は、第2変更操作に基づいて重複範囲の輪郭を変更する。   According to a fifth aspect, in the first or second aspect, the imaging apparatus further includes a third operation unit that receives a second change operation related to the change of the overlapping range from the user. Moreover, a control part changes the outline of an overlapping range based on 2nd change operation.

第6の発明は、第1または第2の発明において、制御部は、第1画像の撮像後でかつ第2画像の構図決定動作時に、優先順位を決定する処理を実行する。   In a sixth aspect based on the first or second aspect, the control unit executes processing for determining the priority order after capturing the first image and during the composition determining operation for the second image.

第7の発明は、第1または第2の発明において、制御部は、第1画像および第2画像の撮像後に、優先順位を決定する処理を実行する。   In a seventh aspect based on the first or second aspect, the control unit executes a process for determining the priority order after capturing the first image and the second image.

本発明では、ユーザーの操作で決定された優先順位に基づいて、第1画像または第2画像からの重複範囲の削除や、画像の重複範囲および優先順位を示すメタデータの記録が行われる。これにより、第1画像および第2画像から生成したパノラマ画像では、優先順位の高い重複画像が使用されて被写体が好ましい状態で表現される。   In the present invention, based on the priority determined by the user's operation, the overlapping range is deleted from the first image or the second image, and metadata indicating the overlapping range and priority of the image is recorded. Thereby, in the panoramic image generated from the first image and the second image, the overlapping image with high priority is used and the subject is expressed in a preferable state.

(第1実施形態の説明)
図1は、第1実施形態の電子カメラの構成を示すブロック図である。本実施形態の電子カメラは、撮影モードの1機能として、パノラマ画像の生成を補助するためのパノラマアシストモードを有している。ここで、パノラマ画像は、所定方向に被写体を分割撮像した複数の画像をつなぎ合わせて、1つの連続した画像としたものをいう。
(Description of the first embodiment)
FIG. 1 is a block diagram showing the configuration of the electronic camera of the first embodiment. The electronic camera of the present embodiment has a panorama assist mode for assisting generation of a panoramic image as one function of the shooting mode. Here, the panoramic image refers to a continuous image obtained by connecting a plurality of images obtained by dividing and imaging a subject in a predetermined direction.

本実施形態の電子カメラは、撮像光学系11と、撮像素子12と、AFE13と、画像処理部14と、バッファメモリ15と、記録I/F16と、モニタ17と、操作部材18と、レリーズ釦19と、タッチパネル20と、CPU21およびバス22とを有している。ここで、画像処理部14、バッファメモリ15、記録I/F16、モニタ17およびCPU21は、バス22を介してそれぞれ接続されている。また、操作部材18、レリーズ釦19およびタッチパネル20は、それぞれCPU21に接続されている。   The electronic camera of the present embodiment includes an imaging optical system 11, an imaging device 12, an AFE 13, an image processing unit 14, a buffer memory 15, a recording I / F 16, a monitor 17, an operation member 18, and a release button. 19, a touch panel 20, a CPU 21 and a bus 22. Here, the image processing unit 14, the buffer memory 15, the recording I / F 16, the monitor 17, and the CPU 21 are connected via a bus 22. The operation member 18, the release button 19, and the touch panel 20 are connected to the CPU 21, respectively.

撮像光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成されている。撮像光学系11のレンズ位置は、レンズ駆動部(不図示)によって光軸方向に調整される。なお、簡単のため、図1では撮像光学系11を1枚のレンズとして図示する。   The imaging optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens. The lens position of the imaging optical system 11 is adjusted in the optical axis direction by a lens driving unit (not shown). For simplicity, the imaging optical system 11 is illustrated as a single lens in FIG.

撮像素子12は、撮像光学系11の像空間側に配置されている。撮像素子12の受光面には受光素子が2次元配列されている。撮像素子12は、撮像光学系11を通過した光束による被写体像を光電変換してアナログの画像信号を生成する。この撮像素子12の出力はAFE13に接続されている。   The imaging element 12 is disposed on the image space side of the imaging optical system 11. The light receiving elements are two-dimensionally arranged on the light receiving surface of the image sensor 12. The image sensor 12 photoelectrically converts a subject image by a light beam that has passed through the imaging optical system 11 to generate an analog image signal. The output of the image sensor 12 is connected to the AFE 13.

ここで、電子カメラの撮影モードにおいて、撮像素子12はレリーズ釦19の全押し操作に応答して記録画像(本画像)を撮像する。また、撮影モードでの撮像素子12は、撮影待機時にも所定間隔毎にスルー画像を撮像する。このスルー画像のデータは、撮像素子12から間引き読み出しで出力される。なお、スルー画像のデータは、モニタ17での画像表示や、CPU21による各種の演算処理などに使用される。   Here, in the photographing mode of the electronic camera, the image pickup device 12 picks up a recorded image (main image) in response to a full pressing operation of the release button 19. Further, the imaging element 12 in the shooting mode captures a through image at predetermined intervals even during standby for shooting. The through image data is output from the image sensor 12 by thinning-out readout. The through image data is used for image display on the monitor 17 and various arithmetic processes by the CPU 21.

AFE13は、撮像素子12の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE13は、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。なお、AFE13の出力は画像処理部14に接続されている。   The AFE 13 is an analog front end circuit that performs analog signal processing on the output of the image sensor 12. The AFE 13 performs correlated double sampling, image signal gain adjustment, and image signal A / D conversion. The output of the AFE 13 is connected to the image processing unit 14.

画像処理部14は、1フレーム分のデジタル画像信号に対して、各種の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整など)を施す。また、画像処理部14は、上記のパノラマアシストモードにおいて、(1)構図決定用のガイド画像の生成処理、(2)本画像のトリミング処理、(3)パノラマ画像を生成するための画像合成処理(パノラマ合成処理)などを実行する。   The image processing unit 14 performs various types of image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment, etc.) on the digital image signal for one frame. In the panorama assist mode, the image processing unit 14 (1) guide image generation processing for composition determination, (2) main image trimming processing, and (3) image composition processing for generating a panorama image. (Panorama composition processing) is executed.

バッファメモリ15は、画像処理部14による画像処理の前工程や後工程で画像のデータを一時的に記憶する。   The buffer memory 15 temporarily stores image data in the pre-process and post-process of image processing by the image processing unit 14.

記録I/F16には、記憶媒体23を接続するためのコネクタが形成されている。そして、記録I/F16は、コネクタに接続された記憶媒体23に対してデータの書き込み/読み込みを実行する。上記の記憶媒体23は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体23の一例としてメモリカードを図示する。   A connector for connecting the storage medium 23 is formed in the recording I / F 16. Then, the recording I / F 16 executes data writing / reading with respect to the storage medium 23 connected to the connector. The storage medium 23 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 23.

モニタ17は、CPU21の指示に応じて各種画像を表示する。なお、本実施形態の例では、液晶パネルで構成されたモニタ17が筐体背面に配置される。   The monitor 17 displays various images according to instructions from the CPU 21. In the example of the present embodiment, a monitor 17 constituted by a liquid crystal panel is disposed on the rear surface of the casing.

撮影モードでの撮影待機時において、モニタ17にはCPU21の制御によりスルー画像が動画表示される。このとき、CPU21は、撮影に必要となる各種情報をモニタ17上のスルー画像に重畳表示させることもできる。また、CPU21は、各種の設定項目の入力を可能とするGUI(Graphical User Interface)形式のボタンをモニタ17上に表示させることもできる。なお、パノラマアシストモードでは、1フレーム目の本画像の撮像後において、CPU21がモニタ17のスルー画像にガイド画像を重畳表示させる(ガイド画像の表示については後述する)。   During shooting standby in the shooting mode, the through image is displayed on the monitor 17 as a moving image under the control of the CPU 21. At this time, the CPU 21 can also superimpose and display various information necessary for photographing on the through image on the monitor 17. The CPU 21 can also display on the monitor 17 a button in a GUI (Graphical User Interface) format that allows input of various setting items. In the panorama assist mode, the CPU 21 superimposes and displays the guide image on the through image of the monitor 17 after the main image of the first frame is captured (the display of the guide image will be described later).

操作部材18は、例えば、コマンドダイヤル、十字状のカーソルキー、決定釦などで構成される。そして、操作部材18は電子カメラの各種入力をユーザーから受け付ける。例えば、操作部材18は、電子カメラの動作モードの切替操作や、後述の設定画面での入力操作などに用いられる。   The operation member 18 includes, for example, a command dial, a cross-shaped cursor key, a determination button, and the like. The operation member 18 receives various inputs of the electronic camera from the user. For example, the operation member 18 is used for an operation of switching the operation mode of the electronic camera, an input operation on a setting screen described later, and the like.

レリーズ釦19は、半押し操作による撮像前のオートフォーカス(AF)動作開始の指示入力と、全押し操作による撮像動作開始の指示入力とをユーザーから受け付ける。   The release button 19 receives from the user an instruction input for starting an autofocus (AF) operation before imaging by a half-press operation and an instruction input for starting an imaging operation by a full-press operation.

タッチパネル20は、パネル表面に接触したスタイラス(または指先など)の位置を検出する。そして、タッチパネル20は、検出した位置情報をCPU21に出力することでユーザーからの入力を受け付ける。なお、タッチパネル20の構成は、静電容量式または感圧式のいずれでもよい。   The touch panel 20 detects the position of a stylus (or fingertip or the like) that is in contact with the panel surface. And the touch panel 20 receives the input from a user by outputting the detected positional information to CPU21. The configuration of the touch panel 20 may be either a capacitance type or a pressure sensitive type.

ここで、本実施形態のタッチパネル20は、モニタ17と同形状の透明のパネルで構成されている。そして、タッチパネル20は、モニタ17の表面全体に積層配置されている。したがって、ユーザーはモニタ17の表示画像を視認しつつ、上記の表示画像の座標をタッチパネル20を介してCPU21に指定入力できる。   Here, the touch panel 20 of the present embodiment is configured by a transparent panel having the same shape as the monitor 17. The touch panel 20 is stacked on the entire surface of the monitor 17. Therefore, the user can specify and input the coordinates of the display image to the CPU 21 via the touch panel 20 while visually recognizing the display image on the monitor 17.

CPU21は、電子カメラの動作を統括的に制御するプロセッサである。このCPU21は、スルー画像のデータに基づいて、コントラスト検出方式による公知のAF制御や、自動露出(AE)演算、オートホワイトバランス演算などを実行する。さらに、CPU21は、パノラマアシストモードでの各種の演算処理を実行する。   The CPU 21 is a processor that comprehensively controls the operation of the electronic camera. The CPU 21 executes known AF control by a contrast detection method, automatic exposure (AE) calculation, auto white balance calculation, and the like based on the data of the through image. Further, the CPU 21 executes various arithmetic processes in the panorama assist mode.

また、本実施形態でのCPU21は、不図示のROMに格納されたプログラムの実行により、顔検出部24およびメタデータ生成部25として機能する。   Further, the CPU 21 in the present embodiment functions as a face detection unit 24 and a metadata generation unit 25 by executing a program stored in a ROM (not shown).

顔検出部24は、スルー画像のデータに顔検出処理を施して、スルー画像に含まれる人物の顔領域を検出する。この顔検出処理は公知のアルゴリズムによって行われる。一例として、顔検出部24は、公知の特徴点抽出処理によって、眉,目,鼻,唇の各端点などの特徴点を画像から抽出し、これらの特徴点に基づいて顔領域か否かを判定する。あるいは、顔検出部24は、予め用意された参照データ(顔画像など)と判定対象のスルー画像との相関係数を求め、この相関係数が一定の閾値を超えるときに顔領域と判定してもよい。   The face detection unit 24 performs face detection processing on the through image data to detect a human face area included in the through image. This face detection process is performed by a known algorithm. As an example, the face detection unit 24 extracts feature points such as eyebrow, eye, nose, and lip end points from the image by a known feature point extraction process, and determines whether or not a face region is based on these feature points. judge. Alternatively, the face detection unit 24 obtains a correlation coefficient between reference data (face image or the like) prepared in advance and a through image to be determined, and determines the face area when the correlation coefficient exceeds a certain threshold. May be.

メタデータ生成部25は、Exif(Exchangeable image file format for digital still cameras)規格に準拠して、画像ファイルのヘッダ領域に記憶されるメタデータを生成する。また、メタデータ生成部25は、パノラマアシストモードにおいて、2つの画像における被写体像の重複部分を示すメタデータを生成する。なお、メタデータ生成部25は、Exif規格のMakerNoteタグを利用して、上記のパノラマアシストモードでのメタデータを記録する。   The metadata generation unit 25 generates metadata stored in the header area of the image file in accordance with the Exif (Exchangeable image file format for digital still cameras) standard. In addition, the metadata generation unit 25 generates metadata indicating an overlapping portion of subject images in two images in the panorama assist mode. Note that the metadata generation unit 25 records the metadata in the panorama assist mode using an Exif standard MakerNote tag.

次に、図2の流れ図を参照しつつ、第1実施形態における電子カメラのパノラマアシストモードでの撮像動作を説明する。ここで、第1実施形態では、2フレーム分の本画像からパノラマ画像を生成する例を説明する。   Next, the imaging operation in the panorama assist mode of the electronic camera in the first embodiment will be described with reference to the flowchart of FIG. Here, in the first embodiment, an example in which a panoramic image is generated from a main image for two frames will be described.

ステップ101:CPU21は、ユーザーの操作に応じて、パノラマアシストモードの設定画面を立ち上げる。なお、設定画面での表示処理などはいずれもCPU21が実行する。   Step 101: The CPU 21 starts up a panorama assist mode setting screen in accordance with a user operation. Note that the CPU 21 executes display processing and the like on the setting screen.

この設定画面では、パノラマアシストモードでの撮像後の処理をユーザーがCPU21に指示できる。より具体的には、ユーザーは、(1)本画像のトリミング処理、(2)重複範囲を示すメタデータの生成、のいずれかの項目を選択してCPU21に入力できる。また、上記の設定画面では、電子カメラ上でのパノラマ合成処理のオン/オフをCPU21に対して指示することもできる(なお、個々の設定項目における処理内容は後述する)。   On this setting screen, the user can instruct the CPU 21 to perform processing after imaging in the panorama assist mode. More specifically, the user can select any one of (1) trimming processing of the main image and (2) generation of metadata indicating the overlapping range and input the selected item to the CPU 21. In the above setting screen, it is also possible to instruct the CPU 21 to turn on / off the panorama synthesis processing on the electronic camera (the processing content of each setting item will be described later).

なお、ユーザーが設定画面での設定変更を必要としない場合、CPU21は設定画面を立ち上げを省略してS102に移行してもよい。   If the user does not need to change the setting on the setting screen, the CPU 21 may omit starting up the setting screen and proceed to S102.

ステップ102:CPU21は、撮像素子12を駆動させてスルー画像の撮像を開始する。その後、スルー画像は所定間隔ごとに逐次生成されることとなる。また、CPU21は、スルー画像をモニタ17に動画表示する。したがって、ユーザーはモニタ17のスルー画像によって撮影構図を決定するためのフレーミングを行うことができる。   Step 102: The CPU 21 drives the image sensor 12 to start capturing a through image. Thereafter, the through images are sequentially generated at predetermined intervals. Further, the CPU 21 displays the through image as a moving image on the monitor 17. Therefore, the user can perform framing for determining the shooting composition based on the through image of the monitor 17.

ここで、パノラマアシストモードでのCPU21は、1フレーム目の本画像(第1画像)の撮像前に、2フレーム目の本画像(第2画像)をつなげる方向(パノラマ方向)を示すマークをスルー画像に重畳表示する(図3参照)。そして、CPU21は、操作部材18またはタッチパネル20からのユーザーの入力に応じて、上記のパノラマ方向を変更することができる。このとき、ユーザーは上下左右の4方向から任意にパノラマ方向を選択できる。また、パノラマ方向の変更画面の例を図4に示す。なお、本実施形態では、パノラマ方向が右方向に設定された状態を前提として以下の説明を行う。   Here, the CPU 21 in the panorama assist mode passes a mark indicating a direction (panorama direction) to connect the main image (second image) of the second frame before imaging the main image (first image) of the first frame. The image is superimposed and displayed (see FIG. 3). And CPU21 can change said panorama direction according to the user's input from the operation member 18 or the touch panel 20. FIG. At this time, the user can arbitrarily select the panoramic direction from the four directions of up, down, left, and right. An example of the panorama direction change screen is shown in FIG. In the present embodiment, the following description is given on the assumption that the panorama direction is set to the right direction.

ステップ103:CPU21は、スルー画像に対して顔検出処理を実行し、撮影画面内に含まれる人物の顔領域を検出する。ここで、S103で顔領域を検出した場合には、CPU21は、顔領域の検出を示すフラグ(顔検出フラグ)をオンに設定するとともに、顔領域の検出位置を示す顔位置データをワークメモリ(不図示)などに一時的に記録する。そして、CPU21は、検出できた顔領域の位置をモニタ17に表示する。一例として、CPU21は、スルー画像内で検出できた顔領域の位置にそれぞれ矩形の枠を重畳表示する(図3参照)。なお、CPU21は、所定間隔ごとに上記の顔検出処理を実行する。そのため、顔検出フラグおよび顔位置データは、CPU21によって逐次更新されることとなる。   Step 103: The CPU 21 performs face detection processing on the through image, and detects a human face area included in the shooting screen. Here, when the face area is detected in S103, the CPU 21 sets a flag indicating the detection of the face area (face detection flag) to ON, and the face position data indicating the detection position of the face area is set in the work memory ( (Temporary recording) Then, the CPU 21 displays the position of the detected face area on the monitor 17. As an example, the CPU 21 superimposes and displays a rectangular frame at the position of the face area detected in the through image (see FIG. 3). Note that the CPU 21 executes the face detection process at predetermined intervals. Therefore, the face detection flag and the face position data are sequentially updated by the CPU 21.

ステップ104:CPU21は、レリーズ釦19が全押しされたか否かを判定する。レリーズ釦19が全押しされた場合(YES側)には、CPU21はS105に移行する。一方、レリーズ釦19が全押しされていない場合(NO側)には、CPU21はレリーズ釦19の全押し操作を待機する。   Step 104: The CPU 21 determines whether or not the release button 19 has been fully pressed. When the release button 19 is fully pressed (YES side), the CPU 21 proceeds to S105. On the other hand, when the release button 19 is not fully pressed (NO side), the CPU 21 waits for a full pressing operation of the release button 19.

ステップ105:CPU21は、撮像素子12を駆動させて第1画像を撮像する。その後、画像処理部14によって第1画像のデータが生成される。   Step 105: The CPU 21 drives the image sensor 12 to capture the first image. Thereafter, the image processing unit 14 generates data of the first image.

ステップ106:CPU21は、第1画像のデータを記憶媒体23に記録する。   Step 106: The CPU 21 records the data of the first image on the storage medium 23.

ステップ107:CPU21は、第1画像の撮像直前に顔検出フラグ(S103)がオンであったか否かを判定する。顔検出フラグがオンの場合(YES側)には、CPU21はS108に移行する。一方、顔検出フラグがオフの場合(NO側)には、CPU21はS110に移行する。   Step 107: The CPU 21 determines whether or not the face detection flag (S103) is on immediately before the first image is captured. If the face detection flag is on (YES side), the CPU 21 proceeds to S108. On the other hand, when the face detection flag is OFF (NO side), the CPU 21 proceeds to S110.

ステップ108:CPU21は、第1画像における顔領域の位置が第2画像との接続側(パノラマ方向)からみて所定範囲内にあるか否かを判定する。一例として、S108でのCPU21は、第1画像の撮像直前の顔位置データ(S103)に基づいて、検出した顔領域の位置が、画面右端から画面中央までの範囲(すなわち、第1画像の右半分)にあるか否かを判定する。   Step 108: The CPU 21 determines whether or not the position of the face area in the first image is within a predetermined range as viewed from the connection side (panorama direction) with the second image. As an example, based on the face position data (S103) immediately before the first image is captured, the CPU 21 in S108 has a detected face area position in the range from the right edge of the screen to the center of the screen (that is, the right side of the first image). It is determined whether it is in half).

上記の要件を満たす場合(YES側)には、CPU21はS109に移行する。一方、上記の要件を満たさない場合(YES側)には、CPU21はS110に移行する。   If the above requirement is satisfied (YES side), the CPU 21 proceeds to S109. On the other hand, if the above requirement is not satisfied (YES side), the CPU 21 proceeds to S110.

ステップ109:CPU21は、画像処理部14に対して、第2画像の構図決定のためのガイド画像の生成を指示する。具体的には、以下の(1)および(2)の手順で、上記のガイド画像が生成される。なお、CPU21はS109での処理後にS111に移行する。   Step 109: The CPU 21 instructs the image processing unit 14 to generate a guide image for determining the composition of the second image. Specifically, the guide image is generated by the following procedures (1) and (2). The CPU 21 proceeds to S111 after the process in S109.

(1)第1に、CPU21は、顔領域の位置に基づいて、画像間で被写体像を重複させる範囲(重複範囲)を決定する。このとき、CPU21は、第1画像のパノラマ方向の端部を基準として、第1画像の顔領域がすべて収まるように上記の重複範囲の大きさを設定する。なお、図5は、図3に対応するシーンでの第1画像の重複範囲を示す図である。   (1) First, the CPU 21 determines a range (overlapping range) in which subject images overlap between images based on the position of the face region. At this time, the CPU 21 sets the size of the overlapping range so that the face area of the first image is entirely contained with reference to the end of the first image in the panoramic direction. FIG. 5 is a diagram showing the overlapping range of the first image in the scene corresponding to FIG.

(2)次に、画像処理部14は、第1画像のデータから上記(1)の重複範囲の対応部分を切り出す。そして、画像処理部14は、切り出した重複範囲の画像をモニタ17の解像度に合わせて解像度変換し、ガイド画像を生成する。   (2) Next, the image processing unit 14 cuts out the corresponding portion of the overlapping range of (1) from the data of the first image. Then, the image processing unit 14 converts the resolution of the cut out overlapping range image according to the resolution of the monitor 17 to generate a guide image.

ステップ110:CPU21は、画像処理部14に対して、第2画像の構図決定のためのガイド画像の生成を指示する。   Step 110: The CPU 21 instructs the image processing unit 14 to generate a guide image for determining the composition of the second image.

このS110の場合には、CPU21は、第1画像のパノラマ方向の端部からデフォルトの領域(例えば、画面の約1/3までの範囲)を上記の重複範囲とする。そして、画像処理部14は、S109の(2)と同様の工程でガイド画像を生成する。   In the case of S110, the CPU 21 sets a default area (for example, a range from about 1/3 of the screen) to the overlapping range from the end of the first image in the panoramic direction. Then, the image processing unit 14 generates a guide image in the same process as (2) of S109.

ステップ111:CPU21は、半透過状態のガイド画像をスルー画像上に重畳表示させる(図6参照)。また、このS111の段階では、ガイド画像で示された上記の重複範囲をユーザーは所定の操作で変更することができる。一方、上記の重複範囲を変更しない場合には、ユーザーは操作部材18の決定釦を押圧する。   Step 111: The CPU 21 superimposes and displays the semi-transparent guide image on the through image (see FIG. 6). In the stage of S111, the user can change the overlapping range indicated by the guide image by a predetermined operation. On the other hand, when the above overlapping range is not changed, the user presses the determination button of the operation member 18.

ステップ112:CPU21は、操作部材18の決定釦が押圧されたか否かを判定する。決定釦が押圧された場合(YES側)には、CPU21は重複範囲を確定するとともに、モニタ17上のガイド画像をロックする。その後、CPU21はS115に移行する。この状態において、スルー画像の被写体がガイド画像に重なるようにフレーミングを行うことで、ユーザーは第2画像の適正な構図を容易に決定できるようになる。一方、決定釦の押圧がない場合(NO側)には、CPU21はS113に移行する。   Step 112: The CPU 21 determines whether or not the determination button of the operation member 18 has been pressed. When the determination button is pressed (YES side), the CPU 21 determines the overlapping range and locks the guide image on the monitor 17. Thereafter, the CPU 21 proceeds to S115. In this state, by performing framing so that the subject of the through image overlaps the guide image, the user can easily determine an appropriate composition of the second image. On the other hand, if the determination button is not pressed (NO side), the CPU 21 proceeds to S113.

ステップ113:CPU21は、ガイド画像の変更操作を受け付けたか否かを判定する。上記の変更操作を受け付けた場合(YES側)には、CPU21はS114に移行する。一方、上記の変更操作がない場合(NO側)には、CPU21はS112に戻って上記動作を繰り返す。   Step 113: The CPU 21 determines whether or not a guide image change operation has been received. When the above change operation is received (YES side), the CPU 21 proceeds to S114. On the other hand, when the above change operation is not performed (NO side), the CPU 21 returns to S112 and repeats the above operation.

ステップ114:CPU21は、ユーザーの変更操作に応じて、ガイド画像および重複範囲を再設定する。その後、CPU21は、S111に戻って上記動作を繰り返す。   Step 114: The CPU 21 resets the guide image and the overlapping range according to the user's change operation. Thereafter, the CPU 21 returns to S111 and repeats the above operation.

一例として、S114でのCPU21は、第1画像の再生画像をモニタ17に表示するとともに、再生画像に対するガイド画像の割合を変更する操作をユーザーから受け付ける。そして、CPU21は、操作部材18またはタッチパネル20で範囲指定がなされると、その指定範囲を新たな重複範囲に設定する。そして、画像処理部14は、新たな重複範囲に基づいて、第1画像のデータからガイド画像を再び生成する。   As an example, the CPU 21 in S114 displays the reproduced image of the first image on the monitor 17 and accepts an operation for changing the ratio of the guide image to the reproduced image from the user. Then, when a range is designated on the operation member 18 or the touch panel 20, the CPU 21 sets the designated range as a new overlapping range. Then, the image processing unit 14 generates a guide image again from the first image data based on the new overlapping range.

また、S114でのCPU21は、ユーザーのタッチパネル20の操作に応じて、ガイド画像のおよび重複範囲の輪郭形状を変更することもできる。例えば、CPU21は、ガイド画像および重複範囲の輪郭を、第1画像または第2画像に向けて突出した凹凸形状にすることができる。   Further, the CPU 21 in S114 can also change the outline shape of the guide image and the overlapping range according to the operation of the touch panel 20 by the user. For example, the CPU 21 can make the guide image and the outline of the overlapping range into an uneven shape protruding toward the first image or the second image.

ここで、重複範囲の輪郭形状を変更した場合の一例を図7に示す。この図7の例は、第1画像に含まれていない被写体(鳥)をパノラマ画像に収めるために、第1画像の重複範囲を一部切り欠くように重複範囲の輪郭形状を変更したケースである。このように、重複範囲の輪郭形状の変更により、ユーザーは重複範囲において第2画像の被写体を優先的にパノラマ画像に含めることが可能となる。なお、この場合においても、画像処理部14は、変更後の重複範囲に基づいて、第1画像のデータからガイド画像を再び生成することとなる。   Here, an example when the outline shape of the overlapping range is changed is shown in FIG. The example of FIG. 7 is a case where the outline shape of the overlapping range is changed so as to partially cut out the overlapping range of the first image in order to put a subject (bird) not included in the first image in the panoramic image. is there. In this way, by changing the outline shape of the overlapping range, the user can preferentially include the subject of the second image in the panoramic image within the overlapping range. Even in this case, the image processing unit 14 again generates the guide image from the data of the first image based on the changed overlapping range.

ステップ115:CPU21は、レリーズ釦19が全押しされたか否かを判定する。レリーズ釦19が全押しされた場合(YES側)には、CPU21はS116に移行する。一方、レリーズ釦19が全押しされていない場合(NO側)には、CPU21はレリーズ釦19の全押し操作を待機する。   Step 115: The CPU 21 determines whether or not the release button 19 has been fully pressed. When the release button 19 is fully pressed (YES side), the CPU 21 proceeds to S116. On the other hand, when the release button 19 is not fully pressed (NO side), the CPU 21 waits for a full pressing operation of the release button 19.

ステップ116:CPU21は、撮像素子12を駆動させて、第1画像と同じホワイトバランスおよび露出条件で第2画像を撮像する。その後、画像処理部14によって第2画像のデータが生成される。   Step 116: The CPU 21 drives the image sensor 12 to capture the second image under the same white balance and exposure conditions as the first image. Thereafter, data of the second image is generated by the image processing unit 14.

ステップ117:CPU21は、S101の設定画面で本画像のトリミング処理が指定されているか否かを判定する。本画像のトリミング処理が指定されている場合(YES側)には、CPU21はS118に移行する。一方、重複範囲を示すメタデータの生成が指定されている場合(NO側)には、CPU21はS122に移行する。   Step 117: The CPU 21 determines whether or not trimming processing of the main image is designated on the setting screen of S101. If trimming processing of the main image is designated (YES side), the CPU 21 proceeds to S118. On the other hand, if generation of metadata indicating the overlapping range is specified (NO side), the CPU 21 proceeds to S122.

ステップ118:CPU21は、画像処理部14に対して、第2画像のデータから不要部分の削除を指示する。そして、画像処理部14は、第2画像に含まれる重複範囲のうちで、スティッチング部分を除いた領域を削除する。なお、スティッチング部分とは、パノラマ合成処理のときに2つの画像を合成するつなぎ目部分のことである。   Step 118: The CPU 21 instructs the image processing unit 14 to delete unnecessary portions from the second image data. Then, the image processing unit 14 deletes an area excluding the stitching portion from the overlapping range included in the second image. Note that the stitching portion is a joint portion where two images are combined during panorama combining processing.

ステップ119:CPU21は、不要部分を削除した後の第2画像のデータ(S118)を記憶媒体23に記録する。   Step 119: The CPU 21 records the data (S118) of the second image after deleting the unnecessary part in the storage medium 23.

ステップ120:CPU21は、S101の設定画面でパノラマ合成処理がオンに設定されているか否かを判定する。上記要件を満たす場合(YES側)には、CPU21はS121に移行する。一方、上記要件を満たさない場合(NO側)には、CPU21は一連の処理を終了する。なお、この場合には、コンピュータ等による後処理工程でパノラマ合成処理を実行することで、ユーザーはパノラマ画像を容易に取得できる。   Step 120: The CPU 21 determines whether or not the panorama synthesis process is set to ON in the setting screen of S101. If the above requirement is satisfied (YES side), the CPU 21 proceeds to S121. On the other hand, when the above requirement is not satisfied (NO side), the CPU 21 ends the series of processes. In this case, the user can easily obtain a panorama image by executing the panorama synthesis process in a post-processing step by a computer or the like.

ステップ121:CPU21は、第1画像のデータ(S106)と、不要部分削除後の第2画像のデータ(S118)とを記憶媒体23から読み出す。そして、CPU21は、画像処理部14に公知のパノラマ合成処理を実行させる。これにより、第1画像および第2画像からパノラマ画像が生成される。なお、第1実施形態で生成されるパノラマ画像の一例を図8に示す。その後、CPU21はパノラマ画像を記憶媒体23に記録して一連の処理を終了する。   Step 121: The CPU 21 reads from the storage medium 23 the first image data (S106) and the second image data (S118) after unnecessary portion deletion. Then, the CPU 21 causes the image processing unit 14 to execute a known panorama synthesis process. Thereby, a panoramic image is generated from the first image and the second image. An example of the panoramic image generated in the first embodiment is shown in FIG. Thereafter, the CPU 21 records the panoramic image in the storage medium 23 and ends the series of processes.

ステップ122:CPU21は、被写体像の重複範囲と、第2画像のスティッチング部分の位置とを示すメタデータを生成する。そして、CPU21は、上記のメタデータを、第2画像のデータと対応付けた状態で記憶媒体23に記録し、一連の処理を終了する。   Step 122: The CPU 21 generates metadata indicating the overlapping range of the subject image and the position of the stitching portion of the second image. Then, the CPU 21 records the above metadata in the storage medium 23 in a state associated with the data of the second image, and ends the series of processes.

なお、S122の場合においても、コンピュータ等による後処理工程でパノラマ合成処理を実行することで、ユーザーはパノラマ画像を容易に取得できる。このとき、パノラマ合成処理を実行するコンピュータは、第2画像で削除すべき領域や、スティッチング部分を、上記のメタデータに基づいて特定することができる。   Even in the case of S122, the user can easily obtain a panorama image by executing the panorama synthesis process in a post-processing step by a computer or the like. At this time, the computer executing the panorama synthesis process can specify the area to be deleted in the second image and the stitching portion based on the metadata.

以下、第1実施形態の電子カメラの作用効果を述べる。   Hereinafter, the operation and effect of the electronic camera of the first embodiment will be described.

第1実施形態の電子カメラでは、パノラマ撮影において第1画像と第2画像との接続部分近傍に人物が位置する場合には、顔領域を含めるように重複範囲の設定を行う。そして、電子カメラは、第2画像のデータから重複範囲をほとんど削除してパノラマ合成処理用の画像を生成する。すなわち、パノラマ合成時に第1画像と第2画像とで人物の顔が重なり合わないので、パノラマ画像において多重露光のような顔のズレが生じることはない。したがって、第1画像と第2画像との撮像時に人物の表情や顔の位置が変化した場合にも人物が好ましい状態で撮影されたパノラマ画像を生成でき、パノラマ撮影の実用性が大きく向上する。なお、被写体像の重複範囲とスティッチング部分の位置とを示すメタデータを生成した場合にも、電子カメラは上記とほぼ同様の効果を得ることができる。   In the electronic camera of the first embodiment, when a person is located near the connection portion between the first image and the second image in panoramic photography, the overlapping range is set so as to include the face area. The electronic camera then deletes almost the overlapping range from the second image data and generates an image for panorama synthesis processing. In other words, since the human faces do not overlap in the first image and the second image during panorama synthesis, there is no face shift such as multiple exposure in the panoramic image. Therefore, even when the facial expression or face position of the person changes when the first image and the second image are captured, it is possible to generate a panoramic image in which the person is photographed in a preferable state, and the practicality of panoramic photographing is greatly improved. The electronic camera can obtain substantially the same effect as described above even when metadata indicating the overlapping range of the subject image and the position of the stitching portion is generated.

また、第1実施形態の電子カメラでは、重複範囲に対応するガイド画像がスルー画像に重畳表示されるので、第2画像の構図決定が非常に容易となる。さらに、ユーザーはガイド画像および重複範囲の変更を自由に行うことができるので、ユーザーの意図に則したパノラマ画像を得ることが容易となる。   In the electronic camera of the first embodiment, the guide image corresponding to the overlapping range is superimposed and displayed on the through image, so that the composition of the second image can be determined very easily. Furthermore, since the user can freely change the guide image and the overlapping range, it is easy to obtain a panoramic image in accordance with the user's intention.

(第2実施形態の説明)
図9は、第2実施形態における電子カメラのパノラマアシストモードでの撮像動作を説明する流れ図である。ここで、図9のS201,S202は、図2のS101,S102にそれぞれ対応するので、これらのステップに関する重複説明は省略する。また、第2実施形態の電子カメラの構成は、図1に示す第1実施形態の電子カメラと共通するので重複説明は省略する。
(Description of Second Embodiment)
FIG. 9 is a flowchart illustrating an imaging operation in the panorama assist mode of the electronic camera according to the second embodiment. Here, S201 and S202 in FIG. 9 correspond to S101 and S102 in FIG. 2, respectively, and therefore redundant description regarding these steps is omitted. The configuration of the electronic camera of the second embodiment is the same as that of the electronic camera of the first embodiment shown in FIG.

ステップ203:CPU21は、レリーズ釦19が全押しされたか否かを判定する。レリーズ釦19が全押しされた場合(YES側)には、CPU21はS204に移行する。一方、レリーズ釦19が全押しされていない場合(NO側)には、CPU21はレリーズ釦19の全押し操作を待機する。   Step 203: The CPU 21 determines whether or not the release button 19 has been fully pressed. If the release button 19 is fully pressed (YES side), the CPU 21 proceeds to S204. On the other hand, when the release button 19 is not fully pressed (NO side), the CPU 21 waits for a full pressing operation of the release button 19.

ステップ204:CPU21は、撮像素子12を駆動させて第1画像を撮像する。その後、画像処理部14によって第1画像のデータが生成される。   Step 204: The CPU 21 drives the image sensor 12 to capture the first image. Thereafter, the image processing unit 14 generates data of the first image.

ステップ205:CPU21は、第1画像のデータを記憶媒体23に記録する。   Step 205: The CPU 21 records the data of the first image in the storage medium 23.

ステップ206:CPU21は、画像処理部14に対して、第2画像の構図決定のためのガイド画像の生成を指示する。   Step 206: The CPU 21 instructs the image processing unit 14 to generate a guide image for determining the composition of the second image.

このS206の場合には、CPU21は、第1画像のパノラマ方向の端部からデフォルトの領域(例えば、画面の約1/3の範囲)を上記の重複範囲とする。そして、画像処理部14は、第1実施形態におけるS109の(2)と同様の工程でガイド画像を生成する。   In the case of S206, the CPU 21 sets a default area (for example, a range of about 1/3 of the screen) from the end portion in the panoramic direction of the first image as the overlapping range. Then, the image processing unit 14 generates a guide image in the same process as (2) of S109 in the first embodiment.

ステップ207:CPU21は、半透過状態のガイド画像をスルー画像上に重畳表示させる。なお、S207は上記のS111に対応するので重複説明を省略する。   Step 207: The CPU 21 superimposes and displays the semi-transparent guide image on the through image. Since S207 corresponds to S111 described above, a duplicate description is omitted.

ステップ208:CPU21は、操作部材18の決定釦が押圧されたか否かを判定する。決定釦が押圧された場合(YES側)には、CPU21は重複範囲を確定するとともに、モニタ17上のガイド画像をロックする。その後、CPU21はS211に移行する。一方、決定釦の押圧がない場合(NO側)には、CPU21はS209に移行する。   Step 208: The CPU 21 determines whether or not the determination button of the operation member 18 has been pressed. When the determination button is pressed (YES side), the CPU 21 determines the overlapping range and locks the guide image on the monitor 17. Thereafter, the CPU 21 proceeds to S211. On the other hand, when the determination button is not pressed (NO side), the CPU 21 proceeds to S209.

ステップ209:CPU21は、ガイド画像の変更操作を受け付けたか否かを判定する。上記の変更操作を受け付けた場合(YES側)には、CPU21はS210に移行する。一方、上記の変更操作がない場合(NO側)には、CPU21はS208に戻って上記動作を繰り返す。   Step 209: The CPU 21 determines whether or not a guide image change operation has been accepted. When the above change operation is received (YES side), the CPU 21 proceeds to S210. On the other hand, if there is no change operation (NO side), the CPU 21 returns to S208 and repeats the above operation.

ステップ210:CPU21は、ユーザーの変更操作に応じて、ガイド画像とともに重複範囲を再設定する。その後、CPU21は、S207に戻って上記動作を繰り返す。なお、S210は上記のS114に対応するので重複説明を省略する。   Step 210: The CPU 21 resets the overlapping range together with the guide image according to the user's change operation. Thereafter, the CPU 21 returns to S207 and repeats the above operation. Since S210 corresponds to S114 described above, a duplicate description is omitted.

ステップ211:CPU21は、第1画像および第2画像の重複範囲につき、パノラマ合成処理でいずれを優先するのかをユーザーの操作に応じて決定する。   Step 211: The CPU 21 determines which of the overlapping ranges of the first image and the second image is to be prioritized in the panorama synthesis process according to the user's operation.

具体的には、S211でのCPU21は、第1画像または第2画像の重複範囲を択一的に選択させる選択入力部をGUI形式でモニタ17に重畳表示する(図10参照)。ユーザーは、操作部材18またはタッチパネル20の操作で上記の選択入力部の項目を選択してCPU21に入力を行う。そして、CPU21は、選択入力部で選択された画像の優先順位を高く設定する。なお、CPU21は、初期状態において第1画像の重複範囲の優先順位を高く設定している。   Specifically, the CPU 21 in S211 superimposes and displays on the monitor 17 a selection input unit that selectively selects the overlapping range of the first image or the second image in the GUI format (see FIG. 10). The user selects items in the selection input unit by operating the operation member 18 or the touch panel 20 and inputs the items to the CPU 21. Then, the CPU 21 sets the priority order of the images selected by the selection input unit higher. Note that the CPU 21 sets a high priority for the overlapping range of the first image in the initial state.

このとき、ユーザーの画像選択を容易にするために、CPU21は、第1画像の重複範囲と第2画像の重複範囲となる箇所とを対比可能にモニタ17に表示してもよい。例えば、CPU21は、ユーザーの操作に応じて、ガイド画像が重畳されていない状態のスルー画像と、第1画像の再生画像とを交互に切替表示するようにしてもよい。このとき、CPU21は、重複範囲をより比較しやすくするために重複範囲の箇所を枠表示してもよい(なお、この表示状態の図示は省略する)。   At this time, in order to facilitate the user's image selection, the CPU 21 may display the overlapping range of the first image and the portion that becomes the overlapping range of the second image on the monitor 17 so that they can be compared. For example, the CPU 21 may alternately switch and display a through image in which the guide image is not superimposed and a reproduced image of the first image in accordance with a user operation. At this time, the CPU 21 may display a frame of the overlapping range in order to make it easier to compare the overlapping ranges (note that this display state is not shown).

ステップ212:CPU21は、レリーズ釦19が全押しされたか否かを判定する。レリーズ釦19が全押しされた場合(YES側)には、CPU21はS213に移行する。一方、レリーズ釦19が全押しされていない場合(NO側)には、CPU21はレリーズ釦19の全押し操作を待機する。   Step 212: The CPU 21 determines whether or not the release button 19 has been fully pressed. When the release button 19 is fully pressed (YES side), the CPU 21 proceeds to S213. On the other hand, when the release button 19 is not fully pressed (NO side), the CPU 21 waits for a full pressing operation of the release button 19.

ステップ213:CPU21は、撮像素子12を駆動させて、第1画像と同じホワイトバランスおよび露出条件で第2画像を撮像する。その後、画像処理部14によって第2画像のデータが生成される。   Step 213: The CPU 21 drives the image sensor 12 to capture the second image under the same white balance and exposure conditions as the first image. Thereafter, data of the second image is generated by the image processing unit 14.

ステップ214:CPU21は、第2画像のデータを記憶媒体23に記録する。   Step 214: The CPU 21 records the data of the second image in the storage medium 23.

ステップ215:CPU21は、S201の設定画面で本画像のトリミング処理が指定されているか否かを判定する。本画像のトリミング処理が指定されている場合(YES側)には、CPU21はS216に移行する。一方、重複範囲を示すメタデータの生成が指定されている場合(NO側)には、CPU21はS219に移行する。   Step 215: The CPU 21 determines whether or not trimming processing of the main image is designated on the setting screen of S201. When the trimming process of the main image is designated (YES side), the CPU 21 proceeds to S216. On the other hand, when generation of metadata indicating the overlapping range is designated (NO side), the CPU 21 proceeds to S219.

ステップ216:CPU21は、S211での優先順位の低い方の画像のデータを、不要部分の削除対象に指定する。そして、画像処理部14は、処理対象となった画像のデータから不要部分を削除する。   Step 216: The CPU 21 designates the data of the image with the lower priority in S211 as an unnecessary portion to be deleted. Then, the image processing unit 14 deletes unnecessary portions from the data of the image to be processed.

例えば、S211で第1画像の優先順位が高く設定された場合、S216でのCPU21は、第2画像のデータを処理対象に選択する。そして、画像処理部14は、第2画像に含まれる重複範囲のうちで、スティッチング部分を除いた部分を削除する。同様に、S211で第2画像の優先順位が高く設定された場合、S216でのCPU21は、第1画像のデータを処理対象に選択する。そして、画像処理部14は、第1画像に含まれる重複範囲のうちで、スティッチング部分を除いた部分を削除する。なお、不要部分を削除した後の画像のデータは、CPU21の制御によって記憶媒体23に記録される。   For example, when the priority order of the first image is set high in S211, the CPU 21 in S216 selects the second image data as a processing target. Then, the image processing unit 14 deletes a portion excluding the stitching portion from the overlapping range included in the second image. Similarly, when the priority order of the second image is set high in S211, the CPU 21 in S216 selects the data of the first image as a processing target. Then, the image processing unit 14 deletes a portion excluding the stitching portion in the overlapping range included in the first image. Note that the image data after the unnecessary portion is deleted is recorded in the storage medium 23 under the control of the CPU 21.

なお、本実施形態では、第2画像の構図決定時に優先順位が決定されている(S211)。そのため、CPU21は、第2画像の優先順位が低い場合には、S213またはS214の段階で第2画像の重複部分を予め削除して記憶媒体23に記録しておくこともできる。   In the present embodiment, the priority order is determined when the composition of the second image is determined (S211). Therefore, when the priority order of the second image is low, the CPU 21 can delete the overlapping portion of the second image in advance in step S213 or S214 and record it in the storage medium 23.

ステップ217:CPU21は、S201の設定画面でパノラマ合成処理がオンに設定されているか否かを判定する。上記要件を満たす場合(YES側)には、CPU21はS218に移行する。一方、上記要件を満たさない場合(NO側)には、CPU21は一連の処理を終了する。なお、この場合には、コンピュータ等による後処理工程でパノラマ合成処理を実行することで、ユーザーはパノラマ画像を容易に取得できる。   Step 217: The CPU 21 determines whether or not the panorama synthesis process is set to ON in the setting screen of S201. If the above requirement is satisfied (YES side), the CPU 21 proceeds to S218. On the other hand, when the above requirement is not satisfied (NO side), the CPU 21 ends the series of processes. In this case, the user can easily obtain a panorama image by executing the panorama synthesis process in a post-processing step by a computer or the like.

ステップ218:CPU21は、第1画像のデータと、第2画像のデータとを記憶媒体23から読み出す。なお、上記の画像のデータのうちで、S211での優先順位が低い方の画像のデータは不要部分が削除された状態にある。そして、CPU21は、画像処理部14に公知のパノラマ合成処理を実行させる。これにより、第1画像および第2画像からパノラマ画像が生成される。その後、CPU21はパノラマ画像を記憶媒体23に記録して一連の処理を終了する。   Step 218: The CPU 21 reads the first image data and the second image data from the storage medium 23. Of the image data, the image data with the lower priority in S211 has an unnecessary portion deleted. Then, the CPU 21 causes the image processing unit 14 to execute a known panorama synthesis process. Thereby, a panoramic image is generated from the first image and the second image. Thereafter, the CPU 21 records the panoramic image in the storage medium 23 and ends the series of processes.

ステップ219:CPU21は、被写体像の重複範囲と優先順位の低い画像のスティッチング部分の位置とを示す第1メタデータと、S211で設定された優先順位を示す第2メタデータとを生成する。そして、CPU21は、上記の第1メタデータおよび第2メタデータを、第1画像のデータまたは第2画像のデータのいずれかに対応付けた状態で記憶媒体23に記録し、一連の処理を終了する。   Step 219: The CPU 21 generates first metadata indicating the overlapping range of the subject images and the position of the stitching portion of the low priority image, and second metadata indicating the priority set in S211. Then, the CPU 21 records the first metadata and the second metadata on the storage medium 23 in association with either the first image data or the second image data, and ends the series of processes. To do.

なお、S219の場合においても、コンピュータ等による後処理工程でパノラマ合成処理を実行すれば、ユーザーはパノラマ画像を容易に取得できる。このとき、パノラマ合成処理を実行するコンピュータは、第1メタデータおよび第2メタデータに基づいて、第1画像または第2画像の削除箇所やスティッチング部分を特定することができる。   Even in the case of S219, if the panorama synthesis process is executed in a post-processing step by a computer or the like, the user can easily obtain a panorama image. At this time, the computer that executes the panorama composition process can specify the deleted portion or the stitching portion of the first image or the second image based on the first metadata and the second metadata.

以下、第2実施形態の電子カメラの作用効果を述べる。   Hereinafter, the operation and effect of the electronic camera of the second embodiment will be described.

第2実施形態の電子カメラでは、パノラマ撮影において第1画像と第2画像との重複範囲について、ユーザーにいずれの画像を優先するか選択させる。そして、電子カメラは、優先順位が低く設定された画像のデータから重複範囲をほとんど削除してパノラマ合成処理用の画像を生成する。したがって、ユーザーは、画像の重複範囲について好ましい状態の画像を選択してパノラマ画像を生成できるので、パノラマ撮影の実用性が大きく向上する。なお、第1メタデータおよび第2メタデータを生成した場合にも、電子カメラは上記とほぼ同様の効果を得ることができる。   In the electronic camera according to the second embodiment, the user selects which image to prioritize for the overlapping range of the first image and the second image in panoramic photography. Then, the electronic camera deletes almost the overlapping range from the image data set with low priority, and generates an image for panorama synthesis processing. Therefore, the user can select an image in a preferable state with respect to the overlapping range of images and generate a panorama image, so that the practicality of panorama shooting is greatly improved. Even when the first metadata and the second metadata are generated, the electronic camera can obtain substantially the same effect as described above.

また、第2実施形態の電子カメラにおいても、重複範囲に対応するガイド画像がスルー画像に重畳表示されるので、第2画像の構図決定が非常に容易となる。さらに、ユーザーはガイド画像および重複範囲の変更を自由に行うことができるので、ユーザーの意図に則したパノラマ画像を得ることが容易となる。   Also in the electronic camera of the second embodiment, since the guide image corresponding to the overlapping range is superimposed and displayed on the through image, it is very easy to determine the composition of the second image. Furthermore, since the user can freely change the guide image and the overlapping range, it is easy to obtain a panoramic image in accordance with the user's intention.

(実施形態の補足事項)
(1)上記の各実施形態では、パノラマアシストモードで2フレーム分の画像を撮像する場合を前提に説明したが、本発明はかかる場合に限定されることはない。例えば、パノラマアシストモードで3フレーム分の画像を連続して撮像する状況において、第2フレームおよび第3フレームの場合にも当然に本発明を応用できる。
(Supplementary items of the embodiment)
(1) In each of the above embodiments, the description has been made on the assumption that two frames of images are captured in the panorama assist mode. However, the present invention is not limited to such a case. For example, in a situation where images for three frames are continuously captured in the panorama assist mode, the present invention can naturally be applied to the second frame and the third frame.

(2)第2実施形態では、第1画像の撮像後でかつ第2画像の構図決定動作時において、第1画像と第2画像との重複範囲の優先順位をCPU21が決定する例を説明した。しかし、本発明では、第1画像および第2画像の撮像後の段階で、ユーザーからの優先順位の入力操作に基づいて、CPU21が上記の優先順位を決定するように変更してもよい。この場合において、CPU21は、第1画像の重複範囲および第2画像の重複範囲にそれぞれ対応する画像をモニタ17に並べて表示し、ユーザーの画像選択を容易にしてもよい。例えば、図11に上記の場合のモニタ17の表示状態の一例を図示する。かかる構成の場合にも、上記の第2実施形態とほぼ同様の効果を得ることができる。   (2) In the second embodiment, the example in which the CPU 21 determines the priority order of the overlapping range of the first image and the second image after the first image is captured and during the composition determination operation of the second image has been described. . However, in the present invention, the CPU 21 may be changed so that the priority order is determined based on the priority order input operation from the user at the stage after the first image and the second image are captured. In this case, the CPU 21 may display the images corresponding to the overlapping range of the first image and the overlapping range of the second image side by side on the monitor 17 to facilitate the user's image selection. For example, FIG. 11 shows an example of the display state of the monitor 17 in the above case. Even in such a configuration, substantially the same effect as that of the second embodiment can be obtained.

(3)第1実施形態の電子カメラにおいて、人物の顔以外を注目被写体として上記の重複範囲を決定するようにしてもよい。例えば、CPU21は、任意の注目被写体(動物、建築物、乗物など)の特徴を記憶した参照データに基づいてパターンマッチング処理を実行し、この注目被写体の位置に基づいて重複範囲を設定することも可能である。   (3) In the electronic camera according to the first embodiment, the overlapping range may be determined using a subject other than the face of a person as a subject of interest. For example, the CPU 21 may execute pattern matching processing based on reference data storing features of an arbitrary subject (animals, buildings, vehicles, etc.) and set an overlapping range based on the position of the subject of interest. Is possible.

(4)第2実施形態の電子カメラでもスルー画像で顔検出処理を実行し、検出した顔領域の位置に基づいて上記の重複範囲を決定するようにしてもよい。   (4) The electronic camera of the second embodiment may execute face detection processing using a through image and determine the overlapping range based on the position of the detected face area.

(5)第1実施形態では、第2画像のデータから不要部分を削除する例と、第2画像のデータにメタデータを対応付けた例とを説明した。しかし、第1実施形態の変形例として、画像処理部14は第1画像のデータから不要部分を削除するようにしてもよい。同様に第1実施形態の変形例として、CPU21は、第1画像のデータにメタデータを対応付けて記録してもよい。   (5) In the first embodiment, the example in which the unnecessary part is deleted from the data of the second image and the example in which the metadata is associated with the data of the second image have been described. However, as a modification of the first embodiment, the image processing unit 14 may delete unnecessary portions from the data of the first image. Similarly, as a modification of the first embodiment, the CPU 21 may record metadata in association with the data of the first image.

(6)図2のステップ109において、CPU21は第1画像の顔領域が全て収まるように重複範囲の大きさを設定したが、その人物の体が全て収まるように重複範囲の大きさを設定してもよい。   (6) In step 109 in FIG. 2, the CPU 21 sets the size of the overlapping range so that the face area of the first image can be entirely accommodated. However, the CPU 21 sets the size of the overlapping range so that the body of the person can be entirely accommodated. May be.

例えば、人物の体は顔の幅の約3倍であることに基づいて、人物の体が全て収まるように重複範囲の大きさが設定されてもよい。   For example, based on the fact that the human body is about three times the width of the face, the size of the overlapping range may be set so that the entire human body can be accommodated.

その具体例を図12を用いて説明する。CPU21は、第1画像の顔領域の情報から顔の幅を判定する。次にCPU21は、第1画像のパノラマ方向の端部と反対側の顔領域の端部(図12の例では人物の顔の図中の左側端部)を特定する。そしてCPU21は、この顔領域の端部から顔の幅の長さだけパノラマ方向の端部と離れた位置を含むように重複範囲を設定する。   A specific example will be described with reference to FIG. The CPU 21 determines the face width from the information of the face area of the first image. Next, the CPU 21 specifies the end of the face area opposite to the end in the panoramic direction of the first image (the left end in the figure of the human face in the example of FIG. 12). Then, the CPU 21 sets an overlapping range so as to include a position separated from the end in the panoramic direction by the length of the face from the end of the face area.

(7)図2のステップ109において、CPU21は重複範囲の大きさを顔領域が全て収まるように設定したが、逆に顔領域が全く収まらないように設定してもよい。   (7) In step 109 in FIG. 2, the CPU 21 sets the size of the overlapping range so that the entire face area can be accommodated, but conversely, it may be set so that the face area does not fit at all.

例えば、CPU21は次の処理を行えばよい。CPU21は、第1画像の顔領域の情報から顔の幅を判定する。次にCPU21は、第1画像のパノラマ方向の端部と同じ側の顔領域の端部(図13の例では人物の顔の図中の右側端部)を特定する。   For example, the CPU 21 may perform the following process. The CPU 21 determines the face width from the information of the face area of the first image. Next, the CPU 21 specifies the end of the face area on the same side as the end of the first image in the panoramic direction (the right end in the figure of the human face in the example of FIG. 13).

そしてCPU21は、この顔領域の端部から顔の幅の長さだけパノラマ方向の端部側に離れた位置が、パノラマ方向の端部を越えていなければ、その位置からパノラマ方向端部側を重複領域に設定する。また、CPU21は、この顔領域の端部から顔の幅の長さだけパノラマ方向の端部側に離れた位置が、パノラマ方向の端部を越えていれば、第1実施形態のステップ109または上述の(6)の処理を実行することにすればよい。   If the position away from the end of the face region by the length of the face to the end of the panorama direction does not exceed the end of the panorama direction, the CPU 21 moves the end of the panorama direction from that position. Set to overlap area. Further, if the position away from the end of the face area by the length of the face to the end of the panoramic direction exceeds the end of the panoramic direction, the CPU 21 determines whether the step 109 in the first embodiment or The above-described process (6) may be executed.

なお、本発明は、その精神またはその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。本発明は、特許請求の範囲によって示されるものであって、本発明は明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。   The present invention can be implemented in various other forms without departing from the spirit or the main features thereof. Therefore, the above-described embodiment is merely an example in all respects and should not be interpreted in a limited manner. The present invention is defined by the claims, and the present invention is not limited to the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

第1実施形態の電子カメラの構成を示すブロック図The block diagram which shows the structure of the electronic camera of 1st Embodiment. 第1実施形態における電子カメラのパノラマアシストモードでの撮像動作を説明する流れ図Flowchart for explaining an imaging operation in the panorama assist mode of the electronic camera in the first embodiment 第1画像撮像前のスルー画像の表示例を示す図The figure which shows the example of a display of the through image before a 1st image imaging パノラマ方向の変更画面の例を示す図The figure which shows the example of the change screen of panorama direction 図3に対応するシーンでの第1画像の重複範囲を示す図The figure which shows the duplication range of the 1st image in the scene corresponding to FIG. ガイド画像をスルー画像上に重畳表示させた状態を示す図The figure which shows the state where the guide image was superimposed and displayed on the through image 重複範囲の輪郭形状を変更した場合の一例を示す図The figure which shows an example at the time of changing the outline shape of an overlapping range 第1実施形態でのパノラマ画像の一例を示す図The figure which shows an example of the panoramic image in 1st Embodiment. 第2実施形態における電子カメラのパノラマアシストモードでの撮像動作を説明する流れ図Flowchart explaining imaging operation in panorama assist mode of electronic camera in second embodiment 第2実施形態のS211におけるモニタの表示例を示す図The figure which shows the example of a display of the monitor in S211 of 2nd Embodiment. 第1画像と第2画像の撮像後に重複範囲の優先順位を決める場合のモニタの表示例を示す図The figure which shows the example of a display of a monitor in the case of determining the priority of an overlapping range after imaging of a 1st image and a 2nd image 重複領域の設定に関する変形例を説明する図The figure explaining the modification regarding the setting of an overlap area 重複領域の設定に関する変形例を説明する図The figure explaining the modification regarding the setting of an overlap area

符号の説明Explanation of symbols

12…撮像素子、14…画像処理部、17…モニタ、18…操作部材、20…タッチパネル、21…CPU、24…顔検出部、25…メタデータ生成部
DESCRIPTION OF SYMBOLS 12 ... Imaging device, 14 ... Image processing part, 17 ... Monitor, 18 ... Operation member, 20 ... Touch panel, 21 ... CPU, 24 ... Face detection part, 25 ... Metadata production | generation part

Claims (7)

各々の画像には所定方向に分割した被写体像が含まれるとともに、パノラマ合成処理によって1つの連続したパノラマ画像を構成するための第1画像および第2画像を生成する撮像部と、
ユーザーからの操作を受け付ける第1操作部と、
前記第1画像および前記第2画像での前記被写体像の重複範囲について、前記パノラマ合成処理での優先順位を前記操作に応じて決定する制御部と、
前記第1画像の前記重複範囲および前記第2画像の前記重複範囲のうちから、前記優先順位の低い方を削除する画像処理部と、
を備えることを特徴とする撮像装置。
Each image includes a subject image divided in a predetermined direction, and an imaging unit that generates a first image and a second image for forming one continuous panorama image by panorama synthesis processing;
A first operation unit that receives an operation from a user;
A control unit that determines a priority order in the panorama synthesis process for the overlapping range of the subject images in the first image and the second image according to the operation;
An image processing unit that deletes the lower priority order from the overlapping range of the first image and the overlapping range of the second image;
An imaging apparatus comprising:
各々の画像には所定方向に分割した被写体像が含まれるとともに、パノラマ合成処理によって1つの連続したパノラマ画像を構成するための第1画像および第2画像を生成する撮像部と、
ユーザーからの操作を受け付ける第1操作部と、
前記第1画像および前記第2画像での前記被写体像の重複範囲について、前記パノラマ合成処理での優先順位を前記操作に応じて決定する制御部と、
前記第1画像および前記第2画像の少なくとも一方のデータに、前記重複範囲の位置を示す第1メタデータと、前記優先順位に関する第2メタデータとを関連付けて記録するメタデータ生成部と、
を備えることを特徴とする撮像装置。
Each image includes a subject image divided in a predetermined direction, and an imaging unit that generates a first image and a second image for forming one continuous panorama image by panorama synthesis processing;
A first operation unit that receives an operation from a user;
A control unit that determines a priority order in the panorama synthesis process for the overlapping range of the subject images in the first image and the second image according to the operation;
A metadata generation unit that records, in association with at least one of the first image and the second image, first metadata indicating a position of the overlapping range and second metadata related to the priority order;
An imaging apparatus comprising:
請求項1または請求項2に記載の撮像装置において、
前記撮像部によって撮像されたスルー画像を動画表示するモニタをさらに備え、
前記制御部は、前記第1画像の前記重複範囲に基づいてガイド画像を生成するとともに、前記第2画像の構図決定動作時に、前記モニタ上の前記スルー画像に前記ガイド画像を重畳させることを特徴とする撮像装置。
In the imaging device according to claim 1 or 2,
A monitor that displays a moving image of the through image captured by the imaging unit;
The control unit generates a guide image based on the overlapping range of the first image, and superimposes the guide image on the through image on the monitor during the composition determination operation of the second image. An imaging device.
請求項3に記載の撮像装置において、
前記第1画像に対する前記ガイド画像の割合を変更するためのユーザーの第1変更操作を受け付ける第2操作部をさらに備え、
前記制御部は、前記第1変更操作に基づいて前記重複範囲を変更することを特徴とする撮像装置。
The imaging device according to claim 3.
A second operation unit for receiving a first change operation of a user for changing a ratio of the guide image to the first image;
The image pickup apparatus, wherein the control unit changes the overlapping range based on the first change operation.
請求項1または請求項2に記載の撮像装置において、
前記重複範囲の変更に関する第2変更操作をユーザーから受け付ける第3操作部をさらに備え、
前記制御部は、前記第2変更操作に基づいて前記重複範囲の輪郭を変更することを特徴とする撮像装置。
In the imaging device according to claim 1 or 2,
A third operation unit for receiving a second change operation related to the change of the overlapping range from a user;
The control unit changes an outline of the overlapping range based on the second change operation.
請求項1または請求項2に記載の撮像装置において、
前記制御部は、前記第1画像の撮像後でかつ前記第2画像の構図決定動作時に、前記優先順位を決定する処理を実行することを特徴とする撮像装置。
In the imaging device according to claim 1 or 2,
The image pickup apparatus, wherein the control unit executes a process of determining the priority order after the image pickup of the first image and at the time of composition determination operation of the second image.
請求項1または請求項2に記載の撮像装置において、
前記制御部は、前記第1画像および前記第2画像の撮像後に、前記優先順位を決定する処理を実行することを特徴とする撮像装置。
In the imaging device according to claim 1 or 2,
The image pickup apparatus, wherein the control unit executes a process of determining the priority order after the first image and the second image are picked up.
JP2007130713A 2007-05-16 2007-05-16 Imaging device Expired - Fee Related JP4894616B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007130713A JP4894616B2 (en) 2007-05-16 2007-05-16 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007130713A JP4894616B2 (en) 2007-05-16 2007-05-16 Imaging device

Publications (2)

Publication Number Publication Date
JP2008288798A true JP2008288798A (en) 2008-11-27
JP4894616B2 JP4894616B2 (en) 2012-03-14

Family

ID=40148131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007130713A Expired - Fee Related JP4894616B2 (en) 2007-05-16 2007-05-16 Imaging device

Country Status (1)

Country Link
JP (1) JP4894616B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250612A (en) * 2009-04-16 2010-11-04 Canon Inc Image processing apparatus and image processing method
JP2010278587A (en) * 2009-05-27 2010-12-09 Sony Corp Image pickup apparatus, electronic device, panoramic image recording method, and program
JP2011211398A (en) * 2010-03-29 2011-10-20 Nikon Corp Electronic apparatus and panoramic image display program
JP2011217065A (en) * 2010-03-31 2011-10-27 Fujifilm Corp Imager, imaging method, and program
JP2012244434A (en) * 2011-05-19 2012-12-10 Fujitsu Ltd Portable communication device and composite image generation program
JP2014045500A (en) * 2013-10-18 2014-03-13 Olympus Imaging Corp Image pick-up device and image pick-up method
JP2016213879A (en) * 2011-01-31 2016-12-15 サムスン エレクトロニクス カンパニー リミテッド Photographing device for photographing panoramic image and panoramic photographing method of the same
WO2018180214A1 (en) * 2017-03-28 2018-10-04 富士フイルム株式会社 Image processing device, camera device, and image processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299804A (en) * 1999-04-12 2000-10-24 Casio Comput Co Ltd Panoramic photographing method and image pickup device
JP2007104583A (en) * 2005-10-07 2007-04-19 Fujifilm Corp Photographing apparatus
JP2007110207A (en) * 2005-10-11 2007-04-26 Matsushita Electric Ind Co Ltd Image compositing apparatus and image compositing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000299804A (en) * 1999-04-12 2000-10-24 Casio Comput Co Ltd Panoramic photographing method and image pickup device
JP2007104583A (en) * 2005-10-07 2007-04-19 Fujifilm Corp Photographing apparatus
JP2007110207A (en) * 2005-10-11 2007-04-26 Matsushita Electric Ind Co Ltd Image compositing apparatus and image compositing method

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8442354B2 (en) 2009-04-16 2013-05-14 Canon Kabushiki Kaisha Image processing apparatus and image processing method capable of transmission/reception and recording of image file obtained by panoramic image shot
JP2010250612A (en) * 2009-04-16 2010-11-04 Canon Inc Image processing apparatus and image processing method
US10091416B2 (en) 2009-05-27 2018-10-02 Sony Corporation Image pickup apparatus, electronic device, panoramic image recording method, and program
JP2010278587A (en) * 2009-05-27 2010-12-09 Sony Corp Image pickup apparatus, electronic device, panoramic image recording method, and program
US10506157B2 (en) 2009-05-27 2019-12-10 Sony Corporation Image pickup apparatus, electronic device, panoramic image recording method, and program
US8791983B2 (en) 2009-05-27 2014-07-29 Sony Corporation Image pickup apparatus and associated methodology for generating panoramic images based on location and orientation information
JP2011211398A (en) * 2010-03-29 2011-10-20 Nikon Corp Electronic apparatus and panoramic image display program
JP2011217065A (en) * 2010-03-31 2011-10-27 Fujifilm Corp Imager, imaging method, and program
US8848032B2 (en) 2010-03-31 2014-09-30 Fujifilm Corporation Imaging device, imaging method, and computer-readable medium
US10498956B2 (en) 2011-01-31 2019-12-03 Samsung Electronics Co., Ltd. Photographing apparatus for photographing panoramic image using visual elements on a display, and method thereof
JP2016213879A (en) * 2011-01-31 2016-12-15 サムスン エレクトロニクス カンパニー リミテッド Photographing device for photographing panoramic image and panoramic photographing method of the same
US11025820B2 (en) 2011-01-31 2021-06-01 Samsung Electronics Co., Ltd. Photographing apparatus for photographing panoramic image using visual elements on a display, and method thereof
US11317022B2 (en) 2011-01-31 2022-04-26 Samsung Electronics Co., Ltd. Photographing apparatus for photographing panoramic image using visual elements on a display, and method thereof
JP2012244434A (en) * 2011-05-19 2012-12-10 Fujitsu Ltd Portable communication device and composite image generation program
JP2014045500A (en) * 2013-10-18 2014-03-13 Olympus Imaging Corp Image pick-up device and image pick-up method
WO2018180214A1 (en) * 2017-03-28 2018-10-04 富士フイルム株式会社 Image processing device, camera device, and image processing method

Also Published As

Publication number Publication date
JP4894616B2 (en) 2012-03-14

Similar Documents

Publication Publication Date Title
JP5056061B2 (en) Imaging device
JP4894616B2 (en) Imaging device
JP5087856B2 (en) Electronic camera
JP4888191B2 (en) Imaging device
JP4574459B2 (en) Image capturing apparatus, control method therefor, program, and storage medium
JP4935302B2 (en) Electronic camera and program
JP4888192B2 (en) Imaging device
CN106851088B (en) Image pickup apparatus and image pickup method
US20110234838A1 (en) Image processor, electronic camera, and image processing program
KR20010100929A (en) Image-capturing apparatus
JP2007279601A (en) Camera
JP2008182485A (en) Photographing device and photographing method
JP2007310813A (en) Image retrieving device and camera
JP2007281646A (en) Electronic camera
JP2008092515A (en) Electronic camera, image processing apparatus and program
JP2007282118A (en) Electronic camera and image processing apparatus
JP2010021921A (en) Electronic camera and image processing program
JP2007281647A (en) Electronic camera and image processing apparatus
JP2007081732A (en) Imaging apparatus
JP5499531B2 (en) Electronic camera
JP2009070374A (en) Electronic device
US9137448B2 (en) Multi-recording image capturing apparatus and control method for multi-recording image capturing apparatus for enabling the capture of two image areas having two different angles of view
JP2008288797A (en) Imaging apparatus
JP2009081530A (en) Imaging apparatus and imaging method
JP2007259004A (en) Digital camera, image processor, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111129

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111212

R150 Certificate of patent or registration of utility model

Ref document number: 4894616

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees