JP2010161547A - Composition selecting device and program - Google Patents

Composition selecting device and program Download PDF

Info

Publication number
JP2010161547A
JP2010161547A JP2009001579A JP2009001579A JP2010161547A JP 2010161547 A JP2010161547 A JP 2010161547A JP 2009001579 A JP2009001579 A JP 2009001579A JP 2009001579 A JP2009001579 A JP 2009001579A JP 2010161547 A JP2010161547 A JP 2010161547A
Authority
JP
Japan
Prior art keywords
composition
subject
analysis
interest
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009001579A
Other languages
Japanese (ja)
Other versions
JP5206422B2 (en
Inventor
Takeshi Iwamoto
健士 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009001579A priority Critical patent/JP5206422B2/en
Publication of JP2010161547A publication Critical patent/JP2010161547A/en
Application granted granted Critical
Publication of JP5206422B2 publication Critical patent/JP5206422B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To more simply select a composition suitable for recording during recording a photographed image. <P>SOLUTION: When an imaging optical system 11 and an imaging part 12 acquire the photographed image, a control part 13A detects attention objects included in the photographed image, and counts the number of detected attention objects. The control part 13A selects a composition for recording the entire picked-up images among a plurality of compositions recorded in a storage device 14C in advance on the basis of the number of the attention objects. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像画像の記録に際し、構図を選択する構図選択装置及びプログラムに関する。   The present invention relates to a composition selection device and a program for selecting a composition when recording a captured image.

従来より、被写体を撮像するときにユーザに対して撮影構図を提示する技術としては、下記の特許文献1に記載された電子カメラが知られている。   Conventionally, as a technique for presenting a photographing composition to a user when photographing a subject, an electronic camera described in Patent Document 1 below is known.

この電子カメラは、以前に行った定点撮影時の撮影画像を構図化処理して構図画像とする。そして、電子カメラは、今回の定点撮影時にファインダ画像と構図画像とを重畳表示して位置合わせを行うと共に、前回の撮影画像の撮影条件を今回の撮影条件として設定して、定点撮影を行っている。このような電子カメラは、前回の撮影終了後に元画像の撮影条件と対応させて構図画像を保存し、今回の撮影時に構図を再生表示している。更に、この電子カメラは、前回の撮影画像のうちから構図とする画像を選択し、当該撮影画像を構図化してスルー画像に重畳表示できるとしている。   This electronic camera composes a photographed image at the time of a fixed-point photographing performed before to obtain a composition image. The electronic camera then superimposes the finder image and the composition image at the time of fixed point shooting this time and aligns the positions, and sets the shooting condition of the previous shot image as the current shooting condition and performs fixed point shooting. Yes. Such an electronic camera stores a composition image corresponding to the photographing condition of the original image after the last photographing, and reproduces and displays the composition at the time of the current photographing. Further, the electronic camera can select an image having a composition from the previous photographed images, compose the photographed image, and superimpose it on the through image.

特開2002−094854号公報JP 2002-094854 A

しかしながら、上述した技術では、撮影構図の選択をユーザの手動によって行っていたので、構図選択のための操作がユーザにとって煩雑となるものであった。   However, in the above-described technique, since the shooting composition is selected manually by the user, an operation for selecting the composition is complicated for the user.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、撮影画像を記録する際、記録に適した構図の選択をより簡単に行うことができるようにすることを目的とする。   Therefore, the present invention has been proposed in view of the above-described circumstances, and an object thereof is to make it easier to select a composition suitable for recording when a captured image is recorded.

第1の発明は、撮影画像を取得する画像取得手段と、当該画像取得手段によって取得された撮影画像に含まれている注目被写体を検出する被写体検出手段と、当該被写体検出手段により検出された注目被写体の数を計数する計数手段と、複数の構図を記録した構図記録手段と、前記計数手段によって計数された注目被写体の数に基づいて、前記構図記録手段に記録された複数の構図のうち前記撮像画像全体を記録するための構図を選択する構図選択手段と、を備える。   According to a first aspect of the present invention, there is provided an image acquisition unit that acquires a captured image, a subject detection unit that detects a target subject included in the captured image acquired by the image acquisition unit, and an attention detected by the subject detection unit A counting unit that counts the number of subjects, a composition recording unit that records a plurality of compositions, and a plurality of compositions recorded in the composition recording unit based on the number of objects of interest counted by the counting unit. Composition selecting means for selecting a composition for recording the entire captured image.

第2の発明は、前記撮像画像に含まれている注目被写体について解析する解析手段を更に備え、前記構図選択手段は、前記計数手段によって計数された注目被写体の数に加え、前記解析手段による解析結果に基づいて構図を選択する。   The second aspect of the present invention further includes an analysis unit that analyzes the target subject included in the captured image, and the composition selection unit analyzes the analysis by the analysis unit in addition to the number of the target subject counted by the counting unit. Select a composition based on the results.

第3の発明は、前記撮像画像に含まれている注目被写体の解析方法を複数種記憶する解析方法記憶手段と、当該解析方法記憶手段に記憶される複数種の解析方法から前記解析手段が行うべき解析方法を所定数選択する解析方法選択手段と、を更に備え、前記解析手段は、前記解析方法選択手段によって選択された解析方法で前記注目被写体について解析する。   According to a third aspect of the present invention, the analysis means performs analysis method storage means for storing a plurality of types of analysis methods for the subject of interest included in the captured image, and a plurality of types of analysis methods stored in the analysis method storage means. Analysis method selection means for selecting a predetermined number of power analysis methods, and the analysis means analyzes the subject of interest with the analysis method selected by the analysis method selection means.

第4の発明は、前記解析方法には、現在日時又は季節に基づく解析、当該撮像装置の縦横姿勢に基づく解析、前記撮像画像に対する各注目被写体の大きさに基づく解析、各注目被写体が登録されているか否かの解析、各注目被写体の年齢に基づく解析、各注目被写体の性別に基づく解析、全注目被写体同士の組み合わせに基づく解析、全注目被写体の位置関係に基づく解析が含まれる。   According to a fourth aspect of the present invention, in the analysis method, an analysis based on a current date and time or a season, an analysis based on a vertical / horizontal posture of the imaging apparatus, an analysis based on a size of each target subject with respect to the captured image, and each target subject are registered. Analysis based on the age of each target subject, analysis based on the gender of each target subject, analysis based on a combination of all target subjects, and analysis based on the positional relationship of all target subjects.

第5の発明は、顔部分を認識する認識手段を更に備え、前記計数手段は、前記認識手段によって認識された顔部分の数を前記注目被写体の数として計数する。   According to a fifth aspect of the present invention, there is further provided recognition means for recognizing a face portion, and the counting means counts the number of face portions recognized by the recognition means as the number of the subject of interest.

第6の発明は、前記構図選択手段によって選択される構図の数を設定する設定手段を更に備える。   The sixth invention further comprises setting means for setting the number of compositions selected by the composition selection means.

第7の発明は、予め複数の構図を記録したメモリを有するコンピュータを、撮影画像を取得する画像取得手段、当該画像取得手段によって取得された撮影画像に含まれている注目被写体を検出する被写体検出手段、当該被写体検出手段により検出された注目被写体の数を計数する計数手段、当該計数手段によって計数された注目被写体の数に基づいて、前記メモリに記録された複数の構図のうち前記撮像画像全体を記録するための構図を選択する構図選択手段、として機能させる。   According to a seventh aspect of the present invention, there is provided a computer having a memory in which a plurality of compositions are recorded in advance, an image acquisition unit that acquires a captured image, and a subject detection that detects a target subject included in the captured image acquired by the image acquisition unit Means for counting the number of target objects detected by the subject detection means, and based on the number of target objects counted by the counting means, the entire captured image among a plurality of compositions recorded in the memory It functions as a composition selection means for selecting a composition for recording.

本願発明によれば、撮像画像内の注目被写体の数を計数し、注目被写体の数に基づいて、予め記録した複数の構図からのうち撮像画像全体を記録するための構図を選択するので、撮影画像を記録する際、記録に適した構図の選択をより簡単に行うことができる。   According to the present invention, the number of subjects of interest in the captured image is counted, and a composition for recording the entire captured image is selected from a plurality of previously recorded compositions based on the number of subjects of interest. When recording an image, it is possible to more easily select a composition suitable for recording.

本発明の実施形態として示す撮像装置のブロック図である。It is a block diagram of an imaging device shown as an embodiment of the present invention. 本発明の実施形態として示す撮像装置の全体の処理手順を示すフローチャートである。It is a flowchart which shows the whole process sequence of the imaging device shown as embodiment of this invention. 本発明の実施形態として示す撮像装置によるライブビュー画像の表示設定処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the display setting process of the live view image by the imaging device shown as embodiment of this invention. 本発明の実施形態として示す撮像装置による解析処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the analysis process by the imaging device shown as embodiment of this invention. 本発明の実施形態として示す撮像装置における利用解析結果情報を示す図である。It is a figure which shows the utilization analysis result information in the imaging device shown as embodiment of this invention. 本発明の実施形態として示す撮像装置にて保持する利用解析結果情報及び構図番号を示す図である。It is a figure which shows the utilization analysis result information and composition number which are hold | maintained with the imaging device shown as embodiment of this invention. 本発明の実施形態として示す撮像装置による構図選択処理の具体例を示す図であり、(a)はライブビュー画像、(b)は注目被写体抽出後のライブビュー画像、(c)はライブビュー画像及び撮影構図パターンを含む画像である。It is a figure which shows the specific example of the composition selection process by the imaging device shown as embodiment of this invention, (a) is a live view image, (b) is the live view image after extracting an attention object, (c) is a live view image. And an image including a shooting composition pattern. 図7の具体例において、ライブビュー画像の解析結果及び解析結果同士の比較結果を示す図であり、(a)はライブビュー画像の解析結果、(b)〜(d)は撮影構図パターンの解析結果及び比較結果である。In the specific example of FIG. 7, it is a figure which shows the analysis result of a live view image, and the comparison result of an analysis result, (a) is the analysis result of a live view image, (b)-(d) is an analysis of a photography composition pattern. Results and comparison results. 本発明の実施形態として示す撮像装置による構図選択処理の具体例を示す図であり、(a)は注目被写体抽出後のライブビュー画像、(b)はライブビュー画像及び撮影構図パターンを含む画像である。4A and 4B are diagrams illustrating a specific example of composition selection processing by the imaging apparatus according to the embodiment of the present invention, in which FIG. 5A is a live view image after extracting a subject of interest, and FIG. is there. 図9の具体例において、ライブビュー画像の解析結果及び解析結果同士の比較結果を示す図であり、(a)はライブビュー画像の解析結果、(b)〜(d)は撮影構図パターンの解析結果及び比較結果である。In the specific example of FIG. 9, it is a figure which shows the analysis result of a live view image, and the comparison result of an analysis result, (a) is the analysis result of a live view image, (b)-(d) is an analysis of a photography composition pattern. Results and comparison results. 本発明の実施形態として示す撮像装置による構図選択処理の具体例を示す図であり、(a)は注目被写体抽出後のライブビュー画像、(b)はライブビュー画像及び撮影構図パターンを含む画像である。4A and 4B are diagrams illustrating a specific example of composition selection processing by the imaging apparatus according to the embodiment of the present invention, in which FIG. 5A is a live view image after extracting a subject of interest, and FIG. is there.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[撮像装置の構成]
まず、図1を用いて、本発明の実施の形態として示す撮像装置の機能的な構成について説明する。この撮像装置は、撮影時にライブビュー画像を表示させている時に、注目被写体を含む画像全体における撮影構図を選択する構図選択機能を備えたものである。したがって、以下に説明する構図選択装置としての機能は、必ずしも撮像装置に搭載されている実施の形態に限定されず、例えばパーソナルコンピュータに構図選択装置としての機能を実現させることもできる。
[Configuration of imaging device]
First, a functional configuration of an imaging apparatus shown as an embodiment of the present invention will be described with reference to FIG. This imaging apparatus is provided with a composition selection function for selecting a photographing composition in the entire image including the subject of interest when a live view image is displayed during photographing. Therefore, the function as the composition selection device described below is not necessarily limited to the embodiment mounted on the imaging device, and for example, the function as the composition selection device can be realized in a personal computer.

図1に示すように、撮像装置は、撮像光学系11と、撮像部12と、撮像装置における情報処理を担う情報処理領域13と、撮像装置におけるデータ記録動作を担う記録領域14と、撮像装置における操作入力動作を担う操作入力領域15とを備える。   As shown in FIG. 1, the imaging apparatus includes an imaging optical system 11, an imaging unit 12, an information processing area 13 that handles information processing in the imaging apparatus, a recording area 14 that handles data recording operations in the imaging apparatus, and an imaging apparatus. And an operation input area 15 for performing an operation input operation.

ここで、情報処理領域13,記録領域14,操作入力領域15はそれぞれ、撮像装置において必要な機能を区分して示したものである。情報処理領域13,記録領域14,操作入力領域15はそれぞれ、例えば1チップで構成されていても構わないし、複数のチップで構成されていても構わない。したがって、情報処理領域13,記録領域14,操作入力領域15はそれぞれ、情報処理、データ記録、ユーザの操作入力にとって必要な各種の構成を備えている。情報処理領域13,記録領域14,操作入力領域15内の構成は、図1及び以下に説明する例には限定されず、必要に応じて構成が追加又は削除がされていても本発明の本質的部分を逸脱するものではない。また、情報処理領域13,記録領域14,操作入力領域15内の構成は、近接して設けられていても良く、別個に設けられたものであっても良い。   Here, the information processing area 13, the recording area 14, and the operation input area 15 respectively indicate functions necessary for the imaging apparatus. Each of the information processing area 13, the recording area 14, and the operation input area 15 may be composed of, for example, one chip or a plurality of chips. Accordingly, the information processing area 13, the recording area 14, and the operation input area 15 have various configurations necessary for information processing, data recording, and user operation input, respectively. The configurations in the information processing area 13, the recording area 14, and the operation input area 15 are not limited to those shown in FIG. 1 and the example described below, and the essence of the present invention is achieved even if the configuration is added or deleted as necessary. It does not deviate from the target part. Further, the configuration in the information processing area 13, the recording area 14, and the operation input area 15 may be provided close to each other or may be provided separately.

また、撮像装置は、撮像装置のユーザに各種情報を表示するための構成として、メイン表示制御部16と、メイン表示部17とを備える。また、このメイン表示部17には、メインタッチパネル18が内蔵されている。   Further, the imaging apparatus includes a main display control unit 16 and a main display unit 17 as a configuration for displaying various types of information to the user of the imaging device. The main display unit 17 includes a main touch panel 18.

更に撮像装置は、当該撮像装置の付随的な機能として、姿勢検出部19と、計時部20と、音処理部21と、音出力部22とを備える。なお、この撮像装置の付随的な機能は、以下の説明において必要なもののみを示している。   Furthermore, the imaging device includes an attitude detection unit 19, a time measuring unit 20, a sound processing unit 21, and a sound output unit 22 as incidental functions of the imaging device. In addition, the incidental function of this imaging device has shown only what is required in the following description.

撮像光学系11は、主として、モータ、レンズユニット、等からなる。このレンズユニットは、外光を入射するための複数のレンズ群からなる。レンズユニットは、所定範囲の撮像領域の外光をCMOS(Complementary Metal-Oxide Semiconductor)などの撮像素子に結像するための光学系である。ここでは撮像素子はCMOSとするが、CCDであっても構わない。レンズユニットは、図示しないシャッターユニット、絞りユニットを備えている。これらシャッターユニット、絞りユニットは、モータの駆動により合焦位置や絞り位置が移動される。このレンズユニットは、制御部13Aの制御に応じてズームアウト、ズームインを自在に実行し、撮影範囲を変化させることができるズームレンズも備えている。   The imaging optical system 11 mainly includes a motor, a lens unit, and the like. This lens unit is composed of a plurality of lens groups for entering external light. The lens unit is an optical system for imaging external light in an imaging region within a predetermined range on an imaging element such as a CMOS (Complementary Metal-Oxide Semiconductor). Here, the imaging element is a CMOS, but it may be a CCD. The lens unit includes a shutter unit and an aperture unit (not shown). These shutter units and diaphragm units are moved in focus and diaphragm positions by driving a motor. This lens unit also includes a zoom lens that can freely zoom out and zoom in according to the control of the control unit 13A, and can change the shooting range.

撮像部12は、前述したCMOSなどの撮像素子を含む。CMOSは、例えばRGBの原色系のカラーフィルタを形成している。CMOSは、図示しないタイミング発生器及び垂直ドライバによって走査駆動される。CMOSは、一定周期毎に結像した光像に対応する光電変換出力を1画面分出力する。   The imaging unit 12 includes the above-described imaging device such as a CMOS. The CMOS forms, for example, RGB primary color filters. The CMOS is scan-driven by a timing generator and a vertical driver (not shown). The CMOS outputs one screen of photoelectric conversion output corresponding to a light image formed at regular intervals.

撮像部12は、制御部13Aによる制御に従って動作するコントローラと、A/D変換処理回路等を含む。この撮像部12におけるコントローラ、後述する情報処理領域13における制御部13Aの制御に従って、撮像光学系11におけるレンズユニット及びCMOSの動作を制御する。A/D変換処理回路は、サンプルホールド回路、A/D変換器を含む。A/D変換処理回路は、CMOSから出力された光電変換出力に所望の処理を施す。具体的には、CMOSからの光電変換出力に対して、アナログ値の信号の状態でRGBの各原色成分毎に適宜ゲイン調整する。その後、サンプルホールド回路によってサンプルホールドし、A/D変換器によってデジタル撮影画像データに変換し、情報処理領域13における撮像処理部13Cに出力する。   The imaging unit 12 includes a controller that operates according to control by the control unit 13A, an A / D conversion processing circuit, and the like. The operation of the lens unit and the CMOS in the imaging optical system 11 is controlled according to the control of the controller in the imaging unit 12 and the control unit 13A in the information processing area 13 described later. The A / D conversion processing circuit includes a sample hold circuit and an A / D converter. The A / D conversion processing circuit performs desired processing on the photoelectric conversion output output from the CMOS. Specifically, the gain is appropriately adjusted for each primary color component of RGB in the state of an analog signal with respect to the photoelectric conversion output from the CMOS. Thereafter, the sample and hold circuit performs sample and hold, converts the image into digital photographed image data by an A / D converter, and outputs the digital photographed image data to the imaging processing unit 13C in the information processing area 13.

情報処理領域13は、情報処理を担う構成として、制御部13Aと、画像圧縮部13Bと、撮像処理部13Cとを備える。   The information processing area 13 includes a control unit 13A, an image compression unit 13B, and an imaging processing unit 13C as components responsible for information processing.

撮像処理部13Cは、撮像部12から供給された撮影画像データに対して所定の画像処理を施す。この撮像処理部13Cは、RGBデータとして供給された撮影画像データの変換処理、画素補間処理、γ補正処理、及びマトリックス演算を行う。この撮像処理部13Cによって所定の画像処理が施された撮影画像データは、記録領域14における一時記録装置14Dに供給される。   The imaging processing unit 13C performs predetermined image processing on the captured image data supplied from the imaging unit 12. The imaging processing unit 13C performs conversion processing, pixel interpolation processing, γ correction processing, and matrix calculation of captured image data supplied as RGB data. The captured image data that has been subjected to predetermined image processing by the imaging processing unit 13C is supplied to the temporary recording device 14D in the recording area 14.

この撮影画像データは、ライブビュー画像として用いられることもあれば、記録用画像として用いられることもある。ここでは、ライブビュー画像として用いるときは、画像サイズをメイン表示部17と同じサイズとするものとし、記録用画像として用いるときは、使用者の所望のサイズとするものとする。   The captured image data may be used as a live view image or may be used as a recording image. Here, when used as a live view image, the image size is set to the same size as the main display unit 17, and when used as a recording image, it is set to a size desired by the user.

制御部13Aは、当該撮像装置を統括して制御する。制御部13Aは、保存記録装置14C中のプログラム記録エリアに記録されたプログラムに従って動作することによって、当該撮像装置に必要な各種の制御を行う。   The control unit 13A controls the imaging apparatus in an integrated manner. The control unit 13A performs various types of control necessary for the imaging apparatus by operating according to the program recorded in the program recording area in the storage recording apparatus 14C.

特に、制御部13Aは、保存記録装置14C中のプログラム記録エリアに記録されたプログラムに従った処理を行う。この撮影構図画像を選択するためのプログラムに従って処理を実行することにより、制御部13Aは、撮影画像に含まれている注目被写体を検出する被写体検出処理、当該検出された注目被写体の数を計数する計数手段、当該注目被写体を各種解析する解析処理、計数手段による計数結果と解析手段の解析結果とに基づいて保存記録装置14C中の撮影構図パターン記録エリアに記録された複数の撮影構図パターンのうち注目被写体を含む画像全体における撮影構図パターンを選択する構図選択処理を行う。なお、このような制御部13Aによる撮影構図選択処理の詳細については後述する。   In particular, the control unit 13A performs processing according to the program recorded in the program recording area in the storage recording device 14C. By executing the process according to the program for selecting the photographed composition image, the control unit 13A counts the subject detection process for detecting the subject of interest included in the photographed image, and the number of the detected subject of interest. Among a plurality of photographic composition patterns recorded in the photographic composition pattern recording area in the storage recording device 14C based on the counting means, analysis processing for variously analyzing the subject of interest, and the counting results by the counting means and the analysis results of the analyzing means Composition selection processing is performed for selecting a shooting composition pattern in the entire image including the subject of interest. Details of the photographing composition selection process by the control unit 13A will be described later.

そして、制御部13Aは、所定の画面内レイアウトに従って選択された撮影構図パターンをメイン表示部17に表示させる。これにより、撮像装置は、現在撮影しようとしている状況における注目被写体にとって好ましい撮影構図パターンを、その時点での画像がモニタ画像としてリアルタイムに表示されている、いわゆるライブビュー画像に重畳させて提示することができる。   Then, the control unit 13A causes the main display unit 17 to display the shooting composition pattern selected according to a predetermined in-screen layout. Thus, the imaging apparatus presents a shooting composition pattern that is preferable for the subject of interest in the current shooting situation, superimposed on a so-called live view image in which the image at that time is displayed in real time as a monitor image. Can do.

画像圧縮部13Bは、制御部13Aの制御に応じて、一時記録装置14Dに格納された撮影画像データに対してJPEG(Joint Photograph coding Experts Group)規格に従ったADCT(Adaptive Discrete Cosine Transform:適応離散コサイン変換)処理を行って、データ圧縮をする。この圧縮済みのデータは、外部記録用のデータとして記録領域14における外部記録装置14Bに記録される。   Under the control of the control unit 13A, the image compression unit 13B applies ADCT (Adaptive Discrete Cosine Transform) in accordance with the JPEG (Joint Photograph Coding Experts Group) standard to the captured image data stored in the temporary recording device 14D. (Cosine transform) processing is performed to compress the data. This compressed data is recorded in the external recording device 14B in the recording area 14 as data for external recording.

記録領域14は、データ記録を担う構成として、外部記録装着部14A、外部記録装置14B、保存記録装置14C及び一時記録装置14Dを備えている。外部記録装着部14A及び外部記録装置14Bは、記録媒体であるメモリーカードの記録再生装置からなる。保存記録装置14Cは、不揮発性メモリからなる。一時記録装置14Dは、揮発性メモリからなる。   The recording area 14 includes an external recording mounting portion 14A, an external recording device 14B, a storage recording device 14C, and a temporary recording device 14D as a configuration that performs data recording. The external recording mounting portion 14A and the external recording device 14B are composed of a recording / reproducing device for a memory card as a recording medium. The storage recording device 14 </ b> C includes a nonvolatile memory. The temporary recording device 14D includes a volatile memory.

外部記録装着部14Aは、外部記録装置14Bによって記録再生可能な外部記録媒体(メモリーカード)が着脱可能な構造を有している。外部記録装置14Bは、撮像装置に備えられたメモリーカードの記録再生機構を含む。この外部記録装置14Bは、制御部13Aの制御に従って、当該撮像装置によって撮像された撮影画像データをメモリーカードに記録する。また、外部記録装置14Bは、制御部13Aの制御に従って、メモリーカードに記録された撮影画像データを再生して出力する。   The external recording mounting portion 14A has a structure in which an external recording medium (memory card) that can be recorded and reproduced by the external recording device 14B is detachable. The external recording device 14B includes a memory card recording / reproducing mechanism provided in the imaging device. The external recording device 14B records captured image data captured by the imaging device on a memory card under the control of the control unit 13A. Further, the external recording device 14B reproduces and outputs the photographed image data recorded on the memory card under the control of the control unit 13A.

保存記録装置14Cは、撮影構図パターン記録エリアを含む。撮影構図パターン記録エリアは、複数の撮影構図パターンを記録する構図記録手段として機能する。この撮影構図パターンは、画像全体における注目被写体の配置を示す。撮影構図パターンは、撮影画像内に含まれる注目被写体の数に応じてそれぞれ異なったものとなる。また、この撮影構図パターンは、注目被写体の数のみならず、「撮影を行う現在日時又は季節、当該撮像装置の縦横姿勢、撮像画像に対する各注目被写体の大きさ、各注目被写体について登録人物としての登録があるか、各注目被写体の年齢、各注目被写体の性別、全注目被写体同士の組み合わせ、全注目被写体の位置関係」に応じて、異なるものであっても良い。撮影構図パターン記録エリアは、複数の撮影構図パターンをテーブル化した、構図パターンテーブルとして記録している。この撮影構図パターン記録エリアに記録された撮影構図パターンは、制御部13Aの制御に従って選択される。   The storage recording device 14C includes an imaging composition pattern recording area. The shooting composition pattern recording area functions as a composition recording means for recording a plurality of shooting composition patterns. This shooting composition pattern indicates the arrangement of the subject of interest in the entire image. The photographic composition pattern differs depending on the number of target subjects included in the photographic image. In addition, this shooting composition pattern includes not only the number of subjects of interest, but also “the current date and time of shooting or the season, the vertical and horizontal orientation of the imaging device, the size of each subject of interest with respect to the captured image, and the registered person for each subject of interest. It may be different depending on whether there is registration, the age of each subject of interest, the gender of each subject of interest, the combination of all subjects of interest, or the positional relationship of all subjects of interest. The shooting composition pattern recording area is recorded as a composition pattern table in which a plurality of shooting composition patterns are tabulated. The shooting composition pattern recorded in the shooting composition pattern recording area is selected according to the control of the control unit 13A.

なお、この撮像装置は、撮影構図パターン記録エリアに撮影構図パターンを示す構図パターンデータを記録しているが、この実施形態に限られず、構図パターンデータを通信回線を介してダウンロードして、後述するように複数の撮影構図パターンのうち何れかの撮影構図パターンを決定しても良い。   The imaging apparatus records composition pattern data indicating a photographed composition pattern in a photographed composition pattern recording area. However, the present invention is not limited to this embodiment, and the composition pattern data is downloaded via a communication line and will be described later. As described above, any one of the plurality of shooting composition patterns may be determined.

操作入力領域15は、ユーザが操作を入力するための構成として、撮像指示部15A、決定指示部15B、モード設定部15C、移動操作部15D、メニュー操作部15E、電源操作部15Fを備えている。   The operation input area 15 includes an imaging instruction unit 15A, a determination instruction unit 15B, a mode setting unit 15C, a movement operation unit 15D, a menu operation unit 15E, and a power supply operation unit 15F as a configuration for a user to input an operation. .

操作入力領域15における各部15A〜15Fは、当該撮像装置のユーザによって操作される。操作入力領域15における各部15A〜15Fは、押圧釦、十字キーなどによって構成されるキー群である。なお、図1においては、操作入力領域15における各部15A〜15Fを機能的に区分して示しているが、単一の釦や十字キーに複数の役割を与えても良いことは勿論である。操作入力領域15における各部15A〜15Fは、制御部13Aに接続されており、各釦の操作内容を示す操作信号が制御部13Aによって読み込まれる。   Each unit 15A to 15F in the operation input area 15 is operated by the user of the imaging apparatus. Each unit 15A to 15F in the operation input area 15 is a key group including a press button, a cross key, and the like. In addition, in FIG. 1, although each part 15A-15F in the operation input area 15 is divided functionally, it is needless to say that a plurality of roles may be given to a single button or a cross key. The units 15A to 15F in the operation input area 15 are connected to the control unit 13A, and an operation signal indicating the operation content of each button is read by the control unit 13A.

メイン表示制御部16は、一時記録装置14Dに格納された撮影画像データを定期的に読み出し、これらのデータを元にビデオ信号を発生してメイン表示部17に出力する。また、メイン表示制御部16は、制御部13Aから撮影構図パターンが選択された場合に、当該撮影構図パターンを表す撮影構図画像が供給される。そして、メイン表示制御部16は、現在において撮像装置が取得しているリアルタイムのライブビュー画像と共に、所定のレイアウトによって撮影構図パターンの画像データをメイン表示部17に供給する。   The main display control unit 16 periodically reads the captured image data stored in the temporary recording device 14D, generates a video signal based on these data, and outputs the video signal to the main display unit 17. Further, when a shooting composition pattern is selected from the control unit 13A, the main display control unit 16 is supplied with a shooting composition image representing the shooting composition pattern. Then, the main display control unit 16 supplies image data of the photographic composition pattern to the main display unit 17 according to a predetermined layout together with the real-time live view image currently acquired by the imaging device.

メイン表示部17は、図示しないが、撮像装置の筐体の背面側に設けられている。メイン表示部17は、撮影モード時にはモニタ表示部(電子ファインダ)として機能する。この撮影モード時において、メイン表示部17は、メイン表示制御部16からのビデオ信号に基づいた表示を行う。これにより、撮像装置は、その時点でメイン表示制御部16から取り込んでいるライブビュー画像をリアルタイムに表示する。また、メイン表示部17は、ライブビュー画像に、撮影構図画像を含む表示データが供給された時には、ライブビュー画像と共に撮影構図画像を表示する。   Although not shown, the main display unit 17 is provided on the back side of the housing of the imaging device. The main display unit 17 functions as a monitor display unit (electronic finder) in the shooting mode. In this shooting mode, the main display unit 17 performs display based on the video signal from the main display control unit 16. Thereby, the imaging device displays the live view image captured from the main display control unit 16 at that time in real time. The main display unit 17 displays the photographed composition image together with the live view image when display data including the photographed composition image is supplied to the live view image.

このように、メイン表示部17に、その時点での撮影画像がモニタ画像としてリアルタイムに表示されている、いわゆるライブビュー画像の表示状態で、撮像装置は、撮像可能な状態となる。そして、撮影を行いたいタイミングで、撮像指示部15Aが操作されると、制御部13Aに対して半押し状態又は全押し状態を表すトリガ信号が発生される。制御部13Aは、このトリガ信号に応じて、その時点で撮像光学系11のから取り込んでいる1画面分の撮影画像データを一時記録装置14Dに格納させる。   In this way, the imaging apparatus is ready for imaging in a so-called live view image display state in which a captured image at that time is displayed in real time on the main display unit 17 as a monitor image. Then, when the imaging instruction unit 15A is operated at a timing at which shooting is desired, a trigger signal indicating a half-pressed state or a fully-pressed state is generated for the control unit 13A. In response to this trigger signal, the control unit 13A causes the temporary recording device 14D to store the captured image data for one screen captured from the imaging optical system 11 at that time.

メインタッチパネル18は、メイン表示部17の表示面に内蔵されている。メインタッチパネル18は、メイン表示部17の表示面に対する押圧位置を座標データとして出力する。この座標データは、制御部13Aによって読み取られる。制御部13Aは、現在にメイン表示部17に表示させているメニュー画面等の表示状態と、座標データとに基づいて、メインタッチパネル18に対してユーザが行った操作を識別し、当該操作に従った制御を行う。このメインタッチパネル18は、撮影構図を決定するためにライブビュー画像内の注目被写体を採用するか否かを決定する際に、ユーザによって注目被写体の選択又は非選択を設定可能にするものである。   The main touch panel 18 is built in the display surface of the main display unit 17. The main touch panel 18 outputs the pressed position on the display surface of the main display unit 17 as coordinate data. This coordinate data is read by the control unit 13A. The control unit 13A identifies the operation performed by the user on the main touch panel 18 based on the display state of the menu screen or the like currently displayed on the main display unit 17 and the coordinate data, and follows the operation. Control. The main touch panel 18 enables the user to select whether or not to select the target subject when determining whether or not to adopt the target subject in the live view image in order to determine the shooting composition.

姿勢検出部19は、撮像装置自体の姿勢を検出する。姿勢検出部19は、撮像装置が縦方向であるか横方向であるかの姿勢情報を生成して、制御部13Aに供給する。姿勢検出部19は、例えば球状物が撮像装置の姿勢によって移動し、当該球状物の位置を光学的に検出する構成など、既知の技術を用いることによって実現できる。   The posture detection unit 19 detects the posture of the imaging device itself. The posture detection unit 19 generates posture information indicating whether the imaging device is in the vertical direction or the horizontal direction, and supplies the posture information to the control unit 13A. The posture detection unit 19 can be realized by using a known technique such as a configuration in which a spherical object moves according to the posture of the imaging device and the position of the spherical object is optically detected.

計時部20は、撮像装置のタイマ、カレンダー機能によって実現される。計時部20によって計時している、年、月、日、時刻を示す計時情報が制御部13Aによって読み取られる。   The timer unit 20 is realized by a timer and calendar function of the imaging device. Time information indicating the year, month, day, and time, which is timed by the time measuring unit 20, is read by the control unit 13A.

音処理部21は、小型スピーカである音出力部22から所定のシャッター音、選択した構図で撮像を行うための案内音声などを出力させる。音出力部22から音を出力するための音データは、制御部13Aから音処理部21に供給される。音処理部21は、供給された音データを用いて音出力部22を駆動させる。このような音処理部21及び音出力部22は、制御部13Aの制御に従って、撮影構図をライブビュー画像と共に表示させると共に、音声によって撮影構図を指示することができる。このとき音出力部22は、注目被写体と撮影構図画像との差異を演算し、当該差異を小さくするために、例えば「カメラを右(又は左、上、下)へ向けてください」、「ズームイン(又はズームアウト)してください」との音声を音出力部22から出力させる。   The sound processing unit 21 outputs a predetermined shutter sound, guidance voice for performing imaging with the selected composition, and the like from the sound output unit 22 which is a small speaker. Sound data for outputting sound from the sound output unit 22 is supplied from the control unit 13A to the sound processing unit 21. The sound processing unit 21 drives the sound output unit 22 using the supplied sound data. The sound processing unit 21 and the sound output unit 22 can display the shooting composition together with the live view image and instruct the shooting composition by sound according to the control of the control unit 13A. At this time, the sound output unit 22 calculates the difference between the subject of interest and the shot composition image, and in order to reduce the difference, for example, “Please turn the camera to the right (or left, up, down)”, “zoom in” (Or zoom out) "is output from the sound output unit 22.

[撮像装置の全体処理]
このように構成された撮像装置は、当該撮像装置がユーザに把持されて被写体を撮像する操作が行われる時に、図2乃至図4に示す処理を行うことによって、撮影構図選択処理を含む処理を実行する。
[Overall processing of imaging device]
The imaging device configured as described above performs processing including imaging composition selection processing by performing the processing illustrated in FIGS. 2 to 4 when the imaging device is gripped by the user and an operation of imaging a subject is performed. Execute.

撮像装置は、先ずステップS1にて、制御部13Aによって、現在の撮影モードの設定状態を読み出す。次のステップS2において、制御部13Aは、メニュー操作部15Eが操作されたことによるメニュー画面の表示指示命令が発生したか否かを判定する。メニュー画面の表示指示命令が発生していない場合には、ステップS4に処理を進める。メニュー画面の表示指示命令が発生した場合には、ステップS3にて、メニュー画面を表示させ、当該メニュー画面に応じて決定指示部15Bや移動操作部15Dが操作されたことに対する動作を行うメニュー処理を行って、ステップS4に処理を進める。このメニュー処理としては、例えば撮像装置自体の撮影モードの変更、画像処理の設定変更、フラッシュ動作の設定変更などが挙げられる。   First, in step S1, the imaging apparatus reads the current shooting mode setting state by the control unit 13A. In the next step S2, the control unit 13A determines whether or not a menu screen display instruction command due to the operation of the menu operation unit 15E is generated. If a menu screen display instruction command has not occurred, the process proceeds to step S4. When a menu screen display instruction command is generated, a menu process is performed in step S3 to display the menu screen and perform an operation in response to the operation of the determination instruction unit 15B or the movement operation unit 15D according to the menu screen. To proceed to step S4. Examples of the menu process include a change in the shooting mode of the imaging apparatus itself, a change in image processing settings, and a change in flash operation settings.

次のステップS4において、撮像装置は、ライブビュー画像の撮影処理を行う。この撮影処理は、撮像光学系11及び撮像部12によって撮像したRGBデータを撮像処理部13Cが取り込み、所定の画像処理を施した撮影画像データを一時記録装置14Dに格納する。この所定の画像処理としては、自動ホワイトバランス処理などが含まれる。そして、制御部13Aは、一時記録装置14Dに格納された撮影画像データを所定期間ごとにメイン表示制御部16によって取り込ませ、メイン表示部17に表示させる。これにより、撮像装置が撮像しているリアルタイムのライブビュー画像をメイン表示部17に表示させることができる。   In the next step S4, the imaging apparatus performs a live view image capturing process. In this photographing process, the imaging processing unit 13C captures RGB data captured by the imaging optical system 11 and the imaging unit 12, and stores the captured image data subjected to predetermined image processing in the temporary recording device 14D. This predetermined image processing includes automatic white balance processing and the like. Then, the control unit 13A causes the main display control unit 16 to capture the captured image data stored in the temporary recording device 14D every predetermined period and display the captured image data on the main display unit 17. As a result, a real-time live view image captured by the imaging device can be displayed on the main display unit 17.

次のステップS5において、制御部13Aは、ライブビュー画像と共に表示する撮影構図の案内情報を設定する。この撮影構図の案内情報は、現在のライブビュー画像にて好ましい撮影構図で撮像を行わせる時に、ユーザに提示する情報である。この案内情報は、後述する図7における撮影構図パターン102A〜102Cに相当する。このような案内情報を提示するために、制御部13Aは、現在のライブビュー画像に対して好ましい撮影構図パターンを選択する構図選択処理を行う。また、ステップS5において、制御部13Aは、例えば注目被写体の顔部分に表示されるフォーカス枠の設定、画面内に升目状のグリッド表示を行うための設定を行う。   In the next step S5, the control unit 13A sets shooting composition guide information to be displayed together with the live view image. The shooting composition guide information is information presented to the user when the current live view image is captured with a preferable shooting composition. This guidance information corresponds to photographing composition patterns 102A to 102C in FIG. In order to present such guidance information, the control unit 13A performs a composition selection process for selecting a preferable shooting composition pattern for the current live view image. In step S5, the control unit 13A performs, for example, setting of a focus frame displayed on the face portion of the subject of interest and setting for displaying a grid-like grid in the screen.

次のステップS6において、制御部13Aは、メイン表示部17にライブビュー画像を表示させる。このとき、制御部13Aは、ステップS5にて設定された案内情報を表示させても良い。これにより、ユーザは、現状のライブビュー画像を撮像するために、案内情報を見ながら、撮像装置が選択した撮影構図に従って撮像を行うことができる。   In the next step S <b> 6, the control unit 13 </ b> A displays a live view image on the main display unit 17. At this time, the control unit 13A may display the guide information set in step S5. Thus, the user can take an image according to the imaging composition selected by the imaging apparatus while viewing the guidance information in order to capture the current live view image.

次のステップS7において、制御部13Aは、シャッター釦である撮像指示部15Aが半押し操作されたことを示す半押しフラグがオンとなっているか否かを判定する。この半押しフラグは、撮像指示部15Aが半押し操作された状態において、制御部13Aによってオンとされる。半押しフラグがオンとなっている場合にはステップS11に処理を進め、半押しフラグがオンとなっていない場合にはステップS8に処理を進める。   In the next step S7, the control unit 13A determines whether or not a half-press flag indicating that the imaging instruction unit 15A that is a shutter button is half-pressed is turned on. This half-press flag is turned on by the control unit 13A when the imaging instruction unit 15A is half-pressed. If the half-press flag is on, the process proceeds to step S11. If the half-press flag is not on, the process proceeds to step S8.

ステップS8において、制御部13Aは、撮像指示部15Aが半押し操作されたトリガ信号を検出したか否かを判定する。トリガ信号を検出していない場合には、ステップS11に処理を進める。そしてステップS11において、制御部13Aは、通常撮影モードが終了している場合には処理を終了し、そうでない場合にはステップS2に処理を戻す。   In step S8, the control unit 13A determines whether or not the trigger signal for which the imaging instruction unit 15A is half-pressed is detected. If the trigger signal is not detected, the process proceeds to step S11. In step S11, the control unit 13A ends the process when the normal shooting mode is ended, and returns the process to step S2 otherwise.

一方、トリガ信号を検出した場合には、ステップS9に処理を進める。制御部13Aは、ステップS9において半押しフラグをオン状態にし、ステップS10において基本撮影条件の設定処理を行う。この基本撮影条件の設定処理は、例えば通常撮影モードにて設定されているフォーカス状態、フラッシュ状態、画像処理についての設定処理を行う。ステップS10の後には、ステップS11に処理を進める。   On the other hand, if a trigger signal is detected, the process proceeds to step S9. The controller 13A turns on the half-press flag in step S9, and performs basic shooting condition setting processing in step S10. This basic shooting condition setting process performs, for example, a setting process for the focus state, flash state, and image processing set in the normal shooting mode. After step S10, the process proceeds to step S11.

ステップS12において、制御部13Aは、撮像指示部15Aが操作されていることによるトリガ信号を監視し、半押し状態が維持されているか否かを判定する。半押し状態が維持されている場合にはステップS14に処理を進める。半押し状態が維持されていない場合にはステップS13において、半押しフラグをオフとしてステップS14に処理を進める。   In step S12, the control unit 13A monitors a trigger signal generated when the imaging instruction unit 15A is operated, and determines whether or not the half-pressed state is maintained. If the half-pressed state is maintained, the process proceeds to step S14. If the half-pressed state is not maintained, in step S13, the half-press flag is turned off and the process proceeds to step S14.

ステップS14において、制御部13Aは、撮像指示部15Aからのトリガ信号によって全押し状態にまで操作されたか否かを判定する。全押しを検出した場合にはステップS15に処理を進め、全押しを検出していない場合にはステップS11に処理を進める。   In step S14, the control unit 13A determines whether or not the operation has been performed to the fully pressed state by a trigger signal from the imaging instruction unit 15A. If full press is detected, the process proceeds to step S15. If full press is not detected, the process proceeds to step S11.

ステップS15において、撮像光学系11、撮像部12、撮像処理部13C及び画像圧縮部13Bによって、記録用画像の撮影処理を行う。この記録用画像の撮影処理は、撮像処理部13Cの制御に従って、所定の画像処理が施された撮影画像データに対して、画像圧縮部13Bによって所定のデータ圧縮処理を施す。この所定の画像処理としては、自動ホワイトバランス処理などが含まれる。そして、ステップS16において、外部記録装置14Bは、画像圧縮部13Bによって圧縮された記録用の撮影画像をメモリーカードに記録する。   In step S15, the image pickup optical system 11, the image pickup unit 12, the image pickup processing unit 13C, and the image compression unit 13B perform a recording image shooting process. In this recording image shooting process, a predetermined data compression process is performed by the image compression unit 13B on the shot image data subjected to the predetermined image process in accordance with the control of the imaging processing unit 13C. This predetermined image processing includes automatic white balance processing and the like. In step S16, the external recording device 14B records the recorded photographed image compressed by the image compression unit 13B on the memory card.

次のステップS17において、制御部13Aは、ステップS16にてメモリーカードに記録した撮影画像を、メイン表示部17に確認のために表示させるようにメイン表示制御部16を制御する。その後、制御部13Aは、ステップS18において、半押しフラグをオフにして、処理をステップS11に戻す。   In the next step S17, the control unit 13A controls the main display control unit 16 so that the captured image recorded on the memory card in step S16 is displayed on the main display unit 17 for confirmation. Thereafter, in step S18, control unit 13A turns off the half-press flag and returns the process to step S11.

「ライブビュー画像の表示設定処理」
つぎに、図2を参照して説明した撮像装置の全体動作におけるステップS5のライブビュー画像表示設定処理について、図3を参照して説明する。
"Live View image display setting process"
Next, the live view image display setting process in step S5 in the overall operation of the imaging apparatus described with reference to FIG. 2 will be described with reference to FIG.

このライブビュー画像表示設定処理は、先ずステップS21において、制御部13Aにより、撮影構図画像のセットを設定するタイミングであるか否かを判定する。この設定タイミングか否かは、撮像装置が起動している最中における所定時間ごと、ライブビュー画像の撮影回数ごと、ライブビュー画像の絵柄に大きな変化を検出したタイミングなどを判定する。所定時間ごとか否かは、計時部20の計時情報を参照して制御部13Aが判断する。ライブビュー画像の撮影回数ごとかは、一時記録装置14Dによって撮像されたライブビュー画像をメイン表示制御部16によって更新する回数を制御部13Aによって判断する。ライブビュー画像の絵柄に大きな変化を検出したタイミングは、一時記録装置14Dに一時記録されたライブビュー画像の時系列的な差分を制御部13Aによって演算することによって判断される。撮影構図画像のセットの設定タイミングであると判定した場合にはステップS22に処理を進め、そうではない場合には処理を終了する。   In the live view image display setting process, first, in step S21, the control unit 13A determines whether or not it is a timing to set a set of photographic composition images. Whether or not it is this setting timing is determined at every predetermined time while the image pickup apparatus is activated, every number of times the live view image is taken, when a large change is detected in the design of the live view image, and the like. Whether or not it is every predetermined time is determined by the control unit 13A with reference to the timing information of the timing unit 20. Whether the live view image is taken or not is determined by the control unit 13A by the number of times the main display control unit 16 updates the live view image captured by the temporary recording device 14D. The timing at which a large change in the design of the live view image is detected is determined by calculating a time-series difference of the live view image temporarily recorded in the temporary recording device 14D by the control unit 13A. If it is determined that it is the setting timing of the set of the photographic composition image, the process proceeds to step S22, and if not, the process ends.

ステップS22において、制御部13Aは、ライブビュー画像を用いたパターンマッチングを行うことにより、注目被写体を検出する。このとき、制御部13Aは、予め保存記録装置14Cに記録されていた人物全体、人物の顔のパターン画像を読み出し、ライブビュー画像と比較する。その結果、制御部13Aは、ライブビュー画像に含まれる人物、当該人物の顔を抽出することができる。この抽出結果は、注目被写体ごとに生成される。   In step S22, the control unit 13A detects the subject of interest by performing pattern matching using the live view image. At this time, the control unit 13A reads the entire person and the face image of the person recorded in the storage recording device 14C in advance and compares them with the live view image. As a result, the control unit 13A can extract the person included in the live view image and the face of the person. This extraction result is generated for each subject of interest.

次のステップS23において、制御部13Aは、ライブビュー画像に含まれる注目被写体の状態の解析処理、撮影構図を決定するために必要な情報の解析処理を行う。撮影構図を決定するために必要な情報の解析処理とは、姿勢検出部19によって計時している現在日時又は季節を取得する処理、姿勢検出部19により検出される縦横姿勢を取得する処理などが挙げられる。ライブビュー画像に含まれる注目被写体の状態の解析処理とは、「各注目被写体の大きさ、各注目被写体について登録人物としての登録があるか否か、各注目被写体の年齢、各注目被写体の性別、全注目被写体同士の組み合わせ、全注目被写体の位置関係」を取得する処理が挙げられる。この解析処理においては、注目被写体の数を含む少なくとも2つの解析結果を得ることが望ましい。   In the next step S23, the control unit 13A performs an analysis process on the state of the subject of interest included in the live view image and an analysis process on information necessary for determining the shooting composition. The analysis processing of information necessary for determining the shooting composition includes processing for acquiring the current date and time or the season timed by the posture detection unit 19, processing for acquiring the vertical and horizontal postures detected by the posture detection unit 19, and the like. Can be mentioned. The process of analyzing the state of the subject of interest included in the live view image is as follows: `` The size of each subject of interest, whether or not each subject of interest is registered as a registered person, the age of each subject of interest, the gender of each subject of interest , A combination of all the subjects of interest, and a positional relationship of all the subjects of interest ”. In this analysis process, it is desirable to obtain at least two analysis results including the number of objects of interest.

このような解析処理は、例えば図4に示すように、ステップS31からステップS39の順序に沿って実行される。この解析処理の処理順序は、処理負荷が軽い処理を優先して行う。すなわち、ステップS31にて計時部20で計時している日付・期間の解析処理を行って解析結果Aを取得し、ステップS32にて姿勢検出部19にて検出している撮像装置の縦横状態の解析処理を行って解析結果Bを取得する。ステップS33以降は、制御部13Aによって行われる、ステップS22にて抽出された注目被写体を用いた解析処理である。ステップS33は、各注目被写体に係る大きさを解析して解析結果Cを取得する。ステップS34は、全注目被写体に係る被写体数を解析して解析結果Dを取得する。ステップS35は、各注目被写体に係る登場人物が登録人物として登録されているか否かを解析して解析結果Eを取得する。ステップS36は、各注目被写体に係る年齢を解析して解析結果Fを取得する。ステップS37は、各注目被写体に係る性別を解析して解析結果Gを取得する。ステップS38は、全注目被写体に係る組み合わせを解析して解析結果Hを取得する。ステップS39は、全注目被写体に係る位置関係を解析して解析結果Iを取得する。   Such an analysis process is executed in the order of step S31 to step S39, for example, as shown in FIG. The processing order of this analysis processing is performed with priority given to processing with a light processing load. That is, the analysis result A is obtained by performing the analysis process of the date / period timed by the time measuring unit 20 in step S31, and the vertical and horizontal states of the imaging device detected by the posture detecting unit 19 in step S32. An analysis process is performed to obtain an analysis result B. Step S33 and subsequent steps are analysis processing using the target subject extracted in step S22, which is performed by the control unit 13A. In step S33, the size of each subject of interest is analyzed to obtain an analysis result C. In step S34, the number of subjects related to all the subjects of interest is analyzed to obtain an analysis result D. In step S35, an analysis result E is obtained by analyzing whether or not a character related to each target subject is registered as a registered person. A step S36 analyzes the age related to each subject of interest and obtains an analysis result F. A step S37 analyzes the sex related to each subject of interest and acquires the analysis result G. A step S38 analyzes the combinations related to all the subjects of interest and acquires the analysis result H. In step S39, the positional relationship relating to all the subjects of interest is analyzed to obtain an analysis result I.

次のステップS24において、制御部13Aは、ステップS23にて取得した解析結果と、ユーザの操作によって設定される利用解析結果情報Rとに基づいて、ユーザに対して撮影構図の候補として提示する複数の撮影構図である撮影構図セットを設定する。この撮影構図セットの設定により、構図選択処理が実現されている。利用解析結果情報Rの設定処理は、構図画像撮影モード開始時に、当該利用解析結果情報Rを選択するメニュー画面を表示し、ユーザが移動操作部15Dにて選択して決定指示部15Bにて決定した操作に従って、利用解析結果情報Rが決定される。ここで、利用解析結果情報R及び構図番号Nは、初期段階において、図6に示すようにフラグデータとして保存記録装置14Cに記録されている。   In the next step S24, the control unit 13A presents a plurality of imaging composition candidates to the user based on the analysis result acquired in step S23 and the usage analysis result information R set by the user's operation. The shooting composition set which is the shooting composition of is set. Composition selection processing is realized by setting the photographing composition set. The setting process of the usage analysis result information R displays a menu screen for selecting the usage analysis result information R at the start of the composition image shooting mode, and the user selects it with the movement operation unit 15D and decides it with the decision instruction unit 15B. Usage analysis result information R is determined in accordance with the operation performed. Here, the usage analysis result information R and the composition number N are recorded in the storage recording device 14C as flag data in the initial stage as shown in FIG.

利用解析結果情報Rは、図5に示すように、当該利用解析結果情報Rの識別番号「1」〜「9」に対応して、撮影構図セットを設定するために利用する解析結果が設定されている。このような利用解析結果情報Rは、その全てにおいて、各種の解析結果のうち全注目被写体に係る被写体数を示す解析結果Dを用いるように設定されている。利用解析結果情報Rの識別番号が「1」に操作されている場合には、解析結果Dである注目被写体の数のみを用いて撮影構図セットを設定する。そして、利用解析結果情報Rの識別番号が高くなるほど、注目被写体の数とは異なる解析結果を加重して撮影構図セットを設定する。この利用解析結果情報Rの設定処理により、ユーザの操作によって生じた信号に基づいて、解析結果の種類又は数を決定できる。   In the usage analysis result information R, as shown in FIG. 5, the analysis results used for setting the imaging composition set are set corresponding to the identification numbers “1” to “9” of the usage analysis result information R. ing. Such usage analysis result information R is set to use an analysis result D indicating the number of subjects related to all the subjects of interest among various analysis results. When the identification number of the usage analysis result information R is operated to “1”, the imaging composition set is set using only the number of the subject of interest that is the analysis result D. Then, the higher the identification number of the usage analysis result information R is, the more the analysis result different from the number of the subject of interest is weighted, and the photographing composition set is set. With the use analysis result information R setting process, the type or number of analysis results can be determined based on a signal generated by a user operation.

利用解析結果情報Rが設定されると、当該利用解析結果情報Rが特定されステップS23にて求められたライブビュー画像の解析結果と、予め保存記録装置14Cに保存された撮影構図パターンについて設定されている解析結果とを比較する。ステップS23にて求められたライブビュー画像の解析結果と、撮影構図パターンについて設定されている解析結果とが近似しているほど、現在のライブビュー画像に合致した撮影構図パターンである。制御部13Aは、ステップS23にて求めたライブビュー画像の解析結果に近似している解析結果の撮影構図パターンを複数選択して、撮影構図セットを設定する。   When the usage analysis result information R is set, the usage analysis result information R is specified and set for the analysis result of the live view image obtained in step S23 and the shooting composition pattern previously stored in the storage recording device 14C. Compare the analysis results. The closer the analysis result of the live view image obtained in step S23 and the analysis result set for the shooting composition pattern are, the closer the shooting composition pattern matches the current live view image. The control unit 13A selects a plurality of shooting composition patterns of analysis results approximate to the analysis result of the live view image obtained in step S23, and sets a shooting composition set.

また、このステップS24においては、ユーザにより設定された利用解析結果情報Rに基づいて設定された撮影構図セットのうち、撮影構図パターン間の優先順位(提示順番)を決定する。この優先順位は、ステップS23にて求めたライブビュー画像の解析結果に近似している撮影構図パターンほど、高くされる。なお、この優先順位の決定処理については、具体的なライブビュー画像及び解析結果を用いて説明するものとする。   In step S24, the priority (presentation order) between the shooting composition patterns is determined from the shooting composition set set based on the usage analysis result information R set by the user. This priority is set higher for a shooting composition pattern that approximates the analysis result of the live view image obtained in step S23. The priority order determination process will be described using specific live view images and analysis results.

そして、制御部13Aは、決定した優先順位の高い所定数(例えば「3」個)の撮影構図パターンの画像を保存記録装置14Cから読み出して、メイン表示制御部16に供給する。これにより、メイン表示制御部16は、供給された撮影構図パターンの画像とライブビュー画像とを組み合わせた表示用画像を作成して、メイン表示部17に表示させることができる。なお、メイン表示制御部16は、図7に示したように撮影構図パターン102A〜102Cのうち優先順位が高いものを画面内上部に表示させる例のみならず、他の表示形態であっても良く、優先順位の最も高い撮影構図パターンのみをライブビュー画像に重畳させても良い。   Then, the control unit 13A reads out a predetermined number (for example, “3”) of imaging composition patterns with high priority determined from the storage recording device 14C and supplies the images to the main display control unit 16. Accordingly, the main display control unit 16 can create a display image by combining the supplied image of the photographic composition pattern and the live view image, and can display the display image on the main display unit 17. As shown in FIG. 7, the main display control unit 16 is not limited to an example in which the shooting composition patterns 102A to 102C having higher priority are displayed on the upper part in the screen, but may be in other display forms. Only the photographing composition pattern with the highest priority may be superimposed on the live view image.

次のステップS25において、制御部13Aは、利用解析結果情報Rと、ユーザの操作によって決定される撮影構図パターンの構図番号Nとに基づいて、現在のライブビュー画像に対して選択した撮影構図パターンの画像を決定する。このとき、撮像装置では、ステップS24にて設定した撮影構図セットをメイン表示部17に表示させた状態で、ユーザが移動操作部15Dによって何れかの撮影構図パターンを選択し決定指示部15Bによって決定されたことにより、撮影構図パターンの構図番号Nが決定される。このような処理により、フラグデータとして記録されている構図番号Nが変更される。   In the next step S25, the control unit 13A selects the shooting composition pattern selected for the current live view image based on the usage analysis result information R and the composition number N of the shooting composition pattern determined by the user's operation. Determine the image. At this time, in the imaging apparatus, with the shooting composition set set in step S24 being displayed on the main display unit 17, the user selects one of the shooting composition patterns with the movement operation unit 15D and decides with the decision instruction unit 15B. As a result, the composition number N of the photographing composition pattern is determined. By such processing, the composition number N recorded as flag data is changed.

以上説明したライブビュー画像の表示設定処理によれば、撮像光学系11及び撮像部12によって撮影画像を取得してメイン表示部17にライブビュー画像を表示する時に、ライブビュー画像に含まれている注目被写体を検出し(ステップS22)、当該検出された注目被写体の数を判断する(ステップS23)。そして、撮像装置は、予め保存記録装置14Cに記録された複数の撮影構図パターンのうち撮像画像全体を記録するための撮影構図パターンを、注目被写体の数に基づいて選択することができる(ステップS24,ステップS25)。   According to the display setting process of the live view image described above, when the captured image is acquired by the imaging optical system 11 and the imaging unit 12 and the live view image is displayed on the main display unit 17, it is included in the live view image. A subject of interest is detected (step S22), and the number of the subject of interest detected is determined (step S23). Then, the imaging apparatus can select a shooting composition pattern for recording the entire captured image among a plurality of shooting composition patterns recorded in advance in the storage recording device 14C based on the number of target subjects (step S24). , Step S25).

このように撮影構図パターンを選択した後(ステップS24)、選択した撮影構図パターンをメイン表示部17に表示させることにより、実際の撮像画像全体の撮影に用いる撮影構図パターンをユーザに選択させることができる。   After the shooting composition pattern is selected in this way (step S24), the selected shooting composition pattern is displayed on the main display unit 17, thereby allowing the user to select a shooting composition pattern used for shooting the entire actual captured image. it can.

以上詳細に説明したように本発明の実施形態として示す撮像装置によれば、ライブビュー画像内の注目被写体の数を判断し、注目被写体の数に基づいて、予め記録した複数の構図からのうち撮像画像全体を記録するための構図を選択するので、撮影画像を記録する際、記録に適した構図の選択をより簡単に行うことができる。   As described above in detail, according to the imaging device shown as the embodiment of the present invention, the number of target subjects in the live view image is determined, and based on the number of target subjects, among a plurality of pre-recorded compositions. Since a composition for recording the entire captured image is selected, it is possible to more easily select a composition suitable for recording when recording a captured image.

また、この撮像装置によれば、「現在日時又は季節、当該撮像装置の縦横姿勢、撮像画像に対する各注目被写体の大きさ、各注目被写体について登録人物としての登録があるか否か、各注目被写体の年齢、各注目被写体の性別、全注目被写体同士の組み合わせ、全注目被写体の位置関係」のうち少なくとも一つの解析結果に基づいて、複数の構図を選択するので、より好ましい撮影構図を選択することができる。   Further, according to this imaging device, “current date / time or season, vertical / horizontal orientation of the imaging device, size of each subject of interest with respect to the captured image, whether each subject of interest is registered as a registered person, Multiple composition is selected based on at least one analysis result of `` age, gender of each target subject, combination of all target subjects, positional relationship of all target subjects '', so more preferable shooting composition should be selected Can do.

更に、この撮像装置によれば、複数の構図を選択した場合に、当該複数の構図における提示順番(優先順位)を設定するので、より好ましい撮影構図を優先してユーザに提示することができる。   Furthermore, according to this imaging apparatus, when a plurality of compositions are selected, the presentation order (priority order) in the plurality of compositions is set, so that a more preferable shooting composition can be presented to the user with priority.

更にまた、この撮像装置によれば、ユーザが操作した信号に基づいて、解析結果の種類又は数を決定するので、ユーザの指示に沿った好ましい撮影構図を選択することができる。   Furthermore, according to this imaging apparatus, since the type or number of analysis results is determined based on a signal operated by the user, it is possible to select a preferable imaging composition according to the user's instruction.

更にまた、この撮像装置によれば、注目被写体の顔部分の数に基づいて構図を選択するので、人物の撮像に好ましい撮影構図を選択して、ユーザに提示することができる。   Furthermore, according to this imaging apparatus, since the composition is selected based on the number of face parts of the subject of interest, it is possible to select a photographing composition preferable for imaging a person and present it to the user.

「構図選択の具体的説明」
つぎに、上述したような動作を行う撮像装置において、具体的なライブビュー画像を参照して、撮影構図を選択する処理について説明する。
"Specific explanation of composition selection"
Next, a process of selecting a shooting composition with reference to a specific live view image in the imaging apparatus that performs the above-described operation will be described.

図7は、父、母、子供からなるファミリーを撮像する場合を示している。   FIG. 7 shows a case where a family consisting of a father, mother, and child is imaged.

図7(a)に示すライブビュー画像100を表示している状態にて、撮影構図セットの設定タイミングとなると(ステップS21)、制御部13Aによって、当該ライブビュー画像100からパターンマッチングによって注目被写体を抽出する処理を実行する(ステップS22)。注目被写体の抽出処理は、予め保存記録装置14Cに記録しておいた人物顔部分のパターン画像と、ライブビュー画像100とでパターンマッチングを行う。   In the state in which the live view image 100 shown in FIG. 7A is displayed, when it is the setting timing of the shooting composition set (step S21), the control unit 13A selects a target subject from the live view image 100 by pattern matching. The extraction process is executed (step S22). In the process of extracting the subject of interest, pattern matching is performed between the pattern image of the human face portion recorded in advance in the storage recording device 14C and the live view image 100.

パターンマッチングの結果、制御部13Aは、図7(b)に示すように人物の顔部分を検出することができる。この注目被写体の抽出処理によって、制御部13Aは、人物の顔部分を表す注目被写体枠101を表示するようにメイン表示制御部16を制御し、メイン表示制御部16によってライブビュー画像100に注目被写体枠101を重畳表示させる。なお、注目被写体枠101は、ライブビュー画像100において注目被写体が動いたことに対して追従することとなる。   As a result of the pattern matching, the control unit 13A can detect the face portion of the person as shown in FIG. By this attention subject extraction processing, the control unit 13A controls the main display control unit 16 to display the attention subject frame 101 representing the face portion of the person, and the main display control unit 16 adds the attention subject to the live view image 100. The frame 101 is displayed in a superimposed manner. Note that the target subject frame 101 follows the movement of the target subject in the live view image 100.

制御部13Aは、注目被写体の抽出後、当該注目被写体の解析処理を行う。ここで、この注目被写体の解析処理は、注目被写体枠101内の注目被写体画像を用い、図4に示した全解析処理を行って、解析結果A〜Iを得るものとする。なお、注目被写体枠101内の画像データに限らず、人物全体を解析処理の対象データとしても良い。   After extracting the subject of interest, the control unit 13A performs an analysis process on the subject of interest. Here, in the target object analysis processing, the target subject image in the target subject frame 101 is used, and the entire analysis processing shown in FIG. 4 is performed to obtain analysis results A to I. It should be noted that not only the image data in the subject frame 101 but the whole person may be the target data for the analysis process.

この解析結果は、図8(a)のようになり、注目被写体の数(解析結果D)は「3人」、注目被写体の大きさ(解析結果C)は「中サイズ2人、小サイズ1人」、撮像装置の姿勢(解析結果B)は「横」、注目被写体の登場人物が登録人物として登録されているか否か(解析結果E)は「父親、母親、子供」が登録されている、注目被写体の位置関係(解析結果I)は「3つの顔(注目被写体)が略水平に並んでいる」、注目被写体の性別(解析結果G)は「男2人、女1人」、注目被写体の年齢(解析結果F)は「大人2人、子供1人」、注目被写体の組み合わせ(解析結果H)は「父親、子供、母親」、日付・期間(解析結果A)は「10月」となる。そして、この解析結果A〜Iは、保存記録装置14Cに記録された撮影構図パターンについて設定されている解析結果と比較とされる。   The analysis result is as shown in FIG. 8A. The number of subjects of interest (analysis result D) is “3”, and the size of the subject of interest (analysis result C) is “medium size 2 people, small size 1”. "People", the orientation of the imaging device (analysis result B) is "horizontal", and whether or not the character of the subject of interest is registered as a registered person (analysis result E) is registered "father, mother, child" The positional relationship of the subject of interest (analysis result I) is “three faces (subject of interest) are arranged substantially horizontally”, and the gender of the subject of interest (analysis result G) is “two men and one woman” Subject age (analysis result F) is “2 adults, 1 child”, subject combination (analysis result H) is “father, child, mother”, date / period (analysis result A) is “October” It becomes. The analysis results A to I are compared with the analysis results set for the photographing composition pattern recorded in the storage recording device 14C.

解析結果同士の比較の結果、図7(c)に示す撮影構図パターン102A、102B、102Bを含む撮影構図セットを選択することができる。撮影構図パターン102Aの解析結果は図8(b)のようになっており、撮影構図パターン102Bの解析結果は図8(c)のようになっており、撮影構図パターン102Cの解析結果は図8(d)のようになっている。撮影構図パターン102A、102B、102Cの解析結果として日付・期間(解析結果A)は設定されていないので、ライブビュー画像100から得た解析結果Aとの比較は行われない。なお、撮影構図パターンの解析結果は、解析結果A〜Iのうち、少なくとも注目被写体の数(解析結果D)が含まれていれば良い。   As a result of comparison between the analysis results, a shooting composition set including the shooting composition patterns 102A, 102B, and 102B shown in FIG. 7C can be selected. The analysis result of the shooting composition pattern 102A is as shown in FIG. 8B, the analysis result of the shooting composition pattern 102B is as shown in FIG. 8C, and the analysis result of the shooting composition pattern 102C is FIG. It is like (d). Since the date / period (analysis result A) is not set as the analysis result of the photographing composition patterns 102A, 102B, and 102C, comparison with the analysis result A obtained from the live view image 100 is not performed. The analysis result of the photographic composition pattern only needs to include at least the number of the subject of interest (analysis result D) among the analysis results A to I.

ライブビュー画像100から得た解析結果と撮影構図パターン102Aの解析結果との比較結果は、図8(b)に示すようになり、注目被写体の組み合わせ(解析結果H)以外は、完全一致(◎)する。ライブビュー画像100から得た解析結果と撮影構図パターン102Bの解析結果との比較結果は、図8(c)に示すようになり、注目被写体の位置関係(解析結果I)が略不一致(△)であり、注目被写体の組み合わせ(解析結果H)が略一致(○)であることを除いて、完全一致(◎)する。ライブビュー画像100から得た解析結果と撮影構図パターン102Cの解析結果との比較結果は、図8(d)に示すようになり、撮像装置の縦横状態(解析結果B)が不一致(×)であり、注目被写体の位置関係(解析結果I)が略一致(○)であり、注目被写体の組み合わせ(解析結果H)が略一致(○)であることを除いて、完全一致(◎)となる。   The comparison result between the analysis result obtained from the live view image 100 and the analysis result of the shooting composition pattern 102A is as shown in FIG. 8B, and is completely identical except for the combination of the subject of interest (analysis result H). ) The comparison result between the analysis result obtained from the live view image 100 and the analysis result of the shooting composition pattern 102B is as shown in FIG. 8C, and the positional relationship (analysis result I) of the subject of interest is substantially inconsistent (Δ). Except for the combination of the subject of interest (analysis result H) being substantially coincident (◯), it is completely coincident (◎). The comparison result between the analysis result obtained from the live view image 100 and the analysis result of the shooting composition pattern 102C is as shown in FIG. 8D, and the vertical and horizontal states (analysis result B) of the imaging device are inconsistent (x). Yes, the positional relationship of the subject of interest (analysis result I) is substantially coincident (O), and the combination of the subject of interest (analysis result H) is substantially identical (O), and is completely identical ((). .

このような比較結果から分かるように、撮影構図パターン102A〜102Cの解析結果うち、ライブビュー画像100から得た解析結果と最も近似しているのは、図8(b)に示した撮影構図パターン102Aの解析結果である。撮影構図パターン102Aの解析結果の次に、撮影構図パターン102Bの解析結果がライブビュー画像100の解析結果と近似する。撮影構図パターン102Bの解析結果の次に、撮影構図パターン102Cの解析結果がライブビュー画像100の解析結果と近似する。従って、制御部13Aは、撮影構図パターン102Aの優先順位が最も高く、撮影構図パターン102B、撮影構図パターン102Cの順に優先順位を低く設定することができる。   As can be seen from the comparison results, among the analysis results of the photographic composition patterns 102A to 102C, the one closest to the analysis result obtained from the live view image 100 is the photographic composition pattern shown in FIG. It is an analysis result of 102A. Next to the analysis result of the shooting composition pattern 102A, the analysis result of the shooting composition pattern 102B approximates the analysis result of the live view image 100. Next to the analysis result of the photographic composition pattern 102B, the analysis result of the photographic composition pattern 102C approximates the analysis result of the live view image 100. Accordingly, the control unit 13A can set the shooting composition pattern 102A with the highest priority, and set the shooting composition pattern 102B and the shooting composition pattern 102C in descending order of priority.

このような構図選択処理を含むライブビュー画像の表示設定処理によれば、ライブビュー画像100に隣接して、3つの撮影構図パターン102A〜102Cを表示することができる。そして、移動操作部15Dの操作を制御部13Aが認識して何れかの撮影構図パターンが選択され、決定指示部15Bの操作を制御部13Aが認識すると、当該選択された撮影構図パターンの構図番号Nが決定される。   According to the display setting process of the live view image including such a composition selection process, the three shooting composition patterns 102A to 102C can be displayed adjacent to the live view image 100. Then, when the control unit 13A recognizes the operation of the moving operation unit 15D and any shooting composition pattern is selected, and the control unit 13A recognizes the operation of the determination instruction unit 15B, the composition number of the selected shooting composition pattern. N is determined.

その後、撮像装置は、例えば、決定された構図番号Nの撮影構図パターンをライブビュー画像100に重畳表示する処理、音出力部22からカメラ方向やズームの案内音声を出力する処理を行う。これにより、ライブビュー画像100を撮影構図パターンに近づけさせることができる。   Thereafter, the imaging apparatus performs, for example, a process of superimposing and displaying the shooting composition pattern of the determined composition number N on the live view image 100 and a process of outputting the camera direction and zoom guidance voice from the sound output unit 22. Thereby, the live view image 100 can be brought close to the shooting composition pattern.

他の具体例を図9に示す。図9(a)に示すライブビュー画像100は、入学式での小学生を撮像する時のものを示している。   Another specific example is shown in FIG. A live view image 100 shown in FIG. 9A shows an image when an elementary school student is imaged at an entrance ceremony.

図9(a)に示すライブビュー画像100に対してパターンマッチングを行うと、図9(b)に示すように人物の顔部分を検出することができ、当該顔部分が注目被写体と認識される。そして、制御部13Aは、注目被写体の抽出後に当該注目被写体の解析処理を行い、図10(a)に示す解析結果A〜Iを得ることができる。   When pattern matching is performed on the live view image 100 shown in FIG. 9A, the face portion of a person can be detected as shown in FIG. 9B, and the face portion is recognized as the subject of interest. . Then, the control unit 13A can perform analysis processing on the target subject after extracting the target subject, and obtain analysis results A to I shown in FIG.

ライブビュー画像100の解析結果は、図10(a)のようになり、注目被写体の数(解析結果D)は「1人」、注目被写体の大きさ(解析結果C)は「中サイズ1人」、撮像装置の姿勢(解析結果B)は「横」、注目被写体の登場人物が登録人物として登録されているか否か(解析結果E)は「子供」が登録されている、注目被写体の位置関係(解析結果I)は「右上に位置」、注目被写体の性別(解析結果G)は「男1人」、注目被写体の年齢(解析結果F)は「子供1人」、注目被写体の組み合わせ(解析結果H)は「上記のように子供1人」、日付・期間(解析結果A)は「4月上旬」となる。そして、この解析結果A〜Iは、保存記録装置14Cに記録された撮影構図パターンについて設定されている解析結果とを比較とされる。   The analysis result of the live view image 100 is as shown in FIG. 10A. The number of the subject of interest (analysis result D) is “one”, and the size of the subject of interest (analysis result C) is “medium size one person”. The orientation of the imaging device (analysis result B) is “horizontal”, and whether the character of the subject of interest is registered as a registered person (analysis result E) is the position of the subject of interest where “child” is registered. The relationship (analysis result I) is “position on the upper right”, the gender of the subject of interest (analysis result G) is “one man”, the age of the subject of interest (analysis result F) is “one child”, and the combination of the subject of interest ( The analysis result H) is “one child as described above”, and the date / period (analysis result A) is “early April”. The analysis results A to I are compared with the analysis results set for the photographing composition pattern recorded in the storage recording device 14C.

解析結果同士の比較の結果、図9(b)に示す撮影構図パターン102A、102B、102Bを含む撮影構図セットを選択することができる。撮影構図パターン102Aの解析結果は図10(b)のようになっており、撮影構図パターン102Bの解析結果は図10(c)のようになっており、撮影構図パターン102Cの解析結果は図10(d)のようになっている。なお、撮影構図パターンの解析結果は、解析結果A〜Iは、少なくとも注目被写体の数(解析結果D)が含まれていれば良い。   As a result of the comparison between the analysis results, a shooting composition set including the shooting composition patterns 102A, 102B, and 102B shown in FIG. 9B can be selected. The analysis result of the shooting composition pattern 102A is as shown in FIG. 10B, the analysis result of the shooting composition pattern 102B is as shown in FIG. 10C, and the analysis result of the shooting composition pattern 102C is as shown in FIG. It is like (d). It should be noted that the analysis result of the photographic composition pattern only needs to include at least the number of subjects of interest (analysis result D) in the analysis results A to I.

ライブビュー画像100から得た解析結果と撮影構図パターン102Aの解析結果との比較結果は、図10(b)に示すようになる。ライブビュー画像100から得た解析結果と撮影構図パターン102Bの解析結果との比較結果は、図10(c)に示すようになる。ライブビュー画像100から得た解析結果と撮影構図パターン102Cの解析結果との比較結果は、図10(d)に示すようになる。   FIG. 10B shows a comparison result between the analysis result obtained from the live view image 100 and the analysis result of the shooting composition pattern 102A. FIG. 10C shows a comparison result between the analysis result obtained from the live view image 100 and the analysis result of the shooting composition pattern 102B. FIG. 10D shows a comparison result between the analysis result obtained from the live view image 100 and the analysis result of the shooting composition pattern 102C.

このような比較結果から分かるように、撮影構図パターン102A〜102Cの解析結果うち、ライブビュー画像100から得た解析結果と最も近似しているのは、撮影構図パターン102Aの解析結果である。従って、制御部13Aは、撮影構図パターン102Aの優先順位が最も高く、撮影構図パターン102B、撮影構図パターン102Cの順に優先順位を低く設定することができる。特に、撮像装置は、現在の時期に合致した入学式シーズン用の撮影構図パターンを選択することができる。   As can be seen from the comparison results, among the analysis results of the shooting composition patterns 102A to 102C, the analysis result of the shooting composition pattern 102A is closest to the analysis result obtained from the live view image 100. Accordingly, the control unit 13A can set the shooting composition pattern 102A with the highest priority, and set the shooting composition pattern 102B and the shooting composition pattern 102C in descending order of priority. In particular, the imaging apparatus can select a shooting composition pattern for the entrance ceremony that matches the current time.

このような構図選択処理を含むライブビュー画像の表示設定処理によれば、注目被写体の数が「1人」であっても、現在の時期、登録人物などの他の解析結果を組み合わせて、好ましい撮影構図パターンを提示することができる。   According to the display setting process of the live view image including such a composition selection process, it is preferable to combine other analysis results such as the current time and the registered person even if the number of the subject of interest is “one person”. A shooting composition pattern can be presented.

更に他の具体例を図11に示す。図11に示すライブビュー画像100は、多数の人物が一列に並んだ様子を撮像したものである。   Yet another specific example is shown in FIG. A live view image 100 shown in FIG. 11 is an image of a large number of persons arranged in a line.

このようなライブビュー画像100に対してパターンマッチングを行うことにより、図11(a)に示すような略直線状に並んで注目被写体としての人物の顔部分を抽出することができる。このような注目被写体に対して解析処理を行うことにより、制御部13Aは、注目被写体の数(解析結果D)が多数である解析結果、注目被写体の位置関係(I)が一列である解析結果を得ることができる。   By performing pattern matching on such a live view image 100, it is possible to extract the face portion of the person as the subject of interest arranged in a substantially straight line as shown in FIG. By performing the analysis process on such a subject of interest, the control unit 13A causes the analysis result that the number of subjects of interest (analysis result D) is large, and the analysis result that the positional relationship (I) of the subject of interest is in a line. Can be obtained.

このような解析結果に対し、制御部13Aは、注目被写体の位置関係を表す撮影構図パターンを保存記録装置14Cから読み出す。そして、各注目被写体の位置関係を表す撮影構図パターンと、ライブビュー画像100から得た解析結果との比較を行う。その結果、図11(b)に示すように、多数の注目被写体の位置関係を表す撮影構図パターン102A〜102Cとして表示することができる。   In response to such an analysis result, the control unit 13A reads out an imaging composition pattern representing the positional relationship of the subject of interest from the storage recording device 14C. Then, the shooting composition pattern representing the positional relationship of each target subject is compared with the analysis result obtained from the live view image 100. As a result, as shown in FIG. 11 (b), it can be displayed as shooting composition patterns 102A to 102C representing the positional relationship among a number of subjects of interest.

このような構図選択処理を含むライブビュー画像の表示設定処理によれば、注目被写体の数が「多数」であっても、当該注目被写体の位置関係のうちで好ましい撮影構図パターンを提示することができる。   According to the display setting process of the live view image including such a composition selection process, a preferable shooting composition pattern can be presented in the positional relationship of the subject of interest even if the number of subjects of interest is “many”. it can.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

11 撮像光学系
12 撮像部
13 情報処理領域
13A 制御部
13B 画像圧縮部
13C 撮像処理部
14 記録領域
14A 外部記録装着部
14B 外部記録装置
14C 保存記録装置
14D 一時記録装置
15 操作入力領域
15A 撮像指示部
15B 決定指示部
15C モード設定部
15D 移動操作部
15E メニュー操作部
15F 電源操作部
16 メイン表示制御部
17 メイン表示部
18 メインタッチパネル
19 姿勢検出部
20 計時部
21 音処理部
22 音出力部
100 ライブビュー画像
101 注目被写体枠
102A〜102C 撮影構図パターン
DESCRIPTION OF SYMBOLS 11 Imaging optical system 12 Imaging part 13 Information processing area 13A Control part 13B Image compression part 13C Imaging processing part 14 Recording area 14A External recording mounting part 14B External recording apparatus 14C Storage recording apparatus 14D Temporary recording apparatus 15 Operation input area 15A Imaging instruction part 15B Determination instruction unit 15C Mode setting unit 15D Movement operation unit 15E Menu operation unit 15F Power supply operation unit 16 Main display control unit 17 Main display unit 18 Main touch panel 19 Posture detection unit 20 Timing unit 21 Sound processing unit 22 Sound output unit 100 Live view Image 101 Attention subject frame 102A-102C Shooting composition pattern

Claims (7)

撮影画像を取得する画像取得手段と、
当該画像取得手段によって取得された撮影画像に含まれている注目被写体を検出する被写体検出手段と、
当該被写体検出手段により検出された注目被写体の数を計数する計数手段と、
複数の構図を記録した構図記録手段と、
前記計数手段によって計数された注目被写体の数に基づいて、前記構図記録手段に記録された複数の構図のうち前記撮像画像全体を記録するための構図を選択する構図選択手段と、
を備えることを特徴とする構図選択装置。
Image acquisition means for acquiring a captured image;
Subject detection means for detecting a subject of interest included in the captured image acquired by the image acquisition means;
Counting means for counting the number of objects of interest detected by the subject detection means;
Composition recording means for recording a plurality of compositions;
Composition selecting means for selecting a composition for recording the entire captured image from a plurality of compositions recorded in the composition recording means based on the number of the subject of interest counted by the counting means;
A composition selection device comprising:
前記撮像画像に含まれている注目被写体について解析する解析手段を更に備え、
前記構図選択手段は、前記計数手段によって計数された注目被写体の数に加え、前記解析手段による解析結果に基づいて構図を選択することを特徴とする請求項1に記載の構図選択装置。
Further comprising an analysis means for analyzing the subject of interest included in the captured image;
2. The composition selection apparatus according to claim 1, wherein the composition selection unit selects a composition based on an analysis result by the analysis unit in addition to the number of objects of interest counted by the counting unit.
前記撮像画像に含まれている注目被写体の解析方法を複数種記憶する解析方法記憶手段と、
当該解析方法記憶手段に記憶される複数種の解析方法から前記解析手段が行うべき解析方法を所定数選択する解析方法選択手段と、
を更に備え、
前記解析手段は、前記解析方法選択手段によって選択された解析方法で前記注目被写体について解析することを特徴とする請求項2に記載の構図選択装置。
Analysis method storage means for storing a plurality of types of analysis methods for the subject of interest included in the captured image;
Analysis method selection means for selecting a predetermined number of analysis methods to be performed by the analysis means from a plurality of types of analysis methods stored in the analysis method storage means;
Further comprising
The composition selecting apparatus according to claim 2, wherein the analyzing unit analyzes the subject of interest by an analyzing method selected by the analyzing method selecting unit.
前記解析方法には、現在日時又は季節に基づく解析、当該撮像装置の縦横姿勢に基づく解析、前記撮像画像に対する各注目被写体の大きさに基づく解析、各注目被写体が登録されているか否かの解析、各注目被写体の年齢に基づく解析、各注目被写体の性別に基づく解析、全注目被写体同士の組み合わせに基づく解析、全注目被写体の位置関係に基づく解析が含まれることを特徴とする請求項3に記載の構図選択装置。   The analysis method includes analysis based on the current date and time or season, analysis based on the vertical and horizontal postures of the imaging device, analysis based on the size of each target subject with respect to the captured image, and analysis of whether each target subject is registered. 4. An analysis based on the age of each target subject, an analysis based on the gender of each target subject, an analysis based on a combination of all target subjects, and an analysis based on the positional relationship of all target subjects. The composition selecting device described. 顔部分を認識する認識手段を更に備え、
前記計数手段は、前記認識手段によって認識された顔部分の数を前記注目被写体の数として計数することを特徴とする請求項1乃至請求項4の何れか一項に記載の構図選択装置。
It further comprises a recognition means for recognizing the face part,
5. The composition selection device according to claim 1, wherein the counting unit counts the number of face portions recognized by the recognition unit as the number of the subject of interest. 6.
前記構図選択手段によって選択される構図の数を設定する設定手段を更に備えることを特徴とする請求項1乃至請求項5の何れか一項に記載の構図選択装置。   6. The composition selection apparatus according to claim 1, further comprising setting means for setting the number of compositions selected by the composition selection means. 予め複数の構図を記録したメモリを有するコンピュータを、
撮影画像を取得する画像取得手段、
当該画像取得手段によって取得された撮影画像に含まれている注目被写体を検出する被写体検出手段、
当該被写体検出手段により検出された注目被写体の数を計数する計数手段、
当該計数手段によって計数された注目被写体の数に基づいて、前記メモリに記録された複数の構図のうち前記撮像画像全体を記録するための構図を選択する構図選択手段、
として機能させることを特徴とするプログラム。
A computer having a memory in which a plurality of compositions are recorded in advance.
Image acquisition means for acquiring a captured image;
Subject detection means for detecting a target subject included in the captured image acquired by the image acquisition means;
Counting means for counting the number of the subject of interest detected by the subject detection means;
Composition selecting means for selecting a composition for recording the entire captured image from among a plurality of compositions recorded in the memory, based on the number of objects of interest counted by the counting means;
A program characterized by functioning as
JP2009001579A 2009-01-07 2009-01-07 Composition selection device and program Expired - Fee Related JP5206422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009001579A JP5206422B2 (en) 2009-01-07 2009-01-07 Composition selection device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009001579A JP5206422B2 (en) 2009-01-07 2009-01-07 Composition selection device and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012278810A Division JP5370577B2 (en) 2012-12-21 2012-12-21 Composition selection device and program

Publications (2)

Publication Number Publication Date
JP2010161547A true JP2010161547A (en) 2010-07-22
JP5206422B2 JP5206422B2 (en) 2013-06-12

Family

ID=42578394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009001579A Expired - Fee Related JP5206422B2 (en) 2009-01-07 2009-01-07 Composition selection device and program

Country Status (1)

Country Link
JP (1) JP5206422B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011016322A1 (en) * 2009-08-04 2011-02-10 オリンパス株式会社 Imaging device, editing device, and imaging system
KR20140089132A (en) * 2013-01-04 2014-07-14 삼성전자주식회사 Apparatus and method for taking a picture of portrait portable terminal having a camera and camera device
KR20140105313A (en) * 2013-02-22 2014-09-01 삼성전자주식회사 Apparatus and method for shooting an image in a device having a camera
WO2014155789A1 (en) * 2013-03-27 2014-10-02 オリンパス株式会社 Image pickup device, composition assist device, composition assist method, and composition assist program
JP2018081052A (en) * 2016-11-18 2018-05-24 クラリオン株式会社 On-vehicle device and information processing system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112054A (en) * 2002-09-13 2004-04-08 Fuji Photo Film Co Ltd Photographing advice camera
JP2006186413A (en) * 2004-12-24 2006-07-13 Fuji Photo Film Co Ltd Imaging system and imaging method
JP2006279252A (en) * 2005-03-28 2006-10-12 Fuji Photo Film Co Ltd Image trimming apparatus, method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112054A (en) * 2002-09-13 2004-04-08 Fuji Photo Film Co Ltd Photographing advice camera
JP2006186413A (en) * 2004-12-24 2006-07-13 Fuji Photo Film Co Ltd Imaging system and imaging method
JP2006279252A (en) * 2005-03-28 2006-10-12 Fuji Photo Film Co Ltd Image trimming apparatus, method and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011016322A1 (en) * 2009-08-04 2011-02-10 オリンパス株式会社 Imaging device, editing device, and imaging system
KR20140089132A (en) * 2013-01-04 2014-07-14 삼성전자주식회사 Apparatus and method for taking a picture of portrait portable terminal having a camera and camera device
KR102092571B1 (en) * 2013-01-04 2020-04-14 삼성전자 주식회사 Apparatus and method for taking a picture of portrait portable terminal having a camera and camera device
KR20140105313A (en) * 2013-02-22 2014-09-01 삼성전자주식회사 Apparatus and method for shooting an image in a device having a camera
KR102093647B1 (en) * 2013-02-22 2020-03-26 삼성전자 주식회사 Apparatus and method for shooting an image in a device having a camera
WO2014155789A1 (en) * 2013-03-27 2014-10-02 オリンパス株式会社 Image pickup device, composition assist device, composition assist method, and composition assist program
JP2014192743A (en) * 2013-03-27 2014-10-06 Olympus Corp Imaging device, composition assisting device, composition assisting method, and composition assisting program
CN105052123A (en) * 2013-03-27 2015-11-11 奥林巴斯株式会社 Image pickup device, composition assist device, composition assist method, and composition assist program
US9712760B2 (en) 2013-03-27 2017-07-18 Olympus Corporation Imaging apparatus, composition assisting apparatus, composition assisting method, and non-transitory storage medium storing composition assisting program
JP2018081052A (en) * 2016-11-18 2018-05-24 クラリオン株式会社 On-vehicle device and information processing system

Also Published As

Publication number Publication date
JP5206422B2 (en) 2013-06-12

Similar Documents

Publication Publication Date Title
JP4645685B2 (en) Camera, camera control program, and photographing method
JP5164327B2 (en) Imaging apparatus and program
JP4577252B2 (en) Camera, best shot shooting method, program
JP4794584B2 (en) Imaging device, image display device, and program thereof
JP5293206B2 (en) Image search apparatus, image search method and program
CN101262561B (en) Imaging apparatus and control method thereof
JP2005318554A (en) Imaging device, control method thereof, program, and storage medium
US9014475B2 (en) Image pickup apparatus and photographing method of image pickup apparatus
JP3971240B2 (en) Camera with advice function
JP5206422B2 (en) Composition selection device and program
JP5131367B2 (en) Imaging apparatus and program
JP2014068081A (en) Imaging apparatus and control method of the same, program and storage medium
JP5168320B2 (en) Camera, best shot shooting method, program
JP5370577B2 (en) Composition selection device and program
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP2013169003A (en) Facial expression database registration method, and facial expression database registration device
JP5217843B2 (en) Composition selection apparatus, composition selection method and program
JP5267645B2 (en) Imaging apparatus, imaging control method, and program
JP5170217B2 (en) Camera, camera control program, and photographing method
JP2011244214A (en) Motion picture reproducing apparatus, motion picture reproducing method and program
JP2009098850A (en) Arithmetic device and program of same
JP4911287B2 (en) Image reproducing apparatus and program thereof
JP2020061760A (en) Imaging apparatus
JP2009088749A (en) Imaging apparatus, image photographing method by scenario, and program
JP5967422B2 (en) Imaging apparatus, imaging processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5206422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees