JP2008219451A - Imaging device and control method thereof - Google Patents

Imaging device and control method thereof Download PDF

Info

Publication number
JP2008219451A
JP2008219451A JP2007053646A JP2007053646A JP2008219451A JP 2008219451 A JP2008219451 A JP 2008219451A JP 2007053646 A JP2007053646 A JP 2007053646A JP 2007053646 A JP2007053646 A JP 2007053646A JP 2008219451 A JP2008219451 A JP 2008219451A
Authority
JP
Japan
Prior art keywords
person
image data
unit
composition
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007053646A
Other languages
Japanese (ja)
Other versions
JP2008219451A5 (en
Inventor
Makoto Oishi
誠 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007053646A priority Critical patent/JP2008219451A/en
Priority to US12/073,234 priority patent/US7995106B2/en
Priority to CN2008100825795A priority patent/CN101262561B/en
Priority to KR1020080020650A priority patent/KR100924685B1/en
Publication of JP2008219451A publication Critical patent/JP2008219451A/en
Publication of JP2008219451A5 publication Critical patent/JP2008219451A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital camera for easily taking a picture with a favorable composition. <P>SOLUTION: The digital camera 1 is provided with a person extracting means 41, a non-person extracting means 42, a composition deciding means 44, and a composition guide means 45. The person extracting means 41 analyzes image data to extract an image area representing a person. The non-person extracting means 42 analyzes an image area other than the image area extracted by the person extracting means 41 to extract a main subject other than the person. The composition deciding means 44 evaluates the arrangement of the person and a main subject other than the person based upon the extraction result to decide whether the composition is favorable. The composition guide means 45 determines an arrangement meeting predetermined conditions of the person and the main subject. The operation of an imaging means is controlled so as to generate image data including the person and the main subject in the determined arrangement. Alternately, the image data are processed so that the person and the main subject are in the determined arrangement. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮影中の画像の構図に基づいて撮影制御を行う撮像装置と、その撮像装置の制御方法に関する。   The present invention relates to an imaging apparatus that performs imaging control based on the composition of an image being shot, and a control method for the imaging apparatus.

デジタルカメラは、通常、撮影モードに設定されるとすぐに画像の撮影を開始する。そして、シャッタレリーズボタンが押されたときに、そのとき撮影していた画像をメモリカードに記録する。シャッタレリーズボタンが押される以前に撮影された画像はモニタに表示される一方、ピントあわせ、露出調整などの撮影制御にも用いられる。また、この画像を使って画像データを記録するタイミングを制御することにより、シャッタレリーズボタンの操作を不要にする試みもなされている。例えば、特許文献1には、人物撮影において、その人物の顔の向きを認識し、人物が所定の方向を向いたか否かを判定し、その判定結果に応じて記録動作を制御するカメラが開示されている。また、特許文献2には、撮影した情景の構図を解析し、構図に応じて撮影条件を設定するカメラが開示されている。さらに、特許文献3には、撮影中の画像の所定部分に着目し、その部分が変化したときにシャッタを動作させる撮像装置が開示されている。
特開2001−051338号公報 特開2006−203346号公報 特開2000−196934号公報
A digital camera normally starts taking an image as soon as it is set to a shooting mode. Then, when the shutter release button is pressed, the image taken at that time is recorded on the memory card. An image shot before the shutter release button is pressed is displayed on the monitor, and is also used for shooting control such as focusing and exposure adjustment. Attempts have also been made to eliminate the operation of the shutter release button by controlling the timing of recording image data using this image. For example, Patent Document 1 discloses a camera that recognizes the orientation of a person's face in person shooting, determines whether or not the person faces a predetermined direction, and controls the recording operation according to the determination result. Has been. Patent Document 2 discloses a camera that analyzes the composition of a photographed scene and sets photographing conditions according to the composition. Further, Patent Document 3 discloses an imaging device that focuses on a predetermined portion of an image being shot and operates the shutter when the portion changes.
Japanese Patent Laid-Open No. 2001-051338 JP 2006-203346 A JP 2000-196934 A

デジタルカメラのAE(Auto Exposure)、AF(Auto Focus)機能は年々向上しており、最近は、カメラの操作に不慣れな者でも、鮮明で明るく色合いのよい写真を撮れるようになってきた。しかし、カメラをどのように構え、どのタイミングでシャッタレリーズボタンを押すかは、未だ撮影者の技量に依存するところが大きい。このため、構図の良い写真を撮ることは、初心者にとっては依然として難しい状況にある。例えば、特許文献1には1人の人物を撮影するときの制御方法は示されているものの、複数の人物の撮影や人物以外の対象を撮影するときの制御方法は示されていない。特許文献2のカメラは人物の顔以外に空を検出し、さらには被写体像の傾きを検出して制御を行うことを提案しているが、顔や空以外の対象を撮影するときの具体的な制御方法は示されていない。特許文献3の撮像装置も、ユーザが指定した所定の部分にのみ着目した制御を行うのみであり、画像全体の構図を考えた制御は行っていない。   The AE (Auto Exposure) and AF (Auto Focus) functions of digital cameras have been improving year by year, and recently, even those who are not familiar with camera operations can take clear, bright and well-colored photographs. However, how to hold the camera and when to press the shutter release button still largely depends on the skill of the photographer. For this reason, it is still difficult for beginners to take pictures with good composition. For example, Patent Document 1 shows a control method for shooting one person, but does not show a control method for shooting a plurality of persons or a target other than a person. The camera of Patent Document 2 proposes to perform control by detecting the sky other than the face of a person and further detecting the inclination of the subject image. The correct control method is not shown. The imaging apparatus of Patent Document 3 also performs control only focusing on a predetermined portion designated by the user, and does not perform control considering the composition of the entire image.

本発明は、上記事情に鑑みて、初心者でも簡単に、構図の良い写真を撮ることができる撮像装置を提供することを目的とする。   In view of the above circumstances, an object of the present invention is to provide an imaging apparatus that allows even a beginner to easily take a photograph with a good composition.

本発明は、上記目的を達成するために、2種類の撮像装置を提供する。これらの撮像装置は、いずれも、情景を撮影し、その情景を表す画像データを生成する撮像手段と、撮像手段により生成された画像データを所定の記録媒体に記録する記録手段とを備えており、次に説明する人物抽出手段、非人物抽出手段、構図判定手段および構図提案手段を備える。   In order to achieve the above object, the present invention provides two types of imaging devices. Each of these imaging apparatuses includes an imaging unit that captures a scene and generates image data representing the scene, and a recording unit that records the image data generated by the imaging unit on a predetermined recording medium. A person extracting unit, a non-person extracting unit, a composition determining unit, and a composition proposing unit described below are provided.

人物抽出手段は、撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出する。例えば、画像データに含まれる顔を探索し、抽出結果として、その探索により検出された顔の数、各顔の位置および各顔の大きさを示す情報を出力するものとする。この場合、探索により検出された顔の表情を識別し、識別された表情を示す情報を、さらに出力するようにしてもよい。また、画像データに含まれる人物のジェスチャーを識別し、抽出結果として、識別されたジェスチャーを示す情報を出力するものとしてもよい。   The person extracting unit extracts an image area representing the person by analyzing the image data generated by the imaging unit. For example, a face included in image data is searched, and information indicating the number of faces detected by the search, the position of each face, and the size of each face is output as an extraction result. In this case, the facial expression detected by the search may be identified, and information indicating the identified facial expression may be further output. Moreover, it is good also as what identifies the gesture of the person contained in image data, and outputs the information which shows the identified gesture as an extraction result.

非人物抽出手段は、撮像手段により生成された画像データの、人物抽出手段により抽出された画像領域以外の画像領域を解析して、人物以外の主要被写体を抽出する。例えば、画像データに対しハイパスフィルタを用いたフィルタリング処理を施すことにより、主要被写体を抽出するものとする。あるいは、前記画像データに含まれる対象の中から予め登録された所定の対象を識別することにより、その対象を主要被写体として抽出するものとしてもよい。さらには、これらの方法を両方とも用いて主要被写体を抽出するものとしてもよい。   The non-person extracting unit analyzes an image area other than the image area extracted by the person extracting unit of the image data generated by the imaging unit, and extracts a main subject other than the person. For example, the main subject is extracted by performing a filtering process using a high-pass filter on the image data. Alternatively, by identifying a predetermined target registered in advance from the targets included in the image data, the target may be extracted as the main subject. Furthermore, the main subject may be extracted using both of these methods.

構図判定手段は、人物抽出手段および非人物抽出手段の抽出結果に基づいて、人物および人物以外の主要被写体の配置が所定の条件を満たすか否か評価し、その配置の評価に基づいて前記画像データの構図の良否を判定する。また、構図提案手段は、人物抽出手段および非人物抽出手段の抽出結果を利用して、人物および主要被写体の所定の条件を満たす配置を決定する。   The composition determination unit evaluates whether the arrangement of the main subject other than the person and the person satisfies a predetermined condition based on the extraction results of the person extraction unit and the non-person extraction unit, and the image based on the evaluation of the arrangement Judge the quality of the data composition. Further, the composition proposing means determines an arrangement satisfying a predetermined condition of the person and the main subject using the extraction results of the person extracting means and the non-person extracting means.

本発明の第1の撮像装置は、上記撮像手段、記録手段、人物抽出手段、非人物抽出手段、構図判定手段および構図提案手段に加え、構図提案手段により決定された配置で人物および主要被写体が配置された画像データが生成されるように、撮像手段の動作を制御する撮像制御手段を備える。本発明の第1の撮像装置によれば、撮影された画像の構図が悪いときには、その後の撮像手段の動作が変更され(例えば撮影倍率などが変更され)、自動的に構図が改善される。   The first image pickup apparatus of the present invention includes a person and a main subject in an arrangement determined by the composition proposal means in addition to the image pickup means, recording means, person extraction means, non-person extraction means, composition determination means and composition proposal means. Imaging control means for controlling the operation of the imaging means is provided so that the arranged image data is generated. According to the first imaging apparatus of the present invention, when the composition of the captured image is poor, the operation of the subsequent imaging means is changed (for example, the imaging magnification is changed), and the composition is automatically improved.

本発明の第2の撮像装置は、上記第1の撮像装置の撮像制御手段に代えて、人物および主要被写体の配置が構図提案手段により決定された配置となるように、画像データに対し画像処理を施す画像処理手段を備える。本発明の第2の撮像装置によれば、撮影された画像の構図が悪いときには、画像処理により構図の良い画像が自動的に生成され、構図が改善される。   The second image pickup apparatus of the present invention performs image processing on image data so that the arrangement of the person and the main subject is determined by the composition proposing means instead of the image pickup control means of the first image pickup apparatus. Image processing means for applying According to the second imaging device of the present invention, when the composition of the captured image is poor, an image with a good composition is automatically generated by image processing, and the composition is improved.

本発明の第1および第2の装置は、構図判定手段の判定結果に基づいて画像データを記録するタイミングを決定し、決定したタイミングで画像データが記録されるように記録手段を制御する記録制御手段を備えるものとしてもよい。この記録制御手段を備えた構成では、構図の良い画像を取得できた時点で自動的に画像データの記録が行われるので、撮影者の技量に拘らず常に構図の良い画像を取得することができる。   The first and second apparatuses of the present invention determine recording timing for recording image data based on the determination result of the composition determination unit, and control the recording unit so that the image data is recorded at the determined timing. Means may be provided. In the configuration provided with this recording control means, image data is automatically recorded when an image with a good composition can be obtained, so that an image with a good composition can always be obtained regardless of the skill of the photographer. .

あるいは、上記記録制御手段に代えて、構図判定手段の判定結果に基づいて画像データを記録するタイミングを決定し、決定したタイミングの到来を報知する報知手段を備えるものとしてもよい。報知手段を備えた構成では、撮影者は、構図の良い画像が撮影されたタイミングを知ることができる。よって、報知されたタイミングでシャッタレリーズボタンを押下することで、簡単に構図の良い画像を取得することができる。   Alternatively, instead of the recording control unit, a notification unit that determines the timing of recording image data based on the determination result of the composition determination unit and notifies the arrival of the determined timing may be provided. With the configuration provided with the notification means, the photographer can know the timing at which an image with a good composition was captured. Therefore, by pressing the shutter release button at the notified timing, an image with a good composition can be easily acquired.

また、記録手段は、人物抽出手段および非人物抽出手段の抽出結果を、画像データとともに記録媒体に記録することが好ましい。これにより、記録媒体に記録された画像データをパソコンなどで編集するときに、それらの抽出結果を利用した編集を行うことができる。   The recording means preferably records the extraction results of the person extracting means and the non-person extracting means on a recording medium together with the image data. Thereby, when the image data recorded on the recording medium is edited with a personal computer or the like, editing using the extraction result can be performed.

なお、第1の撮像装置、第2の撮像装置とも、上記手段に加え、入力された音声を解析することにより音声に係る所定の特徴を検出する音声解析手段をさらに備えていてもよい。例えば、音声の特徴として、所定の音量変化、所定の音声フレーズ、所定の人物の声の特徴として予め登録された特徴などを検出する。この場合、構図判定手段は、音声解析手段により検出された音声の特徴と前述した配置の評価とに基づいて、画像データの構図の良否を判定する。また、この場合、記録手段は、人物抽出手段および非人物抽出手段の抽出結果および音声解析手段の検出結果を、画像データとともに記録媒体に記録することが好ましい。構図の良否を判定するにあたり音声をも考慮することで、より適切なタイミングで画像データを記録することができる。   In addition to the above means, both the first imaging device and the second imaging device may further include voice analysis means for detecting a predetermined feature related to the voice by analyzing the input voice. For example, as a voice feature, a predetermined volume change, a predetermined voice phrase, a feature registered in advance as a voice feature of a predetermined person, and the like are detected. In this case, the composition determination means determines the quality of the composition of the image data based on the characteristics of the sound detected by the sound analysis means and the above-described evaluation of the arrangement. In this case, it is preferable that the recording unit records the extraction results of the person extraction unit and the non-person extraction unit and the detection result of the sound analysis unit together with the image data on a recording medium. Image data can be recorded at a more appropriate timing by considering the sound when determining the quality of the composition.

本発明の第1の制御方法は、撮像装置を次の手順で制御することにより上記第1の撮像装置として動作させる方法である。まず、撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出する。次に、撮像手段により生成された画像データの、人物を表す画像領域以外の画像領域を解析することにより、人物以外の主要被写体を抽出する。続いて、抽出された人物および主要被写体の配置が所定の条件を満たすか否か評価し、その配置の評価に基づいて画像データの構図の良否を判定する。そして、抽出された人物および主要被写体の前記所定の条件を満たす配置を決定し、決定された配置で人物および主要被写体が配置された画像データが生成されるように、撮像手段の動作を制御する。   The first control method of the present invention is a method of operating as the first imaging device by controlling the imaging device according to the following procedure. First, an image region representing a person is extracted by analyzing the image data generated by the imaging means. Next, the main subject other than the person is extracted by analyzing the image area other than the image area representing the person in the image data generated by the imaging means. Subsequently, it is evaluated whether or not the arrangement of the extracted person and main subject satisfies a predetermined condition, and the quality of the composition of the image data is determined based on the evaluation of the arrangement. Then, the arrangement of the extracted person and the main subject that satisfies the predetermined condition is determined, and the operation of the imaging unit is controlled so that image data in which the person and the main subject are arranged in the determined arrangement is generated. .

本発明の第2の制御方法は、撮像装置を次の手順で制御することにより上記第2の撮像装置として動作させる方法である。まず、撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出する。次に、撮像手段により生成された画像データの、人物を表す画像領域以外の画像領域を解析することにより、人物以外の主要被写体を抽出する。続いて、抽出された人物および人物以外の主要被写体の配置が所定の条件を満たすか否か評価し、前記配置の評価に基づいて前記画像データの構図の良否を判定する。そして、抽出された人物および主要被写体の前記所定の条件を満たす配置を決定し、人物および人物以外の主要被写体の配置が決定された配置となるように、前記画像データに対し画像処理を施す。   The second control method of the present invention is a method of operating as the second imaging device by controlling the imaging device according to the following procedure. First, an image region representing a person is extracted by analyzing the image data generated by the imaging means. Next, the main subject other than the person is extracted by analyzing the image area other than the image area representing the person in the image data generated by the imaging means. Subsequently, it is evaluated whether or not the extracted person and the arrangement of main subjects other than the person satisfy a predetermined condition, and the quality of the composition of the image data is determined based on the evaluation of the arrangement. Then, an arrangement that satisfies the predetermined condition for the extracted person and main subject is determined, and image processing is performed on the image data so that the arrangement of the main subject other than the person and the person is determined.

以下、本発明の方法および装置の一実施形態として、第1の制御方法および第2の制御方法を用いて制御を行うデジタルカメラを開示する。このデジタルカメラは、通常撮影モード、画像再生モード、自動撮影モードおよび撮影アシストモードの4つの動作モードを有する。但し、本発明の2つの装置および制御方法は、いずれも独立して実施することが可能であり、以下に示す実施形態に限定されるものではない。   Hereinafter, a digital camera that performs control using a first control method and a second control method is disclosed as an embodiment of the method and apparatus of the present invention. This digital camera has four operation modes: a normal shooting mode, an image reproduction mode, an automatic shooting mode, and a shooting assist mode. However, the two apparatuses and the control method of the present invention can be implemented independently, and are not limited to the embodiments described below.

はじめにデジタルカメラの構成について説明する。図1Aおよび図1Bは、デジタルカメラ1の外観を示す図であり、図1Aはデジタルカメラの正面を、図1Bは背面を示している。これらの図に示すように、デジタルカメラ1は、撮像レンズ2、シャッタレリーズボタン3、マイク4、操作ダイヤルあるいはボタン5a〜5f、モニタ6、LEDランプ9を備えている。また、デジタルカメラ1の下部には、スピーカ8と開閉可能なスロットカバーがあり(図示せず)、スロットカバーの中にはメモリカード7を装填するカードスロットが備えられている。   First, the configuration of the digital camera will be described. 1A and 1B are views showing the appearance of the digital camera 1. FIG. 1A shows the front of the digital camera, and FIG. 1B shows the back. As shown in these drawings, the digital camera 1 includes an imaging lens 2, a shutter release button 3, a microphone 4, an operation dial or buttons 5a to 5f, a monitor 6, and an LED lamp 9. Further, at the lower part of the digital camera 1, there is a slot cover (not shown) that can be opened and closed with a speaker 8, and a card slot into which a memory card 7 is loaded is provided in the slot cover.

図2は、デジタルカメラ1の内部構成を示す図である。この図に示すように、デジタルカメラ1は、撮像レンズ2、レンズ駆動部16、絞り13、絞り駆動部17、CCD14およびタイミングジェネレータ(TG)18からなる撮像部を備える。撮像レンズ2は、被写体にピントを合わせるためのフォーカスレンズ、ズーム機能を実現するためのズームレンズなど複数の機能別レンズにより構成される。レンズ駆動部16はステッピングモータなど小型のモータで、CCD14から各機能別レンズのまでの距離が目的に適った距離となるように各機能別レンズの位置を調整する。絞り13は複数の絞り羽根からなる。絞り駆動部17は、ステッピングモータなど小型のモータで、絞りの開口サイズが目的に適ったサイズになるように絞り羽根の位置を調整する。CCD14は原色カラーフィルタを伴う500〜1200万画素のCCDで、タイミングジェネレータ18からの指示信号に応じて蓄積された電荷を放出する。タイミングジェネレータ18は、CCD14に所望の時間のみ電荷が蓄積されるようにCCD14に対して信号を送り、これによりシャッタ速度を調整する。   FIG. 2 is a diagram illustrating an internal configuration of the digital camera 1. As shown in this figure, the digital camera 1 includes an imaging unit including an imaging lens 2, a lens driving unit 16, a diaphragm 13, a diaphragm driving unit 17, a CCD 14, and a timing generator (TG) 18. The imaging lens 2 includes a plurality of functional lenses such as a focus lens for focusing on a subject and a zoom lens for realizing a zoom function. The lens driving unit 16 is a small motor such as a stepping motor, and adjusts the position of each functional lens so that the distance from the CCD 14 to each functional lens is a suitable distance for the purpose. The diaphragm 13 is composed of a plurality of diaphragm blades. The aperture drive unit 17 is a small motor such as a stepping motor, and adjusts the position of the aperture blades so that the aperture size of the aperture becomes a size suitable for the purpose. The CCD 14 is a CCD having 5 to 12 million pixels with a primary color filter, and discharges accumulated charges in response to an instruction signal from the timing generator 18. The timing generator 18 sends a signal to the CCD 14 so that charges are accumulated in the CCD 14 only for a desired time, thereby adjusting the shutter speed.

また、デジタルカメラ1は、CCD14の出力信号をデジタル信号に変換するA/D変換部15と、A/D変換部15が出力した画像データをシステムバス24を介して他の処理部に転送する画像入力制御部23と、画像入力制御部23から転送された画像データを一時記憶するメモリ22を備える。   The digital camera 1 also transfers an A / D conversion unit 15 that converts the output signal of the CCD 14 into a digital signal, and image data output from the A / D conversion unit 15 to another processing unit via the system bus 24. An image input control unit 23 and a memory 22 for temporarily storing image data transferred from the image input control unit 23 are provided.

また、デジタルカメラ1は、レンズ駆動部16にレンズの移動を指示して焦点合わせを行う焦点調節部20と、絞り値とシャッタ速度を決定し、絞り駆動部17とタイミングジェネレータ18に指示信号を送出する露出調整部21を備える。また、デジタルカメラ1は、メモリ22に記憶されている画像データに対して画像処理を施す画像処理部25を備える。画像処理部25は、画像を自然な色合い、明るさにするための色階調補正や明るさ補正、画像データが赤目を含むものであるときに赤目を黒目に修正する処理、画像の構図が悪いときに構図を修正する処理など、画像の見栄えを良くするための各種仕上げ処理を行う。画像処理部25により処理された処理済画像データは、再度メモリ22に格納される。   In addition, the digital camera 1 determines a focus adjustment unit 20 that instructs the lens driving unit 16 to move the lens and performs focusing, determines an aperture value and a shutter speed, and sends an instruction signal to the aperture driving unit 17 and the timing generator 18. An exposure adjusting unit 21 is provided. The digital camera 1 also includes an image processing unit 25 that performs image processing on the image data stored in the memory 22. The image processing unit 25 performs color tone correction and brightness correction to make an image have natural color and brightness, processing for correcting red eyes when the image data includes red eyes, and when the image composition is poor Various finishing processes are performed to improve the appearance of the image, such as a process of correcting the composition. The processed image data processed by the image processing unit 25 is stored in the memory 22 again.

また、デジタルカメラ1は、メモリ22に記憶されている画像データのモニタ6への出力を制御する表示制御部26を備える。表示制御部26は、メモリ22に記憶されている画像データの画素数を、表示に適した大きさとなるように間引きしてから液晶モニタ9に出力する。また、表示制御部26は、動作条件などの設定画面の表示も制御する。   The digital camera 1 also includes a display control unit 26 that controls output of image data stored in the memory 22 to the monitor 6. The display control unit 26 thins out the number of pixels of the image data stored in the memory 22 so as to have a size suitable for display, and then outputs it to the liquid crystal monitor 9. The display control unit 26 also controls display of setting screens such as operating conditions.

また、デジタルカメラ1は、メモリ22に記憶されている画像データのメモリカード7への書込み、およびメモリカード7に記録されている画像データのメモリ22へのロードを制御する記録読出制御部27を備える。記録読出制御部27は、ユーザの設定に応じて撮影により取得された画像データをそのまま、もしくは圧縮符号化し、Exif(Exchangeable Image File Format)ファイルとして、メモリカード7に記録する。Exifは、日本電子工業振興協会(JEIDA)が定めたファイルフォーマット規格である。また、メモリカード7に記録されている画像ファイルの再生を要求する操作が行われたときには、Exifファイルに含まれる画像データを、メモリ22にロードする。画像データが圧縮されている場合には伸長した後、メモリ22にロードする。   Further, the digital camera 1 includes a recording / reading control unit 27 that controls writing of image data stored in the memory 22 to the memory card 7 and loading of image data recorded on the memory card 7 to the memory 22. Prepare. The recording / reading control unit 27 records the image data obtained by photographing according to the user setting as it is or compression-encoded, and stores it in the memory card 7 as an Exif (Exchangeable Image File Format) file. Exif is a file format standard defined by the Japan Electronics Industry Promotion Association (JEIDA). When an operation for requesting reproduction of an image file recorded on the memory card 7 is performed, the image data included in the Exif file is loaded into the memory 22. If the image data is compressed, it is decompressed and loaded into the memory 22.

また、デジタルカメラ1は、LED9の点灯、消灯を制御するLED制御部19を備える。さらには、マイク4、スピーカ8、A/D変換部10、D/A変換部11および音声の入出力を制御する音声入出力制御部12を備える。マイク4から入力され、A/D変換部10によりデジタルデータに変換された音声データは、音声入出力制御部12によりシステムバス24を介してメモリ22に転送され、記憶される。また、各処理部または後述する全体制御部から音声入出力制御部12に供給される音声データは、D/A変換部11により変換された後、スピーカ8に出力される。   The digital camera 1 also includes an LED control unit 19 that controls lighting and extinguishing of the LEDs 9. Furthermore, a microphone 4, a speaker 8, an A / D converter 10, a D / A converter 11, and a voice input / output controller 12 that controls voice input / output are provided. Audio data input from the microphone 4 and converted into digital data by the A / D converter 10 is transferred to the memory 22 via the system bus 24 by the audio input / output controller 12 and stored therein. Also, audio data supplied from each processing unit or the overall control unit described later to the audio input / output control unit 12 is converted by the D / A conversion unit 11 and then output to the speaker 8.

また、デジタルカメラ1は、画像を取得すべきタイミングを検出するタイミング検出部28を備える。タイミング検出部28は、メモリ22に記憶されている画像データや音声データを解析し、それらのデータが所定の条件を満たすときに、画像を取得すべきタイミングが到来したことを示す信号を出力する。   The digital camera 1 also includes a timing detection unit 28 that detects the timing at which an image should be acquired. The timing detection unit 28 analyzes the image data and audio data stored in the memory 22 and outputs a signal indicating that the timing for acquiring an image has arrived when those data satisfy a predetermined condition. .

デジタルカメラ1は、この他、CPU(Central Processor Unit)31、操作/制御プログラムが格納されたRAM(Random Access Memory)32、各種設定値が記憶されているEEPROM(Electronically Erasable and Programmable Read Only Memory)33からなる全体制御部30を備える。全体制御部30のCPU31は、EEPROM33に記憶された設定値を参照し、その設定値に基づいてRAM32に記憶されているプログラムを選択、実行する。これにより、全体制御部30は、シャッタレリーズボタン3、操作ダイヤル/ボタン5a〜5fの操作を検出し、あるいは各処理部の処理結果を受けて、LED制御部19、焦点調節部20、露出調整部21、画像入力制御部23、画像処理部25、表示制御部26、記録読出制御部27、タイミング検出部28および音声入出力制御部12に対し、実行すべき処理を指示する指示信号を送出する。これにより、デジタルカメラ1の動作が制御される。   In addition, the digital camera 1 includes a CPU (Central Processor Unit) 31, a RAM (Random Access Memory) 32 in which an operation / control program is stored, and an EEPROM (Electronically Erasable and Programmable Read Only Memory) in which various setting values are stored. An overall control unit 30 is provided. The CPU 31 of the overall control unit 30 refers to the setting value stored in the EEPROM 33, and selects and executes a program stored in the RAM 32 based on the setting value. As a result, the overall control unit 30 detects the operation of the shutter release button 3 and the operation dial / buttons 5a to 5f, or receives the processing result of each processing unit, and the LED control unit 19, the focus adjustment unit 20, the exposure adjustment. An instruction signal for instructing a process to be executed is sent to the unit 21, the image input control unit 23, the image processing unit 25, the display control unit 26, the recording / reading control unit 27, the timing detection unit 28, and the voice input / output control unit 12. To do. Thereby, the operation of the digital camera 1 is controlled.

通常撮影モード、自動撮影モードおよび撮影アシストモードでは、全体制御部30の制御の下で、各処理部が、それぞれ焦点調節、露出制御、フラッシュ制御、画像処理、記録などを実行することにより画像が取得される。再生モードでは、全体制御部30の制御の下で、メモリカード7に記録されている画像がモニタ6に出力される。設定モードでは、全体制御部30の制御の下で、モニタ6に設定画面が表示され、操作ダイヤル/ボタン5a〜5fからの操作入力が受け付けられる。設定画面において、ユーザが操作ダイヤル/ボタン5a〜5fを使って選択した情報、あるいはメモリカード7から取り込まれた情報は、EEPROM33に記憶される。   In the normal shooting mode, the automatic shooting mode, and the shooting assist mode, each processing unit performs focus adjustment, exposure control, flash control, image processing, recording, and the like under the control of the overall control unit 30 to obtain an image. To be acquired. In the playback mode, an image recorded on the memory card 7 is output to the monitor 6 under the control of the overall control unit 30. In the setting mode, a setting screen is displayed on the monitor 6 under the control of the overall control unit 30, and operation inputs from the operation dial / buttons 5a to 5f are accepted. Information selected by the user using the operation dials / buttons 5 a to 5 f on the setting screen or information taken from the memory card 7 is stored in the EEPROM 33.

以下、自動撮影モードと撮影アシストモードについて、さらに説明する。図3は、自動撮影モードに設定されたときのデジタルカメラ1の動作概要を示すフローチャートである。デジタルカメラ1は、自動撮影モードに設定されると、レンズに写る情景を表す画像データの生成を開始する(S101)。そして、生成された画像データが表す画像の構図を判定し(S102)、構図が良い場合にはシャッタレリーズボタン3の操作の有無に拘らず、メモリカード7に画像を記録する(S103)。構図が悪い場合には、より良い構図を提案し(S104)、ステップS101において生成される画像データがステップS104において提案した構図となるように、撮像部の動作を制御したり画像処理部25に所定の処理を行わせたりする(S105)。例えば、主要な被写体が小さすぎるときには、撮像部にズーム動作を行なわせる。また、主要な被写体が偏って配置されているときには、画像処理部25に指示して、その被写体が写っている領域のみをトリミングして移動または拡大する画像処理を行わせる。あるいは、垂直に立っているはずの被写体が斜めに写っていたら、回転処理を施して被写体が垂直になるようにする。   Hereinafter, the automatic shooting mode and the shooting assist mode will be further described. FIG. 3 is a flowchart showing an outline of the operation of the digital camera 1 when the automatic shooting mode is set. When the digital camera 1 is set to the automatic shooting mode, the digital camera 1 starts generating image data representing a scene captured on the lens (S101). Then, the composition of the image represented by the generated image data is determined (S102), and if the composition is good, the image is recorded on the memory card 7 regardless of whether the shutter release button 3 is operated (S103). If the composition is bad, a better composition is proposed (S104), and the operation of the imaging unit is controlled or the image processing unit 25 is controlled so that the image data generated in step S101 becomes the composition proposed in step S104. A predetermined process is performed (S105). For example, when the main subject is too small, the imaging unit is caused to perform a zoom operation. When the main subject is biased, the image processing unit 25 is instructed to perform image processing for trimming and moving or enlarging only the region where the subject is shown. Alternatively, if a subject that should be standing vertically appears obliquely, a rotation process is performed so that the subject becomes vertical.

撮像部や画像処理部25により再生成(S101)された画像データは、ステップS102において再び評価される。以上の処理は、モード切替操作が検出されるまで(S106)繰り返される。   The image data regenerated (S101) by the imaging unit or the image processing unit 25 is evaluated again in step S102. The above process is repeated until a mode switching operation is detected (S106).

図4は、撮影アシストモードに設定されたときのデジタルカメラ1の動作概要を示すフローチャートである。デジタルカメラ1は、撮影アシストモードに設定されると、レンズに写る情景を表す画像データの生成を開始する(S201)。そして、生成された画像データが表す画像の構図を判定(評価)する(S202)。   FIG. 4 is a flowchart showing an outline of the operation of the digital camera 1 when the photographing assist mode is set. When the digital camera 1 is set to the photographing assist mode, the digital camera 1 starts generating image data representing a scene captured on the lens (S201). Then, the composition of the image represented by the generated image data is determined (evaluated) (S202).

構図が良い場合には、タイミングの到来を報知する(S203)。図5および図6に、タイミング到来の報知例を示す。図5は、モニタ6にシャッタレリーズボタンの押下を促すマーク34を表示することで、タイミングの到来を報知する例を示している。マークに代えて「シャッタチャンスです」といったメッセージを表示してもよい。図6は、LEDランプ9を点滅させることで、タイミングの到来を報知する例を示している。この他、スピーカからの音声出力によりタイミングの到来を報知する方法も考えられる。   If the composition is good, the arrival of timing is notified (S203). 5 and 6 show notification examples of timing arrival. FIG. 5 shows an example in which the arrival of timing is notified by displaying a mark 34 prompting the user to press the shutter release button on the monitor 6. Instead of the mark, a message such as “It is a photo opportunity” may be displayed. FIG. 6 shows an example in which the arrival of timing is notified by blinking the LED lamp 9. In addition, a method of notifying the arrival of timing by sound output from a speaker is also conceivable.

構図が悪い場合には、より良い構図を提案する(S204)。そして、提案する構図をモニタ6に表示することにより(以下、アシスト表示と称する)、撮影者に対しカメラの構え方を直すよう、あるいは所定の操作ボタンを操作するよう促す(S205)。図7および図8に、アシスト表示の一例を示す。図7は、撮影されたままの画像データにフレーミング枠35を重ねて表示することで、好ましいフレーミングのしかたを提示する例を示している。図8は、画像処理により生成した好ましいフレーミングの画像を表示し、画面の端にフレーミングをどのようにすれば表示中の画像のような画像データを取得できるかを示唆するマーク36を表示した例である。この他、「ズームして下さい。」、「カメラを少し左に向けて下さい。」といったメッセージを表示あるいは音声出力することで、好ましいフレーミングを提示してもよい。撮影アシストモードでは、以上の処理が、モード切替操作が検出されるまで(S206)繰り返される。   If the composition is bad, a better composition is proposed (S204). Then, by displaying the proposed composition on the monitor 6 (hereinafter referred to as assist display), the photographer is prompted to correct the way the camera is held or to operate a predetermined operation button (S205). 7 and 8 show examples of assist display. FIG. 7 shows an example in which a preferred framing method is presented by displaying a framed frame 35 superimposed on image data that has been shot. FIG. 8 shows an example in which a preferred framing image generated by image processing is displayed, and a mark 36 is displayed that suggests how framing can be acquired at the edge of the screen to obtain image data such as the image being displayed. It is. In addition, a preferred framing may be presented by displaying a message such as “Please zoom in” or “Please turn the camera slightly to the left.” In the photographing assist mode, the above processing is repeated until a mode switching operation is detected (S206).

続いて、ステップS102およびS202の構図を判定する処理と、ステップS104およびS204の構図を提案する処理について、さらに詳しく説明する。構図の判定および構図の提案は、図2のタイミング検出部28が行う。図9はタイミング検出部28の構成を示す図である。図に示すように、タイミング検出部28は、人物抽出手段41、非人物抽出手段42、音声解析手段43、構図判定手段44および構図提案手段45により構成される。なお、タイミング検出部28は、手段41〜45として機能するLSIにより構成された回路でもよいし、手段41〜45の処理を実行するソフトウェアプログラムが組み込まれたマイクロコンピュータでもよい。   Next, the process for determining the composition in steps S102 and S202 and the process for proposing the composition in steps S104 and S204 will be described in more detail. Composition determination and composition proposal are performed by the timing detection unit 28 in FIG. FIG. 9 is a diagram illustrating a configuration of the timing detection unit 28. As shown in the figure, the timing detection unit 28 includes a person extraction unit 41, a non-person extraction unit 42, a voice analysis unit 43, a composition determination unit 44, and a composition proposal unit 45. Note that the timing detection unit 28 may be a circuit constituted by an LSI functioning as the means 41 to 45, or a microcomputer incorporating a software program for executing the processing of the means 41 to 45.

人物抽出手段41は、メモリ22に記憶されている画像データを読み込み、画像データ内の人物領域を探索する。本実施形態では、顔の探索を行うことにより人物を検出する。人物抽出手段41は、顔を検出した場合には、通し番号などの識別子を付した後、顔領域の面積と顔を含む身体全体を現す領域(以下、全身領域)の面積および重心座標を算出する。重心座標は、顔の面積が所定値を超えるときは顔領域の重心座標を、所定値以下のときは全身領域の重心座標を求める。例えば図10Aおよび図10Bの例示のように顔領域が比較的大きい場合には、個々の顔領域の重心座標が算出される。また、図10Cおよび図10Dのように顔領域が小さい場合には、十字印で示される全身領域の重心座標が算出される。人物抽出手段41は、全領域の探索を終えると、検出された人物の数、位置、大きさを示す情報として、検出された人物の総数と、各人物の顔領域の範囲および面積と、全身領域の範囲および面積と、重心座標とを、タイミング検出部28が備えるメモリ(図示せず)に記憶する。   The person extracting means 41 reads the image data stored in the memory 22 and searches for a person area in the image data. In this embodiment, a person is detected by searching for a face. When the face is detected, the person extraction unit 41 adds an identifier such as a serial number, and then calculates the area of the face area, the area of the entire body including the face (hereinafter referred to as the whole body area), and the barycentric coordinates. . The center-of-gravity coordinates are obtained as the center-of-gravity coordinates of the face area when the area of the face exceeds a predetermined value, and the center-of-gravity coordinates of the whole body area when the area is less than the predetermined value. For example, when the face area is relatively large as illustrated in FIGS. 10A and 10B, the barycentric coordinates of each face area are calculated. When the face area is small as shown in FIGS. 10C and 10D, the barycentric coordinates of the whole body area indicated by the cross mark are calculated. When the search of all areas is completed, the person extracting means 41 uses the total number of detected persons, the range and area of the face area of each person, and the whole body as information indicating the number, position, and size of the detected persons. The range and area of the region and the barycentric coordinates are stored in a memory (not shown) provided in the timing detection unit 28.

なお、顔を探索し検出する手法としては、特開2001−51338号公報に紹介されているとおり、肌色領域を顔として検出する方法、髪や目や口など幾何学的特徴を有するパーツの有無により顔か否かを判別して顔を検出する方法、その他種々の方法が知られている。人物抽出手段41が実行する顔検出処理には、公知のあらゆる手法を利用することができる。   As a method for searching for and detecting a face, as introduced in Japanese Patent Application Laid-Open No. 2001-51338, a method for detecting a skin color area as a face, presence of parts having geometric features such as hair, eyes and mouth There are known a method for detecting a face by determining whether or not it is a face, and various other methods. Any known method can be used for the face detection processing executed by the person extracting means 41.

人物抽出手段41は、続いて、検出された顔の表情を識別する。但し表情の識別は、自動撮影モードの詳細設定において表示識別機能がONに設定されているときのみ実行する。あるいは、検出された顔の大きさが所定値以上であるときのみ表情の識別を行なうこととしてもよい。本実施形態では、人物抽出手段41は、図11A、11B、11C、11Dに例示する笑い顔、怒り顔、泣き顔、驚き顔の4つの表情を識別する。図の例から明らかであるように、これらの表情は、それぞれ、目や口の開き具合、眉や口角の上がり具合に特徴があるので、それらの部位の画像的特徴に基づき表情を識別することができる。表情を識別する手法は、特開2001−51338号公報に紹介されている手法をはじめ種々の方法が知られており、人物抽出手段41が実行する表情識別処理には、公知のあらゆる手法を利用することができる。人物抽出手段41は、識別した表情を、タイミング検出部28が備えるメモリに記憶する。   The person extraction means 41 then identifies the detected facial expression. However, facial expression identification is performed only when the display identification function is set to ON in the detailed settings of the automatic shooting mode. Alternatively, facial expressions may be identified only when the size of the detected face is greater than or equal to a predetermined value. In the present embodiment, the person extraction unit 41 identifies four facial expressions, such as a laughing face, an angry face, a crying face, and a surprised face exemplified in FIGS. 11A, 11B, 11C, and 11D. As is clear from the example in the figure, each of these facial expressions is characterized by the degree of opening of the eyes and mouth and the degree of rise of the eyebrows and corners of the mouth, so that the facial expressions are identified based on the image characteristics of those parts. Can do. Various methods for identifying facial expressions are known, including the method introduced in Japanese Patent Laid-Open No. 2001-51338, and any known method is used for facial expression identification processing performed by the person extracting means 41. can do. The person extraction unit 41 stores the identified facial expression in a memory provided in the timing detection unit 28.

人物抽出手段41は、さらに、検出された顔を持つ人物のジェスチャーを識別する。ジェスチャーの識別は、自動撮影モードの詳細設定においてジェスチャー識別機能がONに設定されているときのみ実行する。あるいは、検出された顔の大きさが所定値以上であるときは表情の識別を行ない、所定値以下であるときはジェスチャーの識別を行なうこととしてもよい。   The person extracting means 41 further identifies a gesture of a person having the detected face. Gesture identification is executed only when the gesture identification function is set to ON in the detailed settings of the automatic shooting mode. Alternatively, facial expressions may be identified when the detected face size is greater than or equal to a predetermined value, and gestures may be identified when the detected face size is less than or equal to a predetermined value.

本実施形態では、タイミング検出部28が備えるメモリには、よく知られているジェスチャーが、そのジェスチャーの幾何学的特徴を表すデータとして予め登録されている。例えば、図12Aに例示する人差し指と中指のみを立てるジェスチャー(ピース)、図12Bに例示する両腕を上げるジェスチャー(万歳、ガッツポーズ)、その他、親指と人差し指で円を作るジェスチャー(OKまたは円)、親指だけを立てて上に向けるジェスチャー(グッド)などが登録されている。人物抽出手段41は、メモリ22から読み込んだ画像データの顔周辺から抽出された幾何学的特徴を登録データと照合する。そして、抽出された特徴が登録されているジェスチャーの特徴と一致したときには、そのジェスチャー名もしくは予め決められているジェスチャーの識別子を、タイミング検出部28が備えるメモリに記憶する。   In the present embodiment, a well-known gesture is registered in advance in the memory included in the timing detection unit 28 as data representing the geometric feature of the gesture. For example, a gesture (piece) in which only the forefinger and middle finger are exemplarily illustrated in FIG. 12A, a gesture for raising both arms illustrated in FIG. There are registered gestures such as gesturing to raise only the thumb and pointing up (good). The person extracting means 41 collates the geometric features extracted from the periphery of the face of the image data read from the memory 22 with the registered data. When the extracted feature matches the registered gesture feature, the gesture name or a predetermined gesture identifier is stored in a memory included in the timing detection unit 28.

ジェスチャーを識別する手法もまた、特開2001−51338号公報に紹介されている手法をはじめ種々の方法が知られている。人物抽出手段41が実行するジェスチャー識別処理には、公知のあらゆる手法を利用することができる。   Various methods are known as a method for identifying a gesture, including the method introduced in Japanese Patent Laid-Open No. 2001-51338. Any known technique can be used for the gesture identification process executed by the person extracting means 41.

人物抽出手段41は、続いて顔領域の合計面積を算出する。例えば、図10A〜10Dの例であれば、それぞれ、点線枠として表示した領域の面積の合計を算出する。但し、全身領域の面積の合計を算出することとしてもよい。   The person extraction means 41 then calculates the total area of the face area. For example, in the example of FIGS. 10A to 10D, the total area of the regions displayed as dotted line frames is calculated. However, the total area of the whole body region may be calculated.

人物抽出手段41は、算出された領域面積の合計が所定の閾値を上回るときは、タイミング検出部28が備えるメモリに記憶しておいた顔の数、顔領域の面積、全身領域の面積、重心座標、表情およびジェスチャーの情報を構図判定手段44にのみ供給する。一方、算出された領域面積の合計が所定の閾値以下であるときは、メモリに記憶しておいた情報を、構図判定手段44と非人物抽出手段42に供給する。   When the total of the calculated area areas exceeds a predetermined threshold, the person extracting means 41 determines the number of faces stored in the memory included in the timing detection unit 28, the area of the face area, the area of the whole body area, the center of gravity. Information on coordinates, facial expressions, and gestures is supplied only to the composition determination means 44. On the other hand, when the calculated total area is equal to or smaller than a predetermined threshold value, the information stored in the memory is supplied to the composition determination unit 44 and the non-person extraction unit 42.

非人物抽出手段42は、画像データに含まれる人物以外の主要被写体を抽出する。本実施形態では、非人物抽出手段42は、メモリ22に記憶されている画像データを読み込み画像データの、顔もしくは胴体を含む人物に相当する領域の画素値を0に置き換えるなどして、画像データから人物領域のデータを消去する。例えば、読み込んだ画像データが図13Aに例示するように人物50a、50bと人物以外の被写体51を含む画像データであったとする。また、人物抽出手段41からは、図の点線枠で囲われた領域52a、52bについて、重心などの情報が供給されているものとする。この画像データから人物領域52a、52b内の画素データを消去すれば、図13Bに例示するように被写体51のみを含む画像データが得られる。   The non-person extracting means 42 extracts main subjects other than the person included in the image data. In the present embodiment, the non-person extracting means 42 reads the image data stored in the memory 22 and replaces the pixel value of the area corresponding to the person including the face or the body with 0 in the image data. Erase the person area data from. For example, it is assumed that the read image data is image data including persons 50a and 50b and a subject 51 other than the person as illustrated in FIG. 13A. In addition, it is assumed that information such as the center of gravity is supplied from the person extraction unit 41 for the regions 52a and 52b surrounded by the dotted frame in the figure. If the pixel data in the person areas 52a and 52b are deleted from the image data, image data including only the subject 51 can be obtained as illustrated in FIG. 13B.

続いて、非人物抽出手段42は、人物領域52a、52bの情報が消去された画像データに対し、ハイパスフィルタを用いたフィルタリング処理を施す。これにより、図13Cに例示するように、被写体51のエッジ部分が抽出されたエッジ画像53が得られる。エッジ画像53は、画像データに含まれている人物以外の被写体の輪郭からなる画像であるので、この画像を解析することにより、図13Dに例示するように、被写体53が配置された大まかな領域54を識別することができる。非人物抽出手段42は、識別された領域54の面積および重心座標を算出し、構図判定手段44に供給する。   Subsequently, the non-person extracting unit 42 performs a filtering process using a high-pass filter on the image data from which the information of the person areas 52a and 52b has been deleted. Thereby, as illustrated in FIG. 13C, an edge image 53 in which the edge portion of the subject 51 is extracted is obtained. Since the edge image 53 is an image composed of the contour of a subject other than a person included in the image data, by analyzing this image, as shown in FIG. 13D, a rough area where the subject 53 is arranged is illustrated. 54 can be identified. The non-person extracting unit 42 calculates the area and barycentric coordinates of the identified region 54 and supplies the calculated area 54 to the composition determining unit 44.

人物以外の被写体領域を識別する方法としては、ハイパスフィルタによるフィルタリング処理に代えて、フーリエ変換を利用して特定の(エッジに相当する)周波数成分のみを取り出す方法も考えられる。また、周波数解析ではなく、色の情報を利用した解析を行なうことにより主要被写体を抽出する方法も考えられる。例えば、画素値が所定の色を表す値であるときはそのままの値とし、所定の色以外の色を表す値であるときは画素値を0または1に置き換える。これにより、画像は2つの領域に分割され、その所定の色の被写体もしくはその所定の色以外の被写体が配置されている領域が抽出される。この他、人物とともに撮影されやすい対象(例えばペットとしてよく飼われる動物など)については、Adaboostアルゴリズムなど学習に基づく判別アルゴリズムを利用して識別を行ない、被写体領域を示すデータを生成することもできる。   As a method of identifying a subject area other than a person, a method of extracting only a specific frequency component (corresponding to an edge) using Fourier transform instead of filtering processing using a high-pass filter is conceivable. Also, a method of extracting a main subject by performing analysis using color information instead of frequency analysis is also conceivable. For example, when the pixel value is a value representing a predetermined color, the value is left as it is, and when the pixel value is a value representing a color other than the predetermined color, the pixel value is replaced with 0 or 1. As a result, the image is divided into two regions, and the region where the subject of the predetermined color or the subject other than the predetermined color is arranged is extracted. In addition, an object that is likely to be photographed with a person (for example, an animal often kept as a pet) can be identified using a discrimination algorithm based on learning, such as the Adaboost algorithm, to generate data indicating a subject area.

なお、画像の鮮鋭度は画像データを取得したときのシャッタスピードに依存することがあり、画像の色は測光値や絞りなどに依存することがある。このため、画像解析を行なうときに、画像データが生成されたときの各種調整値、設定値を考慮に入れることで、被写体領域の識別が容易になることもある。   Note that the sharpness of the image may depend on the shutter speed when the image data is acquired, and the color of the image may depend on the photometric value or the aperture. For this reason, when performing image analysis, the subject area may be easily identified by taking into account various adjustment values and setting values when the image data is generated.

音声解析手段43は、マイク4から入力される音声を解析し、以下の音声を検出する。但し、本実施形態では、以下に説明する処理は、音声解析機能がONに設定されているときのみ実行される。第1に音声解析手段43はマイク4から入力される音声の音量を常時計測し、所定の閾値と比較する。図14は、横軸を時間、縦軸を音量としたグラフを示している。音声解析手段43は、図14の例示における時点T、すなわち音量が急激に変化して閾値Thを超えた時点を検出する。スポーツ観戦時の撮影やパーティでの撮影では、例えばサッカーのゴールシーンや結婚式の乾杯シーンなど、歓声が上がった瞬間がシャッタチャンスであることが多い。よって、音量が急激に変化した時点を検出することで、シャッタチャンスを検出することができる。あるいは、音量が変化したことを検出するのではなく、音量が閾値Thを超えていることを検出するだけでもよい。歓声が上がっている間は常にシャッタチャンスと考えることもできるからである。反対に、例えば赤ん坊の寝顔を撮影したい場合など、静かになったときがシャッタチャンスである場合には、音量が閾値を下回った時点あるいは下回っている状況を検出してもよい。音量を解析した結果、いずれの時点を検出するかは、設定により変更することができる。   The voice analysis means 43 analyzes the voice input from the microphone 4 and detects the following voice. However, in the present embodiment, the processing described below is executed only when the voice analysis function is set to ON. First, the voice analysis means 43 constantly measures the volume of the voice input from the microphone 4 and compares it with a predetermined threshold value. FIG. 14 shows a graph with the horizontal axis representing time and the vertical axis representing volume. The voice analysis means 43 detects the time point T in the example of FIG. 14, that is, the time point when the volume suddenly changes and exceeds the threshold value Th. When shooting at a sporting event or shooting at a party, the moment of cheering, such as a soccer goal scene or a wedding toast scene, is often a photo opportunity. Therefore, it is possible to detect a photo opportunity by detecting a time point when the sound volume changes suddenly. Alternatively, instead of detecting that the volume has changed, it may only be detected that the volume exceeds the threshold Th. This is because it can always be considered as a photo opportunity while cheers are raised. On the other hand, when it is a photo opportunity when it is quiet, for example, when a baby's sleeping face is desired to be photographed, a situation where the volume falls below or below the threshold may be detected. As a result of analyzing the volume, which time point is detected can be changed by setting.

また、音声解析手段43は、音声が表すフレーズを識別し、予め登録されている特定のフレーズと照合を行なう。この登録データはタイミング検出部28が備えるメモリに記憶されており、例えば、「ハイ、チーズッ」、「カンパーイ」など、シャッタレリーズボタンを押すタイミングと同期して発せられる可能性が高いフレーズが登録されている。また、本実施形態では、登録データの1つとして、声を登録することができ、さらには、声とフレーズとを対応付けて登録することもできる。音声解析手段43は、これらの登録データとの照合を行なうことにより、(a)登録フレーズが音声として発せられた時点、(b)登録者が音声を発した時点、(c)登録者が登録フレーズを音声として発した時点、を検出することができる。(a)、(b)、(c)のいずれの時点を検出するかは、原則として設定によって決まる。但し、登録データの登録状況に応じて、設定と異なる処理を実行してもよい。例えば、検出したい時点として(c)が設定されていても、声が登録されていなければ(a)の時点を検出するようにする。   Moreover, the voice analysis means 43 identifies the phrase represented by the voice, and collates it with a specific phrase registered in advance. This registration data is stored in a memory provided in the timing detection unit 28. For example, phrases that are highly likely to be issued in synchronization with the timing of pressing the shutter release button, such as “high, cheese” and “campai” are registered. ing. Moreover, in this embodiment, a voice can be registered as one of the registration data, and furthermore, a voice and a phrase can be registered in association with each other. The voice analysis means 43 collates with these registration data, so that (a) when the registered phrase is uttered as voice, (b) when the registrant utters voice, (c) when the registrant registers. It is possible to detect when a phrase is uttered as speech. In principle, which time point (a), (b), or (c) is detected depends on the setting. However, processing different from the setting may be executed according to the registration status of the registration data. For example, even if (c) is set as the time point to be detected, if the voice is not registered, the time point (a) is detected.

なお、音量に基づく検出処理とフレーズの照合に基づく検出処理を、両方とも実行するか、一方のみ実行するか、一方のみ実行するとすればいずれを実行するかは、設定に依存する。   Note that it is dependent on the setting whether both the detection process based on volume and the detection process based on phrase matching are executed, or only one or only one is executed.

続いて、構図判定手段44の処理について説明する。図9に示されるように、構図判定手段44には、メモリ22から読み込んだ画像データと、人物抽出手段41、非人物抽出手段42による抽出結果と、音声解析手段43による検出結果とが供給される。但し、抽出や検出が行われなかったときには、供給する情報が無いことを示す値(例えば0)が入力される。   Next, processing of the composition determination unit 44 will be described. As shown in FIG. 9, the composition determination means 44 is supplied with image data read from the memory 22, extraction results by the person extraction means 41 and non-person extraction means 42, and detection results by the sound analysis means 43. The However, when extraction or detection is not performed, a value (for example, 0) indicating that there is no information to be supplied is input.

図15は、構図判定手段44の処理の一例を示すフローチャートである。構図判定手段44に対しては、人物抽出手段41から各人物の顔領域の範囲および面積、全身領域の範囲および面積、人物の重心座標、表情、ジェスチャーの情報が、非人物抽出手段42から、人物以外の被写体の範囲、面積および重心座標の情報が、また音声解析手段43から音声の検出結果の情報が供給されるものとする。   FIG. 15 is a flowchart illustrating an example of processing of the composition determination unit 44. For the composition determination means 44, information on the face area range and area of each person, the whole body area range and area, the person's barycentric coordinates, facial expression, and gesture information from the person extraction means 41 is received from the non-person extraction means 42. It is assumed that information on the range, area, and barycentric coordinates of a subject other than a person and information on the detection result of sound are supplied from the sound analysis means 43.

構図判定手段44は、まず、人物を含む被写体の配置のバランスを評価する(S301)。人物抽出手段41がN人(Nは整数)の人物を検出し、非人物抽出手段42がM個(Mは整数)の被写体を検出したとすると、構図判定手段44は、抽出された個々の人物領域もしくは被写体領域の重心座標から、N+M個の領域全体の重心座標を算出する。例えば、図13A〜13Dに例示した画像であれば、図16に示すように、人物領域52a、52bの重心g1、g2と被写体領域54の重心g3の座標に基づいて、3つの領域の重心Gの座標を算出する。そして、重心Gが画像中央の所定範囲55内にあれば配置バランスが良いと判断し、所定範囲55を外れていれば、配置バランスが悪いと判断する。   The composition determination unit 44 first evaluates the balance of the arrangement of the subject including the person (S301). If the person extracting means 41 detects N persons (N is an integer) and the non-person extracting means 42 detects M (M is an integer) subjects, the composition determining means 44 The center-of-gravity coordinates of the entire N + M areas are calculated from the center-of-gravity coordinates of the person area or the subject area. For example, in the case of the images illustrated in FIGS. 13A to 13D, as shown in FIG. 16, the centroid G of the three regions is based on the coordinates of the centroids g1 and g2 of the person regions 52a and 52b and the centroid g3 of the subject region 54. The coordinates of are calculated. If the center of gravity G is within the predetermined range 55 in the center of the image, it is determined that the arrangement balance is good, and if it is outside the predetermined range 55, it is determined that the arrangement balance is bad.

なお、N+M個の領域全体の重心座標を算出するときには、各領域の重心に、その対象の面積に応じた重み付けをしてから、重心座標を求めてもよい。面積の大きな対象ほど重み付けを大きくすれば、領域全体の重心は、面積が大きな対象に近い位置となる。例えば、図17の例示では、各領域に均等な重み付けをして求めた場合の重心は範囲55を外れた点GAとなり、配置バランスは悪いと判断される。しかし、面積の大きな領域ほど重み付けを大きくする算出方法では、算出される重心は範囲55内の点GBとなり、配置バランスは良いと判断される。   When calculating the center-of-gravity coordinates of the entire N + M regions, the center-of-gravity coordinates may be obtained after weighting the center of gravity of each region according to the area of the target. If the weighting is increased for an object having a larger area, the center of gravity of the entire region becomes a position closer to the object having a larger area. For example, in the illustration of FIG. 17, the center of gravity obtained by weighting each region equally is the point GA that is out of the range 55, and it is determined that the arrangement balance is poor. However, in the calculation method in which the weighting is increased as the area is larger, the calculated center of gravity is the point GB within the range 55, and it is determined that the arrangement balance is good.

また、構図判定手段44は、一部の被写体に関しては、配置バランスのみならず、回転ぶれの評価も行なう。ここで、回転ぶれとは、画像に含まれる被写体の向きや方向が実世界における被写体の向きや方向と異なることをいう。例えば垂直に立つ高層ビルが画像中斜めに配置されている場合には、回転ぶれ有りと判定する。非人物抽出手段42が、学習に基づく判別アルゴリズムを利用した被写体抽出を行なう形態では、非人物抽出手段42は被写体の輪郭のみならず、その被写体の種類を判別することができる。そして、そのような被写体に関しては、非人物抽出手段43から構図判定手段44に対し、被写体の種類を示す情報が供給される。構図判定手段44は、抽出された被写体が、高層ビルや水平線のように、実世界において垂直あるいは水平に配置された対象であるときには、抽出された被写体の向きや方向を算出し、回転ぶれの有無を判定する。   In addition, the composition determination unit 44 evaluates not only the arrangement balance but also the rotation blur for some subjects. Here, the rotation blur means that the direction and direction of the subject included in the image are different from the direction and direction of the subject in the real world. For example, when a high-rise building that stands vertically is arranged obliquely in the image, it is determined that there is rotational shake. In the form in which the non-person extracting unit 42 performs subject extraction using a discrimination algorithm based on learning, the non-person extracting unit 42 can determine not only the contour of the subject but also the type of the subject. For such a subject, information indicating the type of the subject is supplied from the non-person extracting unit 43 to the composition determining unit 44. The composition determination means 44 calculates the orientation and direction of the extracted subject when the extracted subject is an object that is vertically or horizontally arranged in the real world, such as a high-rise building or a horizontal line. Determine presence or absence.

構図判定手段44は、ステップS302において、配置バランスが悪いと判断したとき、あるいは回転ぶれが有ると判断したときには、構図が悪い(NG)との判定結果を出力する(S306)。   The composition determination unit 44 outputs a determination result that the composition is bad (NG) when it is determined in step S302 that the arrangement balance is poor or when there is a rotational shake (S306).

構図判定手段44は、配置バランスが良く回転ぶれもないと判断したときには、人物抽出手段41から供給された表情の情報に基づき、人物の表情が、シャッタレリーズボタンを押すに相応しい特定の表情であるか否かを判定する(S303)。もしくは、直前に供給された表情の情報と照合し、表情に変化があったか否か判定する。但し、表情の判定は、顔領域の面積が所定値以上のときのみ行なうこととしてもよい。特定の表情である(あるいは変化があった)場合には、構図が良い(OK)との判定結果を出力する(S307)。   When the composition determination means 44 determines that the arrangement balance is good and there is no rotation blur, the facial expression of the person is a specific expression suitable for pressing the shutter release button based on the facial expression information supplied from the person extraction means 41. It is determined whether or not (S303). Alternatively, it is compared with the facial expression information supplied immediately before to determine whether or not the facial expression has changed. However, facial expression determination may be performed only when the area of the face region is equal to or greater than a predetermined value. If the expression is specific (or has changed), a determination result that the composition is good (OK) is output (S307).

表情が特定の表情でない(あるいは変化がない)場合には、構図判定手段44は、人物抽出手段41から供給されたジェスチャーの情報に基づき、人物が、シャッタレリーズボタンを押すに相応しいジェスチャーをしているか否かを判定する(S304)。もしくは、直前に供給されたジェスチャーの情報との照合し、人物の動きに変化があったか否か判定する。但し、ジェスチャーの判定は、人物領域の面積が所定値以上のときのみ行なうこととしてもよい。特定のジェスチャーあるいは動きがあった場合には、構図が良いとの判定結果を出力する(S307)。   If the facial expression is not a specific facial expression (or no change), the composition determination means 44 performs a gesture suitable for the person to press the shutter release button based on the gesture information supplied from the person extraction means 41. It is determined whether or not there is (S304). Alternatively, it is checked against the gesture information supplied immediately before to determine whether there has been a change in the movement of the person. However, the determination of the gesture may be performed only when the area of the person region is equal to or larger than a predetermined value. When there is a specific gesture or movement, a determination result that the composition is good is output (S307).

特定のジェスチャーあるいは動きがなかった場合には、構図判定手段44は、音声解析手段43から供給された情報に基づいて、特定の音声が検出されたか否かを判定する(S305)。そして、特定の音声が検出されていなかった場合には、構図が悪いとの判定結果を出力し(S306)、特定の音声が検出されていた場合には、構図が良いとの判定結果を出力する(S307)。   If there is no specific gesture or movement, the composition determination unit 44 determines whether a specific voice is detected based on the information supplied from the voice analysis unit 43 (S305). If a specific voice is not detected, a determination result that the composition is bad is output (S306), and if a specific voice is detected, a determination result that the composition is good is output. (S307).

構図判定手段44が、構図が良いとの判定結果を出力した場合、タイミング検出部28は、その判定結果を全体制御部30に送信する。この判定結果を受けた全体制御部30は、デジタルカメラ1が自動撮影モードに設定されているときであれば、記録読出制御部27に対し、メモリ22に記憶されている画像データをメモリカード7に記録するよう指示する。また、撮影アシストモードに設定されているときであれば、表示制御部26に対し、モニタに、シャッタチャンスの到来を告げるマークあるいはメッセージを表示するよう指示する(図5)。あるいは、LED制御部19に対し、LED9の点灯を指示する(図6)。   When the composition determination unit 44 outputs a determination result indicating that the composition is good, the timing detection unit 28 transmits the determination result to the overall control unit 30. The overall control unit 30 that has received this determination result sends the image data stored in the memory 22 to the memory card 7 when the digital camera 1 is set to the automatic shooting mode. To record. If the photographing assist mode is set, the display control unit 26 is instructed to display a mark or a message indicating the arrival of a photo opportunity on the monitor (FIG. 5). Alternatively, the LED controller 19 is instructed to turn on the LED 9 (FIG. 6).

なお、本実施形態では、記録読出制御部27は、構図の判定に利用した情報を、画像データの付属情報としてメモリカード7に記録する。詳細には、Exifファイルのタグ部分に記録する。一方、構図判定手段44は、構図が悪いと判定したときは、構図提案手段45に対し、構図の判定に利用した情報を供給する。構図提案手段45は、これらの情報を用いて、以下に説明する処理を実行する。   In the present embodiment, the recording / reading control unit 27 records the information used for composition determination on the memory card 7 as information attached to the image data. Specifically, it is recorded in the tag portion of the Exif file. On the other hand, when the composition determination unit 44 determines that the composition is bad, the composition determination unit 44 supplies information used to determine the composition to the composition proposal unit 45. The composition proposing means 45 executes the processing described below using these pieces of information.

構図提案手段45は、構図判定手段44から供給された情報を解析し、構図が悪いと判定された画像について、より好ましい構図を提案する。ここで構図を提案するとは、画像に含まれる被写体について、構図判定の判定基準を満たすような配置を決定することを意味する。決定された構図は、その構図の画像を取得するために実行すべき処理の情報とともに出力される。例えば、図18Aに例示するように、撮影された画像から抽出された領域52a、52b、54が左下に偏って配置されている場合、図18Bに例示するように領域52a、52b、54の重心Gが画像の中央に配置された構図を提案する。あるいは、図18Cに例示するように領域52a、52b、54の重心Gが画像の中央に配置され、且つ被写体がより大きく写った構図を提案する。そして、その構図の画像を取得するために実行すべき処理の情報として、2種類の情報を出力する。   The composition proposing means 45 analyzes the information supplied from the composition determining means 44 and proposes a more preferable composition for an image determined to have a poor composition. Proposing a composition here means determining an arrangement that satisfies a composition determination criterion for a subject included in an image. The determined composition is output together with information on processing to be executed to acquire an image of the composition. For example, as illustrated in FIG. 18A, when the regions 52a, 52b, and 54 extracted from the captured image are arranged to be shifted to the lower left, the center of gravity of the regions 52a, 52b, and 54 is illustrated as illustrated in FIG. 18B. A composition in which G is arranged at the center of the image is proposed. Alternatively, as illustrated in FIG. 18C, a composition is proposed in which the center of gravity G of the regions 52a, 52b, and 54 is arranged at the center of the image and the subject is shown larger. Then, two types of information are output as information of processing to be executed to acquire an image of the composition.

構図提案手段45が出力する第1の情報は、撮影により取得された画像データを、画像処理により好ましい構図の画像データに変換するときに必要になる情報である。例えば、図18Bの例ではトリミング範囲(図の太枠)と重心Gの移動方向(移動ベクトル)、図18Cの例では、トリミング範囲と重心の移動方向、拡大倍率などの情報が出力される。   The first information output by the composition proposing means 45 is information necessary when converting image data acquired by photographing into image data having a preferable composition by image processing. For example, in the example of FIG. 18B, the trimming range (thick frame in the figure) and the moving direction (movement vector) of the center of gravity G are output. In the example of FIG.

構図提案手段45が出力する第2の情報は、再撮影により、より好ましい構図の画像データを取得するときに必要になる情報である。例えば、図18Bの例では、カメラをより左に向ける操作を示す情報が出力される。また、図18Cの例では、カメラをより左に向ける操作と、設定すべき撮影倍率の情報が出力される。   The second information output by the composition proposing means 45 is information necessary for acquiring image data having a more preferable composition by re-photographing. For example, in the example of FIG. 18B, information indicating an operation for turning the camera to the left is output. Further, in the example of FIG. 18C, an operation for turning the camera to the left and information on the photographing magnification to be set are output.

この他、構図が悪いと判定される原因には回転ぶれがあるが、回転ぶれの場合には、第1の情報として傾きを修正するときの回転方向および角度の情報が、また第2の情報としてカメラを左あるいは右に傾けるべきことを示す情報が出力される。なお、構図が悪いと判定された要因が、表情、ジェスチャーあるいは音声であった場合には、画像処理による修正は行えないため、判定要因が表情、ジェスチャーあるいは音声であることを示す情報が出力される。   In addition, there is rotational blurring as a cause for determining that the composition is bad. In the case of rotational blurring, the first information includes information on the rotation direction and angle when correcting the tilt, and second information. Information indicating that the camera should be tilted to the left or right is output. In addition, if the factor determined to be poor composition is a facial expression, gesture or voice, it cannot be corrected by image processing, so information indicating that the judgment factor is a facial expression, gesture or voice is output. The

構図提案手段45が出力した上記各情報は、全体制御部30へと送信される。この判定結果を受けた全体制御部30は、デジタルカメラ1が自動撮影モード、撮影アシストモードのいずれに設定されているかを判断し、それぞれのモードに応じた処理を行う。   Each information output from the composition proposing means 45 is transmitted to the overall control unit 30. Receiving this determination result, the overall control unit 30 determines whether the digital camera 1 is set to the automatic shooting mode or the shooting assist mode, and performs processing according to each mode.

デジタルカメラ1が自動撮影モードに設定されているときには、全体制御部30は、画像処理部25に対し、メモリ22から画像データを読み込んで、構図を改善するために必要な画像処理(トリミング、移動、拡大縮小、回転など)を実行するよう指示する。また、表示制御部26に対し、画像処理部25による処理済画像データをモニタ6に表示するよう指示する。さらには、記録読出制御部27に対し、画像処理部25による処理済画像データをメモリカード7に記録するよう指示する。   When the digital camera 1 is set to the automatic shooting mode, the overall control unit 30 reads image data from the memory 22 into the image processing unit 25 and performs image processing (trimming and movement) necessary for improving the composition. , Scaling, rotation, etc.). Further, the display control unit 26 is instructed to display the image data processed by the image processing unit 25 on the monitor 6. Furthermore, it instructs the recording / reading control unit 27 to record the processed image data by the image processing unit 25 in the memory card 7.

本実施形態では、表示制御部26は上記指示を受けたときに、図19に例示するように、撮影されたとおりの構図の画像データ(撮影画像)を記録するか、提案された構図の画像データ(提案画像)を記録するか、撮影画像と提案画像の両方を記録するかをユーザに選択させるための選択画面を表示する。そして、記録読出制御部27は、この選択画面で選択された画像データをメモリカード7に記録する。但し、このような選択画面を表示せず、無条件に、提案画像のみ、もしくは撮影画像と提案画像の両方を記録することとしてもよい。   In the present embodiment, when the display control unit 26 receives the above instruction, as illustrated in FIG. 19, the display control unit 26 records image data (captured image) of the composition as photographed, or an image of the proposed composition. A selection screen for allowing the user to select whether to record data (proposed image) or to record both a captured image and a proposed image is displayed. Then, the recording / reading control unit 27 records the image data selected on this selection screen in the memory card 7. However, such a selection screen may not be displayed, and only the proposed image or both the captured image and the proposed image may be recorded unconditionally.

なお、本実施形態では、上記指示を受けた記録読出制御部27は、構図判定手段44が構図判定に利用した情報、すなわちN+M個の領域全体の重心座標、回転ぶれを判定した被写体の向き、人物の表情およびジェスチャー、検出された音声などの情報を、画像データの付属情報としてメモリカード7に記録する。さらには、構図提案手段45が出力する第1の情報、すなわち、撮影により取得された画像データを画像処理により好ましい構図の画像データに変換するときに必要になる情報も、画像データの付属情報としてメモリカード7に記録する。詳細には、これらの情報は、Exifファイルのタグ部分に記録される。   In the present embodiment, the recording / reading control unit 27 that has received the above instruction receives information used by the composition determination unit 44 for composition determination, that is, the center-of-gravity coordinates of the entire N + M areas, the orientation of the subject for which rotation blur has been determined, Information such as the facial expression and gesture of the person and the detected voice is recorded in the memory card 7 as the auxiliary information of the image data. Furthermore, the first information output by the composition proposing means 45, that is, information necessary for converting image data acquired by photographing into image data having a preferable composition by image processing is also attached as image data. Record in the memory card 7. Specifically, these pieces of information are recorded in the tag portion of the Exif file.

Exifファイルのタグ部分に記録された情報は、パソコンを使って画像を編集するときに利用することができる。例えば、撮影画像と、構図提案手段45が出力した第1の情報とがあれば、提案画像と同等の画像をパソコン上で生成することができるので、提案画像の記録を行わず、画像ファイルのファイルサイズを抑えることができる。また、構図提案手段45が出力した第1の情報をベースにしつつ、少し手を加えることで、構図提案手段45が提案した構図と異なる構図の画像を生成することもできる。   The information recorded in the tag portion of the Exif file can be used when editing an image using a personal computer. For example, if there is a photographed image and the first information output by the composition proposing means 45, an image equivalent to the proposed image can be generated on a personal computer. File size can be reduced. In addition, an image having a composition different from the composition proposed by the composition proposing means 45 can be generated by slightly modifying the first information output from the composition proposing means 45.

一方、デジタルカメラ1が撮影アシストモードに設定されているときには、全体制御部30は、画像処理部25に対し、メモリ22から画像データを読み込んで、構図を改善するために必要な画像処理(トリミング、移動、拡大縮小、回転など)を実行するよう指示する。また、表示制御部26に対し、画像処理部25による処理済画像データと、構図提案手段45が出力した第2の情報に基づいて生成したマークもしくはメッセージを、表示するよう指示する。これにより、図7および図8を参照して説明したアシスト表示が行われる。   On the other hand, when the digital camera 1 is set to the shooting assist mode, the overall control unit 30 reads image data from the memory 22 into the image processing unit 25 and performs image processing (trimming) necessary for improving the composition. , Move, scale, rotate, etc.). Further, the display control unit 26 is instructed to display the image data processed by the image processing unit 25 and the mark or message generated based on the second information output from the composition proposal unit 45. As a result, the assist display described with reference to FIGS. 7 and 8 is performed.

本実施形態では、構図の良い画像を撮影できなくても、構図の良い画像が得られるように撮像部の動作が制御され、あるいは画像処理が施されるので、ユーザは、立ち位置を変えたり、カメラを構えなおしたり、ズーム倍率その他の設定を調整したりしなくても、構図の良い画像を取得することができる。   In this embodiment, even if an image with a good composition cannot be captured, the operation of the imaging unit is controlled or an image process is performed so that an image with a good composition can be obtained. An image with a good composition can be acquired without repositioning the camera or adjusting the zoom magnification or other settings.

なお、上記実施形態では、検出された音声をも考慮した構図判定を行なっているが、音声解析手段43を設けず、画像から抽出された情報のみに基づいて構図判定を行う形態も考えられる。また、上記実施形態では領域の重心座標を算出して構図を判定あるいは提案する方法など、いくつかの判定/提案方法を例示したが、構図が満たすべき条件、条件判定に用いるデータは、他にも種々考えられ、上記実施形態の例示に限定されるものではない。また、上記実施形態の説明では、静止画撮影を行う場合を例示しながら説明しているが、本発明は、動画撮影において記録を開始するタイミングを決定する際にも有用である。   In the above embodiment, the composition determination is performed in consideration of the detected voice. However, a configuration in which the voice analysis unit 43 is not provided and the composition determination is performed based only on information extracted from the image is also conceivable. In the above embodiment, several determination / proposition methods such as a method for determining or proposing the composition by calculating the barycentric coordinates of the region are exemplified. However, the conditions to be satisfied by the composition and the data used for the condition determination are other Various examples are also conceivable, and the present invention is not limited to the above-described embodiments. In the description of the above embodiment, the case where still image shooting is performed is described as an example. However, the present invention is also useful when determining the recording start timing in moving image shooting.

デジタルカメラの外観を示す図(正面)Diagram showing the appearance of a digital camera (front) デジタルカメラの外観を示す図(背面)Figure showing the appearance of the digital camera (back) デジタルカメラの内部構成を示す図Diagram showing the internal configuration of the digital camera デジタルカメラの動作概要を示すフローチャート(自動撮影モード)Flow chart showing the outline of digital camera operation (automatic shooting mode) デジタルカメラの動作概要を示すフローチャート(撮影アシストモード)Flow chart showing the outline of digital camera operation (shooting assist mode) タイミングの報知例を示す図Diagram showing an example of timing notification タイミングの他の報知例を示す図The figure which shows the other example of information of timing アシスト表示の例を示す図Diagram showing an example of assist display アシスト表示の他の例を示す図The figure which shows the other example of an assist display タイミング検出部の構成を示す図Diagram showing the configuration of the timing detector 顔の検出処理について説明するための図The figure for demonstrating the detection process of a face 顔の検出処理について説明するための図The figure for demonstrating the detection process of a face 顔の検出処理について説明するための図The figure for demonstrating the detection process of a face 顔の検出処理について説明するための図The figure for demonstrating the detection process of a face 表情識別処理について説明するための図The figure for demonstrating facial expression identification processing 表情識別処理について説明するための図The figure for demonstrating facial expression identification processing 表情識別処理について説明するための図The figure for demonstrating facial expression identification processing 表情識別処理について説明するための図The figure for demonstrating facial expression identification processing ジェスチャー識別処理について説明するための図The figure for demonstrating gesture identification processing ジェスチャー識別処理について説明するための図The figure for demonstrating gesture identification processing 人物以外の被写体の抽出処理について説明するための図The figure for demonstrating the extraction process of subjects other than a person 人物以外の被写体の抽出処理について説明するための図The figure for demonstrating the extraction process of subjects other than a person 人物以外の被写体の抽出処理について説明するための図The figure for demonstrating the extraction process of subjects other than a person 人物以外の被写体の抽出処理について説明するための図The figure for demonstrating the extraction process of subjects other than a person 音声解析の一例を示す図Diagram showing an example of speech analysis 構図判定処理の一例を示すフローチャートA flowchart showing an example of composition determination processing 構図判定処理について説明するための図The figure for demonstrating composition determination processing 構図判定処理について説明するための図The figure for demonstrating composition determination processing 構図提案処理について説明するための図Diagram for explaining composition proposal processing 構図提案処理について説明するための図Diagram for explaining composition proposal processing 構図提案処理について説明するための図Diagram for explaining composition proposal processing 記録画像選択画面の一例を示す図The figure which shows an example of a recording image selection screen

符号の説明Explanation of symbols

1 デジタルカメラ、 2 レンズ、 3 シャッタレリーズボタン、 4 マイク、
5a〜5f 操作ダイヤル/ボタン、 6 モニタ、 7 メモリカード、
8 スピーカ、 9 LEDランプ
1 digital camera, 2 lens, 3 shutter release button, 4 microphone,
5a to 5f Operation dial / button, 6 monitor, 7 memory card,
8 Speaker, 9 LED lamp

Claims (17)

情景を撮影し該情景を表す画像データを生成する撮像手段と、該撮像手段により生成された画像データを所定の記録媒体に記録する記録手段とを備えた撮像装置であって、
前記撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出する人物抽出手段と、
前記撮像手段により生成された画像データの、前記人物抽出手段により抽出された画像領域以外の画像領域を解析することにより、人物以外の主要被写体を抽出する非人物抽出手段と、
前記人物抽出手段および前記非人物抽出手段の抽出結果に基づいて、前記人物および前記人物以外の主要被写体の配置が所定の条件を満たすか否か評価し、該配置の評価に基づいて前記画像データの構図の良否を判定する構図判定手段と、
前記人物抽出手段および前記非人物抽出手段の抽出結果を利用して、前記人物および前記主要被写体の前記所定の条件を満たす配置を決定する構図提案手段と、
前記構図提案手段により決定された配置で前記人物および前記主要被写体が配置された画像データが生成されるように、前記撮像手段の動作を制御する撮像制御手段とを備えた撮像装置。
An imaging apparatus comprising: an imaging unit that shoots a scene and generates image data representing the scene; and a recording unit that records image data generated by the imaging unit on a predetermined recording medium,
A person extracting means for extracting an image region representing a person by analyzing the image data generated by the imaging means;
Non-person extraction means for extracting a main subject other than a person by analyzing an image area other than the image area extracted by the person extraction means of the image data generated by the imaging means;
Based on the extraction results of the person extraction means and the non-person extraction means, it is evaluated whether or not the arrangement of the main subject other than the person and the person satisfies a predetermined condition, and the image data based on the evaluation of the arrangement Composition determining means for determining the quality of the composition of
Using the extraction results of the person extracting means and the non-person extracting means to determine an arrangement that satisfies the predetermined condition of the person and the main subject;
An imaging apparatus comprising: an imaging control unit that controls an operation of the imaging unit so that image data in which the person and the main subject are arranged in an arrangement determined by the composition proposing unit is generated.
情景を撮影し該情景を表す画像データを生成する撮像手段と、該撮像手段により生成された画像データを所定の記録媒体に記録する記録手段とを備えた撮像装置であって、
前記撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出する人物抽出手段と、
前記撮像手段により生成された画像データの、前記人物抽出手段により抽出された画像領域以外の画像領域を解析することにより、人物以外の主要被写体を抽出する非人物抽出手段と、
前記人物抽出手段および前記非人物抽出手段の抽出結果に基づいて、前記人物および前記主要被写体の配置が所定の条件を満たすか否か評価し、該配置の評価に基づいて前記画像データの構図の良否を判定する構図判定手段と、
前記人物抽出手段および前記非人物抽出手段の抽出結果を利用して、前記人物および前記主要被写体の前記所定の条件を満たす配置を決定する構図提案手段と、
前記人物および前記主要被写体の配置が前記構図提案手段により決定された配置となるように、前記画像データに対し画像処理を施す画像処理手段とを備えた撮像装置。
An imaging apparatus comprising: an imaging unit that shoots a scene and generates image data representing the scene; and a recording unit that records image data generated by the imaging unit on a predetermined recording medium,
A person extracting means for extracting an image region representing a person by analyzing the image data generated by the imaging means;
Non-person extraction means for extracting a main subject other than a person by analyzing an image area other than the image area extracted by the person extraction means of the image data generated by the imaging means;
Based on the extraction results of the person extraction means and the non-person extraction means, it is evaluated whether or not the arrangement of the person and the main subject satisfies a predetermined condition, and the composition of the image data is determined based on the evaluation of the arrangement. Composition determination means for determining pass / fail;
Using the extraction results of the person extracting means and the non-person extracting means to determine an arrangement that satisfies the predetermined condition of the person and the main subject;
An image pickup apparatus comprising: an image processing unit that performs image processing on the image data so that the arrangement of the person and the main subject is an arrangement determined by the composition proposal unit.
前記構図判定手段の判定結果に基づいて画像データを記録するタイミングを決定し、決定したタイミングで画像データが記録されるように、前記記録手段を制御する記録制御手段を、さらに備えたことを特徴とする請求項1または2記載の撮像装置。   A recording control unit configured to determine a timing for recording the image data based on a determination result of the composition determination unit, and to control the recording unit so that the image data is recorded at the determined timing; The imaging apparatus according to claim 1 or 2. 前記構図判定手段の判定結果に基づいて画像データを記録するタイミングを決定し、決定したタイミングの到来を報知する報知手段を、さらに備えたことを特徴とする請求項1または2記載の撮像装置。   The imaging apparatus according to claim 1, further comprising notification means for determining a timing at which image data is recorded based on a determination result of the composition determination means and notifying arrival of the determined timing. 前記記録手段が、前記人物抽出手段および前記非人物抽出手段の抽出結果を、前記画像データとともに前記記録媒体に記録することを特徴とする請求項1から4のいずれか1項記載の撮像装置。   5. The imaging apparatus according to claim 1, wherein the recording unit records the extraction results of the person extracting unit and the non-person extracting unit together with the image data on the recording medium. 6. 前記人物抽出手段が、前記画像データに含まれる顔を探索し、前記抽出結果として、前記探索により検出された顔の数、各顔の位置および各顔の大きさを示す情報を出力することを特徴とする請求項1から5のいずれか1項記載の撮像装置。   The person extracting means searches for a face included in the image data, and outputs, as the extraction result, information indicating the number of faces detected by the search, the position of each face, and the size of each face. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized in that: 前記人物抽出手段が、前記探索により検出された顔の表情を識別し、識別された表情を示す情報を、さらに出力することを特徴とする請求項6記載の撮像装置。   The imaging apparatus according to claim 6, wherein the person extracting unit identifies facial expressions detected by the search and further outputs information indicating the identified facial expressions. 前記人物抽出手段が、前記画像データに含まれる人物のジェスチャーを識別し、前記抽出結果として、識別されたジェスチャーを示す情報を出力することを特徴とする請求項1から7のいずれか1項記載の撮像装置。   The said person extraction means identifies the gesture of the person contained in the said image data, The information which shows the identified gesture is output as the said extraction result, The any one of Claim 1 to 7 characterized by the above-mentioned. Imaging device. 前記非人物抽出手段が、前記画像データに対しハイパスフィルタを用いたフィルタリング処理を施すことにより、前記主要被写体を抽出することを特徴とする請求項1から8のいずれか1項記載の撮像装置。   9. The image pickup apparatus according to claim 1, wherein the non-person extracting unit extracts the main subject by performing a filtering process using a high-pass filter on the image data. 10. 前記非人物抽出手段が、前記画像データに含まれる対象の中から予め登録された所定の対象を識別することにより、該対象を前記主要被写体として抽出することを特徴とする請求項1から9のいずれか1項記載の撮像装置。   10. The non-person extracting unit extracts the target as the main subject by identifying a predetermined target registered in advance from the targets included in the image data. The imaging apparatus of any one of Claims. 入力された音声を解析することにより音声に係る所定の特徴を検出する音声解析手段をさらに備え、
前記構図判定手段が、前記音声解析手段により検出された音声の特徴と前記配置の評価とに基づいて、前記画像データの構図の良否を判定することを特徴とする請求項1から10のいずれか1項記載の撮像装置。
Voice analysis means for detecting a predetermined feature of the voice by analyzing the input voice;
11. The composition determination unit according to claim 1, wherein the composition determination unit determines whether the composition of the image data is acceptable based on the characteristics of the sound detected by the sound analysis unit and the evaluation of the arrangement. The imaging apparatus according to 1.
前記記録手段が、前記人物抽出手段および前記非人物抽出手段の抽出結果および前記音声解析手段の検出結果を、前記画像データとともに前記記録媒体に記録することを特徴とする請求項11記載の撮像装置。   12. The imaging apparatus according to claim 11, wherein the recording unit records the extraction result of the person extraction unit and the non-person extraction unit and the detection result of the voice analysis unit together with the image data on the recording medium. . 前記音声解析手段が、前記音声の特徴として、所定の音量変化を検出することを特徴とする請求項11または12記載の撮像装置。   The imaging apparatus according to claim 11, wherein the voice analysis unit detects a predetermined volume change as a characteristic of the voice. 前記音声解析手段が、前記音声の特徴として、所定の音声フレーズを検出することを特徴とする請求項11から13のいずれか1項記載の撮像装置。   The imaging apparatus according to claim 11, wherein the voice analysis unit detects a predetermined voice phrase as a feature of the voice. 前記音声解析手段が、前記音声の特徴として、所定の人物の声の特徴として予め登録された特徴を検出することを特徴とする請求項11から14のいずれか1項記載の撮像装置。   The imaging apparatus according to claim 11, wherein the voice analysis unit detects a characteristic registered in advance as a voice characteristic of a predetermined person as the characteristic of the voice. 情景を撮影し該情景を表す画像データを生成する撮像手段と、該撮像手段により生成された画像データを所定の記録媒体に記録する記録手段とを備えた撮像装置の制御方法であって、
前記撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出し、
前記撮像手段により生成された画像データの、前記人物を表す画像領域以外の画像領域を解析することにより、人物以外の主要被写体を抽出し、
抽出された人物および主要被写体の配置が所定の条件を満たすか否か評価し、
前記配置の評価に基づいて前記画像データの構図の良否を判定し、
抽出された人物および主要被写体の前記所定の条件を満たす配置を決定し、
決定された配置で前記人物および前記主要被写体が配置された画像データが生成されるように、前記撮像手段の動作を制御する、撮像装置の制御方法。
An imaging apparatus control method comprising: an imaging unit that captures a scene and generates image data representing the scene; and a recording unit that records the image data generated by the imaging unit on a predetermined recording medium,
By analyzing the image data generated by the imaging means, an image region representing a person is extracted,
By analyzing an image area other than the image area representing the person in the image data generated by the imaging means, a main subject other than the person is extracted,
Evaluate whether the extracted person and main subject placement meet a given condition,
Determining the quality of the composition of the image data based on the evaluation of the arrangement;
Determining an arrangement of the extracted person and main subject that satisfies the predetermined condition;
An imaging apparatus control method for controlling an operation of the imaging unit so that image data in which the person and the main subject are arranged in a determined arrangement is generated.
情景を撮影し該情景を表す画像データを生成する撮像手段と、該撮像手段により生成された画像データを所定の記録媒体に記録する記録手段とを備えた撮像装置の制御方法であって、
前記撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出し、
前記撮像手段により生成された画像データの、前記人物を表す画像領域以外の画像領域を解析することにより、人物以外の主要被写体を抽出し、
抽出された人物および主要被写体の配置が所定の条件を満たすか否か評価し、
前記配置の評価に基づいて前記画像データの構図の良否を判定し、
抽出された人物および主要被写体の前記所定の条件を満たす配置を決定し、
前記人物および前記主要被写体の配置が前記決定された配置となるように、前記画像データに対し画像処理を施す、撮像装置の制御方法。
An imaging apparatus control method comprising: an imaging unit that captures a scene and generates image data representing the scene; and a recording unit that records the image data generated by the imaging unit on a predetermined recording medium,
By analyzing the image data generated by the imaging means, an image region representing a person is extracted,
By analyzing an image area other than the image area representing the person in the image data generated by the imaging means, a main subject other than the person is extracted,
Evaluate whether the extracted person and main subject placement meet a given condition,
Determining the quality of the composition of the image data based on the evaluation of the arrangement;
Determining an arrangement of the extracted person and main subject that satisfies the predetermined condition;
A control method for an imaging apparatus, wherein image processing is performed on the image data so that the arrangement of the person and the main subject is the determined arrangement.
JP2007053646A 2007-03-05 2007-03-05 Imaging device and control method thereof Pending JP2008219451A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007053646A JP2008219451A (en) 2007-03-05 2007-03-05 Imaging device and control method thereof
US12/073,234 US7995106B2 (en) 2007-03-05 2008-03-03 Imaging apparatus with human extraction and voice analysis and control method thereof
CN2008100825795A CN101262561B (en) 2007-03-05 2008-03-05 Imaging apparatus and control method thereof
KR1020080020650A KR100924685B1 (en) 2007-03-05 2008-03-05 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007053646A JP2008219451A (en) 2007-03-05 2007-03-05 Imaging device and control method thereof

Publications (2)

Publication Number Publication Date
JP2008219451A true JP2008219451A (en) 2008-09-18
JP2008219451A5 JP2008219451A5 (en) 2011-01-13

Family

ID=39838961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007053646A Pending JP2008219451A (en) 2007-03-05 2007-03-05 Imaging device and control method thereof

Country Status (1)

Country Link
JP (1) JP2008219451A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010178158A (en) * 2009-01-30 2010-08-12 Nikon Corp Electronic camera
JP2013197980A (en) * 2012-03-21 2013-09-30 Casio Comput Co Ltd Image processing apparatus, image processing method, and program
JP2014053664A (en) * 2012-09-05 2014-03-20 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
US9064348B2 (en) 2011-08-11 2015-06-23 Samsung Electronics Co., Ltd. Image processing apparatus, method of processing image, and computer-readable storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000004435A (en) * 1998-06-12 2000-01-07 Canon Inc Camera controller, its method and storage medium
JP2002373330A (en) * 2001-06-15 2002-12-26 Sony Corp Device and method for processing image, recording medium and program
JP2005175684A (en) * 2003-12-09 2005-06-30 Nikon Corp Digital camera, and image acquisition method for digital camera
JP2005182767A (en) * 2003-11-27 2005-07-07 Fuji Photo Film Co Ltd Image editing apparatus, method, and program
JP2005269562A (en) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd Photographing apparatus
JP2005303991A (en) * 2004-03-15 2005-10-27 Fuji Photo Film Co Ltd Imaging device, imaging method, and imaging program
JP2006270921A (en) * 2005-02-25 2006-10-05 Fuji Photo Film Co Ltd Imaging apparatus, imaging method, output device, output method and program
JP2006350578A (en) * 2005-06-14 2006-12-28 Fuji Xerox Co Ltd Image analysis device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000004435A (en) * 1998-06-12 2000-01-07 Canon Inc Camera controller, its method and storage medium
JP2002373330A (en) * 2001-06-15 2002-12-26 Sony Corp Device and method for processing image, recording medium and program
JP2005182767A (en) * 2003-11-27 2005-07-07 Fuji Photo Film Co Ltd Image editing apparatus, method, and program
JP2005175684A (en) * 2003-12-09 2005-06-30 Nikon Corp Digital camera, and image acquisition method for digital camera
JP2005303991A (en) * 2004-03-15 2005-10-27 Fuji Photo Film Co Ltd Imaging device, imaging method, and imaging program
JP2005269562A (en) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd Photographing apparatus
JP2006270921A (en) * 2005-02-25 2006-10-05 Fuji Photo Film Co Ltd Imaging apparatus, imaging method, output device, output method and program
JP2006350578A (en) * 2005-06-14 2006-12-28 Fuji Xerox Co Ltd Image analysis device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010178158A (en) * 2009-01-30 2010-08-12 Nikon Corp Electronic camera
US9064348B2 (en) 2011-08-11 2015-06-23 Samsung Electronics Co., Ltd. Image processing apparatus, method of processing image, and computer-readable storage medium
US9373022B2 (en) 2011-08-11 2016-06-21 Samsung Electronics Co., Ltd. Image processing apparatus, method of processing image, and computer-readable storage medium
US9747492B2 (en) 2011-08-11 2017-08-29 Samsung Electronics Co., Ltd. Image processing apparatus, method of processing image, and computer-readable storage medium
JP2013197980A (en) * 2012-03-21 2013-09-30 Casio Comput Co Ltd Image processing apparatus, image processing method, and program
JP2014053664A (en) * 2012-09-05 2014-03-20 Casio Comput Co Ltd Imaging apparatus, imaging method, and program

Similar Documents

Publication Publication Date Title
KR100924685B1 (en) Imaging apparatus and control method thereof
JP2008219449A (en) Imaging device and control method thereof
JP4898532B2 (en) Image processing apparatus, photographing system, blink state detection method, blink state detection program, and recording medium on which the program is recorded
JP4254873B2 (en) Image processing apparatus, image processing method, imaging apparatus, and computer program
JP4720810B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
KR101539043B1 (en) Image photography apparatus and method for proposing composition based person
JP4196714B2 (en) Digital camera
TWI425826B (en) Image selection device and method for selecting image
JP4577275B2 (en) Imaging apparatus, image recording method, and program
WO2007060980A1 (en) Electronic camera and image processing device
KR20100055946A (en) Method and apparatus for generating thumbnail of moving picture
JP5042896B2 (en) Image processing apparatus and image processing program
JP2009117975A (en) Image pickup apparatus and method
JP2005045600A (en) Image photographing apparatus and program
JP4577445B2 (en) Imaging apparatus, image recording method, and program
JP2008219450A (en) Imaging device and control method thereof
JP2010273280A (en) Imaging apparatus
JP4492273B2 (en) Imaging apparatus and program
JP2008219451A (en) Imaging device and control method thereof
JP2010178259A (en) Digital camera
KR20090083108A (en) A method of capturing image to add enlarged image of certain region to the captured image and an image capturing apparatus thereof
JP5446035B2 (en) Imaging apparatus, imaging method, and program
JP5109779B2 (en) Imaging device
JP2011139498A (en) Imaging device and control method thereof
JP2005045601A (en) Image photographing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101124

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20101124

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20101201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110329