JP2010278624A - Photographing device, photographing method, and program - Google Patents

Photographing device, photographing method, and program Download PDF

Info

Publication number
JP2010278624A
JP2010278624A JP2009127667A JP2009127667A JP2010278624A JP 2010278624 A JP2010278624 A JP 2010278624A JP 2009127667 A JP2009127667 A JP 2009127667A JP 2009127667 A JP2009127667 A JP 2009127667A JP 2010278624 A JP2010278624 A JP 2010278624A
Authority
JP
Japan
Prior art keywords
subject
image
face
detected
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009127667A
Other languages
Japanese (ja)
Inventor
Atsushi Murayama
淳 村山
Takefumi Nagumo
武文 名雲
Ken Tamayama
研 玉山
Kazuki Aisaka
一樹 相坂
Tatsuo Fujiwara
達雄 藤原
Masatoshi Yokokawa
昌俊 横川
Takashi Kyo
山 姜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009127667A priority Critical patent/JP2010278624A/en
Publication of JP2010278624A publication Critical patent/JP2010278624A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To photograph a subject when the subject is located in a more suitable position. <P>SOLUTION: A photographing part 31 photographs an image. A face detecting part 53 detects a subject in the image photographed by the photographing part 31. When the position of the subject detected by the face detecting part 53 is located in a prescribed position in the image, a recording control part 57 controls the record of the image. When the position of the subject detected by the face detecting part 53 is not located in the prescribed position in the image, a display control part 58 or a sound output control part 59 presents an instruction for moving the position of the subject so as to be located in the prescribed position. The photographing device, the photographing method, and the program are applicable, for example, to electronic equipment having a photographing function. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮影装置および方法、並びにプログラムに関し、特に、被写体がより最適な位置にあるときに撮影することができるようにする撮影装置および方法、並びにプログラムに関する。   The present invention relates to an imaging device, method, and program, and more particularly, to an imaging device, method, and program that enable imaging when a subject is in a more optimal position.

従来、デジタルカメラ等の撮影装置によって撮影された画像に対して、撮影後に、被写体が最適な位置になるように補正する様々な技術が提案されている。   2. Description of the Related Art Conventionally, various techniques have been proposed for correcting an image shot by a shooting device such as a digital camera so that the subject is in an optimal position after shooting.

例えば、撮影済み原画像データを内蔵メモリより読み出し、原画像の被写体を検出し、3分割法の4つの交点に被写体が配置されるようにトリミングを行う画像編集装置がある(特許文献1参照)。   For example, there is an image editing apparatus that reads captured original image data from a built-in memory, detects a subject of the original image, and performs trimming so that the subject is arranged at four intersections in a three-division method (see Patent Document 1). .

特開2007−295203号公報JP 2007-295203 A

しかしながら、上述した構成では、撮影者は、撮影時に、被写体が最適な位置になるようにして撮影することはない。   However, in the above-described configuration, the photographer does not shoot with the subject in the optimum position at the time of shooting.

本発明は、このような状況に鑑みてなされたものであり、特に、被写体がより最適な位置にあるときに撮影するようにするものである。   The present invention has been made in view of such a situation. In particular, the present invention is intended to capture an image when the subject is at a more optimal position.

本発明の一側面の撮影装置は、画像を撮影する撮影手段と、前記撮影手段によって撮影された前記画像において、被写体を検出する被写体検出手段と、前記被写体検出手段によって検出された前記被写体の位置が、前記画像において所定位置にある場合、前記画像の記録を制御する記録制御手段と、前記被写体検出手段によって検出された前記被写体の位置が、前記画像において前記所定位置にない場合、前記被写体の位置が前記所定位置となるように移動する指示を提示する提示手段とを備える。   An imaging apparatus according to an aspect of the present invention includes an imaging unit that captures an image, a subject detection unit that detects a subject in the image captured by the imaging unit, and a position of the subject detected by the subject detection unit. However, when the position of the subject detected by the subject detection means is not at the predetermined position in the image, the recording control means for controlling the recording of the image when the image is at the predetermined position. Presenting means for presenting an instruction to move so that the position becomes the predetermined position.

前記被写体検出手段には、前記被写体としての人物の顔を検出させ、前記記録制御手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にある場合、前記画像の記録を制御させ、前記提示手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を提示させることができる。   When the subject detection unit detects the face of a person as the subject, and the recording control unit has the position of the face detected by the subject detection unit at the predetermined position in the image, The recording of the image is controlled, and when the face position detected by the subject detection means is not at the predetermined position in the image, the presentation means moves so that the face position becomes the predetermined position. Instructions can be presented.

前記記録制御手段には、前記被写体検出手段によって検出された複数の前記顔の位置が、前記顔の数に応じた複数の前記所定位置にある場合、前記画像の記録を制御させ、前記提示手段には、前記被写体検出手段によって検出された複数の前記顔の位置が、前記顔の数に応じた複数の前記所定位置にない場合、複数の前記顔のそれぞれの位置がそれぞれの前記所定位置となるように移動する指示を提示させることができる。   The recording control means controls the recording of the image when the positions of the plurality of faces detected by the subject detection means are at the plurality of predetermined positions corresponding to the number of faces, and the presentation means If the positions of the plurality of faces detected by the subject detection means are not at the plurality of predetermined positions according to the number of faces, the positions of the plurality of faces are the respective predetermined positions. An instruction to move can be presented.

複数の前記所定位置は、前記顔の数に応じたテンプレートによって決定されるようにできる。   The plurality of predetermined positions may be determined by a template corresponding to the number of faces.

前記撮影装置には、前記被写体検出手段によって検出された前記顔に基づいて、前記被写体の年齢を検出する年齢検出手段をさらに設け、前記記録制御手段には、前記年齢検出手段によって検出された前記被写体の年齢が所定の年齢の範囲であり、かつ、前記顔の位置が前記所定位置にある場合、前記画像の記録を制御させ、前記提示手段には、前記年齢検出手段によって検出された前記被写体の年齢が所定の年齢の範囲であり、かつ、前記顔の位置が前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を提示させることができる。   The photographing apparatus is further provided with age detection means for detecting the age of the subject based on the face detected by the subject detection means, and the recording control means includes the age detection means detected by the age detection means. When the age of the subject is in a predetermined age range and the position of the face is in the predetermined location, the recording of the image is controlled, and the presenting means detects the subject detected by the age detecting means If the age is within a predetermined age range and the face position is not in the predetermined position, an instruction to move the face position to the predetermined position can be presented.

前記撮影装置には、前記被写体検出手段によって検出された複数の前記顔に基づいて、複数の前記顔に対応する前記被写体の性別を検出する性別検出手段をさらに設け、前記記録制御手段には、前記性別検出手段によって性別が検出された前記被写体の顔のうち、異性の前記被写体の顔同士の位置が所定の距離より近い場合、前記画像の記録を制御させ、前記提示手段には、前記性別検出手段によって性別が検出された前記被写体の顔のうち、異性の前記被写体の顔同士の位置が所定の距離より遠い場合、前記異性の前記被写体の顔同士の位置が所定の距離より近い位置となるように移動する指示を提示させることができる。   The photographing apparatus further includes gender detection means for detecting gender of the subject corresponding to the plurality of faces based on the plurality of faces detected by the subject detection means, and the recording control means includes Among the faces of the subject whose sex is detected by the sex detection means, when the positions of the faces of the opposite sex subjects are closer than a predetermined distance, the recording of the image is controlled, and the presentation means Among the faces of the subject whose gender has been detected by the detecting means, when the positions of the faces of the opposite subject are farther than a predetermined distance, the positions of the faces of the opposite subject are closer to the predetermined distance An instruction to move can be presented.

前記撮影装置には、前記被写体検出手段によって検出された前記顔に基づいて、前記顔の表情を検出する表情検出手段をさらに設け、前記記録制御手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にあり、かつ、前記表情検出手段によって検出された前記顔の表情が笑顔である場合、前記画像の記録を制御させることができる。   The photographing apparatus further includes facial expression detection means for detecting the facial expression based on the face detected by the subject detection means, and the recording control means includes the facial expression detection means detected by the subject detection means. When the face position is at the predetermined position in the image and the facial expression detected by the facial expression detection means is a smile, the recording of the image can be controlled.

前記提示手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を、前記被写体に提示させることができる。   When the face position detected by the subject detection means is not in the predetermined position in the image, the presenting means is instructed to move the face position to the predetermined position. Can be presented.

前記提示手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を、撮影者に提示させることができる。   When the face position detected by the subject detection means is not at the predetermined position in the image, the presenting means is instructed to move the face position to the predetermined position to the photographer. Can be presented.

前記提示手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示の表示を制御させることができる。   The presenting means controls display of an instruction to move the face position to the predetermined position when the face position detected by the subject detecting means is not at the predetermined position in the image. be able to.

前記提示手段には、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置を前記所定位置に移動する指示の音声による出力を制御させることができる。   Causing the presenting means to control the output by voice of an instruction to move the face position to the predetermined position when the position of the face detected by the subject detecting means is not in the predetermined position in the image; Can do.

本発明の一側面の撮影方法は、画像を撮影する撮影ステップと、前記撮影ステップの処理によって撮影された前記画像において、被写体を検出する被写体検出ステップと、前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において所定位置にある場合、前記画像の記録を制御する記録制御ステップと、前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において前記所定位置にない場合、前記被写体の位置が前記所定位置となるように移動する指示を提示する提示ステップとを含む。   An imaging method according to one aspect of the present invention is detected by a shooting step of shooting an image, a subject detection step of detecting a subject in the image shot by the processing of the shooting step, and a processing of the subject detection step. When the position of the subject is at a predetermined position in the image, the position of the subject detected by the processing of the recording control step for controlling recording of the image and the processing of the subject detection step is at the predetermined position in the image. If not, a presenting step of presenting an instruction to move the subject to the predetermined position is included.

本発明の一側面のプログラムは、画像の撮影を制御する撮影制御ステップと、前記撮影制御ステップの処理によって撮影された前記画像において、被写体を検出する被写体検出ステップと、前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において所定位置にある場合、前記画像の記録を制御する記録制御ステップと、前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において前記所定位置にない場合、前記被写体の位置が前記所定位置となるように移動する指示の提示を制御する提示制御ステップと含む処理をコンピュータに実行させる。   A program according to an aspect of the present invention includes a shooting control step for controlling shooting of an image, a subject detection step for detecting a subject in the image shot by the processing of the shooting control step, and a processing of the subject detection step. When the detected position of the subject is at a predetermined position in the image, the recording control step for controlling the recording of the image, and the position of the subject detected by the processing of the subject detection step in the image If it is not at the predetermined position, the computer is caused to execute processing including a presentation control step for controlling the presentation of an instruction to move the subject to the predetermined position.

本発明の一側面においては、画像が撮影され、撮影された画像において、被写体が検出され、検出された被写体の位置が、画像において所定位置にある場合、画像の記録が制御され、検出された被写体の位置が、画像において所定位置にない場合、被写体の位置が所定位置となるように移動する指示が提示される。   In one aspect of the present invention, an image is photographed, a subject is detected in the photographed image, and when the detected subject position is at a predetermined position in the image, recording of the image is controlled and detected. When the position of the subject is not in the predetermined position in the image, an instruction to move so that the position of the subject becomes the predetermined position is presented.

本発明の一側面によれば、被写体がより最適な位置にあるときに撮影することが可能となる。   According to one aspect of the present invention, it is possible to capture an image when the subject is at a more optimal position.

本発明を適用した撮影装置の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the imaging device to which this invention is applied. 撮影装置による撮影処理について説明するフローチャートである。It is a flowchart explaining the imaging | photography process by an imaging device. 撮影された被写体の画像について説明する図である。It is a figure explaining the image | photographed subject's image. テンプレートについて説明する図である。It is a figure explaining a template. テンプレートについて説明する図である。It is a figure explaining a template. テンプレートについて説明する図である。It is a figure explaining a template. 撮影された被写体の画像とテンプレートについて説明する図である。It is a figure explaining the image | photographed subject image and a template. 撮影された被写体の画像とテンプレートについて説明する図である。It is a figure explaining the image | photographed subject image and a template. 撮影された被写体の画像とテンプレートについて説明する図である。It is a figure explaining the image | photographed subject image and a template. 撮影装置による他の撮影処理について説明するフローチャートである。It is a flowchart explaining the other imaging | photography process by an imaging device. 撮影された被写体の画像とテンプレートについて説明する図である。It is a figure explaining the image | photographed subject image and a template. 撮影された被写体の画像とテンプレートについて説明する図である。It is a figure explaining the image | photographed subject image and a template. 撮影された被写体の画像とテンプレートについて説明する図である。It is a figure explaining the image | photographed subject image and a template. 撮影装置によるさらに他の撮影処理について説明するフローチャートである。It is a flowchart explaining the other imaging | photography process by an imaging device. 撮影された被写体の画像における被写体の位置について説明する図である。It is a figure explaining the position of the subject in the image of the photographed subject. 撮影された被写体の画像における被写体の位置について説明する図である。It is a figure explaining the position of the subject in the image of the photographed subject. 撮影された被写体の画像における被写体の位置について説明する図である。It is a figure explaining the position of the subject in the image of the photographed subject. 撮影装置によるさらに他の撮影処理について説明するフローチャートである。It is a flowchart explaining the other imaging | photography process by an imaging device. 撮影された被写体の画像とテンプレートについて説明する図である。It is a figure explaining the image | photographed subject image and a template. 撮影された被写体の画像とテンプレートについて説明する図である。It is a figure explaining the image | photographed subject image and a template. 撮影された被写体の画像とテンプレートについて説明する図である。It is a figure explaining the image | photographed subject image and a template. 撮影された被写体の画像とテンプレートについて説明する図である。It is a figure explaining the image | photographed subject image and a template.

以下、本発明の実施の形態について図を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[撮影装置の構成例]
図1は、本発明を適用した撮影装置の一実施の形態の構成例を示している。図1の撮影装置11は、例えば、デジタルカメラや携帯電話機等の、撮影機能を有する電子機器である。
[Configuration example of the shooting device]
FIG. 1 shows a configuration example of an embodiment of a photographing apparatus to which the present invention is applied. The imaging device 11 in FIG. 1 is an electronic device having an imaging function, such as a digital camera or a mobile phone.

図1の撮影装置11は、撮影部31、入力部32、記録部33、表示部34、音声出力部35、制御部36、ドライブ37、およびリムーバブルメディア38から構成される。   The imaging apparatus 11 of FIG. 1 includes an imaging unit 31, an input unit 32, a recording unit 33, a display unit 34, an audio output unit 35, a control unit 36, a drive 37, and a removable medium 38.

撮影部31は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal-Oxide Semiconductor)センサ等の光学的な画像を電気信号に変換する光電変換素子、および、光電変換素子に被写体の光学的な画像を結像させる光学系等からなる。撮影部31は、制御部36の制御に基づいて、被写体の画像を電気信号である画像信号に変換し、すなわち、被写体を撮影し、得られた画像信号を、制御部36に供給する。   The imaging unit 31 includes a photoelectric conversion element that converts an optical image such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal-Oxide Semiconductor) sensor into an electrical signal, and an optical image of a subject on the photoelectric conversion element. It consists of an optical system that forms an image. The imaging unit 31 converts the image of the subject into an image signal that is an electrical signal based on the control of the control unit 36, that is, images the subject and supplies the obtained image signal to the control unit 36.

入力部32は、撮影装置11に対する指示を入力するためにユーザに操作される。入力部32は、例えば、各種の操作ボタン、キーボード、マウス、リモコン、タッチパネル、マイクロホンなどから構成され、ユーザからの操作を受け付け、その操作内容を示す信号(情報)を制御部36に供給する。   The input unit 32 is operated by the user in order to input an instruction to the photographing apparatus 11. The input unit 32 includes, for example, various operation buttons, a keyboard, a mouse, a remote controller, a touch panel, a microphone, and the like, receives an operation from the user, and supplies a signal (information) indicating the operation content to the control unit 36.

記録部33は、ハードディスクドライブ、所定のドライブに駆動されるDVD(Digital Versatile Disk)などの光ディスクおよびそのドライブ、またはメモリカードなどの半導体メモリなどからなる。記録部33は、例えば、撮影部31において撮影された被写体の画像を記録する。   The recording unit 33 includes a hard disk drive, an optical disk such as a DVD (Digital Versatile Disk) driven by a predetermined drive, and a drive thereof, or a semiconductor memory such as a memory card. The recording unit 33 records, for example, an image of the subject photographed by the photographing unit 31.

表示部34は、LCD(Liquid Crystal Display)または有機EL(Electro Luminescence)などの表示デバイスからなり、制御部36の制御に基づいて、各種の画像を表示する。   The display unit 34 includes a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence), and displays various images based on the control of the control unit 36.

音声出力部35は、いわゆるスピーカにより構成され、制御部36の制御に基づいて、各種の音声を出力する。   The audio output unit 35 includes a so-called speaker, and outputs various types of audio based on the control of the control unit 36.

制御部36は、例えば、マイクロプロセッサなどからなり、撮影装置11全体を制御する。例えば、制御部36は、撮影部31からの画像信号に所定の処理を施し、所定の条件に基づいて、得られた画像データを記録部33に供給し、記録させる。   The control unit 36 includes, for example, a microprocessor and controls the entire photographing apparatus 11. For example, the control unit 36 performs a predetermined process on the image signal from the photographing unit 31 and supplies the obtained image data to the recording unit 33 based on a predetermined condition so as to be recorded.

制御部36は、コンピュータプログラムを実行することにより、撮影制御部51、画像処理部52、顔検出部53、属性検出部54、入力制御部55、条件判定部56、記録制御部57、表示制御部58、および音声出力制御部59を実現する。   The control unit 36 executes the computer program, thereby causing the imaging control unit 51, the image processing unit 52, the face detection unit 53, the attribute detection unit 54, the input control unit 55, the condition determination unit 56, the recording control unit 57, and the display control. The unit 58 and the audio output control unit 59 are realized.

撮影制御部51は、入力制御部55からの信号(情報)に基づいて、撮影部31による被写体の撮影を制御する。撮影制御部51は、撮影部31から供給される画像信号から画像データを生成し、生成した画像データを画像処理部52に供給する。   The shooting control unit 51 controls shooting of a subject by the shooting unit 31 based on a signal (information) from the input control unit 55. The imaging control unit 51 generates image data from the image signal supplied from the imaging unit 31 and supplies the generated image data to the image processing unit 52.

画像処理部52は、撮影制御部51からの画像データ(以下、単に、画像ともいう)に、適宜、所定の処理を施して、必要に応じて、顔検出部53、記録制御部57、および表示制御部58に供給する。   The image processing unit 52 appropriately performs predetermined processing on image data (hereinafter also simply referred to as an image) from the imaging control unit 51, and if necessary, a face detection unit 53, a recording control unit 57, and This is supplied to the display control unit 58.

顔検出部53は、画像処理部52から供給された画像から顔を検出し、顔を検出する領域である顔検出領域の位置および大きさに基づいて顔画像を抽出して、顔検出領域の位置を表す情報とともに、属性検出部54に供給する。また、顔検出部53は、顔検出領域の位置を表す情報を、条件判定部56に供給する。   The face detection unit 53 detects a face from the image supplied from the image processing unit 52, extracts a face image based on the position and size of the face detection region that is a region for detecting the face, Along with information representing the position, the information is supplied to the attribute detection unit 54. Further, the face detection unit 53 supplies information representing the position of the face detection area to the condition determination unit 56.

属性検出部54は、顔検出部53からの顔画像から、被写体の属性(表情、年齢、性別)を検出し、被写体の属性についての情報を、条件判定部56に供給する。属性検出部54は、表情検出部54a、年齢検出部54b、および性別検出部54cを備えている。表情検出部54aは、顔検出部53からの顔画像から、被写体の顔の表情を検出する。年齢検出部54bは、顔検出部53からの顔画像から、被写体の年齢を検出する。性別検出部54cは、顔検出部53からの顔画像から、被写体の性別を検出する。   The attribute detection unit 54 detects subject attributes (expression, age, sex) from the face image from the face detection unit 53 and supplies information about the subject attributes to the condition determination unit 56. The attribute detection unit 54 includes a facial expression detection unit 54a, an age detection unit 54b, and a gender detection unit 54c. The facial expression detection unit 54 a detects the facial expression of the subject from the face image from the face detection unit 53. The age detection unit 54 b detects the age of the subject from the face image from the face detection unit 53. The sex detector 54 c detects the sex of the subject from the face image from the face detector 53.

なお、顔検出部による顔の検出、および、属性検出部54による属性の検出は、例えば、様々な顔画像について、顔画像とその属性を予め学習しておき、得られた学習データを記録部33に記録させた上で、記録制御部57を介して取得することで実現される。   The face detection by the face detection unit and the attribute detection by the attribute detection unit 54 are performed by, for example, learning face images and their attributes in advance for various face images, and storing the obtained learning data in the recording unit This is realized by recording the data in the recording control unit 57 and recording it in the recording control unit 57.

入力制御部55は、入力部32を制御し、ユーザの操作に応じた、入力部32からのユーザの操作を示す信号を取得し、撮影制御部51および条件判定部56に供給する。   The input control unit 55 controls the input unit 32, acquires a signal indicating the user operation from the input unit 32 according to the user operation, and supplies the signal to the imaging control unit 51 and the condition determination unit 56.

条件判定部56は、入力制御部55からの信号に応じて、顔検出部53からの顔検出領域の位置を表す情報や、属性検出部54からの被写体の顔の属性についての情報に基づいて、顔検出領域の位置や被写体の顔の属性が、所定の条件を満たしているか否かを判定する。条件判定部56は、判定の結果に応じて、記録制御部57に対して画像の記録を指示したり、表示制御部58に所定の条件を満たすための表示を指示するか、または、音声出力制御部59に所定の条件を満たすための音声の出力を指示する。   In accordance with a signal from the input control unit 55, the condition determination unit 56 is based on information indicating the position of the face detection area from the face detection unit 53 and information on the face attribute of the subject from the attribute detection unit 54. Then, it is determined whether or not the position of the face detection region and the face attribute of the subject satisfy a predetermined condition. The condition determination unit 56 instructs the recording control unit 57 to record an image, instructs the display control unit 58 to display to satisfy a predetermined condition, or outputs sound according to the determination result. The control unit 59 is instructed to output sound for satisfying a predetermined condition.

記録制御部57は、条件判定部56からの指示に基づいて、画像処理部52からの画像を、記録部33に記録させる。   The recording control unit 57 causes the recording unit 33 to record the image from the image processing unit 52 based on an instruction from the condition determination unit 56.

表示制御部58は、画像処理部52からの画像を表示部34に表示させる他、条件判定部56からの指示に基づいて、所定の条件を満たすための表示を表示部34に行わせる。   In addition to displaying the image from the image processing unit 52 on the display unit 34, the display control unit 58 causes the display unit 34 to perform display for satisfying a predetermined condition based on an instruction from the condition determination unit 56.

音声出力制御部59は、条件判定部56からの指示に基づいて、所定の条件を満たすための音声を音声出力部35に出力させる。   The sound output control unit 59 causes the sound output unit 35 to output sound for satisfying a predetermined condition based on an instruction from the condition determination unit 56.

ドライブ37には、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブルメディア38が適宜装着される。ドライブ37は、制御部36に制御されて、装着されているリムーバブルメディア38から読み出されたコンピュータプログラムやデータを、必要に応じて記録部33にインストールするか記憶させる。   A removable medium 38 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is appropriately attached to the drive 37. The drive 37 is controlled by the control unit 36 to install or store the computer program and data read from the mounted removable medium 38 in the recording unit 33 as necessary.

[撮影装置の撮影処理]
次に、図2のフローチャートを参照して、撮影装置11による撮影処理について説明する。
[Shooting process of the shooting device]
Next, imaging processing by the imaging device 11 will be described with reference to the flowchart of FIG.

撮影装置11は、例えば、入力部32が操作され、入力制御部55が、撮影モードのうちの集合写真撮影モードの選択の指示を取得し、条件判定部56に供給すると処理を開始する。   For example, when the input unit 32 is operated and the input control unit 55 acquires an instruction to select a group photo shooting mode among the shooting modes and supplies the instruction to the condition determination unit 56, the photographing apparatus 11 starts processing.

ステップS11において、撮影部31は、撮影制御部51の制御に基づいて、被写体の画像を電気信号である画像信号に変換し、すなわち、被写体を撮影し、得られた画像信号を、撮影制御部51に供給する。撮影制御部51は、撮影部31からの画像信号から画像データを生成し、画像処理部52に供給する。画像処理部52は、撮影制御部51からの画像データを、顔検出部53および表示制御部58に供給する。このとき、表示制御部58は、画像処理部52からの画像データに基づいて、表示部34に、撮影されている被写体の画像(いわゆるスルー画)を表示させる。   In step S11, the photographing unit 31 converts the image of the subject into an image signal that is an electric signal based on the control of the photographing control unit 51, that is, the subject is photographed, and the obtained image signal is converted into the photographing control unit. 51. The imaging control unit 51 generates image data from the image signal from the imaging unit 31 and supplies the image data to the image processing unit 52. The image processing unit 52 supplies the image data from the imaging control unit 51 to the face detection unit 53 and the display control unit 58. At this time, the display control unit 58 causes the display unit 34 to display an image of the subject being photographed (so-called through image) based on the image data from the image processing unit 52.

ステップS12において、顔検出部53は、画像処理部52からの被写体の画像において、顔を検出し、顔検出領域の位置および大きさに基づいて顔画像を抽出して、属性検出部54に供給する。また、顔検出部53は、顔検出領域の位置を表す情報を、属性検出部54および条件判定部56に供給する。   In step S 12, the face detection unit 53 detects a face in the subject image from the image processing unit 52, extracts a face image based on the position and size of the face detection area, and supplies the face image to the attribute detection unit 54. To do. Further, the face detection unit 53 supplies information representing the position of the face detection region to the attribute detection unit 54 and the condition determination unit 56.

例えば、画像処理部52からの画像が、図3に示されるように、人物である被写体A1乃至A3が撮影されている画像である場合、顔検出部53は、被写体A1乃至A3の3人それぞれの顔を検出し、それぞれの顔画像を属性検出部54に供給する。また、顔検出部53は、被写体A1乃至A3の3人それぞれの顔についての顔検出領域の位置を表す情報を、属性検出部54および条件判定部56に供給する。   For example, when the image from the image processing unit 52 is an image in which subjects A1 to A3, which are persons, are photographed as shown in FIG. 3, the face detection unit 53 has three subjects A1 to A3, respectively. Are detected, and each face image is supplied to the attribute detection unit 54. In addition, the face detection unit 53 supplies information representing the position of the face detection area for each of the three faces of the subjects A1 to A3 to the attribute detection unit 54 and the condition determination unit 56.

ステップS13において、条件判定部56は、顔検出部53からの顔検出領域の位置を表す情報を基に、検出された顔の数を求め、その数に応じたテンプレートを、記録制御部57を介して、記録部33から読み出す。   In step S <b> 13, the condition determination unit 56 obtains the number of detected faces based on the information indicating the position of the face detection area from the face detection unit 53, and uses the recording control unit 57 for a template corresponding to the number. Via the recording unit 33.

条件判定部56によって読み出されるテンプレートは、集合写真において、被写体の数に応じた、被写体の顔の配置が最適となる位置(以下、指定位置という)を決定するためのデータである。例えば、図3に示されたように、被写体が3人である場合、条件判定部56は、図4に示されるようなテンプレートを、記録部33から読み出す。図4のテンプレートにおいては、被写体3人の集合写真に対して、被写体A1乃至A3の指定位置P1乃至P3が決定されている。条件判定部56が読み出したテンプレートを表示制御部58に供給することで、表示部34には、被写体のスルー画に、図4に示されるようなテンプレートが重畳して表示される。   The template read by the condition determination unit 56 is data for determining a position (hereinafter referred to as a designated position) where the arrangement of the subject's face is optimal in the group photo according to the number of subjects. For example, as illustrated in FIG. 3, when there are three subjects, the condition determination unit 56 reads a template as illustrated in FIG. 4 from the recording unit 33. In the template of FIG. 4, designated positions P1 to P3 of the subjects A1 to A3 are determined for the group photo of three subjects. By supplying the template read by the condition determination unit 56 to the display control unit 58, the display unit 34 displays a template as shown in FIG.

なお、例えば、被写体が5人である場合には、条件判定部56は、図5に示されるようなテンプレートを記録部33から読み出す。図5においては、被写体5人の集合写真に対して、指定位置P1乃至P5が決定される。また、例えば、被写体が11人である場合には、条件判定部56は、図6に示されるようなテンプレートを記録部33から読み出す。図6においては、被写体11人の集合写真に対して、指定位置P1乃至P11が決定される。   For example, when there are five subjects, the condition determination unit 56 reads a template as illustrated in FIG. 5 from the recording unit 33. In FIG. 5, designated positions P1 to P5 are determined for a group photo of five subjects. For example, when there are 11 subjects, the condition determination unit 56 reads a template as shown in FIG. 6 from the recording unit 33. In FIG. 6, designated positions P1 to P11 are determined for a group photo of 11 subjects.

図2のフローチャートに戻り、ステップS14において、条件判定部56は、撮影した画像における被写体の顔の位置と、テンプレートにおける指定位置とを比較する。より具体的には、条件判定部56は、顔検出部53からの顔検出領域の位置を表す情報から、顔検出領域の中心の座標を求め、テンプレートにおける指定位置の中心の座標との距離を算出する。   Returning to the flowchart of FIG. 2, in step S14, the condition determination unit 56 compares the position of the face of the subject in the captured image with the designated position in the template. More specifically, the condition determination unit 56 obtains the coordinates of the center of the face detection area from the information representing the position of the face detection area from the face detection unit 53, and calculates the distance from the coordinates of the center of the designated position in the template. calculate.

ステップS15において、条件判定部56は、撮影した画像における被写体の顔の位置が、テンプレートにおける指定位置にあるか否かを判定する。より具体的には、条件判定部56は、ステップS14において算出した顔検出領域の中心の座標と、テンプレートにおける指定位置の中心の座標との距離が、所定の距離より近いか否かを判定する。   In step S15, the condition determination unit 56 determines whether or not the position of the face of the subject in the captured image is at a specified position in the template. More specifically, the condition determination unit 56 determines whether the distance between the coordinates of the center of the face detection area calculated in step S14 and the coordinates of the center of the designated position in the template is shorter than a predetermined distance. .

ステップS15において、被写体の顔の位置が指定位置にあると判定された場合、すなわち、顔検出領域の中心の座標と指定位置の中心の座標との距離が所定の距離より近い場合、処理は、ステップS16に進む。すなわち、例えば、図7に示されるように、被写体A1の顔の位置が指定位置P1にあり、被写体A2の顔の位置が指定位置P2にあり、被写体A3の顔の位置が指定位置P3にある場合、処理は、ステップS16に進む。   If it is determined in step S15 that the face position of the subject is at the specified position, that is, if the distance between the coordinates of the center of the face detection area and the coordinates of the center of the specified position is closer than a predetermined distance, Proceed to step S16. That is, for example, as shown in FIG. 7, the face position of the subject A1 is at the designated position P1, the face position of the subject A2 is at the designated position P2, and the face position of the subject A3 is at the designated position P3. If so, the process proceeds to step S16.

ステップS16において、条件判定部56は、被写体の顔の表情が笑顔であるか否かを判定する。より具体的には、属性検出部54の表情検出部54aは、ステップS12において顔検出部53から供給された顔画像に基づいて、被写体の顔の表情を検出し、被写体の顔の表情を表す情報を、顔検出領域を表す位置とともに、条件判定部56に供給する。条件判定部56は、表情検出部54aからの被写体の顔の表情を表す情報に基づいて、対応する位置にある被写体の顔の表情が笑顔であるか否かを判定する。   In step S16, the condition determination unit 56 determines whether the facial expression of the subject is a smile. More specifically, the expression detection unit 54a of the attribute detection unit 54 detects the facial expression of the subject based on the face image supplied from the face detection unit 53 in step S12, and represents the facial expression of the subject. Information is supplied to the condition determination unit 56 together with the position representing the face detection area. The condition determining unit 56 determines whether or not the facial expression of the subject at the corresponding position is a smile based on the information representing the facial expression of the subject from the facial expression detection unit 54a.

ステップS16において、被写体の顔の表情が笑顔でないと判定された場合、処理は、ステップS15に戻り、被写体の顔の表情が笑顔になるまで、ステップS15,S16の処理が繰り返される。   If it is determined in step S16 that the facial expression of the subject is not a smile, the process returns to step S15, and the processes of steps S15 and S16 are repeated until the facial expression of the subject becomes a smile.

一方、ステップS16において、被写体の顔の表情が笑顔であると判定された場合、条件判定部56は、記録制御部57に記録の指示を供給し、処理は、ステップS17に進む。   On the other hand, if it is determined in step S16 that the facial expression of the subject is a smile, the condition determination unit 56 supplies a recording instruction to the recording control unit 57, and the process proceeds to step S17.

ステップS17において、記録制御部57は、条件判定部56からの指示に基づいて、画像処理部52からの画像を、記録部33に記録させる。すなわち、被写体の顔の位置が指定位置にあり、かつ、被写体の顔が笑顔になったとき、いわゆるシャッタボタンが押下された場合と同様にして、被写体の画像が記録される。   In step S <b> 17, the recording control unit 57 causes the recording unit 33 to record the image from the image processing unit 52 based on an instruction from the condition determination unit 56. That is, when the face of the subject is at the designated position and the face of the subject is smiling, the subject image is recorded in the same manner as when a so-called shutter button is pressed.

ところで、ステップS15において、被写体の顔の位置が指定位置にないと判定された場合、すなわち、顔検出領域の中心の座標と指定位置の中心の座標との距離が所定の距離より遠い場合、処理は、ステップS18に進む。すなわち、例えば、図8に示されるように、被写体A1の顔の位置が指定位置P1の左側にずれてあり、被写体A2の顔の位置が指定位置P2の左側にずれてあり、被写体A3の顔の位置が指定位置P3の右側にずれてある場合、処理は、ステップS18に進む。   By the way, if it is determined in step S15 that the face position of the subject is not at the specified position, that is, if the distance between the center coordinates of the face detection area and the center coordinates of the specified position is greater than a predetermined distance, Advances to step S18. That is, for example, as shown in FIG. 8, the face position of the subject A1 is shifted to the left of the specified position P1, the face position of the subject A2 is shifted to the left of the specified position P2, and the face of the subject A3 Is shifted to the right side of the designated position P3, the process proceeds to step S18.

ステップS18において、表示制御部58は、それぞれの被写体の顔の位置がそれぞれの指定位置となるように移動する指示を被写体に提示する。より具体的には、条件判定部56は、表示制御部58に、被写体の顔の位置が指定位置となるようにする(顔検出領域の中心の座標と指定位置の中心の座標との距離を所定の距離に近づける)ための表示を指示する。表示制御部58は、条件判定部56からの指示に基づいて、被写体の顔の位置が指定位置となるようにするための表示を表示部34に行わせる。例えば、図8で説明したように、被写体の顔の位置が指定位置にない場合には、表示制御部58は、図9に示されるように、被写体A1については図中右側に、被写体A2については図中右側に、被写体A3については図中左側に、それぞれ移動するように矢印を表示させることで、撮影者を介して被写体に対する移動の指示を提示する。   In step S18, the display control unit 58 presents to the subject an instruction to move so that the face position of each subject becomes the designated position. More specifically, the condition determination unit 56 causes the display control unit 58 to set the position of the subject's face to the designated position (the distance between the coordinates of the center of the face detection region and the coordinates of the center of the designated position). The display is instructed to be close to a predetermined distance. Based on the instruction from the condition determination unit 56, the display control unit 58 causes the display unit 34 to display so that the position of the subject's face becomes the specified position. For example, as described with reference to FIG. 8, when the position of the subject's face is not at the designated position, the display control unit 58 displays the subject A1 on the right side in the drawing and the subject A2 as shown in FIG. Is displayed on the right side in the figure and the subject A3 is displayed on the left side in the figure so as to move, thereby presenting an instruction to move the subject through the photographer.

また、被写体への移動の指示は、表示による撮影者を介してのものでなく、音声による被写体への直接の指示であってもよい。具体的には、条件判定部56は、音声出力制御部59に、被写体の顔の位置が指定位置となるようにするための音声の出力を指示する。音声出力制御部59は、条件判定部56からの指示に基づいて、被写体の顔の位置が指定位置となるようにするための音声を音声出力部35に出力させる。例えば、図8で説明したように、被写体の顔の位置が指定位置にない場合には、音声出力制御部59は、被写体A1に対しては「向かって左側の人、もう少し左手に寄ってください」、被写体A2に対しては「真ん中の人、もう少し左手に寄ってください」、被写体A3に対しては「向かって右側の人、もう少し右手に寄ってください」と、それぞれ移動するように音声を出力させることで、被写体に対する移動の指示を提示する。   In addition, the instruction to move to the subject may be a direct instruction to the subject by sound, not via the photographer by display. Specifically, the condition determination unit 56 instructs the audio output control unit 59 to output audio so that the face position of the subject becomes the designated position. The sound output control unit 59 causes the sound output unit 35 to output sound for causing the face position of the subject to be the designated position based on an instruction from the condition determination unit 56. For example, as described in FIG. 8, when the face position of the subject is not in the designated position, the audio output control unit 59 will say “Look at the person on the left side and approach the left hand a little to the subject A1. “For the subject A2,“ middle person, please come to the left hand a little more ”, and for the subject A3, say“ the person on the right side, please go a little more to the right hand, ”and so on. By outputting, an instruction to move the subject is presented.

ステップS18の後、処理はステップS15に戻り、被写体の顔の位置が指定位置にあると判定されるまで、ステップS15,S18の処理が繰り返される。   After step S18, the process returns to step S15, and the processes of steps S15 and S18 are repeated until it is determined that the face position of the subject is at the designated position.

以上の処理によれば、集合写真の撮影時に、被写体の数に応じたテンプレートを読み出して、それぞれの被写体の顔の位置が、テンプレートの指定位置にあるときに画像を記録するようにしたので、被写体がより最適な位置にあるときに撮影することが可能となる。   According to the above processing, when taking a group photo, a template corresponding to the number of subjects is read out, and an image is recorded when the face position of each subject is at the designated position of the template. It is possible to take a picture when the subject is at a more optimal position.

以上においては、被写体の顔の数に応じた指定位置に被写体の顔があるときに撮影する処理について説明したが、被写体の年齢、例えば、被写体が赤ちゃんである場合に撮影するようにすることもできる。   In the above description, the processing for photographing when the subject's face is located at the designated position corresponding to the number of the subject's faces has been described. However, it is also possible to photograph when the subject's age, for example, the subject is a baby. it can.

[撮影装置の他の撮影処理]
次に、図10のフローチャートを参照して、赤ちゃんを撮影するときの赤ちゃん撮影モードにおける、撮影装置11の撮影処理について説明する。
[Other shooting processes for shooting device]
Next, with reference to the flowchart of FIG. 10, the imaging process of the imaging device 11 in the baby imaging mode when imaging a baby will be described.

撮影装置11は、例えば、入力部32が操作され、入力制御部55が、撮影モードのうちの赤ちゃん撮影モードの選択の指示を取得し、条件判定部56に供給すると処理を開始する。   For example, when the input unit 32 is operated and the input control unit 55 acquires an instruction to select a baby shooting mode among the shooting modes and supplies the instruction to the condition determination unit 56, the imaging device 11 starts processing.

図10のフローチャートにおいて、ステップS31,S32の処理は、図2のフローチャートのステップS11,S12の処理と同様であるので、その説明は省略する。   In the flowchart of FIG. 10, the processes of steps S31 and S32 are the same as the processes of steps S11 and S12 of the flowchart of FIG.

ステップS33において、属性検出部54の年齢検出部54bは、顔検出部53からの顔画像から被写体の年齢を検出し、被写体の年齢を表す情報を、条件判定部56に供給する。   In step S <b> 33, the age detection unit 54 b of the attribute detection unit 54 detects the age of the subject from the face image from the face detection unit 53 and supplies information representing the age of the subject to the condition determination unit 56.

ステップS34において、条件判定部56は、年齢検出部54bからの被写体の年齢を表す情報に基づいて、赤ちゃんの顔が存在するか否かを判定する。より具体的には、条件判定部56は、年齢検出部54bからの被写体の年齢を表す情報から、年齢が所定の年齢の範囲(例えば、0歳乃至3歳)に含まれている被写体が存在するか否かを判定する。   In step S34, the condition determination unit 56 determines whether or not the baby's face exists based on the information representing the age of the subject from the age detection unit 54b. More specifically, the condition determination unit 56 includes a subject whose age is included in a predetermined age range (for example, 0 to 3 years old) based on the information indicating the age of the subject from the age detection unit 54b. It is determined whether or not to do.

ステップS34において、赤ちゃんの顔が存在すると判定された場合、処理は、ステップS35に進み、条件判定部56は、赤ちゃん撮影モードに対応したテンプレートを、記録制御部57を介して、記録部33から読み出す。ここで読み出されるテンプレートは、赤ちゃんの顔の位置を画像の中央に配置させるためのデータである。赤ちゃんが撮影されたシーンの画像においては、赤ちゃんは中央に写っていることが比較的多く、赤ちゃん撮影モードで用いられるテンプレートにおいては、画像の中央に指定位置が決定されている。   If it is determined in step S34 that a baby face is present, the process proceeds to step S35, and the condition determination unit 56 sends a template corresponding to the baby shooting mode from the recording unit 33 via the recording control unit 57. read out. The template read out here is data for arranging the position of the baby's face in the center of the image. In an image of a scene in which a baby is photographed, the baby is often reflected in the center, and in the template used in the baby photographing mode, the designated position is determined at the center of the image.

ステップS36において、条件判定部56は、撮影した画像における被写体(赤ちゃん)の顔の位置と、テンプレートにおける指定位置とを比較する。より具体的には、条件判定部56は、顔検出部53からの顔検出領域の位置を表す情報から、顔検出領域の中心の座標を求め、テンプレートにおける指定位置の中心の座標との距離を算出する。   In step S36, the condition determination unit 56 compares the position of the face of the subject (baby) in the photographed image with the designated position in the template. More specifically, the condition determination unit 56 obtains the coordinates of the center of the face detection area from the information representing the position of the face detection area from the face detection unit 53, and calculates the distance from the coordinates of the center of the designated position in the template. calculate.

ステップS37において、条件判定部56は、撮影した画像における被写体(赤ちゃん)の顔の位置が、テンプレートにおける指定位置にあるか否かを判定する。より具体的には、条件判定部56は、ステップS36において算出した顔検出領域の中心の座標と、テンプレートにおける指定位置の中心の座標との距離が、所定の距離より近いか否かを判定する。   In step S37, the condition determination unit 56 determines whether or not the position of the face of the subject (baby) in the photographed image is at a specified position in the template. More specifically, the condition determination unit 56 determines whether the distance between the coordinates of the center of the face detection area calculated in step S36 and the coordinates of the center of the designated position in the template is shorter than a predetermined distance. .

ステップS37において、被写体の顔の位置が指定位置にあると判定された場合、すなわち、顔検出領域の中心の座標と指定位置の中心の座標との距離が所定の距離より近い場合、処理は、ステップS38に進む。すなわち、例えば、図11に示されるように、被写体A4が被写体Mに抱きかかえられているシーンが撮影されている画像であって、被写体A4が赤ちゃんであると判定された画像において、被写体A4の顔の位置が指定位置P4にある場合、処理は、ステップS38に進む。   If it is determined in step S37 that the face position of the subject is at the designated position, that is, if the distance between the coordinates of the center of the face detection area and the coordinates of the center of the designated position is closer than a predetermined distance, the processing is as follows: Proceed to step S38. That is, for example, as illustrated in FIG. 11, in an image in which a scene in which the subject A4 is held by the subject M is captured and the subject A4 is determined to be a baby, If the face position is at the designated position P4, the process proceeds to step S38.

ステップS38において、条件判定部56は、被写体の顔の表情が笑顔であるか否かを判定する。より具体的には、属性検出部54の表情検出部54aは、ステップS32において顔検出部53から供給された顔画像に基づいて、被写体の顔の表情を検出し、被写体の顔の表情を表す情報を、顔検出領域の位置を表す情報とともに、条件判定部56に供給する。条件判定部56は、表情検出部54aからの被写体の顔の表情を表す情報に基づいて、対応する位置にある被写体の顔の表情が笑顔であるか否かを判定する。   In step S38, the condition determination unit 56 determines whether the facial expression of the subject is a smile. More specifically, the expression detection unit 54a of the attribute detection unit 54 detects the facial expression of the subject based on the face image supplied from the face detection unit 53 in step S32, and represents the facial expression of the subject. The information is supplied to the condition determination unit 56 together with information indicating the position of the face detection area. The condition determining unit 56 determines whether or not the facial expression of the subject at the corresponding position is a smile based on the information representing the facial expression of the subject from the facial expression detection unit 54a.

ステップS38において、被写体の顔の表情が笑顔でないと判定された場合、処理は、ステップS37に戻り、被写体の顔の表情が笑顔になるまで、ステップS37,S38の処理が繰り返される。   If it is determined in step S38 that the facial expression of the subject is not a smile, the process returns to step S37, and the processes of steps S37 and S38 are repeated until the facial expression of the subject becomes a smile.

一方、ステップS38において、被写体の顔の表情が笑顔であると判定された場合、条件判定部56は、記録制御部57に記録の指示を供給し、処理は、ステップS39に進む。   On the other hand, if it is determined in step S38 that the facial expression of the subject is a smile, the condition determination unit 56 supplies a recording instruction to the recording control unit 57, and the process proceeds to step S39.

ステップS39において、記録制御部57は、条件判定部56からの指示に基づいて、画像処理部52からの画像を、記録部33に記録させる。すなわち、赤ちゃんである被写体の顔の位置が指定位置にあり、かつ、被写体の顔が笑顔になったとき、いわゆるシャッタボタンが押下された場合と同様にして、被写体の画像が記録される。   In step S 39, the recording control unit 57 causes the recording unit 33 to record the image from the image processing unit 52 based on the instruction from the condition determination unit 56. That is, when the face position of the subject that is a baby is at the designated position and the face of the subject is smiling, the image of the subject is recorded in the same manner as when a so-called shutter button is pressed.

ところで、ステップS37において、被写体の顔の位置が指定位置にないと判定された場合、すなわち、顔検出領域の中心の座標と指定位置の中心の座標との距離が所定の距離より遠い場合、処理は、ステップS40に進む。すなわち、例えば、図12に示されるように、被写体A4の顔の位置が指定位置P4の左側にずれてある場合、処理は、ステップS40に進む。   By the way, if it is determined in step S37 that the position of the subject's face is not at the specified position, that is, if the distance between the coordinates of the center of the face detection area and the coordinates of the center of the specified position is greater than a predetermined distance, processing is performed. Advances to step S40. That is, for example, as shown in FIG. 12, when the position of the face of the subject A4 is shifted to the left side of the designated position P4, the process proceeds to step S40.

ステップS40において、表示制御部58は、被写体の顔の位置が指定位置となるように移動する指示を被写体に提示する。より具体的には、条件判定部56は、表示制御部58に、被写体の顔の位置が指定位置となるようにする(顔検出領域の中心の座標と指定位置の中心の座標との距離を所定の距離に近づける)ための表示を指示する。表示制御部58は、条件判定部56からの指示に基づいて、被写体の顔の位置が指定位置となるようにするための表示を表示部34に行わせる。例えば、図12で説明したように、被写体の顔の位置が指定位置にない場合には、表示制御部58は、図13に示されるように、被写体A4を抱きかかえている被写体Mが被写体A4を図中右側に移動するように矢印を表示させることで、撮影者を介して被写体に対する移動の指示を提示する。   In step S40, the display control unit 58 presents an instruction to the subject to move so that the position of the subject's face becomes the specified position. More specifically, the condition determination unit 56 causes the display control unit 58 to set the position of the subject's face to the designated position (the distance between the coordinates of the center of the face detection region and the coordinates of the center of the designated position). The display is instructed to be close to a predetermined distance. Based on the instruction from the condition determination unit 56, the display control unit 58 causes the display unit 34 to display so that the position of the subject's face becomes the specified position. For example, as described with reference to FIG. 12, when the face position of the subject is not at the designated position, the display control unit 58 causes the subject M holding the subject A4 to be the subject A4 as shown in FIG. Is displayed so as to move to the right side in the figure, and an instruction to move the subject is presented via the photographer.

また、被写体への移動の指示は、表示による撮影者を介してのものでなく、音声による被写体への直接の指示であってもよい。具体的には、条件判定部56は、音声出力制御部59に、被写体の顔の位置が指定位置となるようにするための音声の出力を指示する。音声出力制御部59は、条件判定部56からの指示に基づいて、被写体の顔の位置が指定位置となるようにするための音声を音声出力部35に出力させる。例えば、図12で説明したように、被写体の顔の位置が指定位置にない場合には、音声出力制御部59は、被写体A4を抱きかかえている被写体Mに対して、「赤ちゃんをもう少し左手に持ってきてください」と音声を出力させることで、被写体に対する移動の指示を提示する。   In addition, the instruction to move to the subject may be a direct instruction to the subject by sound, not via the photographer by display. Specifically, the condition determination unit 56 instructs the audio output control unit 59 to output audio so that the face position of the subject becomes the designated position. The sound output control unit 59 causes the sound output unit 35 to output sound for causing the face position of the subject to be the designated position based on an instruction from the condition determination unit 56. For example, as described with reference to FIG. 12, when the position of the subject's face is not at the specified position, the audio output control unit 59 instructs the subject M holding the subject A4 to “hold the baby a little more to the left. "Please bring it" to output the voice and present the instruction to move the subject.

ステップS40の後、処理はステップS37に戻り、被写体の顔の位置が指定位置にあると判定されるまで、ステップS37,S40の処理が繰り返される。   After step S40, the process returns to step S37, and the processes of steps S37 and S40 are repeated until it is determined that the position of the subject's face is at the designated position.

また、ステップS34において、赤ちゃんの顔が存在しないと判定された場合、条件判定部56は、例えば、「赤ちゃんはいません」等の表示を表示部34に行わせる指示を、表示制御部58に供給して、処理は終了する。   If it is determined in step S34 that the baby's face does not exist, the condition determination unit 56 instructs the display control unit 58 to instruct the display unit 34 to display, for example, “no baby”. Then, the process ends.

なお、図11乃至図13を参照した説明では、赤ちゃんである被写体は1人であるものとしたが、複数であってもよく、赤ちゃんの数に応じた指定位置を決定するテンプレートを用いて撮影するようにすることもできる。   In the description with reference to FIG. 11 to FIG. 13, it is assumed that there is only one subject that is a baby. However, a plurality of subjects may be used, and imaging is performed using a template that determines a designated position according to the number of babies. You can also do it.

以上の処理によれば、赤ちゃんの撮影時に、赤ちゃんの撮影に応じたテンプレートを読み出して、被写体(赤ちゃん)の顔の位置が、テンプレートの指定位置にあるときに画像を記録するようにしたので、被写体がより最適な位置にあるときに撮影することが可能となる。   According to the above processing, when the baby is photographed, the template corresponding to the baby's photographing is read, and the image is recorded when the face position of the subject (baby) is at the designated position of the template. It is possible to take a picture when the subject is at a more optimal position.

以上においては、被写体の顔がテンプレートで決定される指定位置にあるときに撮影する処理について説明したが、被写体同士が所定の位置関係にある場合に撮影するようにすることもできる。   In the above description, the processing for capturing an image when the subject's face is at a specified position determined by the template has been described. However, it is also possible to perform imaging when the subjects are in a predetermined positional relationship.

[撮影装置のさらに他の撮影処理]
次に、図14のフローチャートを参照して、男女ペアのカップルを撮影するときのカップル撮影モードにおける、撮影装置11の撮影処理について説明する。
[Further shooting process of the shooting device]
Next, with reference to the flowchart of FIG. 14, the photographing process of the photographing apparatus 11 in the couple photographing mode when photographing a couple of men and women will be described.

撮影装置11は、例えば、入力部32が操作され、入力制御部55が、撮影モードのうちのカップル撮影モードの選択の指示を取得し、条件判定部56に供給すると処理を開始する。   For example, when the input unit 32 is operated and the input control unit 55 acquires an instruction to select a couple shooting mode among the shooting modes and supplies the instruction to the condition determination unit 56, the imaging device 11 starts processing.

図14のフローチャートにおいて、ステップS51,S52の処理は、図2のフローチャートのステップS11,S12の処理と同様であるので、その説明は省略する。   In the flowchart of FIG. 14, the processing of steps S51 and S52 is the same as the processing of steps S11 and S12 of the flowchart of FIG.

ステップS53において、属性検出部54の性別検出部54cは、顔検出部53からの顔画像から被写体の性別を検出し、被写体の性別を表す情報を、条件判定部56に供給する。   In step S <b> 53, the gender detection unit 54 c of the attribute detection unit 54 detects the gender of the subject from the face image from the face detection unit 53, and supplies information representing the gender of the subject to the condition determination unit 56.

ステップS54において、条件判定部56は、性別検出部54cからの被写体の性別を表す情報に基づいて、男性の顔と女性の顔のそれぞれが存在するか否かを判定する。   In step S54, the condition determination unit 56 determines whether each of the male face and the female face exists based on the information representing the sex of the subject from the sex detection unit 54c.

ステップS54において、男性の顔と女性の顔のそれぞれが存在すると判定された場合、処理は、ステップS55に進み、条件判定部56は、撮影した画像における男性の顔の位置と女性の顔の位置とを比較する。より具体的には、条件判定部56は、顔検出部53からの顔検出領域の位置を表す情報から、それぞれの顔検出領域の中心の座標を求め、男性の顔の顔検出領域の中心の座標と、女性の顔の顔検出領域の中心の座標との距離を算出する。例えば、男女2人ずつ計4人が撮影されている画像においては、男性1人の顔の顔検出領域の中心の座標と、女性2人それぞれの顔の顔検出領域の中心の座標との距離が算出される。また、同様にして、女性1人の顔の顔検出領域の中心の座標と、男性2人それぞれの顔の顔検出領域の中心の座標との距離が算出される。   If it is determined in step S54 that both a male face and a female face exist, the process proceeds to step S55, and the condition determination unit 56 determines the position of the male face and the position of the female face in the captured image. And compare. More specifically, the condition determination unit 56 obtains the coordinates of the center of each face detection region from the information indicating the position of the face detection region from the face detection unit 53, and determines the center of the face detection region of the male face. The distance between the coordinates and the coordinates of the center of the face detection area of the female face is calculated. For example, in an image in which a total of four men and women are photographed, the distance between the coordinates of the center of the face detection area of the face of one man and the coordinates of the center of the face detection area of the face of each of two women Is calculated. Similarly, the distance between the coordinates of the center of the face detection area of the face of one female and the coordinates of the center of the face detection area of each of the two men is calculated.

ステップS56において、条件判定部56は、撮影した画像における男女それぞれの顔の位置が、所定の距離より近いか否かを判定する。より具体的には、例えば、男女2人ずつ計4人が撮影されている場合、条件判定部56は、ステップS55において算出した男女それぞれの顔検出領域の中心の座標間の距離のうち、より距離の近い男女ペア(カップル)間の顔検出領域の中心の座標の距離が、所定の距離より近いか否かを判定する。   In step S56, the condition determination unit 56 determines whether the positions of the faces of the men and women in the captured image are closer than a predetermined distance. More specifically, for example, when a total of four people are photographed for each two men and women, the condition determination unit 56 calculates more of the distance between the coordinates of the center of the face detection area of each man and woman calculated in step S55. It is determined whether or not the distance between the coordinates of the center of the face detection area between the male and female pairs (couples) that are close to each other is closer than a predetermined distance.

ステップS56において、男女それぞれの顔の位置が所定の距離より近いと判定された場合、処理は、ステップS57に進む。すなわち、例えば、図15に示されるように、被写体B1乃至B4が撮影されている画像であって、被写体B1,B3が男性、被写体B2,B4が女性であると判定された画像において、被写体B1の顔検出領域Q1の中心の座標と被写体B2の顔検出領域Q2の中心の座標との距離、被写体B3の顔検出領域Q3の中心の座標と被写体B4の顔検出領域Q4の中心の座標との距離がそれぞれ所定の距離より近い場合、処理は、ステップS57に進む。   If it is determined in step S56 that the face positions of the men and women are closer than the predetermined distance, the process proceeds to step S57. That is, for example, as shown in FIG. 15, in an image in which subjects B1 to B4 are captured and it is determined that subjects B1 and B3 are men and subjects B2 and B4 are women, subject B1 The distance between the coordinates of the center of the face detection area Q1 and the coordinates of the center of the face detection area Q2 of the subject B2, and the coordinates of the center of the face detection area Q3 of the subject B3 and the coordinates of the center of the face detection area Q4 of the subject B4 If the distances are closer than the predetermined distance, the process proceeds to step S57.

ステップS57において、条件判定部56は、被写体の顔の表情が笑顔であるか否かを判定する。より具体的には、属性検出部54の表情検出部54aは、ステップS52において顔検出部53から供給された顔画像に基づいて、被写体の顔の表情を検出し、被写体の顔の表情を表す情報を、条件判定部56に供給する。条件判定部56は、表情検出部54aからの被写体の顔の表情を表す情報に基づいて、被写体の顔の表情が笑顔であるか否かを判定する。   In step S57, the condition determination unit 56 determines whether the facial expression of the subject is a smile. More specifically, the expression detection unit 54a of the attribute detection unit 54 detects the facial expression of the subject based on the face image supplied from the face detection unit 53 in step S52, and represents the facial expression of the subject. Information is supplied to the condition determination unit 56. The condition determination unit 56 determines whether or not the facial expression of the subject is a smile based on information representing the facial expression of the subject from the facial expression detection unit 54a.

ステップS57において、被写体の顔の表情が笑顔でないと判定された場合、処理は、ステップS56に戻り、被写体の顔の表情が笑顔になるまで、ステップS56,S57の処理が繰り返される。   If it is determined in step S57 that the facial expression of the subject is not a smile, the process returns to step S56, and the processes of steps S56 and S57 are repeated until the facial expression of the subject becomes a smile.

一方、ステップS57において、被写体の顔の表情が笑顔であると判定された場合、条件判定部56は、記録制御部57に記録の指示を供給し、処理は、ステップS58に進む。   On the other hand, if it is determined in step S57 that the facial expression of the subject is a smile, the condition determination unit 56 supplies a recording instruction to the recording control unit 57, and the process proceeds to step S58.

ステップS58において、記録制御部57は、条件判定部56からの指示に基づいて、画像処理部52からの画像を、記録部33に記録させる。すなわち、男女ペアのカップルである被写体の顔同士の位置がお互いに近い位置にあり、かつ、被写体の顔が笑顔になったとき、いわゆるシャッタボタンが押下された場合と同様にして、被写体の画像が記録される。   In step S <b> 58, the recording control unit 57 causes the recording unit 33 to record the image from the image processing unit 52 based on an instruction from the condition determination unit 56. That is, when the faces of the subjects of a couple of men and women are close to each other and the faces of the subjects are smiling, the subject image is the same as when the so-called shutter button is pressed. Is recorded.

ところで、ステップS56において、男女それぞれの顔の位置が所定の距離より近くないと判定された場合、処理は、ステップS59に進む。すなわち、例えば、図16に示されるように、被写体B1の顔検出領域Q1の中心の座標と被写体B2の顔検出領域Q2の中心の座標との距離は所定の距離より近いものの、被写体B3の顔検出領域Q3の中心の座標と被写体B4の顔検出領域Q4の中心の座標との距離が所定の距離より遠い場合、処理は、ステップS59に進む。   By the way, when it is determined in step S56 that the face positions of the men and women are not closer than the predetermined distance, the process proceeds to step S59. That is, for example, as shown in FIG. 16, although the distance between the center coordinate of the face detection area Q1 of the subject B1 and the center coordinate of the face detection area Q2 of the subject B2 is closer than a predetermined distance, the face of the subject B3 When the distance between the coordinates of the center of the detection area Q3 and the coordinates of the center of the face detection area Q4 of the subject B4 is longer than a predetermined distance, the process proceeds to step S59.

ステップS59において、表示制御部58は、男女それぞれの顔の位置が所定の距離より近い位置となるように移動する指示を被写体に提示する。より具体的には、条件判定部56は、表示制御部58に、男女それぞれの顔の位置が所定の距離より近い位置となるようにする(男女それぞれの顔検出領域の中心の座標間の距離を所定の距離に近づける)ための表示を指示する。表示制御部58は、条件判定部56からの指示に基づいて、男女それぞれの顔の位置が所定の距離より近い位置となるようにするための表示を表示部34に行わせる。例えば、図16で説明したように、被写体B3の顔検出領域Q3の中心の座標と被写体B4の顔検出領域Q4の中心の座標との距離が所定の距離より近い位置にない場合には、表示制御部58は、図17に示されるように、被写体B3,B4それぞれについて、お互い近づくように矢印を表示させることで、撮影者を介して被写体に対する移動の指示を提示する。   In step S59, the display control unit 58 presents to the subject an instruction to move so that the positions of the faces of the men and women are closer than a predetermined distance. More specifically, the condition determination unit 56 causes the display control unit 58 to make the positions of the faces of each man and woman closer than a predetermined distance (distance between the coordinates of the center of each face detection area for each man and woman). Is displayed). Based on the instruction from the condition determination unit 56, the display control unit 58 causes the display unit 34 to display so that the positions of the faces of the men and women are closer than a predetermined distance. For example, as described in FIG. 16, when the distance between the coordinates of the center of the face detection area Q3 of the subject B3 and the coordinates of the center of the face detection area Q4 of the subject B4 is not closer than a predetermined distance, the display is performed. As shown in FIG. 17, the control unit 58 displays an arrow for each of the subjects B3 and B4 so as to approach each other, thereby presenting an instruction to move the subject via the photographer.

また、被写体への移動の指示は、表示による撮影者を介してのものでなく、音声による被写体への直接の指示であってもよい。具体的には、条件判定部56は、音声出力制御部59に、男女それぞれの顔の位置が所定の距離より近い位置となるようにするための音声の出力を指示する。音声出力制御部59は、条件判定部56からの指示に基づいて、男女それぞれの顔の位置が所定の距離より近い位置となるようにするための音声を音声出力部35に出力させる。例えば、図16で説明したように、男女それぞれの顔の位置が所定の距離より近い位置にない場合には、音声出力制御部59は、被写体B3,B4それぞれに対して、「向かって右側のカップル、もう少し近づいて下さい」と音声を出力させることで、被写体に対する移動の指示を提示する。   In addition, the instruction to move to the subject may be a direct instruction to the subject by sound, not via the photographer by display. Specifically, the condition determination unit 56 instructs the audio output control unit 59 to output audio so that the positions of the faces of both men and women are closer than a predetermined distance. The audio output control unit 59 causes the audio output unit 35 to output audio for making the positions of the faces of each man and woman closer than a predetermined distance based on an instruction from the condition determination unit 56. For example, as described with reference to FIG. 16, when the positions of the faces of both men and women are not closer than a predetermined distance, the audio output control unit 59 sets “ "Couple, please get closer."

ステップS59の後、処理はステップS56に戻り、男女それぞれの顔の位置が所定の距離より近い位置にあると判定されるまで、ステップS56,S59の処理が繰り返される。   After step S59, the process returns to step S56, and the processes of steps S56 and S59 are repeated until it is determined that the positions of the faces of the men and women are closer than the predetermined distance.

また、ステップS54において、男性の顔と女性の顔のそれぞれが存在しないと判定された場合、条件判定部56は、例えば、「カップルはいません」等の表示を表示部34に行わせる指示を、表示制御部58に供給して、処理は終了する。   If it is determined in step S54 that neither the male face nor the female face exists, the condition determining unit 56 instructs the display unit 34 to display, for example, “no couple”. Then, the data is supplied to the display control unit 58, and the process ends.

なお、図15乃至図17を参照した説明では、被写体が男女2人ずつ計4人で、2組のカップルを撮影するものとしたが、例えば、男性1人女性2人であった場合には、より近い男女ペアをカップルとして、1組のカップルと女性1人を撮影するようにしてもよいし、位置関係として、女性2人の間に男性1人がいる場合には、女性2人それぞれを男性1人に近づけるように移動させて撮影するようにしてもよい。   In the description with reference to FIGS. 15 to 17, it is assumed that the subject is four men and two men and two couples are photographed. For example, in the case of one man and two women, , A couple of men and women closer to each other may be photographed, and one couple and one woman may be photographed. If there is one man between two women as a positional relationship, two women each You may make it image | photograph by moving to approach one man.

以上の処理によれば、カップルの撮影時に、男女の顔の位置が、所定の距離より近い位置にあるときに画像を記録するようにしたので、被写体がより最適な位置にあるときに撮影することが可能となる。   According to the above processing, when a couple is photographed, an image is recorded when the positions of the faces of men and women are closer than a predetermined distance. Therefore, the image is photographed when the subject is at a more optimal position. It becomes possible.

以上においては、被写体の顔の位置が所定の位置となるように移動する指示を、(撮影者を介して)被写体に提示する処理について説明してきたが、被写体の顔の位置が所定の位置となるように移動する指示を、撮影者自身に提示させるようにもできる。   In the above description, the processing for presenting an instruction to move the face of the subject to the predetermined position to the subject (via the photographer) has been described. However, the position of the subject's face is determined to be the predetermined position. The photographer himself / herself can be instructed to move in such a manner.

[撮影装置のさらに他の撮影処理]
次に、図18のフローチャートを参照して、被写体の顔の位置を所定の位置に移動する指示を撮影者に提示する、撮影装置11の撮影処理について説明する。
[Further shooting process of the shooting device]
Next, with reference to the flowchart of FIG. 18, a photographing process of the photographing apparatus 11 that presents the photographer with an instruction to move the position of the subject's face to a predetermined position will be described.

なお、図18のフローチャートにおいて、ステップS71乃至S77の処理は、図2のフローチャートのステップS11乃至S17の処理と同様であるので、その説明は省略する。   In the flowchart of FIG. 18, the processing of steps S71 to S77 is the same as the processing of steps S11 to S17 of the flowchart of FIG.

すなわち、ステップS78において、表示制御部58は、それぞれの被写体の顔の位置がそれぞれの指定位置となるように移動する指示を撮影者に提示する。   That is, in step S78, the display control unit 58 presents the photographer with an instruction to move so that the positions of the faces of the subjects become the designated positions.

より具体的には、条件判定部56は、例えば、被写体を撮影した画像における、それぞれの顔検出領域の中心の座標から、対応する指定位置の中心の座標へのベクトルの水平方向成分(水平方向ベクトル)を求める。条件判定部56は、それぞれの水平方向ベクトルの向きが同じである場合、すなわち、それぞれの被写体の顔の位置が、対応する指定位置からそれぞれ水平方向に同じ向きにずれてある場合、それぞれの水平方向ベクトルの平均ベクトルを求め、その平均ベクトルが0になるようにするための表示を、表示制御部58に指示する。表示制御部58は、条件判定部56からの指示に基づいて、平均ベクトルが0になるようにするための表示(すなわち、被写体の顔の位置が指定位置となるようにするための表示)を表示部34に行わせる。例えば、図19に示されるように、被写体A11の顔の位置が指定位置P11の左側にずれてあり、同様に、被写体A12の顔の位置が指定位置P12の左側にずれてある場合、表示制御部58は、図20に示されるように、撮影者に対する、「左へ移動して下さい」というコメントとともに矢印を表示させることで、撮影者に対する移動の指示を提示する。   More specifically, the condition determination unit 56, for example, a horizontal component (horizontal direction) of a vector from the coordinates of the center of each face detection area to the coordinates of the center of the corresponding designated position in the image obtained by photographing the subject. Vector). When the orientations of the horizontal vectors are the same, that is, when the position of the face of each subject is shifted in the same direction in the horizontal direction from the corresponding designated position, the condition determination unit 56 The display control unit 58 is instructed to obtain an average vector of the direction vectors and display the average vector to be zero. Based on an instruction from the condition determination unit 56, the display control unit 58 performs a display for setting the average vector to 0 (that is, a display for setting the face position of the subject to the designated position). The display unit 34 is caused to perform this. For example, as shown in FIG. 19, when the position of the face of the subject A11 is shifted to the left side of the designated position P11, and similarly, the position of the face of the subject A12 is shifted to the left side of the designated position P12, display control is performed. As shown in FIG. 20, the unit 58 displays an arrow with a comment “Please move to the left” for the photographer, thereby presenting a move instruction to the photographer.

また、条件判定部56は、求めたそれぞれの水平方向ベクトルの向きが異なる場合、すなわち、それぞれの被写体の顔の位置が、対応する指定位置からそれぞれ水平方向に異なる向きにずれてある場合、画像の中心に向かう水平方向ベクトルが多いか、画像の外側に向かう水平方向ベクトルが多いかに応じて、撮影者に対する移動を指示する表示を、表示制御部58に指示する。表示制御部58は、条件判定部56からの指示に基づいて、被写体の顔の位置が指定位置になるようにするための表示を表示部34に行わせる。例えば、図21に示されるように、被写体A11の顔の位置が指定位置P11の左側にずれてあり、被写体A12の顔の位置が指定位置P12の右側にずれてある場合、画像の中心に向かう水平方向ベクトルが多くなり、表示制御部58は、図22に示されるように、撮影者に対する、「後ろへ移動して下さい」というコメントとともに矢印を表示させることで、撮影者に対する移動の指示を提示する。また、図示はしないが、画像の外側に向かう水平方向ベクトルが多い場合には、表示制御部58は、撮影者に対する、「前へ移動して下さい」というコメントとともに矢印を表示させる。   In addition, the condition determination unit 56 determines that when the orientations of the obtained horizontal vectors are different, that is, when the position of the face of each subject is shifted from the corresponding designated position in a different orientation in the horizontal direction, The display control unit 58 is instructed to display to instruct the photographer to move according to whether there are many horizontal vectors toward the center of the image or many horizontal vectors toward the outside of the image. Based on the instruction from the condition determination unit 56, the display control unit 58 causes the display unit 34 to display so that the position of the subject's face becomes the specified position. For example, as shown in FIG. 21, when the face position of the subject A11 is shifted to the left side of the designated position P11, and the face position of the subject A12 is shifted to the right side of the designated position P12, the direction is toward the center of the image. As shown in FIG. 22, the horizontal direction vector increases, and the display control unit 58 displays an arrow with a comment “Please move backward” to the photographer, thereby instructing the photographer to move. Present. Further, although not shown, when there are many horizontal vectors that go to the outside of the image, the display control unit 58 displays an arrow with a comment “Please move forward” to the photographer.

なお、ステップS78においても、撮影者への移動の指示は、表示によるものでなく、音声による撮影者への指示であってもよい。例えば、図19で説明したような場合には、音声出力制御部59は、撮影者に対して「撮影者は左へ動いて下さい」と、また、図21で説明したような場合には、撮影者に対して「撮影者は後ろへ動いて下さい」と、音声を出力させることで、撮影者に対する移動の指示を提示する。   In step S78, the instruction to move to the photographer may be an instruction to the photographer by voice instead of display. For example, in the case described with reference to FIG. 19, the audio output control unit 59 instructs the photographer to “Please move the photographer to the left”, and in the case described with reference to FIG. An instruction to move is presented to the photographer by causing the photographer to output a voice saying “Please move the photographer backward”.

このように、撮影装置11は、被写体の位置関係に基づいて、撮影者に対して移動の指示を提示することで、被写体の顔の位置を、相対的にテンプレートの指定位置に移動するようにできる。   As described above, the photographing apparatus 11 presents a movement instruction to the photographer based on the positional relationship of the subject so that the face position of the subject is relatively moved to the designated position of the template. it can.

以上の処理によれば、被写体の撮影時に、被写体の数に応じたテンプレートを読み出して、それぞれの被写体の顔の位置が、テンプレートの指定位置にあるときに画像を記録するようにしたので、被写体がより最適な位置にあるときに撮影することが可能となる。   According to the above processing, when photographing a subject, a template corresponding to the number of subjects is read, and an image is recorded when the face position of each subject is at a designated position of the template. It is possible to take a picture when is at a more optimal position.

なお、図18乃至図22を参照して説明した処理では、被写体が2人であったが、3人以上の場合には、撮影者に対する移動の指示に加えて、被写体に対する移動の指示を提示することで、被写体の顔の位置をテンプレートの指定位置に移動させることができる。   In the processing described with reference to FIGS. 18 to 22, there are two subjects. However, when there are three or more subjects, a movement instruction for the subject is presented in addition to the movement instruction for the photographer. By doing so, the position of the face of the subject can be moved to the designated position of the template.

さらに、撮影モードが、赤ちゃん撮影モードやカップル撮影モードである場合にも、必要に応じて、撮影者に対する移動の指示の提示を適用したり、撮影者と被写体に対する移動の指示の提示を適用することができる。   In addition, even when the shooting mode is a baby shooting mode or a couple shooting mode, a presentation of a movement instruction for the photographer or a presentation of a movement instruction for the photographer and the subject is applied as necessary. be able to.

上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図1に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスクを含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア38、または、プログラムが一時的もしくは永続的に格納される記録部33としてのROMやRAMを構成するハードディスクなどにより構成される。プログラム記憶媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである図示せぬ通信部を介して、ネットワーク、ローカルエリアネットワーク、インターネット、デジタル衛生放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 1, a program recording medium for storing a program that is installed in a computer and can be executed by the computer is a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (Digital Versatile Disc) (including magneto-optical disk), or removable media 38, which is a package medium made of semiconductor memory, or a recording unit 33 in which a program is temporarily or permanently stored It is comprised by the hard disk etc. which comprise ROM and RAM. The program is stored in the program storage medium via a wired or wireless communication medium such as a network, a local area network, the Internet, or digital sanitary broadcasting via a communication unit (not shown) that is an interface such as a router or a modem. It is done using.

また、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

11 撮影装置, 31 撮影部, 33 記録部, 34 表示部, 35 音声出力部, 36 制御部, 51 撮影制御部, 53 顔検出部, 54 属性検出部, 54a 表情検出部, 54b 年齢検出部, 54c 性別検出部, 56 条件判定部, 57 記録制御部, 58 表示制御部, 59 音声出力制御部   DESCRIPTION OF SYMBOLS 11 imaging | photography apparatus, 31 imaging | photography part, 33 recording part, 34 display part, 35 audio | voice output part, 36 control part, 51 imaging | photography control part, 53 face detection part, 54 attribute detection part, 54a facial expression detection part, 54b age detection part, 54c Gender detection unit, 56 Condition determination unit, 57 Recording control unit, 58 Display control unit, 59 Audio output control unit

Claims (13)

画像を撮影する撮影手段と、
前記撮影手段によって撮影された前記画像において、被写体を検出する被写体検出手段と、
前記被写体検出手段によって検出された前記被写体の位置が、前記画像において所定位置にある場合、前記画像の記録を制御する記録制御手段と、
前記被写体検出手段によって検出された前記被写体の位置が、前記画像において前記所定位置にない場合、前記被写体の位置が前記所定位置となるように移動する指示を提示する提示手段と
を備える撮影装置。
Photographing means for photographing an image;
Subject detection means for detecting a subject in the image photographed by the photographing means;
Recording control means for controlling recording of the image when the position of the subject detected by the subject detection means is at a predetermined position in the image;
An imaging device comprising: a presentation unit that presents an instruction to move the subject position to the predetermined position when the subject position detected by the subject detection unit is not in the predetermined position in the image.
前記被写体検出手段は、前記被写体としての人物の顔を検出し、
前記記録制御手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にある場合、前記画像の記録を制御し、
前記提示手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を提示する
請求項1に記載の撮影装置。
The subject detection means detects a human face as the subject,
The recording control unit controls recording of the image when the position of the face detected by the subject detection unit is at the predetermined position in the image;
The presenting means presents an instruction to move the face position to the predetermined position when the face position detected by the subject detection means is not at the predetermined position in the image. The imaging device described in 1.
前記記録制御手段は、前記被写体検出手段によって検出された複数の前記顔の位置が、前記顔の数に応じた複数の前記所定位置にある場合、前記画像の記録を制御し、
前記提示手段は、前記被写体検出手段によって検出された複数の前記顔の位置が、前記顔の数に応じた複数の前記所定位置にない場合、複数の前記顔のそれぞれの位置がそれぞれの前記所定位置となるように移動する指示を提示する
請求項2に記載の撮影装置。
The recording control means controls the recording of the image when the positions of the plurality of faces detected by the subject detection means are at a plurality of the predetermined positions corresponding to the number of faces.
The presenting means, when the positions of the plurality of faces detected by the subject detection means are not in the plurality of the predetermined positions according to the number of faces, the positions of the plurality of faces are the respective predetermined positions. The imaging device according to claim 2, wherein an instruction to move to a position is presented.
複数の前記所定位置は、前記顔の数に応じたテンプレートによって決定される
請求項3に記載の撮影装置。
The imaging device according to claim 3, wherein the plurality of predetermined positions are determined by a template corresponding to the number of the faces.
前記被写体検出手段によって検出された前記顔に基づいて、前記被写体の年齢を検出する年齢検出手段をさらに備え、
前記記録制御手段は、前記年齢検出手段によって検出された前記被写体の年齢が所定の年齢の範囲であり、かつ、前記顔の位置が前記所定位置にある場合、前記画像の記録を制御し、
前記提示手段は、前記年齢検出手段によって検出された前記被写体の年齢が所定の年齢の範囲であり、かつ、前記顔の位置が前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を提示する
請求項2に記載の撮影装置。
Further comprising age detection means for detecting the age of the subject based on the face detected by the subject detection means;
The recording control means controls the recording of the image when the age of the subject detected by the age detection means is in a predetermined age range and the face position is in the predetermined position;
In the presenting means, when the age of the subject detected by the age detecting means is within a predetermined age range, and the face position is not in the predetermined position, the face position becomes the predetermined position. The imaging device according to claim 2, wherein an instruction to move is presented.
前記被写体検出手段によって検出された複数の前記顔に基づいて、複数の前記顔に対応する前記被写体の性別を検出する性別検出手段をさらに備え、
前記記録制御手段は、前記性別検出手段によって性別が検出された前記被写体の顔のうち、異性の前記被写体の顔同士の位置が所定の距離より近い場合、前記画像の記録を制御し、
前記提示手段は、前記性別検出手段によって性別が検出された前記被写体の顔のうち、異性の前記被写体の顔同士の位置が所定の距離より遠い場合、前記異性の前記被写体の顔同士の位置が所定の距離より近い位置となるように移動する指示を提示する
請求項2に記載の撮影装置。
Gender detection means for detecting gender of the subject corresponding to the plurality of faces based on the plurality of faces detected by the subject detection means;
The recording control means controls the recording of the image when the positions of the faces of the opposite sex subjects are closer than a predetermined distance among the faces of the subject whose sex is detected by the sex detection means,
The presenting means, when the positions of the faces of the opposite sex subjects are farther than a predetermined distance among the faces of the subject whose sex is detected by the sex detection means, the positions of the faces of the opposite sex subjects are The imaging device according to claim 2, wherein an instruction to move to a position closer than a predetermined distance is presented.
前記被写体検出手段によって検出された前記顔に基づいて、前記顔の表情を検出する表情検出手段をさらに備え、
前記記録制御手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にあり、かつ、前記表情検出手段によって検出された前記顔の表情が笑顔である場合、前記画像の記録を制御する
請求項2に記載の撮影装置。
Further comprising facial expression detection means for detecting facial expression based on the face detected by the subject detection means;
When the face position detected by the subject detection means is at the predetermined position in the image and the facial expression detected by the facial expression detection means is a smile, The imaging device according to claim 2, wherein image recording is controlled.
前記提示手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を、前記被写体に提示する
請求項2に記載の撮影装置。
The presenting means presents to the subject an instruction to move the face position to the predetermined position when the face position detected by the subject detecting means is not at the predetermined position in the image. The photographing apparatus according to claim 2.
前記提示手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示を、撮影者に提示する
請求項2に記載の撮影装置。
The presenting means presents a photographer with an instruction to move the face position to the predetermined position when the position of the face detected by the subject detecting means is not at the predetermined position in the image. The photographing apparatus according to claim 2.
前記提示手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示の表示を制御する
請求項2に記載の撮影装置。
The presenting means controls display of an instruction to move the face position to the predetermined position when the face position detected by the subject detecting means is not in the predetermined position in the image. Item 3. The photographing apparatus according to Item 2.
前記提示手段は、前記被写体検出手段によって検出された前記顔の位置が、前記画像において前記所定位置にない場合、前記顔の位置が前記所定位置となるように移動する指示の音声による出力を制御する
請求項2に記載の撮影装置。
The presenting means controls output by voice of an instruction to move the face position to the predetermined position when the face position detected by the subject detecting means is not in the predetermined position in the image. The photographing apparatus according to claim 2.
画像を撮影する撮影ステップと、
前記撮影ステップの処理によって撮影された前記画像において、被写体を検出する被写体検出ステップと、
前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において所定位置にある場合、前記画像の記録を制御する記録制御ステップと、
前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において前記所定位置にない場合、前記被写体の位置が前記所定位置となるように移動する指示を提示する提示ステップと
を含む撮影方法。
A shooting step for shooting an image;
A subject detection step of detecting a subject in the image taken by the processing of the shooting step;
A recording control step for controlling recording of the image when the position of the subject detected by the processing of the subject detection step is at a predetermined position in the image;
And a presenting step for presenting an instruction to move the subject position to the predetermined position when the subject position detected by the subject detection step is not at the predetermined position in the image. Method.
画像の撮影を制御する撮影制御ステップと、
前記撮影制御ステップの処理によって撮影された前記画像において、被写体を検出する被写体検出ステップと、
前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において所定位置にある場合、前記画像の記録を制御する記録制御ステップと、
前記被写体検出ステップの処理によって検出された前記被写体の位置が、前記画像において前記所定位置にない場合、前記被写体の位置が前記所定位置となるように移動する指示の提示を制御する提示制御ステップと
を含む処理をコンピュータに実行させるプログラム。
A shooting control step for controlling image shooting;
A subject detection step of detecting a subject in the image taken by the shooting control step;
A recording control step for controlling recording of the image when the position of the subject detected by the processing of the subject detection step is at a predetermined position in the image;
A presentation control step for controlling the presentation of an instruction to move the subject position to the predetermined position when the subject position detected by the subject detection step processing is not at the predetermined position in the image; A program that causes a computer to execute processing including
JP2009127667A 2009-05-27 2009-05-27 Photographing device, photographing method, and program Pending JP2010278624A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009127667A JP2010278624A (en) 2009-05-27 2009-05-27 Photographing device, photographing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009127667A JP2010278624A (en) 2009-05-27 2009-05-27 Photographing device, photographing method, and program

Publications (1)

Publication Number Publication Date
JP2010278624A true JP2010278624A (en) 2010-12-09

Family

ID=43425192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009127667A Pending JP2010278624A (en) 2009-05-27 2009-05-27 Photographing device, photographing method, and program

Country Status (1)

Country Link
JP (1) JP2010278624A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013211719A (en) * 2012-03-30 2013-10-10 Nikon Corp Digital camera
JP6375039B1 (en) * 2017-07-21 2018-08-15 テイク エイト インコーポレイテッド Program, photographing method and terminal
US10868956B2 (en) 2015-08-24 2020-12-15 Samsung Electronics Co., Ltd. Picture-taking technique for self-photography using device having camera and device therefor
JP2021082972A (en) * 2019-11-20 2021-05-27 株式会社エクサウィザーズ Imaging apparatus, information processing apparatus, method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269562A (en) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd Photographing apparatus
JP2007006325A (en) * 2005-06-27 2007-01-11 Nikon Corp Imaging apparatus
JP2007020105A (en) * 2005-07-11 2007-01-25 Fujifilm Holdings Corp Imaging apparatus, imaging method, and imaging program
JP2008206027A (en) * 2007-02-22 2008-09-04 Matsushita Electric Ind Co Ltd Imaging device and lens barrel
JP2008245093A (en) * 2007-03-28 2008-10-09 Fujifilm Corp Digital camera, and control method and control program of digital camera
JP2009065577A (en) * 2007-09-10 2009-03-26 Ricoh Co Ltd Imaging apparatus and method
JP2009100284A (en) * 2007-10-17 2009-05-07 Fujifilm Corp Imaging apparatus and imaging control method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269562A (en) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd Photographing apparatus
JP2007006325A (en) * 2005-06-27 2007-01-11 Nikon Corp Imaging apparatus
JP2007020105A (en) * 2005-07-11 2007-01-25 Fujifilm Holdings Corp Imaging apparatus, imaging method, and imaging program
JP2008206027A (en) * 2007-02-22 2008-09-04 Matsushita Electric Ind Co Ltd Imaging device and lens barrel
JP2008245093A (en) * 2007-03-28 2008-10-09 Fujifilm Corp Digital camera, and control method and control program of digital camera
JP2009065577A (en) * 2007-09-10 2009-03-26 Ricoh Co Ltd Imaging apparatus and method
JP2009100284A (en) * 2007-10-17 2009-05-07 Fujifilm Corp Imaging apparatus and imaging control method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013211719A (en) * 2012-03-30 2013-10-10 Nikon Corp Digital camera
US10868956B2 (en) 2015-08-24 2020-12-15 Samsung Electronics Co., Ltd. Picture-taking technique for self-photography using device having camera and device therefor
JP6375039B1 (en) * 2017-07-21 2018-08-15 テイク エイト インコーポレイテッド Program, photographing method and terminal
JP2019023846A (en) * 2017-07-21 2019-02-14 テイク エイト インコーポレイテッド Program, photographing method, and terminal
JP2021082972A (en) * 2019-11-20 2021-05-27 株式会社エクサウィザーズ Imaging apparatus, information processing apparatus, method, and program

Similar Documents

Publication Publication Date Title
JP4720810B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP4442330B2 (en) Electronic camera and electronic camera system
US20100053363A1 (en) Photographing method and apparatus
JP2011066873A (en) Image sensing apparatus, and image processing apparatus
KR101537948B1 (en) Photographing method and apparatus using pose estimation of face
TW201246119A (en) Face detector, image pickup device, and face detecting method
KR20080012790A (en) Face detection device, imaging apparatus, and face detection method
JP2010147808A (en) Imaging apparatus and image processing method in same
JP2011211438A (en) Information processing apparatus and method, and program
JP2012249175A (en) Imaging apparatus, display method, and program
US8648960B2 (en) Digital photographing apparatus and control method thereof
JP2007251429A (en) Moving image imaging unit, and zoom adjustment method
JP2010171797A (en) Imaging apparatus and program
JP2009124340A (en) Imaging apparatus, photographing support method, and photographing support program
JP2013186512A (en) Image processing apparatus and method, and program
JP7005324B2 (en) Imaging device, control method and program of imaging device
KR20110102694A (en) Digital photographing apparatus, mdthod for controlling the same and recording medium
JP2007299297A (en) Image composition device and control method thereof
JP2010278624A (en) Photographing device, photographing method, and program
JP2013183185A (en) Imaging apparatus, and imaging control method and program
JP2008061184A (en) Apparatus and method for image processing, program, and photographing apparatus
JP2010161547A (en) Composition selecting device and program
JP2010273281A (en) Imaging apparatus
JP5021370B2 (en) Imaging apparatus, display method, and program
JP2007096440A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130611