JP2010081562A - Imaging device, method, and program - Google Patents

Imaging device, method, and program Download PDF

Info

Publication number
JP2010081562A
JP2010081562A JP2008250792A JP2008250792A JP2010081562A JP 2010081562 A JP2010081562 A JP 2010081562A JP 2008250792 A JP2008250792 A JP 2008250792A JP 2008250792 A JP2008250792 A JP 2008250792A JP 2010081562 A JP2010081562 A JP 2010081562A
Authority
JP
Japan
Prior art keywords
subject
image
unit
imaging
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008250792A
Other languages
Japanese (ja)
Inventor
Hiromichi Watanabe
啓倫 渡邊
Naoaki Hatano
直明 秦野
Hiroshi Yamaji
啓 山路
Shinji Chiba
信二 千葉
Hisashi Obara
寿 小原
Ichigaku Mino
一学 三野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008250792A priority Critical patent/JP2010081562A/en
Publication of JP2010081562A publication Critical patent/JP2010081562A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To determine an appropriate standard to initiate photographing, based on the facial expression of a shooting object. <P>SOLUTION: An imaging device determines a photographing scene, based on the facial expression included in a facial-expression information stored in the RAM of a memory unit 119. The determined photographing scene is stored in the RAM of the memory unit 119. It is determined whether or not an evaluated value corresponding to one shooting object (current shooting object) arbitrarily selected by a CPU 112, in each of the facial-expression evaluated values corresponding to each of the shooting objects, exceeds a standard value (smile threshold value) selected or established by the CPU 112 as corresponding to the determined scene, in plural kinds of thresholds preliminarily stored in the memory unit 119. The current shooting object is determined as the shooting object of the facial expression in the scene, if exceeded. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮影状況を判断する撮像装置、方法およびプログラムに関する。   The present invention relates to an imaging apparatus, a method, and a program for determining a shooting situation.

特許文献1は、CPUは、撮影された動画の各コマ画像の被撮影者の顔画像を抽出して、各顔画像毎に笑顔評価、端正評価を行い、各コマ画像について、その画像中の各被撮影者の総合笑顔評価値及び総合端正評価値を算出する。また、CPUは、コマ画像のうちの一つを解析し、撮影した画像の場面を判断し、当該撮影がカジュアルな場面の撮影であると判断すると、優先評価値を笑顔評価値として設定し、フォーマルな場面の撮影であると判断すると、優先評価値を端正評価値として設定し、優先評価値の高い順に各コマ画像に順位を設定する。そして、順位に基づいて各コマ画像をモニタに表示させる。   In Patent Literature 1, the CPU extracts the face image of the person to be photographed from each frame image of the captured moving image, performs smile evaluation and neatness evaluation for each face image, and for each frame image, An overall smile evaluation value and an overall correct evaluation value for each subject are calculated. Further, the CPU analyzes one of the frame images, determines the scene of the captured image, and determines that the shooting is a casual scene shooting, sets the priority evaluation value as a smile evaluation value, If it is determined that the shooting is a formal scene, the priority evaluation value is set as a neat evaluation value, and the rank is set for each frame image in descending order of the priority evaluation value. Then, each frame image is displayed on the monitor based on the order.

特許文献2では、撮像によって得られた画像信号が記録媒体に記録されるまでの期間において、顔検出部は、その画像信号から人物の顔を検出し、表情評価部は、検出された顔の表情を評価して、例えば笑顔と通常の表情などの異なる表情の間において一方の表情にどれだけ近いかの度合いを示す表情評価値を算出する。報知制御部は、算出された表情評価値に応じた報知情報を生成して、例えばディスプレイやLED発光部、音声出力部などを通じて、被撮影者に対して報知するように制御する。さらに、表情評価部は、表情評価値が所定のしきい値を超えた場合には、記録動作制御部に対して、画像信号を記録媒体に記録させるように要求する。   In Patent Document 2, in a period until an image signal obtained by imaging is recorded on a recording medium, the face detection unit detects a human face from the image signal, and the facial expression evaluation unit detects the detected face. The facial expression is evaluated, and a facial expression evaluation value indicating the degree of closeness to one facial expression between different facial expressions such as a smile and a normal facial expression is calculated. The notification control unit generates notification information corresponding to the calculated facial expression evaluation value, and performs control so as to notify the subject through, for example, a display, an LED light emitting unit, an audio output unit, or the like. Further, the facial expression evaluation unit requests the recording operation control unit to record the image signal on the recording medium when the facial expression evaluation value exceeds a predetermined threshold value.

特許文献3では、複数人の被写体がいる場合、画像を複数回撮影し、各被写体の笑顔度の高い顔を抽出して、1枚の画像に合成する。   In Patent Document 3, when there are a plurality of subjects, an image is taken a plurality of times, a face with a high smile degree of each subject is extracted, and the images are combined into a single image.

特許文献4では、カメラにより撮影された画像から人物の被写体の表情を表す形状を繰り返し抽出し、抽出された被写体の形状と所定の形状との一致度を算出して、算出された一致度が所定の値を越えたときに被写体を撮影する。   In Patent Document 4, a shape representing a facial expression of a person's subject is repeatedly extracted from an image photographed by a camera, and the degree of coincidence between the extracted shape of the subject and a predetermined shape is calculated. The subject is photographed when a predetermined value is exceeded.

特許文献5は、抽出した顔画像に表情を形成する特徴点を設定し、設定されたこれらの特徴点の間隔や位置を検出することで、各顔画像の特徴量を算出する。例えば、画像中の人物の顔を構成する特定の部位を識別して顔の領域を割り出し、顔の領域の割り出し後に、人物の表情を形成する両眉, 両目, 口の各部を識別して、両眉, 両目, 口の各部及び周辺に特徴点を設定する。   In Patent Document 5, feature points that form facial expressions are set in the extracted face image, and the feature amount of each face image is calculated by detecting the interval and position of the set feature points. For example, by identifying specific parts that make up a person's face in the image and determining the face area, after identifying the face area, the eyebrows, eyes, and mouth that form the facial expression of the person are identified, Feature points are set for each part of the eyebrows, both eyes, and the mouth.

特許文献6では、目が閉じていると判断された目領域を有する顔領域内部の属性を変更し、属性の変更された顔領域の映像信号を生成させ、これを記録用画像と合成してLCDに表示させる。また、記録用画像の中から選択された所望の画像の「切り抜き顔領域」を目つぶりの検出された顔領域に貼り付けるとする。
特開2004−46591号公報 特開2008−42319号公報 特開2007−299297号公報 特開2004−294498号公報 特開2005−31423号公報 特開2008−131094号公報
In Patent Document 6, an attribute inside a face area having an eye area determined to have eyes closed is changed, a video signal of the face area with the changed attribute is generated, and this is combined with a recording image. Display on LCD. Further, it is assumed that a “cut-out face area” of a desired image selected from the recording images is pasted on the face area where the blinking is detected.
JP 2004-46591 A JP 2008-42319 A JP 2007-299297 A JP 2004-294498 A JP 2005-31423 A JP 2008-131094 A

特許文献1では、単一の被写体の評価は可能であるが、複数の被写体の総合的評価はできない。   In Patent Document 1, a single subject can be evaluated, but a plurality of subjects cannot be evaluated comprehensively.

特許文献2では、所定数以上の被写体が笑顔になった瞬間に撮影を行うが、笑顔でない人物も含まれてしまう問題がある。   In Patent Document 2, shooting is performed at the moment when a predetermined number or more of subjects are smiling, but there is a problem that a person who is not smiling is included.

特許文献3では、撮影画像の顔部分を別途撮影された各人の笑顔の顔で置き換えるが、抽出した顔と体の合成などが精度よく行われない問題がある。   In Patent Document 3, the face portion of the photographed image is replaced with a smile face of each person photographed separately, but there is a problem that the extracted face and body are not synthesized accurately.

特許文献4では、被写体が所定の表情になったときに自動的に撮影するが、複数の被写体については言及がない。   In Patent Document 4, a picture is automatically taken when a subject has a predetermined expression, but there is no mention of a plurality of subjects.

特許文献5では、表情が撮影に適しているかを判定しない。   In Patent Document 5, it is not determined whether the facial expression is suitable for shooting.

本発明は、各被写体の表情に基づいて適切な撮影開始基準を決定することを目的とする。   An object of the present invention is to determine an appropriate shooting start reference based on the facial expression of each subject.

本発明に係る撮像装置は、撮像レンズを介して受光した被写体像を継続的に光電変換して得られた電気信号を順次画像データに変換して出力する撮像部と、撮像部の出力した第1の画像データに基づいて、各被写体の表情を示す評価値を算出する第1評価値算出部と、第1評価値算出部の算出した各被写体の評価値に基づいて撮影シーンを判断する撮影シーン判断部と、撮像部の出力した第1の画像データ以降に出力された第2の画像データに基づいて、各被写体の表情を示す評価値を算出する第2評価値算出部と、撮影シーン判断部の判断した撮影シーンに対応するシーン確定閾値を設定する閾値設定部と、第2評価値算出部が算出した各被写体の評価値が、閾値設定部の設定したシーン確定閾値を上回ったか否かに応じ、各被写体が撮影シーンに適した状態である確定被写体であるか撮影シーンに適した状態でない未確定被写体であるかを判断する撮影状態確定判断部と、を備える。   An imaging apparatus according to the present invention includes an imaging unit that sequentially converts an electrical signal obtained by continuously photoelectrically converting a subject image received through an imaging lens into image data and outputs the image data, and a first output from the imaging unit. A first evaluation value calculation unit that calculates an evaluation value indicating the facial expression of each subject based on one image data, and a shooting that determines a shooting scene based on the evaluation value of each subject calculated by the first evaluation value calculation unit A scene determination unit; a second evaluation value calculation unit that calculates an evaluation value indicating the facial expression of each subject based on second image data output after the first image data output by the imaging unit; A threshold setting unit that sets a scene determination threshold corresponding to the shooting scene determined by the determination unit, and whether or not the evaluation value of each subject calculated by the second evaluation value calculation unit exceeds the scene determination threshold set by the threshold setting unit Each subject is shot depending on Comprises a photographing state finalization determination unit that determines whether the undetermined object not in a state suitable for either photographic scene is determined subject a state suitable for over emissions, and.

撮影状態確定判断部が各被写体が確定被写体であると判断したことに応じ、撮像部による本撮影を開始または許可する撮像制御部を備える。   An imaging control unit that starts or permits main imaging by the imaging unit when the imaging state determination determination unit determines that each subject is a determined subject.

撮影状態確定判断部は、未確定被写体の評価値がシーン確定閾値に達しないまま所定時間が経過した場合、未確定被写体を確定被写体と判断する。   When the predetermined time has passed without the evaluation value of the undetermined subject reaching the scene decision threshold, the shooting state decision determination unit determines the undetermined subject as the decided subject.

撮影状態確定判断部は、未確定被写体の評価値がシーン確定閾値に達しないまま撮影シーン判断部の判断した撮影シーンに対応する所定時間が経過した場合、未確定被写体を確定被写体と判断する。   When the predetermined time corresponding to the photographic scene determined by the photographic scene determination unit has passed without the evaluation value of the undetermined subject reaching the scene determination threshold, the shooting state determination determination unit determines the undetermined subject as the determination subject.

第2の画像データに基づいて確定被写体の位置または背景が変化したか否かを判断する変化判断部を備え、撮影状態確定判断部は、撮像部による本撮像の前に変化判断部が確定被写体の位置または背景が変化したと判断したことに応じて確定被写体を未確定被写体と判断する。   A change determination unit configured to determine whether the position or background of the confirmed subject has changed based on the second image data, and the shooting state determination determination unit is configured so that the change determination unit is a fixed subject before the main imaging by the imaging unit; The determined subject is determined to be an undetermined subject in accordance with the determination that the position or background has changed.

確定被写体の表情を示す確定画像を所定の記憶媒体に保存する確定画像保存部と、所定の記憶媒体に保存された確定画像を撮像部から順次出力された画像であるスルー画像に合成して所定の表示装置に出力する表示制御部と、を備える。   A finalized image storage unit that stores a finalized image showing the expression of the finalized subject in a predetermined storage medium, and a finalized image stored in the predetermined storage medium are combined with a through image that is an image sequentially output from the imaging unit. A display control unit for outputting to the display device.

撮影モードの設定を受け付けるモード設定部を備え、閾値設定部は、撮影モード設定部の設定した撮影モードおよび撮影シーン判断部の判断した撮影シーンに対応したシーン確定閾値を設定する。   A mode setting unit that accepts the setting of the shooting mode is provided, and the threshold setting unit sets a scene determination threshold corresponding to the shooting mode set by the shooting mode setting unit and the shooting scene determined by the shooting scene determination unit.

本発明に係る撮像方法は、撮像レンズを介して受光した被写体像を継続的に光電変換して得られた電気信号を順次画像データに変換して出力する撮像部を備えた撮像装置が、撮像部の出力した第1の画像データに基づいて、各被写体の表情を示す評価値を算出するステップと、算出した各被写体の評価値に基づいて撮影シーンを判断するステップと、撮像部の出力した第1の画像データ以降に出力された第2の画像データに基づいて、各被写体の表情を示す評価値を算出するステップと、判断した撮影シーンに対応するシーン確定閾値を設定するステップと、算出した各被写体の評価値が、閾値設定部の設定したシーン確定閾値を上回ったか否かに応じ、各被写体が撮影シーンに適した状態である確定被写体であるか撮影シーンに適した状態でない未確定被写体であるかを判断するステップと、を実行する。   An image pickup method according to the present invention includes an image pickup apparatus including an image pickup unit that sequentially converts electric signals obtained by continuously photoelectrically converting a subject image received through an image pickup lens into image data and outputs the image data. A step of calculating an evaluation value indicating the facial expression of each subject based on the first image data output by the unit, a step of determining a shooting scene based on the calculated evaluation value of each subject, and an output of the imaging unit Calculating an evaluation value indicating the expression of each subject based on second image data output after the first image data, setting a scene determination threshold corresponding to the determined shooting scene, and calculating Depending on whether or not the evaluation value of each subject exceeds the scene decision threshold set by the threshold setting unit, each subject is a confirmed subject suitable for the shooting scene or a state suitable for the shooting scene And determining whether the no undetermined object, to run.

この撮像方法を撮像装置に実行させるための撮像プログラムも本発明に含まれる。   An imaging program for causing the imaging apparatus to execute this imaging method is also included in the present invention.

この発明によると、各被写体の表情の評価値に基づいて撮影シーンを決定し、その後、その撮影シーンに対応した閾値を各被写体の評価値が上回っているか否かで各被写体が撮影に適した状態となったか否かを判断する。すなわち、被写体の表情を全体的に評価することで、これからどのような表情の画像を撮影しようとしているかの基準を適切に設定できる。   According to the present invention, the shooting scene is determined based on the evaluation value of the facial expression of each subject, and then each subject is suitable for shooting depending on whether or not the evaluation value of each subject exceeds the threshold corresponding to the shooting scene. It is determined whether or not a state has been reached. That is, by evaluating the expression of the subject as a whole, it is possible to appropriately set a reference for what kind of expression image is to be taken.

<第1実施形態>
図1は本発明の好ましい実施形態に係るデジタルカメラ10の機能ブロック図である。まず、同図のデジタルカメラ10において、情報処理装置(CPUの他、CPUの情報処理に必要な周辺機器、例えばROM、RAM、I/Oなども含まれる。便宜上これらをまとめてCPUと呼ぶ)112は、レリーズスイッチ、モードダイヤル等を含む操作部113の各種のボタンやキーからの入力に基づいてデジタルカメラ10内の各回路を統括制御する。CPU112の実行するプログラムは記憶部119のROMに記憶される。
<First Embodiment>
FIG. 1 is a functional block diagram of a digital camera 10 according to a preferred embodiment of the present invention. First, in the digital camera 10 shown in the figure, an information processing apparatus (in addition to the CPU, peripheral devices necessary for information processing of the CPU, such as ROM, RAM, I / O, etc. are included. These are collectively referred to as a CPU for convenience). 112 controls each circuit in the digital camera 10 based on inputs from various buttons and keys of the operation unit 113 including a release switch, a mode dial, and the like. A program executed by the CPU 112 is stored in the ROM of the storage unit 119.

撮像部102は、ズームレンズおよびフォーカスレンズを含む撮像レンズ、撮像レンズを駆動するモータ、CPU112の指令に従ってモータを駆動するモータドライバ、撮像レンズの結像した被写体像を受光して光電変換し、アナログ画像信号として出力するCCDやCMOSなどの固体撮像素子を含む。   The image pickup unit 102 receives an image pickup lens including a zoom lens and a focus lens, a motor for driving the image pickup lens, a motor driver for driving the motor in accordance with a command from the CPU 112, receives a subject image formed by the image pickup lens, performs photoelectric conversion, and performs analog conversion. It includes a solid-state imaging device such as a CCD or CMOS that outputs as an image signal.

いま、モードダイヤルによって静止画撮影モードが設定されると、CPU112は、撮像部102から順次得られるコマ画像(スルー画)を表示部110に表示させ、撮影画角を確認可能にする。   Now, when the still image shooting mode is set by the mode dial, the CPU 112 displays the frame images (through images) sequentially obtained from the imaging unit 102 on the display unit 110 so that the shooting angle of view can be confirmed.

撮像部102は、A/Dコンバータ、ゲイン調整回路、画像信号処理回路、ホワイトバランス補正回路、ガンマ補正回路、YC処理回路、輝度・色差信号生成回路、シャープネス補正回路、コントラスト補正回路、撮影画像に対する輪郭補正を含む画像処理を行う輪郭処理部、画像のノイズ低減処理を行うノイズ低減処理部等を含む画像処理手段を含み、CPU112からのコマンドに従って画像信号を処理し、デジタル画像データに変換する。   The imaging unit 102 includes an A / D converter, a gain adjustment circuit, an image signal processing circuit, a white balance correction circuit, a gamma correction circuit, a YC processing circuit, a luminance / color difference signal generation circuit, a sharpness correction circuit, a contrast correction circuit, and a captured image. An image processing unit including an outline processing unit that performs image processing including contour correction, a noise reduction processing unit that performs image noise reduction processing, and the like is processed, and an image signal is processed according to a command from the CPU 112 and converted into digital image data.

撮像部102から出力された画像データは、輝度信号(Y信号)及び色差信号(Cr、Cl信号)に変換されるとともに、ガンマ補正等の所定の処理が施された後、記憶部119のVRAMに格納される。   The image data output from the imaging unit 102 is converted into a luminance signal (Y signal) and a color difference signal (Cr, Cl signal), and subjected to predetermined processing such as gamma correction, and then the VRAM in the storage unit 119. Stored in

一方、画像データは、ハイパスフィルタ(HPF)125でG画素成分のみ抽出される。そして、積算部126で抽出されたG画素成分に積算処理が施されてCPU112に送られる。CPU112は、積算部126から送られた1画面分の分割領域(例えば64分割)の画像データの内、十字キーで任意に設定された被写体中心付近のエリア(例えば4エリア)の平均値を算出し、これをオートフォーカス(AF)評価値とする。AF評価値は、所定周期の経過毎に算出され、算出の度に記憶部119に更新記憶される。CPU112は、AF評価値に従って被写体の合焦するレンズ位置を判定する。その判断方法は任意であるが、例えばAF評価値が極大点の近傍に略到達しているか否かを判断し、極大点に略達している場合は合焦していると判断し、その他の場合は合焦していないと判断する(コントラストAF)。あるいは、AF評価値が所定の閾値を超えていれば合焦していると判断することもできる。   On the other hand, only the G pixel component is extracted from the image data by the high pass filter (HPF) 125. Then, the G pixel component extracted by the integration unit 126 is integrated and sent to the CPU 112. The CPU 112 calculates an average value of areas near the subject center (for example, four areas) arbitrarily set with the cross key among the image data of the divided areas (for example, 64 divisions) for one screen sent from the integrating unit 126. This is used as an autofocus (AF) evaluation value. The AF evaluation value is calculated every elapse of a predetermined period, and updated and stored in the storage unit 119 each time it is calculated. The CPU 112 determines the lens position at which the subject is focused according to the AF evaluation value. The determination method is arbitrary. For example, it is determined whether or not the AF evaluation value has substantially reached the vicinity of the maximum point. If the AF evaluation value has substantially reached the maximum point, the AF evaluation value is determined to be in focus. In this case, it is determined that the subject is not in focus (contrast AF). Alternatively, if the AF evaluation value exceeds a predetermined threshold, it can be determined that the subject is in focus.

撮影画像を表示部110にモニタ出力する場合、VRAMからYC信号が読み出され、ビデオエンコーダ134に送られる。ビデオエンコーダ134は、入力されたYC信号を表示用の所定方式の信号(例えば、NTSC方式のカラー複合映像信号)に変換して表示部110に出力する。   When the captured image is output to the display unit 110 on the monitor, the YC signal is read from the VRAM and sent to the video encoder 134. The video encoder 134 converts the input YC signal into a predetermined display signal (for example, an NTSC color composite video signal) and outputs the converted signal to the display unit 110.

所定のフレームレートで処理された各フレームのYC信号は、VRAMに順次書き込まれ、そのYC信号から生成される映像信号が表示部110に供給されることにより、撮像中の映像がリアルタイムに表示部110に表示される。ユーザは、表示部110に表示される映像(スルー)によって撮影画角を確認できる。   The YC signal of each frame processed at a predetermined frame rate is sequentially written in the VRAM, and a video signal generated from the YC signal is supplied to the display unit 110, so that the image being captured is displayed in real time. 110. The user can check the shooting angle of view from the video (through) displayed on the display unit 110.

ここで、レリーズスイッチが半押しされると、AE及びAF処理が開始される。AE/AF処理が行われ、レリーズスイッチが全押しされることによって記録用の撮影動作がスタートする。レリーズスイッチの全押しに応動して取得された記録用の画像データは、画像記憶部132に格納される。動画の取込みの場合には、上記のような画像の取込みが連続的に行われると共に、各画像はフレーム画像(コマ画像)として動画を構成する。動画の取り込みは、レリーズスイッチの1回目の全押しで開始し、2回目の全押しで終了する。あるいは全押しが継続している間に限って動画の取り込みを行う。動画の取得に合わせて、マイク17から集音された音も同期して取り込むことができる。   Here, when the release switch is half-pressed, the AE and AF processes are started. The AE / AF process is performed, and the recording operation is started when the release switch is fully pressed. The image data for recording acquired in response to the full press of the release switch is stored in the image storage unit 132. In the case of capturing a moving image, the above-described images are continuously captured, and each image constitutes a moving image as a frame image (frame image). Movie capture starts when the release switch is fully pressed for the first time and ends when the release switch is fully pressed for the second time. Alternatively, the video is captured only while the full press continues. The sound collected from the microphone 17 can also be captured synchronously with the acquisition of the moving image.

画像記憶部132に格納されたY/C信号は、CPU112によって所定のフォーマット(例えば静止画ならばExif(Exchangeable Image File Format)、動画ならばMPEG4)に従って圧縮された後、外部記録媒体にファイルとして記録される。画像はExifファイルのデータ部分に記録される。CPU112は上記Exifファイルのヘッダ部分の所定のタグ(Imagedescriptionタグなど)に撮影日時情報などを記録する。記録された画像は、通信インターフェース76を介して接続されたパソコン200aやプリンタ200bやPDAなどの各種電子機器200に送信することもできる。   The Y / C signal stored in the image storage unit 132 is compressed by the CPU 112 according to a predetermined format (for example, Exif (Exchangeable Image File Format) for a still image, MPEG4 for a moving image), and then stored as a file on an external recording medium. To be recorded. The image is recorded in the data part of the Exif file. The CPU 112 records shooting date / time information and the like in a predetermined tag (such as an image description tag) in the header portion of the Exif file. The recorded image can be transmitted to various electronic devices 200 such as a personal computer 200a, a printer 200b, and a PDA connected via the communication interface 76.

プリンタ200bは、カメラ10やパソコン200aから受信した静止画像を普通紙や印画紙などの紙媒体で構成される台紙に所定の配置でプリントする。所定の配置で配列された静止画像は、アドビシステムズ社の「PDF」のような電子的媒体としてディスプレイや記録メディアやインターネット経由で接続されたパソコンなどに出力することもできる。要するに、作成された画像プリントの出力先は、特定のものに限定されない。本願明細書では、所望の画像が所望の位置に配置されうる電子的媒体の作成フォームも台紙と呼ぶ。   The printer 200b prints a still image received from the camera 10 or the personal computer 200a on a mount made of a paper medium such as plain paper or photographic paper in a predetermined arrangement. Still images arranged in a predetermined arrangement can be output as electronic media such as “PDF” of Adobe Systems Inc. to a display, a recording medium, a personal computer connected via the Internet, and the like. In short, the output destination of the created image print is not limited to a specific one. In this specification, an electronic medium creation form on which a desired image can be arranged at a desired position is also called a mount.

モードダイヤルによって動画撮影モードが設定されたときには、レリーズスイッチの全押し操作に連動して動画記録動作がスタートし、もう一度レリーズスイッチを押下すると動画記録動作が停止する。レリーズスイッチを押下継続している期間、録画動作を行い、押下解除によって録画を停止するようにしてもよい。動画データは、例えばMPEG4形式によって画像記憶部132に記憶される。   When the moving image shooting mode is set by the mode dial, the moving image recording operation starts in conjunction with the full pressing operation of the release switch, and the moving image recording operation stops when the release switch is pressed again. The recording operation may be performed while the release switch is continuously pressed, and the recording may be stopped by releasing the press. The moving image data is stored in the image storage unit 132 in the MPEG4 format, for example.

モードダイヤルにより再生モードが選択されると、画像記憶部に記憶されている最終の画像ファイル(最後に記録されたファイル)の圧縮データが読み出される。この読み出された画像圧縮データは、CPU112によって非圧縮のYC信号に伸長され、ビデオエンコーダ134に加えられる。ビデオエンコーダ134は、入力するYC信号からNTSC方式のRGBカラー複合映像信号を作成し、これを表示部110に出力する。これにより、表示部110に画像が表示される。   When the playback mode is selected by the mode dial, the compressed data of the last image file (last recorded file) stored in the image storage unit is read out. The read image compressed data is decompressed into an uncompressed YC signal by the CPU 112 and added to the video encoder 134. The video encoder 134 creates an NTSC RGB color composite video signal from the input YC signal and outputs it to the display unit 110. Thereby, an image is displayed on the display unit 110.

表示部110は、カメラ10に内蔵されたLCD、ファインダー又は映像出力端子等に接続された外部の表示装置に相当する。ビデオエンコーダ134は、OSD信号発生回路135を含み、OSD信号発生回路135はCPU112からの指令に応じてシャッター速度や絞り値、撮影可能枚数、撮影日時、警告指示等の文字及びアイコン等の記号を表示するための信号を発生させる。このOSD信号発生回路135から出力される信号は、必要に応じてビデオエンコーダ134が画像信号に混合して、LCD114に供給する。これにより、スルー画像や再生画像に文字やアイコン等その他の画像が合成された合成画像が表示される。   The display unit 110 corresponds to an external display device connected to an LCD, a finder, a video output terminal, or the like built in the camera 10. The video encoder 134 includes an OSD signal generation circuit 135. The OSD signal generation circuit 135 displays characters such as a shutter speed, an aperture value, the number of images that can be photographed, a photographing date and time, a warning instruction, and a symbol such as an icon in accordance with a command from the CPU 112. Generate a signal to display. The video encoder 134 mixes the signal output from the OSD signal generation circuit 135 with an image signal as necessary, and supplies it to the LCD 114. As a result, a combined image in which other images such as characters and icons are combined with the through image and the reproduced image is displayed.

画像記憶部132は、撮影で得た画像データ(静止画、動画)を保持する手段であり、例えばスマートメディアと呼ばれるメモリカードが使用される。記録メディアの形態はこれに限定されず、PCカード、コンパクトフラッシュ(登録商標)、磁気ディスク、光ディスク、光磁気ディスク、メモリスティックなどでもよく、電子的、磁気的、もしくは光学的、又はこれらの組み合わせによる方式などに従って読み書き可能な媒体を用いることができる。異種・同種の記録メディアを問わず、複数の媒体を装着可能な構成にしてもよい。また、画像ファイルを保存する手段は、カメラ本体に着脱可能なリムーバブルメディアに限らず、カメラに内蔵された記録媒体(内蔵メモリ)であってもよい。   The image storage unit 132 is means for holding image data (still images, moving images) obtained by shooting, and for example, a memory card called smart media is used. The form of the recording medium is not limited to this, and it may be a PC card, a compact flash (registered trademark), a magnetic disk, an optical disk, a magneto-optical disk, a memory stick, etc., electronic, magnetic, optical, or a combination thereof A readable / writable medium can be used in accordance with the above-described method. A configuration in which a plurality of media can be mounted regardless of different types or the same type of recording media may be adopted. The means for storing the image file is not limited to a removable medium that can be attached to and detached from the camera body, but may be a recording medium (built-in memory) built in the camera.

CPU112は、カメラ10の各回路を統括制御する制御回路であり、レリーズスイッチ、十字キー、電源スイッチ、モードダイヤル、情報位置指定キーあるいは図示しないストロボボタン、ズームキー、メニュー/実行ボタンその他を含む操作部113から受信する信号に基づき、対応する回路の動作を制御するとともに、表示部110における表示制御、ストロボ発光制御、AF補助光の発光制御、オートフォーカス(AF)制御及び自動露出(AE)制御等を行う。   The CPU 112 is a control circuit that performs overall control of each circuit of the camera 10 and includes an operation unit including a release switch, a cross key, a power switch, a mode dial, an information position designation key, a strobe button (not shown), a zoom key, a menu / execution button, and the like. Based on the signal received from 113, the operation of the corresponding circuit is controlled, and display control in the display unit 110, strobe light emission control, AF auxiliary light emission control, autofocus (AF) control, automatic exposure (AE) control, etc. I do.

カメラ10の電源が電源スイッチでオンされる度に、カメラボディ内部に装着される電池からなる図示しない主要電源から、デジタルカメラ10の各回路に電源が供給される。   Each time the power supply of the camera 10 is turned on by the power switch, power is supplied to each circuit of the digital camera 10 from a main power supply (not shown) composed of a battery mounted inside the camera body.

通信インターフェース76は、パソコンンやプリンタなどの各種情報処理機器と接続可能であり、CPU112からのコマンドに従い、データの送受信を行う。   The communication interface 76 can be connected to various information processing devices such as a personal computer and a printer, and transmits and receives data in accordance with commands from the CPU 112.

動き検出回路21は、加速度センサ、ポテンショメータ、重力サンサ、傾斜センサ、姿勢センサ、電子コンパス等からなる。具体的には、動き検出回路21は、カメラ100の左右の動き方向及びその動作量を示す左右動き情報を出力する左右動き検出部、カメラ100の上下の動き方向及びその動作量を示す上下動き情報を出力する上下動き検出部、カメラ100の筐体の水平方向に対する傾き方向及びその傾き量を示す傾き動き情報を出力する傾き動き検出部を備える。動き情報は、左右動き情報、上下動き情報、および傾き動き情報ならびに各動きの検知が開始した時刻、各動きの検知が終了した時刻、各動きの検知が持続した時刻を含む。時刻情報はRTC15が出力したものを用いる。   The motion detection circuit 21 includes an acceleration sensor, a potentiometer, a gravity sensor, a tilt sensor, a posture sensor, an electronic compass, and the like. Specifically, the motion detection circuit 21 outputs a left-right motion information indicating the left-right motion direction and the motion amount of the camera 100, and a vertical motion indicating the up-down motion direction and the motion amount of the camera 100. A vertical motion detection unit that outputs information, and a tilt motion detection unit that outputs tilt motion information indicating the tilt direction and the tilt amount of the housing of the camera 100 with respect to the horizontal direction are provided. The motion information includes left and right motion information, up and down motion information, tilt motion information, a time when detection of each motion is started, a time when detection of each motion is finished, and a time when detection of each motion is continued. The time information output from the RTC 15 is used.

測距部81は、例えば、撮像部102の撮影範囲にある被写体に対して発光部から光を発し、被写体に反射して戻ってきた光を受光し、発光部と受光部のなす角から被写体までの距離を算出する三角測距センサを採用できる。あるいはTOF(タイムオブフライト)原理を応用したセンサや、複眼カメラの距離画像(3D画像)を利用するなど、被写体の測距を行う手段であれば各種の公知技術を採用できる。   For example, the distance measuring unit 81 emits light from a light emitting unit to a subject within the shooting range of the imaging unit 102, receives light returned from the subject and returns the subject from an angle formed by the light emitting unit and the light receiving unit. A triangulation distance sensor that calculates the distance up to can be used. Alternatively, various known techniques can be adopted as long as the object is a means for measuring a distance such as a sensor applying the TOF (Time of Flight) principle or a distance image (3D image) of a compound eye camera.

表示部110にはタッチパネル114が積層されている。ユーザが指やペンなどで表示部110の対応部分を押下すると、その押下位置を示す情報がCPU112に出力される。   A touch panel 114 is stacked on the display unit 110. When the user presses a corresponding part of the display unit 110 with a finger or a pen, information indicating the pressed position is output to the CPU 112.

CPU112には、音声処理回路84を介してスピーカ85が接続されている。音声処理回路84は、CPU112から送られた報知音データ(シャッタ音、警告音など)に基づき、スピーカ85を駆動させることで、報知音や、動画とともに記録された音声を出力する。   A speaker 85 is connected to the CPU 112 via an audio processing circuit 84. The audio processing circuit 84 drives the speaker 85 based on the notification sound data (shutter sound, warning sound, etc.) sent from the CPU 112, thereby outputting the notification sound and the sound recorded together with the moving image.

マイク17から取得されたアナログ音声信号は、動画撮影モードの場合、音声処理回路84によって増幅後デジタルデータに変換されるとともに、所定の圧縮記録形式(MPEG4など)で圧縮されるなどのデータ処理がなされ、取得した画像とともに画像記憶部132に記憶される。静止画撮影モードであっても、本撮影指示前後の音声を記録することは可能である。また、画像記憶部132に記憶された音声の他、記憶部119に予め記憶された操作音、シャッタ音、AFの合焦音などの各種報知音データは、音声処理回路84によってデコードやアナログ音声信号変換や増幅などのデータ処理がなされた後に、スピーカ85に出力される。スピーカ85は、音声処理回路84から出力されたアナログ音声信号に従って音声を出力する。   In the video shooting mode, the analog audio signal acquired from the microphone 17 is converted into digital data after being amplified by the audio processing circuit 84 and is subjected to data processing such as being compressed in a predetermined compression recording format (such as MPEG4). The image is stored in the image storage unit 132 together with the acquired image. Even in the still image shooting mode, it is possible to record audio before and after the main shooting instruction. In addition to the sound stored in the image storage unit 132, various notification sound data such as operation sound, shutter sound, and AF in-focus sound stored in advance in the storage unit 119 are decoded and analog sound by the sound processing circuit 84. After data processing such as signal conversion and amplification is performed, the data is output to the speaker 85. The speaker 85 outputs sound according to the analog sound signal output from the sound processing circuit 84.

RTC(リアルタイムクロック)15は、現在日時情報を出力する。この現在時刻情報は、撮像部102による記録用画像の撮影日時情報として、画像とともに記録することができる。   An RTC (real time clock) 15 outputs current date and time information. This current time information can be recorded together with the image as shooting date / time information of the recording image by the imaging unit 102.

GPS受信機120は、GPS衛星からの電波を受信して軌道からの距離を測定することにより、カメラ10の現在位置情報を得る。この現在位置情報は、撮像部102による記録用画像の撮影位置情報として、画像とともに(例えばメタ情報やヘッダ情報として)画像記憶部132に記憶することができる。   The GPS receiver 120 obtains current position information of the camera 10 by receiving radio waves from GPS satellites and measuring the distance from the orbit. This current position information can be stored in the image storage unit 132 together with an image (for example, as meta information or header information) as shooting position information of an image for recording by the imaging unit 102.

カメラ筐体裏面には、マイク17が設置されており、これらの各種装置は、表示部110の周辺に設けられている。   A microphone 17 is installed on the rear surface of the camera casing, and these various devices are provided around the display unit 110.

画像解析部145は、撮像部102から出力された画像あるいは画像記憶部132の画像を解析し、その結果に応じて、表情情報、構図情報、被写体情報、画質情報などを作成し、出力する。   The image analysis unit 145 analyzes the image output from the imaging unit 102 or the image storage unit 132 and creates and outputs facial expression information, composition information, subject information, image quality information, and the like according to the result.

例えば、表情情報は、怒り、嫌悪、 恐れ、悲しみ(哀しみ)、幸福(笑い)、驚き、無表情(真面目)といった個々の被写体の表情を判別し、判別された各被写体の表情を示す情報である。   For example, facial expression information is information that identifies the facial expressions of individual subjects such as anger, disgust, fear, sadness (sadness), happiness (laughter), surprise, no expression (serious), is there.

構図情報は、人物の有無、主要被写体(典型的には合焦被写体のことを指すが、顔検出のあった被写体でも可)の位置を含む。被写体情報は、顔領域の位置、被写体サイズ、人物名、被写体の動きの有無、その動き方向ならびにその動き速度、などを含む。なお、構図解析、被写体抽出、顔検出、画質解析については、各種の公知技術を用いればよい(例えば、本出願人による特開2007−97090号公報、特開2005−354606号公報)。これらの情報は、画像の付帯情報として記録してもよい。   The composition information includes the presence / absence of a person and the position of a main subject (typically a focused subject, but may be a subject with face detection). The subject information includes the position of the face area, subject size, person name, presence / absence of subject motion, direction of motion, and speed of motion. Note that various known techniques may be used for composition analysis, subject extraction, face detection, and image quality analysis (for example, Japanese Patent Application Laid-Open Nos. 2007-97090 and 2005-354606 by the present applicant). Such information may be recorded as supplementary information of the image.

画質情報は、ボケ・ブレの有無や、目瞑りの有無などを示す画像情報を含む。ブレの検出については、従来の手ブレ検出と同様、動き検出回路21の検出した加速度ベクトルのサイズが所定の閾値を超えた場合に手ブレありと判断する。ボケの検出については、例えばエッジ検出に基づいて行うことができる(例えば、本出願人による特開2005−122721号公報)。目瞑りの有無の判定についても公知技術を用いることができる(例えば、本出願人による特開2007−49631号公報)。   The image quality information includes image information indicating the presence / absence of blurring / blurring and the presence / absence of eye-meditation. As for shake detection, as in the case of conventional camera shake detection, it is determined that there is camera shake when the size of the acceleration vector detected by the motion detection circuit 21 exceeds a predetermined threshold. The blur detection can be performed based on, for example, edge detection (for example, Japanese Patent Application Laid-Open No. 2005-122721 by the present applicant). A known technique can also be used for determining whether or not eyes are closed (for example, Japanese Patent Application Laid-Open No. 2007-49631 by the present applicant).

なお、デジタルカメラ10とは、要するに被写体像を画像データとして取得可能な機器であれば何でもよく、カメラ付き携帯電話、カメラ付きパソコン、デジタルビデオカメラ、デジタルスチルカメラなども含みうる。   The digital camera 10 may be any device that can acquire a subject image as image data, and may include a mobile phone with a camera, a personal computer with a camera, a digital video camera, a digital still camera, and the like.

記憶部132には、画像データに合成される文字情報やテンプレートデータが格納されており、画像処理部144は、CPU112の指示あるいは操作部113からの選択操作に応じて所望の画像に所望のデータを合成する。   The storage unit 132 stores character information and template data to be combined with image data, and the image processing unit 144 adds desired data to a desired image in accordance with an instruction from the CPU 112 or a selection operation from the operation unit 113. Is synthesized.

図2は撮影処理のフローチャートである。この処理は撮影モードの設定に応じて開始する。あるいは、撮影準備動作の指示(シャッターボタンの半押し)が操作部113に入力されたことに応じて開始してもよい。この処理をCPU112に実行させるプログラムは記憶部119に記憶されている。なお、この「CPU112」とは、カメラ10そのものに内蔵されているものでなく、別の電子機器、例えばパソコン200aの内蔵するものも含みうる。つまり、本処理の実行主体は、パソコン200aのCPUであり、その制御対象がパソコン200aとは別体のカメラ10でも可能である。   FIG. 2 is a flowchart of the photographing process. This process starts according to the setting of the shooting mode. Alternatively, it may be started in response to an instruction for photographing preparation operation (half-pressing the shutter button) being input to the operation unit 113. A program that causes the CPU 112 to execute this processing is stored in the storage unit 119. The “CPU 112” is not built in the camera 10 itself, but may include another electronic device, for example, a built-in computer 200a. That is, the execution subject of this processing is the CPU of the personal computer 200a, and the control target can be the camera 10 separate from the personal computer 200a.

なお、本処理はこれから撮影しようとするシーンを決める処理(S3)を含むため、本撮像のタイミングに近ければ近いほどよいから、本処理は本撮像の直前、例えばシャッタボタンの半押し時に開始するとよい。   Since this process includes a process (S3) for determining a scene to be photographed from now on, it is better that the timing is closer to the main imaging timing. Therefore, this process starts immediately before the main imaging, for example, when the shutter button is half-pressed. Good.

S1では、スルー画の取得を開始する。スルー画は所定の周期ごとに定期的に取得される。   In S1, acquisition of a through image is started. The through image is periodically acquired at predetermined intervals.

S2では、画像解析部145は、取得された直近のスルー画を解析して、スルー画に含まれる各被写体に対応する表情情報を作成し、記憶部119のRAMに出力する。被写体の表情の判別は特許文献2や5のようにしてできる。   In S <b> 2, the image analysis unit 145 analyzes the acquired latest through image, creates facial expression information corresponding to each subject included in the through image, and outputs it to the RAM of the storage unit 119. Discrimination of the facial expression of the subject can be performed as described in Patent Documents 2 and 5.

S3では、記憶部119のRAMに格納された表情情報に含まれる表情に基づいて撮影シーンを決定する。例えば、各被写体の表情を様々な種類シーンと比例する数値(数値が大きくなればなるほど笑った顔から怒った顔に近づくなど)に置き換え、これらの数値の平均値に対応するシーンを決める。あるいは、各被写体の笑顔の表情が多数派であれば笑顔シーン、真面目な顔が多数派であれば真面目シーン、怒った顔の表情が多数派であれば怒り顔シーン、哀しい顔が多数派であれば哀しいシーンとする。決定した撮影シーンは記憶部119のRAMに格納される。   In S3, a shooting scene is determined based on the facial expression included in the facial expression information stored in the RAM of the storage unit 119. For example, the expression of each subject is replaced with a numerical value proportional to various types of scenes (the larger the numerical value is, the closer the laughing face is to the angry face, etc.), and the scene corresponding to the average value of these numerical values is determined. Or, if the smile expression of each subject is majority, a smile scene, if the serious face is majority, a serious scene, if an angry facial expression is majority, an angry face scene, a sad face is majority. If there is a sad scene. The determined shooting scene is stored in the RAM of the storage unit 119.

S4では、S3で決定したシーンが笑顔シーンであるか否かを判断する。Yesの場合はS5、Noの場合は後述の真面目シーンの撮影サブルーチンに進む。   In S4, it is determined whether or not the scene determined in S3 is a smile scene. In the case of Yes, the process proceeds to S5, and in the case of No, the process proceeds to a serious scene photographing subroutine described later.

S5では、画像解析部145を制御して、S3以降に取得された直近のスルー画を解析し、スルー画に含まれる各被写体に対応する表情情報を作成し、記憶部119のRAMに出力する。また、RAMに格納された各被写体に対応する表情情報に基づいて、各被写体の表情の笑顔の度合いを示す笑顔度評価値を算出し、記憶部119のRAMに格納する。これは例えば、特許文献2と同様、ある被写体の表情が笑顔に近いか、あるいは笑顔以外の表情(無表情、怒った表情、哀しい表情、驚いた表情、嫌悪を示す表情)に近いかを数値化して、その被写体の笑顔度評価値とする。   In S5, the image analysis unit 145 is controlled to analyze the latest through image acquired after S3, create facial expression information corresponding to each subject included in the through image, and output to the RAM of the storage unit 119. . Further, based on the facial expression information corresponding to each subject stored in the RAM, a smile degree evaluation value indicating the degree of smile of the facial expression of each subject is calculated and stored in the RAM of the storage unit 119. For example, as in Patent Document 2, whether a certain subject's facial expression is close to a smile or a facial expression other than a smile (no facial expression, angry facial expression, sad facial expression, surprised facial expression, disgusting facial expression) is a numerical value. To make the smile evaluation value of the subject.

そして、各被写体に対応する笑顔度評価値の各々のうち、CPU112が任意に選択した1つの被写体(カレント被写体)に対応する笑顔度評価値が、予め記憶部119に記憶された複数種類の閾値のうちS4で決定された笑顔シーンに対応するものとしてCPU112が選択・設定した基準値(笑顔閾値)を超えたか否かを判断する。例えばスルー画の被写体のうち最も左上角にあるものから最も右下角にあるものにかけて順に識別情報を付与し、その識別情報の順序に沿って1つずつカレント被写体を選択する。カレント被写体の笑顔度評価値>笑顔閾値の場合は、カレント被写体は笑顔被写体と判断してS9に進み、笑顔度評価値≦笑顔閾値の場合は、カレント被写体は非笑顔被写体と判断してS6に進む。   Of the smile degree evaluation values corresponding to each subject, smile degree evaluation values corresponding to one subject (current subject) arbitrarily selected by the CPU 112 are stored in the storage unit 119 in advance. It is determined whether or not the reference value (smile threshold) selected and set by the CPU 112 as corresponding to the smile scene determined in S4 is exceeded. For example, identification information is given in order from the subject in the through image at the upper left corner to the lower right corner, and the current subject is selected one by one along the order of the identification information. If the smile level evaluation value of the current subject> the smile threshold value, the current subject is determined to be a smile subject and the process proceeds to S9. If smile level evaluation value ≦ the smile threshold value, the current subject is determined to be a non-smile subject and the process proceeds to S6. move on.

S6では、カレント被写体の位置が変化したか、あるいは背景が変化(撮影者自身が動いて背景が変わる場合も含む。以下同様)したかを判断する。これは、例えば、取得した直近のスルー画で検出されたカレント被写体の存在領域を記憶しておき、現在のスルー画内から上記存在領域に相当する領域内の画像を抽出して、カレント被写体の画像との差分情報を作成し、差分情報が0(色データなし)となれば、カレント被写体の位置が変化していないと判断する。逆に、差分情報が0でなければ、カレント被写体の位置が変化したと判断する。   In S6, it is determined whether the position of the current subject has changed, or whether the background has changed (including the case where the photographer himself moves to change the background, and so on). This is because, for example, the existing area of the current subject detected in the latest through image acquired is stored, the image in the area corresponding to the existing area is extracted from the current through image, and the current subject's If difference information with the image is created and the difference information becomes 0 (no color data), it is determined that the position of the current subject has not changed. Conversely, if the difference information is not 0, it is determined that the position of the current subject has changed.

あるいは、前回取得したスルー画で検出された全被写体の存在領域以外の領域(背景領域)を記憶しておき、現在のスルー画内から上記背景領域に相当する領域内の画像を抽出して、前回取得したスルー画の背景領域との差分情報を作成し、差分情報が0(色データなし)となれば、背景が変化していないと判断する。逆に、差分情報が0でなければ、背景が変化したと判断する。   Alternatively, an area (background area) other than the existence area of all subjects detected in the previously acquired through image is stored, and an image in an area corresponding to the background area is extracted from the current through image, Difference information with the background area of the through image acquired last time is created, and if the difference information becomes 0 (no color data), it is determined that the background has not changed. Conversely, if the difference information is not 0, it is determined that the background has changed.

あるいは、被写体の位置変化や背景の変化は画像情報のみで判断する必要はなく、測距部81が測距した被写体までの距離が変化すれば被写体の位置が変化したと判断したり、GPS受信機120の現在位置情報や動き検出回路21の備える電子コンパスの出力する方位情報や傾き検出回路の検出するカメラ10のパン/チルト方向が変化すれば背景が変化したと判断することもできる。   Alternatively, it is not necessary to determine the change in the position of the subject and the change in the background based on only the image information. If the distance to the subject measured by the distance measuring unit 81 changes, it can be determined that the position of the subject has changed, or GPS reception can be performed. If the current position information of the machine 120, the azimuth information output by the electronic compass included in the motion detection circuit 21 or the pan / tilt direction of the camera 10 detected by the tilt detection circuit change, it can be determined that the background has changed.

被写体の位置が変化したかあるいは背景が変化したと判断した場合はS7、両者とも変化していないと判断した場合はS8に進む。なお、「変化」とは実質的な変化を指し、所定の誤差範囲内にある変化は変化と判断しないものとする。   If it is determined that the position of the subject has changed or the background has changed, the process proceeds to S7, and if it is determined that both have not changed, the process proceeds to S8. Note that “change” refers to a substantial change, and changes within a predetermined error range are not determined to be changes.

S7では、RAMの全ての被写体の笑顔表情情報、笑顔表情評価値をクリアし、全被写体は非笑顔被写体と判断する。そして、S5に戻る。あるいは、背景が変化した場合は全ての被写体の笑顔表情情報、笑顔表情評価値をクリアし、被写体の位置が変化した場合はその位置の変化した被写体のみの笑顔表情情報、笑顔表情評価値をクリアし、その被写体は非笑顔被写体と判断してもよい。こうすることで、位置や背景が大きく変わる前の古い確定画像(後述)が利用されるのを防ぐ。   In S7, the smile expression information and smile expression evaluation values of all the subjects in the RAM are cleared, and all the subjects are determined as non-smile subjects. Then, the process returns to S5. Or, when the background changes, the smile expression information and smile expression evaluation value of all subjects are cleared, and when the subject position changes, the smile expression information and smile expression evaluation values of only the subject whose position has changed are cleared. The subject may be determined as a non-smile subject. By doing this, it is possible to prevent the use of an old fixed image (described later) before the position and background are largely changed.

S8では、S5でカレント被写体の笑顔表情評価値が笑顔閾値を下回った(非笑顔被写体)と判定されてから、あるいはS3でシーンが判別されてから所定の表情待機時間(例えば5秒間)が経過したか否かを判断する。Yesの場合はカレント被写体は笑顔被写体と判断してS9に進み、Noの場合はS5に戻る。所定の表情待機時間は、S4で判定したシーンに対応した長さでもよい。   In S8, a predetermined facial expression standby time (for example, 5 seconds) elapses after it is determined in S5 that the smile facial expression evaluation value of the current subject has fallen below the smile threshold (non-smiling subject) or the scene is determined in S3. Determine whether or not. If Yes, the current subject is determined to be a smiling subject and the process proceeds to S9. If No, the process returns to S5. The predetermined facial expression standby time may be a length corresponding to the scene determined in S4.

S9では、カレント被写体の顔画像を最新のスルー画から抽出し、記憶部119にカレント被写体の識別情報を対応づけた確定顔画像として保存する。なお顔画像の抽出は公知技術で行うことができる。カレント被写体が笑顔被写体であれば(S5でYes)、確定顔画像は笑顔の表情の顔画像となる。カレント被写体が笑顔被写体でなければ(S5でNo)、確定顔画像は笑顔以外の表情の顔画像となる。   In S9, the face image of the current subject is extracted from the latest through image, and is stored in the storage unit 119 as a confirmed face image associated with the identification information of the current subject. The face image can be extracted by a known technique. If the current subject is a smiling subject (Yes in S5), the confirmed face image is a face image with a smiling expression. If the current subject is not a smiling subject (No in S5), the confirmed face image is a facial image with an expression other than smile.

確定顔画像が保存された以後、スルー画像の出力にかかわらず、その確定顔画像の表示をロックする。すなわち、CPU112は、以後順次入力される新たなスルー画に対して、確定顔画像を合成するようビデオエンコーダ134に指示する。新たなスルー画への確定顔画像の合成位置は、確定顔画像が抽出されたスルー画内での座標と同じ座標とする。   After the confirmed face image is stored, the display of the confirmed face image is locked regardless of the output of the through image. That is, the CPU 112 instructs the video encoder 134 to synthesize a confirmed face image with new through images sequentially input thereafter. The composition position of the confirmed face image to the new through image is set to the same coordinates as the coordinates in the through image from which the confirmed face image has been extracted.

S10では、カレント被写体を含む全ての被写体について確定顔画像の保存が終了したか否かを判断する。Yesの場合はS11、Noの場合はS12に進む。   In S10, it is determined whether or not the saving of the confirmed face image has been completed for all subjects including the current subject. If yes, go to S11, if no, go to S12.

S11では、本撮影(記録用の画像の取得)を行うよう撮像部102を制御する。これは、直接的に撮影開始を指示することでもよいが、シャッターチャンスが到来した旨を表示部110に表示したり「シャッターチャンスです」などといったメッセージをスピーカ85で拡声してユーザに好適なシャッターチャンスが到来した旨を通知した上、操作部113のシャッタボタンの押下による撮影指示を許容して撮影を開始することでもよい。   In S <b> 11, the imaging unit 102 is controlled to perform main shooting (acquisition of an image for recording). This may be directly instructed to start shooting, or a message suitable for the user is displayed by displaying on the display unit 110 a message that a photo opportunity has arrived or a message such as “It is photo opportunity” from the speaker 85. It is also possible to notify that the chance has arrived and to start shooting while allowing a shooting instruction by pressing the shutter button of the operation unit 113.

撮像部102の制御による本撮影で取得された記録用画像(静止画でも動画でもよい)は、画像処理部144で各種の処理がされた後、画像記憶部132に圧縮記憶される。もし、笑顔閾値に達していない顔領域に対応する被写体が記録用画像に含まれていても、笑顔閾値に達した当該被写体の確定顔画像が保存されていれば、その確定顔画像で記録用画像の当該被写体を置換して補正してもよい。これは、特許文献6のような公知の顔画像置換・補正技術と同様である。   A recording image (which may be a still image or a moving image) acquired by actual photographing under the control of the imaging unit 102 is subjected to various processing by the image processing unit 144 and then compressed and stored in the image storage unit 132. Even if a subject corresponding to a face area that has not reached the smile threshold is included in the recording image, if the confirmed face image of the subject that has reached the smile threshold is stored, the confirmed face image is used for recording. Correction may be made by replacing the subject in the image. This is the same as a known face image replacement / correction technique such as Patent Document 6.

S12では、シーン判別(S3)されてからこれまでにカレント被写体となったことのない被写体から任意に1つの被写体を選択して、これを新たなカレント被写体とし、S5以降の処理を続行する。なお、S12でカレント被写体を1つずつ切り替えるのではなく、複数の被写体の全てがカレント被写体であるとして、それらのカレント被写体全てについて並列してS5〜S11を行ってもよい。この場合S12は必要ない。S5〜S10の処理は、新たなスルー画が供給されるごとに繰り返されてもよいし、所定のスルー画のコマ間隔あるいは時間間隔ごとに繰り返してもよい。   In S12, one subject is arbitrarily selected from subjects that have not become current subjects since the scene determination (S3), and this is set as a new current subject, and the processing from S5 is continued. Instead of switching the current subjects one by one in S12, assuming that all of the plurality of subjects are current subjects, S5 to S11 may be performed in parallel for all the current subjects. In this case, S12 is not necessary. The processing of S5 to S10 may be repeated every time a new through image is supplied, or may be repeated every frame interval or time interval of a predetermined through image.

図3は、S4でNoと判定された場合に進む真面目シーンの撮影サブルーチンである。   FIG. 3 shows a serious scene shooting subroutine that proceeds when it is determined No in S4.

S24では、S3で決定したシーンが真面目シーンであるか否かを判断する。Yesの場合はS25、Noの場合は後述のサブルーチンに進む。   In S24, it is determined whether or not the scene determined in S3 is a serious scene. If Yes, the process proceeds to S25, and if No, the process proceeds to a subroutine described later.

S25では、画像解析部145を制御して、S3以降に取得された直近のスルー画を解析し、スルー画に含まれる各被写体に対応する表情情報を作成し、記憶部119のRAMに出力する。そして、RAMに格納された各被写体に対応する表情情報に基づいて、各被写体の表情の真面目さの度合いを示す真面目度評価値を算出し、記憶部119のRAMに格納する。これは例えば、特許文献2と同様、ある被写体の表情が無表情に近いか、あるいは無表情以外の表情(笑顔、怒った表情、哀しい表情、驚いた表情、嫌悪を示す表情)に近いかを数値化して、その被写体の真面目度評価値とする。   In S25, the image analysis unit 145 is controlled to analyze the latest through image acquired after S3, and facial expression information corresponding to each subject included in the through image is created and output to the RAM of the storage unit 119. . Then, based on the facial expression information corresponding to each subject stored in the RAM, a seriousness evaluation value indicating the degree of seriousness of the facial expression of each subject is calculated and stored in the RAM of the storage unit 119. For example, as in Patent Document 2, whether an expression of a certain subject is close to an expression or whether it is close to an expression other than an expression (a smile, an angry expression, a sad expression, a surprised expression, an expression of disgust). It is digitized and used as the seriousness evaluation value of the subject.

そして、各被写体に対応する真面目度評価値の各々のうち、CPU112が任意に選択した1つの被写体(カレント被写体)に対応する真面目度評価値が、予め記憶部119に記憶された複数種類の閾値のうちS24で決定された真面目シーンに対応するものとしてCPU112が選択・設定した基準値(真面目顔閾値)を超えたか否かを判断する。例えばスルー画の被写体のうち最も左上角にあるものから最も右下角にあるものにかけて順に識別情報を付与し、その識別情報の順序に沿って1つずつカレント被写体を選択する。カレント被写体の真面目度評価値>真面目顔閾値となった場合は、カレント被写体は真面目顔被写体と判断してS29に進み、それ以外の場合はカレント被写体は非真面目顔被写体と判断してS26に進む。   Then, out of each of the seriousness evaluation values corresponding to each subject, the seriousness evaluation values corresponding to one subject (current subject) arbitrarily selected by the CPU 112 are a plurality of types of threshold values stored in the storage unit 119 in advance. It is determined whether or not a reference value (serious face threshold) selected and set by the CPU 112 as corresponding to the serious scene determined in S24 is exceeded. For example, identification information is given in order from the subject in the through image at the upper left corner to the lower right corner, and the current subject is selected one by one along the order of the identification information. If the seriousness evaluation value of the current subject is greater than the seriousness face threshold, the current subject is determined to be a serious face subject and the process proceeds to S29. Otherwise, the current subject is determined to be a non-serious face subject and the process proceeds to S26. .

S26では、カレント被写体の位置が変化したか、あるいは背景が変化したかを判断する。これは、上述のS6と同様にできる。   In S26, it is determined whether the position of the current subject has changed or the background has changed. This can be done in the same manner as S6 described above.

被写体の位置が変化したかあるいは背景が変化したと判断した場合はS27、両者とも変化していないと判断した場合はS28に進む。   If it is determined that the position of the subject has changed or the background has changed, the process proceeds to S27. If it is determined that both have not changed, the process proceeds to S28.

S27では、S7と同様、RAMの全てのあるいは一部の被写体の表情情報、真面目顔表情評価値をクリアする。そして、S5に戻る。   In S27, as in S7, the expression information of all or some of the subjects in the RAM and the serious facial expression evaluation value are cleared. Then, the process returns to S5.

S28では、S25でカレント被写体の真面目顔表情評価値が真面目顔閾値を下回ったと判定されてから、あるいはS3でシーンが判別されてから所定の表情待機時間(例えば5秒間)が経過したか否かを判断する。Yesの場合はカレント被写体は真面目顔被写体と判断してS29に進み、Noの場合はS25に戻る。所定の表情待機時間は、S24で判定したシーンに対応した長さでもよい。例えば、真面目な表情の方が自然な笑顔よりも作りやすいから、真面目顔のシーンに対応する表情待機時間は5秒、笑顔のシーンに対応する表情待機時間は8秒とする。   In S28, whether or not a predetermined facial expression waiting time (for example, 5 seconds) has elapsed since it was determined in S25 that the serious facial expression evaluation value of the current subject has fallen below the serious face threshold, or since the scene was determined in S3. Judging. In the case of Yes, the current subject is determined to be a serious face subject and the process proceeds to S29, and in the case of No, the process returns to S25. The predetermined facial expression waiting time may be a length corresponding to the scene determined in S24. For example, since a serious expression is easier to make than a natural smile, the expression standby time corresponding to a serious face scene is 5 seconds, and the expression standby time corresponding to a smile scene is 8 seconds.

S29では、カレント被写体の顔画像を最新のスルー画から抽出し、記憶部119にカレント被写体の識別情報を対応づけた確定顔画像として保存する。なお顔画像の抽出は公知技術で行うことができる。カレント被写体が真面目顔被写体であれば、確定顔画像は真面目な表情の顔画像となる。カレント被写体が真面目顔被写体でなければ、確定顔画像は無表情以外の表情の顔画像となる。   In S29, the face image of the current subject is extracted from the latest through image, and stored in the storage unit 119 as a confirmed face image associated with the identification information of the current subject. The face image can be extracted by a known technique. If the current subject is a serious face subject, the confirmed face image is a face image with a serious expression. If the current subject is not a serious face subject, the confirmed face image is a face image with an expression other than expressionless.

S30では、カレント被写体を含む全ての被写体について確定顔画像の保存が終了したか否かを判断する。Yesの場合はS31、Noの場合はS32に進む。   In S30, it is determined whether or not the saving of the confirmed face image has been completed for all subjects including the current subject. If yes, go to S31, if no, go to S32.

S31では、S11と同様本撮影を行う。これは、自動的に撮影を開始することでもよいが、シャッタボタンの押下による撮影指示を許容して撮影を開始することでもよい。   In S31, the main photographing is performed as in S11. This may be to automatically start shooting, or to allow shooting instruction by pressing the shutter button and start shooting.

S32では、シーン判別(S3)されてからこれまでにカレント被写体となったことのない被写体から任意に1つの被写体を選択して、これを新たなカレント被写体とし、S25以降の処理を続行する。なお、S32でカレント被写体を1つずつ切り替えるのではなく、複数の被写体の全てがカレント被写体であるとして、それらのカレント被写体全てについて並列してS25〜S31を行ってもよい。この場合S32は必要ない。   In S32, one subject is arbitrarily selected from subjects that have not become the current subject so far after the scene determination (S3), and this is set as a new current subject, and the processing from S25 onward is continued. Instead of switching the current subjects one by one in S32, assuming that all of the plurality of subjects are current subjects, S25 to S31 may be performed in parallel for all the current subjects. In this case, S32 is not necessary.

S24でNoと判定されてから実行されるサブルーチンは、笑顔と真面目顔以外の表情、例えば怒った顔や哀しい顔などについて、S5〜S12と同様の処理を行う。すなわち、S5相当の処理では各シーンに対応した閾値を用意しておく。ただし、笑顔と真面目顔以外の表情について、確定顔領域を保存する必要がない場合、このサブルーチンは省略することもできる。要は、S5〜S12は各シーンと表情に応じた閾値を用いれば、どのようなシーンにでも適用できるサブルーチンである。   The subroutine executed after the determination of No in S24 performs the same processing as S5 to S12 for facial expressions other than smiles and serious faces, such as angry faces and sad faces. That is, a threshold corresponding to each scene is prepared in the process corresponding to S5. However, this subroutine can be omitted if it is not necessary to save the confirmed face area for expressions other than smiles and serious faces. In short, S5 to S12 are subroutines that can be applied to any scene as long as a threshold corresponding to each scene and expression is used.

なお、S5、S25の評価値閾値、あるいはS8、S28の時間閾値は撮影モードに応じて変えてもよい。例えば、S5、S25において、操作部113から室内撮影モードやポートレート撮影モードが設定された場合は、CPU112はS5あるいはS25で使用する評価値閾値をそれぞれV1−1、V1−2とし、操作部113から屋外撮影に関係する撮影モード、例えばスポーツモードが設定された場合は、評価値閾値V1−1よりも小さい閾値V2−1、評価値閾値V1−2よりも小さい閾値V2−2とする。評価値閾値V1−1〜V2−2は記憶部119に記憶されているが、CPU112はこの中から撮影モードに応じた閾値を選択する。こうすれば、屋内撮影の場合は、撮影に適した表情が整うのをより厳しめに待つことができる。   Note that the evaluation value threshold values in S5 and S25 or the time threshold values in S8 and S28 may be changed according to the shooting mode. For example, when the indoor shooting mode or the portrait shooting mode is set from the operation unit 113 in S5 and S25, the CPU 112 sets the evaluation value thresholds used in S5 or S25 to V1-1 and V1-2, respectively. When a shooting mode related to outdoor shooting from 113, for example, a sports mode, is set, a threshold value V2-1 smaller than the evaluation value threshold value V1-1 and a threshold value V2-2 smaller than the evaluation value threshold value V1-2 are set. Although the evaluation value threshold values V1-1 to V2-2 are stored in the storage unit 119, the CPU 112 selects a threshold value corresponding to the shooting mode. In this way, in the case of indoor shooting, it is possible to wait more strictly for a facial expression suitable for shooting.

あるいは、S8、S28において、操作部113から室内撮影モードやポートレート撮影モードが設定された場合は、CPU112はS8、S28においてそれぞれ時間閾値T1−1、T1−2とし、操作部113から屋外撮影に関係する撮影モード、例えばスポーツモードが設定された場合は、CPU112はS8、S28においてそれぞれ時間閾値T1−1よりも小さい閾値T2−1、時間閾値T1−2よりも小さい閾値T2−2とする。こうすれば、屋内撮影の場合は、撮影に適した表情が整うのを待つ時間を長めにできる。   Alternatively, when the indoor shooting mode or the portrait shooting mode is set from the operation unit 113 in S8 and S28, the CPU 112 sets the time thresholds T1-1 and T1-2 in S8 and S28, respectively, and the outdoor shooting is performed from the operation unit 113. In S8 and S28, the CPU 112 sets the threshold T2-1 smaller than the time threshold T1-1 and the threshold T2-2 smaller than the time threshold T1-2, respectively. . In this way, in the case of indoor shooting, it is possible to lengthen the time for waiting for a facial expression suitable for shooting.

例えば、図4のような3人の被写体SB1、SB2、SB3を含む撮影シーンからは、図5のようなスルー画が得られ、また、図6に示すように、被写体SB1、SB2、SB3の顔領域F1、F2、F3に基づいて、各被写体SB1、SB2、SB3に対応する笑顔度評価値V(SB1)、V(SB2)、V(SB3)が算出される。認識された顔領域の周囲を縁取った映像をOSD信号発生回路135で生成して表示部110に表示させてもよい。   For example, a through image as shown in FIG. 5 is obtained from a shooting scene including three subjects SB1, SB2, and SB3 as shown in FIG. 4, and as shown in FIG. 6, the subjects SB1, SB2, and SB3 Smile level evaluation values V (SB1), V (SB2), and V (SB3) corresponding to the subjects SB1, SB2, and SB3 are calculated based on the face areas F1, F2, and F3. An image with a border around the recognized face area may be generated by the OSD signal generation circuit 135 and displayed on the display unit 110.

上記の処理では、カレント被写体がSB1であり、V(SB1)>笑顔閾値であればS9に進み、それ以外の場合はS6に進む。あるいは、カレント被写体がSB2であり、V(SB2)>笑顔閾値であればS9に進み、それ以外の場合はS6に進む。あるいは、カレント被写体がSB3であり、V(SB3)>笑顔閾値であればS9に進み、それ以外の場合はS6に進む。   In the above processing, if the current subject is SB1 and V (SB1)> smile threshold, the process proceeds to S9, otherwise the process proceeds to S6. Alternatively, if the current subject is SB2 and V (SB2)> smile threshold, the process proceeds to S9, otherwise the process proceeds to S6. Alternatively, if the current subject is SB3 and V (SB3)> smile threshold, the process proceeds to S9, otherwise the process proceeds to S6.

図6では被写体SB1とSB3が笑顔被写体である。SB2は笑顔被写体ではないが、SB1〜SB3の全てについて確定顔画像が記憶部119に確保される。   In FIG. 6, subjects SB1 and SB3 are smiling subjects. Although SB2 is not a smiling subject, a confirmed face image is secured in the storage unit 119 for all of SB1 to SB3.

図7のように、笑顔被写体の顔領域の縁に所定の色を着色した映像をOSD信号発生回路135で生成して表示部110に表示させて、確定顔画像の保存が完了した旨をユーザに通知してもよい。   As shown in FIG. 7, the OSD signal generation circuit 135 generates an image in which a predetermined color is applied to the edge of the face area of the smiling subject and displays it on the display unit 110, indicating that the saving of the confirmed face image is completed. May be notified.

全ての被写体について確定顔画像が保存された後は、各被写体の顔領域が確定顔画像のままロックされる。すなわち、全ての被写体について確定顔画像が保存された後に、被写体の表情が確定顔画像の保存時と異なってしまっても、それは表示部110に表示されない。   After the confirmed face images are stored for all the subjects, the face area of each subject is locked as the confirmed face image. That is, even after the confirmed face image is stored for all the subjects, even if the expression of the subject is different from that when the confirmed face image is stored, it is not displayed on the display unit 110.

例えば、図4のように被写体SB1は笑顔であり、その確定顔画像は笑顔の顔画像として保存されたが、それ以後、何らかの理由で図8のように被写体SB1の笑顔がくずれ、無表情になったとする。この場合でも、図9に示すように、以後のスルー画像の被写体SB1の顔領域には、保存された被写体SB1の笑顔の確定顔画像を合成して、表情は笑顔の確定画像のままで固定させる。また、枠F1の着色も継続しておく。   For example, the subject SB1 is a smile as shown in FIG. 4, and the confirmed face image is stored as a smile face image. After that, the subject SB1 smiles for some reason as shown in FIG. Suppose that Even in this case, as shown in FIG. 9, a smile fixed face image of the stored subject SB1 is synthesized in the face area of the subject SB1 of the subsequent through image, and the expression is fixed as the smile fixed image. Let Also, the coloring of the frame F1 is continued.

また、確定顔画像が未保存の被写体について、表情変化待機時間経過前に、各シーンに対応する基準値を超えれば、その被写体の顔領域も確定顔画像として保存され、以後のスルー画では確定顔画像が固定される。   In addition, for a subject whose confirmed face image is not saved, if the reference value corresponding to each scene is exceeded before the expression change waiting time elapses, the face area of the subject is also saved as a confirmed face image, and is confirmed in subsequent through images. The face image is fixed.

さらに、図4のシーンから図8のシーンに移行し、被写体SB1の表情は笑顔から無表情になっても、図9のようにスルー画にSB1の確定顔画像を合成して表示し、SB1の表情は確定顔画像に固定されたままにする。その後さらに、図8のシーンから図10のようなシーンに遷移し、確定顔画像が未保存の被写体SB2について、表情変化待機時間経過前に被写体SB2が笑顔になれば、被写体SB2の顔領域は確定顔画像として保存され、また、図11のようなスルー画が表示される。以後、表示部110でのSB2の確定顔画像が固定される。被写体SB1・SB3については笑顔の確定顔画像が保存された後、SB1ついては笑顔が無表情に変わってもそれは表示されない。   Further, even when the scene of FIG. 4 is shifted to the scene of FIG. 8 and the facial expression of the subject SB1 changes from a smile to no expression, the confirmed face image of SB1 is synthesized and displayed on the through image as shown in FIG. The expression of is fixed to the confirmed face image. After that, when the scene of FIG. 8 transitions to a scene as shown in FIG. 10 and the subject SB2 is not saved for the subject SB2 whose face image is not saved, the face area of the subject SB2 is It is stored as a confirmed face image, and a through image as shown in FIG. 11 is displayed. Thereafter, the confirmed face image of SB2 on the display unit 110 is fixed. For the subjects SB1 and SB3, after the determined smile face image is stored, even if the smile changes to no expression, it is not displayed.

また図12のように、被写体SB2については笑顔の確定顔画像が保存されないまま一定時間が経過し、被写体SB2は無表情のままであった場合、図13のように被写体SB2の確定顔画像は無表情の顔領域とする。   Also, as shown in FIG. 12, when a certain time has passed without the smile face image being stored for the subject SB2 and the subject SB2 remains expressionless, the confirmed face image of the subject SB2 is as shown in FIG. The face area is expressionless.

こうすることで、一旦シーンに適した被写体の表情が揃った後で被写体の表情が変わったことによる混乱を撮影者に与えずに済み、撮影者はシーンに適した表情になったと考えてシャッターボタンを押し、撮影を実行できる。   In this way, once the facial expressions suitable for the scene have been prepared, the photographer does not have to be confused by the change in the facial expression of the subject. Press the button to perform shooting.

確定顔画像は顔領域のみを含むのではなく、顔とつながる胴体部分を含んでもよい。例えば、撮影シーンは真面目顔を要求する集合写真であるとし、図14の画像Iでは、4人の人物被写体が存在するが、このうちある1人の被写体の表情評価値が当該撮影シーンに対応する基準値を超えたとする。この基準値を超えた被写体の顔領域と所定の位置関係にある領域、例えば顔領域を中心に上下左右斜めに3×4倍に顔領域を拡大した領域を確定被写体領域Xとし、その確定被写体領域X内の画像を確定顔画像の代替物(確定領域)として保存する。その確定領域の保存以降、確定被写体領域X内の被写体が表情を変えても、位置や背景が変化しない限り保存した確定領域を表示したままにする。このように顔領域よりも大きな確定領域を保存しても、集合写真で背景や人物位置は一旦決まったものから大きく変化しない限り、確定領域を表示したままにしても周囲との違和感は小さい。   The confirmed face image may include not only the face area but also a body part connected to the face. For example, it is assumed that the shooting scene is a group photo requesting a serious face, and there are four human subjects in the image I in FIG. 14, and the facial expression evaluation value of one of these subjects corresponds to the shooting scene. Suppose you exceed the standard value. An area having a predetermined positional relationship with the face area of the subject exceeding the reference value, for example, an area obtained by enlarging the face area 3 × 4 times obliquely up, down, left and right around the face area is defined as the confirmed subject area X, and the confirmed subject The image in the area X is stored as a substitute (confirmed area) for the confirmed face image. After saving the confirmed area, even if the subject in the confirmed subject area X changes its facial expression, the saved confirmed area remains displayed unless the position or background changes. Thus, even if the confirmed area larger than the face area is stored, the sense of discomfort with the surroundings is small even if the confirmed area is displayed as long as the background and the position of the person in the group photo do not change greatly from those determined once.

<第2実施形態>
第1実施形態では、全ての被写体に対応する確定顔画像(ないしその代替物。以下同様)の保存後は、当該被写体の表情が変わっても保存した確定顔画像をそのまま表示していた。しかし、被写体の位置が大きく変化した場合は、被写体が別の位置にいる以上、同じ位置に確定顔画像そのまま表示し続ける意味がなくなる。
<Second Embodiment>
In the first embodiment, after saving the fixed face images (or alternatives thereof, the same applies hereinafter) corresponding to all subjects, the saved fixed face images are displayed as they are even if the facial expression of the subject changes. However, when the position of the subject changes greatly, it is meaningless to continue to display the confirmed face image as it is at the same position as long as the subject is in another position.

そこで、図2のフローチャートに次のような位置変化判定処理を加える。すなわち、図15に示すように、S9において確定顔画像の保存がされた場合であっても、S10に進む前に、S6と同様の判断、すなわち被写体の位置変化があったか否かを判断し(S9’)、位置変化がないと判断されればS10に進み、位置変化があったと判断されれば、記憶部119に保存されたその被写体の確定顔画像を破棄(合わせてその被写体以外の確定顔画像を破棄してもよい)し、確定画像の合成を取り消して、S5に戻り、スルー画を表示する。この追加の処理はS30とS31の間にも付け加えることができ、さらに図示は省略するが笑顔や真面目顔以外のサブルーチンにも付け加えることができる。   Therefore, the following position change determination process is added to the flowchart of FIG. That is, as shown in FIG. 15, even when the confirmed face image is stored in S9, before proceeding to S10, it is determined whether or not there is a determination similar to S6, that is, whether or not the position of the subject has changed ( S9 ′) If it is determined that there is no position change, the process proceeds to S10, and if it is determined that there is a position change, the determined face image of the subject stored in the storage unit 119 is discarded (together other than the subject is determined). The face image may be discarded), and the composition of the confirmed image is canceled, and the process returns to S5 to display the through image. This additional processing can be added between S30 and S31, and although not shown, it can also be added to subroutines other than smiles and serious faces.

図16のように、確定顔画像が未保存の被写体SB1・2・3について、表情変化待機時間経過前に被写体SB1・3が笑顔になれば、被写体SB1・3の顔領域は確定顔画像として保存され、図17のように以後のスルー画では確定顔画像が合成される。その後、例えば図18のように確定顔画像の保存された被写体SB2の位置が変化した場合、図19のように被写体SB1・3の確定顔画像は破棄し、確定顔画像の周囲の枠も消去して、スルー画をそのまま表示する。   As shown in FIG. 16, for a subject SB1, 2, 3 for which the confirmed face image is not stored, if the subject SB1,3 becomes a smile before the expression change waiting time elapses, the face area of the subject SB1,3 becomes a confirmed face image. The determined face image is synthesized in the subsequent through images as shown in FIG. Thereafter, for example, when the position of the subject SB2 in which the confirmed face image is stored changes as shown in FIG. 18, the confirmed face image of the subjects SB1 and 3 is discarded as shown in FIG. 19, and the frames around the confirmed face image are also deleted. The through image is displayed as it is.

また、S9’では、被写体の位置変化でなく背景が変化したか否かを判断してもよい。背景が変化した場合はS6に戻り、変化していない場合はS10に進む。これは、屋外撮影のように撮影位置や背景が変化する可能性が高い場合に有効である。この追加の処理はS30とS31の間、笑顔や真面目顔以外のサブルーチンにも付け加えることができる。   In S <b> 9 ′, it may be determined whether the background has changed instead of the subject position. If the background has changed, the process returns to S6, and if not, the process proceeds to S10. This is effective when there is a high possibility that the shooting position and the background will change as in outdoor shooting. This additional processing can be added to subroutines other than smiles and serious faces between S30 and S31.

デジタルカメラの機能ブロック図Functional block diagram of digital camera 撮影処理のフローチャートFlow chart of shooting process 撮影サブルーチンのフローチャートFlow chart of shooting subroutine 撮影シーンの一例を示す図Diagram showing an example of a shooting scene スルー画の一例を示す図Diagram showing an example of a through image 認識された顔領域の周囲を示す映像の一例を示す図The figure which shows an example of the image | video which shows the circumference | surroundings of the recognized face area | region 笑顔被写体の顔領域を示す映像の一例を示す図The figure which shows an example of the image | video which shows the face area of a smiling subject 確定顔画像の保存された被写体の表情が変わった様子を示す図The figure which shows a mode that the expression of the preserved subject of the fixed face image has changed 確定顔画像の合成されたスルー画像の一例を示す図The figure which shows an example of the through image by which the fixed face image was synthesize | combined 撮影シーンの他の一例を示す図The figure which shows another example of a photography scene 確定顔画像の合成されたスルー画像の他の一例を示す図The figure which shows another example of the through image by which the fixed face image was synthesize | combined. 撮影シーンの他の一例を示す図The figure which shows another example of a photography scene 確定顔画像の合成されたスルー画像の他の一例を示す図The figure which shows another example of the through image by which the fixed face image was synthesize | combined. 確定領域の一例を示す図A figure showing an example of a fixed area 位置変化判定処理のフローチャートFlow chart of position change determination processing 撮影シーンの他の一例を示す図The figure which shows another example of a photography scene 確定顔画像の合成されたスルー画像の他の一例を示す図The figure which shows another example of the through image by which the fixed face image was synthesize | combined. 被写体位置の変化した撮影シーンの他の一例を示す図The figure which shows another example of the imaging | photography scene where the to-be-photographed object position changed. 確定顔画像の合成を取り消したスルー画像の一例を示す図The figure which shows an example of the through image which canceled the synthesis | combination of the fixed face image

符号の説明Explanation of symbols

10:カメラ、112:CPU、200:電子機器 10: Camera, 112: CPU, 200: Electronic device

Claims (9)

撮像レンズを介して受光した被写体像を継続的に光電変換して得られた電気信号を順次画像データに変換して出力する撮像部と、
前記撮像部の出力した第1の画像データに基づいて、各被写体の表情を示す評価値を算出する第1評価値算出部と、
前記第1評価値算出部の算出した各被写体の評価値に基づいて撮影シーンを判断する撮影シーン判断部と、
前記撮像部の出力した第1の画像データ以降に出力された第2の画像データに基づいて、各被写体の表情を示す評価値を算出する第2評価値算出部と、
前記撮影シーン判断部の判断した撮影シーンに対応するシーン確定閾値を設定する閾値設定部と、
前記第2評価値算出部が算出した各被写体の評価値が、前記閾値設定部の設定したシーン確定閾値を上回ったか否かに応じ、前記各被写体が前記撮影シーンに適した状態である確定被写体であるか前記撮影シーンに適した状態でない未確定被写体であるかを判断する撮影状態確定判断部と、
を備える撮像装置。
An imaging unit that sequentially converts electrical signals obtained by continuously photoelectrically converting a subject image received through an imaging lens into image data and outputs the image data;
A first evaluation value calculation unit that calculates an evaluation value indicating the facial expression of each subject based on the first image data output by the imaging unit;
A shooting scene determination unit that determines a shooting scene based on the evaluation value of each subject calculated by the first evaluation value calculation unit;
A second evaluation value calculation unit for calculating an evaluation value indicating the expression of each subject based on second image data output after the first image data output by the imaging unit;
A threshold setting unit for setting a scene determination threshold corresponding to the shooting scene determined by the shooting scene determination unit;
A determined subject in which each subject is in a state suitable for the shooting scene, depending on whether or not the evaluation value of each subject calculated by the second evaluation value calculation unit exceeds a scene determination threshold set by the threshold setting unit A shooting state determination determination unit that determines whether the subject is an unconfirmed subject that is not suitable for the shooting scene;
An imaging apparatus comprising:
前記撮影状態確定判断部が前記各被写体が確定被写体であると判断したことに応じ、前記撮像部による本撮影を開始または許可する撮像制御部を備える請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising: an imaging control unit that starts or permits main imaging by the imaging unit when the imaging state determination determination unit determines that each subject is a determined subject. 前記撮影状態確定判断部は、前記未確定被写体の評価値が前記シーン確定閾値に達しないまま所定時間が経過した場合、前記未確定被写体を前記確定被写体と判断する請求項1または2に記載の撮像装置。   3. The shooting state confirmation determination unit according to claim 1 or 2, wherein when a predetermined time has passed without an evaluation value of the unconfirmed subject reaching the scene confirmation threshold, the unconfirmed subject is determined as the confirmed subject. Imaging device. 前記撮影状態確定判断部は、前記未確定被写体の評価値が前記シーン確定閾値に達しないまま前記撮影シーン判断部の判断した撮影シーンに対応する所定時間が経過した場合、前記未確定被写体を前記確定被写体と判断する請求項3に記載の撮像装置。   When the predetermined time corresponding to the shooting scene determined by the shooting scene determination unit has elapsed without the evaluation value of the unfixed subject reaching the scene determination threshold, the shooting state determination determination unit determines the undetermined subject as the The imaging device according to claim 3, wherein the imaging device is determined to be a confirmed subject. 前記第2の画像データに基づいて前記確定被写体の位置または背景が変化したか否かを判断する変化判断部を備え、
前記撮影状態確定判断部は、前記撮像部による本撮像の前に前記変化判断部が前記確定被写体の位置または背景が変化したと判断したことに応じて前記確定被写体を未確定被写体と判断する請求項1〜4のいずれかに記載の撮像装置。
A change determination unit that determines whether the position or background of the determined subject has changed based on the second image data;
The imaging state determination determination unit determines the determination subject as an undetermined subject when the change determination unit determines that the position or background of the determination subject has changed before the main imaging by the imaging unit. Item 5. The imaging device according to any one of Items 1 to 4.
前記確定被写体の表情を示す確定画像を所定の記憶媒体に保存する確定画像保存部と、
前記所定の記憶媒体に保存された確定画像を前記撮像部から順次出力された画像であるスルー画像に合成して所定の表示装置に出力する表示制御部と、
を備える請求項1〜5のいずれかに記載の撮像装置。
A confirmed image storage unit that stores a confirmed image indicating the expression of the confirmed subject in a predetermined storage medium;
A display control unit that synthesizes a confirmed image stored in the predetermined storage medium with a through image that is an image sequentially output from the imaging unit and outputs the synthesized image to a predetermined display device;
An imaging apparatus according to any one of claims 1 to 5.
撮影モードの設定を受け付けるモード設定部を備え、
前記閾値設定部は、前記撮影モード設定部の設定した撮影モードおよび前記撮影シーン判断部の判断した撮影シーンに対応したシーン確定閾値を設定する請求項1〜6のいずれかに記載の撮像装置。
It has a mode setting unit that accepts shooting mode settings,
The imaging apparatus according to claim 1, wherein the threshold setting unit sets a scene determination threshold corresponding to a shooting mode set by the shooting mode setting unit and a shooting scene determined by the shooting scene determination unit.
撮像レンズを介して受光した被写体像を継続的に光電変換して得られた電気信号を順次画像データに変換して出力する撮像部を備えた撮像装置が、
前記撮像部の出力した第1の画像データに基づいて、各被写体の表情を示す評価値を算出するステップと、
前記算出した各被写体の評価値に基づいて撮影シーンを判断するステップと、
前記撮像部の出力した第1の画像データ以降に出力された第2の画像データに基づいて、各被写体の表情を示す評価値を算出するステップと、
前記判断した撮影シーンに対応するシーン確定閾値を設定するステップと、
前記算出した各被写体の評価値が、前記閾値設定部の設定したシーン確定閾値を上回ったか否かに応じ、前記各被写体が前記撮影シーンに適した状態である確定被写体であるか前記撮影シーンに適した状態でない未確定被写体であるかを判断するステップと、
を実行する撮像方法。
An imaging apparatus including an imaging unit that sequentially converts an electrical signal obtained by continuously photoelectrically converting a subject image received through an imaging lens into image data and outputs the image data;
Calculating an evaluation value indicating the facial expression of each subject based on the first image data output by the imaging unit;
Determining a shooting scene based on the calculated evaluation value of each subject;
Calculating an evaluation value indicating the facial expression of each subject based on second image data output after the first image data output by the imaging unit;
Setting a scene determination threshold value corresponding to the determined shooting scene;
Depending on whether or not the calculated evaluation value of each subject exceeds a scene decision threshold set by the threshold setting unit, whether or not each subject is a confirmed subject in a state suitable for the shooting scene. Determining whether the subject is an indeterminate subject that is not suitable;
An imaging method for executing.
請求項8に記載の撮像方法を撮像装置に実行させるための撮像プログラム。   An imaging program for causing an imaging apparatus to execute the imaging method according to claim 8.
JP2008250792A 2008-09-29 2008-09-29 Imaging device, method, and program Pending JP2010081562A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008250792A JP2010081562A (en) 2008-09-29 2008-09-29 Imaging device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008250792A JP2010081562A (en) 2008-09-29 2008-09-29 Imaging device, method, and program

Publications (1)

Publication Number Publication Date
JP2010081562A true JP2010081562A (en) 2010-04-08

Family

ID=42211431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008250792A Pending JP2010081562A (en) 2008-09-29 2008-09-29 Imaging device, method, and program

Country Status (1)

Country Link
JP (1) JP2010081562A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010187110A (en) * 2009-02-10 2010-08-26 Nikon Corp Electronic still camera
KR20180133897A (en) * 2016-11-29 2018-12-17 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Method, apparatus, program and recording medium
JP2021108030A (en) * 2019-12-27 2021-07-29 グリー株式会社 Computer program, server device and method
JP7461692B2 (en) 2020-05-11 2024-04-04 Fcnt合同会社 Mobile terminal, information processing method, and information processing program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010187110A (en) * 2009-02-10 2010-08-26 Nikon Corp Electronic still camera
KR20180133897A (en) * 2016-11-29 2018-12-17 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Method, apparatus, program and recording medium
JP2019504514A (en) * 2016-11-29 2019-02-14 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co.,Ltd. Photo composition method, apparatus, program, and recording medium
KR102116826B1 (en) * 2016-11-29 2020-06-01 베이징 시아오미 모바일 소프트웨어 컴퍼니 리미티드 Photo synthesis methods, devices, programs and media
JP2021108030A (en) * 2019-12-27 2021-07-29 グリー株式会社 Computer program, server device and method
JP7080212B2 (en) 2019-12-27 2022-06-03 グリー株式会社 Computer programs, server devices and methods
JP7461692B2 (en) 2020-05-11 2024-04-04 Fcnt合同会社 Mobile terminal, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
US7483061B2 (en) Image and audio capture with mode selection
JP5056061B2 (en) Imaging device
JP5019939B2 (en) Imaging apparatus and imaging method
JP4976160B2 (en) Imaging device
KR101795601B1 (en) Apparatus and method for processing image, and computer-readable storage medium
JP4574459B2 (en) Image capturing apparatus, control method therefor, program, and storage medium
US9251765B2 (en) Image processing device, image processing method, and program for generating composite image
JP2010062853A (en) Image processing apparatus, method and program
JP2007282119A (en) Electronic camera and image processing apparatus
JP2007280291A (en) Electronic camera
JP2005128156A (en) Focusing device and method
JP2009060195A (en) Imaging apparatus, method, and program
JP2007282118A (en) Electronic camera and image processing apparatus
JP2008252711A (en) Digital camera
JP2007281647A (en) Electronic camera and image processing apparatus
JP2010087599A (en) Imaging apparatus and method, and program
JP2010081562A (en) Imaging device, method, and program
JP2010081528A (en) Image processing apparatus, method and program
CN111953909B (en) Image processing apparatus, image processing method, and storage medium
JP5104595B2 (en) Imaging device
JP2007259004A (en) Digital camera, image processor, and image processing program
JP2007208355A (en) Photographing device, method, and program
JP6213470B2 (en) Image processing apparatus, imaging apparatus, and program
JP5157528B2 (en) Imaging device
JP2008048152A (en) Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program