JP2017092544A - Output control device, output control method and program - Google Patents

Output control device, output control method and program Download PDF

Info

Publication number
JP2017092544A
JP2017092544A JP2015216252A JP2015216252A JP2017092544A JP 2017092544 A JP2017092544 A JP 2017092544A JP 2015216252 A JP2015216252 A JP 2015216252A JP 2015216252 A JP2015216252 A JP 2015216252A JP 2017092544 A JP2017092544 A JP 2017092544A
Authority
JP
Japan
Prior art keywords
human face
image
unit
image quality
output control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015216252A
Other languages
Japanese (ja)
Other versions
JP6606981B2 (en
Inventor
博康 北川
Hiroyasu Kitagawa
博康 北川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015216252A priority Critical patent/JP6606981B2/en
Publication of JP2017092544A publication Critical patent/JP2017092544A/en
Application granted granted Critical
Publication of JP6606981B2 publication Critical patent/JP6606981B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To more stably perform image quality adjustment with a face of a person in an image to be outputted defined as a reference.SOLUTION: An imaging apparatus 100 comprises: a face detection part 4b for detecting faces of persons from frame images that are successively captured by an imaging part 3; a first image quality adjustment part 4c for automatically adjusting the image quality of a frame image with a detected face of a person defined as a reference; a display control part 6a for outputting an image of which the image quality has been adjusted; and a first discrimination part 4d by which, if a detection state of a face of a person is changed from a state where the face of the person is being detected to a state where the face of the person is not being detected, it is discriminated whether a content of the image quality adjustment with the face of the person defined as a reference should be maintained.SELECTED DRAWING: Figure 1

Description

本発明は、出力制御装置、出力制御方法及びプログラムに関する。   The present invention relates to an output control device, an output control method, and a program.

ヒトを撮影する場合、ヒトの顔を基準として画質を調整することが望ましいと考えられる。そこで、顔検出の結果を利用して、露出やホワイトバランスを自動的に調整することが行われている。また、オートホワイトバランスにて、顔検出機能を用いてホワイトバランスの誤補正を防止する技術も知られている(例えば、特許文献1参照)。   When photographing a human, it may be desirable to adjust the image quality based on the human face. Therefore, exposure and white balance are automatically adjusted using the result of face detection. In addition, a technique for preventing erroneous white balance correction using a face detection function in auto white balance is also known (see, for example, Patent Document 1).

特開2011−139481号公報JP 2011-139481 A

しかしながら、上記特許文献1等の場合、撮影中にヒトが横を向いて顔を検出することができなくなると、ホワイトバランスの調整内容が変わり、またヒトが正面に向き直して顔を検出することができるようになると、ホワイトバランスの調整内容が再度変わってしまい、ライブビュー画像の表示が安定しないという問題がある。また、このような問題は、オートホワイトバランスに限られず、自動露出調整などでも発生する虞がある。   However, in the case of the above-mentioned patent document 1 or the like, if a human can no longer detect a face while taking a picture, the white balance adjustment contents change, and the human faces back to detect the face. When it becomes possible, the white balance adjustment content changes again, and there is a problem that the display of the live view image is not stable. Such a problem is not limited to auto white balance, and may occur even in automatic exposure adjustment.

本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、出力される画像のヒトの顔を基準とした画質調整をより安定して行うことができる出力制御装置、出力制御方法及びプログラムを提供することである。   The present invention has been made in view of such problems, and an object of the present invention is to provide an output control device capable of performing image quality adjustment based on a human face of an output image more stably, An output control method and program are provided.

上記課題を解決するための本発明の一態様は、出力制御装置であって、
撮像手段により逐次撮像される撮像画像からヒトの顔を検出する検出手段と、
前記検出手段により検出されたヒトの顔を基準として、前記撮像画像の画質を自動的に調整する調整手段と、
前記調整手段により画質が調整された画像を出力させる制御手段と、
前記検出手段によるヒトの顔の検出状態が当該ヒトの顔を検出していた状態から検出していない状態に変化した場合に、前記調整手段による前記ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定する判定手段と、
を備えたことを特徴としている。
One aspect of the present invention for solving the above problems is an output control device,
Detecting means for detecting a human face from captured images sequentially imaged by the imaging means;
An adjustment unit that automatically adjusts the image quality of the captured image based on the human face detected by the detection unit;
Control means for outputting an image whose image quality has been adjusted by the adjusting means;
When the detection state of the human face by the detection unit changes from a state in which the human face is detected to a state in which the human face is not detected, the content of image quality adjustment based on the human face by the adjustment unit is Determining means for determining whether or not to maintain;
It is characterized by having.

本発明によれば、出力される画像のヒトの顔を基準とした画質調整をより安定して行うことができる。   According to the present invention, the image quality adjustment based on the human face of the output image can be performed more stably.

本発明を適用した実施形態1の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 1 to which this invention is applied. 図1の撮像装置によるライブビュー表示処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to a live view display process by the imaging apparatus of FIG. 1. 図2のライブビュー表示処理における非顔検出状態処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to a non-face detection state process in the live view display process of FIG. 2. ライブビュー表示処理に係るライブビュー画像を模式的に示す図である。It is a figure which shows typically the live view image which concerns on a live view display process. 本発明を適用した実施形態2の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of Embodiment 2 to which this invention is applied. 図5の撮像装置によるライブビュー表示処理に係る動作の一例を示すフローチャートである。6 is a flowchart illustrating an example of an operation related to a live view display process by the imaging apparatus of FIG. 5. 図6のライブビュー表示処理における非顔検出状態処理に係る動作の一例を示すフローチャートである。7 is a flowchart illustrating an example of an operation related to a non-face detection state process in the live view display process of FIG. 6.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

[実施形態1]
図1は、本発明を適用した実施形態1の撮像装置100の概略構成を示すブロック図である。
図1に示すように、実施形態1の撮像装置100は、具体的には、中央制御部1と、メモリ2と、撮像部3と、信号処理部4と、画像処理部5と、表示部6と、画像記録部7と、操作入力部8とを備えている。
また、中央制御部1、メモリ2、撮像部3、信号処理部4、画像処理部5、画像記録部7及び表示部6は、バスライン9を介して接続されている。
[Embodiment 1]
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to the first embodiment to which the present invention is applied.
As illustrated in FIG. 1, the imaging apparatus 100 according to the first embodiment specifically includes a central control unit 1, a memory 2, an imaging unit 3, a signal processing unit 4, an image processing unit 5, and a display unit. 6, an image recording unit 7, and an operation input unit 8.
The central control unit 1, the memory 2, the imaging unit 3, the signal processing unit 4, the image processing unit 5, the image recording unit 7, and the display unit 6 are connected via a bus line 9.

中央制御部1は、撮像装置100の各部を制御するものである。具体的には、中央制御部1は、図示は省略するが、CPU(Central Processing Unit)等を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 1 controls each unit of the imaging device 100. Specifically, although not shown, the central control unit 1 includes a CPU (Central Processing Unit) and the like, and performs various control operations according to various processing programs (not shown) for the imaging apparatus 100.

メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部1や信号処理部4等によって処理されるデータ等を一時的に格納する。   The memory 2 is composed of, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data or the like processed by the central control unit 1 or the signal processing unit 4.

撮像部(撮像手段)3は、所定の被写体(例えば、ヒト等)を撮像してフレーム画像I(図4(a)等参照)を生成する。具体的には、撮像部3は、レンズ部3aと、電子撮像部3bと、撮像制御部3cとを備えている。   The imaging unit (imaging means) 3 captures a predetermined subject (for example, a human) and generates a frame image I (see FIG. 4A). Specifically, the imaging unit 3 includes a lens unit 3a, an electronic imaging unit 3b, and an imaging control unit 3c.

レンズ部3aは、例えば、ズームレンズやフォーカスレンズ等の複数のレンズ、レンズを通過する光の量を調整する絞り等から構成されている。
電子撮像部3bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサ(撮像素子)から構成されている。そして、電子撮像部3bは、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
The lens unit 3a includes, for example, a plurality of lenses such as a zoom lens and a focus lens, and a diaphragm for adjusting the amount of light passing through the lens.
The electronic imaging unit 3b is configured by an image sensor (imaging device) such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), for example. Then, the electronic imaging unit 3b converts the optical image that has passed through the various lenses of the lens unit 3a into a two-dimensional image signal.

撮像制御部3cは、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3cは、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、レンズ部3aを通過した光学像を電子撮像部3bにより所定周期毎に二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像Iを読み出して信号処理部4に出力させる。   Although not shown, the imaging control unit 3c includes a timing generator, a driver, and the like. Then, the imaging control unit 3c scans and drives the electronic imaging unit 3b with a timing generator and a driver, and the optical imaging unit 3b converts the optical image that has passed through the lens unit 3a into a two-dimensional image signal for each predetermined period. Then, the frame image I is read for each screen from the imaging area of the electronic imaging unit 3b and is output to the signal processing unit 4.

信号処理部4は、電子撮像部3bから転送されたフレーム画像Iのアナログ値の信号に対して各種の画像信号処理を施す。具体的には、信号処理部4は、例えば、フレーム画像Iのアナログ値の信号に対してRGBの色成分毎にゲイン調整し、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行って、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。また、信号処理部4は、生成された輝度信号Y及び色差信号Cb,Crをバッファメモリとして使用されるメモリ2に出力する。   The signal processing unit 4 performs various image signal processes on the analog value signal of the frame image I transferred from the electronic imaging unit 3b. Specifically, for example, the signal processing unit 4 adjusts the gain for each RGB color component with respect to the analog value signal of the frame image I, performs sample holding by a sample hold circuit (not shown), and performs A / D conversion. The digital data is converted by a device (not shown), and color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown) to obtain a luminance signal Y and color difference signals Cb, Cr (YUV) of digital values. Data). The signal processing unit 4 outputs the generated luminance signal Y and color difference signals Cb and Cr to the memory 2 used as a buffer memory.

また、信号処理部4は、画像取得部4aと、顔検出部4bと、第1画質調整部4cと、第1判定部4dとを具備している。
なお、信号処理部4の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The signal processing unit 4 includes an image acquisition unit 4a, a face detection unit 4b, a first image quality adjustment unit 4c, and a first determination unit 4d.
Note that each unit of the signal processing unit 4 is configured by, for example, a predetermined logic circuit, but the configuration is an example and is not limited thereto.

画像取得部4aは、撮像部3により逐次撮像されるフレーム画像(撮像画像)Iを取得する。具体的には、画像取得部4aは、撮像部3による被写体の撮影の際に、電子撮像部3bから逐次転送されたライブビュー画像に係るフレーム画像Iを逐次取得する。
図4(a)のフレーム画像Ia、図4(b)のフレーム画像Ib、図4(c)のフレーム画像Icは各々後述するように、フレーム画像Iの例を示している。
The image acquisition unit 4 a acquires frame images (captured images) I that are sequentially captured by the imaging unit 3. Specifically, the image acquisition unit 4a sequentially acquires frame images I related to live view images sequentially transferred from the electronic imaging unit 3b when the imaging unit 3 captures a subject.
The frame image Ia in FIG. 4A, the frame image Ib in FIG. 4B, and the frame image Ic in FIG. 4C each show an example of the frame image I as described later.

顔検出部(検出手段)4bは、フレーム画像Iからヒトの顔を検出する。
すなわち、顔検出部4bは、例えば、画像取得部4aにより逐次取得された複数のフレーム画像I(Ia〜Ic)の各々に対して所定の顔検出処理を行って被写体であるヒトの顔が含まれる顔領域を検出する。なお、図4(a)は、表示パネル6bに、被写体であるヒトの顔が検出された場合のフレーム画像Iaがライブビュー画像として表示された状態を示し、検出されたヒトの顔が含まれる顔領域に破線で表された矩形枠Wを模式的に重畳させている。
また、顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The face detection unit (detection means) 4b detects a human face from the frame image I.
That is, for example, the face detection unit 4b performs a predetermined face detection process on each of the plurality of frame images I (Ia to Ic) sequentially acquired by the image acquisition unit 4a to include a human face as a subject. To detect the face area. FIG. 4A shows a state in which the frame image Ia is displayed as a live view image when a human face as a subject is detected on the display panel 6b, and includes the detected human face. A rectangular frame W represented by a broken line is schematically superimposed on the face area.
Further, since the face detection process is a known technique, detailed description thereof is omitted here.

第1画質調整部(調整手段)4cは、フレーム画像Iの画質を自動的に調整する。
すなわち、第1画質調整部4cは、画像取得部4aにより逐次取得されたライブビュー画像に係る複数のフレーム画像I(Ia〜Ic)のホワイトバランスや明るさ等を自動的に調整する。具体的には、例えば、撮像の際に、ホワイトバランスを自動的に調整するオートホワイトバランス(AWB)モードが設定されている状態で、第1画質調整部4cは、顔検出部4bにより検出されたヒトの顔やヒトの顔以外のその他の条件等を基準として、フレーム画像Iのホワイトバランスを自動的に調整する。また、例えば、撮影の際に、露出条件を自動的に調整するオート露出(AE)モードが設定されている状態で、第1画質調整部4cは、顔検出部4bにより検出されたヒトの顔やヒトの顔以外のその他の条件等を基準として、フレーム画像Iの明るさを自動的に調整する。
The first image quality adjustment unit (adjustment unit) 4c automatically adjusts the image quality of the frame image I.
That is, the first image quality adjustment unit 4c automatically adjusts the white balance, brightness, and the like of the plurality of frame images I (Ia to Ic) related to the live view image sequentially acquired by the image acquisition unit 4a. Specifically, for example, the first image quality adjustment unit 4c is detected by the face detection unit 4b in an auto white balance (AWB) mode in which white balance is automatically adjusted during imaging. The white balance of the frame image I is automatically adjusted based on the human face and other conditions other than the human face. In addition, for example, the first image quality adjustment unit 4c detects the human face detected by the face detection unit 4b in a state in which an auto exposure (AE) mode for automatically adjusting the exposure condition is set at the time of shooting. The brightness of the frame image I is automatically adjusted based on other conditions other than the human face.

ヒトの顔を基準とするホワイトバランス調整では、第1画質調整部4cは、先ず、画像取得部4aにより逐次取得された複数のフレーム画像I(Ia〜Ic)の各々について、画像データに基づいて光源(例えば、室内:白色灯等)を推定し、顔検出部4bにより検出された顔領域内の推定された光源下で肌色に該当する画素を特定する。次に、第1画質調整部4cは、特定された肌色に該当する画素の画素値(例えば、RGB値等)を基準としてRGBの各色成分毎のゲイン量を算出し、算出されたRGBの各色成分毎のゲイン量に基づいて、画像データを増幅することでフレーム画像Iのホワイトバランスを調整する。
また、ヒトの顔以外のその他の条件としては、例えば、フレーム画像I全体から特定される所定の光源下でグレーに該当する画素の画素値が挙げられる。
このホワイトバランス調整では、第1画質調整部4cは、先ず、画像取得部4aにより逐次取得された複数のフレーム画像I(Ia〜Ic)の各々について、画像データに基づいて光源(例えば、室内:白色灯等)を推定し、当該フレーム画像I内の推定された光源下でグレーに該当する画素を特定する。次に、第1画質調整部4cは、特定されたグレーに該当する画素の画素値(例えば、RGB値等)を基準としてRGBの各色成分毎のゲイン量を算出し、算出されたRGBの各色成分毎のゲイン量に基づいて、画像データを増幅することでフレーム画像Iのホワイトバランスを調整する。
In the white balance adjustment using the human face as a reference, the first image quality adjustment unit 4c first, for each of the plurality of frame images I (Ia to Ic) sequentially acquired by the image acquisition unit 4a, based on the image data. A light source (for example, a room: a white light) is estimated, and a pixel corresponding to the skin color is specified under the estimated light source in the face area detected by the face detection unit 4b. Next, the first image quality adjustment unit 4c calculates a gain amount for each color component of RGB with reference to a pixel value (for example, RGB value) of a pixel corresponding to the specified skin color, and calculates each color of RGB The white balance of the frame image I is adjusted by amplifying the image data based on the gain amount for each component.
Moreover, as other conditions other than the human face, for example, the pixel value of a pixel corresponding to gray under a predetermined light source specified from the entire frame image I can be cited.
In this white balance adjustment, the first image quality adjustment unit 4c firstly uses a light source (for example, indoor: for each of the plurality of frame images I (Ia to Ic) sequentially acquired by the image acquisition unit 4a) based on the image data. White pixels, etc.) are estimated, and pixels corresponding to gray are identified under the estimated light source in the frame image I. Next, the first image quality adjustment unit 4c calculates a gain amount for each color component of RGB with reference to the pixel value (for example, RGB value) of the pixel corresponding to the specified gray, and calculates each color of RGB The white balance of the frame image I is adjusted by amplifying the image data based on the gain amount for each component.

なお、上記した光源を推定する処理は、公知の技術であるので、詳細な説明は省略するが、例えば、フレーム画像IのHSV色空間に対応する画像データを利用して、当該フレーム画像Iの色相及びグレー成分の色相位置から光源を推定するようにしても良い。また、顔領域内の肌色の画素を特定する際には、例えば、顔領域内で当該顔領域の大きさ以下の大きさの領域を検出領域として指定しても良い。   The above-described process for estimating the light source is a known technique and will not be described in detail. For example, using the image data corresponding to the HSV color space of the frame image I, the frame image I The light source may be estimated from the hue and the hue position of the gray component. Further, when specifying a skin color pixel in the face area, for example, an area having a size equal to or smaller than the size of the face area in the face area may be designated as the detection area.

ヒトの顔を基準とする明るさ調整では、第1画質調整部4cは、先ず、画像取得部4aにより逐次取得された複数のフレーム画像I(Ia〜Ic)の各々について、画像データに基づいて、顔検出部4bにより検出された顔領域内の輝度の分布(輝度ヒストグラム)を特定する。次に、第1画質調整部4cは、特定された顔領域内の輝度の分布を基準として所定のプログラム線図に基づいて、顔領域が所定の明るさとなるように輝度信号Yの信号増幅率(ISO感度)を調整し、輝度信号Yを増幅することでフレーム画像Iの明るさを調整する。
また、ヒトの顔以外のその他の条件としては、例えば、フレーム画像I(Ia〜Ic)全体や所定の測光領域(例えば、中央領域等)の輝度の分布が挙げられる。この明るさ調整では、第1画質調整部4cは、先ず、画像取得部4aにより逐次取得された複数のフレーム画像I(Ia〜Ic)各々の画像データに基づいて、当該フレーム画像I全体や所定の測光領域の輝度の分布を特定する。次に、第1画質調整部4cは、特定された輝度の分布を基準として所定のプログラム線図に基づいて、フレーム画像I全体や所定の測光領域が所定の明るさとなるように輝度信号Yの信号増幅率を調整し、輝度信号Yを増幅することでフレーム画像Iの明るさを調整する。
In the brightness adjustment based on the human face, the first image quality adjustment unit 4c first determines, based on the image data, each of the plurality of frame images I (Ia to Ic) sequentially acquired by the image acquisition unit 4a. The luminance distribution (luminance histogram) in the face area detected by the face detection unit 4b is specified. Next, the first image quality adjustment unit 4c uses the signal distribution of the luminance signal Y so that the face area has a predetermined brightness based on a predetermined program diagram with reference to the luminance distribution in the specified face area. The brightness of the frame image I is adjusted by adjusting (ISO sensitivity) and amplifying the luminance signal Y.
Further, as other conditions other than the human face, for example, the luminance distribution of the entire frame image I (Ia to Ic) or a predetermined photometric area (for example, the central area) may be mentioned. In this brightness adjustment, the first image quality adjustment unit 4c, first, based on the image data of each of the plurality of frame images I (Ia to Ic) sequentially acquired by the image acquisition unit 4a, The luminance distribution of the photometric area is specified. Next, the first image quality adjustment unit 4c determines the luminance signal Y so that the entire frame image I and the predetermined photometric area have a predetermined brightness based on a predetermined program diagram based on the specified luminance distribution. The brightness of the frame image I is adjusted by adjusting the signal amplification factor and amplifying the luminance signal Y.

なお、第1画質調整部4cは、例えば、電子撮像部1bのシャッター速度や絞り値を調整して、フレーム画像Iの明るさを調整しても良い。また、顔領域の輝度の分布を特定する際には、例えば、顔領域内で当該顔領域の大きさ以下の大きさの領域を検出領域として指定しても良い。   Note that the first image quality adjustment unit 4c may adjust the brightness of the frame image I by adjusting the shutter speed and aperture value of the electronic imaging unit 1b, for example. Further, when specifying the luminance distribution of the face area, for example, an area having a size equal to or smaller than the size of the face area in the face area may be designated as the detection area.

第1判定部(判定手段)4dは、第1画質調整部4cによるヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定する。
すなわち、第1判定部4dは、顔検出部4bによるヒトの顔の検出状態が当該ヒトの顔を検出していた顔検出状態から検出していない非顔検出状態に変化した場合に、ヒトの顔を基準とする画質調整(例えば、ホワイトバランスや明るさの調整)の内容を維持すべきであるか否かを判定する。
ここで、ヒトの顔を基準とする画質調整の内容を維持するとは、ヒトの顔が検出されていない非顔検出状態のフレーム画像I(例えば、フレーム画像Ib等)に対しても、以前にヒトの顔が検出されたフレーム画像(例えば、直前のフレーム画像Ia等)に対して行われた当該ヒトの顔を基準とする画質調整と同様の内容の画質調整を行うことを言う。つまり、非顔検出状態であっても、以前に検出されたヒトの顔を利用してフレーム画像Iのホワイトバランスや明るさ等の画質の調整が行われることとなる。
The first determination unit (determination unit) 4d determines whether or not the content of the image quality adjustment based on the human face by the first image quality adjustment unit 4c should be maintained.
That is, when the detection state of the human face by the face detection unit 4b changes from the face detection state in which the human face is detected to the non-detection state in which the first detection unit 4d is not detecting the human face, It is determined whether or not the content of image quality adjustment (for example, white balance and brightness adjustment) based on the face should be maintained.
Here, maintaining the content of the image quality adjustment based on the human face means that the frame image I in a non-face detection state where the human face is not detected (for example, the frame image Ib etc.) The image quality adjustment of the same content as the image quality adjustment based on the human face performed on the frame image (for example, the immediately preceding frame image Ia) in which the human face is detected is performed. That is, even in the non-face detection state, image quality adjustment such as white balance and brightness of the frame image I is performed using a previously detected human face.

具体的には、第1判定部4dは、顔検出部4bによるヒトの顔の検出状態が変化した前後で撮像部3によりそれぞれ撮像されて画像取得部4aにより取得された複数のフレーム画像I(Ia〜Ic)から判断される撮像環境の変化状況に基づいて、第1画質調整部4cによるヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定する。
ここで、撮像環境の変化状況は、例えば、第1画質調整部4cによりヒトの顔以外のその他の条件を基準としてフレーム画像Iの画質の調整が行われる際に複数のフレーム画像I(Ia〜Ic)から測定される画像特徴情報の変化に基づいて判断される。
Specifically, the first determination unit 4d captures a plurality of frame images I () captured by the image capturing unit 3 and acquired by the image acquiring unit 4a before and after the detection state of the human face by the face detecting unit 4b is changed. It is determined whether or not the content of the image quality adjustment based on the human face by the first image quality adjustment unit 4c should be maintained based on the change state of the imaging environment determined from Ia to Ic).
Here, the change of the imaging environment is, for example, when the image quality of the frame image I is adjusted by the first image quality adjustment unit 4c on the basis of other conditions other than the human face. Judgment is made based on a change in the image feature information measured from Ic).

例えば、ホワイトバランス調整では、第1判定部4dは、第1画質調整部4cによりヒトの顔の検出状態が変化した前後のフレーム画像(例えば、フレーム画像Ia、Ib等)から測定される所定の光源下で所定の色に該当する画素数(画像特徴情報)の変化量を利用する。すなわち、第1画質調整部4cは、例えば、ヒトの顔の検出状態が変化した前後のフレーム画像Iの各々について、複数の光源(例えば、太陽光、室内:白色灯、室内:蛍光灯等)下でグレーに該当する画素を特定して画素数をそれぞれ算出する。このグレーに該当する画素の特定は、例えば、光源を推定する処理にて行われても良い。
そして、第1判定部4dは、複数の光源の各々について、ヒトの顔の検出状態が変化した前後でのグレーに該当する画素の画素数の変化量を算出し、算出された画素数の変化量(絶対値)を合計し、合計値が所定の閾値未満であるか否かを判定する。
ここで、合計値が所定の閾値未満であると判定されると、撮像環境が変化していないと考えられる(図4(b)参照)。例えば、図4(a)及び図4(b)に示すように、以前に顔が検出されていた被写体であるヒトが横を向いたことで、顔を検出することができなかった場合には、単に被写体の顔を検出できなくなっただけで撮像環境自体は変化していない。この場合、第1判定部4dは、ヒトの顔が検出されていない非顔検出状態のフレーム画像Ibに対しても、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであると判定する。そして、第1画質調整部4cは、ヒトの顔が検出されていない非顔検出状態のフレーム画像Ibに対して、以前に検出されたヒトの顔が含まれる顔領域を基準として、フレーム画像Ibのホワイトバランスを自動的に調整する。
一方、合計値が所定の閾値未満でないと判定されると、撮像環境が変化したと考えられる。(図4(c)参照)。例えば、図4(a)及び図4(c)に示すように、ユーザが撮像装置100を向かって右側にふったことで構図が大きく変わってしまい、被写体であるヒトの顔を検出することができなかった場合には、画角内に被写体であるヒトの顔が存在せず、撮像環境が変化する。この場合、第1判定部4dは、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきでないと判定する。そして、第1画質調整部4cは、ヒトの顔が検出されていない非顔検出状態のフレーム画像Icに対しては、ヒトの顔以外のその他の条件等を基準として、フレーム画像Icのホワイトバランスを自動的に調整する。
なお、判定に用いられる所定の閾値は、被写体であるヒトが向きを変える等して顔を検出できないだけなのか、或いは撮像環境が変化したのかを判別するための値であって、ヒトの顔の検出精度の違いなどにより一意に設定できる値ではなく、経験的に求められるものであり、例えば、撮影シーン毎に設定された所定の値を使用しても良いが、撮影シーンを問わずに一律の値を使用しても良い。
For example, in the white balance adjustment, the first determination unit 4d is a predetermined measurement measured from frame images (for example, frame images Ia, Ib, etc.) before and after the human face detection state is changed by the first image quality adjustment unit 4c. A change amount of the number of pixels (image feature information) corresponding to a predetermined color under a light source is used. That is, the first image quality adjustment unit 4c, for example, has a plurality of light sources (for example, sunlight, indoor: white light, indoor: fluorescent light) for each of the frame images I before and after the human face detection state has changed. Below, the number of pixels is calculated by identifying the pixels corresponding to gray. The specification of the pixel corresponding to gray may be performed by, for example, a process of estimating a light source.
And the 1st determination part 4d calculates the variation | change_quantity of the pixel count of the pixel applicable to gray before and after the detection state of a human face changed about each of several light sources, and the change of the calculated pixel count The amounts (absolute values) are summed, and it is determined whether or not the sum is less than a predetermined threshold.
Here, if it is determined that the total value is less than the predetermined threshold, it is considered that the imaging environment has not changed (see FIG. 4B). For example, as shown in FIGS. 4 (a) and 4 (b), when a human face as a subject whose face was previously detected faces sideways, the face cannot be detected. The imaging environment itself does not change simply because the face of the subject cannot be detected. In this case, the first determination unit 4d should maintain the content of the white balance adjustment based on the human face even for the frame image Ib in the non-face detection state in which no human face is detected. judge. Then, the first image quality adjustment unit 4c uses the frame area Ib based on the face area including the previously detected human face with respect to the frame image Ib in the non-face detection state in which no human face is detected. Automatically adjusts the white balance.
On the other hand, if it is determined that the total value is not less than the predetermined threshold, it is considered that the imaging environment has changed. (See FIG. 4 (c)). For example, as shown in FIG. 4A and FIG. 4C, the composition changes greatly when the user touches the imaging apparatus 100 to the right and the human face as the subject is detected. If not, the human face that is the subject does not exist within the angle of view, and the imaging environment changes. In this case, the first determination unit 4d determines that the content of the white balance adjustment based on the human face should not be maintained. Then, the first image quality adjustment unit 4c applies the white balance of the frame image Ic to the frame image Ic in a non-face detection state in which no human face is detected based on other conditions other than the human face. Adjust automatically.
Note that the predetermined threshold value used for the determination is a value for determining whether the human being who is the subject cannot simply detect the face by changing the direction or the imaging environment has changed. It is not a value that can be set uniquely due to differences in detection accuracy, but is determined empirically.For example, a predetermined value set for each shooting scene may be used. A uniform value may be used.

また、例えば、明るさ調整では、第1判定部4dは、第1画質調整部4cによりヒトの顔の検出状態が変化した前後のフレーム画像(例えば、フレーム画像Ia、Ib等)から測定される輝度の分布(画像特徴情報)の変化量を利用する。すなわち、第1画質調整部4cは、例えば、ヒトの顔の検出状態が変化した前後のフレーム画像Iの各々について、フレーム画像I全体の輝度の分布を特定し、輝度の代表値(例えば、平均値等)を算出する。
そして、第1判定部4dは、ヒトの顔の検出状態が変化した前後での輝度の代表値の変化量を算出し、算出された変化量が所定の閾値未満であるか否かを判定する。
ここで、変化量が所定の閾値未満であると判定されると、撮像環境が変化していないと考えられ(図4(a)及び図4(b)参照)、第1判定部4dは、ヒトの顔が検出されていない非顔検出状態のフレーム画像Ibに対しても、ヒトの顔を基準とする明るさ調整の内容を維持すべきであると判定する。そして、第1画質調整部4cは、ヒトの顔が検出されていない非顔検出状態のフレーム画像Ibに対して、以前に検出されたヒトの顔が含まれる顔領域を基準として、フレーム画像Ibの明るさを自動的に調整する。
一方、変化量が所定の閾値未満でないと判定されると、撮像環境が変化したと考えられ(図4(a)及び図4(c)参照)、第1判定部4dは、ヒトの顔を基準とする明るさ調整の内容を維持すべきでないと判定する。そして、第1画質調整部4cは、ヒトの顔が検出されていない非顔検出状態のフレーム画像Icに対しては、ヒトの顔以外のその他の条件等を基準として、フレーム画像Icの明るさを自動的に調整する。
なお、判定に用いられる所定の閾値は、被写体であるヒトが向きを変える等して顔を検出できないだけなのか、或いは撮像環境が変化したかを判別するための値であって、日中の屋外と夜、といったようにフレーム画像I全体の光量のレベルが大きく異なるような場合には一意に設定できる値ではなく、経験的に求められるものであり、例えば、撮影シーン毎に設定された所定の値を使用しても良いが、撮影シーンを問わずに一律の値を使用しても良い。
For example, in the brightness adjustment, the first determination unit 4d is measured from the frame images before and after the human face detection state is changed by the first image quality adjustment unit 4c (for example, the frame images Ia and Ib). The amount of change in luminance distribution (image feature information) is used. That is, for example, the first image quality adjustment unit 4c specifies the luminance distribution of the entire frame image I for each of the frame images I before and after the detection state of the human face has changed, and represents a representative luminance value (for example, an average value) Value).
Then, the first determination unit 4d calculates a change amount of the representative value of luminance before and after the detection state of the human face changes, and determines whether or not the calculated change amount is less than a predetermined threshold value. .
Here, if it is determined that the amount of change is less than the predetermined threshold, it is considered that the imaging environment has not changed (see FIGS. 4A and 4B), and the first determination unit 4d It is determined that the content of the brightness adjustment based on the human face should be maintained for the frame image Ib in a non-face detection state in which no human face is detected. Then, the first image quality adjustment unit 4c uses the frame area Ib based on the face area including the previously detected human face with respect to the frame image Ib in the non-face detection state in which no human face is detected. Automatically adjust the brightness.
On the other hand, if it is determined that the amount of change is not less than the predetermined threshold, it is considered that the imaging environment has changed (see FIGS. 4A and 4C), and the first determination unit 4d detects the human face. It is determined that the content of the standard brightness adjustment should not be maintained. Then, the first image quality adjustment unit 4c determines the brightness of the frame image Ic with respect to a frame image Ic in a non-face detection state in which no human face is detected based on other conditions other than the human face. Adjust automatically.
Note that the predetermined threshold value used for the determination is a value for determining whether the human being who is the subject can not detect the face simply by changing his orientation, or whether the imaging environment has changed. When the light level of the entire frame image I is greatly different, such as outdoors and at night, it is not a value that can be set uniquely, but is determined empirically. For example, a predetermined value set for each shooting scene However, a uniform value may be used regardless of the shooting scene.

画像処理部5は、信号処理部4により生成された静止画像や動画像の画像データを所定の圧縮形式(例えば、JPEG形式、MPEG形式等)で符号化して静止画像や動画像の記録用の画像データを生成する。
また、画像処理部5は、メモリ2や画像記録部7から読み出された表示対象に係る静止画像や動画像の画像データを対応する所定の符号化方式に従って復号して表示部6に出力する。このとき、画像処理部5は、例えば、後述する表示パネル6bの表示解像度等に基づいて所定サイズ(例えば、VGAやフルHDサイズ)に変形して表示部6に出力しても良い。
The image processing unit 5 encodes still image or moving image image data generated by the signal processing unit 4 in a predetermined compression format (for example, JPEG format, MPEG format, etc.) and records still images and moving images. Generate image data.
Further, the image processing unit 5 decodes still image or moving image image data relating to the display target read from the memory 2 or the image recording unit 7 in accordance with a corresponding predetermined encoding method and outputs the decoded data to the display unit 6. . At this time, the image processing unit 5 may be transformed into a predetermined size (for example, VGA or full HD size) and output to the display unit 6 based on, for example, a display resolution of the display panel 6b described later.

表示部6は、表示制御部6aと、表示パネル6bとを具備している。   The display unit 6 includes a display control unit 6a and a display panel 6b.

表示制御部6aは、メモリ2や画像記録部7から読み出され画像処理部5により復号された所定サイズの画像データに基づいて、所定の画像を表示パネル6bの表示領域に表示させる制御を行う。具体的には、表示制御部6aは、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、画像処理部5により復号されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレートで読み出して、これらのデータを元にビデオ信号を発生して表示パネル6bに出力する。   The display control unit 6a performs control to display a predetermined image in the display area of the display panel 6b based on image data of a predetermined size read from the memory 2 or the image recording unit 7 and decoded by the image processing unit 5. . Specifically, the display control unit 6a includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. The digital video encoder reads out the luminance signal Y and the color difference signals Cb and Cr decoded by the image processing unit 5 and stored in the VRAM (not shown) from the VRAM through the VRAM controller at a predetermined reproduction frame rate. Based on these data, a video signal is generated and output to the display panel 6b.

表示パネル6bは、表示制御部6aからのビデオ信号に基づいて撮像部3により撮影された画像などを表示領域内に表示する。具体的には、表示パネル6bは、静止画の撮影モードや動画像の撮影モードにて、撮像部3による被写体の撮影により生成された複数のフレーム画像I(Ia〜Ic)を所定のフレームレートで逐次更新しながらライブビュー画像を表示する。このとき、表示制御部6aは、制御手段として、第1画質調整部4cからホワイトバランスや明るさ等の画質が調整されたフレーム画像I(Ia〜Ic)の画像データを取得し、ライブビュー画像として表示パネル6bに出力して当該表示パネル6bの表示領域内に表示させる(図4(a)〜(c)参照)。
なお、表示パネル6bとしては、例えば、液晶表示パネルや有機EL(Electro-Luminescence)表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。
The display panel 6b displays an image taken by the imaging unit 3 in the display area based on the video signal from the display control unit 6a. Specifically, the display panel 6b displays a plurality of frame images I (Ia to Ic) generated by photographing an object by the imaging unit 3 in a predetermined frame rate in a still image shooting mode or a moving image shooting mode. The live view image is displayed while updating sequentially. At this time, the display control unit 6a acquires the image data of the frame image I (Ia to Ic) in which the image quality such as white balance and brightness is adjusted from the first image quality adjustment unit 4c as a control unit, and the live view image Is output to the display panel 6b and displayed in the display area of the display panel 6b (see FIGS. 4A to 4C).
Examples of the display panel 6b include a liquid crystal display panel and an organic EL (Electro-Luminescence) display panel. However, the display panel 6b is an example and is not limited thereto.

画像記録部7は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、画像処理部5により所定の圧縮形式で符号化された静止画像や動画像の記録用の画像データを記録する。
なお、画像記録部7は、例えば、記録媒体(図示略)が着脱自在に構成され、装着された記録媒体からのデータの読み出しや記録媒体に対するデータの書き込みを制御する構成であっても良い。
The image recording unit 7 includes, for example, a non-volatile memory (flash memory) or the like, and records image data for recording still images and moving images encoded by the image processing unit 5 in a predetermined compression format.
Note that the image recording unit 7 may be configured such that, for example, a recording medium (not shown) is detachable, and data reading from the mounted recording medium and data writing to the recording medium are controlled.

操作入力部8は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部8は、被写体の撮影指示に係るシャッタボタン、撮影モードや機能等の選択指示に係る選択決定ボタン、ズーム量の調整指示に係るズームボタン等(何れも図示略)の操作部を備え、当該操作部の各ボタンの操作に応じて所定の操作信号を中央制御部1に出力する。   The operation input unit 8 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 8 includes a shutter button according to an instruction to shoot a subject, a selection determination button according to an instruction to select a shooting mode or a function, a zoom button according to an instruction to adjust a zoom amount, and the like (all not shown). And a predetermined operation signal is output to the central control unit 1 in accordance with the operation of each button of the operation unit.

<ライブビュー表示処理>
次に、撮像装置100によるライブビュー表示処理について、図2〜図4を参照して説明する。
図2は、ライブビュー表示処理に係る動作の一例を示すフローチャートである。図3は、ライブビュー表示処理における非顔検出状態処理に係る動作の一例を示すフローチャートである。また、図4(a)〜図4(c)は、表示パネル6bに表示されるライブビュー画像を模式的に示す図である。
<Live view display processing>
Next, live view display processing by the imaging apparatus 100 will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the live view display process. FIG. 3 is a flowchart illustrating an example of an operation related to the non-face detection state process in the live view display process. FIGS. 4A to 4C are diagrams schematically showing live view images displayed on the display panel 6b.

ライブビュー表示処理は、撮像部3による被写体の撮像の際に、中央制御部1の制御下にて当該撮像装置100の各部により実行される処理である。また、以下に説明するライブビュー表示処理では、ホワイトバランスを自動的に調整するオートホワイトバランス(AWB)モード及び露出条件を自動的に調整するオート露出(AE)モードが設定されている状態で行われるものとする。   The live view display process is a process executed by each unit of the imaging apparatus 100 under the control of the central control unit 1 when the subject is imaged by the imaging unit 3. In the live view display process described below, an auto white balance (AWB) mode for automatically adjusting white balance and an auto exposure (AE) mode for automatically adjusting exposure conditions are set. Shall be.

図2に示すように、撮像部3による被写体の撮像が開始されると(ステップS1)、信号処理部4の画像取得部4aは、撮像部3の電子撮像部3bから逐次転送されたライブビュー画像に係るフレーム画像I(Ia〜Ic)を逐次取得する(ステップS2)。
続けて、顔検出部4bは、画像取得部4aにより取得されたフレーム画像I(例えば、フレーム画像Ia等)に対して所定の顔検出処理を行い(ステップS3)、被写体であるヒトの顔が含まれる顔領域が検出されたか否かを判定する(ステップS4)。
As shown in FIG. 2, when the imaging of the subject by the imaging unit 3 is started (step S <b> 1), the image acquisition unit 4 a of the signal processing unit 4 performs the live view sequentially transferred from the electronic imaging unit 3 b of the imaging unit 3. The frame images I (Ia to Ic) relating to the images are sequentially acquired (step S2).
Subsequently, the face detection unit 4b performs a predetermined face detection process on the frame image I (for example, the frame image Ia) acquired by the image acquisition unit 4a (step S3), and the human face that is the subject is detected. It is determined whether or not the included face area is detected (step S4).

ステップS4にて、顔領域が検出されたと判定されると(ステップS4;YES)、第1画質調整部4cは、画像取得部4aにより取得されたフレーム画像Iのホワイトバランス調整及び明るさ調整の基準を検出されたヒトの顔が含まれる顔領域に設定する(ステップS5)。そして、第1画質調整部4cは、設定された基準に従って、フレーム画像Iのホワイトバランス及び明るさ(画質)の調整を行う(ステップS6)。
具体的には、ホワイトバランス調整では、第1画質調整部4cは、例えば、光源(例えば、室内:白色灯等)を推定し、顔領域内の推定された光源下で肌色に該当する画素を特定する。そして、第1画質調整部4cは、特定された肌色に該当する画素の画素値(例えば、RGB値等)を基準としてRGBの各色成分毎のゲイン量を算出し、画像データを増幅することでフレーム画像Iのホワイトバランスを調整する。また、明るさ調整では、第1画質調整部4cは、例えば、顔領域内の輝度の分布を特定した後、特定された顔領域内の輝度の分布を基準として輝度信号Yの信号増幅率を調整し、輝度信号Yを増幅することでフレーム画像Iの明るさを調整する。
If it is determined in step S4 that a face area has been detected (step S4; YES), the first image quality adjustment unit 4c performs white balance adjustment and brightness adjustment of the frame image I acquired by the image acquisition unit 4a. The reference is set to a face area including the detected human face (step S5). Then, the first image quality adjustment unit 4c adjusts the white balance and brightness (image quality) of the frame image I according to the set standard (step S6).
Specifically, in the white balance adjustment, the first image quality adjustment unit 4c estimates, for example, a light source (for example, a room: a white light), and selects pixels corresponding to the skin color under the estimated light source in the face area. Identify. Then, the first image quality adjustment unit 4c calculates the gain amount for each color component of RGB with reference to the pixel value (for example, RGB value) of the pixel corresponding to the specified skin color, and amplifies the image data. Adjust the white balance of the frame image I. In the brightness adjustment, the first image quality adjustment unit 4c, for example, specifies the luminance distribution in the face area, and then determines the signal amplification factor of the luminance signal Y with reference to the luminance distribution in the specified face area. The brightness of the frame image I is adjusted by adjusting and amplifying the luminance signal Y.

その後、表示制御部6aは、第1画質調整部4cから画質が調整されたフレーム画像I(例えば、フレーム画像Ia等)の画像データを取得し、ライブビュー画像として表示パネル6bの表示領域内に表示させる(ステップS7;図4(a)等参照)。
次に、中央制御部1のCPUは、当該ライブビュー表示処理の終了指示が入力されたか否かを判定する(ステップS8)。ここで、ライブビュー表示処理は、例えば、ユーザによる操作入力部8のシャッタボタンの所定操作に基づいて被写体の記録用の画像の撮影が指示されたり、電源をオフする操作が行われたり、再生モードに切り替える操作が行われたりすることで終了する。
Thereafter, the display control unit 6a acquires image data of the frame image I (for example, the frame image Ia) whose image quality has been adjusted from the first image quality adjustment unit 4c, and within the display area of the display panel 6b as a live view image. It is displayed (step S7; see FIG. 4A, etc.).
Next, the CPU of the central control unit 1 determines whether or not an instruction to end the live view display process has been input (step S8). Here, the live view display processing is, for example, instructed to take an image for recording an object based on a predetermined operation of the shutter button of the operation input unit 8 by the user, an operation of turning off the power, or playback. It ends when an operation to switch to the mode is performed.

ステップS8にて、ライブビュー表示処理の終了指示が入力されていないと判定されると(ステップS8;NO)、画像取得部4aは、撮像部3の電子撮像部3bから転送されたライブビュー画像に係る次のフレーム画像I(例えば、フレーム画像Ib等)を取得し(ステップS9)、処理をステップS3に戻す。
そして、上記と同様に、顔検出部4bは、画像取得部4aにより取得された次のフレーム画像Iに対して所定の顔検出処理を行い(ステップS3)、被写体であるヒトの顔が含まれる顔領域が検出されたか否かを判定する(ステップS4)。
When it is determined in step S8 that an instruction to end the live view display process has not been input (step S8; NO), the image acquisition unit 4a transfers the live view image transferred from the electronic imaging unit 3b of the imaging unit 3. Next frame image I (for example, frame image Ib etc.) concerning is acquired (step S9), and the process returns to step S3.
In the same manner as described above, the face detection unit 4b performs a predetermined face detection process on the next frame image I acquired by the image acquisition unit 4a (step S3), and the human face that is the subject is included. It is determined whether or not a face area has been detected (step S4).

一方、ステップS4にて、顔領域が検出されていないと判定されると(ステップS4;NO)、信号処理部4は、非顔検出状態処理(図3参照)を行う(ステップS10)。
以下に、非顔検出状態処理について、図3を参照して詳細に説明する。
On the other hand, if it is determined in step S4 that no face area has been detected (step S4; NO), the signal processing unit 4 performs non-face detection state processing (see FIG. 3) (step S10).
Hereinafter, the non-face detection state process will be described in detail with reference to FIG.

<非顔検出状態処理>
図3に示すように、第1画質調整部4cは、顔検出部4bによるヒトの顔の前回の検出状態が当該ヒトの顔を検出していた顔検出状態であったか否かを判定する(ステップS21)。
<Non-face detection state processing>
As shown in FIG. 3, the first image quality adjustment unit 4c determines whether or not the previous detection state of the human face by the face detection unit 4b is a face detection state in which the human face was detected (step). S21).

ステップS21にて、前回の検出状態が顔検出状態でないと判定されると(ステップS21;NO)、第1画質調整部4cは、フレーム画像Iのホワイトバランス調整及び明るさ調整の基準をヒトの顔以外のその他の条件に設定する(ステップS22)。
そして、図2に戻り、ステップS6にて、第1画質調整部4cは、設定された基準に従って、フレーム画像Iのホワイトバランス及び明るさ(画質)の調整を行う(ステップS6)。
具体的には、ホワイトバランス調整では、第1画質調整部4cは、例えば、光源(例えば、室内:白色灯等)を推定し、当該フレーム画像I内の推定された光源下でグレーに該当する画素を特定する。そして、第1画質調整部4cは、特定されたグレーに該当する画素の画素値(例えば、RGB値等)を基準としてRGBの各色成分毎のゲイン量を算出し、画像データを増幅することでフレーム画像Iのホワイトバランスを調整する。また、明るさ調整では、第1画質調整部4cは、例えば、フレーム画像I全体や所定の測光領域の輝度の分布を特定した後、特定された輝度の分布を基準として輝度信号Yの信号増幅率を調整し、輝度信号Yを増幅することでフレーム画像Iの明るさを調整する。
ステップS7以降の各処理は、上記と同様であり、詳細な説明は省略する。
If it is determined in step S21 that the previous detection state is not the face detection state (step S21; NO), the first image quality adjustment unit 4c uses the white balance adjustment and the brightness adjustment reference of the frame image I as human standards. Other conditions other than the face are set (step S22).
Returning to FIG. 2, in step S6, the first image quality adjustment unit 4c adjusts the white balance and brightness (image quality) of the frame image I according to the set reference (step S6).
Specifically, in the white balance adjustment, the first image quality adjustment unit 4c estimates, for example, a light source (for example, a room: a white light) and corresponds to gray under the estimated light source in the frame image I. Identify the pixel. Then, the first image quality adjustment unit 4c calculates the gain amount for each color component of RGB with reference to the pixel value (for example, RGB value) of the pixel corresponding to the specified gray, and amplifies the image data. Adjust the white balance of the frame image I. In the brightness adjustment, the first image quality adjustment unit 4c, for example, specifies the luminance distribution of the entire frame image I or a predetermined photometry area, and then amplifies the luminance signal Y with reference to the specified luminance distribution. The brightness of the frame image I is adjusted by adjusting the rate and amplifying the luminance signal Y.
Each process after step S7 is the same as described above, and a detailed description thereof will be omitted.

一方、ステップS21にて、前回の検出状態が顔検出状態であると判定されると(ステップS21;YES)、ヒトの顔の検出状態が当該ヒトの顔を検出していた顔検出状態から検出していない非顔検出状態に変化した場合であり、第1判定部4dは、第1画質調整部4cによるヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定する(ステップS23〜S30)。   On the other hand, if it is determined in step S21 that the previous detection state is the face detection state (step S21; YES), the human face detection state is detected from the face detection state in which the human face was detected. The first determination unit 4d determines whether or not the content of the image quality adjustment based on the human face by the first image quality adjustment unit 4c should be maintained. (Steps S23 to S30).

具体的には、先ず、第1画質調整部4cは、ヒトの顔の検出状態が変化した前後のフレーム画像(例えば、フレーム画像Ia、Ib等)の各々について、複数の光源下でグレーに該当する画素の画素数をそれぞれ算出する(ステップS23)。そして、第1判定部4dは、複数の光源の各々について、ヒトの顔の検出状態が変化した前後でのグレーに該当する画素の画素数の変化量(絶対値)の合計値が所定の閾値未満であるか否かを判定する(ステップS24)。
ここで、合計値が所定の閾値未満であると判定されると(ステップS24;YES)、第1画質調整部4cは、フレーム画像I(例えば、フレーム画像Ib等)のホワイトバランス調整の基準を前回のフレーム画像I(例えば、フレーム画像Ia等)から検出されたヒトの顔が含まれる顔領域に設定する(ステップS25;図4(b)等参照)。その一方で、合計値が所定の閾値未満でないと判定されると(ステップS24;NO)、第1画質調整部4cは、フレーム画像I(例えば、フレーム画像Ic等)のホワイトバランス調整の基準をヒトの顔以外のその他の条件に設定する(ステップS26;図4(c)等参照)。
Specifically, first, the first image quality adjustment unit 4c corresponds to gray under a plurality of light sources for each of the frame images before and after the human face detection state has changed (for example, the frame images Ia and Ib). The number of pixels to be calculated is calculated (step S23). Then, the first determination unit 4d determines, for each of the plurality of light sources, the total value of the amount of change (absolute value) of the number of pixels corresponding to gray before and after the detection state of the human face changes. It is determined whether it is less than (step S24).
Here, if it is determined that the total value is less than the predetermined threshold (step S24; YES), the first image quality adjustment unit 4c uses the white balance adjustment reference of the frame image I (for example, the frame image Ib) as a reference. A face area including a human face detected from the previous frame image I (for example, the frame image Ia) is set (step S25; see FIG. 4B, etc.). On the other hand, when it is determined that the total value is not less than the predetermined threshold value (step S24; NO), the first image quality adjustment unit 4c sets the reference for white balance adjustment of the frame image I (for example, the frame image Ic). Other conditions other than the human face are set (step S26; see FIG. 4C, etc.).

続けて、第1画質調整部4cは、ヒトの顔の検出状態が変化した前後のフレーム画像(例えば、フレーム画像Ia、Ib等)の各々について、フレーム画像I全体の輝度の分布を特定し、輝度の代表値を算出する(ステップS27)。そして、第1判定部4dは、ヒトの顔の検出状態が変化した前後での輝度の代表値の変化量が所定の閾値未満であるか否かを判定する(ステップS28)。
ここで、変化量が所定の閾値未満であると判定されると(ステップS28;YES)、第1画質調整部4cは、フレーム画像I(例えば、フレーム画像Ib等)の明るさ調整の基準を前回のフレーム画像I(例えば、フレーム画像Ia等)から検出されたヒトの顔が含まれる顔領域に設定する(ステップS29;図4(b)等参照)。その一方で、変化量が所定の閾値未満でないと判定されると(ステップS28;NO)、第1画質調整部4cは、フレーム画像I(例えば、フレーム画像Ic等)の明るさ調整の基準をヒトの顔以外のその他の条件に設定する(ステップS30;図4(b)等参照)。
Subsequently, the first image quality adjustment unit 4c specifies the luminance distribution of the entire frame image I for each of the frame images before and after the human face detection state has changed (for example, the frame images Ia and Ib). A representative value of luminance is calculated (step S27). Then, the first determination unit 4d determines whether or not the amount of change in the representative value of luminance before and after the change in the human face detection state is less than a predetermined threshold (step S28).
Here, if it is determined that the amount of change is less than the predetermined threshold (step S28; YES), the first image quality adjustment unit 4c uses the brightness adjustment reference of the frame image I (for example, the frame image Ib) as a reference. A face region including a human face detected from the previous frame image I (for example, the frame image Ia) is set (step S29; see FIG. 4B, etc.). On the other hand, if it is determined that the amount of change is not less than the predetermined threshold (step S28; NO), the first image quality adjustment unit 4c uses the brightness adjustment reference of the frame image I (for example, the frame image Ic) as a reference. Other conditions other than the human face are set (step S30; see FIG. 4B, etc.).

そして、図2に戻り、ステップS6にて、第1画質調整部4cは、設定された基準に従って、フレーム画像Iのホワイトバランス及び明るさ(画質)の調整を行う(ステップS6)。
すなわち、第1画質調整部4cは、前回検出されたヒトの顔を基準としてホワイトバランス調整及び明るさ調整を行ったり、前回検出されたヒトの顔を基準としてホワイトバランス調整を行うとともにヒトの顔以外のその他の条件を基準として明るさ調整を行ったり、ヒトの顔以外のその他の条件を基準としてホワイトバランス調整を行うとともに前回検出されたヒトの顔を基準として明るさ調整を行ったり、ヒトの顔以外のその他の条件を基準としてホワイトバランス調整及び明るさ調整を行ったりする。
ステップS7以降の各処理は、上記と同様であり、詳細な説明は省略する。
Returning to FIG. 2, in step S6, the first image quality adjustment unit 4c adjusts the white balance and brightness (image quality) of the frame image I according to the set reference (step S6).
That is, the first image quality adjustment unit 4c performs white balance adjustment and brightness adjustment based on the previously detected human face, or performs white balance adjustment based on the previously detected human face and The brightness is adjusted based on other conditions other than, the white balance is adjusted based on other conditions other than the human face, and the brightness is adjusted based on the previously detected human face. White balance adjustment and brightness adjustment based on other conditions other than the face.
Each process after step S7 is the same as described above, and a detailed description thereof will be omitted.

以上のように、実施形態1の撮像装置100によれば、ヒトの顔を基準として、フレーム画像Iのホワイトバランスや明るさ等の画質を自動的に調整する際に、ヒトの顔の検出状態が当該ヒトの顔を検出していた顔検出状態から検出していない非顔検出状態に変化した場合に、ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定するので、ヒトの顔を基準とする画質調整の内容を維持すべきであると判定された場合には、非顔検出状態であっても、以前に検出されたヒトの顔を利用してフレーム画像Iのホワイトバランスや明るさ等の画質の調整を行うことができる。これにより、例えば、単に被写体であるヒトが横を向いたりしてその顔を検出できなくなっただけで撮像環境自体は変化していない場合等に、ヒトの顔以外のその他の条件を基準としてホワイトバランスや明るさ等の画質の調整が行われてしまうことを抑制することができ、出力されるライブビュー画像のヒトの顔を基準とした画質調整をより安定して行うことができる。   As described above, according to the imaging apparatus 100 of the first embodiment, when automatically adjusting the image quality such as the white balance and brightness of the frame image I with the human face as a reference, the human face detection state Determines whether or not to maintain the image quality adjustment contents based on the human face when the face detection state changes from the face detection state that detected the human face to the non-detection state that does not detect the human face. Therefore, if it is determined that the content of the image quality adjustment based on the human face should be maintained, the frame using the previously detected human face is used even in the non-face detection state. Image quality such as white balance and brightness of the image I can be adjusted. As a result, for example, when the human being who is the subject simply faces sideways and the face cannot be detected and the imaging environment itself has not changed, white reference is made based on other conditions other than the human face. Adjustment of image quality such as balance and brightness can be suppressed, and image quality adjustment based on the human face of the output live view image can be more stably performed.

具体的には、ヒトの顔の検出状態が変化した前後でそれぞれ撮像された複数のフレーム画像(例えば、フレーム画像Ia、Ib等)から判断される撮像環境の変化状況に基づいて、ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定するので、非顔検出状態となった場合に、撮像環境の変化を考慮してフレーム画像Iの画質調整を行うことができる。つまり、単にヒトの顔の検出結果のみを利用してフレーム画像Iの画質調整を行うのではなく、撮像環境の変化を考慮することで、非顔検出状態であっても、以前に検出されたヒトの顔を利用してフレーム画像Iのホワイトバランスや明るさ等の画質の調整を行うことができる。
また、撮像環境の変化の判定に、ヒトの顔以外のその他の条件を基準としてフレーム画像Iの画質の調整が行われる際に複数のフレーム画像Iから測定される画像特徴情報(所定の光源下で所定の色に該当する画素数、輝度の分布等)の変化を利用することができ、ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かの判定を適正に行うことができる。
Specifically, based on the change state of the imaging environment determined from a plurality of frame images (for example, frame images Ia, Ib, etc.) captured before and after the detection state of the human face changes, the human face It is determined whether or not the content of the image quality adjustment based on the image should be maintained. Therefore, in the non-face detection state, the image quality adjustment of the frame image I can be performed in consideration of the change in the imaging environment. it can. In other words, the image quality of the frame image I is not adjusted using only the detection result of the human face, but the change in the imaging environment is taken into consideration, so that even if it was in the non-face detection state, it was detected before The human face can be used to adjust the image quality such as white balance and brightness of the frame image I.
In addition, image feature information (under a predetermined light source) measured from a plurality of frame images I when the image quality of the frame image I is adjusted with reference to other conditions other than the human face for determining the change in the imaging environment. Changes in the number of pixels corresponding to a predetermined color, luminance distribution, etc.), and appropriately determines whether or not the content of image quality adjustment based on the human face should be maintained. be able to.

また、ヒトの顔の検出状態が変化した前後でそれぞれ撮像された複数のフレーム画像(例えば、フレーム画像Ia、Ib等)から測定される複数の光源下で所定の色(例えば、グレー等)に該当する画素数の変化量の合計値が所定の閾値未満である場合に、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであると判定するので、フレーム画像Iのホワイトバランスを自動的に調整する場合に、画像特徴情報として、複数の光源下で所定の色に該当する画素数を用いて、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かの判定をより適正に行うことができる。
また、ヒトの顔の検出状態が変化した前後でそれぞれ撮像された複数のフレーム画像Iから測定される輝度の分布の変化量が所定の閾値未満である場合に、ヒトの顔を基準とする明るさ調整の内容を維持すべきであると判定するので、フレーム画像Iの明るさを自動的に調整する場合に、画像特徴情報として、輝度の分布を用いて、ヒトの顔を基準とする明るさ調整の内容を維持すべきであるか否かの判定をより適正に行うことができる。
In addition, a predetermined color (for example, gray) is obtained under a plurality of light sources measured from a plurality of frame images (for example, frame images Ia, Ib, etc.) captured before and after the detection state of the human face is changed. When the total change amount of the corresponding number of pixels is less than a predetermined threshold value, it is determined that the content of white balance adjustment based on the human face should be maintained. Whether the content of white balance adjustment based on the human face should be maintained using the number of pixels corresponding to a predetermined color under a plurality of light sources as image feature information in the case of automatic adjustment This determination can be made more appropriately.
In addition, when the amount of change in luminance distribution measured from a plurality of frame images I captured before and after the detection state of the human face changes is less than a predetermined threshold, the brightness with respect to the human face is used as a reference. Therefore, when the brightness of the frame image I is automatically adjusted, the brightness based on the human face is used as the image feature information when the brightness of the frame image I is automatically adjusted. It is possible to more appropriately determine whether or not the content of the adjustment should be maintained.

また、ヒトの顔を基準とする画質調整の内容を維持すべきでないと判定された場合には、撮像環境が変化したため、ヒトの顔以外のその他の条件を基準として、フレーム画像Iのホワイトバランスや明るさ等の画質を自動的に調整することができる。   If it is determined that the content of the image quality adjustment based on the human face should not be maintained, the imaging environment has changed. Therefore, the white balance of the frame image I is determined based on other conditions other than the human face. And image quality such as brightness can be adjusted automatically.

[実施形態2]
以下に、実施形態2の撮像装置200について図5〜図7を参照して説明する。
実施形態2の撮像装置200は、以下に詳細に説明する以外の点で上記実施形態1の撮像装置100と略同様の構成をなし、詳細な説明は省略する。
[Embodiment 2]
Below, the imaging device 200 of Embodiment 2 is demonstrated with reference to FIGS.
The imaging apparatus 200 according to the second embodiment has substantially the same configuration as that of the imaging apparatus 100 according to the first embodiment except for the details described below, and detailed description thereof is omitted.

図5は、本発明を適用した実施形態2の撮像装置200の概略構成を示すブロック図である。
図5に示すように、本実施形態の撮像装置200の信号処理部4は、画像取得部4aと、顔検出部4bと、第2画質調整部204cと、第2判定部204dとを具備している。
FIG. 5 is a block diagram illustrating a schematic configuration of the imaging apparatus 200 according to the second embodiment to which the present invention is applied.
As illustrated in FIG. 5, the signal processing unit 4 of the imaging apparatus 200 according to the present embodiment includes an image acquisition unit 4 a, a face detection unit 4 b, a second image quality adjustment unit 204 c, and a second determination unit 204 d. ing.

第2画質調整部(調整手段)204cは、画像取得部4aにより逐次取得されたライブビュー画像に係る複数のフレーム画像I(Ia〜Ic)のホワイトバランスを自動的に調整する。具体的には、上記実施形態1の第1画質調整部4cと略同様に、例えば、撮像の際に、ホワイトバランスを自動的に調整するオートホワイトバランス(AWB)モードが設定されている状態で、第2画質調整部204cは、顔検出部4bにより検出されたヒトの顔やヒトの顔以外のその他の条件等を基準として、フレーム画像Iのホワイトバランスを自動的に調整する。
なお、第2画質調整部204cは、上記実施形態1の第1画質調整部4cと略同様に、複数のフレーム画像I(Ia〜Ic)の明るさを自動的に調整しても良い。
The second image quality adjustment unit (adjustment unit) 204c automatically adjusts the white balance of the plurality of frame images I (Ia to Ic) related to the live view image sequentially acquired by the image acquisition unit 4a. Specifically, in substantially the same manner as the first image quality adjustment unit 4c of the first embodiment, for example, in the state in which the auto white balance (AWB) mode for automatically adjusting the white balance is set at the time of imaging. The second image quality adjustment unit 204c automatically adjusts the white balance of the frame image I based on the human face detected by the face detection unit 4b and other conditions other than the human face.
Note that the second image quality adjustment unit 204c may automatically adjust the brightness of the plurality of frame images I (Ia to Ic) in substantially the same manner as the first image quality adjustment unit 4c of the first embodiment.

第2判定部(判定手段)204dは、第2画質調整部204cによるヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かを判定する。
すなわち、第2判定部204dは、上記実施形態1の第1判定部4dと略同様に、顔検出部4bによるヒトの顔の検出状態が当該ヒトの顔を検出していた顔検出状態から検出していない非顔検出状態に変化した場合に、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かを判定する。
The second determination unit (determination unit) 204d determines whether or not the content of white balance adjustment based on the human face by the second image quality adjustment unit 204c should be maintained.
That is, the second determination unit 204d detects the human face detection state detected by the face detection unit 4b from the face detection state in which the human face was detected, in substantially the same manner as the first determination unit 4d of the first embodiment. When it is changed to a non-face detection state that is not performed, it is determined whether or not the content of white balance adjustment based on the human face should be maintained.

具体的には、第2判定部204dは、第2画質調整部204cによりヒトの顔の検出状態が変化した前後のフレーム画像(例えば、フレーム画像Ia、Ib等)から推定される光源の変化を利用する。すなわち、第2画質調整部204cは、例えば、ヒトの顔の検出状態が変化した前後のフレーム画像Iの各々について、画像データに基づいて光源(例えば、室内:白色灯等)を推定する。
そして、第2判定部204dは、前後のフレーム画像Iの推定された光源どうしを比較して、光源が変化したか否かを判定する。
ここで、光源が変化していないと判定されると、撮像環境が変化していないと考えられ(図4(a)及び図4(b)参照)、第2判定部204dは、ヒトの顔が検出されていない非顔検出状態のフレーム画像Ibに対しても、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであると判定する。そして、第2画質調整部204cは、ヒトの顔が検出されていない非顔検出状態のフレーム画像Ibに対して、以前に検出されたヒトの顔が含まれる顔領域を基準として、フレーム画像Icのホワイトバランスを自動的に調整する。
一方、光源が変化したと判定されると、撮像環境が変化したと考えられ(図4(a)及び図4(c)参照)、第2判定部204dは、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきでないと判定する。そして、第2画質調整部204cは、ヒトの顔が検出されていない非顔検出状態のフレーム画像Icに対しては、ヒトの顔以外のその他の条件等を基準として、フレーム画像Icのホワイトバランスを自動的に調整する。
Specifically, the second determination unit 204d detects a change in the light source estimated from the frame images before and after the human face detection state is changed by the second image quality adjustment unit 204c (for example, the frame images Ia and Ib). Use. That is, for example, the second image quality adjustment unit 204c estimates a light source (for example, a room: a white light, etc.) based on the image data for each of the frame images I before and after the human face detection state has changed.
Then, the second determination unit 204d compares the estimated light sources of the previous and next frame images I to determine whether the light source has changed.
Here, if it is determined that the light source has not changed, it is considered that the imaging environment has not changed (see FIG. 4A and FIG. 4B), and the second determination unit 204d detects the human face. It is determined that the content of the white balance adjustment based on the human face should be maintained even for the frame image Ib in the non-face detection state in which no is detected. Then, the second image quality adjustment unit 204c performs the frame image Ic on the basis of the face area including the previously detected human face with respect to the frame image Ib in the non-face detection state in which no human face is detected. Automatically adjusts the white balance.
On the other hand, if it is determined that the light source has changed, it is considered that the imaging environment has changed (see FIGS. 4A and 4C), and the second determination unit 204d performs white based on the human face. It is determined that the balance adjustment content should not be maintained. Then, the second image quality adjustment unit 204c applies the white balance of the frame image Ic to the non-face-detected frame image Ic in which no human face is detected based on other conditions other than the human face. Adjust automatically.

なお、信号処理部4のその他の構成、すなわち、画像取得部4a及び顔検出部4bは、その構成及び機能が上記実施形態1とほぼ同様であるので、詳細な説明は省略する。   The other configurations of the signal processing unit 4, that is, the image acquisition unit 4a and the face detection unit 4b are substantially the same in configuration and function as those in the first embodiment, and thus detailed description thereof is omitted.

<ライブビュー表示処理>
次に、撮像装置200によるライブビュー表示処理について、図6及び図7を参照して説明する。
図6は、ライブビュー表示処理に係る動作の一例を示すフローチャートである。図7は、ライブビュー表示処理における非顔検出状態処理に係る動作の一例を示すフローチャートである。
<Live view display processing>
Next, live view display processing by the imaging apparatus 200 will be described with reference to FIGS. 6 and 7.
FIG. 6 is a flowchart illustrating an example of an operation related to the live view display process. FIG. 7 is a flowchart illustrating an example of an operation related to the non-face detection state process in the live view display process.

なお、実施形態2の撮像装置200によるライブビュー表示処理は、以下に詳細に説明する以外の点で、上記した実施形態1の撮像装置100によるライブビュー表示処理と略同様であり、その詳細な説明は省略する。
また、以下に説明するライブビュー表示処理では、ホワイトバランスを自動的に調整するオートホワイトバランス(AWB)モードが設定されている状態で行われるものとする。
The live view display process performed by the imaging apparatus 200 according to the second embodiment is substantially the same as the live view display process performed by the imaging apparatus 100 according to the first embodiment described above, except for the details described below. Description is omitted.
In the live view display process described below, it is assumed that the auto white balance (AWB) mode for automatically adjusting the white balance is set.

図6に示すように、撮像部3による被写体の撮像が開始されると(ステップS201)、信号処理部4の画像取得部4aは、撮像部3の電子撮像部3bから逐次転送されたライブビュー画像に係るフレーム画像I(Ia〜Ic)を逐次取得する(ステップS202)。
続けて、顔検出部4bは、画像取得部4aにより取得されたフレーム画像I(例えば、フレーム画像Ia等)に対して所定の顔検出処理を行い(ステップS203)、被写体であるヒトの顔が含まれる顔領域が検出されたか否かを判定する(ステップS204)。
As shown in FIG. 6, when the imaging of the subject by the imaging unit 3 is started (step S201), the image acquisition unit 4a of the signal processing unit 4 performs the live view sequentially transferred from the electronic imaging unit 3b of the imaging unit 3. The frame images I (Ia to Ic) relating to the images are sequentially acquired (step S202).
Subsequently, the face detection unit 4b performs a predetermined face detection process on the frame image I (for example, the frame image Ia) acquired by the image acquisition unit 4a (step S203), and the human face that is the subject is detected. It is determined whether an included face area has been detected (step S204).

ステップS204にて、顔領域が検出されたと判定されると(ステップS204;YES)、第2画質調整部204cは、画像取得部4aにより取得されたフレーム画像Iのホワイトバランス調整の基準を検出されたヒトの顔が含まれる顔領域に設定する(ステップS205)。そして、第2画質調整部204cは、設定された基準に従って、フレーム画像Iのホワイトバランスの調整を行う(ステップS206)。具体的には、第2画質調整部204cは、上記実施形態1の第1画質調整部4cと略同様に、例えば、光源(例えば、室内:白色灯等)を推定し、顔領域内の推定された光源下で肌色に該当する画素を特定する。そして、第2画質調整部204cは、特定された肌色に該当する画素の画素値(例えば、RGB値等)を基準としてRGBの各色成分毎のゲイン量を算出し、画像データを増幅することでフレーム画像Iのホワイトバランスを調整する。
このとき、第2画質調整部204cは、例えば、顔領域内の輝度の分布を特定した後、特定された顔領域内の輝度の分布を基準として輝度信号Yの信号増幅率を調整し、輝度信号Yを増幅することでフレーム画像Iの明るさを調整しても良い。
If it is determined in step S204 that a face area has been detected (step S204; YES), the second image quality adjustment unit 204c is detected with a white balance adjustment reference for the frame image I acquired by the image acquisition unit 4a. A face area including a human face is set (step S205). Then, the second image quality adjustment unit 204c adjusts the white balance of the frame image I according to the set standard (step S206). Specifically, the second image quality adjustment unit 204c estimates, for example, a light source (for example, a room: a white light) and the like in the face area, in substantially the same manner as the first image quality adjustment unit 4c of the first embodiment. The pixel corresponding to the skin color is specified under the light source. Then, the second image quality adjustment unit 204c calculates the gain amount for each color component of RGB with reference to the pixel value (for example, RGB value) of the pixel corresponding to the specified skin color, and amplifies the image data. Adjust the white balance of the frame image I.
At this time, for example, after specifying the luminance distribution in the face area, the second image quality adjustment unit 204c adjusts the signal amplification factor of the luminance signal Y with reference to the luminance distribution in the specified face area, The brightness of the frame image I may be adjusted by amplifying the signal Y.

その後、表示制御部6aは、第2画質調整部204cからホワイトバランスが調整されたフレーム画像I(例えば、フレーム画像Ia等)の画像データを取得し、ライブビュー画像として表示パネル6bの表示領域内に表示させる(ステップS207;図4(a)等参照)。
次に、中央制御部1のCPUは、上記実施形態1のライブビュー表示処理におけるステップS8と同様に、当該ライブビュー表示処理の終了指示が入力されたか否かを判定する(ステップS208)。
After that, the display control unit 6a acquires the image data of the frame image I (for example, the frame image Ia) whose white balance has been adjusted from the second image quality adjustment unit 204c, and within the display area of the display panel 6b as a live view image. (Step S207; see FIG. 4A, etc.).
Next, the CPU of the central control unit 1 determines whether or not an instruction to end the live view display process has been input, similarly to step S8 in the live view display process of the first embodiment (step S208).

ステップS208にて、ライブビュー表示処理の終了指示が入力されていないと判定されると(ステップS208;NO)、画像取得部4aは、撮像部3の電子撮像部3bから転送されたライブビュー画像に係る次のフレーム画像I(例えば、フレーム画像Ib等)を取得し(ステップS209)、処理をステップS203に戻す。
そして、上記と同様に、顔検出部4bは、画像取得部4aにより取得された次のフレーム画像Iに対して所定の顔検出処理を行い(ステップS203)、被写体であるヒトの顔が含まれる顔領域が検出されたか否かを判定する(ステップS204)。
If it is determined in step S208 that an instruction to end the live view display process has not been input (step S208; NO), the image acquisition unit 4a transfers the live view image transferred from the electronic imaging unit 3b of the imaging unit 3. Next frame image I (for example, frame image Ib etc.) concerning is acquired (step S209), and the process returns to step S203.
Similarly to the above, the face detection unit 4b performs a predetermined face detection process on the next frame image I acquired by the image acquisition unit 4a (step S203), and includes the human face that is the subject. It is determined whether or not a face area has been detected (step S204).

一方、ステップS204にて、顔領域が検出されていないと判定されると(ステップS4;NO)、信号処理部4は、非顔検出状態処理(図7参照)を行う(ステップS210)。
以下に、非顔検出状態処理について、図7を参照して詳細に説明する。
On the other hand, if it is determined in step S204 that no face area has been detected (step S4; NO), the signal processing unit 4 performs non-face detection state processing (see FIG. 7) (step S210).
Hereinafter, the non-face detection state process will be described in detail with reference to FIG.

<非顔検出状態処理>
図7に示すように、第2画質調整部204cは、顔検出部4bによるヒトの顔の前回の検出状態が当該ヒトの顔を検出していた顔検出状態であったか否かを判定する(ステップS221)。
<Non-face detection state processing>
As shown in FIG. 7, the second image quality adjustment unit 204c determines whether or not the previous detection state of the human face by the face detection unit 4b is the face detection state in which the human face was detected (step). S221).

ステップS221にて、前回の検出状態が顔検出状態でないと判定されると(ステップS221;NO)、第2画質調整部204cは、フレーム画像Iのホワイトバランス調整の基準をヒトの顔以外のその他の条件に設定する(ステップS222)。
そして、図6に戻り、ステップS206にて、第2画質調整部204cは、設定された基準に従って、フレーム画像Iのホワイトバランスの調整を行う(ステップS206)。具体的には、第2画質調整部204cは、上記実施形態1の第1画質調整部4cと略同様に、例えば、光源(例えば、室内:白色灯等)を推定し、当該フレーム画像I内の推定された光源下でグレーに該当する画素を特定する。そして、第2画質調整部204cは、特定されたグレーに該当する画素の画素値(例えば、RGB値等)を基準としてRGBの各色成分毎のゲイン量を算出し、画像データを増幅することでフレーム画像Iのホワイトバランスを調整する。
このとき、第2画質調整部204cは、例えば、フレーム画像I全体や所定の測光領域の輝度の分布を特定した後、特定された輝度の分布を基準として輝度信号Yの信号増幅率を調整し、輝度信号Yを増幅することでフレーム画像I(Ia〜Ic)の明るさを調整しても良い。
ステップS207以降の各処理は、上記と同様であり、詳細な説明は省略する。
If it is determined in step S221 that the previous detection state is not the face detection state (step S221; NO), the second image quality adjustment unit 204c sets the reference for white balance adjustment of the frame image I to other than the human face. (Step S222).
Returning to FIG. 6, in step S206, the second image quality adjustment unit 204c adjusts the white balance of the frame image I according to the set reference (step S206). Specifically, the second image quality adjustment unit 204c estimates, for example, a light source (for example, a room: white light, etc.) in the frame image I in substantially the same manner as the first image quality adjustment unit 4c of the first embodiment. A pixel corresponding to gray under the estimated light source is identified. Then, the second image quality adjustment unit 204c calculates the gain amount for each color component of RGB with reference to the pixel value (for example, RGB value) of the pixel corresponding to the specified gray, and amplifies the image data. Adjust the white balance of the frame image I.
At this time, for example, after specifying the luminance distribution of the entire frame image I or a predetermined photometric area, the second image quality adjustment unit 204c adjusts the signal amplification factor of the luminance signal Y with reference to the specified luminance distribution. The brightness of the frame image I (Ia to Ic) may be adjusted by amplifying the luminance signal Y.
Each processing after step S207 is the same as described above, and detailed description thereof is omitted.

一方、ステップS221にて、前回の検出状態が顔検出状態であると判定されると(ステップS221;YES)、ヒトの顔の検出状態が当該ヒトの顔を検出していた顔検出状態から検出していない非顔検出状態に変化した場合であり、第2判定部204dは、第2画質調整部204cによるヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かを判定する(ステップS223〜S226)。   On the other hand, if it is determined in step S221 that the previous detection state is the face detection state (step S221; YES), the human face detection state is detected from the face detection state in which the human face was detected. The second determination unit 204d determines whether or not the content of white balance adjustment based on the human face by the second image quality adjustment unit 204c should be maintained. Determination is made (steps S223 to S226).

具体的には、先ず、第2画質調整部204cは、ヒトの顔の検出状態が変化した前後のフレーム画像(例えば、フレーム画像Ia、Ib等)の各々について、画像データに基づいて光源(例えば、室内:白色灯等)を推定する(ステップS223)。そして、第2判定部204dは、ヒトの顔の検出状態が変化した前後のフレーム画像Iで光源が変化したか否かを判定する(ステップS224)。
ここで、光源が変化していないと判定されると(ステップS224;NO)、第2画質調整部204cは、フレーム画像I(例えば、フレーム画像Ib等)のホワイトバランス調整の基準を前回のフレーム画像I(例えば、フレーム画像Ia等)から検出されたヒトの顔が含まれる顔領域に設定する(ステップS225;図4(b)等参照)。その一方で、光源が変化したと判定されると(ステップS224;YES)、第2画質調整部204cは、フレーム画像I(例えば、フレーム画像Ic等)のホワイトバランス調整の基準をヒトの顔以外のその他の条件に設定する(ステップS226;図4(c)等参照)。
Specifically, first, the second image quality adjustment unit 204c determines the light source (for example, the frame image Ia, Ib, etc.) before and after the human face detection state has changed based on the image data. , Indoor: white light, etc.) is estimated (step S223). Then, the second determination unit 204d determines whether or not the light source has changed in the frame images I before and after the human face detection state has changed (step S224).
Here, if it is determined that the light source has not changed (step S224; NO), the second image quality adjustment unit 204c sets the reference for white balance adjustment of the frame image I (for example, the frame image Ib) as the previous frame. A face area including a human face detected from the image I (for example, the frame image Ia) is set (step S225; see FIG. 4B, etc.). On the other hand, if it is determined that the light source has changed (step S224; YES), the second image quality adjustment unit 204c sets the reference for white balance adjustment of the frame image I (for example, the frame image Ic) other than the human face. The other conditions are set (step S226; see FIG. 4C, etc.).

そして、図6に戻り、ステップS206にて、第2画質調整部204cは、設定された基準に従って、フレーム画像Iのホワイトバランスの調整を行う(ステップS206)。
すなわち、第2画質調整部204cは、前回検出されたヒトの顔を基準としてホワイトバランス調整を行ったり、ヒトの顔以外のその他の条件を基準としてホワイトバランス調整を行ったりする。
このとき、第2画質調整部204cは、例えば、ヒトの顔以外のその他の条件を基準として、フレーム画像Iの明るさを調整しても良い。
ステップS207以降の各処理は、上記と同様であり、詳細な説明は省略する。
Returning to FIG. 6, in step S206, the second image quality adjustment unit 204c adjusts the white balance of the frame image I according to the set reference (step S206).
That is, the second image quality adjustment unit 204c performs white balance adjustment based on the previously detected human face, or performs white balance adjustment based on other conditions other than the human face.
At this time, the second image quality adjustment unit 204c may adjust the brightness of the frame image I based on other conditions other than the human face, for example.
Each processing after step S207 is the same as described above, and detailed description thereof is omitted.

以上のように、実施形態2の撮像装置200によれば、上記実施形態1の撮像装置100と略同様に、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであると判定された場合には、非顔検出状態であっても、以前に検出されたヒトの顔を利用してフレーム画像Iのホワイトバランスの調整を行うことができ、出力されるライブビュー画像のヒトの顔を基準としたホワイトバランス調整をより安定して行うことができる。
特に、ヒトの顔の検出状態が変化した前後でそれぞれ撮像された複数のフレーム画像(例えば、フレーム画像Ia、Ib等)から推定される光源の変化に基づいて、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かを判定するので、撮像環境の変化の判定に、複数のフレーム画像Iから推定される光源の変化を利用することができる。具体的には、複数のフレーム画像Iから推定される光源が変化するまでは、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであると判定するので、フレーム画像Iのホワイトバランスを自動的に調整する場合に、画像特徴情報として、光源の変化を用いて、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かの判定をより適正に行うことができる。
As described above, according to the imaging apparatus 200 of the second embodiment, it is determined that the content of white balance adjustment based on the human face should be maintained, as in the imaging apparatus 100 of the first embodiment. In this case, the white balance of the frame image I can be adjusted using the previously detected human face even in the non-face detection state, and the human face in the output live view image can be adjusted. The white balance adjustment based on can be performed more stably.
In particular, white based on a human face based on a change in a light source estimated from a plurality of frame images (for example, frame images Ia, Ib, etc.) taken before and after the detection state of the human face is changed. Since it is determined whether or not the content of the balance adjustment should be maintained, the change in the light source estimated from the plurality of frame images I can be used to determine the change in the imaging environment. Specifically, since it is determined that the content of the white balance adjustment based on the human face should be maintained until the light source estimated from the plurality of frame images I changes, the white balance of the frame image I is determined. When automatically adjusting the image, use the change in the light source as the image feature information, and more appropriately determine whether or not the content of white balance adjustment based on the human face should be maintained Can do.

なお、上記実施形態2にあっては、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かの判定にて、実施形態1と同様に、ヒトの顔の検出状態が変化した前後のフレーム画像(例えば、フレーム画像Ia、Ib等)から測定される所定の光源下で所定の色に該当する画素数の変化量を併せて利用しても良い。
すなわち、ヒトの顔の検出状態が変化した前後のフレーム画像(例えば、フレーム画像Ia、Ib等)について、推定される光源が変化したか否かの判定結果、及び、複数の光源の各々におけるグレーに該当する画素数の変化量の合計値が所定の閾値未満であるか否かの判定結果に基づいて、撮像環境が変化したか否か(ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否か)の判定を行う。
このとき、上記した二つの判定方法について、優先すべき一方の判定方法を設定可能としても良い。また、例えば、上記した二つの判定方法のうち、一方の判定方法(例えば、実施形態1の判定方法等)にて、撮像環境が変化していないと特定された場合に、ヒトの顔を基準とするホワイトバランス調整の内容を維持するようにすることで、ヒトの顔をより優先してホワイトバランス調整に利用することができる。また、上記した二つの判定方法の両方で撮像環境が変化していないと特定された場合にのみ、ヒトの顔を基準とするホワイトバランス調整の内容を維持するようにすることで、ホワイトバランス調整の精度をより向上させることができる。
このように、上記した二つの判定方法を利用することで、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かの判定レベルを複数設定することができ、ユーザの使い勝手をより向上させることができる。
In the second embodiment, in the determination of whether or not the content of white balance adjustment based on the human face should be maintained, the detection state of the human face is the same as in the first embodiment. The amount of change in the number of pixels corresponding to a predetermined color under a predetermined light source measured from frame images before and after the change of (for example, frame images Ia, Ib, etc.) may be used together.
That is, for the frame images before and after the human face detection state has changed (for example, the frame images Ia, Ib, etc.), the determination result of whether the estimated light source has changed, and the gray in each of the plurality of light sources Whether or not the imaging environment has changed based on the determination result of whether or not the total value of the amount of change in the number of pixels corresponding to is less than a predetermined threshold (the content of white balance adjustment based on the human face) Whether or not it should be maintained).
At this time, it may be possible to set one of the two determination methods described above that should be prioritized. In addition, for example, when one of the two determination methods described above (for example, the determination method of the first embodiment) specifies that the imaging environment has not changed, the human face is used as a reference. By maintaining the content of white balance adjustment, the human face can be used for white balance adjustment with higher priority. Also, white balance adjustment is performed by maintaining the content of white balance adjustment based on the human face only when it is determined that the imaging environment has not changed by both of the above two determination methods. Accuracy can be further improved.
In this way, by using the two determination methods described above, it is possible to set a plurality of determination levels as to whether or not the content of white balance adjustment based on the human face should be maintained. Usability can be further improved.

なお、本発明は、上記実施形態1、2に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かの判定に、ヒトの顔の検出状態が変化した前後のフレーム画像(例えば、フレーム画像Ia、Ib等)から測定される所定の光源下で所定の色に該当する画素数の変化量を利用する場合、複数の光源の各々におけるグレーに該当する画素数の変化量の合計値が所定の閾値未満であるか否かを判定するようにしたが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
すなわち、例えば、単一の光源で複数色の各々について、ヒトの顔の検出状態が変化した前後での画素数の変化量を算出し、算出された複数色について画素数の変化量(絶対値)を合計し、合計値が所定の閾値未満であるか否かを判定するようにしても良い。
The present invention is not limited to the first and second embodiments, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, frame images before and after the change of the human face detection state (for example, frame images Ia, Ib, etc.) are used to determine whether or not the content of white balance adjustment based on the human face should be maintained. When using the amount of change in the number of pixels corresponding to a predetermined color under a predetermined light source measured from the total of the amount of change in the number of pixels corresponding to gray in each of the plurality of light sources is less than a predetermined threshold However, this is only an example, and the present invention is not limited to this, and can be arbitrarily changed as appropriate.
That is, for example, for each of a plurality of colors with a single light source, the amount of change in the number of pixels before and after the human face detection state changes is calculated, and the amount of change in the number of pixels (absolute value) for the calculated plurality of colors ) May be summed, and it may be determined whether the sum is less than a predetermined threshold.

さらに、ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かの判定に、ヒトの顔の検出状態が変化した前後のフレーム画像(例えば、フレーム画像Ia、Ib等)から測定される所定の光源下で所定の色に該当する画素数の変化量に変えて、例えば、所定の光源下で所定の色に該当する画素数の変化率を利用しても良い。   Further, in determining whether or not the content of white balance adjustment based on the human face should be maintained, frame images before and after the detection state of the human face is changed (for example, frame images Ia and Ib). For example, a change rate of the number of pixels corresponding to a predetermined color under a predetermined light source may be used instead of the change amount of the number of pixels corresponding to a predetermined color under a predetermined light source.

また、撮像装置100、200の構成は、上記実施形態1、2に例示したものは一例であり、これに限られるものではない。さらに、出力制御装置として、撮像装置100、200を例示したが、これに限られるものではなく、撮像機能を具備するか否かは適宜任意に変更可能である。   In addition, the configurations of the imaging devices 100 and 200 illustrated in the first and second embodiments are examples, and are not limited thereto. Furthermore, although the imaging devices 100 and 200 have been illustrated as output control devices, the present invention is not limited to this, and whether or not an imaging function is provided can be arbitrarily changed as appropriate.

加えて、上記実施形態1、2にあっては、検出手段、調整手段、制御手段、判定手段としての機能を、中央制御部1の制御下にて、顔検出部4b、第1画質調整部4c(第2画質調整部204c)、第1判定部4d(第2判定部204d)、表示制御部6aが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1によって所定のプログラム等が実行されることにより実現される構成としても良い。
すなわち、プログラムメモリ(図示略)に、検出処理ルーチン、調整処理ルーチン、制御処理ルーチン、判定処理ルーチンを含むプログラムを記録しておく。そして、検出処理ルーチンにより中央制御部1のCPUを、撮像部3により逐次撮像されるフレーム画像Iからヒトの顔を検出する手段として機能させるようにしても良い。また、調整処理ルーチンにより中央制御部1のCPUを、検出されたヒトの顔を基準として、フレーム画像Iの画質を自動的に調整する手段として機能させるようにしても良い。また、制御処理ルーチンにより中央制御部1のCPUを、画質が調整された画像を出力させる手段として機能させるようにしても良い。また、判定処理ルーチンにより中央制御部1のCPUを、ヒトの顔の検出状態が当該ヒトの顔を検出していた状態から検出していない状態に変化した場合に、ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定する手段として機能させるようにしても良い。
In addition, in the first and second embodiments, the functions as the detection unit, the adjustment unit, the control unit, and the determination unit are controlled under the control of the central control unit 1, and the face detection unit 4b and the first image quality adjustment unit. 4c (second image quality adjustment unit 204c), first determination unit 4d (second determination unit 204d), and display control unit 6a are configured to be driven. However, the present invention is not limited to this, and the central control is performed. The configuration may be realized by executing a predetermined program or the like by the unit 1.
That is, a program including a detection processing routine, an adjustment processing routine, a control processing routine, and a determination processing routine is recorded in a program memory (not shown). Then, the CPU of the central control unit 1 may function as means for detecting a human face from the frame images I sequentially captured by the imaging unit 3 by the detection processing routine. Further, the CPU of the central control unit 1 may function as a means for automatically adjusting the image quality of the frame image I with the detected human face as a reference by an adjustment processing routine. Further, the CPU of the central control unit 1 may function as a means for outputting an image whose image quality is adjusted by a control processing routine. Further, when the CPU of the central control unit 1 is changed from the state in which the human face is detected to the state in which the human face is not detected by the determination processing routine, the human face is used as a reference. You may make it function as a means to determine whether the content of image quality adjustment should be maintained.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
撮像手段により逐次撮像される撮像画像からヒトの顔を検出する検出手段と、
前記検出手段により検出されたヒトの顔を基準として、前記撮像画像の画質を自動的に調整する調整手段と、
前記調整手段により画質が調整された画像を出力させる制御手段と、
前記検出手段によるヒトの顔の検出状態が当該ヒトの顔を検出していた状態から検出していない状態に変化した場合に、前記調整手段による前記ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定する判定手段と、
を備えたことを特徴とする出力制御装置。
<請求項2>
前記判定手段は、前記検出手段によるヒトの顔の検出状態が変化した前後で前記撮像手段によりそれぞれ撮像された複数の撮像画像から判断される撮像環境の変化状況に基づいて、前記調整手段による前記ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定することを特徴とする請求項1に記載の出力制御装置。
<請求項3>
前記判定手段は、前記調整手段により前記ヒトの顔以外のその他の条件を基準として前記撮像画像の画質の調整が行われる際に前記複数の撮像画像から測定される画像特徴情報の変化に基づいて、前記調整手段による前記ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定することを特徴とする請求項2に記載の出力制御装置。
<請求項4>
前記調整手段は、前記撮像画像のホワイトバランスを自動的に調整し、
前記判定手段は、前記調整手段により前記複数の撮像画像から測定される所定の光源下で所定の色に該当する画素数の変化量に基づいて、前記調整手段による前記ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かを判定することを特徴とする請求項3に記載の出力制御装置。
<請求項5>
前記判定手段は、前記調整手段により前記複数の撮像画像から測定される複数の光源下で所定の色に該当する画素数の変化量の合計値が所定の閾値未満である場合に、前記調整手段による前記ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであると判定することを特徴とする請求項4に記載の出力制御装置。
<請求項6>
前記調整手段は、前記撮像画像の明るさを自動的に調整し、
前記判定手段は、前記調整手段により前記複数の撮像画像から測定される輝度の分布の変化量が所定の閾値未満である場合に、前記調整手段による前記ヒトの顔を基準とする明るさ調整の内容を維持すべきであると判定することを特徴とする請求項3に記載の出力制御装置。
<請求項7>
前記調整手段は、前記撮像画像のホワイトバランスを自動的に調整し、
前記判定手段は、前記調整手段により前記複数の撮像画像から推定される光源の変化に基づいて、前記調整手段による前記ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かを判定することを特徴とする請求項3に記載の出力制御装置。
<請求項8>
前記判定手段は、前記調整手段により前記複数の撮像画像から推定される光源が変化するまでは、前記調整手段による前記ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであると判定することを特徴とする請求項7に記載の出力制御装置。
<請求項9>
前記判定手段は、更に、前記調整手段により前記複数の撮像画像から測定される所定の光源下で所定の色に該当する画素数の変化量に基づいて、前記調整手段による前記ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かを判定することを特徴とする請求項7又は8に記載の出力制御装置。
<請求項10>
前記調整手段は、前記判定手段により前記ヒトの顔を基準とする画質調整の内容を維持すべきでないと判定されると、前記ヒトの顔以外のその他の条件を基準として、前記撮像画像の画質を自動的に調整することを特徴とする請求項1〜9の何れか一項に記載の出力制御装置。
<請求項11>
出力制御装置を用いた出力制御方法であって、
撮像手段により逐次撮像される撮像画像からヒトの顔を検出する処理と、
検出されたヒトの顔を基準として、前記撮像画像の画質を自動的に調整する処理と、
画質が調整された画像を出力させる処理と、
ヒトの顔の検出状態が当該ヒトの顔を検出していた状態から検出していない状態に変化した場合に、前記ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定する処理と、
を含むことを特徴とする出力制御方法。
<請求項12>
出力制御装置のコンピュータに、
撮像手段により逐次撮像される撮像画像からヒトの顔を検出する機能、
検出されたヒトの顔を基準として、前記撮像画像の画質を自動的に調整する機能、
画質が調整された画像を出力させる機能、
ヒトの顔の検出状態が当該ヒトの顔を検出していた状態から検出していない状態に変化した場合に、前記ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定する機能と、
を実現させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Detecting means for detecting a human face from captured images sequentially imaged by the imaging means;
An adjustment unit that automatically adjusts the image quality of the captured image based on the human face detected by the detection unit;
Control means for outputting an image whose image quality has been adjusted by the adjusting means;
When the detection state of the human face by the detection unit changes from a state in which the human face is detected to a state in which the human face is not detected, the content of image quality adjustment based on the human face by the adjustment unit is Determining means for determining whether or not to maintain;
An output control device comprising:
<Claim 2>
The determining means is based on a change state of an imaging environment determined from a plurality of captured images respectively captured by the imaging means before and after the detection state of the human face by the detecting means is changed, and the adjusting means by the adjusting means. 2. The output control apparatus according to claim 1, wherein it is determined whether or not the content of image quality adjustment based on a human face should be maintained.
<Claim 3>
The determination unit is based on a change in image feature information measured from the plurality of captured images when the adjustment unit adjusts the image quality of the captured image based on other conditions other than the human face. The output control apparatus according to claim 2, wherein it is determined whether or not the content of the image quality adjustment based on the human face by the adjustment unit should be maintained.
<Claim 4>
The adjusting means automatically adjusts the white balance of the captured image,
The determination unit is based on the human face by the adjustment unit based on a change amount of the number of pixels corresponding to a predetermined color under a predetermined light source measured from the plurality of captured images by the adjustment unit. 4. The output control apparatus according to claim 3, wherein it is determined whether or not the content of white balance adjustment should be maintained.
<Claim 5>
The determination unit is configured to adjust the adjustment unit when a total value of changes in the number of pixels corresponding to a predetermined color under a plurality of light sources measured from the plurality of captured images by the adjustment unit is less than a predetermined threshold. The output control apparatus according to claim 4, wherein it is determined that the content of white balance adjustment based on the human face according to the above should be maintained.
<Claim 6>
The adjusting means automatically adjusts the brightness of the captured image,
The determination unit is configured to adjust brightness based on the human face by the adjustment unit when a change amount of a luminance distribution measured from the plurality of captured images by the adjustment unit is less than a predetermined threshold. 4. The output control apparatus according to claim 3, wherein it is determined that the content should be maintained.
<Claim 7>
The adjusting means automatically adjusts the white balance of the captured image,
Whether the determination unit should maintain the content of white balance adjustment based on the human face by the adjustment unit based on a change in light source estimated from the plurality of captured images by the adjustment unit. The output control apparatus according to claim 3, wherein the output control apparatus determines whether or not.
<Claim 8>
The determination unit determines that the content of white balance adjustment based on the human face by the adjustment unit should be maintained until the light source estimated from the plurality of captured images is changed by the adjustment unit. The output control device according to claim 7, wherein:
<Claim 9>
The determination unit is further configured to reference the human face by the adjustment unit based on an amount of change in the number of pixels corresponding to a predetermined color under a predetermined light source measured from the plurality of captured images by the adjustment unit. The output control apparatus according to claim 7, wherein it is determined whether or not the content of white balance adjustment to be maintained should be maintained.
<Claim 10>
When the determination unit determines that the content of the image quality adjustment based on the human face should not be maintained by the determination unit, the image quality of the captured image is based on other conditions other than the human face. The output control device according to claim 1, wherein the output control device is automatically adjusted.
<Claim 11>
An output control method using an output control device,
Processing for detecting a human face from captured images sequentially captured by the imaging means;
A process of automatically adjusting the image quality of the captured image based on the detected human face;
Processing to output an image with adjusted image quality;
Whether or not the content of the image quality adjustment based on the human face should be maintained when the detection state of the human face changes from a state where the human face is detected to a state where the human face is not detected A process of determining
The output control method characterized by including.
<Claim 12>
In the computer of the output control device,
A function of detecting a human face from captured images sequentially captured by the imaging means;
A function of automatically adjusting the image quality of the captured image based on the detected human face;
A function to output an image with adjusted image quality,
Whether or not the content of the image quality adjustment based on the human face should be maintained when the detection state of the human face changes from a state where the human face is detected to a state where the human face is not detected A function for determining
A program characterized by realizing.

100、200 撮像装置
1 中央制御部
2 メモリ
3 撮像部
4 信号処理部
4a 画像取得部
4b 顔検出部
4c 第1画質調整部
4d 第1判定部
204c 第2画質調整部
204d 第2判定部
6 表示部
6a 表示制御部
6b 表示パネル
100, 200 Imaging device 1 Central control unit 2 Memory 3 Imaging unit 4 Signal processing unit 4a Image acquisition unit 4b Face detection unit 4c First image quality adjustment unit 4d First determination unit 204c Second image quality adjustment unit 204d Second determination unit 6 Display Part 6a Display control part 6b Display panel

Claims (12)

撮像手段により逐次撮像される撮像画像からヒトの顔を検出する検出手段と、
前記検出手段により検出されたヒトの顔を基準として、前記撮像画像の画質を自動的に調整する調整手段と、
前記調整手段により画質が調整された画像を出力させる制御手段と、
前記検出手段によるヒトの顔の検出状態が当該ヒトの顔を検出していた状態から検出していない状態に変化した場合に、前記調整手段による前記ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定する判定手段と、
を備えたことを特徴とする出力制御装置。
Detecting means for detecting a human face from captured images sequentially imaged by the imaging means;
An adjustment unit that automatically adjusts the image quality of the captured image based on the human face detected by the detection unit;
Control means for outputting an image whose image quality has been adjusted by the adjusting means;
When the detection state of the human face by the detection unit changes from a state in which the human face is detected to a state in which the human face is not detected, the content of image quality adjustment based on the human face by the adjustment unit is Determining means for determining whether or not to maintain;
An output control device comprising:
前記判定手段は、前記検出手段によるヒトの顔の検出状態が変化した前後で前記撮像手段によりそれぞれ撮像された複数の撮像画像から判断される撮像環境の変化状況に基づいて、前記調整手段による前記ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定することを特徴とする請求項1に記載の出力制御装置。   The determining means is based on a change state of an imaging environment determined from a plurality of captured images respectively captured by the imaging means before and after the detection state of the human face by the detecting means is changed, and the adjusting means by the adjusting means. 2. The output control apparatus according to claim 1, wherein it is determined whether or not the content of image quality adjustment based on a human face should be maintained. 前記判定手段は、前記調整手段により前記ヒトの顔以外のその他の条件を基準として前記撮像画像の画質の調整が行われる際に前記複数の撮像画像から測定される画像特徴情報の変化に基づいて、前記調整手段による前記ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定することを特徴とする請求項2に記載の出力制御装置。   The determination unit is based on a change in image feature information measured from the plurality of captured images when the adjustment unit adjusts the image quality of the captured image based on other conditions other than the human face. The output control apparatus according to claim 2, wherein it is determined whether or not the content of the image quality adjustment based on the human face by the adjustment unit should be maintained. 前記調整手段は、前記撮像画像のホワイトバランスを自動的に調整し、
前記判定手段は、前記調整手段により前記複数の撮像画像から測定される所定の光源下で所定の色に該当する画素数の変化量に基づいて、前記調整手段による前記ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かを判定することを特徴とする請求項3に記載の出力制御装置。
The adjusting means automatically adjusts the white balance of the captured image,
The determination unit is based on the human face by the adjustment unit based on a change amount of the number of pixels corresponding to a predetermined color under a predetermined light source measured from the plurality of captured images by the adjustment unit. 4. The output control apparatus according to claim 3, wherein it is determined whether or not the content of white balance adjustment should be maintained.
前記判定手段は、前記調整手段により前記複数の撮像画像から測定される複数の光源下で所定の色に該当する画素数の変化量の合計値が所定の閾値未満である場合に、前記調整手段による前記ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであると判定することを特徴とする請求項4に記載の出力制御装置。   The determination unit is configured to adjust the adjustment unit when a total value of changes in the number of pixels corresponding to a predetermined color under a plurality of light sources measured from the plurality of captured images by the adjustment unit is less than a predetermined threshold. The output control apparatus according to claim 4, wherein it is determined that the content of white balance adjustment based on the human face according to the above should be maintained. 前記調整手段は、前記撮像画像の明るさを自動的に調整し、
前記判定手段は、前記調整手段により前記複数の撮像画像から測定される輝度の分布の変化量が所定の閾値未満である場合に、前記調整手段による前記ヒトの顔を基準とする明るさ調整の内容を維持すべきであると判定することを特徴とする請求項3に記載の出力制御装置。
The adjusting means automatically adjusts the brightness of the captured image,
The determination unit is configured to adjust brightness based on the human face by the adjustment unit when a change amount of a luminance distribution measured from the plurality of captured images by the adjustment unit is less than a predetermined threshold. 4. The output control apparatus according to claim 3, wherein it is determined that the content should be maintained.
前記調整手段は、前記撮像画像のホワイトバランスを自動的に調整し、
前記判定手段は、前記調整手段により前記複数の撮像画像から推定される光源の変化に基づいて、前記調整手段による前記ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かを判定することを特徴とする請求項3に記載の出力制御装置。
The adjusting means automatically adjusts the white balance of the captured image,
Whether the determination unit should maintain the content of white balance adjustment based on the human face by the adjustment unit based on a change in light source estimated from the plurality of captured images by the adjustment unit. The output control apparatus according to claim 3, wherein the output control apparatus determines whether or not.
前記判定手段は、前記調整手段により前記複数の撮像画像から推定される光源が変化するまでは、前記調整手段による前記ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであると判定することを特徴とする請求項7に記載の出力制御装置。   The determination unit determines that the content of white balance adjustment based on the human face by the adjustment unit should be maintained until the light source estimated from the plurality of captured images is changed by the adjustment unit. The output control device according to claim 7, wherein: 前記判定手段は、更に、前記調整手段により前記複数の撮像画像から測定される所定の光源下で所定の色に該当する画素数の変化量に基づいて、前記調整手段による前記ヒトの顔を基準とするホワイトバランス調整の内容を維持すべきであるか否かを判定することを特徴とする請求項7又は8に記載の出力制御装置。   The determination unit is further configured to reference the human face by the adjustment unit based on an amount of change in the number of pixels corresponding to a predetermined color under a predetermined light source measured from the plurality of captured images by the adjustment unit. The output control apparatus according to claim 7, wherein it is determined whether or not the content of white balance adjustment to be maintained should be maintained. 前記調整手段は、前記判定手段により前記ヒトの顔を基準とする画質調整の内容を維持すべきでないと判定されると、前記ヒトの顔以外のその他の条件を基準として、前記撮像画像の画質を自動的に調整することを特徴とする請求項1〜9の何れか一項に記載の出力制御装置。   When the determination unit determines that the content of the image quality adjustment based on the human face should not be maintained by the determination unit, the image quality of the captured image is based on other conditions other than the human face. The output control device according to claim 1, wherein the output control device is automatically adjusted. 出力制御装置を用いた出力制御方法であって、
撮像手段により逐次撮像される撮像画像からヒトの顔を検出する処理と、
検出されたヒトの顔を基準として、前記撮像画像の画質を自動的に調整する処理と、
画質が調整された画像を出力させる処理と、
ヒトの顔の検出状態が当該ヒトの顔を検出していた状態から検出していない状態に変化した場合に、前記ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定する処理と、
を含むことを特徴とする出力制御方法。
An output control method using an output control device,
Processing for detecting a human face from captured images sequentially captured by the imaging means;
A process of automatically adjusting the image quality of the captured image based on the detected human face;
Processing to output an image with adjusted image quality;
Whether or not the content of the image quality adjustment based on the human face should be maintained when the detection state of the human face changes from a state where the human face is detected to a state where the human face is not detected A process of determining
The output control method characterized by including.
出力制御装置のコンピュータに、
撮像手段により逐次撮像される撮像画像からヒトの顔を検出する機能、
検出されたヒトの顔を基準として、前記撮像画像の画質を自動的に調整する機能、
画質が調整された画像を出力させる機能、
ヒトの顔の検出状態が当該ヒトの顔を検出していた状態から検出していない状態に変化した場合に、前記ヒトの顔を基準とする画質調整の内容を維持すべきであるか否かを判定する機能と、
を実現させることを特徴とするプログラム。
In the computer of the output control device,
A function of detecting a human face from captured images sequentially captured by the imaging means;
A function of automatically adjusting the image quality of the captured image based on the detected human face;
A function to output an image with adjusted image quality,
Whether or not the content of the image quality adjustment based on the human face should be maintained when the detection state of the human face changes from a state where the human face is detected to a state where the human face is not detected A function for determining
A program characterized by realizing.
JP2015216252A 2015-11-04 2015-11-04 Output control device, output control method, and program Active JP6606981B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015216252A JP6606981B2 (en) 2015-11-04 2015-11-04 Output control device, output control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015216252A JP6606981B2 (en) 2015-11-04 2015-11-04 Output control device, output control method, and program

Publications (2)

Publication Number Publication Date
JP2017092544A true JP2017092544A (en) 2017-05-25
JP6606981B2 JP6606981B2 (en) 2019-11-20

Family

ID=58768350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015216252A Active JP6606981B2 (en) 2015-11-04 2015-11-04 Output control device, output control method, and program

Country Status (1)

Country Link
JP (1) JP6606981B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3883236A1 (en) 2020-03-16 2021-09-22 Canon Kabushiki Kaisha Information processing apparatus, imaging apparatus, method, and storage medium
CN114339028A (en) * 2021-11-17 2022-04-12 深圳天珑无线科技有限公司 Photographing method, electronic device and computer-readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007180629A (en) * 2005-12-27 2007-07-12 Samsung Techwin Co Ltd Camera
JP2009212641A (en) * 2008-03-03 2009-09-17 Ricoh Co Ltd Unit and method for controlling white balance and recording medium for recording control processing program
JP2010093689A (en) * 2008-10-10 2010-04-22 Panasonic Corp Image pickup device
JP2013153248A (en) * 2012-01-24 2013-08-08 Casio Comput Co Ltd Image pickup device, white balance control method, and white balance control program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007180629A (en) * 2005-12-27 2007-07-12 Samsung Techwin Co Ltd Camera
JP2009212641A (en) * 2008-03-03 2009-09-17 Ricoh Co Ltd Unit and method for controlling white balance and recording medium for recording control processing program
JP2010093689A (en) * 2008-10-10 2010-04-22 Panasonic Corp Image pickup device
JP2013153248A (en) * 2012-01-24 2013-08-08 Casio Comput Co Ltd Image pickup device, white balance control method, and white balance control program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3883236A1 (en) 2020-03-16 2021-09-22 Canon Kabushiki Kaisha Information processing apparatus, imaging apparatus, method, and storage medium
US11575841B2 (en) 2020-03-16 2023-02-07 Canon Kabushiki Kaisha Information processing apparatus, imaging apparatus, method, and storage medium
CN114339028A (en) * 2021-11-17 2022-04-12 深圳天珑无线科技有限公司 Photographing method, electronic device and computer-readable storage medium
CN114339028B (en) * 2021-11-17 2023-07-18 深圳天珑无线科技有限公司 Photographing method, electronic device and computer readable storage medium

Also Published As

Publication number Publication date
JP6606981B2 (en) 2019-11-20

Similar Documents

Publication Publication Date Title
JP4254841B2 (en) Imaging apparatus, imaging method, image processing apparatus, image processing method, and image processing program
US9092659B2 (en) Subject determination apparatus that determines whether or not subject is specific subject
US8860840B2 (en) Light source estimation device, light source estimation method, light source estimation program, and imaging apparatus
US9420195B2 (en) Imaging apparatus, imaging method and recording medium
US10382671B2 (en) Image processing apparatus, image processing method, and recording medium
US20160044222A1 (en) Detecting apparatus, detecting method and computer readable recording medium recording program for detecting state in predetermined area within images
US9210326B2 (en) Imaging apparatus which controls display regarding capturing, imaging method, and storage medium
US8582813B2 (en) Object detection device which detects object based on similarities in different frame images, and object detection method and computer-readable medium recording program
JP6904788B2 (en) Image processing equipment, image processing methods, and programs
US10401174B2 (en) Posture estimating apparatus for estimating posture, posture estimating method and recording medium
JP2006080942A (en) Image processing apparatus, image processing program, image processing method, and imaging apparatus
US8502882B2 (en) Image pick-up apparatus, white balance setting method and recording medium
JP6606981B2 (en) Output control device, output control method, and program
JP2010183460A (en) Image capturing apparatus and method of controlling the same
JP2014007528A (en) Image processing apparatus and control method thereof
JP2011041143A (en) Image processing apparatus
JP2018107741A (en) Image processing system, image processing method, and program
JP6597262B2 (en) Image processing apparatus, image processing method, and program
JP6601062B2 (en) Imaging control apparatus, imaging control method, and program
JP5794413B2 (en) Image processing apparatus, image processing method, and program
JP2010271507A (en) Imaging device, exposure adjustment method, and program
JP6627418B2 (en) Image processing apparatus, image processing method, and program
JP2004221637A (en) Electronic camera
JP2008053954A (en) Digital camera
JP2009077223A (en) Image display device, and image display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191007

R150 Certificate of patent or registration of utility model

Ref document number: 6606981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150