JP2010028418A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2010028418A
JP2010028418A JP2008186941A JP2008186941A JP2010028418A JP 2010028418 A JP2010028418 A JP 2010028418A JP 2008186941 A JP2008186941 A JP 2008186941A JP 2008186941 A JP2008186941 A JP 2008186941A JP 2010028418 A JP2010028418 A JP 2010028418A
Authority
JP
Japan
Prior art keywords
information
feature
image data
face
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008186941A
Other languages
Japanese (ja)
Inventor
Yuki Miura
夕季 三浦
Eiji Abu
栄二 阿武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008186941A priority Critical patent/JP2010028418A/en
Publication of JP2010028418A publication Critical patent/JP2010028418A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To achieve the high-precision continuous setting of a face region in image data successively formed from a CCD image sensor even if the face of a person is turned from a front to a side. <P>SOLUTION: A digital camera 1 includes: a CCD image sensor 12; a flash memory 16 where face information is stored; a controller 17 for determining whether the face information exists or not in the image data formed from the CCD image sensor 12; a controller 17 for setting a face region in a position where the face information is determined to exist in the image data when it is determined that the face information exists, and storing the color information of the image data in the face region in a buffer memory 15; and a controller 17 for setting the face region in the image data based on the color information when it is determined that the face information does not exist and when the color information is stored in the buffer memory 15. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、デジタルカメラ等の撮像装置に関する。   The present invention relates to an imaging apparatus such as a digital camera.

従来の撮像装置には、特許文献1に記載されるものが存在する。特許文献1の撮像装置は、「動画像において追尾対象の顔の検出ができない状況が生じた場合であっても、被写体の追跡を継続可能とする」ものである。   There exist some which are described in patent document 1 in the conventional imaging device. The imaging apparatus disclosed in Patent Document 1 is “to enable tracking of a subject even when a situation occurs in which a face to be tracked cannot be detected in a moving image”.

特許文献1の撮像装置は、「過去に検出された顔の位置に基づいて現在の顔のおおまかな位置を推定し、このおおまかな位置に対応する複数の周囲情報を取得し、過去に取得された周囲情報に最も類似する周囲情報が取得された位置に基づいて現在の顔の位置を推定する」ものである。
特開2007−42072号公報
The imaging apparatus disclosed in Patent Document 1 “estimates the approximate position of the current face based on the position of the face detected in the past, acquires a plurality of surrounding information corresponding to the approximate position, and is acquired in the past. The current face position is estimated on the basis of the position where the surrounding information most similar to the surrounding information is acquired. "
JP 2007-42072 A

上記のように、一般的な撮像装置では、顔に関する情報(以下、顔情報と称す)を用いて、人物の顔をパターンマッチングで検出することが可能になっている。   As described above, in a general imaging apparatus, it is possible to detect a person's face by pattern matching using information related to a face (hereinafter referred to as face information).

しかしながら、撮像装置は、カメラに対して正面を向いている人物が横を向いてしまうと、撮像素子で生成される画像データから顔を検出できなくなる。すなわち、撮像装置は、正面に向きの人物に対しては、高い精度で顔を検出できるが、横を向いた人物に対しては、高い精度で顔を検出することができない。これは、顔情報に、顔の形、顔の色、目や鼻の位置などのテンプレート情報を利用しているからである。   However, the imaging device cannot detect a face from image data generated by the imaging device if a person facing the front of the camera faces sideways. That is, the imaging apparatus can detect a face with high accuracy for a person facing forward, but cannot detect a face with high accuracy for a person facing sideways. This is because template information such as the shape of the face, the color of the face, and the positions of the eyes and nose is used for the face information.

要するに、パターンマッチングでは、被写体が所定の方向を向いている場合、精度高く被写体を検出できる。しかし、被写体が所定の方向以外を向いた場合は、被写体の検出精度が極端に低くなる。   In short, in pattern matching, a subject can be detected with high accuracy when the subject faces a predetermined direction. However, when the subject faces in a direction other than the predetermined direction, the subject detection accuracy becomes extremely low.

そこで本発明は、上記課題を解決するため、被写体が所定の方向を向いている状態から所定の方向以外を向いた場合であっても、撮像手段から順次生成される画像データに対して、被写体に関する領域を高い精度で継続設定できる撮像装置を提供することを目的とする。   Therefore, in order to solve the above-described problem, the present invention is directed to image data that is sequentially generated from the imaging unit, even when the subject is facing a predetermined direction, even when the subject is facing a direction other than the predetermined direction. An object of the present invention is to provide an imaging device capable of continuously setting a region related to a high accuracy.

すなわち、本発明の撮像装置は、光学系で形成された被写体像を撮像して、画像データを順次生成する撮像手段と、被写体の特徴を示す第1特徴情報を記憶した記憶媒体と、
前記撮像手段から生成される画像データ内において、前記記憶された第1特徴情報が存在するか否かを判別する判別手段と、前記判別手段によって前記第1特徴情報が存在すると判別された場合、前記画像データ内において前記第1特徴情報が存在すると判別された位置に、特徴領域を設定するとともに、当該設定された特徴領域内の画像データの特徴を示す第2特徴情報を前記記憶媒体に記憶する第1設定手段と、前記判別手段によって前記第1特徴情報が存在しないと判別された場合であって、前記記憶媒体に第2特徴情報が記憶されている場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する第2設定手段と、を備える。
That is, the imaging apparatus of the present invention captures a subject image formed by an optical system and sequentially generates image data, a storage medium storing first feature information indicating the characteristics of the subject,
In the image data generated from the imaging means, when it is determined that the first feature information is present by the determining means for determining whether or not the stored first feature information exists, and the determining means, A feature region is set at a position where it is determined that the first feature information exists in the image data, and second feature information indicating the feature of the image data in the set feature region is stored in the storage medium. If the first feature information is determined not to exist by the first setting means and the determination means, and the second feature information is stored in the storage medium, the stored second feature Second setting means for setting the feature region in the image data based on the information.

このようにすれば、画像データ内に第1特徴情報が存在しない場合であっても、第2特徴情報に基づいて特徴領域を設定することができる。   In this way, even if the first feature information does not exist in the image data, the feature region can be set based on the second feature information.

また、好ましくは、前記第2設定手段は、前記記憶された第2特徴情報の内容に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。   Preferably, the second setting means determines whether to set a feature region based on the second feature information according to the content of the stored second feature information, and sets the feature region to If it is determined to set, the feature region is set in the image data based on the stored second feature information.

また、好ましくは、前記撮像手段から順次生成される画像データに対して、前記第1設定手段が特徴領域を継続して設定した回数を第1設定回数として計数する第1計数手段をさらに備える。そして、前記第2設定手段は、前記第1計数手段で計数した設定回数に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。   Preferably, the image processing apparatus further includes first counting means for counting the number of times that the first setting means has continuously set the characteristic area for the image data sequentially generated from the imaging means as the first setting number. Then, the second setting means determines whether to set a feature area based on the second feature information according to the number of times set by the first counting means, and determines to set the feature area. In this case, the feature region is set in the image data based on the stored second feature information.

また、好ましくは、前記撮像手段から順次生成される画像データに対して、前記第1設定手段が特徴領域を設定してから、特徴領域を設定しなくなるまでの時間を第1設定時間として計時する第1計時手段をさらに備える。そして前記第2設定手段は、前記第1計時手段で計時される第1設定時間に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。   Preferably, for the image data sequentially generated from the imaging unit, the time from when the first setting unit sets the feature region until the feature region is not set is counted as the first set time. First timing means is further provided. The second setting means determines whether or not to set a feature area based on the second feature information according to the first set time counted by the first timing means, and sets the feature area. If so, the feature region is set in the image data based on the stored second feature information.

また、好ましくは、撮影環境の明るさに関する情報を取得する輝度取得手段をさらに備える。そして前記第2設定手段は、前記輝度取得手段が取得した明るさに関する情報に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。   Preferably, the apparatus further includes luminance acquisition means for acquiring information related to the brightness of the shooting environment. Then, the second setting unit determines whether to set a feature region based on the second feature information according to the information on the brightness acquired by the luminance acquisition unit, and determines to set the feature region. In this case, the feature region is set in the image data based on the stored second feature information.

また、好ましくは、前記第1設定手段は、前記判別手段によって前記第1特徴情報が存在すると判別された場合、さらに、前記画像データ内において前記第1特徴情報が存在すると判別された位置によって指定される特定領域内の画像データの特徴を示す第3特徴情報を前記記憶媒体に記憶する。そして、前記第2設定手段は、前記記憶された第3特徴情報の内容に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。   Preferably, the first setting means is designated by a position where it is determined that the first feature information exists in the image data when the determination means determines that the first feature information exists. The third feature information indicating the feature of the image data in the specific area is stored in the storage medium. Then, the second setting means determines whether to set a feature region based on the second feature information according to the content of the stored third feature information, and determines to set the feature region. In this case, the feature region is set in the image data based on the stored second feature information.

また、好ましくは、前記撮像手段から順次生成される画像データに対して、前記第2設定手段が特徴領域を継続して設定した回数を第2設定回数として計数する第2計数手段をさらに備える。そして、前記第2設定手段は、前記第2計数手段で計数される第2設定回数に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。   Preferably, the image processing apparatus further includes second counting means for counting the number of times that the second setting means has continuously set the characteristic area as the second setting number for the image data sequentially generated from the imaging means. The second setting means determines whether or not to set a feature area based on the second feature information according to the second set count counted by the second counting means. If it is determined to set, the feature region is set in the image data based on the stored second feature information.

また、好ましくは、前記撮像手段から順次生成される画像データに対して、前記第2設定手段が特徴領域を設定してから、特徴領域を設定しなくなるまでの時間を第2設定時間として計時する第2計時手段をさらに備える。そして前記第2設定手段は、前記第2計時手段で計時される第2設定時間に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。   Preferably, for the image data sequentially generated from the imaging unit, the time from when the second setting unit sets the feature region until the feature region is not set is counted as a second set time. Second timing means is further provided. The second setting means determines whether or not to set a feature area based on the second feature information according to a second set time counted by the second timing means, and sets the feature area If so, the feature region is set in the image data based on the stored second feature information.

また、好ましくは、前記第2設定手段は、さらに第2特徴情報に基づく特徴領域を設定させる位置に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。   Preferably, the second setting means further determines whether or not to set the feature region based on the second feature information according to a position where the feature region based on the second feature information is set, and If it is determined that a feature area is to be set, the feature area is set in the image data based on the stored second feature information.

また、好ましくは、自装置の移動に関する情報を取得する移動情報取得手段をさらに備える。そして前記第2設定手段は、前記移動量取得手段が取得した移動に関する情報に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する。   Preferably, the information processing apparatus further includes movement information acquisition means for acquiring information related to movement of the own apparatus. Then, the second setting means determines whether or not to set a feature area based on the second feature information according to the information related to movement acquired by the movement amount acquisition means, and determines to set the feature area. In this case, the feature region is set in the image data based on the stored second feature information.

また、好ましくは、前記第1特徴情報は、顔に関する情報であり、前記第2特徴情報は、色に関する情報である。   Preferably, the first feature information is information relating to a face, and the second feature information is information relating to a color.

また、好ましくは、前記特徴領域は、顔領域である。   Preferably, the feature area is a face area.

すなわち、本発明の撮像装置によれば、画像データ内に第1特徴情報が存在しない場合、第2特徴情報に基づいて特徴領域を設定することにより、被写体が所定の方向を向いている状態から所定の方向以外を向いた場合であっても、撮像手段から順次生成される画像データに対して、被写体に関する領域を高い精度で継続設定できる。   That is, according to the imaging apparatus of the present invention, when the first feature information does not exist in the image data, the feature region is set based on the second feature information, so that the subject is facing the predetermined direction. Even when facing in a direction other than a predetermined direction, the area related to the subject can be continuously set with high accuracy for the image data sequentially generated from the imaging means.

以下、本発明の一実施の形態を、図面を参照して説明する。本発明をデジタルカメラに適用した例を説明する。
(実施の形態1)
1.デジタルカメラの概要
デジタルカメラ1は、CCDイメージセンサー12から生成された画像データ内に、フラッシュメモリ16に予め記憶された顔情報が存在するか否かを判別する(画像データ内から、顔を検出する)。デジタルカメラ1は、画像データに、1個の顔情報が存在すると判別した場合(1個の顔が検出できた場合)、顔領域を設定するとともに、第1顔領域内の画像データの特徴を示す色情報をバッファメモリ15に記憶する。一方、デジタルカメラ1は、画像データに、顔情報が存在しないと判別した場合であって、バッファメモリ15に色情報が記憶されている場合、色情報に基づいて画像データ内に顔領域を設定する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. An example in which the present invention is applied to a digital camera will be described.
(Embodiment 1)
1. Overview of Digital Camera The digital camera 1 determines whether or not face information stored in advance in the flash memory 16 is present in the image data generated from the CCD image sensor 12 (detects a face from the image data). To do). When the digital camera 1 determines that one piece of face information exists in the image data (when one face can be detected), the digital camera 1 sets the face area, and the characteristics of the image data in the first face area are set. The indicated color information is stored in the buffer memory 15. On the other hand, when the digital camera 1 determines that face information does not exist in the image data and the color information is stored in the buffer memory 15, a face area is set in the image data based on the color information. To do.

なお、デジタルカメラ1が、画像データに複数個の顔情報が存在すると判別した場合、画像データに複数個の顔領域を設定する。デジタルカメラ1は、設定された顔領域の内、主要被写体を選択する。デジタルカメラ1は、主要被写体として選択された顔領域内の画像データの特徴を示す色情報をバッファメモリ15に記憶する。   If the digital camera 1 determines that there are a plurality of pieces of face information in the image data, a plurality of face areas are set in the image data. The digital camera 1 selects a main subject in the set face area. The digital camera 1 stores color information indicating the characteristics of image data in the face area selected as the main subject in the buffer memory 15.

2.構成
図1は、本実施の形態に係るデジタルカメラ1の斜視図である。図2は、本実施の形態に係るデジタルカメラ1の構成を示すブロック図である。以下、具体的に構成を説明する。
2. Configuration FIG. 1 is a perspective view of a digital camera 1 according to the present embodiment. FIG. 2 is a block diagram showing a configuration of the digital camera 1 according to the present embodiment. The configuration will be specifically described below.

光学系11は、被写体からの光学信号を集光してCCDイメージセンサー12上に被写体像を形成する。光学系11は、対物レンズ111とズームレンズ112とフォーカスレンズ113と絞り/シャッタ114とを含む。   The optical system 11 collects optical signals from the subject and forms a subject image on the CCD image sensor 12. The optical system 11 includes an objective lens 111, a zoom lens 112, a focus lens 113, and an aperture / shutter 114.

ズームレンズ112は、ズーム駆動部115によって駆動され、被写体像の写る範囲(画角)を調整する。すなわち、ズームレンズ112は、焦点距離を調整可能である。フォーカスレンズ113は、フォーカス駆動部116によって駆動され、ピントの調節を行なう。ズーム駆動部115は、ズームレンズ112を移動するためのカム機構やカム機構を駆動するためのアクチュエータなどを備えて構成され、コントローラ17からの制御に応じて、ズームレンズ112を駆動させる。フォーカス駆動部116は、フォーカスレンズ113を移動するためのカム機構やカム機構を駆動するためのアクチュエータなどを備えて構成される。フォーカス駆動部116は、コントローラ17からの制御に応じて、フォーカスレンズ113を駆動させる。   The zoom lens 112 is driven by the zoom driving unit 115 and adjusts the range (view angle) in which the subject image is captured. That is, the zoom lens 112 can adjust the focal length. The focus lens 113 is driven by the focus drive unit 116 to adjust the focus. The zoom drive unit 115 includes a cam mechanism for moving the zoom lens 112 and an actuator for driving the cam mechanism, and drives the zoom lens 112 in accordance with control from the controller 17. The focus driving unit 116 includes a cam mechanism for moving the focus lens 113, an actuator for driving the cam mechanism, and the like. The focus driving unit 116 drives the focus lens 113 in accordance with control from the controller 17.

また、絞り/シャッタ114は、絞りとシャッタを兼用した部材である。絞り/シャッタ114は、絞り/シャッタ駆動部117によって駆動される。絞りは、5枚の羽根によって構成され、光学系11を通る光の量を調整するものである。また、シャッタは、開けたり閉じられたりして、CCDイメージセンサー12に当たる光の量を時間的に調整するものである。絞り/シャッタ駆動部117は、カム機構やカム機構を駆動するためのアクチュエータなどを備えて構成され、コントローラ17からの制御に応じて、絞り/シャッタを駆動する。   The diaphragm / shutter 114 is a member that serves as both a diaphragm and a shutter. The aperture / shutter 114 is driven by an aperture / shutter driver 117. The stop is composed of five blades and adjusts the amount of light passing through the optical system 11. The shutter is opened and closed to adjust the amount of light hitting the CCD image sensor 12 with time. The aperture / shutter drive unit 117 includes a cam mechanism and an actuator for driving the cam mechanism, and drives the aperture / shutter in accordance with control from the controller 17.

なお、本実施の形態では、絞りとシャッタを兼用した絞り/シャッタ114を備えるようにしたが、これに限られず、絞りとシャッタとを別々に設けるようにしても良い。この場合、例えば、シャッタは光学系内に設けず、絞りだけを光学系に設けるとよい。この際、シャッタは、光学系とCCDイメージセンサーの間に設けるとよい。このようにすれば、シャッタを光学系と別の部材で設けたので、レンズ交換タイプのデジタルカメラにも適用できるようになる。   In the present embodiment, the diaphragm / shutter 114 that serves both as a diaphragm and a shutter is provided. However, the present invention is not limited to this, and the diaphragm and the shutter may be provided separately. In this case, for example, the shutter is not provided in the optical system, and only the diaphragm is provided in the optical system. At this time, the shutter may be provided between the optical system and the CCD image sensor. In this way, since the shutter is provided by a member different from the optical system, it can be applied to a lens exchange type digital camera.

CCDイメージセンサー12は、光学系11によって形成された被写体像を撮像して画像データを生成する。CCDイメージセンサー12は、タイミングジェネレータ121から供給されるパルス信号に基づいて、被写体像を撮像し、画像データを生成する。タイミングジェネレータ121は、LSIなどの集積回路によって構成され、CCDイメージセンサー12にパルス信号を供給する。ここでタイミングジェネレータ121がCCDイメージセンサー12に供給するパルス信号は、例えば、1秒間に30回のフレーム読み出しパルス信号を供給する。これによって、CCDイメージセンサー12では、30分の1秒ごとのフレームの画像データを取得できるようになる。   The CCD image sensor 12 captures a subject image formed by the optical system 11 and generates image data. The CCD image sensor 12 captures a subject image based on the pulse signal supplied from the timing generator 121 and generates image data. The timing generator 121 is configured by an integrated circuit such as an LSI and supplies a pulse signal to the CCD image sensor 12. Here, the pulse signal that the timing generator 121 supplies to the CCD image sensor 12 supplies, for example, 30 frame readout pulse signals per second. As a result, the CCD image sensor 12 can acquire image data of a frame every 1/30 second.

ADコンバータ13は、CCDイメージセンサー12で生成された画像データをデジタルデータに変換する。   The AD converter 13 converts the image data generated by the CCD image sensor 12 into digital data.

画像処理部14は、デジタルデータに変換された画像データに対して所定の処理を施す。所定の処理としては、ガンマ変換、YC変換、電子ズーム処理、圧縮処理、伸張処理などが考えられるが、これに限定されるものではない。   The image processing unit 14 performs predetermined processing on the image data converted into digital data. As the predetermined processing, gamma conversion, YC conversion, electronic zoom processing, compression processing, expansion processing, and the like can be considered, but are not limited thereto.

バッファメモリ15は、画像処理部14で画像処理を行う際、および、コントローラ17で制御処理を行う際に、ワークメモリとして作用する。バッファメモリ15は、例えば、DRAMなどで実現可能である。   The buffer memory 15 functions as a work memory when the image processing unit 14 performs image processing and when the controller 17 performs control processing. The buffer memory 15 can be realized by, for example, a DRAM.

フラッシュメモリ16は、内蔵メモリとして用いられる。フラッシュメモリ16は、画像処理された画像データの他に、コントローラ17の制御のためのプログラムや設定値などを記憶可能である。本実施の形態では、顔情報が記憶されている。顔情報は、画像データ内から人物の顔を検出するために用いられるものである。つまり、顔情報は、画像データ内に、顔情報が存在するか否かを判別する際に用いられるものである。顔情報には、例えば、顔全体の輪郭や顔の構成要素(目、鼻、耳など)に対応したテンプレート情報が考えられる。   The flash memory 16 is used as a built-in memory. The flash memory 16 can store programs for controlling the controller 17 and setting values in addition to the image processed image data. In the present embodiment, face information is stored. The face information is used to detect a person's face from the image data. That is, the face information is used when determining whether face information exists in the image data. As the face information, for example, template information corresponding to the contour of the entire face and facial components (eyes, nose, ears, etc.) can be considered.

コントローラ17は、デジタルカメラ1の各部を制御する。コントローラ17は、マイクロコンピュータで実現してもよく、ハードワイヤードな回路で実現しても良い。なお、コントローラ17の各種制御は、3.コントローラの各種制御で詳細に説明する。 The controller 17 controls each part of the digital camera 1. The controller 17 may be realized by a microcomputer or a hard-wired circuit. Various controls of the controller 17 are as follows . This will be described in detail in various controls of the controller .

ぶれ検出器30は、ジャイロセンサーなどで構成されるものであり、自装置の振動を検出する。ぶれ検出器30は、デジタルカメラ1の水平軸を中心とした上下方向の回転振動を検知する第1のジャイロセンサーと、デジタルカメラ1の鉛直軸を中心とした左右方向の回転振動を検知する第2のジャイロセンサーとを備える。つまり、ぶれ検出器30は、デジタルカメラ1の動き角速度を検出する。なお、コントローラ17は、ぶれ検出器30から動き角速度を取得して、この角速度を積分して、デジタルカメラ1の角速度を算出する。この角速度が、デジタルカメラ1のぶれ量である。ぶれ量は、例えば、−300〜300deg/secのような値で算出される。   The shake detector 30 is composed of a gyro sensor or the like, and detects vibration of the own device. The shake detector 30 detects a first gyro sensor that detects vertical rotational vibration about the horizontal axis of the digital camera 1 and a first rotational sensor that detects horizontal rotational vibration about the vertical axis of the digital camera 1. 2 gyro sensors. That is, the shake detector 30 detects the motion angular velocity of the digital camera 1. The controller 17 obtains the motion angular velocity from the shake detector 30 and integrates this angular velocity to calculate the angular velocity of the digital camera 1. This angular velocity is the shake amount of the digital camera 1. The shake amount is calculated by a value such as −300 to 300 deg / sec, for example.

カードスロット18は、メモリカード19を着脱するためのスロットである。カードスロット18は、メモリカード19を制御する機能を有するようにしてもよい。メモリカード19は、フラッシュメモリなどを内蔵する。メモリカード19は、画像処理部14によって画像処理された画像データを格納可能である。   The card slot 18 is a slot for inserting and removing the memory card 19. The card slot 18 may have a function of controlling the memory card 19. The memory card 19 includes a flash memory or the like. The memory card 19 can store the image data image-processed by the image processing unit 14.

液晶モニタ20は、画像データおよびデジタルカメラ1の各種設定等を表示する。なお、液晶モニタ20に替えて、有機ELディスプレイなどを用いることもできる。   The liquid crystal monitor 20 displays image data and various settings of the digital camera 1. Note that an organic EL display or the like can be used instead of the liquid crystal monitor 20.

操作部21は、デジタルカメラ1の外装に取り付けられた操作部材の総称である。操作部21としては、十字キーや押下釦等が考えられる。   The operation unit 21 is a general term for operation members attached to the exterior of the digital camera 1. The operation unit 21 may be a cross key or a push button.

本実施の形態では、操作部の一つの押下釦として、シャッタスイッチ211がある。シャッタスイッチ211は、デジタルカメラ1の上面に設けられるものであり、使用者からの半押しおよび全押しを検知できるようにしたものである。使用者によって半押し又は全押し操作が行なわれると、シャッタスイッチ211は操作に応じた操作信号をコントローラ17に出力する。   In the present embodiment, there is a shutter switch 211 as one push button of the operation unit. The shutter switch 211 is provided on the upper surface of the digital camera 1 and can detect half-press and full-press from the user. When a half-press or full-press operation is performed by the user, the shutter switch 211 outputs an operation signal corresponding to the operation to the controller 17.

また本実施の形態では、操作部21の一つの部材としてズームレバー212が備えられている。ズームレバー212は、使用者からの操作に応じて、デジタルカメラ1の焦点距離を変更するものである。ズームレバー212は、使用者に操作されると、操作信号をコントローラ17に出力する。これによって、コントローラ17は、ズームレンズ112に対して焦点距離を変更するための制御信号を送ることができる。   In the present embodiment, a zoom lever 212 is provided as one member of the operation unit 21. The zoom lever 212 changes the focal length of the digital camera 1 in accordance with an operation from the user. The zoom lever 212 outputs an operation signal to the controller 17 when operated by the user. As a result, the controller 17 can send a control signal for changing the focal length to the zoom lens 112.

3.コントローラの各種制御
コントローラ17は、フラッシュメモリ16に記憶された顔情報に基づいて、CCDイメージセンサー12で生成された画像データ内に顔情報が存在するか否かを判別する。
3. Based on the face information stored in the flash memory 16, the various control controllers 17 of the controller determine whether or not face information exists in the image data generated by the CCD image sensor 12.

コントローラ17は、画像データ内に1個又は複数個の顔情報が存在すると判別した場合、画像データに顔領域を設定する。この後、コントローラ17は、顔領域内の画像データに対応する色情報をバッファメモリ15に記憶する。一方、コントローラ17は、画像データ内に顔情報が存在しないと判別した場合であって、バッファメモリ15に色情報が記憶されている場合、色情報に基づいて画像データに顔領域を設定する。   When the controller 17 determines that one or more pieces of face information exist in the image data, the controller 17 sets a face area in the image data. Thereafter, the controller 17 stores the color information corresponding to the image data in the face area in the buffer memory 15. On the other hand, when the controller 17 determines that face information does not exist in the image data and color information is stored in the buffer memory 15, the controller 17 sets a face area in the image data based on the color information.

なお、コントローラ17は、画像データに顔領域を設定した場合、顔領域を設定した画像データを液晶モニタ20に表示させる。   When the face area is set in the image data, the controller 17 causes the liquid crystal monitor 20 to display the image data in which the face area is set.

3−1 画像データ内に顔情報が存在するか否かの判別
コントローラ17は、画像データ内に、フラッシュメモリ16に記憶された顔情報が存在するか否かを判別する。具体的に、コントローラ17は、フラッシュメモリ16から顔情報を読み出す。コントローラ17は、テンプレートマッチングによって、画像データ内に顔情報が存在するか否かを判別する。テンプレートマッチングは、従来技術であるので説明を割愛する。
3-1. Determination of whether face information is present in image data The controller 17 determines whether face information stored in the flash memory 16 is present in the image data. Specifically, the controller 17 reads face information from the flash memory 16. The controller 17 determines whether or not face information exists in the image data by template matching. Since template matching is a conventional technique, description thereof is omitted.

3−2 3−1で1個の顔情報が存在すると判別された場合の制御
コントローラ17は、3−1で画像データ内に1個の顔情報が存在すると判別された場合、画像データ内において顔情報が存在すると判別された位置に、顔領域を設定する(図3A)。この後、コントローラ17は、顔領域内の画像データに対応する色情報をバッファメモリ15に記憶する(図3A)。この際、コントローラ17は、画像データ内において顔領域が設定された位置を設定位置としてバッファメモリ15に記憶する。色情報と設定位置は関連付けて記憶しておくと、コントローラ17はこれらの情報を使用する際、簡単によみだせるようになる。設定位置は、顔領域の左上端の位置情報を用いるとよい。
3-2 When the controller 17 determines that there is one face information in 3-1, the controller 17 determines in the image data that there is one face information in the image data. A face area is set at a position where it is determined that face information exists (FIG. 3A). Thereafter, the controller 17 stores color information corresponding to the image data in the face area in the buffer memory 15 (FIG. 3A). At this time, the controller 17 stores the position where the face area is set in the image data in the buffer memory 15 as the set position. If the color information and the setting position are stored in association with each other, the controller 17 can easily find out when using the information. As the setting position, position information on the upper left end of the face area may be used.

本実施の形態で、顔領域内の画像データにおける色情報は、画像データの各画素を色相の色空間に変換したものを用いている。ここで色相は、0〜360度の位相角として角度により表すことができる。すなわち、色空間がHSV色空間である場合、図4のように、R=0/G=120/B=240の位置関係で表現できる。したがって、例えば、図4において、該当色の角度は、θとなる。これによって、画像データにおける色情報を、ヒストグラムで表現できるようにしている。なお、本実施の形態では、0〜359度を40分割して、各領域内に存在する画素の数を計算するようにしている。図5のヒストグラムの横軸は、分割した領域(「1」〜「40」、例えば「1」は、0〜8度に対応)を表しており、縦軸は、第1顔領域内に存在する各領域の画素の数を表している。   In this embodiment, the color information in the image data in the face area is obtained by converting each pixel of the image data into a hue color space. Here, the hue can be expressed by an angle as a phase angle of 0 to 360 degrees. That is, when the color space is the HSV color space, it can be expressed by a positional relationship of R = 0 / G = 120 / B = 240 as shown in FIG. Therefore, for example, in FIG. 4, the angle of the corresponding color is θ. Thereby, the color information in the image data can be expressed by a histogram. In the present embodiment, 0 to 359 degrees are divided into 40, and the number of pixels existing in each region is calculated. The horizontal axis of the histogram in FIG. 5 represents divided areas (“1” to “40”, for example, “1” corresponds to 0 to 8 degrees), and the vertical axis exists in the first face area. This represents the number of pixels in each area.

3−3 3−1で複数個の顔情報が存在すると判別された場合の制御
コントローラ17は、3−1で複数個の顔情報が存在すると判別された場合、画像データに複数個の顔領域を設定し、顔領域の中から主要被写体を決定する。主要被写体の決定方法は、従来技術と同様であるが、例えば、顔領域内の画像データで最も画像の中心位置に近い領域を、主要被写体の領域として選択すると良い。なお、サイズの大きい領域を、主要被写体の領域として設定してもよい。
3-3 When the controller 17 determines that a plurality of face information is present in 3-1, the controller 17 determines that a plurality of face information is present in 3-1. And determine the main subject from the face area. The method for determining the main subject is the same as in the conventional technique. For example, an area closest to the center position of the image in the image data in the face area may be selected as the main subject area. An area having a large size may be set as the area of the main subject.

コントローラ17は、主要被写体の顔領域を選択すると、この主要被写体の顔領域内の画像データの特徴を示す色情報をバッファメモリ15に記憶する。この際、画像データ内において顔領域が設定された位置を設定位置としてバッファメモリ15に記憶する。   When the controller 17 selects the face area of the main subject, the controller 17 stores color information indicating the characteristics of the image data in the face area of the main subject in the buffer memory 15. At this time, the position where the face area is set in the image data is stored in the buffer memory 15 as the set position.

なお、複数個の全て又はいくつかの顔領域について、色情報と設定位置を記憶するようにしてもよい。   Note that color information and setting positions may be stored for all or some of the plurality of face regions.

3−4 3−1で顔情報が存在しないと判別された場合の制御
コントローラ17は、3−1で顔情報が存在しないと判別された場合であって、バッファメモリ15に色情報が記憶されている場合、色情報に基づいて顔領域を設定する。
3-4 When the controller 17 determines that face information does not exist in 3-1, the controller 17 determines that face information does not exist in 3-1, and the color information is stored in the buffer memory 15. If so, the face area is set based on the color information.

具体的に、コントローラ17は、バッファメモリ15から色情報及び設定位置を読み出す。次にコントローラ17は、図3Bのように、設定位置から所定領域(以下、探索領域と称す)内に含まれる画像データにおいて、色情報に最も近似する領域を探索する。色情報に最も近似する領域の探索方法は、従来技術であるため、詳細は割愛する。この後、コントローラ17は、探索領域内の画像データにおいて色情報が最も近似する領域に、顔領域を設定する。   Specifically, the controller 17 reads color information and a set position from the buffer memory 15. Next, as shown in FIG. 3B, the controller 17 searches for an area closest to the color information in the image data included in a predetermined area (hereinafter referred to as a search area) from the set position. The method for searching for the area that most closely approximates the color information is a conventional technique, and therefore details are omitted. Thereafter, the controller 17 sets the face area in the area where the color information is most approximated in the image data in the search area.

なお、コントローラ17は、3−1で顔領域が存在しないと判別された場合であって、バッファメモリ15に色情報が記憶されていない場合、第2顔領域を設定しない。また、コントローラ17は、画像データの探索領域内に所定レベル以上で近似した色情報が存在しない場合、第2顔領域を設定しないようにするとよい。   Note that the controller 17 does not set the second face area when it is determined in 3-1 that the face area does not exist and color information is not stored in the buffer memory 15. The controller 17 may not set the second face area when there is no color information approximated at a predetermined level or higher in the search area of the image data.

4.実施の形態と本発明の対比
デジタルカメラ1は、本発明の撮像装置の一例である。CCDイメージセンサー12は、本発明の撮像手段の一例である。バッファメモリ15及びフラッシュメモリ16は、本発明の記憶媒体の一例である。コントローラ17は、本発明の判別手段の一例である。コントローラ17は、本発明の第1設定手段の一例である。コントローラ17は、本発明の第1設定手段の一例である。顔情報は、本発明の第1特徴情報の一例である。色情報は、本発明の第2特徴情報の一例である。顔領域は、本発明の特徴領域の一例である。
4). The comparison digital camera 1 according to the embodiment and the present invention is an example of an imaging apparatus according to the present invention. The CCD image sensor 12 is an example of an imaging unit of the present invention. The buffer memory 15 and the flash memory 16 are examples of the storage medium of the present invention. The controller 17 is an example of a determination unit of the present invention. The controller 17 is an example of a first setting unit of the present invention. The controller 17 is an example of a first setting unit of the present invention. The face information is an example of first feature information of the present invention. The color information is an example of second feature information of the present invention. The face area is an example of the characteristic area of the present invention.

5.動作
上記のように構成したデジタルカメラ1の動作を説明する。この動作例は、デジタルカメラ1の電源がOFFからONに変更された後、デジタルカメラ1がポートレートモードのような被写体撮影モードに設定された場合に行なわれる。
5. Operation The operation of the digital camera 1 configured as described above will be described. This operation example is performed when the digital camera 1 is set to a subject photographing mode such as a portrait mode after the power of the digital camera 1 is changed from OFF to ON.

5−1.基本的な動作(図6)
まず、コントローラ17は、CCDイメージセンサー121を制御して、CCDイメージセンサー12を駆動させる。CCDイメージセンサー12は、画像データを生成する(A1)。次に、コントローラ17は、フラッシュメモリ16から顔情報を読み出す。コントローラ17は、CCDイメージセンサー12で生成された画像データ内おいて、顔情報が存在するか否かを判別する(A2)。
5-1. Basic operation (Fig. 6)
First, the controller 17 controls the CCD image sensor 121 to drive the CCD image sensor 12. The CCD image sensor 12 generates image data (A1). Next, the controller 17 reads face information from the flash memory 16. The controller 17 determines whether or not face information exists in the image data generated by the CCD image sensor 12 (A2).

コントローラ17は、画像データ内に顔情報を存在すると判別した場合、画像データに顔領域を設定する(A3)。コントローラ17は、画像データ内に複数の顔情報が存在するか否かを判断する(A4)。コントローラ17は、画像データ内に複数の顔領域が存在すると判断した場合、複数の顔領域の中から、主要被写体となる顔領域を選択する(A5)。   If the controller 17 determines that face information exists in the image data, the controller 17 sets a face area in the image data (A3). The controller 17 determines whether or not a plurality of face information exists in the image data (A4). If the controller 17 determines that there are a plurality of face areas in the image data, the controller 17 selects a face area to be the main subject from the plurality of face areas (A5).

コントローラ17は、1個の顔情報が存在する場合、その顔領域、又は、複数の顔情報が存在する場合、主要被写体として選択された顔領域に関して、顔領域内の画像データの色情報及び設定位置をバッファメモリ15に記憶する。すなわち、コントローラ17は、顔領域内の画像データの特徴を示す色情報、及び、画像データにおける顔領域の設定位置を、バッファメモリ15に記憶する(A6)。次に、ステップA9に移行する。   When one face information is present, the controller 17 relates to the color information and setting of the image data in the face area regarding the face area or the face area selected as the main subject when there are a plurality of face information. The position is stored in the buffer memory 15. That is, the controller 17 stores the color information indicating the characteristics of the image data in the face area and the set position of the face area in the image data in the buffer memory 15 (A6). Next, the process proceeds to step A9.

一方、コントローラ17は、ステップA2において、画像データ内に顔情報が存在しないと判別した場合、色情報がバッファメモリ15に記憶されているか否かを判断する(A7)。コントローラ17は、色情報がバッファメモリ15に記憶されていない場合、ステップA1に処理を移行する。一方、コントローラ17は、色情報がバッファメモリ15に記憶されている場合、この色情報及び設定位置をバッファメモリ15から読み出す。そしてコントローラ17は、色情報及び設定位置に基づいて、画像データ内に顔領域を設定する(A8)。   On the other hand, if it is determined in step A2 that face information does not exist in the image data, the controller 17 determines whether color information is stored in the buffer memory 15 (A7). If the color information is not stored in the buffer memory 15, the controller 17 shifts the process to step A1. On the other hand, when the color information is stored in the buffer memory 15, the controller 17 reads the color information and the set position from the buffer memory 15. Then, the controller 17 sets a face area in the image data based on the color information and the setting position (A8).

この後、コントローラ17は、顔領域が設定された画像データを、液晶モニタ20に表示させる(A9)。そしてコントローラ17は、ステップA1に戻り、CCDイメージセンサー12に次の画像データを生成させる。   Thereafter, the controller 17 displays the image data in which the face area is set on the liquid crystal monitor 20 (A9). Then, the controller 17 returns to step A1, and causes the CCD image sensor 12 to generate the next image data.

図7を用いて動作例を説明する。まず、コントローラ17は、図7Aに示すように、画像データに顔情報が存在する場合、顔情報によって、画像データに顔領域を設定する。この際、コントローラ17は、顔領域内の画像データに対応する色情報をバッファメモリ15に記憶する。次にCCDイメージセンサー12から生成される画像データでも同様に、図7Bに示すように、顔情報によって、画像データに顔領域を設定する。この際、コントローラ17は、顔領域内の画像データに対応する色情報をバッファメモリ15に記憶する。図7Cも、図7AやBと同様である。そして、CCDイメージセンサー12から生成された画像データにおいて、図7Dのように、コントローラ17が、画像データ内に顔領域が存在しないと判断した場合、コントローラ17は、バッファメモリ15に記憶された色情報に基づいて、顔領域を設定する。これによって、デジタルカメラ1は、画像データ内に顔領域が存在しないと判断された場合であっても、色情報に基づいて、画像データに顔領域を設定できる。   An operation example will be described with reference to FIG. First, as shown in FIG. 7A, when face information exists in the image data, the controller 17 sets a face area in the image data based on the face information. At this time, the controller 17 stores the color information corresponding to the image data in the face area in the buffer memory 15. Next, in the image data generated from the CCD image sensor 12 as well, as shown in FIG. 7B, a face area is set in the image data based on the face information. At this time, the controller 17 stores the color information corresponding to the image data in the face area in the buffer memory 15. FIG. 7C is similar to FIGS. 7A and B. Then, in the image data generated from the CCD image sensor 12, when the controller 17 determines that no face area exists in the image data as shown in FIG. 7D, the controller 17 stores the color stored in the buffer memory 15. A face area is set based on the information. Accordingly, the digital camera 1 can set the face area in the image data based on the color information even when it is determined that the face area does not exist in the image data.

ここで、上記動作では、顔情報で顔領域を設定できるか否かを判別し、顔領域を設定できない場合、色情報で顔領域を設定するようにした。このようにすれば、色情報の追跡よりも顔情報の追跡を優先できるので、色情報の追跡のように、追跡したい被写体と異なる被写体をいつの間にか追跡してしまうといったことをより軽減できる。すなわち、画像データに顔領域が検出できた場合、色情報が再設定(記憶)されるため、色情報に基づいた顔領域の設定の際、所望の被写体に顔領域を継続して設定しやすくなる。つまり、追跡精度の向上が図れる。   Here, in the above operation, it is determined whether or not the face area can be set with the face information. If the face area cannot be set, the face area is set with the color information. In this way, since tracking of face information can be prioritized over tracking of color information, it is possible to further reduce tracking of a subject that is different from the subject to be tracked, such as tracking of color information. That is, when the face area is detected in the image data, the color information is reset (stored), and therefore, when setting the face area based on the color information, it is easy to continuously set the face area for a desired subject. Become. That is, the tracking accuracy can be improved.

なお、「5−1.基本的な動作(図6)」で基本的な動作を説明したが、以下の場合に、画像データ内に顔情報が存在しない場合(画像データから顔が検出できない場合)に、色情報に基づいて顔領域を設定するようにしてもかまわない。 Although the basic operation has been described in “ 5-1. Basic operation (FIG. 6) ”, in the following cases, when face information does not exist in the image data (when a face cannot be detected from the image data) ), The face area may be set based on the color information.

5−2.色情報の内容を考慮した動作(図8)
上記の構成において、デジタルカメラ1は、画像データ内に顔情報が存在するか否かを判別するようにしている。しかし、画像データ内に顔情報が存在するか否かの判別(以下、顔検出)は、顔でないものを誤検出する可能性がある。そこでデジタルカメラ1は、画像データから顔が検出できない場合、バッファメモリ15に記憶された色情報の内容に応じて、色情報に基づく顔領域の設定を行なうか否かを判断するようにする。デジタルカメラ1は、色情報に基づいて顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-2. Operation considering color information (Fig. 8)
In the above configuration, the digital camera 1 determines whether face information is present in the image data. However, the determination of whether or not face information exists in the image data (hereinafter referred to as face detection) may erroneously detect a non-face. Therefore, when the face cannot be detected from the image data, the digital camera 1 determines whether or not to set the face area based on the color information according to the content of the color information stored in the buffer memory 15. When the digital camera 1 determines that the face area is set based on the color information, the digital camera 1 sets the face area in the image data based on the color information.

コントローラ17は、画像データ内に顔情報が存在しないと判断した場合であって、バッファメモリ15に記憶された色情報が、肌色に関する情報を所定の割合以上(例えば、40パーセント以上)含む場合、色情報に基づいて顔領域を設定すると判断する。肌色に関する情報とは、図5のヒストグラムの場合、例えば、分割した領域「2〜4」(色相角9度〜35度)を用いることができる。このため分割した領域「2〜4」の画素が、ヒストグラムの全画素の内、40パーセント以上か存在すれば、色情報に基づいて顔領域を設定すると判断する。   When the controller 17 determines that the face information does not exist in the image data, and the color information stored in the buffer memory 15 includes information on the skin color at a predetermined ratio or more (for example, 40% or more), It is determined that the face area is set based on the color information. In the case of the histogram of FIG. 5, for example, a divided region “2 to 4” (hue angle 9 to 35 degrees) can be used as the skin color information. For this reason, if there are 40% or more of all the pixels of the divided region “2-4” in the histogram, it is determined that the face region is set based on the color information.

この場合の動作例は、図8のようになる。すなわち、ステップA7の判断条件が、ステップB7になる。ステップB7において、コントローラ17は、バッファメモリ15に色情報が記憶されており、かつ、色情報の内容が、肌色に関する情報を40パーセント以上含むか否かを判別する。ステップB7以外のステップB1〜B9は、ステップA1〜A9と同様の処理である。   An operation example in this case is as shown in FIG. That is, the determination condition in step A7 is step B7. In step B <b> 7, the controller 17 determines whether or not the color information is stored in the buffer memory 15 and the content of the color information includes 40% or more of information related to the skin color. Steps B1 to B9 other than step B7 are the same processes as steps A1 to A9.

5−3.顔情報に基づいて顔領域を継続して設定した回数を考慮した動作(図9)
上記の構成において、デジタルカメラ1は、CCDイメージセンサー12が順次生成する画像データに対して、顔検出を行なうようにしている。しかし、顔検出は、瞬間的(例えば、3フレーム間のみ)に顔を検出する場合がある。このような場合、顔でないものを顔として検出していることが多い。そこでデジタルカメラ1は、画像データから顔が検出できない場合であって、安定して顔が検出されていた場合に、色情報に基づいて顔領域を設定するようにする。つまり、デジタルカメラ1は、CCDイメージセンサー12から順次生成される画像データに対して、顔情報に基づいて顔領域を継続して設定した回数を顔設定回数として計数するコントローラ17(本発明の第1計数手段の一例)を備える。また、デジタルカメラ1は、画像データから顔が検出できない場合、顔設定回数に応じて、色情報に基づく顔領域の設定を行なうか否かを判断するようにする。デジタルカメラ1は、色情報に基づいて顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-3. An operation that takes into account the number of times the face area is continuously set based on face information (FIG. 9)
In the above configuration, the digital camera 1 performs face detection on the image data sequentially generated by the CCD image sensor 12. However, face detection may detect a face instantaneously (for example, only for three frames). In such a case, a non-face is often detected as a face. Therefore, the digital camera 1 sets the face area based on the color information when the face cannot be detected from the image data and the face is detected stably. That is, the digital camera 1 counts the number of times that the face area is continuously set based on the face information with respect to the image data sequentially generated from the CCD image sensor 12 as the face setting number (the first embodiment of the present invention An example of one counting means). Further, when the face cannot be detected from the image data, the digital camera 1 determines whether or not to set the face area based on the color information according to the number of face settings. When the digital camera 1 determines that the face area is set based on the color information, the digital camera 1 sets the face area in the image data based on the color information.

コントローラ17は、画像データ内に顔情報が存在しないと判断した場合であって、顔設定回数が所定回数以上(30回以上)である場合、色情報に基づいて顔領域を設定すると判断する。顔設定回数は、バッファメモリ15に記憶されている。また、顔領域が継続して設定されたか否かを判別するためのフラグ情報が、バッファメモリ15に記憶されている。フラグ情報は、直前の画像データにおいて顔情報に基づいて顔領域を設定したか否かを判別できるようにしたものである。フラグ情報は、「1」と「0」を情報として持っており、「1」の場合、直前の画像データに対して顔情報に基づいて顔領域を設定したことを示し、「0」の場合、直前の画像データに対して色情報に基づいて顔領域を設定したことを示す。   The controller 17 determines that the face area is set based on the color information when it is determined that the face information does not exist in the image data and the face setting count is equal to or more than a predetermined number (30 times or more). The number of face settings is stored in the buffer memory 15. In addition, flag information for determining whether or not the face area is continuously set is stored in the buffer memory 15. The flag information is used to determine whether or not a face area has been set based on face information in the previous image data. The flag information has “1” and “0” as information. When the flag information is “1”, it indicates that the face area is set based on the face information for the immediately preceding image data. This indicates that the face area is set based on the color information for the immediately preceding image data.

この場合の動作例を、図9を用いて説明する。図6と同様の動作については説明を割愛する。この動作を開始する際、バッファメモリ15に記憶された顔設定回数は、「0」に設定されている。また、バッファメモリ15に記憶されたフラグ情報は、「0」に設定されている。   An example of the operation in this case will be described with reference to FIG. Description of operations similar to those in FIG. 6 is omitted. When starting this operation, the number of face settings stored in the buffer memory 15 is set to “0”. The flag information stored in the buffer memory 15 is set to “0”.

まず、コントローラ17は、ステップA1〜A6の動作と同様のステップC1〜C6の動作を行う。コントローラ17は、ステップC6の後、顔情報に基づいた顔領域の設定が継続的か否かを判別する(C7)。つまり、コントローラ17は、バッファメモリ15に記憶されたフラグ情報に基づいて、直前の画像データに対して顔情報に基づいた顔領域を設定したか否かを判別する。したがって、コントローラ17は、フラグ情報が「1」である場合、顔領域の設定が継続的であるとして、顔設定回数に「1」を加算する(C8)。一方、コントローラ17は、フラグ情報が「0」である場合、顔領域の設定が継続的でないとして、バッファメモリ15に記憶された顔設定回数に「1」を設定する(C9)。ステップC8又はC9の後、コントローラ17は、バッファメモリ15に記憶されたフラグ情報に「1」を設定する(C10)。そしてコントローラ17は、ステップA9と同様の動作を行う(C14)。   First, the controller 17 performs the operations of Steps C1 to C6 similar to the operations of Steps A1 to A6. After step C6, the controller 17 determines whether the setting of the face area based on the face information is continuous (C7). That is, based on the flag information stored in the buffer memory 15, the controller 17 determines whether or not a face area based on face information has been set for the immediately preceding image data. Accordingly, when the flag information is “1”, the controller 17 adds “1” to the number of face settings, assuming that the setting of the face area is continuous (C8). On the other hand, when the flag information is “0”, the controller 17 sets “1” as the number of face settings stored in the buffer memory 15 on the assumption that the setting of the face area is not continuous (C9). After step C8 or C9, the controller 17 sets “1” in the flag information stored in the buffer memory 15 (C10). Then, the controller 17 performs the same operation as in Step A9 (C14).

一方、コントローラ17は、ステップC2において、画像データに顔情報が存在しないと判別された場合、バッファメモリ15に記憶されたフラグ情報に「0」を設定する(C11)。この後コントローラ17は、
バッファメモリ15に色情報が記憶されており、バッファメモリ15に記憶された顔設定回数が「30」以上であるか否かを判別する(C12)。コントローラ17は、ステップC11において、バッファメモリ15に色情報が記憶されていない、又は、バッファメモリ15に記憶された顔設定回数が「30」未満である場合、ステップC1に移行する。一方、コントローラ17は、ステップC11において、バッファメモリ15に色情報が記憶されており、かつ、バッファメモリ15に記憶された顔設定回数が「30」以上である場合、ステップA8と同様の動作を行なう(C13)。この後、コントローラ17は、ステップA9と同様の動作を行う(C14)。
On the other hand, if it is determined in step C2 that face information does not exist in the image data, the controller 17 sets “0” in the flag information stored in the buffer memory 15 (C11). After this, the controller 17
It is determined whether color information is stored in the buffer memory 15 and the number of face settings stored in the buffer memory 15 is “30” or more (C12). If the color information is not stored in the buffer memory 15 or the number of face settings stored in the buffer memory 15 is less than “30” in Step C11, the controller 17 proceeds to Step C1. On the other hand, when the color information is stored in the buffer memory 15 and the number of face settings stored in the buffer memory 15 is “30” or more in Step C11, the controller 17 performs the same operation as in Step A8. Perform (C13). Thereafter, the controller 17 performs the same operation as in Step A9 (C14).

なお、この動作例では、顔設定回数に応じて、色情報に基づいた顔領域を設定するか否かを判断した。これに限られず、顔設定時間(顔情報を継続して検出できた時間)に応じて、色情報に基づいた顔領域を設定するか否かを判断してもかまわない。この場合デジタルカメラ1は、CCDイメージセンサー12から順次生成される画像データに対して、顔情報に基づいて顔領域を継続して設定した時間を顔設定時間として計時するコントローラ17(本発明の第1計時手段の一例)を備える。この動作の場合、顔設定回数の1回を、例えば1/30秒(1フレームの読み出し時間)に換算して、計算を行なえばよい。したがって、この動作例では、バッファメモリ15に顔設定時間を記憶しておき、ステップC8において、『顔設定時間に、「1/30」を加算する。』、ステップC9において、『顔設定時間に、「1/30」を設定する。』、ステップC12において、『色情報が記憶されており、顔設定時間が「1」以上であるか?』、のようにするとよい。   In this operation example, it is determined whether to set a face area based on the color information according to the number of face settings. However, the present invention is not limited to this, and it may be determined whether or not to set the face area based on the color information according to the face setting time (the time during which face information can be detected continuously). In this case, the digital camera 1 uses a controller 17 that counts the time for which the face area is continuously set based on the face information as the face setting time for the image data sequentially generated from the CCD image sensor 12 (first aspect of the present invention). An example of one time measuring means). In the case of this operation, the calculation may be performed by converting the number of times of face setting to 1/30 seconds (reading time of one frame), for example. Therefore, in this operation example, the face setting time is stored in the buffer memory 15, and “1/30” is added to the face setting time in step C8. In step C9, “Set the face setting time to“ 1/30 ”. In Step C12, “Is color information stored and face setting time is“ 1 ”or more?” ”

5−4.顔情報に基づいて顔領域が設定された位置の周囲の情報を考慮した動作(図10)
一般的に、人物の顔の周囲には、肌色を有する露出した腕や肩が存在する可能性がある。このような場合、デジタルカメラは、色情報で顔領域の追跡を行なうと、顔でない部分(露出した腕や肩など)を顔と判断して、顔領域を設定してしまう可能性がある。そこでデジタルカメラ1は、直前の画像データに対して顔情報に基づいて設定された顔領域の周囲(特定領域)から色に関する情報(特定情報)を取得するようにする。また、デジタルカメラ1は、画像データから顔が検出できない場合、この特定領域から取得した特定情報に応じて、色情報に基づく顔領域の設定を行なうか否かを判断するようにする。デジタルカメラ1は、色情報に基づいて顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-4. Operation considering information around the position where the face area is set based on the face information (FIG. 10)
Generally, there is a possibility that exposed arms and shoulders having a skin color exist around the face of a person. In such a case, when tracking the face area with color information, the digital camera may determine a non-face part (exposed arm, shoulder, etc.) as a face and set the face area. Therefore, the digital camera 1 acquires color information (specific information) from the periphery (specific area) of the face area set based on the face information for the immediately preceding image data. Further, when the face cannot be detected from the image data, the digital camera 1 determines whether or not to set the face area based on the color information according to the specific information acquired from the specific area. When the digital camera 1 determines that the face area is set based on the color information, the digital camera 1 sets the face area in the image data based on the color information.

コントローラ17は、顔情報に基づいて顔領域を設定した場合、顔領域の周囲である特定領域内の画像データの特定情報を取得する。本実施の形態の特定領域は、顔領域に隣接する部分を除いた周囲の領域である。例えば、図11Aの場合、顔領域50Aと、特定領域60Aとなる。また、図11Bの場合、顔領域50Bと、特定領域60Bとなる。なお、顔領域に隣接する部分を特定領域から除いている理由は、顔の下には首があり、例えば、この首の情報を取得すると、顔の周囲に露出した腕や胸元があるか判断できないためである。デジタルカメラ1は、取得した特定情報をバッファメモリ15に記憶する。   When the face area is set based on the face information, the controller 17 acquires the specific information of the image data in the specific area around the face area. The specific area of the present embodiment is a surrounding area excluding a portion adjacent to the face area. For example, in the case of FIG. 11A, the face area 50A and the specific area 60A are obtained. In the case of FIG. 11B, the face area 50B and the specific area 60B are obtained. It should be noted that the reason why the part adjacent to the face area is excluded from the specific area is that there is a neck under the face.For example, when information on this neck is acquired, it is determined whether there are exposed arms and chests around the face. This is because it cannot be done. The digital camera 1 stores the acquired specific information in the buffer memory 15.

コントローラ17は、画像データ内に顔情報が存在しないと判断した場合であって、バッファメモリ15に記憶した特定情報が、肌色に関する情報を所定割合(5パーセント)以上含む場合、色情報に基づいて顔領域を設定しないと判断する。例えば、特定領域の特定情報として、図11Aのような、特定領域内の画像データから色に関する情報が取得されたとすると、コントローラ17は、色情報に基づいて顔領域を設定すると判断する。一方、図11Bのような、特定領域内の画像データから色に関する情報が取得されたとすると、コントローラ17は、色情報に基づいて顔領域を設定しないと判断する。図11Bの場合、特定領域内に被写体の手が入っているため、特定領域内の特定情報に肌色が含まれ、色情報に基づいて顔領域を設定しないと判断される。   If the controller 17 determines that face information does not exist in the image data, and the specific information stored in the buffer memory 15 includes skin color information at a predetermined rate (5%) or more, the controller 17 is based on the color information. It is determined that no face area is set. For example, if information about color is acquired from image data in the specific area as shown in FIG. 11A as the specific information of the specific area, the controller 17 determines to set the face area based on the color information. On the other hand, if information about color is acquired from the image data in the specific area as shown in FIG. 11B, the controller 17 determines that the face area is not set based on the color information. In the case of FIG. 11B, since the subject's hand is in the specific area, it is determined that the specific information in the specific area includes the skin color and the face area is not set based on the color information.

この場合の動作例を、図10を用いて説明する。図6と同様の動作については説明を割愛する。   An operation example in this case will be described with reference to FIG. Description of operations similar to those in FIG. 6 is omitted.

まず、コントローラ17は、ステップA1〜A6の動作と同様の動作を行う(D1〜D6)コントローラ17は、ステップD6の後、顔領域によって指定される特定領域内の画像データの色に関する情報を特定情報として取得する(D7)。そしてコントローラ17は、ステップA9と同様の動作を行う(D10)。   First, the controller 17 performs the same operation as the operations in steps A1 to A6 (D1 to D6). After the step D6, the controller 17 specifies information on the color of the image data in the specific area specified by the face area. Obtained as information (D7). Then, the controller 17 performs the same operation as in Step A9 (D10).

一方、コントローラ17は、ステップD2において、画像データに顔情報が存在しないと判別された場合、バッファメモリ15に色情報が記憶されており、バッファメモリ15に記憶された特定情報において、肌色に関する情報が所定割合未満であるか否かを判別する(D8)。コントローラ17は、ステップD8において、バッファメモリ15に色情報が記憶されていない、又は、バッファメモリ15に記憶された特定情報において肌色に関する情報が所定割合以上である場合、ステップD1に移行する。一方、コントローラ17は、ステップD8において、バッファメモリ15に色情報が記憶されており、かつ、バッファメモリ15に記憶された特定情報において肌色に関する情報が所定割合未満である場合、ステップA8と同様の動作を行なう(D9)。この後、コントローラ17は、ステップA9と同様の動作を行う(D10)。   On the other hand, if it is determined in step D2 that face information does not exist in the image data, the controller 17 stores the color information in the buffer memory 15, and in the specific information stored in the buffer memory 15, information on the skin color Is less than a predetermined ratio (D8). In step D8, if the color information is not stored in the buffer memory 15 or if the specific information stored in the buffer memory 15 is equal to or higher than the predetermined ratio, the controller 17 proceeds to step D1. On the other hand, when the color information is stored in the buffer memory 15 in step D8, and the specific information stored in the buffer memory 15 is less than the predetermined ratio, the controller 17 is the same as in step A8. The operation is performed (D9). Thereafter, the controller 17 performs the same operation as in Step A9 (D10).

なお、特定領域は、顔領域の大きさに応じて、大きくなったり、小さくなったりするようにするとよい。これは、顔領域が大きい場合、被写体の体も大きく画像データに移されているからである。   It should be noted that the specific area may be made larger or smaller depending on the size of the face area. This is because when the face area is large, the body of the subject is also moved to image data.

5−5.撮影環境の明るさに関する情報を考慮した動作(図12)
撮影環境が暗くなった場合、色に関する情報の信頼度が下がる。すなわち、このような場合に、色情報に基づいて顔領域を設定すると、顔領域を設定する際の精度が下がる。そこでデジタルカメラ1は、撮影環境の明るさに関する情報を取得するようにする。つまり、デジタルカメラ1は、CCDイメージセンサー12で生成された画像データから、撮影環境の明るさに関する情報を取得するコントローラ17(本発明の輝度取得手段の一例)を備える。また、デジタルカメラ1は、画像データから顔が検出できない場合、この取得した明るさに関する情報に応じて、色情報に基づいた顔領域を設定するか否かを判断するようにする。デジタルカメラ1は、色情報に基づいた顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-5. Operation in consideration of information on brightness of shooting environment (FIG. 12)
When the shooting environment becomes dark, the reliability of the information about the color decreases. That is, in such a case, if the face area is set based on the color information, the accuracy in setting the face area is lowered. Therefore, the digital camera 1 acquires information regarding the brightness of the shooting environment. That is, the digital camera 1 includes a controller 17 (an example of the luminance acquisition unit of the present invention) that acquires information related to the brightness of the shooting environment from the image data generated by the CCD image sensor 12. Further, when the face cannot be detected from the image data, the digital camera 1 determines whether or not to set a face area based on the color information according to the acquired information regarding brightness. When the digital camera 1 determines to set a face area based on the color information, the digital camera 1 sets the face area in the image data based on the color information.

コントローラ17は、画像データから明るさに関する情報を取得する。この明るさに関する情報は、輝度の情報である。コントローラ17は、画像処理部14でYC変換された画像データを受け取り、この画像データから、画像の輝度の平均値を算出する。この輝度の平均値の算出方法は、従来技術であるため、説明は割愛する。これによってコントローラ17は、輝度の情報を取得する。例えば、輝度の情報が、8ビットで表現された場合、輝度情報を「0」〜「255」で表現することができる。   The controller 17 acquires information about brightness from the image data. This information on brightness is luminance information. The controller 17 receives the image data YC-converted by the image processing unit 14, and calculates an average value of the luminance of the image from this image data. Since the method for calculating the average value of luminance is a conventional technique, description thereof is omitted. As a result, the controller 17 acquires luminance information. For example, when the luminance information is expressed by 8 bits, the luminance information can be expressed by “0” to “255”.

コントローラ17は、画像データ内に顔情報が存在しないと判別した場合であって、輝度情報が所定値(例えば、「30」)未満である場合、色情報に基づく顔領域の設定を行なわないようにする。つまり、コントローラ17は、輝度情報が所定値以上である場合、色情報に基づく顔領域の設定を行なうようにする。   If the controller 17 determines that face information does not exist in the image data and the luminance information is less than a predetermined value (for example, “30”), the controller 17 does not set the face area based on the color information. To. That is, the controller 17 sets the face area based on the color information when the luminance information is greater than or equal to a predetermined value.

図12を用いて動作を説明する。図6と同様の動作については説明を割愛する。   The operation will be described with reference to FIG. Description of operations similar to those in FIG. 6 is omitted.

まず、コントローラ17は、ステップA1〜A6の動作と同様の動作を行う(E1〜E6)。コントローラ17は、ステップE6の後、ステップA9と同様の動作を行う(E10)
一方、コントローラ17は、ステップE2において、画像データに顔情報が存在しないと判別された場合、生成された画像データから輝度情報を取得する(E7)。この後コントローラ17は、バッファメモリ15に色情報が記憶されており、取得した輝度情報が所定値(例えば「30」)以上であるか否かを判別する(E8)。コントローラ17は、ステップE8において、バッファメモリ15に色情報が記憶されていない、又は、取得した輝度情報が「30」未満である場合、ステップE1に移行する。一方、コントローラ17は、ステップE8において、バッファメモリ15に色情報が記憶されており、かつ、取得した輝度情報が「30」以上である場合、ステップA8と同様の動作を行なう(E9)。この後、コントローラ17は、ステップA9と同様の動作を行う(E10)。
First, the controller 17 performs the same operation as that of steps A1 to A6 (E1 to E6). The controller 17 performs the same operation as step A9 after step E6 (E10).
On the other hand, if it is determined in step E2 that face information does not exist in the image data, the controller 17 acquires luminance information from the generated image data (E7). Thereafter, the controller 17 determines whether or not the color information is stored in the buffer memory 15 and the acquired luminance information is equal to or greater than a predetermined value (for example, “30”) (E8). In step E8, if the color information is not stored in the buffer memory 15 or the acquired luminance information is less than “30”, the controller 17 proceeds to step E1. On the other hand, when the color information is stored in the buffer memory 15 and the acquired luminance information is “30” or more in step E8, the controller 17 performs the same operation as in step A8 (E9). Thereafter, the controller 17 performs the same operation as in Step A9 (E10).

5−6.色情報に基づいて顔領域を継続して設定した回数を考慮した動作(図13)
画像データから顔が検出できない場合において、色情報に基づいた顔領域の設定を継続して複数回行なった場合、顔とは異なる被写体を追跡していってしまう可能性がある。そこでデジタルカメラ1は、画像データから顔が検出できない場合において、色情報に基づいた顔領域の設定を継続して複数回行なった場合、色情報に基づく顔領域の設定を行なわないようにする。つまり、デジタルカメラ1は、CCDイメージセンサー12から順次生成される画像データに対して、色情報に基づいて顔領域を継続して設定した回数を色設定回数として計数するコントローラ17(本発明の第2計数手段の一例)を備える。また、デジタルカメラ1は、画像データから顔が検出できない場合、色設定回数に応じて、色情報に基づく顔領域の設定を行なうか否かを判断するようにする。デジタルカメラ1は、色情報に基づいて顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-6. Operation in consideration of the number of times the face area is continuously set based on the color information (FIG. 13)
If the face cannot be detected from the image data and the face area setting based on the color information is continuously performed a plurality of times, a subject different from the face may be tracked. Therefore, when the face cannot be detected from the image data and the face area is set based on the color information for a plurality of times, the digital camera 1 does not set the face area based on the color information. That is, the digital camera 1 counts the number of times the face area is continuously set based on the color information for the image data sequentially generated from the CCD image sensor 12 as the number of times of color setting. An example of 2 counting means). If the face cannot be detected from the image data, the digital camera 1 determines whether or not to set the face area based on the color information according to the number of color settings. When the digital camera 1 determines that the face area is set based on the color information, the digital camera 1 sets the face area in the image data based on the color information.

コントローラ17は、画像データ内に顔情報が存在しないと判断した場合であって、色設定回数が所定回数以上(90回未満)である場合、色情報に基づいて顔領域を設定すると判断する。色設定回数は、バッファメモリ15に記憶されている。   When the controller 17 determines that face information does not exist in the image data and the number of color settings is equal to or greater than a predetermined number (less than 90), the controller 17 determines to set the face area based on the color information. The number of color settings is stored in the buffer memory 15.

この場合の動作例を、図13を用いて説明する。図6と同様の動作については説明を割愛する。この動作を開始する際、バッファメモリ15に記憶された色設定回数は、「0」に設定されている。   An operation example in this case will be described with reference to FIG. Description of operations similar to those in FIG. 6 is omitted. When starting this operation, the number of color settings stored in the buffer memory 15 is set to “0”.

まず、コントローラ17は、ステップA1〜A6の動作と同様の動作を行う(F1〜F6)。コントローラ17は、そしてコントローラ17は、ステップA9と同様の動作を行う(F11)。   First, the controller 17 performs the same operation as that in steps A1 to A6 (F1 to F6). The controller 17 performs the same operation as in step A9 (F11).

一方、コントローラ17は、ステップF2において、画像データに顔情報が存在しないと判別された場合、バッファメモリ15に色情報が記憶されており、かつ、バッファメモリ15に記憶された色設定回数が「90」未満であるか否かを判別する(F7)。コントローラ17は、ステップF7において、バッファメモリ15に色情報が記憶されていない、又は、バッファメモリ15に記憶された色設定回数が「90」以上である場合、バッファメモリ15に記憶された色設定回数に「0」を設定する(F10)。一方、コントローラ17は、ステップF7において、バッファメモリ15に色情報が記憶されており、かつ、バッファメモリ15に記憶された色設定回数が「90」未満である場合、ステップA8と同様の動作を行なう(F8)。そしてコントローラ17は、バッファメモリ15に記憶された色設定回数に「1」を加算する(F9)。この後、コントローラ17は、ステップA9と同様の動作を行う(F11)。   On the other hand, if it is determined in step F2 that face information does not exist in the image data, the controller 17 stores the color information in the buffer memory 15 and the color setting count stored in the buffer memory 15 is “ Whether it is less than 90 "is determined (F7). If the color information is not stored in the buffer memory 15 or the number of color settings stored in the buffer memory 15 is “90” or more in Step F7, the controller 17 stores the color settings stored in the buffer memory 15. “0” is set to the number of times (F10). On the other hand, if the color information is stored in the buffer memory 15 and the number of color settings stored in the buffer memory 15 is less than “90” in step F7, the controller 17 performs the same operation as in step A8. Perform (F8). Then, the controller 17 adds “1” to the number of color settings stored in the buffer memory 15 (F9). Thereafter, the controller 17 performs the same operation as in Step A9 (F11).

なお、この動作例では、色設定回数に応じて、色情報に基づいた顔領域を設定するか否かを判断した。これに限られず、色設定時間(色情報に基づいて顔領域を継続して設定した時間)に応じて、色情報に基づいた顔領域を設定するか否かを判断してもかまわない。この場合デジタルカメラ1は、CCDイメージセンサー12から順次生成される画像データに対して、色情報に基づいて顔領域を継続して設定した時間を色設定時間として計時するコントローラ17(本発明の第2計時手段の一例)を備える。この動作の場合、上記の色設定回数の1回を、例えば1/30秒(1フレームの読み出し時間)に換算して、計算を行なえばよい。したがって、この動作例では、バッファメモリ15に色設定時間を記憶しておき、ステップF9において、『色設定時間に、「1/30」を加算する。』、ステップF10において、『色設定時間に、「0」を設定する。』、ステップF7において、『色情報が記憶されており、色設定時間が「3」未満であるか?』、のようにするとよい。   In this operation example, it is determined whether or not to set the face area based on the color information according to the number of color settings. However, the present invention is not limited to this, and it may be determined whether or not to set the face area based on the color information according to the color setting time (the time when the face area is continuously set based on the color information). In this case, the digital camera 1 controls the controller 17 that counts the time for which the face area is continuously set based on the color information as the color setting time for the image data sequentially generated from the CCD image sensor 12 (the first embodiment of the present invention). 2) an example of time keeping means. In the case of this operation, the calculation may be performed by converting the above number of times of color setting into, for example, 1/30 second (reading time of one frame). Therefore, in this operation example, the color setting time is stored in the buffer memory 15, and “1/30” is added to the color setting time in Step F9. In step F10, “0” is set for the color setting time. In step F7, "Is color information stored and color setting time is less than" 3 "?" ”

5−7.第2顔領域を設定する範囲を考慮した動作(図14)
撮影者は、ポートレートモードなどのように人物撮影を行う場合、なるべく被写体の顔が中心に来るように、デジタルカメラを移動させることが多い。したがって、デジタルカメラ1は、色情報に基づく顔領域の設定する位置が一部でも設定範囲から外れた場合、色情報に基づく顔領域を設定しないようにする。つまり、デジタルカメラ1は、画像データから顔が検出できない場合、色情報に基づく顔領域の設定位置に応じて、色情報に基づいて顔領域を設定するか否かを判断する。デジタルカメラ1は、色情報に基づいて顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-7. Operation considering the range for setting the second face area (FIG. 14)
When shooting a person as in portrait mode, the photographer often moves the digital camera so that the face of the subject is as centered as possible. Therefore, the digital camera 1 does not set the face area based on the color information when the position set for the face area based on the color information is out of the setting range. That is, when the face cannot be detected from the image data, the digital camera 1 determines whether or not to set the face area based on the color information according to the setting position of the face area based on the color information. When the digital camera 1 determines that the face area is set based on the color information, the digital camera 1 sets the face area in the image data based on the color information.

ここで本実施の形態のコントローラ17は、画像データ内に顔情報が存在すると判別した場合、顔領域の設定された位置が画像データ内の設定範囲外に移動した場合、色情報に基づく顔領域を設定しないようにする。つまり、顔領域の設定された位置が画像データ内の設定範囲内にある場合、色情報に基づく顔領域の設定を行なうようにする。   Here, if the controller 17 according to the present embodiment determines that face information is present in the image data, the face region based on the color information is detected when the set position of the face region is moved outside the set range in the image data. Do not set. That is, when the set position of the face area is within the set range in the image data, the face area is set based on the color information.

実施の形態の設定範囲は、例えば、図15のようにするとよい。すなわち、顔情報に基づいて設定した顔領域の大きさに応じて、設定範囲の大きさを変更するとよい。これは、画像データ内に検出された顔が大きい場合、顔領域が移動する範囲は画面全体で移動すると考えられるからである。一方、画像データ内に検出された顔が小さい場合、顔領域が移動する範囲は画面中心付近で移動すると考えられるからである。図15Aが、顔領域が大きい場合の例である。図15Cが、顔領域が小さい場合の例である。   The setting range of the embodiment may be, for example, as shown in FIG. In other words, the size of the setting range may be changed according to the size of the face area set based on the face information. This is because when the face detected in the image data is large, the range in which the face area moves is considered to move over the entire screen. On the other hand, when the face detected in the image data is small, the range in which the face area moves is considered to move near the center of the screen. FIG. 15A shows an example when the face area is large. FIG. 15C shows an example when the face area is small.

また、実施の形態は、色情報に基づく顔領域の設定位置が、設定範囲から一部でも外れると、色情報に基づいて顔領域を設定しないようにする。例えば、図16では、(A)の場合、色情報に基づいて顔領域を設定するようにし、(B)の場合、色情報に基づいて顔領域を設定しないようにする。   In the embodiment, if the setting position of the face area based on the color information is partially out of the setting range, the face area is not set based on the color information. For example, in FIG. 16, in the case of (A), the face area is set based on the color information, and in the case of (B), the face area is not set based on the color information.

この場合の動作例を、図14を用いて説明する。ステップG1〜G7は、ステップA1〜A7と同じである。コントローラ17は、ステップG7で色情報が記憶されていると判断した場合、色情報に基づく顔領域の設定位置が、設定範囲か否かを判別する(G8)。コントローラ17は、設定位置が設定範囲に含まれる場合、色情報に基づいて顔領域を設定する(G9)。この後、コントローラ17は、ステップA9と同様の処理を行う(G10)。一方で、設定位置が設定範囲に含まれない場合、ステップG1に処理を移行する。   An operation example in this case will be described with reference to FIG. Steps G1 to G7 are the same as steps A1 to A7. When the controller 17 determines that the color information is stored in step G7, the controller 17 determines whether or not the setting position of the face area based on the color information is within the setting range (G8). When the set position is included in the set range, the controller 17 sets a face area based on the color information (G9). Thereafter, the controller 17 performs the same process as in Step A9 (G10). On the other hand, if the set position is not included in the set range, the process proceeds to step G1.

5−8.ぶれ量を考慮した動作(図17)
デジタルカメラが大きく移動されると、次の画像データから顔が検出できないと考えられる。このような場合、色情報に基づいて顔領域を設定すると、被写体の顔が実際に存在しないのにも関わらず、顔領域を設定してしまうことになる。そこでデジタルカメラ1は、コントローラ17(本発明の移動量取得手段の一例)が算出したぶれ量に応じて、色情報に基づいて顔領域を設定するか否かを判断するようにする。デジタルカメラ1は、色情報に基づいて顔領域を設定すると判断した場合、色情報に基づいて画像データに顔領域を設定する。
5-8. Operation considering the amount of blurring (Fig. 17)
If the digital camera is moved greatly, it is considered that the face cannot be detected from the next image data. In such a case, if the face area is set based on the color information, the face area is set even though the face of the subject does not actually exist. Therefore, the digital camera 1 determines whether or not to set the face area based on the color information according to the shake amount calculated by the controller 17 (an example of the movement amount acquisition unit of the present invention). When the digital camera 1 determines that the face area is set based on the color information, the digital camera 1 sets the face area in the image data based on the color information.

コントローラ17は、ぶれ量が所定範囲(−200〜200deg/sec)に含まれる場合、色情報に基づく顔領域の設定を行なうようにする。   The controller 17 sets the face area based on the color information when the blur amount is included in the predetermined range (−200 to 200 deg / sec).

図17を用いて動作を説明する。図6と同様の動作については説明を割愛する。   The operation will be described with reference to FIG. Description of operations similar to those in FIG. 6 is omitted.

まず、コントローラ17は、ステップA1〜A6の動作と同様の動作を行う(H1〜H6)。コントローラ17は、ステップH6の後、ステップA9と同様の動作を行う(H10)
一方、コントローラ17は、ステップE2において、画像データに顔情報が存在しないと判別された場合、デジタルカメラ1のぶれ量を算出する(H7)。この後コントローラ17は、バッファメモリ15に色情報が記憶されており、算出したぶれ量が所定範囲に含まれるか否かを判別する(H8)。コントローラ17は、ステップH8において、バッファメモリ15に色情報が記憶されていない、又は、算出したぶれ量が−200〜200deg/secに含まれない場合、ステップH1に移行する。一方、コントローラ17は、ステップH8において、バッファメモリ15に色情報が記憶されており、かつ、算出したぶれ量が−200〜200deg/secに含まれる場合、ステップA8と同様の動作を行なう(H9)。この後、コントローラ17は、ステップA9と同様の動作を行う(H10)。
First, the controller 17 performs the same operation as the operations in steps A1 to A6 (H1 to H6). The controller 17 performs the same operation as step A9 after step H6 (H10).
On the other hand, if it is determined in step E2 that face information does not exist in the image data, the controller 17 calculates the amount of blurring of the digital camera 1 (H7). Thereafter, the controller 17 determines whether or not the color information is stored in the buffer memory 15 and the calculated blur amount is included in the predetermined range (H8). In step H8, if the color information is not stored in the buffer memory 15 or the calculated blur amount is not included in −200 to 200 deg / sec, the controller 17 proceeds to step H1. On the other hand, when the color information is stored in the buffer memory 15 and the calculated blur amount is included in −200 to 200 deg / sec in step H8, the controller 17 performs the same operation as in step A8 (H9). ). Thereafter, the controller 17 performs the same operation as in Step A9 (H10).

6.まとめ
デジタルカメラ1は、光学系11で形成された被写体像を撮像して、画像データを順次生成するCCDイメージセンサー12と、顔情報を記憶したフラッシュメモリ16と、CCDイメージセンサー12から生成される画像データ内において、記憶された顔情報が存在するか否かを判別するコントローラ17と、コントローラ17によって顔情報が存在すると判別された場合、画像データ内において顔情報が存在すると判別された位置に、顔領域を設定するとともに、設定された顔領域内の画像データの色情報をバッファメモリ15に記憶するコントローラ17と、コントローラ17によって顔情報が存在しないと判別された場合であって、バッファメモリ15に色情報が記憶されている場合、記憶された色情報に基づいて画像データ内に顔領域を設定するコントローラ17と、を備える。
6). Summary The digital camera 1 captures a subject image formed by the optical system 11 and sequentially generates image data, a flash memory 16 that stores face information, and a CCD image sensor 12. The controller 17 that determines whether or not the stored face information exists in the image data, and when the controller 17 determines that the face information exists, the image data is located at the position where the face information is determined to exist. A controller 17 that sets the face area and stores the color information of the image data in the set face area in the buffer memory 15, and the controller 17 determines that no face information exists, and the buffer memory 15, when color information is stored, image data based on the stored color information It includes a controller 17 for setting the face area, to.

このようにすれば、画像データ内に顔情報が存在しない場合、色情報に基づいて顔領域を設定することにより、被写体の顔が正面方向を向いている状態から正面方向以外を向いた場合であっても、CCDイメージセンサーから順次生成される画像データに対して、顔領域を高い精度で継続設定できる。
(他の実施の形態)
本発明の実施の形態として、実施の形態1を例示した。しかし、本発明は、実施の形態1に限定されず、他の実施の形態においても実現可能である。そこで、本発明の他の実施の形態を以下まとめて説明する。
In this way, when face information does not exist in the image data, the face area is set based on the color information, so that the face of the subject faces from the front direction to the direction other than the front direction. Even in such a case, the face area can be continuously set with high accuracy for the image data sequentially generated from the CCD image sensor.
(Other embodiments)
Embodiment 1 was illustrated as embodiment of this invention. However, the present invention is not limited to the first embodiment, and can be implemented in other embodiments. Therefore, other embodiments of the present invention will be described collectively below.

実施の形態1では、第1特徴情報として、顔情報を用いた例を説明した。しかし、これに限られず、例えば、固体認証に用いられる認証用の画像情報を用いることができる。この認証用の画像情報には、人物、すなわち、人間と異なる被写体(犬、猫など)を用いてもかまわない。さらに、画像情報に限られず、被写体の特徴情報であればどのような情報であってもかまわない。   In the first embodiment, the example in which face information is used as the first feature information has been described. However, the present invention is not limited to this, and for example, authentication image information used for solid authentication can be used. For this authentication image information, a person, that is, a subject (dog, cat, etc.) different from a human may be used. Furthermore, the information is not limited to image information, and any information may be used as long as it is characteristic information of the subject.

このようにすれば、例えば、固体認証から自動で色情報に基づいた特徴領域の設定に変更されるため、固体認証用の画像情報を複数個保存してなくてもある精度以上の追跡を行なうことができるようになる。例えば、犬を撮影した画像情報を記憶する。この画像情報に基づいて固体認証で犬を検知する。この際、検知した犬の色に関する情報を記憶する。この後、固体認証で犬が検出できなくなった場合、色情報で追跡する。   In this case, for example, the setting is changed from the solid authentication to the setting of the feature region based on the color information automatically, so that the tracking is performed with the accuracy higher than the accuracy without storing a plurality of pieces of image information for the solid authentication. Will be able to. For example, image information obtained by photographing a dog is stored. A dog is detected by solid authentication based on this image information. At this time, information regarding the color of the detected dog is stored. After this, if a dog cannot be detected by solid authentication, it is tracked with color information.

また、本実施の形態では、バッファメモリ15に予め記憶しておいた顔情報を用いて、顔領域の設定を行なうようにした。しかし、これに限られず、撮影の直前に外部から取得した情報であってもかまわない。   In the present embodiment, the face area is set using face information stored in advance in the buffer memory 15. However, the information is not limited to this, and may be information acquired from the outside immediately before shooting.

また、本実施の形態では、色に関する情報として、色相を用いて特徴情報を分類した。しかし、これに限られず、彩度や明度であってもかまわないし、これらを組み合わせた情報を用いてもかまわない。   Further, in the present embodiment, the feature information is classified using the hue as the information regarding the color. However, the present invention is not limited to this, and saturation or brightness may be used, or information combining these may be used.

また、本実施の形態では、第2特徴情報として、色に関する情報を用いた例を説明した。しかし、これに限られず、例えば、コントラストに関する情報、又は/及び、輝度に関する情報等を用いることができる。   In the present embodiment, an example in which information about color is used as the second feature information has been described. However, the present invention is not limited to this, and for example, information on contrast or / and information on luminance can be used.

すなわち、本発明は、上記実施の形態に限られず、種々の態様で実施可能である。   That is, the present invention is not limited to the above embodiment, and can be implemented in various modes.

本発明は、撮像装置に適用可能である。例えば、デジタルカメラ、ビデオカメラ、カメラ付き携帯端末等に利用できる。   The present invention can be applied to an imaging apparatus. For example, it can be used for a digital camera, a video camera, a mobile terminal with a camera, and the like.

本発明の実施の形態1にかかるデジタルカメラの斜視図1 is a perspective view of a digital camera according to a first embodiment of the present invention. 本発明の実施の形態1にかかるデジタルカメラのブロック構成図1 is a block configuration diagram of a digital camera according to a first embodiment of the present invention. 本発明の実施の形態1にかかる画像データに顔情報が存在した場合としない場合との動作の違いを説明するための図The figure for demonstrating the difference in operation | movement with the case where face information exists in the image data concerning Embodiment 1 of this invention, and the case where it does not exist. 本発明の実施の形態1にかかる色情報を説明するための図The figure for demonstrating the color information concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかる色情報を説明するための図The figure for demonstrating the color information concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかるデジタルカメラの基本的な動作を説明するためのフローチャートFlowchart for explaining the basic operation of the digital camera according to the first embodiment of the present invention. 本発明の実施の形態1にかかるデジタルカメラの動作を説明するための図The figure for demonstrating operation | movement of the digital camera concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかるデジタルカメラの動作例5−2を説明するためのフローチャートFlowchart for explaining an operation example 5-2 of the digital camera according to the first embodiment of the present invention. 本発明の実施の形態1にかかるデジタルカメラの動作例5−3を説明するためのフローチャートFlowchart for explaining an operation example 5-3 of the digital camera according to the first exemplary embodiment of the present invention. 本発明の実施の形態1にかかるデジタルカメラの動作例5−4を説明するためのフローチャートFlowchart for explaining operation example 5-4 of the digital camera according to the first exemplary embodiment of the present invention. 本発明の実施の形態1にかかるデジタルカメラの動作例5−4の特定領域を説明するための図The figure for demonstrating the specific area | region of the operation example 5-4 of the digital camera concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかるデジタルカメラの動作例5−5を説明するためのフローチャートFlowchart for explaining operation example 5-5 of the digital camera according to the first exemplary embodiment of the present invention. 本発明の実施の形態1にかかるデジタルカメラの動作例5−6を説明するためのフローチャートFlowchart for explaining operation example 5-6 of the digital camera according to the first exemplary embodiment of the present invention. 本発明の実施の形態1にかかるデジタルカメラの動作例5−7を説明するためのフローチャートFlowchart for explaining operation example 5-7 of the digital camera according to the first exemplary embodiment of the present invention. 本発明の実施の形態1にかかるデジタルカメラの動作例5−7の設定範囲を説明するための図The figure for demonstrating the setting range of the operation example 5-7 of the digital camera concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかるデジタルカメラの動作例5−7における設定範囲に応じた動作を説明するための図The figure for demonstrating the operation | movement according to the setting range in the operation example 5-7 of the digital camera concerning Embodiment 1 of this invention. 本発明の実施の形態1にかかるデジタルカメラの動作例5−8を説明するためのフローチャートFlowchart for explaining operation example 5-8 of the digital camera according to the first exemplary embodiment of the present invention.

符号の説明Explanation of symbols

1 デジタルカメラ
11 光学系
12 CCDイメージセンサー
121 タイミングジェネレータ
13 ADコンバータ
14 画像処理部
15 バッファメモリ
16 フラッシュメモリ
17 コントローラ
20 液晶モニタ
21 操作部
50 顔領域
60 特定領域
70 設定範囲
DESCRIPTION OF SYMBOLS 1 Digital camera 11 Optical system 12 CCD image sensor 121 Timing generator 13 AD converter 14 Image processing part 15 Buffer memory 16 Flash memory 17 Controller 20 Liquid crystal monitor 21 Operation part 50 Face area 60 Specific area 70 Setting range

Claims (12)

光学系で形成された被写体像を撮像して、画像データを順次生成する撮像手段と、
被写体の特徴を示す第1特徴情報を記憶した記憶媒体と、
前記撮像手段から生成される画像データ内において、前記記憶された第1特徴情報が存在するか否かを判別する判別手段と、
前記判別手段によって前記第1特徴情報が存在すると判別された場合、前記画像データ内において前記第1特徴情報が存在すると判別された位置に、特徴領域を設定するとともに、当該設定された特徴領域内の画像データの特徴を示す第2特徴情報を前記記憶媒体に記憶する第1設定手段と、
前記判別手段によって前記第1特徴情報が存在しないと判別された場合であって、前記記憶媒体に第2特徴情報が記憶されている場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する第2設定手段と、
を備える撮像装置。
Imaging means for capturing a subject image formed by an optical system and sequentially generating image data;
A storage medium storing first feature information indicating features of the subject;
Discriminating means for discriminating whether or not the stored first feature information exists in the image data generated from the imaging means;
When it is determined by the determining means that the first feature information is present, a feature region is set at a position where the first feature information is determined to be present in the image data, and within the set feature region First setting means for storing second characteristic information indicating characteristics of the image data in the storage medium;
When it is determined by the determining means that the first feature information does not exist, and the second feature information is stored in the storage medium, the image data is based on the stored second feature information. Second setting means for setting the feature region in the inside,
An imaging apparatus comprising:
前記第2設定手段は、
さらに前記記憶された第2特徴情報の内容に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。
The second setting means includes
Further, according to the content of the stored second feature information, it is determined whether to set a feature region based on the second feature information, and when it is determined to set the feature region, the stored second feature information 2) setting the feature region in the image data based on the feature information;
The imaging device according to claim 1.
前記撮像手段から順次生成される画像データに対して、前記第1設定手段が特徴領域を継続して設定した回数を第1設定回数として計数する第1計数手段をさらに備え、
前記第2設定手段は、
さらに前記第1計数手段で計数した設定回数に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。
A first counting unit that counts the number of times that the first setting unit has continuously set the characteristic region as the first set number of times for the image data sequentially generated from the imaging unit;
The second setting means includes
Further, according to the number of times set by the first counting means, it is determined whether to set a feature area based on the second feature information, and if it is determined to set the feature area, the stored second 2) setting the feature region in the image data based on the feature information;
The imaging device according to claim 1.
前記撮像手段から順次生成される画像データに対して、前記第1設定手段が特徴領域を設定してから、特徴領域を設定しなくなるまでの時間を第1設定時間として計時する第1計時手段をさらに備え、
前記第2設定手段は、
さらに前記第1計時手段で計時される第1設定時間に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。
First time measuring means for measuring the time from when the first setting means sets the feature area to the time when the feature area is no longer set as the first set time for the image data sequentially generated from the imaging means. In addition,
The second setting means includes
Further, it is determined whether or not to set a feature area based on the second feature information according to the first set time measured by the first timing means, and if it is determined to set the feature area, the storage Setting the feature region in the image data based on the second feature information
The imaging device according to claim 1.
撮影環境の明るさに関する情報を取得する輝度取得手段をさらに備え、
前記第2設定手段は、
さらに前記輝度取得手段が取得した明るさに関する情報に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。
It further comprises a luminance acquisition means for acquiring information regarding the brightness of the shooting environment,
The second setting means includes
Further, it is determined whether or not to set a feature area based on the second feature information according to the information about the brightness acquired by the luminance acquisition means, and if it is determined to set the feature area, the stored Setting the feature region in the image data based on second feature information;
The imaging device according to claim 1.
前記第1設定手段は、
前記判別手段によって前記第1特徴情報が存在すると判別された場合、さらに、前記画像データ内において前記第1特徴情報が存在すると判別された位置によって指定される特定領域内の画像データの特徴を示す第3特徴情報を前記記憶媒体に記憶し、
前記第2設定手段は、
前記記憶された第3特徴情報の内容に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。
The first setting means includes
When it is determined by the determining means that the first feature information is present, the feature further indicates a feature of the image data in the specific area designated by the position where the first feature information is determined to be present in the image data. Storing third feature information in the storage medium;
The second setting means includes
Based on the content of the stored third feature information, it is determined whether to set a feature region based on the second feature information, and when it is determined to set the feature region, the stored second feature information Setting the feature region in the image data based on feature information;
The imaging device according to claim 1.
前記撮像手段から順次生成される画像データに対して、前記第2設定手段が特徴領域を継続して設定した回数を第2設定回数として計数する第2計数手段をさらに備え、
前記第2設定手段は、
さらに前記第2計数手段で計数される第2設定回数に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。
A second counting unit that counts the number of times that the second setting unit has continuously set the characteristic area as the second set number of times for the image data sequentially generated from the imaging unit;
The second setting means includes
Further, according to the second set number counted by the second counting means, it is determined whether or not to set a feature region based on the second feature information, and if it is determined to set the feature region, Setting the feature region in the image data based on the second feature information
The imaging device according to claim 1.
前記撮像手段から順次生成される画像データに対して、前記第2設定手段が特徴領域を設定してから、特徴領域を設定しなくなるまでの時間を第2設定時間として計時する第2計時手段をさらに備え、
前記第2設定手段は、
さらに前記第2計時手段で計時される第2設定時間に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。
Second time measuring means for measuring the time from when the second setting means sets the characteristic area to the time when the characteristic area is no longer set as the second setting time for the image data sequentially generated from the imaging means; In addition,
The second setting means includes
Further, it is determined whether to set a feature area based on the second feature information according to a second set time measured by the second timing means, and when it is determined to set the feature area, the storage Setting the feature region in the image data based on the second feature information
The imaging device according to claim 1.
前記第2設定手段は、
さらに第2特徴情報に基づく特徴領域を設定させる位置に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。
The second setting means includes
Further, according to the position where the feature area based on the second feature information is set, it is determined whether to set the feature area based on the second feature information. Setting the feature region in the image data based on the second feature information.
The imaging device according to claim 1.
自装置の移動に関する情報を取得する移動情報取得手段をさらに備え、
前記第2設定手段は、
さらに前記移動量取得手段が取得した移動に関する情報に応じて、前記第2特徴情報に基づいて特徴領域を設定するか否かを判断し、当該特徴領域を設定すると判断した場合、当該記憶された第2特徴情報に基づいて前記画像データ内に前記特徴領域を設定する、
請求項1に記載の撮像装置。
It further comprises movement information acquisition means for acquiring information relating to movement of the own device,
The second setting means includes
Further, it is determined whether to set a feature area based on the second feature information in accordance with the movement-related information acquired by the movement amount acquisition means. Setting the feature region in the image data based on second feature information;
The imaging device according to claim 1.
前記第1特徴情報は、顔に関する情報であり、
前記第2特徴情報は、色に関する情報である、
請求項1に記載の撮像装置。
The first feature information is information about a face,
The second feature information is information relating to color.
The imaging device according to claim 1.
前記特徴領域は、顔領域である、請求項1に記載の撮像装置。 The imaging device according to claim 1, wherein the feature region is a face region.
JP2008186941A 2008-07-18 2008-07-18 Imaging apparatus Pending JP2010028418A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008186941A JP2010028418A (en) 2008-07-18 2008-07-18 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008186941A JP2010028418A (en) 2008-07-18 2008-07-18 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2010028418A true JP2010028418A (en) 2010-02-04

Family

ID=41733834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008186941A Pending JP2010028418A (en) 2008-07-18 2008-07-18 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2010028418A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103747181A (en) * 2014-01-10 2014-04-23 上海斐讯数据通信技术有限公司 System for combining videos and camera-acquired pictures
JP2017041791A (en) * 2015-08-20 2017-02-23 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP2017147764A (en) * 2017-05-23 2017-08-24 カシオ計算機株式会社 Image processing apparatus, image processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005223660A (en) * 2004-02-06 2005-08-18 Nikon Gijutsu Kobo:Kk Digital camera
JP2008061219A (en) * 2006-06-14 2008-03-13 Canon Inc Image processing apparatus, imaging apparatus, and method of controlling image processing apparatus
JP2008076786A (en) * 2006-09-22 2008-04-03 Sony Corp Imaging apparatus, imaging apparatus control method, and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005223660A (en) * 2004-02-06 2005-08-18 Nikon Gijutsu Kobo:Kk Digital camera
JP2008061219A (en) * 2006-06-14 2008-03-13 Canon Inc Image processing apparatus, imaging apparatus, and method of controlling image processing apparatus
JP2008076786A (en) * 2006-09-22 2008-04-03 Sony Corp Imaging apparatus, imaging apparatus control method, and computer program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103747181A (en) * 2014-01-10 2014-04-23 上海斐讯数据通信技术有限公司 System for combining videos and camera-acquired pictures
JP2017041791A (en) * 2015-08-20 2017-02-23 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
CN106470315A (en) * 2015-08-20 2017-03-01 卡西欧计算机株式会社 Image processing apparatus and image processing method
US10348958B2 (en) 2015-08-20 2019-07-09 Casio Computer Co., Ltd. Image processing apparatus for performing predetermined processing on a captured image
CN106470315B (en) * 2015-08-20 2019-07-09 卡西欧计算机株式会社 Image processing apparatus, image processing method and recording medium
JP2017147764A (en) * 2017-05-23 2017-08-24 カシオ計算機株式会社 Image processing apparatus, image processing method, and program

Similar Documents

Publication Publication Date Title
CN109842753B (en) Camera anti-shake system, camera anti-shake method, electronic device and storage medium
US9479692B2 (en) Image capturing apparatus and method for controlling the same
JP4254873B2 (en) Image processing apparatus, image processing method, imaging apparatus, and computer program
TWI425826B (en) Image selection device and method for selecting image
US8831282B2 (en) Imaging device including a face detector
JP5409189B2 (en) Imaging apparatus and control method thereof
US8373761B2 (en) Shake correcting apparatus and method thereof in digital photographing apparatus
US20140184854A1 (en) Front camera face detection for rear camera zoom function
US8493493B2 (en) Imaging apparatus, imaging apparatus control method, and computer program
US20160173749A1 (en) Still image capture with exposure control
JP2006215571A (en) Method of displaying camera shake, its apparatus, image display device, and its method
JP2010141649A (en) Image capturing apparatus and face detecting method and program
KR20150078275A (en) Digital Photographing Apparatus And Method For Capturing a Moving Subject
KR101423432B1 (en) Imaging apparatus, imaging method and storage medium
JP2009213114A (en) Imaging device and program
US11523048B2 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP2010028418A (en) Imaging apparatus
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
WO2016009199A2 (en) Minimisation of blur in still image capture
JP2011041186A (en) Electronic camera
JP2009296029A (en) Image pickup apparatus
JP6584259B2 (en) Image blur correction apparatus, imaging apparatus, and control method
JP2010093451A (en) Imaging apparatus and program for imaging apparatus
JP5251600B2 (en) Electronic camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110715

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20110811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120921

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121120