JP4773924B2 - IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM - Google Patents
IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM Download PDFInfo
- Publication number
- JP4773924B2 JP4773924B2 JP2006289197A JP2006289197A JP4773924B2 JP 4773924 B2 JP4773924 B2 JP 4773924B2 JP 2006289197 A JP2006289197 A JP 2006289197A JP 2006289197 A JP2006289197 A JP 2006289197A JP 4773924 B2 JP4773924 B2 JP 4773924B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- display
- target
- image
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Exposure Control For Cameras (AREA)
Description
本発明は、画像データから識別対象、詳しくは、人物の顔の位置を特定する技術に関するものである。 The present invention relates to a technique for identifying an identification target, specifically, a position of a person's face from image data.
識別対象としての条件を満たす対象物(以下、主被写体という)の特徴データを予め登録し、これと照合することで、画像データからこの対象物を識別する技術が知られている。 A technique is known in which feature data of an object (hereinafter referred to as a main subject) that satisfies an identification target is registered in advance and collated with this to identify the object from image data.
例えば、特許文献1では、予め登録された顔の画像データと識別対象となる画像データとの相関値を計算することで、顔が存在する領域を特定する方法が開示されている。 For example, Patent Document 1 discloses a method of specifying a region where a face exists by calculating a correlation value between face image data registered in advance and image data to be identified.
また、特許文献2では、画像データを周波数帯域別に複数に分割して顔が存在する可能性が高いと推定される領域を限定し、限定した領域に対して予め登録された顔画像データとの相関値を計算する方法が開示されている。 Further, in Patent Document 2, the region in which image data is divided into a plurality of frequency bands and the possibility that a face is likely to exist is limited, and the face image data registered in advance for the limited region A method for calculating a correlation value is disclosed.
これらの技術をカメラに応用した例を説明する。 An example in which these technologies are applied to a camera will be described.
特許文献3では、画像データから形状解析等の手法によって主被写体を自動的に検出し、検出された主被写体に対して焦点検出エリアを表示する。そして、この焦点検出エリアに対して焦点調節動作を行わせる方法が開示されている。 In Patent Document 3, a main subject is automatically detected from image data by a technique such as shape analysis, and a focus detection area is displayed for the detected main subject. And the method of performing a focus adjustment operation | movement with respect to this focus detection area is disclosed.
また、特許文献4では、画像データから特徴点を抽出することで主被写体である顔の存在する領域を識別し、この領域の大きさに応じて焦点検出エリアを設定する方法が開示されている。 Further, Patent Document 4 discloses a method of identifying a region where a face as a main subject exists by extracting feature points from image data and setting a focus detection area according to the size of this region. .
また、特許文献5では、画像データから特徴点を抽出することで顔の存在する領域を識別し、この領域の大きさに応じてズーム駆動を行う方法が開示されている。 Further, Patent Document 5 discloses a method of identifying a region where a face exists by extracting feature points from image data and performing zoom driving according to the size of this region.
また、特許文献6では、撮影前に顔位置を検出し、撮影直後に、検出された顔位置に枠を表示すると共に、顔を拡大表示させ、顔にピントが合っているかを確認できる方法が開示されている。
ところで、いわゆるコンパクトタイプのデジタルカメラでは、撮影時にカメラ背面の液晶表示器に逐次画像を表示するライブビュー表示を行い、液晶表示器を電子ビューファインダとして使用するものが主流である。このようなカメラでは、ライブビュー表示を行っている間、撮像素子で取り込んだ画像データから常時顔検出を行ない、顔が存在する領域を枠で囲むなどして表示し、使用者が顔の識別結果を確認できるようにしている。ところが、撮像素子で取り込んだ画像データから顔の位置を高精度に検出しようとするとその処理に時間がかかる。そのため、顔検出処理が終わって枠を表示する時点では、既に人物が画面上の他の位置に移動してしまっていて、枠の位置と人物の実際の顔の位置が一致しない場合がある。すなわち枠の表示位置が、人物の顔の動きに追従しない場合がある。このような場合、カメラは枠を表示した位置に人物の顔があると判断するため、実際には人物の顔が存在しない枠の位置に露出やフォーカスを合わせる処理をしてしまい、露出やフォーカスが狂ってしまうことがある。また、表示された枠の位置が実際の人物の顔の位置に一致せず、使用者が違和感を感じるという問題もある。 By the way, so-called compact type digital cameras are mainly used in live view display in which images are sequentially displayed on a liquid crystal display on the back of the camera at the time of shooting, and the liquid crystal display is used as an electronic viewfinder. In such a camera, during live view display, face detection is always performed from the image data captured by the image sensor, and the area where the face exists is surrounded by a frame and displayed so that the user can identify the face. The result can be confirmed. However, when it is attempted to detect the position of the face with high accuracy from the image data captured by the image sensor, the processing takes time. For this reason, when the frame is displayed after the face detection process is completed, the person has already moved to another position on the screen, and the position of the frame may not match the actual face position of the person. That is, the display position of the frame may not follow the movement of the person's face. In such a case, the camera determines that there is a person's face at the position where the frame is displayed. Therefore, the exposure or focus is actually adjusted to the position of the frame where there is no person's face. May go crazy. There is also a problem that the position of the displayed frame does not match the position of the actual person's face, and the user feels uncomfortable.
従って、本発明は上述した課題に鑑みてなされたものであり、その目的は、顔の検出精度を低下させることなく、顔の位置の検出結果の、実際の顔の位置に対する追従性を向上させることである。 Therefore, the present invention has been made in view of the above-described problems, and an object thereof is to improve the followability of the face position detection result to the actual face position without reducing the face detection accuracy. That is.
上述した課題を解決し、目的を達成するために、本発明に係わる撮像装置は、画像データから目的とする対象の位置を検出する検出手段と、撮像素子で生成された画像データを用いて画像を表示する表示手段と、前記検出手段により検出された前記対象の位置を示す表示を前記表示手段に表示させる表示制御手段と、前記撮像素子で生成された画像データを記憶する記憶手段とを有し、前記検出手段は前記撮像素子で生成された画像データを前記記憶手段に記憶する撮影動作よりも前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記記憶手段に記憶されている画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することのいずれかを行うことを特徴とする。
また、本発明に係わる撮像装置は、画像データから目的とする対象の位置を検出する検出手段と、撮像素子で生成された画像データを用いて画像を表示する表示手段と、前記検出手段により検出された前記対象の位置を示す表示を前記表示手段に表示させる表示制御手段と、記憶手段へ画像データを記憶することを指示するためのシャッタースイッチとを有し、前記検出手段は、前記シャッタースイッチが操作される前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記シャッタースイッチが操作された後に前記撮像素子で生成された画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することのいずれかを行うことを特徴とする。
In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention uses a detection unit that detects a target position from image data and an image data generated by the imaging element. Display means for displaying the display, display control means for causing the display means to display a display indicating the position of the object detected by the detection means, and storage means for storing the image data generated by the image sensor. When the detection unit detects the position of the target from the image data generated by the image sensor before the photographing operation for storing the image data generated by the image sensor in the storage unit, the storage in comparison with the case of detecting the position of the target from the image data stored in the unit, at least, it sets a narrow range of the image data to detect the target, and, biopsy And performing possible to one of the sets a narrow range of tilt of the object.
In addition, an imaging apparatus according to the present invention includes a detection unit that detects a target position from image data, a display unit that displays an image using image data generated by the imaging device, and a detection unit that detects the image. Display control means for causing the display means to display a display indicating the position of the target, and a shutter switch for instructing storage means to store image data, and the detection means includes the shutter switch When the position of the target is detected from the image data generated by the image sensor before the operation of the shutter, the position of the target is detected from the image data generated by the image sensor after the shutter switch is operated. in comparison with the case where, at least, it sets a narrow range of the image data to detect the target, and, inclination of the object to be detected And performing one of setting a narrow range.
また、本発明に係わる撮像装置の制御方法は、画像データから目的とする対象の位置を検出する検出工程と、撮像素子で生成された画像データを用いて画像を表示手段に表示する表示工程と、前記検出工程で検出された前記対象の位置を示す表示を前記表示手段に表示する表示制御工程と、前記撮像素子で生成された画像データを記憶手段に記憶する撮影工程とを有し、前記検出工程において、前記撮影工程よりも前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記記憶手段に記憶されている画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することのいずれかを行うことを特徴とする。
また、本発明に係わる撮像装置の制御方法は、画像データから目的とする対象の位置を検出する検出工程と、撮像素子で生成された画像データを用いて画像を表示手段に表示する表示工程と、前記検出工程で検出された前記対象の位置を示す表示を前記表示手段に表示する表示制御工程と、シャッタースイッチの操作に応じて記憶手段へ画像データを記憶する撮影工程とを有し、前記検出工程において、前記シャッタースイッチが操作される前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記シャッタースイッチが操作された後に前記撮像素子で生成された画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することのいずれかを行うことを特徴とする。
The image pickup apparatus control method according to the present invention includes a detection step of detecting a target position from image data, and a display step of displaying an image on a display unit using image data generated by the image pickup device. A display control step for displaying on the display means a display indicating the position of the object detected in the detection step, and a photographing step for storing the image data generated by the image sensor in the storage means, In the detection step, when the position of the target is detected from the image data generated by the imaging device before the photographing step, the position of the target is detected from the image data stored in the storage unit compared to, at least, it sets a narrow range of the image data to detect the target, and, either by setting narrow range of the target slope to be detected And performing.
The image pickup apparatus control method according to the present invention includes a detection step of detecting a target position from image data, and a display step of displaying an image on a display unit using image data generated by the image pickup device. A display control step for displaying on the display means a display indicating the position of the object detected in the detection step, and a photographing step for storing image data in the storage means in response to an operation of a shutter switch, In the detection step, when detecting the position of the target from the image data generated by the image sensor before the shutter switch is operated, the image data generated by the image sensor after the shutter switch is operated in comparison with the case of detecting the position of the object from at least be set narrow range of the image data to detect the target, and the detection And performing one of setting a narrow range of inclination of the subject in ability.
また、本発明に係わるプログラムは、上記の制御方法をコンピュータに実行させることを特徴とする。 A program according to the present invention causes a computer to execute the above control method.
また、本発明に係わる記憶媒体は、上記のプログラムを記憶したことを特徴とする。 A storage medium according to the present invention stores the above program.
本発明によれば、顔の検出精度を低下させることなく、顔の位置の検出結果の、実際の顔の位置に対する追従性を向上させることが可能となる。 According to the present invention, it is possible to improve the followability of the detection result of the face position with respect to the actual face position without reducing the face detection accuracy.
以下、本発明の好適な実施形態について、添付図面を参照して詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings.
尚、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。 The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.
(第1の実施形態)
図1は、本発明の第1の実施形態に係る撮像装置100の構成を示すブロック図である。本実施形態では、主被写体の識別領域(具体的には人物の顔領域)を表示する機能を有する機器として、デジタルカメラを例にあげて説明を行うが、動画を処理するものであればビデオカメラや監視カメラ等の他の装置であってもよい。
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration of an
図1において、101は後述の撮像素子103に被写体像を結像させる対物レンズ群、102は絞り装置及びシャッタ装置を備えた光量調節装置である。103は対物レンズ群101によって結像された被写体像を電気信号に変換するCCDやCMOSセンサ等の撮像素子である。104は撮像素子103のアナログ出力信号にクランプ処理、ゲイン処理等を行うアナログ信号処理回路である。105はアナログ信号処理回路104の出力をデジタル信号に変換するアナログ/デジタル(以下、A/Dという)変換器である。A/D変換器105から出力された画像データは後述のデジタル信号処理回路107とメモリ制御回路106を介して、あるいは、直接メモリ制御回路106を介してメモリ108に書き込まれる。
In FIG. 1,
107はデジタル信号処理回路であり、A/D変換器105からのデータ或いはメモリ制御回路106からのデータに対して画素補間処理や色変換処理を行う。また、デジタル信号処理回路107はA/D変換器105からのデータを用いて被写体の合焦状態を示す値や、輝度値の演算、および、ホワイトバランスの調節を行う。
A digital
このデジタル信号処理回路107には、主被写体の特徴データを予め登録し、特徴データと照合することで、画像データからこの主被写体を識別する被写体識別回路115が搭載されている。本実施形態では、被写体識別回路115はA/D変換器105からのデータ、あるいは、メモリ108に書き込まれたデータから、特徴データとして登録された目や口等の顔の特徴部を検出することで、人間の顔が存在する領域を識別する。本実施形態では主被写体である人間の顔が存在する領域の位置を識別領域としている。
The digital
システム制御回路112はデジタル信号処理回路107の演算結果に基づいて、露出制御回路113、焦点制御回路114に対する制御を実行する。具体的には対物レンズ群101を通過した被写体像を用いた焦点制御処理、露出制御処理、調光処理を行う。またシステム制御回路112は、被写体識別回路115の識別結果をもとに、識別領域を示す被写界枠の表示を制御する表示制御回路117を有している。
The
メモリ制御回路106は、アナログ信号処理回路104、A/D変換器105、デジタル信号処理回路107、メモリ108、デジタル/アナログ(以下、D/Aとする)変換器109を制御する。A/D変換器105でA/D変換されたデータはデジタル信号処理回路107、メモリ制御回路106を介して、或いはA/D変換器105でA/D変換されたデータが直接メモリ制御回路106を介して、メモリ108に書き込まれる。
The
メモリ108には表示装置110に表示するデータが書き込まれ、メモリ108に書き込まれたデータはD/A変換器109を介して後述する表示装置110によって表示される。また、メモリ108は、撮像した静止画あるいは動画を格納する。また、このメモリ108はシステム制御回路112の作業領域としても使用することが可能である。
Data to be displayed on the
110は撮影によって得られた画像データから生成した画像を表示する液晶モニターからなる表示装置であり、撮像素子103を用いて得られた被写体像を逐次表示すれば電子的なファインダとして機能する。この表示装置110は、システム制御回路112の指示により任意に表示のオンとオフを切り換えることができ、表示をオフにした場合は、オンにした場合に比較して撮像装置100の電力消費を低減できる。また、表示装置110はシステム制御回路112からの指令に応じて文字、画像等を用いて撮像装置100の動作状態やメッセージ等を表示する。
111はメモリカードやハードディスク等の外部記憶媒体や、他のコンピュータやプリンタ等の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うためのインターフェースである。このインターフェース111をPCMCIAカードやCF(コンパクトフラッシュ(登録商標))カード等の規格に準拠したものを用いて構成した場合、各種通信カードを接続すればよい。この各種通信カードとしては、LANカードやモデムカード、USBカード、IEEE1394カード、P1284カード、SCSIカード、PHS等の通信カード、等があげられる。 Reference numeral 111 denotes an interface for transferring image data and management information attached to the image data to / from external storage media such as a memory card and a hard disk, and peripheral devices such as other computers and printers. When the interface 111 is configured using a PCMCIA card, a CF (Compact Flash (registered trademark)) card, or the like, a variety of communication cards may be connected. Examples of the various communication cards include LAN cards, modem cards, USB cards, IEEE 1394 cards, P1284 cards, SCSI cards, communication cards such as PHS, and the like.
116は姿勢検知回路であり、撮像装置100の姿勢を検知してシステム制御回路112に検知結果を出力する。
システム制御回路112は撮像装置100全体の動作を制御している。システム制御回路112内の不図示のメモリに、このシステム制御回路112の動作用の定数、変数、プログラム等を記憶している。
The
露出制御回路113は、光量調節装置102の絞り装置、シャッタ装置を駆動する。焦点制御回路114は対物レンズ群101のフォーカシングレンズ、ズームレンズを駆動する。
The
図2は、デジタル信号処理回路107の構成要素の一部を示す図である。
FIG. 2 is a diagram illustrating some of the components of the digital
201はA/D変換器105から出力された画像データのRGB信号から輝度信号Yと色差信号Cr、Cbを分離して生成する色変換回路である。
A
202は色差信号Cr、Cbに対してホワイトバランス処理、高輝度或いは低輝度の色を薄くする色消し処理を行う色処理回路である。
203は輝度信号にフィルタ処理、輝度補正処理、ガンマ処理等を行う輝度処理回路である。
A
204は輝度信号にフィルタ処理を施して輪郭強調を行う輪郭強調回路である。
205は輝度処理を施した後の輝度信号から高周波信号を抜き出すためのバンドパスフィルタ(BPF)、あるいはハイパスフィルタ(HPF)である。
206は撮像時のシーン変化を検出するシーン検出回路である。
デジタル信号処理回路107は輝度信号Yと色差信号Cr、Cbを合成したYCrCb信号を画像データとして出力する。
The digital
以下、図3乃至図7のフローチャートを参照して、本実施形態に係るデジタルカメラの動作について説明する。尚、この処理を実行するプログラムはシステム制御回路112内のメモリに記憶されており、システム制御回路112の制御の下に実行される。
The operation of the digital camera according to this embodiment will be described below with reference to the flowcharts of FIGS. A program for executing this processing is stored in a memory in the
図3は本実施形態に係る撮像装置100におけるメイン処理での動作を説明するためのフローチャートである。
FIG. 3 is a flowchart for explaining the operation in the main process in the
この処理は、例えば電池交換後などの電源投入により開始される。 This process is started when the power is turned on, for example, after battery replacement.
ステップS101では、システム制御回路112は、内部のメモリの各種フラグや制御変数等を初期化する。
In step S101, the
ステップS102では、システム制御回路112は、表示装置110の画像表示をオフに初期設定する。
In step S102, the
ステップS103では、システム制御回路112は、電源の残容量や動作情況が撮像装置100の動作に問題があるか否かを判断する。システム制御回路112は、問題があると判断するとステップS105に進み、表示装置110を用いて、画像や音声により所定の警告表示を行い、その後、ステップS103に戻る。また、システム制御回路112は電源に問題が無いと判断するとステップS104に進む。
In step S <b> 103, the
ステップS104では、システム制御回路112は、記憶媒体の動作状態が撮像装置100の動作、特に記憶媒体に対するデータの記録再生動作に問題があるか否かを判断する。システム制御回路112は問題があると判断すると前述のステップS105に進み、表示装置110を用いて、画像や音声により所定の警告表示を行った後にステップS103に戻る。また、システム制御回路112は記憶媒体の動作に問題が無いと判断するとステップS106に進む。
In step S104, the
ステップS106では、システム制御回路112は、表示装置110を用いて、画像や音声により撮像装置100の各種設定状態のユーザーインターフェース(以下、UIとする)表示を行う。尚、表示装置110の画像表示がオンであったならば、表示装置110も用いて画像や音声により撮像装置100の各種設定状態のUI表示を行ってもよい。こうしてユーザーによる各種設定がなされる。
In step S <b> 106, the
ステップS107では、システム制御回路112は、表示装置110の画像表示をオンに設定する。
In step S107, the
ステップS108では、システム制御回路112は、撮像素子103にて得られた画像データをもとに生成した画像を逐次表示する観察(ライブビュー)表示状態に設定する。この観察表示状態では、メモリ108に逐次書き込まれたデータを表示装置110により逐次表示することにより、表示装置110が電子的なファインダとして機能する。
In step S108, the
ステップS109では、システム制御回路112は、得られた画像データをもとに焦点制御処理および露出制御処理を行う。このときに顔が存在する領域(以下、顔領域という)である識別領域に関する情報を得ていれば、識別領域を優先して焦点制御処理および露出制御処理を行う。
In step S109, the
ステップS110では、システム制御回路112は、顔検出レベルを1に設定する。
In step S110, the
ステップS111では、システム制御回路112は、被写体識別回路115に画像データから顔領域を識別する顔識別処理を行わせる。顔検出処理の詳細は後述する。なお、ここで行われる顔検出処理は、後述するように、例えば主たる被写体と考えられる人物の顔に露出を合わせたり、フォーカスを合わせたりするために行われるものである。
In step S111, the
ステップS112では、システム制御回路112は、被写体識別回路115による識別結果を受けて、デジタル信号処理回路107に識別領域を示す識別表示を表示する処理を行わせる。
In step S112, the
本実施形態では、図7のように顔の位置する部分に識別表示として枠を表示する形態としている。本実施形態では、顔の大きさにあわせて、顔を囲むように四角い枠を表示している。 In the present embodiment, as shown in FIG. 7, a frame is displayed as an identification display on the portion where the face is located. In the present embodiment, a square frame is displayed so as to surround the face according to the size of the face.
ステップS113では、システム制御回路112は、シャッタースイッチSW1が押されているかどうかを調べ、押されていなければステップS103に戻るが、シャッタースイッチSW1が押されたならばステップS114に進む。なお、シャッタースイッチSW1は、不図示のレリーズボタンを半押しすることによりONするスイッチである。
In step S113, the
ステップS114では、システム制御回路112は、識別領域の輝度値が適正となるように、あるいは、識別領域の重み付けを他の領域よりも大きくして画面全体としての輝度値が適正となるように露出制御回路113に露出制御を行わせる。
In step S114, the
このときの露出制御の結果に応じて、必要であれば不図示の閃光装置を撮影時に発光させることを決定する。また、肌の色の影響によってホワイトバランスが不適切となることを防止するため、識別領域を除外して、あるいは、重み付けを他の領域よりも小さくしてホワイトバランスの調節を行う。さらに、識別領域が合焦状態になるように焦点制御回路114に焦点制御を行わせる。
In accordance with the result of the exposure control at this time, if necessary, it is determined that a flash device (not shown) emits light at the time of photographing. Further, in order to prevent the white balance from becoming inappropriate due to the influence of the skin color, the white balance is adjusted by excluding the identification area or by making the weighting smaller than that of the other areas. Further, the
ステップS115では、システム制御回路112は、シャッタースイッチSW2が操作されるまで観察表示状態を継続する。なお、シャッタースイッチSW2は、不図示のレリーズボタンを全押しすることによりONするスイッチである。
In step S115, the
ステップS116では、システム制御回路112は、シャッタースイッチSW2が押されているかどうかを調べ、押されていなければステップS117に進み、シャッタースイッチSW2が押されていればステップS118に進む。
In step S116, the
ステップS117では、システム制御回路112は、シャッタースイッチSW1が押されているかどうかを調べ、押されていなければステップS103に戻り、シャッタースイッチSW1が押されていればステップS116に戻る。
In step S117, the
ステップS118では、システム制御回路112は撮像した画像データをメモリ108に書き込む撮影処理を行う。露出制御回路113はステップS114の露出制御結果に従い絞り装置を駆動し、シャッタを開放して撮像素子103を露光する。必要に応じて閃光装置を発光させ、設定された露光時間が経過したところでシャッタを閉じる。撮像素子103から出力された電荷信号はA/D変換器105、デジタル信号処理回路107、メモリ制御回路106を介して保存用の画像データとしてメモリ108に書き込まれる。さらにシステム制御回路112はメモリ制御回路106、デジタル信号処理回路107を用いて、メモリ108に書き込まれた保存用の画像データを読み出して垂直加算処理を実行させる。デジタル信号処理回路107に色処理を順次行わせ、表示用の画像データを生成し、再びメモリ108に書き込ませる。
In step S <b> 118, the
ステップS119では、システム制御回路112は、顔検出レベルを2に設定する。
In step S119, the
ステップS120では、システム制御回路112は、被写体識別回路115に画像データから顔領域を識別する顔識別処理を行わせる。顔検出処理の詳細は後述する。ここで行われる顔検出処理の結果は、例えば、ストロボ撮影時に赤目現象が起こってしまった場合に、人物の目の位置を正確に特定するための情報として用いられる。そのため顔の位置検出の精度が要求される。あるいは、人物又は特定の人物の写っている写真を分類するための情報として用いてもよい。
In step S120, the
ステップS121では、システム制御回路112は、被写体識別回路115による識別結果を受けて、デジタル信号処理回路107に識別領域を示す識別表示を表示する処理を行わせる。
In step S121, the
本実施形態では、図7のように顔の位置する部分に枠を表示する形態としている。 In the present embodiment, as shown in FIG. 7, a frame is displayed at the portion where the face is located.
ステップS122では、表示装置110にて、ステップS118にて得られた表示用の画像データを用いて撮影した画像の表示を行う。
In step S122, the
ステップS123では、システム制御回路112は、メモリ108に書き込まれた保存用の画像データを読み出して、メモリ制御回路106、及び必要に応じてデジタル信号処理回路107を用いて各種画像処理を実行させる。また、システム制御回路112は、画像圧縮処理を行わせた後、記憶媒体へ圧縮した保存用の画像データの書き込みを行う記録処理を実行する。このとき、ステップS120にて識別した顔領域の位置情報も画像データとともに書き込む。
In step S123, the
ステップS124では、システム制御回路112は、設定された表示時間が経過するのを待ってステップS125に進む。
In step S124, the
ステップS125では、システム制御回路112は表示装置110を観察表示状態に設定してステップS103に戻る。これにより、表示装置110で撮影した画像を確認した後に、次の撮影のための観察表示状態にすることができる。
In step S125, the
次に、本実施形態の特徴である図3のステップS111、ステップS120における顔検出の処理について説明する。 Next, the face detection process in steps S111 and S120 of FIG. 3 which is a feature of the present embodiment will be described.
顔領域を検出する技術としては、様々な手法が公知となっている。例えば、ニューラルネットワークに代表される学習を用いた方法がある。また、目、鼻、口、および、顔の輪郭といった物理的な形状の特徴のある部位を画像データからテンプレートマッチングを用いて識別する手法がある。他にも、肌の色や目の形といった画像データの特徴量を検出し統計的解析を用いた手法があげられる(例えば、特開平10−232934号公報や特開2000−48184号公報等を参照)。さらに、直前の顔領域が検出された位置の近傍であるかを判定したり、服の色を加味するために顔領域の近傍の色を判定したり、あるいは、画面の中央付近ほど顔識別のための閾値を低く設定したりする方法がある。または予め主被写体が存在する領域を指定させてヒストグラムや色情報を記憶し、相関値を求めることで主被写体を追尾する方法がある。本実施形態では、その形状から一対の目(両目)、鼻、口、および、顔の輪郭を検出し、これらの相対位置より人物の顔領域を決定する手法により顔領域の識別処理を行っている。そして検出された顔領域の大きさに沿って、この顔領域を囲む方形領域を設定し、この方形領域の座標を求める。この顔領域を囲む方形領域の座標が、対象となる主被写体の位置を示す識別領域となる。なお、顔領域を囲む領域は方形に限定されるものではなく、楕円などの他の形状や、検出された顔の輪郭に沿う形状であっても構わない。 Various techniques are known for detecting the face area. For example, there is a method using learning represented by a neural network. In addition, there is a technique for identifying parts having physical shape features such as eyes, nose, mouth, and facial contour from image data using template matching. In addition, there is a technique that detects a feature amount of image data such as skin color or eye shape and uses statistical analysis (for example, Japanese Patent Laid-Open Nos. 10-232934 and 2000-48184). reference). In addition, it is determined whether the previous face area is near the detected position, the color near the face area is determined in consideration of the color of clothes, or the face identification is performed closer to the center of the screen. There is a method of setting the threshold value for this purpose low. Alternatively, there is a method of tracking the main subject by specifying a region in which the main subject exists in advance, storing a histogram and color information, and obtaining a correlation value. In this embodiment, a pair of eyes (both eyes), a nose, a mouth, and a face outline are detected from the shape, and a face area identification process is performed by a method of determining a person's face area from these relative positions. Yes. Then, a square area surrounding the face area is set along the size of the detected face area, and the coordinates of the square area are obtained. The coordinates of the rectangular area surrounding the face area become an identification area indicating the position of the main subject. The area surrounding the face area is not limited to a square, and may be another shape such as an ellipse or a shape that follows the detected outline of the face.
また、図8は、本実施形態での画像データを説明する図である。 FIG. 8 is a diagram for explaining image data in the present embodiment.
X方向に3000画素、Y方向に2000画素の光電変換部を有する撮像素子を用いている。 An image sensor having a photoelectric conversion unit of 3000 pixels in the X direction and 2000 pixels in the Y direction is used.
図4は、本実施形態における顔検出処理の動作を説明するためのフローチャートである。 FIG. 4 is a flowchart for explaining the operation of the face detection process in the present embodiment.
図4に記載する顔検出処理では、顔検出レベルに応じて、顔検出範囲を切り替えている。 In the face detection process illustrated in FIG. 4, the face detection range is switched according to the face detection level.
ステップS201では、システム制御回路112は、顔検出レベルが1か否かを判別し、顔検出レベルが1であれば、ステップS202に進み、顔検出レベルが1でなければ、ステップS220に進む。なお、本実施形態では、図3で示したように、顔検出レベルが1でない場合は、顔検出レベルは2である。
In step S201, the
ステップS202からステップS203では、顔検出レベルが1の場合の、顔検出範囲の設定を行う。 In steps S202 to S203, a face detection range is set when the face detection level is 1.
顔検出レベルが1の場合の顔検出範囲は、図9の太線で囲まれた範囲としている。 The face detection range when the face detection level is 1 is a range surrounded by a thick line in FIG.
ステップS202では、システム制御回路112は、顔検出範囲の始点座標(X1、Y1)の設定を行う。
In step S202, the
詳しくは、X1=999、Y1=499とする(図9参照)。 Specifically, X1 = 999 and Y1 = 499 (see FIG. 9).
ステップS203では、システム制御回路112は、顔検出範囲の終点座標(X2、Y2)の設定を行う。
In step S203, the
詳しくは、X2=1999、Y2=1499とする(図9参照)。 Specifically, X2 = 1999 and Y2 = 1499 (see FIG. 9).
ステップS204では、システム制御回路112は、特徴抽出の始点座標(X、Y)の設定を行う。
In step S204, the
詳しくは、X=X1、Y=Y1とする。 Specifically, X = X1 and Y = Y1.
ステップS205では、システム制御回路112は、特徴抽出領域の設定を行う。
In step S205, the
詳しくは、ステップS204で指定された特徴抽出領域の始点座標を基に、X方向に所定画素α分、Y方向に所定画素β分の領域が設定される(図10参照)。 Specifically, based on the start point coordinates of the feature extraction region specified in step S204, a region for a predetermined pixel α in the X direction and a predetermined pixel β in the Y direction is set (see FIG. 10).
ステップS206では、システム制御回路112は、指定された領域に対する特徴抽出を行なう。
In step S206, the
ステップS207では、システム制御回路112は、特徴抽出の始点座標(X、Y)の更新を行う。
In step S207, the
詳しくは、X=X+1の計算を行う。このとき、X+α>X2となった時は、X=X1とすると共に、Y=Y+1の計算を行う。 Specifically, X = X + 1 is calculated. At this time, when X + α> X2, X = X1 and Y = Y + 1 are calculated.
ステップS208では、システム制御回路112は、特徴抽出領域の設定を行う。
In step S208, the
詳しくは、ステップS207で指定された特徴抽出領域の始点座標を基に、X方向に所定画素α分、Y方向に所定画素β分の領域が設定される(図10参照)。 Specifically, based on the start point coordinates of the feature extraction area specified in step S207, an area for a predetermined pixel α in the X direction and a predetermined pixel β in the Y direction is set (see FIG. 10).
このようにすることで、図10で太線で囲まれた範囲内で、矢印で示すように特徴抽出領域が移動していき、太線で囲まれた領域の全範囲について特徴抽出処理が行われる。 By doing so, the feature extraction region moves as indicated by the arrow within the range surrounded by the thick line in FIG. 10, and the feature extraction processing is performed for the entire range of the region surrounded by the thick line.
ステップS209では、システム制御回路112は、X+α>X2、かつ、Y+β>Y2の条件を満たすかを判定することで顔検出範囲全体について特徴抽出が終了したか否かの判定を行う。終了していなければステップS206に戻り、終了した場合は、ステップS210に進み顔検出処理を終了する。
In step S209, the
ステップS220では、システム制御回路112は、顔検出範囲の始点座標(X1、Y1)の設定を行う。
In step S220, the
詳しくは、X1=0、Y1=0とする(図11参照)。 Specifically, X1 = 0 and Y1 = 0 are set (see FIG. 11).
ステップS221では、システム制御回路112は、顔検出範囲の終点座標(X2、Y2)の設定を行う。
In step S221, the
詳しくは、X2=2999、Y2=1999とする(図11参照)。 Specifically, X2 = 2999 and Y2 = 1999 are set (see FIG. 11).
すなわち、本実施形態では、顔検出レベルが2の場合の顔検出範囲は、図11に示すように画面全体とする。 That is, in this embodiment, the face detection range when the face detection level is 2 is the entire screen as shown in FIG.
ステップS222では、システム制御回路112は、特徴抽出の始点座標(X、Y)の設定を行う。
In step S222, the
詳しくは、X=X1、Y=Y1とする。 Specifically, X = X1 and Y = Y1.
ステップS223では、システム制御回路112は、特徴抽出領域の設定を行う。
In step S223, the
詳しくは、ステップS222で指定された特徴抽出領域の始点座標を基に、X方向に所定画素α分、Y方向に所定画素β分の領域が設定される(図12参照)。 Specifically, based on the start point coordinates of the feature extraction area specified in step S222, an area for a predetermined pixel α in the X direction and a predetermined pixel β in the Y direction is set (see FIG. 12).
ステップS224では、システム制御回路112は、指定された領域に対する特徴抽出を行う。
In step S224, the
ステップS225では、システム制御回路112は、特徴抽出の始点座標(X、Y)の更新を行う。
In step S225, the
詳しくは、X=X+1の計算を行う。このとき、X+α>X2となった時は、X=X1とすると共に、Y=Y+1の計算を行う。 Specifically, X = X + 1 is calculated. At this time, when X + α> X2, X = X1 and Y = Y + 1 are calculated.
ステップS226では、システム制御回路112は、特徴抽出領域の設定を行う。
In step S226, the
詳しくは、ステップS207で指定された特徴抽出領域の始点座標を基に、X方向に所定画素α分、Y方向に所定画素β分の領域が設定される(図12参照)。 Specifically, based on the start point coordinates of the feature extraction area specified in step S207, an area for a predetermined pixel α in the X direction and a predetermined pixel β in the Y direction is set (see FIG. 12).
このようにすることで、図12で太線で囲まれた範囲内(本実施形態では画面全体)で、矢印で示すように特徴抽出領域が移動していき、太線で囲まれた領域の全範囲について特徴抽出処理が行われる。 By doing so, the feature extraction region moves as indicated by the arrow within the range surrounded by the thick line in FIG. 12 (the entire screen in this embodiment), and the entire range of the region surrounded by the thick line is moved. A feature extraction process is performed for.
ステップS227では、システム制御回路112は、X+α>X2、かつ、Y+β>Y2の条件を満たすかを判定することで顔検出範囲の特徴抽出が終了したか否かの判定を行う。終了していなければステップS224に戻り、終了した場合は、ステップS210に進み顔検出を終了する。なお、ある大きさの特徴抽出領域で顔検出範囲における特徴抽出が終了したら、αとβの値を異ならせて特徴抽出領域の大きさを変更し、再び顔検出範囲における特徴抽出を行う構成としてもよい。
In step S227, the
以上説明したように、本実施形態では、撮影動作の前の顔検出動作、詳しくは、待機状態(ライブビュー表示時)での顔検出動作では、ステップS110で顔検出レベルを1に設定し、次のステップS111で顔検出を行う。ステップS111で行う顔検出では、図9及び図10に示すように、顔検出範囲が中央付近に制限される。また、撮影動作の後の顔検出動作、詳しくは、撮影した画像(画像再生時)での顔検出動作では、ステップS119で顔検出レベルを2に設定し、次のステップS120で顔検出を行う。ステップS120で行う顔検出では、図11及び図12に示すように、顔検出範囲の制限は行わない。 As described above, in the present embodiment, in the face detection operation before the shooting operation, specifically, in the face detection operation in the standby state (when displaying live view), the face detection level is set to 1 in step S110, In next step S111, face detection is performed. In the face detection performed in step S111, the face detection range is limited to the vicinity of the center as shown in FIGS. Further, in the face detection operation after the photographing operation, specifically, in the face detection operation in the photographed image (image reproduction), the face detection level is set to 2 in step S119, and the face detection is performed in the next step S120. . In the face detection performed in step S120, as shown in FIGS. 11 and 12, the face detection range is not limited.
撮影動作の前の状態で人物が動いている場合に、顔検出動作の処理に時間を要してしまうと、顔検出処理にて顔領域の位置を特定できたときには、実際の顔の位置がずれてしまい、顔領域の位置を利用した焦点制御処理や露出制御処理が有効に機能しなくなってしまう可能性が高くなる。そこで、撮影動作の前の顔検出動作、詳しくは、待機状態(ライブビュー表示時)での顔検出動作では、顔検出範囲を制限することで処理時間を短縮し、顔検出の、人物の顔の移動への追従性を向上させている。また、撮影動作の後の顔検出動作、詳しくは、撮影した画像(画像再生時)での顔検出動作では、上記のような問題が生じないため、顔検出範囲の制限をかけずに検出漏れの少ない顔検出結果が得られるようにしている。このように本実施形態では、顔検出に要する処理時間を優先するか、顔検出漏れの抑制を優先するかに応じて、顔検出範囲の面積を異ならせている。 If a person is moving in the state before the shooting operation and the face detection operation takes time, if the position of the face area can be identified by the face detection processing, the actual face position will be There is a high possibility that the focus control process and the exposure control process using the position of the face area will not function effectively. Therefore, in the face detection operation before the shooting operation, more specifically, in the face detection operation in the standby state (live view display), the processing time is shortened by limiting the face detection range. Improves the ability to follow the movement. In addition, the face detection operation after the shooting operation, more specifically, the face detection operation in the captured image (when the image is played back) does not cause the above-mentioned problems, and therefore the detection is not limited without limiting the face detection range. A face detection result with less image quality is obtained. As described above, in the present embodiment, the area of the face detection range is varied depending on whether priority is given to the processing time required for face detection or suppression of face detection omission.
(第2の実施形態)
以下、顔検出処理の第2の実施形態について説明する。なお、撮像装置の構成及び撮像装置のメインの動作は、図1及び図3に示した第1の実施形態と同様であるので説明を省略する。
(Second Embodiment)
Hereinafter, a second embodiment of the face detection process will be described. The configuration of the imaging device and the main operation of the imaging device are the same as those in the first embodiment shown in FIGS.
図5は、第2の実施形態における顔検出処理の動作を説明するためのフローチャートである。 FIG. 5 is a flowchart for explaining the operation of the face detection process in the second embodiment.
ステップS301では、システム制御回路112は、顔検出レベルが1か否かを判別し、顔検出レベルが1であれば、ステップS302に進み、顔検出レベルが1でなければ、ステップS310に進む。
In step S301, the
ステップS302では、システム制御回路112は、特徴抽出用の画像データを生成する。画像データを生成する際、生成されるサイズを小さくするために画素間引き処理を行う。
In step S302, the
ステップS303では、システム制御回路112は、前述したステップS302で生成された画像データを用いて特徴抽出を行う。特徴抽出の方法は、第1の実施形態と同様である。
In step S303, the
ステップS310では、システム制御回路112は、特徴抽出用の画像データを生成する。画像データを生成する際、画素間引き処理は行わない。
In step S310, the
ステップS311では、システム制御回路112は、前述したステップS310で生成された画像データを用いて特徴抽出を行う。特徴抽出の方法は、第1の実施形態と同様である。
In step S311, the
以上説明したように、本実施形態では、撮影動作の前の顔検出動作、詳しくは、待機状態(ライブビュー表示時)での顔検出動作では、ステップS110で顔検出レベルを1に設定し、次のステップS111で顔検出を行う。ステップS111で行う顔検出では、画素間引き処理を行った画像データを生成し(ステップS302)、特徴抽出を行う(ステップS303)。また、撮影動作の後の顔検出動作、詳しくは、撮影した画像(画像再生時)での顔検出動作では、ステップS119で顔検出レベルを2に設定し、次のステップS120で顔検出を行う。ステップS120で行う顔検出では、画素間引き処理をしていない画像データを生成し(ステップS310)、特徴抽出を行う(ステップS311)。 As described above, in the present embodiment, in the face detection operation before the shooting operation, specifically, in the face detection operation in the standby state (when displaying live view), the face detection level is set to 1 in step S110, In next step S111, face detection is performed. In face detection performed in step S111, image data subjected to pixel thinning processing is generated (step S302), and feature extraction is performed (step S303). Further, in the face detection operation after the photographing operation, specifically, in the face detection operation in the photographed image (image reproduction), the face detection level is set to 2 in step S119, and the face detection is performed in the next step S120. . In the face detection performed in step S120, image data not subjected to pixel thinning processing is generated (step S310), and feature extraction is performed (step S311).
このように、撮影動作の前の顔検出動作、詳しくは、待機状態での顔検出動作では、画素間引き処理が行なわれている画像データを用いるので顔検出動作で扱うデータ量を減少させることができる。このため処理時間を短縮できるので、顔検出の、人物の顔の移動への追従性を向上させることができる。 As described above, in the face detection operation before the photographing operation, specifically, the face detection operation in the standby state, the image data subjected to the pixel thinning process is used, so that the amount of data handled in the face detection operation can be reduced. it can. For this reason, since the processing time can be shortened, the followability of the face detection to the movement of the person's face can be improved.
また、撮影動作の後の顔検出動作、詳しくは、撮影した画像(画像再生時)での顔検出動作では、画素間引き処理が行なわれていない画像データを用いるので、撮影動作前よりも小さな顔を検出することが可能になり、精度の高い顔検出結果が得られる。このように顔検出に要する処理時間を優先するか、精度を優先するかに応じて、顔検出動作に用いる画像データの画素数を異ならせている。 In addition, the face detection operation after the shooting operation, more specifically, the face detection operation in the captured image (during image playback) uses image data that has not been subjected to pixel thinning processing, and therefore has a smaller face than before the shooting operation. Can be detected, and a highly accurate face detection result can be obtained. As described above, the number of pixels of the image data used for the face detection operation is varied depending on whether processing time required for face detection is given priority or accuracy is given priority.
(第3の実施形態)
以下、顔検出処理の第3の実施形態について説明する。なお、撮像装置の構成及び撮像装置のメインの動作は、図1及び図3に示した第1の実施形態と同様であるので説明を省略する。
(Third embodiment)
Hereinafter, a third embodiment of the face detection process will be described. The configuration of the imaging device and the main operation of the imaging device are the same as those in the first embodiment shown in FIGS.
図6は、第3の実施形態における顔検出処理の動作を説明するためのフローチャートである。鼻、口、および、顔の輪郭を検出して顔領域を検出する方法では、画像データ中の顔が傾いていると、これらの特徴のある部位を識別できない場合がある。そこで検出漏れを少なくするためには、顔領域の検出対象となる画像データを少しずつ回転させながら顔領域の検出を行う方法が考えられる。 FIG. 6 is a flowchart for explaining the operation of the face detection process in the third embodiment. In the method of detecting the face area by detecting the nose, mouth, and face outline, if the face in the image data is tilted, there are cases where these characteristic parts cannot be identified. In order to reduce detection omissions, a method of detecting a face area while rotating image data that is a detection target of the face area little by little can be considered.
ステップS401では、システム制御回路112は、顔検出レベルが1か否かを判別し、顔検出レベルが1であれば、ステップS402に進み、顔検出レベルが1でなければ、ステップS410に進む。
In step S401, the
ステップS402では、システム制御回路112は、顔の傾き角度の検出範囲の設定を行う。
In step S402, the
詳しくは、−45度から+45度とする。 Specifically, the angle is −45 degrees to +45 degrees.
ステップS403では、システム制御回路112は、−45度分だけ画像を回転させる。
In step S403, the
ステップS404では、システム制御回路112は、特徴抽出を行う。特徴抽出の方法は、第1の実施形態と同様である。
In step S404, the
ステップS405では、システム制御回路112は、+5度分だけ画像を回転させる。
In step S405, the
ステップS406では、システム制御回路112は、+45度まで検出が終了したか否かを判別し、終了した場合は、ステップS407に進み、終了していなければ、ステップS404に戻る。
In step S406, the
ステップS410では、システム制御回路112は、顔の傾き角度の検出範囲の設定を行う。
In step S410, the
詳しくは、−180度から+180度とする。 Specifically, it is set to −180 degrees to +180 degrees.
ステップS411では、システム制御回路112は、−180度分だけ画像を回転させる。
In step S411, the
ステップS412では、システム制御回路112は、特徴抽出を行う。特徴抽出の方法は、第1の実施形態と同様である。
In step S412, the
ステップS413では、システム制御回路112は、+5度分だけ画像を回転させる。
In step S413, the
ステップS414では、システム制御回路112は、+180度まで検出が終了したか否かを判別し、終了した場合は、ステップS407に進み、終了していなければ、ステップS412に戻る。
In step S414, the
以上説明したように、本実施形態では、撮影動作の前の顔検出動作、詳しくは、待機状態(ライブビュー表示時)での顔検出動作では、ステップS110で顔検出レベルを1に設定し、次のステップS111で顔検出を行う。ステップS111で行う顔検出では、顔の傾きの検出範囲が−45度から+45度に制限されて(ステップS402)、特徴抽出を行う(ステップS404)。また、撮影動作の後の顔検出動作、詳しくは、撮影した画像(画像再生時)での顔検出動作では、ステップS119で顔検出レベルを2に設定し、次のステップS120で顔検出を行う。ステップS120で行う顔検出では、顔の傾きの検出範囲は制限されず、−180度から+180度にて(ステップS410)、特徴抽出を行う(ステップS412)。 As described above, in the present embodiment, in the face detection operation before the shooting operation, specifically, in the face detection operation in the standby state (when displaying live view), the face detection level is set to 1 in step S110, In next step S111, face detection is performed. In the face detection performed in step S111, the detection range of the face inclination is limited to −45 degrees to +45 degrees (step S402), and feature extraction is performed (step S404). Further, in the face detection operation after the photographing operation, specifically, in the face detection operation in the photographed image (image reproduction), the face detection level is set to 2 in step S119, and the face detection is performed in the next step S120. . In the face detection performed in step S120, the detection range of the face inclination is not limited, and feature extraction is performed from −180 degrees to +180 degrees (step S410) (step S412).
このように、撮影動作の前の顔検出動作、詳しくは、待機状態での顔検出動作では、顔の傾きの検出範囲を制限することで処理時間を短縮できるので、顔検出の、人物の顔の移動への追従性が向上できる。 As described above, the face detection operation before the photographing operation, more specifically, the face detection operation in the standby state, can reduce the processing time by limiting the detection range of the face inclination. The followability to the movement can be improved.
また、撮影動作の後の顔検出動作、詳しくは、撮影した画像での顔検出動作では、顔の傾きの検出範囲の制限をかけないので、精度の高い顔検出結果が得られる。 Further, in the face detection operation after the photographing operation, specifically, the face detection operation on the photographed image does not limit the detection range of the face inclination, a highly accurate face detection result can be obtained.
(第4の実施形態)
以上説明した実施形態では、撮影動作の前、詳しくは、待機状態での顔検出動作と、撮影動作後の顔検出動作とを、カメラが自動的に切り替える形態であったが、メニュー等の設定で、ユーザーが任意に切り替えられるようにしてもよい。
(Fourth embodiment)
In the embodiment described above, the camera automatically switches between the face detection operation in the standby state and the face detection operation after the shooting operation before the shooting operation. Thus, the user may arbitrarily switch.
(他の実施形態)
上記の実施形態では、撮影動作の前に行われる顔検出動作と、撮影直後に画像データを表示する際に行われる顔検出動作とで、顔検出レベルを異ならせるものを例にあげて説明を行ったが、これに限られるものではない。撮影動作とは無関係に、記憶媒体に記憶された画像データを読み出して任意の画像データを表示する再生モードで行われる顔検出動作の顔検出レベルを2とし、待機状態における顔検出レベルを1としてもよい。撮影直後や再生モードでは、リアルタイムで顔検出結果を得る必要がなく、焦点制御処理や露出制御処理に影響を与えるといった撮影動作の前の顔検出動作における課題が生じないためである。したがって、撮影直後や再生モードが設定された状態では、顔検出動作に要する時間よりも精度を優先したほうが望ましい。
(Other embodiments)
In the above-described embodiment, the face detection operation performed before the shooting operation and the face detection operation performed when image data is displayed immediately after shooting are described as examples of different face detection levels. Yes, but not limited to this. Regardless of the shooting operation, the face detection level of the face detection operation performed in the reproduction mode in which the image data stored in the storage medium is read and arbitrary image data is displayed is set to 2, and the face detection level in the standby state is set to 1. Also good. This is because it is not necessary to obtain a face detection result in real time immediately after shooting or in the playback mode, and there is no problem in the face detection operation before the shooting operation that affects the focus control process or the exposure control process. Therefore, it is desirable to prioritize accuracy over time required for face detection operation immediately after shooting or in a state where the playback mode is set.
また、検出対象として人物の顔を例にあげて説明を行ったがこれに限られるわけではない。例えば第1の実施形態では検出範囲の面積を異ならせるものであるため、例えば所定の色条件を満たす領域を目的とする対象として検出する方法や、所定の輝度条件を満たす領域を目的とする対象として検出する方法であっても適用することが可能である。第2、第3の実施形態では、目的とする対象の解像度や向きによって検出時間や検出精度に影響を与えるような、例えば、所定の形状条件を満たす領域を目的とする対象として検出方法であれば適用することが可能である。目的とする対象は人物の顔に限られるわけではなく、検出する目的に応じて特定の個人に限定したり、子供に限定したり、あるいは、人間以外の動物とすることも可能である。 Further, although the description has been given taking a human face as an example of the detection target, the present invention is not limited to this. For example, in the first embodiment, since the areas of the detection range are made different, for example, a method for detecting a region satisfying a predetermined color condition as a target, or a target for a region satisfying a predetermined luminance condition Even if it is the method of detecting as, it is possible to apply. In the second and third embodiments, for example, a detection method that targets a region that satisfies a predetermined shape condition that affects detection time and detection accuracy depending on the resolution and orientation of the target object. It is possible to apply. The target object is not limited to a person's face, but can be limited to a specific individual, a child, or an animal other than a human depending on the purpose of detection.
また、顔検出レベルの設定方法として、検出範囲の面積、画素数、および、被写体の傾きの許容範囲を例にあげて説明したが、他の方法も考えられる。例えば、検出対象である顔として認識するために必要な条件の数を異ならせる方法や、検出可能な顔のサイズの上限値や下限値を異ならせる方法も考えられる。 Further, as the method for setting the face detection level, the area of the detection range, the number of pixels, and the allowable range of the inclination of the subject have been described as examples, but other methods are also conceivable. For example, a method of changing the number of conditions necessary for recognizing the face as a detection target, or a method of changing the upper limit value and the lower limit value of the detectable face size can be considered.
また、各実施形態の目的は、次のような方法によっても達成される。すなわち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、本発明には次のような場合も含まれる。すなわち、プログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。 The object of each embodiment is also achieved by the following method. That is, a storage medium (or recording medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but the present invention includes the following cases. That is, based on the instruction of the program code, an operating system (OS) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
さらに、次のような場合も本発明に含まれる。すなわち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。 Furthermore, the following cases are also included in the present invention. That is, the program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion card or function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した手順に対応するプログラムコードが格納されることになる。 When the present invention is applied to the above storage medium, the storage medium stores program codes corresponding to the procedure described above.
100 撮像装置
101 対物レンズ群
102 光量調節装置
103 撮像素子
104 アナログ信号処理回路
105 A/D変換器
106 メモリ制御回路
107 デジタル信号処理回路
108 メモリ
109 D/A変換器
110 表示装置
111 インターフェース
112 システム制御回路
113 露出制御回路
114 焦点制御回路
115 被写体識別回路
116 姿勢検知回路
117 表示制御回路
DESCRIPTION OF
Claims (11)
撮像素子で生成された画像データを用いて画像を表示する表示手段と、
前記検出手段により検出された前記対象の位置を示す表示を前記表示手段に表示させる表示制御手段と、
前記撮像素子で生成された画像データを記憶する記憶手段とを有し、
前記検出手段は前記撮像素子で生成された画像データを前記記憶手段に記憶する撮影動作よりも前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記記憶手段に記憶されている画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することのいずれかを行うことを特徴とする撮像装置。 Detecting means for detecting the position of the target object from the image data;
Display means for displaying an image using image data generated by the image sensor;
Display control means for causing the display means to display a display indicating the position of the object detected by the detection means;
Storage means for storing image data generated by the image sensor,
In the case where the detection unit detects the position of the target from the image data generated by the image sensor before the photographing operation for storing the image data generated by the image sensor in the storage unit, Compared with the case where the position of the target is detected from stored image data, at least the range of the image data for detecting the target is set narrow, and the range of the tilt of the target that can be detected imaging device and performing either to the narrow configuration.
撮像素子で生成された画像データを用いて画像を表示する表示手段と、
前記検出手段により検出された前記対象の位置を示す表示を前記表示手段に表示させる表示制御手段と、
記憶手段へ画像データを記憶することを指示するためのシャッタースイッチとを有し、
前記検出手段は、前記シャッタースイッチが操作される前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記シャッタースイッチが操作された後に前記撮像素子で生成された画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することのいずれかを行うことを特徴とする撮像装置。 Detecting means for detecting the position of the target object from the image data;
Display means for displaying an image using image data generated by the image sensor;
Display control means for causing the display means to display a display indicating the position of the object detected by the detection means;
A shutter switch for instructing the storage means to store the image data;
When the detection unit detects the position of the target from image data generated by the image sensor before the shutter switch is operated, the image generated by the image sensor after the shutter switch is operated. Compared to the case where the position of the target is detected from data, at least a range of the image data for detecting the target is set narrowly, and a range of the inclination of the target that can be detected is set narrowly imaging device and performs either.
撮像素子で生成された画像データを用いて画像を表示手段に表示する表示工程と、
前記検出工程で検出された前記対象の位置を示す表示を前記表示手段に表示する表示制御工程と、
前記撮像素子で生成された画像データを記憶手段に記憶する撮影工程とを有し、
前記検出工程において、前記撮影工程よりも前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記記憶手段に記憶されている画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することのいずれかを行うことを特徴とする撮像装置の制御方法。 A detection step of detecting the position of the target object from the image data;
A display step of displaying an image on display means using image data generated by the image sensor;
A display control step of displaying on the display means a display indicating the position of the target detected in the detection step;
A photographing step of storing image data generated by the image sensor in a storage means,
In the detection step, when the position of the target is detected from image data generated by the imaging device before the photographing step, the position of the target is detected from the image data stored in the storage unit. compared to the case, and wherein at least, it sets a narrow range of the image data to detect the target, and, to do any of the possible sets a narrow range of the target slope to be detected Control method for imaging apparatus.
撮像素子で生成された画像データを用いて画像を表示手段に表示する表示工程と、
前記検出工程で検出された前記対象の位置を示す表示を前記表示手段に表示する表示制御工程と、
シャッタースイッチの操作に応じて記憶手段へ画像データを記憶する撮影工程とを有し、
前記検出工程において、前記シャッタースイッチが操作される前に前記撮像素子で生成された画像データから前記対象の位置を検出する場合は、前記シャッタースイッチが操作された後に前記撮像素子で生成された画像データから前記対象の位置を検出する場合に比較して、少なくとも、前記対象を検出する前記画像データの範囲を狭く設定すること、及び、検出可能とする前記対象の傾きの範囲を狭く設定することのいずれかを行うことを特徴とする撮像装置の制御方法。 A detection step of detecting the position of the target object from the image data;
A display step of displaying an image on display means using image data generated by the image sensor;
A display control step of displaying on the display means a display indicating the position of the target detected in the detection step;
A photographing step of storing image data in the storage means according to the operation of the shutter switch,
In the detection step, when the position of the target is detected from image data generated by the image sensor before the shutter switch is operated, an image generated by the image sensor after the shutter switch is operated Compared to the case where the position of the target is detected from data, at least a range of the image data for detecting the target is set narrowly, and a range of the inclination of the target that can be detected is set narrowly control method for an imaging apparatus which is characterized in that one of the.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006289197A JP4773924B2 (en) | 2006-10-24 | 2006-10-24 | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006289197A JP4773924B2 (en) | 2006-10-24 | 2006-10-24 | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008109315A JP2008109315A (en) | 2008-05-08 |
JP2008109315A5 JP2008109315A5 (en) | 2009-12-03 |
JP4773924B2 true JP4773924B2 (en) | 2011-09-14 |
Family
ID=39442326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006289197A Expired - Fee Related JP4773924B2 (en) | 2006-10-24 | 2006-10-24 | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4773924B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5127592B2 (en) | 2008-06-25 | 2013-01-23 | キヤノン株式会社 | Image processing apparatus, image processing method, program, and computer-readable recording medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01289696A (en) * | 1988-05-18 | 1989-11-21 | Fanuc Ltd | Image processing method for visual sensor system |
JP4338560B2 (en) * | 2003-04-14 | 2009-10-07 | 富士フイルム株式会社 | Image feature portion extraction method, feature portion extraction program, imaging apparatus, and image processing apparatus |
JP2005071344A (en) * | 2003-08-07 | 2005-03-17 | Matsushita Electric Ind Co Ltd | Image processing method, image processor and recording medium recording image processing program |
JP4306482B2 (en) * | 2004-02-09 | 2009-08-05 | 株式会社ニコン | Red-eye image correction device, electronic camera, and red-eye image correction program |
JP2005323015A (en) * | 2004-05-07 | 2005-11-17 | Nikon Gijutsu Kobo:Kk | Digital camera |
-
2006
- 2006-10-24 JP JP2006289197A patent/JP4773924B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008109315A (en) | 2008-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5089405B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP4196714B2 (en) | Digital camera | |
JP4254873B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and computer program | |
JP4656657B2 (en) | Imaging apparatus and control method thereof | |
US20060034602A1 (en) | Image capture apparatus and control method therefor | |
JP4290164B2 (en) | Display method for displaying display showing identification area together with image, program executed by computer apparatus, and imaging apparatus | |
JP2004317699A (en) | Digital camera | |
JP2004320286A (en) | Digital camera | |
JP2007282119A (en) | Electronic camera and image processing apparatus | |
JP2007282118A (en) | Electronic camera and image processing apparatus | |
JP2004320285A (en) | Digital camera | |
JP2007188126A (en) | Image brightness calculation device, method, and program | |
JP2007067934A (en) | Imaging apparatus and its control method | |
JP2005167697A (en) | Electronic camera having red-eye correction function | |
JP3985005B2 (en) | IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM FOR CAUSING COMPUTER TO EXECUTE THE CONTROL METHOD | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP2009290782A (en) | Imaging device, method of controlling the same, and program | |
JP4773924B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP2010104061A (en) | Electronic camera and image processing apparatus | |
JP5241417B2 (en) | Imaging apparatus, control method thereof, and program | |
JP5111023B2 (en) | Imaging apparatus and control method thereof | |
JP4781299B2 (en) | Image processing apparatus, image processing method, and imaging apparatus | |
JP7566830B2 (en) | Image capture device, image capture device control method, and program | |
WO2021210340A1 (en) | Image processing device, image processing method, and imaging device | |
JP4902512B2 (en) | Imaging apparatus, control method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091020 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091020 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110620 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110624 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140701 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |