JP2012037556A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2012037556A
JP2012037556A JP2010174491A JP2010174491A JP2012037556A JP 2012037556 A JP2012037556 A JP 2012037556A JP 2010174491 A JP2010174491 A JP 2010174491A JP 2010174491 A JP2010174491 A JP 2010174491A JP 2012037556 A JP2012037556 A JP 2012037556A
Authority
JP
Japan
Prior art keywords
area
face
focus
image data
pet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010174491A
Other languages
Japanese (ja)
Inventor
Kazuya Niyagawa
和也 二矢川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2010174491A priority Critical patent/JP2012037556A/en
Publication of JP2012037556A publication Critical patent/JP2012037556A/en
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus configured such that in a case where an animal other than a human being is recognized as a subject, AF control can be appropriately performed without detecting the eyes of the animal.SOLUTION: The imaging apparatus includes: a pet detecting step (Step 11-2) in which the face of a pet animal is recognized from image data output from imaging means composed of a focus lens and imager and from the entire image area of the image data information about an area corresponding to the recognized face portion of pet animal is output; an AF area limiting step (step 11-3) in which when the information about the area corresponding to the face portion of the pet animal in the entire image area of the image data is output in the pet detecting step (YES in Step 11-2), an limited area of this area is set as an AF area; and an AF processing step (Step 11-4) in which automatic focusing control is performed such that the focus lens is driven so that the image data is focused in the AF area set in the AF area limiting step.

Description

本発明は、自動合焦(AF)機能及び顔認識処理機能を備えた撮像装置に関するものである。   The present invention relates to an imaging apparatus having an automatic focusing (AF) function and a face recognition processing function.

近年のデジタルカメラには、人間の顔認識やペット認識(ペット検出ともいう)等の画像から特定の被写体を認識する機能が搭載されている。この認識機能は多くの場合、認識が行われたあとオートフォーカス(自動合焦。以下「AF」という。)を行うことで、認識された被写体に対して自動的にピントを合わせるようになっている。   Recent digital cameras are equipped with a function of recognizing a specific subject from an image such as human face recognition or pet recognition (also referred to as pet detection). In many cases, this recognition function automatically focuses on a recognized subject by performing autofocus (automatic focusing; hereinafter referred to as “AF”) after recognition. Yes.

このような前記認識後のAFを行う際には、認識された被写体に正確にピントが合うように認識された被写体に合わせたAFエリアの設定が行われる。   When performing such AF after recognition, an AF area is set in accordance with the recognized subject so that the recognized subject is accurately focused.

例えば、人間の顔認識が適用される人物撮影には、目にピントが合っていることが基本とされているため、顔の中の目の位置の検出を行いその目の位置をAFエリアとしてAFを行うことで、目にピントの合った画像を撮影する手法がある(特許文献1参照)。   For example, since it is basically necessary to focus on the eyes of human subjects for which human face recognition is applied, the position of the eyes in the face is detected and the position of the eyes is set as the AF area. There is a method of photographing an image that is in focus by performing AF (see Patent Document 1).

また、ペット認識が適用されるペット撮影の場合には、ペットの動物(ペットとして飼育されている人以外の動物。以下、単にペットと称する。)において目と鼻の位置が大きく離れていることがあるため、人物の顔認識の場合よりも目にピントを合わせる重要性が高い。   In the case of pet photography to which pet recognition is applied, the positions of eyes and nose are greatly separated in pet animals (animals other than those raised as pets; hereinafter simply referred to as pets). Therefore, it is more important to focus on the eyes than in the case of human face recognition.

しかしながら、被写体の目を検出するためには、目のテンプレートを作成しなくてはならないが、人以外の動物を撮影する場合にはそのテンプレート作成が困難であった。すなわち、人間の顔の場合には人によって目のパターンや顔における位置はそれほど変化がないため、あまり問題とはならないが、人以外の動物の顔の場合には、その動物の種類および種別によって目のパターンや顔における位置が大きく変化することから、それに対応するためのテンプレート作成に大きな手間がかかるという問題があり、さらに作成したテンプレートの対象外の動物における目の位置の検出精度が低くなるという問題があった。   However, in order to detect the subject's eyes, an eye template must be created. However, when an animal other than a person is photographed, it is difficult to create the template. That is, in the case of a human face, the eye pattern and the position in the face do not change so much depending on the person, so this is not a problem, but in the case of the face of an animal other than a person, it depends on the type and type of the animal. Since the position of the eye pattern and the face changes greatly, there is a problem that it takes a lot of work to create a template to cope with it, and the detection accuracy of the eye position in an animal that is not the target of the created template is lowered. There was a problem.

本発明は、以上の従来技術における課題に鑑みてなされたものであり、被写体において人以外の動物が認識された場合にその目の検出を行うことなく適切にAF制御が可能な撮像装置を提供することを目的とする。   The present invention has been made in view of the above problems in the prior art, and provides an imaging apparatus capable of appropriately performing AF control without detecting eyes when an animal other than a human is recognized in a subject. The purpose is to do.

前記課題を解決するために提供する本発明は、以下の通りである。なお、カッコ内に本発明を実施するための形態において対応する部位及び符号等を示す。
〔1〕 合焦レンズ(フォーカスレンズ7−2a)と撮像素子(CCD101)を有し、前記合焦レンズを通して被写体像を前記撮像素子の受光部に結像させて画像データを出力する撮像手段と、前記撮像手段から出力される画像データから人以外の動物の顔を認識し、前記画像データの全体画像領域のうち、認識された人以外の動物の顔部分に対応する領域(顔エリア)の情報を出力する顔領域検出手段(ペット検出手段104−3−3、図7)と、前記顔領域検出手段により前記画像データの全体画像領域における人以外の動物の顔部分に対応する領域の情報が出力されると、当該領域のうち限定した一部の領域をAF領域として設定するAF領域限定手段(実施例1におけるAFエリア設定制御手段104−3−2、実施例2における図12,図13におけるステップ13−4〜13−9)と、前記AF領域限定手段により設定されるAF領域において前記画像データが合焦状態となるように、前記合焦レンズを駆動する自動合焦制御を行う自動合焦制御手段(自動合焦制御手段104−3−1)と、を備えることを特徴とする撮像装置(デジタルカメラC、図1〜図5、図10〜図13)。
〔2〕 前記AF領域限定手段は、前記人以外の動物の顔を構成する部位のうち、目よりも撮像装置側にある部位を除外するように、前記顔部分に対応する領域を限定することを特徴とする前記〔1〕に記載の撮像装置(実施例1、図10,図11)。
〔3〕 前記AF領域限定手段は、前記顔領域検出手段により前記画像データの全体画像領域における人以外の動物の顔部分に対応する領域の情報が出力されると、当該領域を複数の分割領域に分割する領域分割手段(図12(a)、図13におけるステップ13−4)と、前記複数の分割領域ごとに自動合焦処理を行い(図12(b)、図13におけるステップ13−5)、その結果から所定の分割領域を前記AF領域とするAF領域選択手段(図12(c)、図13におけるステップ13−6〜13−9)と、からなることを特徴とする前記〔1〕に記載の撮像装置(実施例2、図12,図13)。
〔4〕 前記AF領域選択手段は、自動合焦処理を行った前記複数の分割領域のうち、最も合焦位置の遠い分割領域を前記AF領域とすることを特徴とする前記〔3〕に記載の撮像装置(図12)。
〔5〕 前記AF領域選択手段は、自動合焦処理を行った前記複数の分割領域のうち、最も合焦位置の遠い分割領域側から同じ合焦位置の分割領域が複数あるか否かを判定し、複数あった分割領域のうち、最も合焦位置の遠い分割領域を前記AF領域とすることを特徴とする前記〔3〕に記載の撮像装置(図13)。
〔6〕 前記自動合焦制御手段は、前記AF領域選択手段が行った自動合焦処理により得られた前記所定の分割領域における合焦位置の結果を用いて、自動合焦制御を行うことを特徴とする前記〔3〕〜〔5〕のいずれかに記載の撮像装置。
The present invention provided to solve the above problems is as follows. In addition, the site | part and code | symbol etc. which respond | correspond in the form for implementing this invention in a parenthesis are shown.
[1] An imaging unit that has a focusing lens (focus lens 7-2a) and an imaging device (CCD 101), forms an object image on a light receiving portion of the imaging device through the focusing lens, and outputs image data; , Recognizing the face of an animal other than a person from the image data output from the imaging means, and out of the entire image area of the image data corresponding to the face portion of the animal other than the recognized person (face area) Face area detection means (pet detection means 104-3-3, FIG. 7) for outputting information, and information on areas corresponding to the face parts of animals other than humans in the entire image area of the image data by the face area detection means Is output, AF area limiting means for setting a limited part of the area as an AF area (AF area setting control means 104-3-2 in the first embodiment, FIG. 2 in the second embodiment). 12, Steps 13-4 to 13-9 in FIG. 13, and automatic focusing for driving the focusing lens so that the image data is in focus in the AF area set by the AF area limiting means. An image pickup apparatus (digital camera C, FIGS. 1 to 5, FIGS. 10 to 13), comprising: an automatic focus control unit (automatic focus control unit 104-3-1) that performs control.
[2] The AF area limiting means limits an area corresponding to the face part so as to exclude a part that is closer to the imaging device than the eyes from parts constituting the face of an animal other than the human. The imaging apparatus according to [1], characterized in that (Example 1, FIGS. 10 and 11).
[3] When the AF area limiting means outputs information on an area corresponding to a face portion of an animal other than a person in the entire image area of the image data by the face area detecting means, the area is divided into a plurality of divided areas. An area dividing means (FIG. 12A, step 13-4 in FIG. 13) for dividing the image into two and an automatic focusing process are performed for each of the plurality of divided areas (FIG. 12B, step 13-5 in FIG. 13). ), And AF area selection means (FIG. 12C, Steps 13-6 to 13-9 in FIG. 13) using the predetermined divided area as the AF area based on the result, [1 ] (Example 2, FIG. 12, FIG. 13).
[4] In the above [3], the AF area selection unit sets a divided area farthest in focus among the plurality of divided areas subjected to the automatic focusing process as the AF area. Imaging device (FIG. 12).
[5] The AF area selection unit determines whether or not there are a plurality of divided areas having the same in-focus position from the divided area side farthest in focus among the plurality of divided areas subjected to the automatic focusing process. Then, among the plurality of divided areas, the divided area farthest in focus is set as the AF area, the imaging apparatus according to [3] (FIG. 13).
[6] The automatic focusing control means performs automatic focusing control using a result of the focusing position in the predetermined divided area obtained by the automatic focusing process performed by the AF area selecting means. The imaging apparatus according to any one of [3] to [5], which is characterized in that

本発明の撮像装置によれば、被写体として人以外の動物が認識された場合に、認識された動物の顔の形状に合わせて目にピントが合うように、該動物の顔部分に対応する領域のうち限定した一部の領域をAF制御を行う対象のAF領域として設定するので、被写体として適切にピントを合わせることができる。   According to the imaging apparatus of the present invention, when an animal other than a human is recognized as a subject, an area corresponding to the face portion of the animal is focused so that the eye is focused on the shape of the recognized animal face. Of these, a limited part of the area is set as an AF area to be subjected to AF control, so that the subject can be properly focused.

本発明に係る撮像装置であるデジタルカメラの構成を示す平面図である。It is a top view which shows the structure of the digital camera which is an imaging device which concerns on this invention. 本発明に係る撮像装置であるデジタルカメラの構成を示す正面図である。It is a front view which shows the structure of the digital camera which is an imaging device which concerns on this invention. 本発明に係る撮像装置であるデジタルカメラの構成を示す背面図である。It is a rear view which shows the structure of the digital camera which is an imaging device which concerns on this invention. 本発明に係る撮像装置であるデジタルカメラのシステム構成を示すブロック図である。1 is a block diagram illustrating a system configuration of a digital camera that is an imaging apparatus according to the present invention. 図4のシステム構成のうち、CPUブロックの構成を示す概略図である。It is the schematic which shows the structure of CPU block among the system structures of FIG. 図4のデジタルカメラにおける撮影モード、再生モードの動作に関するフローチャートである。5 is a flowchart regarding operations in a shooting mode and a playback mode in the digital camera of FIG. 4. ペットの顔領域の検出例を示す図である。It is a figure which shows the example of a detection of a pet's face area. 全体画像領域における通常AF領域の例を示す図である。It is a figure which shows the example of the normal AF area | region in a whole image area | region. 鼻にピントの合ったペット画像例を示す図である。It is a figure which shows the example of a pet image which focused on the nose. ペットの顔領域におけるAF領域の設定例1を示す図である。It is a figure which shows the setting example 1 of AF area | region in a pet's face area. 図4のデジタルカメラにおけるAF制御例1を示すフローチャートである。6 is a flowchart illustrating AF control example 1 in the digital camera of FIG. 4. ペットの顔領域におけるAF領域の設定例2を示す図である。It is a figure which shows the example 2 of setting of AF area | region in a pet's face area. 図4のデジタルカメラにおけるAF制御例2を示すフローチャートである。6 is a flowchart showing AF control example 2 in the digital camera of FIG. 4.

以下に、本発明に係る撮像装置の構成について図面を参照して説明する。
図1〜図3は、本発明の撮像装置としてのデジタルカメラを示す外観図であり、図1はデジタルカメラの平面図を示し、図2はデジタルカメラの正面図を示し、図3はデジタルカメラの背面図を示す。また、図2は、デジタルカメラ内部のシステム構成を示すブロック図である。
Hereinafter, the configuration of the imaging apparatus according to the present invention will be described with reference to the drawings.
1 to 3 are external views showing a digital camera as an imaging apparatus of the present invention, FIG. 1 is a plan view of the digital camera, FIG. 2 is a front view of the digital camera, and FIG. 3 is a digital camera. The rear view of is shown. FIG. 2 is a block diagram showing a system configuration inside the digital camera.

図1において、Cは撮像装置としてのデジタルカメラである。
図1に示すように、デジタルカメラCの上部には、サブ液晶ディスプレイ1(以下、液晶ディスプレイを「LCD」という。)、レリーズシャッターSW1、モードダイアルSW2が設けられており、図2に示すように、デジタルカメラCの側部には、SDカード(メモリカード)/電池装填室の蓋2が設けられており、デジタルカメラCの正面側には、ストロボ発光部3、光学ファインダ4、測距ユニット5、リモコン受光部6、撮影レンズを備えた鏡胴ユニット7が設けられている。
In FIG. 1, C is a digital camera as an imaging device.
As shown in FIG. 1, a sub liquid crystal display 1 (hereinafter referred to as “LCD”), a release shutter SW1, and a mode dial SW2 are provided above the digital camera C. As shown in FIG. In addition, an SD card (memory card) / battery loading chamber lid 2 is provided on the side of the digital camera C. On the front side of the digital camera C, a strobe light emitting unit 3, an optical viewfinder 4, and a distance measuring device are provided. A unit 5, a remote control light receiving unit 6, and a lens barrel unit 7 including a photographing lens are provided.

また、図3に示すように、デジタルカメラCの背面側には、光学ファインダ4、AF用LED8、ストロボ用LED9、LCDモニタ10、広角ズームスイッチ(ZOOM SW(WIDE))SW3、望遠ズームスイッチ(ZOOM SW(TELE))SW4、セルフタイマ設定/解除スイッチ(セルフタイマ/削除SW)SW5、メニュースイッチ(MENU SW)SW6、上移動/ストロボ設定スイッチ(上/ストロボSW)SW7、右移動スイッチ(右SW)SW8、ディスプレイスイッチSW9、下移動/マクロ設定スイッチ(下/マクロSW)SW10、左移動/画像確認スイッチ(左/画像確認SW)SW11、OKスイッチSW12、クイックアクセススイッチSW13、電源スイッチSW14が設けられている。   Further, as shown in FIG. 3, on the back side of the digital camera C, an optical finder 4, an AF LED 8, a strobe LED 9, an LCD monitor 10, a wide-angle zoom switch (ZOOM SW (WIDE)) SW3, a telephoto zoom switch ( ZOOM SW (TELE)) SW4, self-timer setting / release switch (self-timer / deletion SW) SW5, menu switch (MENU SW) SW6, up / strobe setting switch (up / strobe SW) SW7, right-movement switch (right SW) SW8, display switch SW9, down movement / macro setting switch (down / macro SW) SW10, left movement / image confirmation switch (left / image confirmation SW) SW11, OK switch SW12, quick access switch SW13, power switch SW14 Is provided.

図4において、104はデジタルスチルカメラプロセッサ(以下、「プロセッサ」とする。)である。プロセッサ104は、CPU(中央演算装置)を内蔵しており、デジタルカメラCの各部はプロセッサ104によって制御されている。   In FIG. 4, reference numeral 104 denotes a digital still camera processor (hereinafter referred to as “processor”). The processor 104 includes a CPU (Central Processing Unit), and each unit of the digital camera C is controlled by the processor 104.

図4に示すように、プロセッサ104は、CCD1信号処理ブロック104−1、CCD2信号処理ブロック104−2、CPUブロック104−3、ローカルSRAM104−4、USBブロック104−5、シリアルブロック104−6、JPEG圧縮・伸長を行うJPEGコーデックブロック104−7、画像データのサイズを拡大・縮小するリサイズブロック104−8、ビデオ信号出力ブロックであるTV信号表示ブロック104−9、メモリカードコントローラブロック104−10を備えており、これらの各ブロック104−1〜104−10はバスラインを介して相互に接続されている。   As shown in FIG. 4, the processor 104 includes a CCD1 signal processing block 104-1, a CCD2 signal processing block 104-2, a CPU block 104-3, a local SRAM 104-4, a USB block 104-5, a serial block 104-6, A JPEG codec block 104-7 that performs JPEG compression / decompression, a resize block 104-8 that enlarges / reduces the size of image data, a TV signal display block 104-9 that is a video signal output block, and a memory card controller block 104-10 These blocks 104-1 to 104-10 are connected to each other via a bus line.

プロセッサ104の外部には、SDRAM103、RAM107、制御プログラムPやパラメータなどが格納されたROM108、撮影された画像の画像データを記憶する内蔵メモリ120が設けられており、これらもバスラインを介してプロセッサ104に接続されている。   Outside the processor 104, an SDRAM 103, a RAM 107, a ROM 108 storing a control program P and parameters, and a built-in memory 120 for storing image data of a photographed image are provided, and these are also provided via a bus line. 104 is connected.

SDRAM103には、撮影された画像の画像データから変換されたRAW−RGB画像データ(ホワイトバランス補正、γ補正が行われた画像データ)、YUV画像データ(輝度データと色差データとに変換された画像データ)、JPEG画像データ(JPEG圧縮された画像データ)が保存される。   The SDRAM 103 stores RAW-RGB image data (image data subjected to white balance correction and γ correction) converted from image data of a photographed image, YUV image data (image converted into luminance data and color difference data). Data), JPEG image data (image data compressed with JPEG).

電源スイッチSW14をオンにした際に、ROM108に格納された制御プログラムPがプロセッサ104のメモリにロードされて実行され、デジタルカメラCの各部は、この制御プログラムPによって制御される。   When the power switch SW14 is turned on, the control program P stored in the ROM 108 is loaded into the memory of the processor 104 and executed, and each part of the digital camera C is controlled by this control program P.

制御プログラムPが実行される際には、RAM107のメモリが制御プログラムPの作業用メモリとして使用されるので、RAM107のメモリには、制御プログラムPの制御データやパラメータなどが随時書き込みや読み出しが行われる。
後述される全ての処理は、この制御プログラムPを実行することにより、主にプロセッサ104によって実行される。
When the control program P is executed, the memory of the RAM 107 is used as a working memory for the control program P. Therefore, control data and parameters of the control program P are written to and read from the RAM 107 as needed. Is called.
All processes described later are executed mainly by the processor 104 by executing the control program P.

鏡筒ユニット7は、ズームレンズ7−1aを備えたズーム光学系7−1、被写体の像を撮像素子であるCCD(Charge Coupled Device)101の受光部に結像させるフォーカスレンズ7−2aを備えたフォーカス光学系7−2、絞り7−3aを備えた絞りユニット7−3、メカシャッタ7−4aを備えたメカシャッタユニット7−4によって構成されている。   The lens barrel unit 7 includes a zoom optical system 7-1 including a zoom lens 7-1a, and a focus lens 7-2a that forms an image of a subject on a light receiving unit of a CCD (Charge Coupled Device) 101 that is an image sensor. The focus optical system 7-2, a diaphragm unit 7-3 having a diaphragm 7-3a, and a mechanical shutter unit 7-4 having a mechanical shutter 7-4a.

ズーム光学系7−1、フォーカス光学系7−2、絞りユニット7−3、メカシャッタユニット7−4は、それぞれズームモータ7−1b、フォーカスモータ7−2b、絞りモータ7−3b、メカシャッタモータ7−4bによって駆動される。   The zoom optical system 7-1, the focus optical system 7-2, the aperture unit 7-3, and the mechanical shutter unit 7-4 are respectively a zoom motor 7-1b, a focus motor 7-2b, an aperture motor 7-3b, and a mechanical shutter motor. It is driven by 7-4b.

また、これらの各モータ7−1b〜7−4bはモータドライバ7−5によって駆動され、モータドライバ7−5は、プロセッサ104のCPUブロック104−3によって制御される。   The motors 7-1b to 7-4b are driven by a motor driver 7-5, and the motor driver 7-5 is controlled by a CPU block 104-3 of the processor 104.

鏡胴ユニット7の各光学系7−1,7−2によりCCD101の受光部に結像された被写体像は、CCD101によって画像信号に変換され、この画像信号がF/E−IC102に出力される。   The subject image formed on the light receiving portion of the CCD 101 by the optical systems 7-1 and 7-2 of the lens barrel unit 7 is converted into an image signal by the CCD 101, and this image signal is output to the F / E-IC 102. .

F/E−IC102は、相関二重サンプリングを行うCDS102−1、自動的に利得の調整を行うAGC102−2、AGC102−2から出力されるアナログ画像信号をデジタル画像信号に変換するA/D102−3によって構成されている。   The F / E-IC 102 is a CDS 102-1 that performs correlated double sampling, an AGC 102-2 that automatically adjusts the gain, and an analog image signal that is output from the AGC 102-2 to an A / D 102- 3.

F/E−IC102は、CCD101から出力されたアナログ画像信号にノイズ低減の処理や利得調整の処理などの所定の処理を施し、さらにアナログ画像信号をデジタル画像信号に変換して、プロセッサ104のCCD1信号処理ブロック104−1に出力する。   The F / E-IC 102 performs predetermined processing such as noise reduction processing and gain adjustment processing on the analog image signal output from the CCD 101, further converts the analog image signal into a digital image signal, and the CCD 1 of the processor 104. It outputs to the signal processing block 104-1.

F/E−IC102による画像信号のサンプリングなどのタイミング処理は、プロセッサ104のCCD1信号処理ブロック104−1からフィードバックされるVD・HD信号に基づいてTG102−4によって行われる。   Timing processing such as sampling of an image signal by the F / E-IC 102 is performed by the TG 102-4 based on the VD / HD signal fed back from the CCD1 signal processing block 104-1 of the processor 104.

プロセッサ104のCPUブロック104−3は、図5に示すように、自動合焦制御手段104−3−1、AFエリア設定制御手段104−3−2、ペット検出手段104−3−3、合焦位置決定手段104−3−4を有する。   As shown in FIG. 5, the CPU block 104-3 of the processor 104 includes an automatic focusing control unit 104-3-1, an AF area setting control unit 104-3-2, a pet detection unit 104-3-3, and an in-focus state. Position determining means 104-3-4.

このうち、自動合焦制御手段104−3−1は、CCD101の受光部に結像された被写体像の情報を基に得られる画像データの全体画像領域の中から特定される所定の領域(AF領域)において、前記画像データが合焦状態となるように、フォーカス光学系7−2(フォーカスレンズ7−2a)を駆動する自動合焦制御を行うものである。   Among these, the automatic focusing control means 104-3-1 is a predetermined area (AF) specified from the entire image area of the image data obtained based on the information of the subject image formed on the light receiving portion of the CCD 101. In the region, automatic focusing control for driving the focus optical system 7-2 (focus lens 7-2a) is performed so that the image data is in a focused state.

ペット検出手段104−3−3は、CCD101の受光部に結像された被写体像の情報を基に得られる画像データの全体画像領域の中からペットなどの人以外の動物を検出するとともに、該動物の顔を認識し、前記画像データの全体画像領域のうち、認識された人以外の動物の顔部分に対応する領域(顔エリア)の情報を出力する顔領域検出手段である。   The pet detection unit 104-3-3 detects an animal other than a human such as a pet from the entire image area of image data obtained based on information on a subject image formed on the light receiving unit of the CCD 101, and It is a face area detecting means for recognizing the face of an animal and outputting information of an area (face area) corresponding to a face part of an animal other than the recognized person in the entire image area of the image data.

AFエリア設定制御手段104−3−2は、ペット検出手段104−3−3により前記画像データの全体画像領域における人以外の動物の顔部分に対応する領域の情報が出力されると、当該領域のうち限定した一部の領域をAF領域(AFエリア)として設定するAF領域限定手段である。   When the area information corresponding to the face portion of the animal other than the person in the entire image area of the image data is output by the pet detection unit 104-3-3, the AF area setting control unit 104-3-2 AF region limiting means for setting a limited partial region as an AF region (AF area).

合焦位置決定手段104−3−4は、自動合焦制御手段104−3−1で得られた複数の特定領域ごとの合焦位置候補の中から撮影モードで使用する合焦位置を決定するものである。   The focus position determination unit 104-3-4 determines a focus position to be used in the shooting mode from among focus position candidates for each of the plurality of specific areas obtained by the automatic focus control unit 104-3-1. Is.

また、CPUブロック104−3は、音声記録回路115−1、音声再生回路116−1、ストロボ発光部3を発光させるストロボ回路114、被写体までの距離を計測する測距ユニット5、サブCPU109に接続されており、これらの回路はCPUブロック104−3によって制御される。   The CPU block 104-3 is connected to the sound recording circuit 115-1, the sound reproducing circuit 116-1, the strobe circuit 114 that emits light from the strobe light emitting unit 3, the distance measuring unit 5 that measures the distance to the subject, and the sub CPU 109. These circuits are controlled by the CPU block 104-3.

マイク115−3によって取り込まれた音声信号はマイクアンプ115−2によって増幅され、音声記録回路115−1によってデジタル信号に変換されて、CPUブロック104−3の制御命令に従いメモリカードなどに記録される。   The audio signal captured by the microphone 115-3 is amplified by the microphone amplifier 115-2, converted into a digital signal by the audio recording circuit 115-1, and recorded on a memory card or the like according to the control command of the CPU block 104-3. .

音声再生回路116−1は、CPUブロック104−3の制御命令に従いROM108などに記録されている適宜の音声データを音声信号に変換し、オーディオアンプ116−2によって増幅してスピーカー116−3から出力させる。   The audio reproduction circuit 116-1 converts appropriate audio data recorded in the ROM 108 or the like into an audio signal according to the control command of the CPU block 104-3, amplifies it by the audio amplifier 116-2, and outputs it from the speaker 116-3. Let

サブCPU109には、LCDドライバ111を介してサブLCD1、リモコン受光部6、AF用LED8、ストロボ用LED9、各スイッチSW1〜SW13からなる操作キーユニット、ブザー113が接続されており、これらはサブCPU109によって制御される。また、サブCPU109は、リモコン受光部6への信号の入力状態や操作キーユニットへの入力状態を監視する。   The sub CPU 109 is connected to the sub LCD 1, the remote control light receiving unit 6, the AF LED 8, the strobe LED 9, the operation key unit including the switches SW 1 to SW 13, and the buzzer 113 via the LCD driver 111. Controlled by. The sub CPU 109 monitors the input state of signals to the remote control light receiving unit 6 and the input state to the operation key unit.

プロセッサ104のUSBブロック104−5は、USBコネクタ122に接続され、プロセッサ104のシリアルブロック104−6は、シリアルドライバ回路(不図示)を介してRS−232Cコネクタに接続されており、これらのUSBブロック104−5やシリアルブロックによって、デジタルカメラCとデジタルカメラCに接続された外部機器との間でデータ通信が行われる。   The USB block 104-5 of the processor 104 is connected to the USB connector 122, and the serial block 104-6 of the processor 104 is connected to the RS-232C connector via a serial driver circuit (not shown). Data communication is performed between the digital camera C and an external device connected to the digital camera C by the block 104-5 or the serial block.

プロセッサ104のTV信号表示ブロック104−9には、LCDモニタ10を駆動するためのLCDドライバ117、ビデオ信号(TV信号)を増幅すると共にインピーダンス整合を行うためのビデオアンプ118が接続されており、LCDドライバ117とビデオアンプ118には、それぞれLCDモニタ10、TVなどの外部モニタ機器に接続するためのビデオジャック119が接続されている。   Connected to the TV signal display block 104-9 of the processor 104 are an LCD driver 117 for driving the LCD monitor 10 and a video amplifier 118 for amplifying a video signal (TV signal) and impedance matching. The LCD driver 117 and the video amplifier 118 are connected to a video jack 119 for connecting to an external monitor device such as the LCD monitor 10 and a TV, respectively.

TV信号表示ブロック104−9は、画像データをビデオ信号に変換して、LCDモニタ10やビデオジャック119に接続された外部モニタ機器に出力する。
LCDモニタ10は、撮影中の被写体のモニタや、撮影された画像の表示、メモリカードまたは内蔵メモリ120に記録された画像の表示などに使用される。
The TV signal display block 104-9 converts the image data into a video signal and outputs the video signal to an external monitor device connected to the LCD monitor 10 or the video jack 119.
The LCD monitor 10 is used for monitoring a subject being photographed, displaying a photographed image, and displaying an image recorded on a memory card or the built-in memory 120.

メモリカードコントローラブロック104−10には、メモリカードスロット121が接続されており、メモリカードスロット121に挿入された増設用のメモリカードとデジタルカメラとの間で画像データのやり取りを行なう。   A memory card slot 121 is connected to the memory card controller block 104-10, and image data is exchanged between the additional memory card inserted into the memory card slot 121 and the digital camera.

次に、本実施例のデジタルカメラCの動作概要について説明する。
デジタルカメラCの動作モードには、撮影する際に使用する撮影モードと、撮影された画像を再生する際に使用する再生モードとがあり、撮影モードには、さらに自動合焦制御手段104−3−1、AFエリア設定制御手段104−3−2、合焦位置決定手段104−3−4などを機能させるAFモードがある。また、AFモードには、さらに、被写体中の人物の顔を認識して、その顔の周囲の画像エリア(以下、顔エリアとする。)においてAF処理(必要に応じてAE処理も)を行う顔認識モードと、被写体中のペットの顔を認識して、その顔の一部の画像エリアにおいてAF処理(必要に応じてAE処理も)を行うペット認識モードと、通常の画像エリア(以下、通常エリアとする。)においてAF処理を行う通常モードと、がある。
Next, an outline of the operation of the digital camera C of the present embodiment will be described.
The operation mode of the digital camera C includes a shooting mode used when shooting and a playback mode used when playing back the shot image. The shooting mode further includes an automatic focusing control unit 104-3. -1, AF area setting control means 104-3-2, AF position functioning means 104-3-4, etc., function AF mode. Further, in the AF mode, the face of a person in the subject is further recognized, and AF processing (AE processing is also performed as necessary) is performed in an image area around the face (hereinafter referred to as a face area). A face recognition mode, a pet recognition mode for recognizing a pet's face in the subject and performing AF processing (AE processing if necessary) on a part of the image area of the face; In the normal area), there is a normal mode in which AF processing is performed.

また、撮影モードでの動作中には、セルフタイマを使用して撮影するセルフタイマモードやリモコンによってデジタルカメラCを遠隔操作するリモコンモードなどの動作モードが用意されている。   During operation in the shooting mode, operation modes such as a self-timer mode for shooting using a self-timer and a remote control mode for remotely operating the digital camera C using a remote controller are prepared.

デジタルカメラCの電源スイッチSW14をオンにした状態で、モードダイアルSW2を撮影モードに設定すると、デジタルカメラCは撮影モードになり、モードダイアルSW2を再生モードに設定した場合には、デジタルカメラCは再生モードになる。
これらの処理を図6に基づいて説明する。
When the mode dial SW2 is set to the shooting mode with the power switch SW14 of the digital camera C turned on, the digital camera C enters the shooting mode, and when the mode dial SW2 is set to the playback mode, the digital camera C Enter playback mode.
These processes will be described with reference to FIG.

まず、デジタルカメラCの電源スイッチSW14をオンにすると、動作モードの判断が行われる。すなわち、ステップ5−1において、モードダイアルSW2のスイッチの状態が撮影モードか、再生モードかが判断され、撮影モードならばステップ5−2の処理に進み、再生モードならばステップ5−5の処理に進む。   First, when the power switch SW14 of the digital camera C is turned on, the operation mode is determined. That is, in step 5-1, it is determined whether the switch of the mode dial SW2 is the shooting mode or the playback mode. If the mode is the shooting mode, the process proceeds to step 5-2. Proceed to

ステップ5−2では、プロセッサ104によりモータドライバ7−5が制御されて鏡胴ユニット7を構成するレンズ鏡筒が撮影可能な位置に移動され、さらに、CCD101、F/E−IC102、LCDモニタ10などの撮影に必要とされる各回路に電源が投入される。   In step 5-2, the motor driver 7-5 is controlled by the processor 104 to move the lens barrel constituting the lens barrel unit 7 to a position where photographing is possible, and further, the CCD 101, the F / E-IC 102, the LCD monitor 10 are moved. The power is turned on to each circuit required for photographing.

そして、各光学系7−1,7−2によってCCD101の受光部に結像された被写体像の情報は随時CCD101によりRGBアナログ信号に変換され、このRGBアナログ信号はCDS回路102−1とAGC102−2によってノイズ低減の処理や利得調整の処理などの所定の処理がなされ、A/D変換器102−3により、RGBアナログ信号はRGBデジタル信号に変換され、プロセッサ104のCCD1信号処理ブロックに出力される。   Information on the subject image formed on the light receiving portion of the CCD 101 by the optical systems 7-1 and 7-2 is converted into RGB analog signals by the CCD 101 as needed. The RGB analog signals are converted into the CDS circuit 102-1 and the AGC 102-. 2 performs predetermined processing such as noise reduction processing and gain adjustment processing, and the A / D converter 102-3 converts the RGB analog signal into an RGB digital signal, which is output to the CCD1 signal processing block of the processor 104. The

さらに、このRGBデジタル信号は、CCD1信号処理ブロックによって、RAW−RGB画像データ、YUV画像データ、JPEG画像データに変換されメモリコントローラ(図示省略)によってSDRAM103のフレームメモリに書き込まれる。   Further, this RGB digital signal is converted into RAW-RGB image data, YUV image data, and JPEG image data by the CCD 1 signal processing block, and written into the frame memory of the SDRAM 103 by a memory controller (not shown).

これらの画像データのうち、YUV画像データは、SDRAM103のフレームメモリから随時読み出され、ビデオ信号出力ブロック104−9によってビデオ信号に変換されて、LCDモニタ10やTVなどの外部モニタ機器に出力される。   Of these image data, YUV image data is read from the frame memory of the SDRAM 103 as needed, converted into a video signal by the video signal output block 104-9, and output to an external monitor device such as the LCD monitor 10 or TV. The

このように、撮影待機状態において、被写体像の画像データを随時SDRAM103のフレームメモリに取り込むと共に、被写体像を随時LCDモニタ10やTVなどの外部モニタ機器に出力する処理をモニタリング処理とする。   As described above, in the shooting standby state, the image data of the subject image is taken into the frame memory of the SDRAM 103 as needed and the subject image is outputted to the external monitor device such as the LCD monitor 10 or TV as monitoring processing.

ステップ5−3では、モードダイアルSW2の設定変更が行われたか否かを判断し、設定変更が行われたならばステップ5−1の処理に戻り、設定変更が行われていないならばステップ5−4の処理に進む。   In step 5-3, it is determined whether or not the setting of the mode dial SW2 has been changed. If the setting has been changed, the process returns to step 5-1, and if the setting has not been changed, step 5 is performed. The process proceeds to -4.

ステップ5−4では、レリーズシャッターSW1の状態が判断され、レリーズシャッターSW1が押されていないときは、ステップ5−2の処理に戻り、レリーズシャッターSW1が押されたときは、このときSDRAM103のフレームメモリに取り込まれている被写体の画像データを内蔵メモリ120やメモリカードに記録する処理などが実行され、その後ステップ5−2の処理に戻る。このステップ5−4の処理を撮影処理とする。   In step 5-4, the state of the release shutter SW1 is determined. When the release shutter SW1 is not pressed, the process returns to step 5-2. When the release shutter SW1 is pressed, the frame of the SDRAM 103 is at this time. A process of recording the image data of the subject captured in the memory in the built-in memory 120 or the memory card is executed, and then the process returns to step 5-2. The process of step 5-4 is referred to as a photographing process.

このようにデジタルカメラCが撮影モードで動作しているときには、ステップ5−2〜ステップ5−4の処理を繰り返すことになる。この繰り返しの処理を行っている状態をファインダモードとする。本実施例のデジタルカメラCでは、約1/30秒の周期で、これらの処理が繰り返される。
ファインダモードでは、モニタリング処理も約1/30秒の周期で繰り返し行われるので、これに伴い、LCDモニタ10や外部モニタ機器の表示は更新される。
As described above, when the digital camera C is operating in the photographing mode, the processing of step 5-2 to step 5-4 is repeated. The state in which this repeated processing is performed is referred to as a finder mode. In the digital camera C of this embodiment, these processes are repeated at a period of about 1/30 seconds.
In the finder mode, the monitoring process is repeatedly performed at a period of about 1/30 seconds, and accordingly, the display on the LCD monitor 10 and the external monitor device is updated.

ステップ5−5では、内蔵メモリ120やメモリカードに記録された画像データをLCDモニタ10やTVなどの外部モニタ機器に出力させ、ステップ5−6の処理に進む。   In step 5-5, the image data recorded in the built-in memory 120 or the memory card is output to an external monitor device such as the LCD monitor 10 or TV, and the process proceeds to step 5-6.

ステップ5−6では、モードダイアルSW2の設定変更が行われたか否かを判断し、設定変更が行われたならばステップ5−1の処理に戻り、設定変更が行われていないならばステップ5−5の処理に戻る。   In step 5-6, it is determined whether or not the setting of the mode dial SW2 has been changed. If the setting has been changed, the process returns to step 5-1, and if the setting has not been changed, the process returns to step 5. Return to the process of -5.

次に、本発明のデジタルカメラCが備えている主な機能として、AE機能、AF機能、ペット認識機能を利用したペットフォーカス機能について説明する。   Next, as a main function provided in the digital camera C of the present invention, a pet focus function using the AE function, the AF function, and the pet recognition function will be described.

一般に、AE(Auto Exposure)機能とは、カメラなどの撮像装置において、絞り値とシャッター速度との組み合わせを変えることにより、撮像素子の受光部の露光量を自動的に決定する機能(自動露光機能)のことであり、AF(Auto Focus)機能とは、撮影レンズの焦点を自動的に合わせる機能(自動合焦機能)のことである。   In general, the AE (Auto Exposure) function is a function (automatic exposure function) that automatically determines the exposure amount of the light receiving unit of the image sensor by changing the combination of the aperture value and the shutter speed in an imaging apparatus such as a camera. The AF (Auto Focus) function is a function for automatically focusing the photographing lens (automatic focusing function).

また、ペット認識機能とは、ペット検出手段104−3−3が撮像素子(CCD101)により取り込まれた被写体の画像の全画像領域からペットの顔の画像が検出されたときに顔の部分に対応する顔エリアの領域情報を出力する機能である。   The pet recognition function corresponds to the face portion when the pet detection unit 104-3-3 detects a pet face image from the entire image area of the subject image captured by the image sensor (CCD 101). This is a function for outputting area information of the face area to be played.

検出には多くの場合、テンプレートマッチングで行われる。例えば、ROM108内に格納されているテンプレートと撮像素子(CCD101)から取り込まれた画像との比較を行い、画像内にテンプレートに類似した画像または特徴があった場合は検出あり(検知)とする。   In many cases, the detection is performed by template matching. For example, a template stored in the ROM 108 is compared with an image captured from the image sensor (CCD 101), and if there is an image or feature similar to the template in the image, it is detected (detected).

テンプレートは多くの場合、学習データと呼ばれる検知したい対象の画像データ群から作成され、画像データそのものであったり、画像データから求められる特徴であったりする。本発明では、画像データから求めた輝度の特徴をテンプレートとして用いている。また、テンプレートは複数のカテゴリに分かれており、本発明では犬や猫等の動物の種類別のカテゴリを設ける。このカテゴリごとに学習データは用意され、その学習データをもとにカテゴリごとのテンプレートは作成される。   In many cases, a template is created from a group of image data to be detected called learning data, and is image data itself or a characteristic obtained from image data. In the present invention, the luminance feature obtained from the image data is used as a template. The templates are divided into a plurality of categories, and in the present invention, categories are provided for each type of animal such as a dog or a cat. Learning data is prepared for each category, and a template for each category is created based on the learning data.

また、ペットフォーカス機能とは、被写体にペットが含まれている場合に、ペット認識機能により認識された顔エリアに対してAE処理やAF処理を行うことによって、そのペットの顔に露出や焦点を合わせる機能であり、ペット認識モードのときに機能するようになっている。   The pet focus function is to perform exposure and focus on the face of the pet by performing AE processing and AF processing on the face area recognized by the pet recognition function when the subject includes a pet. This is a function to match, and works in the pet recognition mode.

本発明のデジタルカメラCでは、ペット認識モードはメニュースイッチSW6によって選択できるようになっている。また、動作モードを、予め、クイックアクセスSW13に登録しておいて、クイックアクセスSW13を操作することによっても簡単に選択できるようになっている。   In the digital camera C of the present invention, the pet recognition mode can be selected by the menu switch SW6. The operation mode is registered in advance in the quick access SW 13 and can be easily selected by operating the quick access SW 13.

また本発明のデジタルカメラCでは、AFモードとしてペット認識モードが選択されているときには、ファインダモード中では随時ペット認識が行われる。   In the digital camera C of the present invention, when the pet recognition mode is selected as the AF mode, the pet recognition is performed at any time in the finder mode.

ペット認識モードで動作している場合には、例えば、図7に示すように、被写体に含まれているペットの顔及びその周囲の画像エリアを対象のエリア(以下、このエリアを顔エリアとする。)とし、この顔エリアの輝度データをAE処理やAF処理に用いる。   When operating in the pet recognition mode, for example, as shown in FIG. 7, the face of the pet included in the subject and the surrounding image area are targeted areas (hereinafter, this area is referred to as a face area). The brightness data of this face area is used for AE processing and AF processing.

次に、本発明のデジタルカメラCのAF機能について説明する。
CCD101によって取り込まれた画像が合焦状態にあるときには、被写体の画像の輪郭部分がはっきりとしているため、この画像の輪郭部分におけるAF評価値が大きくなる。
Next, the AF function of the digital camera C of the present invention will be described.
When the image captured by the CCD 101 is in focus, the contour portion of the subject image is clear, and the AF evaluation value at the contour portion of the image is large.

山登りAF制御における合焦検出動作時には、フォーカスレンズ7−2aを撮影レンズの光軸方向に移動しつつ、フォーカスレンズ7−2aの各移動位置におけるAF評価値を算出して、AF評価値が極大になるフォーカスレンズ7−2aの位置(AF評価値が極大となる位置)を検知する。これをAF処理と称する。   During the focus detection operation in the hill-climbing AF control, the AF evaluation value at each moving position of the focus lens 7-2a is calculated while moving the focus lens 7-2a in the optical axis direction of the photographing lens, and the AF evaluation value is maximized. The position of the focus lens 7-2a (the position where the AF evaluation value is maximized) is detected. This is called AF processing.

また、AF評価値が極大になる位置が複数箇所あることも考慮にいれ、複数箇所あった場合には、極大におけるAF評価値の大きさや、その周囲のAF評価値との下降度合いや上昇度合いを判断し、最も信頼性のある位置を合焦位置としてAF処理を実行する。複数あるAF評価値が極大となる位置がいずれも高信頼性であった場合には、近距離にある極大位置を合焦位置とする。   Also, taking into consideration that there are a plurality of positions where the AF evaluation value becomes a maximum, if there are a plurality of positions, the magnitude of the AF evaluation value at the maximum and the degree of decrease or increase of the surrounding AF evaluation values And the AF process is executed with the most reliable position as the in-focus position. When the positions where the plurality of AF evaluation values are maximum are highly reliable, the local maximum position at a short distance is set as the in-focus position.

AF評価値のデータは、画像の特徴データとしてプロセッサ104内のメモリに随時記憶されて、この特徴データはAF処理に利用される。   The AF evaluation value data is stored in the memory in the processor 104 as image feature data as needed, and this feature data is used for AF processing.

また、このAF評価値は、デジタルRGB信号に基づいて、取り込まれた画像内の特定の領域について算出することができる。   The AF evaluation value can be calculated for a specific area in the captured image based on the digital RGB signal.

図8は、ファインダモード時のLCDの表示状態を示しており、図8に示すLCD表示(全体画像領域(全体画像エリア))内の中央枠が、デジタルカメラCでの通常のAFエリア(以下、「通常AFエリア」とする。)であり、本発明のデジタルカメラCでは、図8に示すLCD表示エリア内の水平方向に40%、垂直方向に30%の部分を通常AFエリアとしている。   FIG. 8 shows the display state of the LCD in the finder mode, and the center frame in the LCD display (overall image area (overall image area)) shown in FIG. In the digital camera C of the present invention, a portion of 40% in the horizontal direction and 30% in the vertical direction in the LCD display area shown in FIG. 8 is a normal AF area.

また、デジタルカメラCがペット認識モードで動作し、かつ、被写体中にペットの顔が認識できた場合には、図7に示すように、AFエリアは顔エリアを基に設定される。   When the digital camera C operates in the pet recognition mode and the pet's face can be recognized in the subject, the AF area is set based on the face area as shown in FIG.

本発明のデジタルカメラCでは、レリーズシャッターSW1が押下されると、プロセッサ104のCCD1信号処理ブロック104−1に取り込まれたRGBデジタル信号に基づいて、露光状態を示すAE評価値と画面の合焦度合いを示すAF評価値とが算出されるようになっている。   In the digital camera C of the present invention, when the release shutter SW1 is pressed, the AE evaluation value indicating the exposure state and the focus of the screen are based on the RGB digital signal captured by the CCD1 signal processing block 104-1 of the processor 104. An AF evaluation value indicating the degree is calculated.

ところで、ペットを撮影する際には、人物を撮影する場合と違い、顔の構造上鼻が前に突き出ている形になっているため、AFを行った際には、図9に示すように、鼻にピントが合ってしまう場合が多くなる。そこで、本発明では、この問題を解消するため、AF制御時にAF処理を行う対象のエリアを限定する処理を行う。   By the way, when shooting a pet, unlike the case of shooting a person, the nose of the face protrudes forward due to the structure of the face, so when performing AF, as shown in FIG. More often, the nose will be in focus. Therefore, in the present invention, in order to solve this problem, processing for limiting the target area to be subjected to AF processing during AF control is performed.

以下、本発明のデジタルカメラCにおいてペット認識した場合のAF制御例について説明する。なお、ここでは、撮影モードとしてAFモードのうちペット認識モードが選択され、ペットとして犬を撮影することを前提として説明する。   Hereinafter, an example of AF control when a pet is recognized in the digital camera C of the present invention will be described. Here, the description will be made on the assumption that the pet recognition mode is selected from the AF modes as the photographing mode and the dog is photographed as a pet.

(実施例1)
ペット認識後のAF制御時にエリアを限定する手法について説明する。
まずペット認識が行われた場合には、前述の通り、LCDモニタ10上にペットの顔の位置に合わせて顔エリアが検知エリアとして表示される(図7)。その後レリーズ釦(レリーズシャッターSW1)が押されると、AF制御が開始されるが、そのときのAFエリアは通常、図7のような顔エリアが用いられる。しかし、この顔エリアをそのまま用いてAF制御を行うとペットの顔全体をエリアとするため、前述のような鼻にピントが合う問題が起こりやすい。
Example 1
A method for limiting the area during AF control after pet recognition will be described.
First, when pet recognition is performed, as described above, a face area is displayed as a detection area on the LCD monitor 10 in accordance with the position of the pet's face (FIG. 7). When the release button (release shutter SW1) is pressed thereafter, AF control is started. Usually, a face area as shown in FIG. 7 is used as the AF area at that time. However, if AF control is performed using this face area as it is, the entire face of the pet is used as the area, and thus the problem of focusing on the nose as described above is likely to occur.

そこで、AFエリア設定制御手段104−3−2は、図10に示すように、顔エリアのうち限定した一部の領域をAFエリアとして設定する処理を行う。顔エリアの限定は、ペットの顔の形状に合わせて目にピントが合うように限定するものであり、目以外のもの(ここでは鼻)が手前(カメラ側)に来て目にピントが合うことを阻害するものを除外するように限定を行うとよい。本実施例では、顔エリアの上側の面積率40%に当たる領域をAFエリアとしている。   Therefore, the AF area setting control unit 104-3-2 performs processing for setting a limited part of the face area as an AF area, as shown in FIG. The face area is limited so that the eyes are in focus according to the shape of the pet's face. Other than the eyes (here, the nose) comes to the front (camera side) and the eyes are in focus. It is good to limit so that what inhibits it may be excluded. In this embodiment, an area corresponding to an area ratio of 40% above the face area is set as an AF area.

このようにAFエリアを限定することで、ペットの顔の目の位置にあたる領域(目の手前となる鼻の部分を除外した領域)でAF処理を行うことができるため、AF制御によりピントが目に合うこととなる。   By limiting the AF area in this way, AF processing can be performed in the area corresponding to the position of the eyes of the pet's face (the area excluding the nose portion in front of the eyes). Will fit.

図11に、本実施例のAF制御の具体的な処理の流れを示す。
まず、ペット認識モードに設定することでペット認識が開始される。その後、レリーズ釦(レリーズシャッターSW1)が押されることで、AF制御が開始される(ステップ11−1)。
その際に、まずペット検出手段104−3−3によりCCD101に基づく画像データにペットが検出されているかどうかの判定を行う(ステップ11−2)。
ペットが検出されていない場合(ステップ11−2のNo)、通常のAFエリア(図8)においてAF処理を行う(ステップ11−4)。
ペットが検出されている場合(ステップS11−2のYES)、AFエリア設定制御手段104−3−2は検出されているペットの顔エリア内の限定エリアをAFエリアに設定する(ステップ11−3)。ついで、自動合焦制御手段104−3−1は、その限定されたAFエリアに対してAF処理を行い(ステップ11−4)、合焦位置となるように、モータドライバ7−5を制御してフォーカス光学系7−2(フォーカスレンズ7−2a)を駆動する。
FIG. 11 shows a specific processing flow of the AF control of this embodiment.
First, pet recognition is started by setting the pet recognition mode. Thereafter, when the release button (release shutter SW1) is pressed, AF control is started (step 11-1).
At that time, the pet detection unit 104-3-3 first determines whether a pet is detected in the image data based on the CCD 101 (step 11-2).
When a pet is not detected (No in Step 11-2), AF processing is performed in a normal AF area (FIG. 8) (Step 11-4).
When a pet is detected (YES in step S11-2), the AF area setting control unit 104-3-2 sets a limited area within the detected pet's face area as an AF area (step 11-3). ). Next, the automatic focusing control means 104-3-1 performs AF processing on the limited AF area (step 11-4), and controls the motor driver 7-5 so that the focusing position is obtained. Then, the focus optical system 7-2 (focus lens 7-2a) is driven.

以上の処理を行うことにより、ペットを撮影した際に鼻にピントが合ってしまうことを回避でき、適切に目にピントの合った画像を撮影することが可能となる。   By performing the above processing, it is possible to avoid focusing on the nose when the pet is photographed, and it is possible to photograph an image that is properly focused on the eyes.

(実施例2)
ペット認識後のAF制御時にエリア選択を行う手法について説明する。
本実施例では、ペットの顔を被写体とした場合にペットの目に正確にピントを合わせるために、顔エリアを複数のエリアに分割し、該複数の分割エリアごとにAF処理を行い、AF処理終了後に最も合焦位置(ピント位置)が遠側にある分割エリアをAFエリアとする処理を行うものである。
(Example 2)
A method for performing area selection during AF control after pet recognition will be described.
In this embodiment, when the pet's face is the subject, the face area is divided into a plurality of areas in order to focus accurately on the pet's eyes, and AF processing is performed for each of the plurality of divided areas. After the end, a process is performed in which the divided area having the farthest focus position (focus position) is the AF area.

図12を用いてその処理例を説明する。
まずペット認識が行われた場合には、前述の通り、LCDモニタ10上にペットの顔の位置に合わせて顔エリアが検知エリアとして表示される(図7)。
An example of the processing will be described with reference to FIG.
First, when pet recognition is performed, as described above, a face area is displayed as a detection area on the LCD monitor 10 in accordance with the position of the pet's face (FIG. 7).

ここで、本実施例ではその顔エリアの分割を行う。例えば、顔エリアを縦3分割、横3分割の9つのエリアに分割する(図12(a))。その後、レリーズ釦(レリーズシャッターSW1)が押されると、分割されたエリア(分割エリア)それぞれにおいてAF処理が行われる。そして、該AF処理により分割エリアそれぞれにおいて合焦位置が定まる(図12(b))。これらが撮影の際の合焦位置候補である。図12(b)では、デジタルカメラCから合焦位置が比較的遠い分割エリア(図中、「遠」と記載)と比較的近い分割エリア(図中、「近」と記載)の2種類に分類される。
多くのペットは目の位置が顔の中で最も遠い位置にあるため、各分割エリアの合焦位置のうち最も遠側にある分割エリアをAFエリアとし(図12(c))、自動合焦制御手段104−3−1は、その分割エリアの合焦位置を用いて自動合焦制御を行う。
これにより、ペットを撮影した際に鼻にピントが合ってしまうことを回避でき、適切に目にピントの合った画像を撮影することが可能となる。
In this embodiment, the face area is divided. For example, the face area is divided into nine areas of 3 vertical divisions and 3 horizontal divisions (FIG. 12A). Thereafter, when the release button (release shutter SW1) is pressed, AF processing is performed in each of the divided areas (divided areas). Then, the in-focus position is determined in each divided area by the AF process (FIG. 12B). These are focus position candidates at the time of shooting. In FIG. 12B, there are two types of divided areas (denoted as “far” in the drawing) and relatively divided areas (denoted as “near” in the drawing) whose focusing position is relatively far from the digital camera C. being classified.
Since many pets have their eyes in the farthest position in the face, the most distant divided area of each divided area is set as the AF area (FIG. 12 (c)), and automatic focusing is performed. The control means 104-3-1 performs automatic focusing control using the focusing position of the divided area.
As a result, it is possible to avoid focusing on the nose when the pet is photographed, and it is possible to photograph an image that is properly focused on the eyes.

なお、本実施例では、ピント精度を高める目的で9つの分割エリア中、同じ合焦位置が2つ以上とある分割エリアのうち、合焦位置が最も遠側の分割エリアをAFエリアとする処理を行うとよい。すなわち、最も遠側の合焦位置となった分割エリアが1つだけであった場合には、その分割エリアをAFエリアとはせず、2番目に遠側の合焦位置となった分割エリアを探し、それが2つ以上あればAFエリアとする。また、最後まで2つ以上同じ合焦位置の分割エリアが見つからなかった場合には分割されていない状態の顔エリア(図7)をAFエリアとする。
この処理を行うことで、ペットが斜めをむいて片目のみが遠側にある場合等でも正確にピントをあわせることが可能となる。
In this embodiment, for the purpose of improving the focus accuracy, among the nine divided areas, the divided area having the same in-focus position is the AF area which is the farthest in-focus area among the divided areas having the same in-focus position. It is good to do. That is, when there is only one divided area that is the farthest focusing position, the divided area is not set as the AF area, and is the second farthest focusing position. If there are two or more, the AF area is set. If two or more divided areas having the same in-focus position are not found until the end, the face area (FIG. 7) that is not divided is set as the AF area.
By performing this process, it is possible to focus accurately even when the pet is inclined and only one eye is on the far side.

図13に、本実施例のAF制御の具体的な処理の流れを示す。
まず、ペット認識モードに設定することでペット認識が開始される。その後、レリーズ釦(レリーズシャッターSW1)が押されることで、AF制御が開始される(ステップ13−1)。
その際に、まずペット検出手段104−3−3によりCCD101に基づく画像データにペットが検出されているかどうかの判定を行う(ステップ13−2)。
ペットが検出されていない場合(ステップ13−2のNO)、通常のAFエリア(図8)においてAF処理を行う(ステップ13−3)。
FIG. 13 shows a specific processing flow of the AF control of this embodiment.
First, pet recognition is started by setting the pet recognition mode. Thereafter, when the release button (release shutter SW1) is pressed, AF control is started (step 13-1).
At that time, the pet detection unit 104-3-3 first determines whether a pet is detected in the image data based on the CCD 101 (step 13-2).
If no pet is detected (NO in step 13-2), AF processing is performed in the normal AF area (FIG. 8) (step 13-3).

ペットが検出されている場合(ステップS13−2のYES)、検出されているペットの顔エリアを分割し(ステップ13−4)、その分割された分割エリアごとにAF処理を行う(ステップ13−5)。   If a pet is detected (YES in step S13-2), the detected pet face area is divided (step 13-4), and AF processing is performed for each of the divided divided areas (step 13-). 5).

分割エリアの中で、AF処理の結果として最も遠側の合焦位置となった分割エリアを探し、その分割エリアが2つ以上あるか否かを判定する(ステップ13−6)。
その分割エリアが2つ以上あった場合(ステップS13−6のYES)、その分割エリアをAFエリアとし、合焦位置決定手段104−3−4は、該AFエリアにおけるステップ13−5のAF処理で得られたフォーカスレンズ7−2aの位置を合焦位置として決定する(ステップ13−7)。
Among the divided areas, a divided area that is the farthest in-focus position as a result of the AF processing is searched, and it is determined whether there are two or more divided areas (step 13-6).
If there are two or more divided areas (YES in step S13-6), the divided area is set as an AF area, and the in-focus position determining unit 104-3-4 performs AF processing in step 13-5 in the AF area. The position of the focus lens 7-2a obtained in the above is determined as the in-focus position (step 13-7).

その分割エリアが2つ以上なかった場合(ステップS13−6のNO)は、次(2番目)に遠側の合焦位置となった分割エリアを探し、その分割エリアが2つ以上あるか否かを判定する(ステップ13−8)。
その分割エリアが2つ以上あった場合(ステップS13−8のYES)、その分割エリアをAFエリアとし、合焦位置決定手段104−3−4は、該AFエリアにおけるステップ13−5のAF処理で得られたフォーカスレンズ7−2aの位置を合焦位置として決定する(ステップ13−9)。
If there are not two or more divided areas (NO in step S13-6), the next (second) divided area that is the far-in-focus position is searched, and whether or not there are two or more divided areas. Is determined (step 13-8).
If there are two or more divided areas (YES in step S13-8), the divided area is set as an AF area, and the in-focus position determining unit 104-3-4 performs AF processing in step 13-5 in the AF area. The position of the focus lens 7-2a obtained in the above is determined as the focus position (step 13-9).

その分割エリアが2つ以上なかった場合(ステップS13−8のNO)は、次に遠側の合焦位置となった分割エリアを探し、その分割エリアが2つ以上あるか否かを判定する(ステップ13−8)。   If there are not two or more divided areas (NO in step S13-8), the next divided area that becomes the far-in-focus position is searched to determine whether there are two or more divided areas. (Step 13-8).

以降、合焦位置候補の分割エリアが無くなるまでステップ13−8,13−9の処理を行い、同じ合焦位置となる分割エリアが2つ以上となる場合がなかったときには、分割されていない顔エリアでのAF処理を行い、合焦位置決定手段104−3−4は、その結果を合焦位置とする(ステップ13−10)。   Thereafter, the processes of Steps 13-8 and 13-9 are performed until there are no in-focus position candidate divided areas. If there are no two or more divided areas with the same in-focus position, the face is not divided. AF processing is performed in the area, and the focus position determination unit 104-3-4 sets the result as the focus position (step 13-10).

そして、自動合焦制御手段104−3−1は、合焦位置決定手段104−3−4が決定した合焦位置となるように、モータドライバ7−5を制御してフォーカス光学系7−2(フォーカスレンズ7−2a)を駆動する。   Then, the automatic focusing control means 104-3-1 controls the motor driver 7-5 so that the focusing position determined by the focusing position determination means 104-3-4 is reached, and the focus optical system 7-2. (Focus lens 7-2a) is driven.

以上の処理を行うことにより、ペットを撮影した際に鼻にピントが合ってしまうことを回避でき、適切に目にピントの合った画像を撮影することが可能となる。   By performing the above processing, it is possible to avoid focusing on the nose when the pet is photographed, and it is possible to photograph an image that is properly focused on the eyes.

なお、これまで本発明を図面に示した実施形態をもって説明してきたが、本発明は図面に示した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。
例えば、ここでは被写体がペットの動物であることを前提に説明してきたが、ペットに限定されず、馬、牛、豚なども含め広く人以外の動物を対象とする。
Although the present invention has been described with the embodiments shown in the drawings, the present invention is not limited to the embodiments shown in the drawings, and other embodiments, additions, modifications, deletions, etc. Can be changed within the range that can be conceived, and any embodiment is included in the scope of the present invention as long as the effects and advantages of the present invention are exhibited.
For example, the description here is based on the premise that the subject is a pet animal, but the subject is not limited to pets, but covers animals other than humans including horses, cows, and pigs.

1 サブLCD
2 SDカード/電池蓋
3 ストロボ発光部
4 光学ファインダ
5 測距ユニット
6 リモコン受光部
7 鏡胴ユニット
7−1 ズーム光学系
7−1a ズームレンズ
7−1b ズームモータ
7−2 フォーカス光学系
7−2a フォーカスレンズ
7−2b フォーカスモータ
7−3 絞りユニット
7−3a 絞り
7−3b 絞りモータ
7−4 メカシャッタユニット
7−4a メカシャッタ
7−4b メカシャッタモータ
7−5 モータドライバ
8 AF補助光LED部
9 ストロボ用LED
10 LCDモニタ
101 CCD
102 F/E−IC
102−1 CDS
102−2 AGC
102−3 A/D(ADC)
102−4 TG
103 SDRAM
104 デジタルカメラプロセッサ
104−1 CCD1信号処理ブロック
104−2 CCD2信号処理ブロック
104−3 CPUブロック
104−3−1 自動合焦制御手段
104−3−2 AFエリア設定制御手段
104−3−3 ペット検出手段
104−3−4 合焦位置決定手段
104−4 LocalSRAM
104−5 USBブロック
104−6 シリアルブロック
104−7 JPEG CODECブロック
104−8 リサイズブロック
104−9 TV信号表示ブロック
104−10 メモリカードコントローラブロック
107 RAM
108 ROM
109 SUB−CPU
111,117 LCDドライバ
113 ブザー
114 ストロボ回路
115−1 音声記録回路
115−2 マイクアンプ
115−3 マイク
116−1 音声再生回路
116−2 オーディオアンプ
116−3 スピーカー
118 ビデオアンプ
119 ビデオジャック
120 内蔵メモリ
121 メモリカードスロット
122 USBコネクタ
C デジタルカメラ
P 制御プログラム
SW1 レリーズシャッター
SW2 モードダイアル
SW3 ズームスイッチ(WIDE)
SW4 ズームスイッチ(TELE)
SW5 セルフタイマ/削除スイッチ
SW6 メニュースイッチ
SW7 上移動/ストロボ設定スイッチ
SW8 右移動スイッチ
SW9 ディスプレイスイッチ
SW10 下移動/マクロスイッチ
SW11 左移動/画像確認スイッチ
SW12 OKスイッチ
SW13 クイックアクセススイッチ
SW14 電源スイッチ
1 Sub LCD
2 SD card / battery cover 3 Strobe light emitting unit 4 Optical viewfinder 5 Distance measuring unit 6 Remote control light receiving unit 7 Lens barrel unit 7-1 Zoom optical system 7-1a Zoom lens 7-1b Zoom motor 7-2 Focus optical system 7-2a Focus lens 7-2b Focus motor 7-3 Aperture unit 7-3a Aperture 7-3b Aperture motor 7-4 Mechanical shutter unit 7-4a Mechanical shutter 7-4b Mechanical shutter motor 7-5 Motor driver 8 AF auxiliary light LED unit 9 Strobe LED
10 LCD monitor 101 CCD
102 F / E-IC
102-1 CDS
102-2 AGC
102-3 A / D (ADC)
102-4 TG
103 SDRAM
104 Digital Camera Processor 104-1 CCD1 Signal Processing Block 104-2 CCD2 Signal Processing Block 104-3 CPU Block 104-3-1 Automatic Focus Control Unit 104-3-2 AF Area Setting Control Unit 104-3-3 Pet Detection Means 104-3-4 In-focus position determination means 104-4 Local SRAM
104-5 USB block 104-6 Serial block 104-7 JPEG CODEC block 104-8 Resize block 104-9 TV signal display block 104-10 Memory card controller block 107 RAM
108 ROM
109 SUB-CPU
111, 117 LCD driver 113 Buzzer 114 Strobe circuit 115-1 Audio recording circuit 115-2 Microphone amplifier 115-3 Microphone 116-1 Audio reproduction circuit 116-2 Audio amplifier 116-3 Speaker 118 Video amplifier 119 Video jack 120 Built-in memory 121 Memory card slot 122 USB connector C Digital camera P Control program SW1 Release shutter SW2 Mode dial SW3 Zoom switch (WIDE)
SW4 Zoom switch (TELE)
SW5 Self-timer / delete switch SW6 Menu switch SW7 Move up / strobe setting switch SW8 Move right switch SW9 Display switch SW10 Move down / macro switch SW11 Move left / image confirmation switch SW12 OK switch SW13 Quick access switch SW14 Power switch

特開2010‐092066号公報JP 2010-092066 A

Claims (6)

合焦レンズと撮像素子を有し、前記合焦レンズを通して被写体像を前記撮像素子の受光部に結像させて画像データを出力する撮像手段と、
前記撮像手段から出力される画像データから人以外の動物の顔を認識し、前記画像データの全体画像領域のうち、認識された人以外の動物の顔部分に対応する領域の情報を出力する顔領域検出手段と、
前記顔領域検出手段により前記画像データの全体画像領域における人以外の動物の顔部分に対応する領域の情報が出力されると、当該領域のうち限定した一部の領域をAF領域として設定するAF領域限定手段と、
前記AF領域限定手段により設定されるAF領域において前記画像データが合焦状態となるように、前記合焦レンズを駆動する自動合焦制御を行う自動合焦制御手段と、
を備えることを特徴とする撮像装置。
An imaging unit that has a focusing lens and an imaging element, forms an image of a subject on the light receiving unit of the imaging element through the focusing lens, and outputs image data;
A face that recognizes the face of an animal other than a person from the image data output from the imaging means, and outputs information of a region corresponding to the face portion of the recognized animal other than the human in the entire image area of the image data Area detection means;
When information on a region corresponding to a face part of an animal other than a person in the entire image region of the image data is output by the face region detecting means, a limited part of the region is set as an AF region. Area limiting means;
Automatic focusing control means for performing automatic focusing control for driving the focusing lens so that the image data is in a focused state in the AF area set by the AF area limiting means;
An imaging apparatus comprising:
前記AF領域限定手段は、前記人以外の動物の顔を構成する部位のうち、目よりも撮像装置側にある部位を除外するように、前記顔部分に対応する領域を限定することを特徴とする請求項1に記載の撮像装置。   The AF area limiting means limits an area corresponding to the face part so as to exclude a part of the face of an animal other than the person that is closer to the imaging device than the eyes. The imaging device according to claim 1. 前記AF領域限定手段は、前記顔領域検出手段により前記画像データの全体画像領域における人以外の動物の顔部分に対応する領域の情報が出力されると、当該領域を複数の分割領域に分割する領域分割手段と、前記複数の分割領域ごとに自動合焦処理を行い、その結果から所定の分割領域を前記AF領域とするAF領域選択手段と、からなることを特徴とする請求項1に記載の撮像装置。   The AF area limiting means divides the area into a plurality of divided areas when the face area detecting means outputs information of an area corresponding to a face portion of an animal other than a human in the entire image area of the image data. 2. The apparatus according to claim 1, further comprising: an area dividing unit; and an AF area selecting unit that performs an automatic focusing process for each of the plurality of divided areas and sets a predetermined divided area as the AF area based on the result. Imaging device. 前記AF領域選択手段は、自動合焦処理を行った前記複数の分割領域のうち、最も合焦位置の遠い分割領域を前記AF領域とすることを特徴とする請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, wherein the AF area selection unit sets a divided area farthest in focus among the plurality of divided areas subjected to the automatic focusing process as the AF area. 前記AF領域選択手段は、自動合焦処理を行った前記複数の分割領域のうち、最も合焦位置の遠い分割領域側から同じ合焦位置の分割領域が複数あるか否かを判定し、複数あった分割領域のうち、最も合焦位置の遠い分割領域を前記AF領域とすることを特徴とする請求項3に記載の撮像装置。   The AF area selection means determines whether or not there are a plurality of divided areas having the same in-focus position from the divided area side farthest in focus among the plurality of divided areas subjected to the automatic focusing process. The imaging apparatus according to claim 3, wherein among the divided areas, a divided area farthest in focus is set as the AF area. 前記自動合焦制御手段は、前記AF領域選択手段が行った自動合焦処理により得られた前記所定の分割領域における合焦位置の結果を用いて、自動合焦制御を行うことを特徴とする請求項3〜5のいずれかに記載の撮像装置。   The automatic focus control means performs automatic focus control using a result of a focus position in the predetermined divided area obtained by an automatic focus process performed by the AF area selection means. The imaging device according to claim 3.
JP2010174491A 2010-08-03 2010-08-03 Imaging apparatus Pending JP2012037556A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010174491A JP2012037556A (en) 2010-08-03 2010-08-03 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010174491A JP2012037556A (en) 2010-08-03 2010-08-03 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012037556A true JP2012037556A (en) 2012-02-23

Family

ID=45849647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010174491A Pending JP2012037556A (en) 2010-08-03 2010-08-03 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2012037556A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11431893B2 (en) 2018-10-18 2022-08-30 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11431893B2 (en) 2018-10-18 2022-08-30 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus

Similar Documents

Publication Publication Date Title
JP5005570B2 (en) Image processing apparatus and program
KR100821801B1 (en) Image capture apparatus and auto focus control method
US7961228B2 (en) Imaging apparatus and method for controlling exposure by determining backlight situations and detecting a face
JP2008136035A (en) Imaging apparatus
JP2012002951A (en) Imaging device, method for detecting in-focus position and in-focus position detection program
JP2011248160A (en) Imaging device, imaging system, and method and program for controlling imaging device
JP5272551B2 (en) Imaging apparatus and method
JP2012186670A (en) Imaging device, imaging method, and imaging program
US20130293768A1 (en) Imaging apparatus, imaging method, imaging program and computer readable information recording medium
JP4855155B2 (en) Imaging apparatus and imaging method using the same
JP5857610B2 (en) Imaging apparatus and imaging method
KR101630304B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
JP5544917B2 (en) Imaging apparatus and imaging method
JP2008078828A (en) Imaging apparatus
JP6136310B2 (en) Imaging device
JP2010200084A (en) Imaging apparatus
JP5884579B2 (en) Imaging apparatus and display processing method
JP2012037556A (en) Imaging apparatus
JP5799690B2 (en) Imaging apparatus and control method thereof
JP5195887B2 (en) Imaging apparatus and imaging method
JP4688485B2 (en) Imaging device with auxiliary light function
JP2010020081A (en) Image capturing apparatus and method, and control program and storage medium
JP2007133044A (en) Imaging apparatus and imaging method
JP4376593B2 (en) Focus detection apparatus and focus detection method
JP2007248539A (en) Imaging device