JP2013040994A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2013040994A
JP2013040994A JP2011176157A JP2011176157A JP2013040994A JP 2013040994 A JP2013040994 A JP 2013040994A JP 2011176157 A JP2011176157 A JP 2011176157A JP 2011176157 A JP2011176157 A JP 2011176157A JP 2013040994 A JP2013040994 A JP 2013040994A
Authority
JP
Japan
Prior art keywords
face
focus detection
area
imaging apparatus
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011176157A
Other languages
Japanese (ja)
Inventor
Takeshi Watabe
剛 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011176157A priority Critical patent/JP2013040994A/en
Publication of JP2013040994A publication Critical patent/JP2013040994A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of performing an appropriate AF even when a face exists the outside of a focus detection range.SOLUTION: An imaging apparatus 1 according to the present invention includes: face detection parts 25 and 42 that detect a face existing in an imaging area 50; an AF focus detection part 24 that includes a plurality of focus detection areas 51 in which a focal point can be detected in the imaging area; and a control part 40 that can decide that a focus detection area in which the focus detection is performed out of the focus detection areas in accordance with a face detection result in the face detection part. The control part classifies the focus detection areas depending on a column along which the focus detection area is arranged out of a plurality of columns that are parallel to one another and virtually provided in the imaging area, and even in a case in which a detected face does not exist at a position corresponding to the focus detection area, when the face is located at any column of the plurality of columns, a first control is performed that controls the AF focus detection part so that the focus detection is performed in the focus detection area decided by weighting a distance from the position in which the face is detected out of the focus detection areas belonging to the columns in which the face is located.

Description

本発明は、撮像装置に関するものである。   The present invention relates to an imaging apparatus.

従来、一眼レフタイプの撮像装置において、焦点検出領域内に人物等の顔がある場合、その顔に対応する領域で位相差方式により焦点検出を行うものがある(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, in a single-lens reflex type imaging apparatus, when a face such as a person is present in a focus detection area, focus detection is performed by a phase difference method in an area corresponding to the face (for example, see Patent Document 1).

特開2008−61157号公報JP 2008-61157 A

しかし、上記従来の撮像装置では、焦点検出領域が配置されている範囲外に顔がある場合について考慮されていない。   However, the conventional imaging apparatus does not consider the case where the face is outside the range where the focus detection area is arranged.

本発明の課題は、焦点検出領域が配置されている範囲外に顔がある場合であっても、適切なオートフォーカスが可能な撮像装置を提供することである。   An object of the present invention is to provide an imaging apparatus capable of appropriate autofocus even when the face is outside the range where the focus detection area is arranged.

本発明は、以下のような解決手段により前記課題を解決する。なお、理解を容易にするために、本発明の実施形態に対応する符号を付して説明するが、これに限定されるものではない。   The present invention solves the above problems by the following means. In addition, in order to make an understanding easy, although the code | symbol corresponding to embodiment of this invention is attached | subjected and demonstrated, it is not limited to this.

請求項1に記載の発明は、撮像領域(50)に存在する顔を検出する顔検出部(25,42)と、前記撮像領域(50)内において焦点検出可能な焦点検出領域(51)を複数有するオートフォーカス焦点検出部(24)と、前記顔検出部(25,42)における顔検出結果に応じて、前記焦点検出領域(51)のいずれの焦点検出領域で焦点検出するかを決定可能な制御部(40)と、を備え、前記制御部(40)は、前記焦点検出領域(51)を、前記撮像領域(50)内に仮想的に設けられた互いに平行な複数の列のどの列に沿って配置されているかによってグループ分けし、前記検出された顔が、前記焦点検出領域(51)に対応する位置に存在しない場合であっても、前記列のいずれかの列に位置する場合は、前記顔が位置する前記列に属する焦点検出領域(51)のうち、前記顔が検出された位置からの距離に重みを持たせて決定された焦点検出領域で焦点検出を行うように、前記オートフォーカス焦点検出部(24)を制御する、第一制御を行うこと、を特徴とする撮像装置(1)である。
請求項2に記載の発明は、請求項1に記載の撮像装置(1)であって、前記列は、前記焦点検出領域(51)が配置されていない列も含み、前記制御部(40)は、前記顔が、前記焦点検出領域(51)が配置されていない列だけに位置するとき、前記顔に近接する列に属する焦点検出領域(51)のうち、前記顔が検出された位置からの距離に重みを持たせて決定された焦点検出領域(51)で焦点検出を行うように、前記第一制御を行うこと、を特徴とする撮像装置(1)である。
請求項3に記載の発明は、請求項1または2に記載の撮像装置(1)であって、前記顔検出部(25,42)による顔の検出結果は、信頼度に関する情報を含み、前記制御部(40)は、前記検出された顔の前記信頼度が所定の閾値よりも小さい場合には、前記第一制御を行わないこと、を特徴とする撮像装置(1)である。
請求項4に記載の発明は、請求項1から3のいずれか1項に記載の撮像装置(1)であって、前記顔検出部(25,42)による顔の検出結果は、信頼度に関する情報を含み、前記顔が複数検出された場合、前記信頼度の最も高い顔に基づいて前記第一制御を行うこと、を特徴とする撮像装置(1)である。
請求項5に記載の発明は、請求項1から4のいずれか1項に記載の撮像装置(1)であって、前記顔検出部(25,42)は、測光センサ(25)を含むこと、を特徴とする撮像装置(1)である。
なお、符号を付して説明した構成は、適宜改良してもよく、また、少なくとも一部を他の構成物に代替してもよい。
The invention described in claim 1 includes a face detection unit (25, 42) for detecting a face existing in the imaging region (50), and a focus detection region (51) capable of focus detection in the imaging region (50). It is possible to determine in which focus detection area of the focus detection area (51) the focus detection is performed according to the face detection results in the autofocus focus detection section (24) and the face detection sections (25, 42). A control unit (40), wherein the control unit (40) includes the focus detection area (51) in a plurality of parallel columns virtually provided in the imaging area (50). Even if the detected face does not exist at a position corresponding to the focus detection area (51), it is located in any one of the columns. If the face is located before Among the focus detection areas (51) belonging to the column, the autofocus focus detection section (24) performs focus detection in a focus detection area determined by giving a weight to the distance from the position where the face is detected. The imaging device (1) is characterized by performing first control.
Invention of Claim 2 is an imaging device (1) of Claim 1, Comprising: The said row | line | column also includes the row | line | column in which the said focus detection area | region (51) is not arrange | positioned, The said control part (40) When the face is located only in a row where the focus detection area (51) is not arranged, from the position where the face is detected in the focus detection area (51) belonging to the row close to the face. The imaging apparatus (1) is characterized in that the first control is performed so that focus detection is performed in a focus detection region (51) determined by giving a weight to the distance of the first focus.
Invention of Claim 3 is the imaging device (1) of Claim 1 or 2, Comprising: The detection result of the face by the said face detection part (25,42) contains the information regarding reliability, The said The control unit (40) is the imaging device (1) characterized in that the first control is not performed when the reliability of the detected face is smaller than a predetermined threshold.
Invention of Claim 4 is an imaging device (1) of any one of Claim 1 to 3, Comprising: The detection result of the face by the said face detection part (25,42) is related to reliability. An imaging apparatus (1) characterized in that when a plurality of faces including information are detected, the first control is performed based on the face with the highest reliability.
Invention of Claim 5 is an imaging device (1) of any one of Claim 1 to 4, Comprising: The said face detection part (25,42) contains a photometry sensor (25). The imaging device (1) characterized by the above.
Note that the configuration described with reference numerals may be modified as appropriate, and at least a part of the configuration may be replaced with another component.

本発明によれば、焦点検出範囲外に顔がある場合であっても、適切なオートフォーカスが可能な撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus capable of appropriate autofocus even when a face is outside the focus detection range.

本実施形態のカメラの概略構成を説明する図である。It is a figure explaining schematic structure of the camera of this embodiment. 制御部と測光センサを示すブロック図である。It is a block diagram which shows a control part and a photometry sensor. 撮像領域における焦点検出領域を示す図である。It is a figure which shows the focus detection area in an imaging area. 仮想焦点領域を説明する図である。It is a figure explaining a virtual focal field. 検出された顔が焦点検出領域外にある例を示す図である。It is a figure which shows the example which has the detected face outside a focus detection area | region. 顔検出結果と仮想焦点検出領域の対応付けの原理を説明する図である。It is a figure explaining the principle of matching of a face detection result and a virtual focus detection area. 本実施形態の全体的な流れを示すフローチャートである。It is a flowchart which shows the whole flow of this embodiment. 図7のステップのカメラにおける測光処理を示すフローチャートである。It is a flowchart which shows the photometry process in the camera of the step of FIG. 図8のステップのオートエリアAF用顔検出演算のフローチャートを説明するフローチャートである。FIG. 9 is a flowchart for explaining a flowchart of auto area AF face detection calculation in the step of FIG. 8; FIG.

(カメラの基本構成)
以下、図面等を参照して、本発明の実施形態について説明する。図1は、本実施形態のカメラ1の概略構成を説明する図である。
本実施形態のカメラ1は、カメラ本体20と、当該カメラ本体20に着脱可能な撮影レンズ10と、によって構成された、いわゆるデジタル一眼レフカメラである。
撮影レンズ10は、鏡筒内部に、結像光学系を構成する複数のレンズ群と、絞り11とを備えている。複数のレンズ群のうち、図示するレンズ群L1は、光軸OA方向に移動して結像位置を調節可能な焦点調節レンズである。
(Basic camera configuration)
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram illustrating a schematic configuration of a camera 1 according to the present embodiment.
The camera 1 according to the present embodiment is a so-called digital single-lens reflex camera including a camera body 20 and a photographing lens 10 that can be attached to and detached from the camera body 20.
The photographic lens 10 includes a plurality of lens groups constituting an imaging optical system and a diaphragm 11 inside the lens barrel. Of the plurality of lens groups, the illustrated lens group L1 is a focus adjustment lens that can move in the direction of the optical axis OA and adjust the imaging position.

カメラ本体20は、撮像素子21と、クイックリターンミラー22と、サブミラー23と、ファインダー光学系30と、測距素子24と、測光センサ25と、制御部40と、備えている。   The camera body 20 includes an image sensor 21, a quick return mirror 22, a sub mirror 23, a finder optical system 30, a distance measuring element 24, a photometric sensor 25, and a control unit 40.

撮像素子21は、被写体光を電気信号に変換するCCDやCMOS等の光電変換素子であって、赤(R)、緑(G)及び青(B)の各画素が所定の配列パターンで配列されている。撮像素子21は、撮影レンズ10の結像光学系による結像面の画像情報を電気信号に変換して撮像し、各画素に対応する色情報や輝度情報に応じた画像信号を制御部40に出力する。   The imaging element 21 is a photoelectric conversion element such as a CCD or CMOS that converts subject light into an electrical signal, and each pixel of red (R), green (G), and blue (B) is arranged in a predetermined arrangement pattern. ing. The imaging element 21 converts the image information on the imaging surface by the imaging optical system of the photographic lens 10 into an electrical signal and images it, and sends an image signal corresponding to the color information and luminance information corresponding to each pixel to the control unit 40. Output.

クイックリターンミラー(メインミラー)22は、撮影レンズ10の結像光学系から撮像素子21に至る光路中に介在する作用位置と、光路中に介在しない退避位置との間を移動可能に設けられている。クイックリターンミラー22は、作用位置において、入射光束をファインダー光学系30(拡散スクリーン26)へと反射する。
また、クイックリターンミラー22の一部には、入射光束の一部を透過する半透過領域が形成されている。
サブミラー23は、クイックリターンミラー22の背面側に設けられている。サブミラー23は、クイックリターンミラー22の半透過領域を透過した入射光束を測距素子24に向けて反射させる。
The quick return mirror (main mirror) 22 is provided so as to be movable between an action position interposed in the optical path from the imaging optical system of the photographing lens 10 to the image sensor 21 and a retracted position not interposed in the optical path. Yes. The quick return mirror 22 reflects the incident light beam to the finder optical system 30 (diffuse screen 26) at the operating position.
In addition, a semi-transmission region that transmits part of the incident light beam is formed in a part of the quick return mirror 22.
The sub mirror 23 is provided on the back side of the quick return mirror 22. The sub mirror 23 reflects the incident light beam transmitted through the semi-transmissive region of the quick return mirror 22 toward the distance measuring element 24.

ファインダー光学系30は、拡散スクリーン26と、コンデンサレンズ27と、ペンタプリズム28と、接眼レンズ29と、により構成されている。
拡散スクリーン26は、撮像素子21と光学的に等価な位置に設けられており、クイックリターンミラー22によって導かれた入射光束が結像する。
ペンタプリズム28及び接眼レンズ29は、この拡散スクリーン26上に結像してコンデンサレンズ27を通った被写体像を、正立像として撮影者が視認し得るようになっている。
The viewfinder optical system 30 includes a diffusing screen 26, a condenser lens 27, a pentaprism 28, and an eyepiece lens 29.
The diffusing screen 26 is provided at a position optically equivalent to the image sensor 21, and an incident light beam guided by the quick return mirror 22 forms an image.
The pentaprism 28 and the eyepiece lens 29 are formed so that the photographer can visually recognize the subject image formed on the diffusion screen 26 and passing through the condenser lens 27 as an erect image.

測光センサ25も、撮像素子21と同様に、被写体光を電気信号に変換するCCDやCMOS等の光電変換素子であって、赤(R)、緑(G)及び青(B)の各画素が所定の配列パターンで配列されている。測光センサ25は、被写界を分割して測光し、それぞれの測光値を制御部40に出力可能な構造になっている。   Similarly to the image sensor 21, the photometric sensor 25 is a photoelectric conversion element such as a CCD or CMOS that converts subject light into an electrical signal, and each pixel of red (R), green (G), and blue (B) They are arranged in a predetermined arrangement pattern. The photometric sensor 25 has a structure in which the object scene is divided and photometric, and each photometric value can be output to the control unit 40.

制御部40は、カメラ1の各制御を行う部分である。図2は、制御部40と測光センサ25を示すブロック図である。制御部40は、マイコン41と、画像処理IC(ASIC)42とを備える。
マイコン41は、測光センサ25及びASIC42とシリアル通信を行い、それらを制御する。
ASIC42は、測光センサ25からの測光結果に基づき、測光演算、顔検出を含むシーン認識等を行う。
The control unit 40 is a part that performs each control of the camera 1. FIG. 2 is a block diagram showing the control unit 40 and the photometric sensor 25. The control unit 40 includes a microcomputer 41 and an image processing IC (ASIC) 42.
The microcomputer 41 performs serial communication with the photometric sensor 25 and the ASIC 42 and controls them.
The ASIC 42 performs photometric calculation, scene recognition including face detection, and the like based on the photometric result from the photometric sensor 25.

図1に戻り、測距素子24は、サブミラー23を介して入射する被写体光に基づき、被写体像の結像状態を検出し、その検出情報を制御部40のマイコン41に出力する。
測距素子24は、図3に示すように撮像領域50の所定位置に設定された複数の焦点検出領域51に対応してそれぞれ配置されたセンサユニットを備えている。図3は、焦点検出領域が51点の場合の一例を示すものである。
Returning to FIG. 1, the distance measuring element 24 detects the imaging state of the subject image based on the subject light incident through the sub mirror 23, and outputs the detection information to the microcomputer 41 of the control unit 40.
As shown in FIG. 3, the distance measuring element 24 includes sensor units respectively arranged corresponding to a plurality of focus detection areas 51 set at predetermined positions in the imaging area 50. FIG. 3 shows an example when the focus detection area is 51 points.

(カメラの基本動作)
撮影レンズ10を通り絞り11を通った光はクイックリターンミラー22に導かれる。クリックリターンミラー22で分光された光の一方はサブミラー23に導かれ測距素子24に入射する。
もう一方の光は拡散スクリーン26に投影され、コンデンサレンズ27を通りペンタプリズム28に導かれ、ファインダーである接眼レンズ29へと進む。
また、ペンタプリズム28により測光光学素子である三角プリズム32を通った像は、測光レンズ31を通って測光センサ25に結像される。
制御部40は、カメラ1のシーケンス制御を行うマイコン41からシリアル通信を介して測光センサ25を駆動する。
(Basic camera operation)
Light passing through the taking lens 10 and passing through the diaphragm 11 is guided to the quick return mirror 22. One of the lights separated by the click return mirror 22 is guided to the sub mirror 23 and enters the distance measuring element 24.
The other light is projected onto the diffusing screen 26, passes through the condenser lens 27, is guided to the pentaprism 28, and proceeds to the eyepiece lens 29 that is a finder.
An image that has passed through the triangular prism 32 that is a photometric optical element by the pentaprism 28 is imaged on the photometric sensor 25 through the photometric lens 31.
The control unit 40 drives the photometric sensor 25 from the microcomputer 41 that performs sequence control of the camera 1 via serial communication.

測光センサ25はマイコン41からの命令に従い蓄積動作を行い、測光センサ25内部でA/D変換された測光情報をASIC42に出力する。
ASIC42は測光センサ25の出力を受信し、測光や顔検出の処理を行う。
ここで、顔検出は、公知の方法を用いて行われ、顔情報、例えば顔の位置、大きさ、傾き及び信頼度(例えば1〜9で表された、顔であることの確からしさの程度)等が検出される。
The photometric sensor 25 performs a storing operation in accordance with a command from the microcomputer 41 and outputs photometric information A / D converted inside the photometric sensor 25 to the ASIC 42.
The ASIC 42 receives the output of the photometric sensor 25 and performs photometric and face detection processing.
Here, the face detection is performed using a known method, and the face information, for example, the position, size, inclination, and reliability of the face (for example, the degree of certainty of the face represented by 1 to 9). ) Etc. are detected.

そして、ASIC42は、カメラ1が自動選択AF(オートエリアAF)の場合には、顔が検出された焦点検出顔領域を算出し、上記顔情報とともにシリアル通信を介してマイコン41に送信する。   Then, when the camera 1 is in automatic selection AF (auto area AF), the ASIC 42 calculates a focus detection face area in which a face is detected, and transmits it to the microcomputer 41 via serial communication together with the face information.

図3は、撮像領域50における焦点検出領域51を示す図である。図示するように、顔が符号Aで示す位置で検出された場合、ASIC42は、マイコン41に焦点検出領域51aという位置情報を送信する。   FIG. 3 is a diagram illustrating the focus detection area 51 in the imaging area 50. As shown in the figure, when the face is detected at the position indicated by the symbol A, the ASIC 42 transmits position information of the focus detection area 51a to the microcomputer 41.

マイコン41は、測距素子24を、焦点検出領域51aにおいて焦点検出を行うように制御する。測距素子24は、焦点検出顔領域51aに配置されたセンサユニットにより、位相差を用いて合焦状態を判断する。合焦状態は測距素子24よりマイコン41に伝達され、マイコン41は合焦レンズL1を駆動して合焦させる。   The microcomputer 41 controls the distance measuring element 24 to perform focus detection in the focus detection area 51a. The distance measuring element 24 determines the in-focus state using the phase difference by the sensor unit arranged in the focus detection face area 51a. The in-focus state is transmitted from the distance measuring element 24 to the microcomputer 41, and the microcomputer 41 drives the focusing lens L1 to focus.

そして、図示しないレリーズボタンが押下されると、クイックリターンミラー22は上部に跳ね上がり、被写体光はシャッター33を介して撮像素子21に導かれ、合焦した撮影画像が得られる。
また、ライブビュー時は、背面のライブビュー表示スイッチ(図示せず)を操作することでクイックターンミラー22が上がり撮像素子21に導かれスルー画像が得られる。
When a release button (not shown) is pressed, the quick return mirror 22 jumps upward, and the subject light is guided to the image sensor 21 via the shutter 33, and a focused photographed image is obtained.
In live view, the quick turn mirror 22 is raised by operating a live view display switch (not shown) on the back, and is guided to the image sensor 21 to obtain a through image.

上述のように、ASIC42において顔検出を行い、マイコン41は、顔が検出された焦点検出領域の情報を測距素子24に伝達する。測距素子24はその位置の焦点検出領域の測距を行う。   As described above, the ASIC 42 performs face detection, and the microcomputer 41 transmits information on the focus detection area where the face is detected to the distance measuring element 24. The distance measuring element 24 measures the focus detection area at that position.

しかし、ここで、撮像領域50において、上述したような焦点検出領域51が配置されている部分でなく、その部分外の、図3のBで示す位置に、顔が存在する場合がある。
このような場合、顔の位置に対応する焦点検出領域51が存在しないため、顔位置に基づいた測距素子24による測距ができないことになる。
そこで、本実施形態では以下のように測距のための焦点検出領域を決定する。
However, in this case, in the imaging region 50, there is a case where the face is present not at the portion where the focus detection region 51 as described above is arranged but at the position indicated by B in FIG. 3 outside the portion.
In such a case, since the focus detection area 51 corresponding to the face position does not exist, distance measurement by the distance measuring element 24 based on the face position cannot be performed.
Therefore, in this embodiment, a focus detection area for distance measurement is determined as follows.

(顔が焦点検出領域外の場合の測距用焦点検出領域の決定)
まず、焦点検出領域を上下左右方向に拡張した座標を仮想焦点領域として対応付けする。図4はその仮想焦点領域を説明する図である。
図示するように、焦点検出領域51は撮像領域50の全面に均等に配置されているのではなく、やや中央部により配置されている。したがって、撮像領域の外縁よりの部分では、焦点検出領域51が配置されていない部分が存在する。
そこで、本実施形態では焦点検出領域を上下左右に拡張した仮想焦点領域を設定する。
(Determining the focus detection area for ranging when the face is outside the focus detection area)
First, coordinates obtained by extending the focus detection area in the vertical and horizontal directions are associated as virtual focus areas. FIG. 4 is a diagram for explaining the virtual focal region.
As shown in the drawing, the focus detection areas 51 are not evenly arranged on the entire surface of the imaging area 50, but rather are arranged at a slightly central portion. Therefore, there is a portion where the focus detection region 51 is not arranged in the portion from the outer edge of the imaging region.
Therefore, in this embodiment, a virtual focus area is set by extending the focus detection area vertically and horizontally.

図4(a)に示すように、撮像領域の縦方向と横方向の、焦点検出領域51が配列されている方向に沿って、図中、番号0〜15で示す16本の所定幅のラインで示す、仮想焦点検出領域を設ける。
さらに図4(b)に示すように、上述の0番目のラインの左(外側)と10番目のラインの右(外側)、11番目のラインの上(外側)と15番目のラインの下(外側)にも、番号16〜19で示す4本の所定幅のラインで示す仮想焦点検出領域を設ける。これにより、撮像領域の四隅も含めて対応付けすることが可能となる。
As shown in FIG. 4A, sixteen lines having a predetermined width indicated by numbers 0 to 15 in the drawing along the direction in which the focus detection areas 51 are arranged in the vertical and horizontal directions of the imaging area. A virtual focus detection area shown in FIG.
Further, as shown in FIG. 4 (b), the left (outside) of the above-mentioned 0th line, the right (outside) of the 10th line, the top (outside) of the 11th line and the bottom of the 15th line ( Also on the outer side, virtual focus detection areas indicated by four lines having a predetermined width indicated by numbers 16 to 19 are provided. As a result, it is possible to associate with the four corners of the imaging area.

図5は、検出された顔が焦点検出領域外にある例を示す図である。
例えば、図5(a)に示すように、カメラ1が通常位置(横長画像を撮影する場合)において、顔が、焦点検出領域51の配置範囲外の撮像領域50の上部(Yプラス方向)に位置する場合がある。
例えば、図5(a)の場合、顔は、仮想焦点検出領域の5ラインおよび18ラインに存在することになる。
そこで、エリア外顔フラグ[5]=1、エリア外顔フラグ[18]=1とし、その他は0とする。
また、ASIC42での顔検出の際に得られた顔検出結果の信頼度を、信頼性データとしてのエリア外顔信頼度[5]、エリア外信頼度[18]に出力する。
FIG. 5 is a diagram illustrating an example in which the detected face is outside the focus detection area.
For example, as shown in FIG. 5A, when the camera 1 is in the normal position (when taking a landscape image), the face is above the imaging area 50 outside the arrangement range of the focus detection area 51 (Y plus direction). May be located.
For example, in the case of FIG. 5A, the face exists on the 5th and 18th lines of the virtual focus detection area.
Therefore, the area outside face flag [5] = 1, the area outside face flag [18] = 1, and the others are set to 0.
Further, the reliability of the face detection result obtained at the time of face detection by the ASIC 42 is output to the out-of-area face reliability [5] and the out-of-area reliability [18] as reliability data.

例えば、図5(b)で示すように、カメラが縦位置(縦長画像を撮影する場合)において、顔が、焦点検出領域51の配置範囲外の撮像領域の上部(Xプラス方向)に位置する場合がある。
この場合、顔は、仮想焦点検出領域の12ライン、13ライン、および17ラインに存在することになる。
そこで、エリア外顔フラグ[12]=1、エリア外顔フラグ[13]=1、エリア外顔フラグ[17]=1としその他は0とする。また信頼性データとしてエリア外顔信頼度[5]、エリア外顔信頼度[13]、エリア外信頼度[17]に顔検出結果の信頼度を出力する。
For example, as shown in FIG. 5B, when the camera is in the vertical position (when shooting a vertically long image), the face is located above the imaging area outside the arrangement range of the focus detection area 51 (X plus direction). There is a case.
In this case, the face exists on the 12th, 13th, and 17th lines of the virtual focus detection area.
Therefore, the area outside face flag [12] = 1, the area outside face flag [13] = 1, the area outside face flag [17] = 1, and the others are set to 0. In addition, the reliability of the face detection result is output to the out-of-area face reliability [5], the out-of-area face reliability [13], and the out-of-area reliability [17] as reliability data.

図5(c)は、仮想焦点検出領域の0〜10ラインには該当せず18ラインと16ラインとに該当する場合である。この場合、体部分が焦点検出領域51にある可能性がある。エリア外顔フラグ[18]=1、エリア外顔フラグ[16]=1とし、エリア外信頼度[18]、エリア外信頼度[16]に顔信頼度を出力する。   FIG. 5C shows a case where 18 to 16 lines are not applicable to the 0 to 10 lines of the virtual focus detection area. In this case, the body part may be in the focus detection area 51. The area outside face flag [18] = 1 and the area outside face flag [16] = 1 are set, and the face reliability is output to the outside area reliability [18] and the outside area reliability [16].

図5(d)は、焦点検出領域外に複数の顔がある場合である。
エリア外顔フラグは[2],[5],[8],[18]を1とし、その他を0とする。
エリア外信頼度は[2],[5],[8]に関しては各顔の信頼度を出力し[18]に関しては[2],[5],[8]の中で最大となる信頼度を出力する。
FIG. 5D shows a case where there are a plurality of faces outside the focus detection area.
For the area outside face flag, [2], [5], [8], [18] are set to 1, and the others are set to 0.
As for the out-of-area reliability, the reliability of each face is output for [2], [5], and [8], and the reliability that is the maximum among [2], [5], and [8] for [18]. Is output.

次に、図5(a)〜図5(b)における、測距用焦点検出領域の決定について説明する。
図5(a)で示すカメラが横位置の場合、上述のように、エリア外顔フラグ[5]=1、エリア外顔フラグ[18]=1である。顔検出マクロから得られたエリア外信頼度[18]が所定閾値より大きい場合に、エリア外顔フラグ[18]のYマイナス方向の焦点検出領域で焦点検出動作を行う。
Next, determination of the focus detection area for distance measurement in FIGS. 5A to 5B will be described.
When the camera shown in FIG. 5A is in the horizontal position, as described above, the area outside face flag [5] = 1 and the area outside face flag [18] = 1. When the out-of-area reliability [18] obtained from the face detection macro is larger than a predetermined threshold, the focus detection operation is performed in the focus detection area in the Y minus direction of the out-of-area face flag [18].

ここで、所定閾値より大きい場合とは、例えば、信頼度を0〜100の数値で表されて、閾値が40であり、エリア外顔フラグ[18]の信頼度が5の場合である。   Here, the case where it is larger than the predetermined threshold is, for example, a case where the reliability is represented by a numerical value of 0 to 100, the threshold is 40, and the reliability of the out-of-area face flag [18] is 5.

また、エリア外顔フラグ[18]のYマイナス方向の焦点検出領域とは、図5(a)において、顔が検出された5ラインにおける、エリア外顔フラグ[18]のYマイナス方向に位置し、かつ18ラインに近いほうから、例えば3つの焦点検出領域51a−1,51a−2,51a−3のうちの最もコントラストが高い焦点検出領域である。   Further, the focus detection area in the Y minus direction of the out-of-area face flag [18] is located in the Y minus direction of the out-of-area face flag [18] in the five lines in which the face is detected in FIG. In addition, from the side closer to the 18th line, for example, the focus detection region having the highest contrast among the three focus detection regions 51a-1, 51a-2, and 51a-3.

なお、図5(a)に示す場合に限らず、その他、エリア外顔フラグが[18]のほかに、[5]以外の[0]〜[4],[6]〜[10]が1の場合についても同様である。   In addition to the case shown in FIG. 5 (a), in addition to the area outside face flag [18], [0] to [4] and [6] to [10] other than [5] are set to 1. The same applies to the case of.

図5(b)で示すカメラが縦位置の場合、上述のように、エリア外顔フラグ[12]=1、エリア外顔フラグ[13]=1、エリア外顔フラグ[17]=1である。顔検出マクロから得られたエリア外信頼度[17]が所定閾値より大きい場合に、エリア外顔フラグ[17]のXマイナス方向の焦点検出領域51b−1,51b−2,51b−3のうちの最もコントラストが高い焦点検出領域で焦点検出動作を行う。   When the camera shown in FIG. 5B is in the vertical position, as described above, the area outside face flag [12] = 1, the area outside face flag [13] = 1, and the area outside face flag [17] = 1. . When the out-of-area reliability [17] obtained from the face detection macro is larger than a predetermined threshold value, the focus detection areas 51b-1, 51b-2, and 51b-3 in the X minus direction of the out-of-area face flag [17] The focus detection operation is performed in the focus detection region with the highest contrast.

なお、図5(b)に示す場合に限らず、その他、エリア外顔フラグが[18]のほかに、[12]、[13]以外の[11],[14],[15]が1の場合についても同様である。
また、エリア外顔フラグが[18]でなく、[16]の場合についても同様である。
In addition to the case shown in FIG. 5B, in addition to the area outside face flag of [18], [11], [14], and [15] other than [12] and [13] are 1 The same applies to the case of.
The same applies to the case where the out-of-area face flag is not [18] but [16].

図5(c)で示す、顔が18ラインと16ラインとに該当する場合、エリア外信頼度[18]が所定閾値より大きい場合、エリア外顔フラグ[18]のYマイナス方向の0ラインの18ラインに近いほうから、例えば3つ(図においては全部で3つなので、0ライン全ての焦点検出領域)の焦点検出領域51c−1,51c−2,51c−3のうちの最もコントラストが高い焦点検出領域で焦点検出動作を行う。   When the face corresponds to 18 lines and 16 lines as shown in FIG. 5C, and the out-of-area reliability [18] is larger than a predetermined threshold, the out-of-area face flag [18] of 0 line in the Y minus direction For example, three of the focus detection areas 51c-1, 51c-2, and 51c-3 having the highest contrast from the 18 lines (the focus detection areas of all 0 lines because there are three in the figure) are the highest in contrast. A focus detection operation is performed in the focus detection area.

図5(d)で示す、焦点検出領域外に複数の顔がある場合、2ライン,5ライン,8ラインのうちの、最も信頼度が高いライン(例えば8ラインとして説明する)の、18ラインに近いほうから、例えば3つの焦点検出領域51d−1,51d−2,51d−3のうちの最もコントラストが高い焦点検出領域で焦点検出動作を行う。   When there are a plurality of faces outside the focus detection area shown in FIG. 5D, 18 lines of the most reliable line (explained as 8 lines, for example) out of 2 lines, 5 lines, and 8 lines. For example, the focus detection operation is performed in the focus detection region having the highest contrast among the three focus detection regions 51d-1, 51d-2, and 51d-3.

(顔検出結果と仮想焦点検出領域の対応付けの原理)
図6は、顔検出結果と仮想焦点検出領域の対応付けの原理について説明する図である。
カメラ1は、マウントの光軸中心を基準として撮像及び焦点検出位置、ファインダー光学系などの位置調整が行われる。このため、顔検出領域を、上記図4及び5に示すように、光軸中心のXY座標に置き換え、顔領域内に焦点検出位置の中心が入った場合を焦点検出顔領域とする。
(Principle of correspondence between face detection result and virtual focus detection area)
FIG. 6 is a diagram for explaining the principle of associating the face detection result with the virtual focus detection area.
The camera 1 adjusts the position of an imaging and focus detection position, a finder optical system, and the like with reference to the center of the optical axis of the mount. Therefore, as shown in FIGS. 4 and 5, the face detection area is replaced with the XY coordinates of the center of the optical axis, and the case where the center of the focus detection position enters the face area is defined as the focus detection face area.

顔の中心座標から顔幅の1/2を半径とした円の内側に焦点検出領域の中心座標が入った場合に焦点検出を顔領域そしてフラグを設定する。
図6(a)に示すような状態の場合は、右側の2つの焦点検出領域51e−1,51e−2を顔の焦点検出領域とし、左側の2つの焦点検出領域51e−3,51e−4は、顔の位置に対応した焦点検出領域とはしない。
When the center coordinates of the focus detection area are inside the circle whose radius is ½ of the face width from the face center coordinates, the focus area is set to the focus detection and the flag is set.
In the case shown in FIG. 6A, the right two focus detection areas 51e-1 and 51e-2 are set as the face focus detection areas, and the left two focus detection areas 51e-3 and 51e-4. Is not a focus detection area corresponding to the position of the face.

カメラ1が通常位置のときの仮想焦点検出領域の場合(図6(b))、0〜10ラインのX座標が、顔の中心座標から顔幅の1/2を半径とした円に入ったときにエリア顔フラグを設定する。
また18ラインは、顔の中心座標から顔幅の1/2を半径とした円の下端のY座標が11ラインのY座標より大きく(Yプラス方向)なったときにフラグを設定する。
In the case of the virtual focus detection area when the camera 1 is at the normal position (FIG. 6B), the X coordinate of 0 to 10 lines enters a circle with a radius of 1/2 of the face width from the center coordinate of the face. Sometimes set the area face flag.
For the 18th line, a flag is set when the Y coordinate of the lower end of the circle whose radius is 1/2 of the face width from the center coordinate of the face is larger than the Y coordinate of the 11th line (Y plus direction).

図7は、本実施形態の全体的な流れを示すフローチャートである。
まず、図示しないレリーズ釦が半押しされると(ステップ11)、測光(ステップ12)、AFの演算(ステップ13)が行われる。
半押し中、ステップ11からステップ13の処理は繰り返し行われる(ステップ14、NO)。
半押し解除後(ステップ11,NO)、所定時間経過した場合(ステップ21,YES)は電源SWがOFFとなる。
レリーズ釦が半押しから全押しされると(ステップ14,YES)、クイックリターンミラー22のミラーアップ動作が行われ(ステップ15)、撮像素子21の初期化が行われた後(ステップ16)、本撮影が行われる(ステップ17)。本撮影ではシャッター33のシャター幕がマグネットで保持状態となり、先幕、後幕が所定時間で走行し、撮像素子21に露光される。
本撮影が終了するとクイックリターンミラー22が下がる(ステップ18)。
撮影された画像はASIC42の画処理回路により演算・記録される(ステップ19)。
FIG. 7 is a flowchart showing the overall flow of this embodiment.
First, when a release button (not shown) is half-pressed (step 11), photometry (step 12) and AF calculation (step 13) are performed.
During half-pressing, the processing from step 11 to step 13 is repeated (step 14, NO).
After a half-press release (step 11, NO), when a predetermined time has passed (step 21, YES), the power SW is turned off.
When the release button is pressed halfway down (step 14, YES), the mirror return operation of the quick return mirror 22 is performed (step 15), and the image sensor 21 is initialized (step 16). Real photographing is performed (step 17). In the actual shooting, the shutter curtain of the shutter 33 is held by the magnet, and the front curtain and the rear curtain travel for a predetermined time and are exposed to the image sensor 21.
When the actual photographing is finished, the quick return mirror 22 is lowered (step 18).
The photographed image is calculated and recorded by the image processing circuit of the ASIC 42 (step 19).

図8は図7のステップ12のカメラ1における測光処理を示すフローチャートである。
まず、測光センサ25は、測光を行うための蓄積を行う(ステップ21)。測光用の蓄積では被写界の最大輝度が目標出力レベルとなるような蓄積を行う。これは最大輝度からダイナミックレンジの範囲の輝度値を用いるためである。
次いで、測光センサ25は、蓄積データの有効性判定を行う(ステップ22)。測光演算するに値しないデータの場合(ステップ23,NO)は有効性なしとして再蓄積が行われる。
有効性がある場合(ステップ23,YES)はASIC41において測光演算が行われる(ステップ24)。
次に、測光センサ25において、顔検出用の蓄積が行われる(ステップ25)。これは顔の輝度が適正レベルになるように行う蓄積である。これらの蓄積制御の説明は省略する。
そして、ASIC41において顔検出を行う(ステップ26)。顔検出はテンプレートマッチング方式のもので顔位置、顔サイズ、信頼度など情報が得られる。
次いで、カメラ1が自動選択AF(オートエリアAF)の場合にオートエリア演算を行う(ステップ27)。
FIG. 8 is a flowchart showing the photometric process in the camera 1 in step 12 of FIG.
First, the photometric sensor 25 performs accumulation for performing photometry (step 21). In photometry accumulation, accumulation is performed so that the maximum luminance of the object scene becomes the target output level. This is because the luminance value in the range from the maximum luminance to the dynamic range is used.
Next, the photometric sensor 25 determines the validity of the accumulated data (step 22). In the case of data that does not deserve photometric calculation (step 23, NO), re-accumulation is performed as ineffective.
When there is validity (step 23, YES), photometry calculation is performed in the ASIC 41 (step 24).
Next, accumulation for face detection is performed in the photometric sensor 25 (step 25). This is an accumulation performed so that the brightness of the face becomes an appropriate level. A description of these accumulation controls is omitted.
Then, face detection is performed in the ASIC 41 (step 26). Face detection is based on the template matching method, and information such as face position, face size, reliability, etc. can be obtained.
Next, when the camera 1 is in automatic selection AF (auto area AF), auto area calculation is performed (step 27).

図9は図8のステップ27のオートエリアAF用顔検出演算のフローチャートを説明するフローチャートである。オートエリアAF用顔検出演算は、顔検出の結果を焦点検出顔領域51に対応付ける処理である。
まず顔検出の信頼度を、公知の方法により時系列の履歴や顔位置や顔サイズなどから算出する(ステップ31)。
FIG. 9 is a flowchart for explaining the flowchart of the automatic area AF face detection calculation in step 27 of FIG. The auto area AF face detection calculation is a process of associating the face detection result with the focus detection face area 51.
First, the reliability of face detection is calculated from a time-series history, face position, face size, etc. by a known method (step 31).

次に、複数顔があった場合の絞込みを行う(ステップ32)。より信頼性の高いものを優先顔領域とするためである。
次に、顔中心から焦点検出領域51の距離を算出する(ステップ33)。このときに半径=顔幅/2×係数となる領域を焦点検出顔領域51とする。
上記から焦点検出顔領域51を顔検出AF対応マスクを作成する(ステップ34)。顔検出AF対応マスクとは焦点検出領域が51点の場合51bit分の0または1のフラグ情報として焦点検出顔領域を1としてそれ以外を0とする。
Next, narrowing down is performed when there are a plurality of faces (step 32). This is because a more reliable face is used as the priority face area.
Next, the distance of the focus detection area 51 from the face center is calculated (step 33). At this time, an area where radius = face width / 2 × coefficient is set as a focus detection face area 51.
From the above, a face detection AF correspondence mask is created for the focus detection face region 51 (step 34). With the face detection AF-compatible mask, when the focus detection area is 51 points, the focus detection face area is set to 1 as 0 or 1 flag information for 51 bits, and the others are set to 0.

次に、焦点検出領域51に顔が無かった場合(ステップ35,YES)、本実施形態に基づく処理を行う。
焦点検出領域51以外に顔がある場合は、図4で説明した様に仮想焦点検出領域に顔が入るときにフラグを設定し、フラグ情報(顔検出エリア外マスク)として算出する(ステップ36)。
次に、焦点検出範囲外の信頼度を演算する(ステップ37)。
以上のように、オートフォーカスを行う際に随時、信頼度や顔検出AF対応マスクを参照し、レンズ駆動を行い、焦点調整が行われる。
Next, when there is no face in the focus detection area 51 (step 35, YES), processing based on this embodiment is performed.
If there is a face other than the focus detection area 51, a flag is set when the face enters the virtual focus detection area as described with reference to FIG. 4, and is calculated as flag information (mask outside the face detection area) (step 36). .
Next, the reliability outside the focus detection range is calculated (step 37).
As described above, the focus adjustment is performed by driving the lens with reference to the reliability and the face detection AF compatible mask as needed when performing autofocus.

以上、本実施形態によると、以下の効果を有する。
(1)本実施形態では、顔が焦点検出領域に存在せずに顔に合焦させることはできない場合であっても、顔の次に合焦に適する体が存在する可能性のある部分で合焦を行うので、顔に合焦させたい撮影者の意図に近い撮影画像を得ることが出来る。
As described above, this embodiment has the following effects.
(1) In this embodiment, even if the face is not in the focus detection area and cannot be focused on, it is a portion where there is a possibility that a body suitable for focusing is present next to the face. Since focusing is performed, a photographed image close to the intention of the photographer who wants to focus on the face can be obtained.

(2)また、顔が焦点検出領域に存在しない場合に、焦点検出の候補となる焦点検出領域は1つではなく、3つであり、そのうちの最もコントラストが高い焦点検出領域において焦点検出を行うので、コントラストが低いために焦点検出不能となる可能性が低い。 (2) When the face does not exist in the focus detection area, the focus detection candidates are not one but three focus detection areas, and focus detection is performed in the focus detection area having the highest contrast. Therefore, since the contrast is low, the possibility that the focus cannot be detected is low.

(3)例えば、撮像領域の4つの角部のような、焦点検出領域を含む仮想的なライン上にない領域に顔が存在する場合であっても、顔に近いライン上の焦点検出領域で焦点検出を行うので、顔に合焦させたい撮影者の意図に近い撮影画像を得ることが出来る。 (3) For example, even when a face exists in an area that is not on a virtual line including the focus detection area, such as the four corners of the imaging area, the focus detection area on the line close to the face Since focus detection is performed, it is possible to obtain a photographed image close to the photographer's intention intended to focus on the face.

(4)顔検出結果で信頼度が低い場合は、顔検出結果に基づく焦点検出を行わないので、顔や体以外のものに対して焦点検出が行われる可能性が高い。
(5)顔検出結果で複数の顔がある場合は、最も信頼度の高い顔を優先するので、より精度の高い焦点検出を行うことができる。
(6)本実施形態では、顔検出結果の顔中心座標から顔サイズの1/2の半径内に仮想焦点検出領域が入る場合に、フラグ情報と信頼度をマイコンに送信するのでデータ量を抑えることが可能となる。
(4) When the reliability is low in the face detection result, focus detection based on the face detection result is not performed, so that there is a high possibility that focus detection is performed on objects other than the face and body.
(5) When there are a plurality of faces in the face detection result, the face with the highest reliability is prioritized, so that more accurate focus detection can be performed.
(6) In this embodiment, when the virtual focus detection area is within a radius of ½ of the face size from the face center coordinate of the face detection result, flag information and reliability are transmitted to the microcomputer, so that the data amount is suppressed. It becomes possible.

(変形形態)
以上、説明した実施形態に限定されることなく、以下に示すような種々の変形や変更が可能であり、それらも本発明の範囲内である。
(Deformation)
The present invention is not limited to the above-described embodiment, and various modifications and changes as described below are possible, and these are also within the scope of the present invention.

例えば、本実施形態では、顔から近い3つの焦点検出領域のうちの最もコントラストが高い焦点検出領域で焦点検出動作を行うが、これに限らず、近い最も焦点検出領域で焦点検出を行うようにしても良い。また、2つ又は4以上の焦点検出領域のうちの最もコントラストが高い焦点検出領域で焦点検出動作を行うようにしてもよい。   For example, in this embodiment, the focus detection operation is performed in the focus detection region having the highest contrast among the three focus detection regions close to the face. However, the present invention is not limited to this, and focus detection is performed in the closest focus detection region. May be. Further, the focus detection operation may be performed in the focus detection region having the highest contrast among the two or four or more focus detection regions.

また、本実施形態では焦点検出領域が51の場合について説明したが、これに限らず、50以下、52以上であってもよい。さらに、その配置も図4,5に示す配置に限定されるものではない。
なお、実施形態及び変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。また、本発明は以上説明した実施形態によって限定されることはない。
Moreover, although the case where the focus detection area is 51 has been described in the present embodiment, the present invention is not limited thereto, and may be 50 or less and 52 or more. Further, the arrangement is not limited to the arrangement shown in FIGS.
In addition, although embodiment and a deformation | transformation form can also be used in combination as appropriate, detailed description is abbreviate | omitted. Further, the present invention is not limited to the embodiment described above.

1:カメラ、20:カメラ本体、24:測距素子、25:測光センサ、40:制御部、41:マイコン、42:ASIC、50:撮像領域、51:焦点検出領域、L1:合焦レンズ   1: camera, 20: camera body, 24: distance measuring element, 25: photometric sensor, 40: control unit, 41: microcomputer, 42: ASIC, 50: imaging area, 51: focus detection area, L1: focusing lens

Claims (5)

撮像領域に存在する顔を検出する顔検出部と、
前記撮像領域内において焦点検出可能な焦点検出領域を複数有するオートフォーカス焦点検出部と、
前記顔検出部における顔検出結果に応じて、前記焦点検出領域のいずれの焦点検出領域で焦点検出するかを決定可能な制御部と、
を備え、
前記制御部は、
前記焦点検出領域を、前記撮像領域内に仮想的に設けられた互いに平行な複数の列のどの列に沿って配置されているかによってグループ分けし、前記検出された顔が、前記焦点検出領域に対応する位置に存在しない場合であっても、前記列のいずれかの列に位置する場合は、前記顔が位置する前記列に属する焦点検出領域のうち、前記顔が検出された位置からの距離に重みを持たせて決定された焦点検出領域で焦点検出を行うように、前記オートフォーカス焦点検出部を制御する、第一制御を行うこと、
を特徴とする撮像装置。
A face detection unit for detecting a face existing in the imaging region;
An autofocus focus detection unit having a plurality of focus detection regions capable of focus detection in the imaging region;
A control unit capable of determining in which focus detection region of the focus detection region focus detection is performed according to a face detection result in the face detection unit;
With
The controller is
The focus detection areas are grouped according to which of a plurality of parallel columns virtually arranged in the imaging area and arranged, and the detected face is included in the focus detection area. Even if it does not exist in the corresponding position, if it is located in any one of the columns, the distance from the position where the face is detected in the focus detection region belonging to the column where the face is located Performing the first control to control the autofocus focus detection unit so as to perform focus detection in the focus detection region determined with a weight.
An imaging apparatus characterized by the above.
請求項1に記載の撮像装置であって、
前記列は、前記焦点検出領域が配置されていない列も含み、
前記制御部は、
前記顔が、前記焦点検出領域が配置されていない列だけに位置するとき、前記顔に近接する列に属する焦点検出領域のうち、前記顔が検出された位置からの距離に重みを持たせて決定された焦点検出領域で焦点検出を行うように、前記第一制御を行うこと、
を特徴とする撮像装置。
The imaging apparatus according to claim 1,
The column also includes a column in which the focus detection area is not arranged,
The controller is
When the face is located only in a row where the focus detection area is not arranged, the distance from the position where the face is detected is weighted among the focus detection areas belonging to the row close to the face. Performing the first control so as to perform focus detection in the determined focus detection region;
An imaging apparatus characterized by the above.
請求項1または2に記載の撮像装置であって、
前記顔検出部による顔の検出結果は、信頼度に関する情報を含み、
前記制御部は、
前記検出された顔の前記信頼度が所定の閾値よりも小さい場合には、前記第一制御を行わないこと、
を特徴とする撮像装置。
The imaging apparatus according to claim 1, wherein:
The face detection result by the face detection unit includes information on reliability,
The controller is
If the reliability of the detected face is less than a predetermined threshold, do not perform the first control;
An imaging apparatus characterized by the above.
請求項1から3のいずれか1項に記載の撮像装置であって、
前記顔検出部による顔の検出結果は、信頼度に関する情報を含み、
前記顔が複数検出された場合、前記信頼度の最も高い顔に基づいて前記第一制御を行うこと、
を特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 3,
The face detection result by the face detection unit includes information on reliability,
When a plurality of the faces are detected, performing the first control based on the face with the highest reliability;
An imaging apparatus characterized by the above.
請求項1から4のいずれか1項に記載の撮像装置であって、
前記顔検出部は、測光センサを含むこと、
を特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 4, wherein:
The face detection unit includes a photometric sensor;
An imaging apparatus characterized by the above.
JP2011176157A 2011-08-11 2011-08-11 Imaging apparatus Pending JP2013040994A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011176157A JP2013040994A (en) 2011-08-11 2011-08-11 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011176157A JP2013040994A (en) 2011-08-11 2011-08-11 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2013040994A true JP2013040994A (en) 2013-02-28

Family

ID=47889473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011176157A Pending JP2013040994A (en) 2011-08-11 2011-08-11 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2013040994A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116290A (en) * 2018-02-28 2018-07-26 株式会社ニコン Focus adjustment device and imaging apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009058762A (en) * 2007-08-31 2009-03-19 Canon Inc Imaging apparatus
JP2010026009A (en) * 2008-07-15 2010-02-04 Nikon Corp Focal point detecting device and camera
JP2010186004A (en) * 2009-02-12 2010-08-26 Sony Corp Imaging apparatus, method for controlling the same, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009058762A (en) * 2007-08-31 2009-03-19 Canon Inc Imaging apparatus
JP2010026009A (en) * 2008-07-15 2010-02-04 Nikon Corp Focal point detecting device and camera
JP2010186004A (en) * 2009-02-12 2010-08-26 Sony Corp Imaging apparatus, method for controlling the same, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018116290A (en) * 2018-02-28 2018-07-26 株式会社ニコン Focus adjustment device and imaging apparatus

Similar Documents

Publication Publication Date Title
US8730374B2 (en) Focus detection apparatus
JP5130178B2 (en) Focal length detection apparatus, imaging apparatus, imaging method, and camera
JP2010139563A (en) Focus detector, focusing device, and imaging apparatus
JP6486098B2 (en) Imaging apparatus and control method thereof
US11924542B2 (en) Accuracy estimation apparatus, image capturing apparatus, accuracy estimation method, control method, and storage medium
JP6131721B2 (en) Focus detection device and focus adjustment device
JP6615258B2 (en) Control device, imaging device, control method, program, and storage medium
JP2016200629A (en) Image pickup apparatus, and control method, and program for the same
JP2008191391A (en) Focusing mechanism, and camera
JP6234094B2 (en) Focus detection apparatus and imaging apparatus
JP2013040994A (en) Imaging apparatus
JP2012108281A (en) Focus detector and imaging apparatus
JP5018932B2 (en) Imaging device
JP2008129466A (en) Imaging apparatus and imaging system
JP2018197812A (en) Imaging device, method for controlling the same, and program
JP5762037B2 (en) Imaging apparatus and control method
JP6005955B2 (en) Photometric device and imaging device
JP6460145B2 (en) Imaging device
JP5417032B2 (en) Camera photometric device
JP6660036B2 (en) Focus detection device and imaging device
JP4928236B2 (en) Imaging apparatus and imaging system
JP2013040995A (en) Imaging apparatus
CN107209346A (en) Camera device and focus evaluating apparatus
JP5762038B2 (en) Imaging apparatus and control method
JP6391448B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161003

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161011

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170404