JP5351095B2 - Focusing device - Google Patents

Focusing device Download PDF

Info

Publication number
JP5351095B2
JP5351095B2 JP2010126684A JP2010126684A JP5351095B2 JP 5351095 B2 JP5351095 B2 JP 5351095B2 JP 2010126684 A JP2010126684 A JP 2010126684A JP 2010126684 A JP2010126684 A JP 2010126684A JP 5351095 B2 JP5351095 B2 JP 5351095B2
Authority
JP
Japan
Prior art keywords
focusing
person
face
head
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010126684A
Other languages
Japanese (ja)
Other versions
JP2010244063A (en
Inventor
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010126684A priority Critical patent/JP5351095B2/en
Publication of JP2010244063A publication Critical patent/JP2010244063A/en
Application granted granted Critical
Publication of JP5351095B2 publication Critical patent/JP5351095B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a focusing device which has further improved sureness of determination of a main object. <P>SOLUTION: The focusing device is caused to perform the following processing, that is, the focusing device detects a subject image signal, determines the head part of a person in the subject image signal, to decide the head part of the person as a focusing point candidate, and detects a person's face direction, in the decided focusing point candidate. Then, the focusing device decides a focusing point where focusing processing is performed based on the detection result and performs focusing processing based on the decided focusing point. At this time, in the detection of the face direction, it is determined that the face of the person is turned to the front or sideways with respect to the focusing device and the person of the face determined as the face turned to the front with respect to the focusing device is decided as the focusing point more preferentially than the person of the face determined as the face turned to the sideways with respect to the focusing device. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、カメラのオートフォーカス(AF)の技術に関し、被写体パターンより主要被写体を検知する機能を有するピント合わせ装置に関する。   The present invention relates to a camera autofocus (AF) technique, and relates to a focusing device having a function of detecting a main subject from a subject pattern.

従来より、被写体が画面内のどこにいてもピント合せ可能なカメラについての提案は知られており、本出願人も、引用文献1等によって、この種の技術の性能向上を図ってきた。また、画面内の主要被写体検出に関する技術は、例えば引用文献2等によって知られていた。これはオートフォーカスに係わる技術ではないが、色の情報などを利用して主要被写体を判定し検出するものであった。このような従来技術では、画面内の円形のものを顔として重視し、そのような形状を人物など主要被写体と認識するものであった。   Conventionally, there has been known a proposal for a camera that can be focused regardless of where the subject is in the screen, and the present applicant has also attempted to improve the performance of this type of technology by using cited reference 1 and the like. Further, a technique related to detection of a main subject in a screen is known from, for example, cited document 2 and the like. Although this is not a technique related to autofocus, it uses a color information or the like to determine and detect a main subject. In such a conventional technique, a circular object in the screen is regarded as a face, and such a shape is recognized as a main subject such as a person.

特許第2871734号公報Japanese Patent No. 2871734 特開平05−041830号公報JP 05-041830 A

上述の被写体検出機能は、例えばポートレート撮影時や人物を主体としたスナップ撮影などの限られたシーンに利用すれば、正しく機能することが多い。しかしながら、例えば結婚式等で人が沢山いる場合などでは主要被写体が特定できず、どこにピント合せ(合焦)していいか分らなくなる場面が多く発生する。   The subject detection function described above often functions correctly when used in limited scenes such as portrait photography or snap photography mainly of people. However, for example, when there are many people at a wedding or the like, the main subject cannot be specified, and there are many scenes where it is difficult to know where to focus (focus).

前述の引用文献2が教示した技術では、画面内の色の情報を利用するので、色情報入力/処理等のための複雑な構成を必要としていた。また、色判定では同じ色のものが画面内に多く存在する場合には、誤測距することも起こり得る。また、従来、主要被写体検出の技術では、人物を優先するとか、近い被写体を優先するといった方法は知られていたが、正しくカメラの方向を向いている人物を最優先にするという考え方はなかった。   The technique taught by the above cited reference 2 uses color information in the screen, and thus requires a complicated configuration for color information input / processing and the like. Further, in the color determination, if there are many same-colored objects on the screen, erroneous distance measurement may occur. Conventionally, the main subject detection technology has been known to prioritize people or prioritize close subjects, but there was no idea of giving the person who is correctly facing the camera the highest priority. .

以上の従来技術の欠点に鑑み、本発明の測距装置は、撮影画面内のどの部分に主要被写
体が存在するかを判定し、その部分に正しくピント合せすることによって美しい写真を撮
ることが可能な、より進んだAFカメラの実現を目指すものである。本発明の目的は、主
要被写体判定の確度が更に向上されたピント合わせ装置を提供することにある。
In view of the above disadvantages of the prior art, the distance measuring device of the present invention can determine a portion in the shooting screen where the main subject is present and take a beautiful photograph by correctly focusing on that portion. The aim is to realize a more advanced AF camera. An object of the present invention is to provide a focusing device with further improved accuracy of main subject determination.

被写体に正しくピントの合った写真が撮れるオートフォーカス主要被写体は人物である
場合が多いので、画面内の像のパターン(像形状)から人物の頭部を判別し、ピント合せ(
合焦)を行う技術によって、背景や、雑被写体に対してピント合せがなされることを防止
すると共に、よけいな距離測定の処理ステップをなくして高速化を図るが、このとき、画
面内に複数の頭部が散在している場合でも、それらのうちのどの人物(頭)にピントを合
わせていいのかを適切に判定する機能を備えるピント合わせ装置を提案する。
Autofocus that allows you to take a photo that is correctly focused on the subject In many cases, the main subject is a person, so the person's head is identified from the image pattern (image shape) on the screen and focused (
Focusing technology prevents focusing on the background and miscellaneous subjects and speeds up by eliminating the extra distance measurement processing step. A focusing device is proposed that has a function of appropriately determining which person (head) of them can be focused even if the heads of the heads are scattered.

本発明はこのような特徴をもつ判定技術によって、画面内人物のピント合せの優先順位を決定するものである。優先順位が決まれば、低いものは測距しないようにした場合は、上述の如く高速化を図ることができる。また、優先順位が高いものはまず測距して、得られた距離結果に従って距離データも加味した更なる被写体選択を行ない、より確度の高い主要被写体選択、及びそのポイントに対するピント合せを可能とするものである。   In the present invention, the priority order of focusing on the person in the screen is determined by the determination technique having such characteristics. If the priority order is determined, the speed can be increased as described above if distance measurement is not performed for the lower priority. In addition, the object with higher priority is first measured, and further subject selection is performed in consideration of the distance data according to the obtained distance result, so that it is possible to select the main subject with higher accuracy and focus on the point. Is.

前記の目的を達成するために、本発明の第1の態様によるピント合わせ装置は、被写体像信号を検出する検出手段と、上記被写体像信号のうち、人物の頭部を判定し検出する頭部判定手段と、上記頭部判定手段の判定結果に基づいて上記人物の頭部を合焦ポイント候補として決定する候補決定手段と、上記人物の顔領域中央部の像信号のコントラストを検出するコントラスト検出手段と、上記候補決定手段により決定された合焦ポイント候補について、上記人物の顔領域中央部の像信号のコントラストから上記人物の顔が正面を向いているか否かを判定し、上記人物の顔領域の像の対称性から横向きか否かを判定する顔方向検出手段と、上記顔方向検出手段による検出結果に基づいて、ピント合わせ処理を行う合焦ポイントを決定する合焦ポイント決定手段と、上記合焦ポイント決定手段により決定された合焦ポイントに基づいてピント合わせ処理を行うピント合わせ手段と、を具備し、記合焦ポイント決定手段は、上記顔方向検出手段によって、当該ピント合わせ装置に対して正面向きであると判定された顔の人物を優先的に、合焦ポイントとして決定することを特徴とする。 In order to achieve the above object, a focusing apparatus according to a first aspect of the present invention includes a detection unit that detects a subject image signal, and a head that determines and detects a human head among the subject image signals. Determination means; candidate determination means for determining the head of the person as a focus point candidate based on the determination result of the head determination means; and contrast detection for detecting the contrast of the image signal in the center of the face area of the person And the focus point candidate determined by the candidate determining means, it is determined from the contrast of the image signal in the center of the face area of the person whether or not the face of the person is facing the front. and determining the face direction detecting means whether sideways or not the symmetry of the image of the region, based on the detection result by the face direction detecting means, for determining an in-focus point to focus process if Asepo A cement determining means, anda focusing means for performing focusing processing based on the focus point determined by the focal point determining means, upper Kigoase point determination means, by said face direction detecting means The face person who is determined to be facing the front with respect to the focusing device is preferentially determined as a focusing point.

本発明によれば、主要被写体判定の確度が更に向上されたピント合わせ装置を提供することできる。   According to the present invention, it is possible to provide a focusing device that further improves the accuracy of main subject determination.

図1(a)〜(c)は本発明の測距装置の概要を示し、図1(a)は、この測距装置の測距原理を説明する原理図、図1(b)は、この測距装置の概略構成図、図1(c)は、この測距装置を内蔵するカメラの斜視図。1 (a) to 1 (c) show an outline of the distance measuring device of the present invention, FIG. 1 (a) is a principle diagram for explaining the distance measuring principle of the distance measuring device, and FIG. FIG. 1C is a schematic configuration diagram of a distance measuring device, and FIG. 1C is a perspective view of a camera incorporating the distance measuring device. 図2は、本発明の第1実施形態の測距装置に係わる撮影シーケンスを示すフローチャート。FIG. 2 is a flowchart showing an imaging sequence related to the distance measuring apparatus according to the first embodiment of the present invention. 図3(a)〜(c)は撮影シーンにおける頭部検出を示し、図3(a)は、複数被写体がいる画面を示す説明図、図3(b)は、頭部検出のイメージを示す説明図、図3(c)は、決定された候補ポイントのイメージを示す説明図。FIGS. 3A to 3C show head detection in a shooting scene, FIG. 3A is an explanatory diagram showing a screen with a plurality of subjects, and FIG. 3B shows an image of head detection. Explanatory drawing and FIG.3 (c) are explanatory drawings which show the image of the determined candidate point. 図4(a),(b)は頭部検出の方法を示し、図4(a)は、水平方向の像データ検出ポイントを示す説明図、図4(b)は、各検出ポイント毎の変化パターンを示すグラフ。4A and 4B show the head detection method, FIG. 4A is an explanatory diagram showing image data detection points in the horizontal direction, and FIG. 4B is a change at each detection point. A graph showing a pattern. 図5(a),(b)は頭部検出の方法を示し、図5(a)は、像信号の変化を処理して得られる輪郭パターンを示す説明図、図5(b)は、得られた輪郭パターンから選択された頭部領域を示す説明図。5 (a) and 5 (b) show the head detection method, FIG. 5 (a) is an explanatory diagram showing a contour pattern obtained by processing the change of the image signal, and FIG. 5 (b) is obtained. Explanatory drawing which shows the head area | region selected from the selected outline pattern. 図6は、本発明の第2実施形態例の測距装置が行なう主要被写体の検出と判定の手順を示すフローチャート。FIG. 6 is a flowchart showing a procedure of main object detection and determination performed by the distance measuring apparatus according to the second embodiment of the present invention. 図7(a)〜(d)は顔領域における顔の向きを示し、図7(a)は、後ろ向きの被写体画面例、図7(b)は、正面向きの被写体画面例、図7(c)は、眼鏡をかけた正面向きの被写体画面例、図7(d)は、横向きの被写体画面例。7A to 7D show the orientation of the face in the face area, FIG. 7A shows an example of a subject screen facing backward, FIG. 7B shows an example of a subject screen facing forward, and FIG. ) Is an example of a front-facing subject screen with glasses, and FIG. 7D is an example of a side-view subject screen. 図8(a)〜(c)は後ろ向き及び前向きを判別する方法を示し、図8(a)は、後ろ向き判定するフローチャート、図8(b)は、コントラストがないセンサデータのグラフ、図8(c)は、コントラストがあるセンサデータのグラフ。8A to 8C show a method of discriminating backward and forward, FIG. 8A is a flowchart for determining backward, FIG. 8B is a graph of sensor data without contrast, and FIG. c) is a graph of sensor data with contrast. 図9は、ローコントラスト判定の手順を示すフローチャート。FIG. 9 is a flowchart showing a procedure of low contrast determination. 図10(a)〜(e)は顔領域垂直ライン判定方法を示し、図10(a)は、顔領域垂直ライン判定の手順を示すフローチャート、図10(b)〜(d)は、y1〜y2のセンサデータを示すグラフ、図10(e)は、顔領域の位置を示す説明図。10A to 10E show a face area vertical line determination method, FIG. 10A is a flowchart showing a face area vertical line determination procedure, and FIGS. FIG. 10E is a graph showing the sensor data of y2, and FIG. 10E is an explanatory diagram showing the position of the face area. 図11は、顔領域中央部水平ライン判定の手順を示すフローチャート。FIG. 11 is a flowchart showing a procedure for determining a horizontal line in the center of the face area. 図12は、顔の横向きを判定する非対称判定のフローチャート。FIG. 12 is a flowchart of asymmetric determination for determining the face orientation. 図13は、近くの被写体を選び主要被写体とする一例を示すシーン。FIG. 13 is a scene showing an example of selecting a nearby subject as a main subject.

以下に、複数の実施形態を挙げて本発明の要旨について詳しく説明する。
(第1実施形態)
図1(a)〜(c)には、一実施形態となる測距装置の構成とその測距原理を説明する。カメラを被写体に向けて撮影しようとすると、図1(a)が示すパッシブ方式の測距においては、被写体9の像イメージは、基線長Bだけ隔てて配置された一対の受光レンズ3a,3bを介して、この後方にそれぞれのレンズ光軸に対して直行して並設されたセンサアレイ4a,4bに入射する。センサアレイ4a,4bを構成する各センサは光電変換により像の明暗に応じた電気信号を出力するので、センサアレイ4a,4bそれぞれからは一対の像信号が得られる。しかし、基線長Bの効果によって、これらのレンズ光軸を原点とする相対像位置は差Xを有することとなる。この差Xは、被写体距離Lとレンズ焦点距離fに従って次式で示す関係で変化する。
x = (B・f)/L …(式1)。
The gist of the present invention will be described in detail below with reference to a plurality of embodiments.
(First embodiment)
1A to 1C, a configuration of a distance measuring apparatus according to an embodiment and a principle of distance measuring will be described. When shooting with the camera facing the subject, in the passive distance measurement shown in FIG. 1A, the image of the subject 9 has a pair of light-receiving lenses 3a and 3b arranged with a base line length B apart. Then, the light enters the sensor arrays 4a and 4b that are arranged in parallel and perpendicularly to the optical axes of the respective lenses. Since each sensor constituting the sensor arrays 4a and 4b outputs an electrical signal corresponding to the brightness of the image by photoelectric conversion, a pair of image signals is obtained from each of the sensor arrays 4a and 4b. However, due to the effect of the base line length B, the relative image position having these lens optical axes as the origin has a difference X. This difference X changes according to the relationship expressed by the following equation according to the subject distance L and the lens focal length f.
x = (B · f) / L (Expression 1).

図1(b)に示すように、センサアレイ4a,4bの出力をA/D変換部4でディジタル値に変換した後、ワンチップマイコン等から成る演算制御手段(制御部)としてのCPU1によって、式1に基づき相対位置差Xが計算される。ここで、上記(B・f)はカメラの測距装置2により既知の値なので、被写体距離Lが求められる。   As shown in FIG. 1B, after the outputs of the sensor arrays 4a and 4b are converted into digital values by the A / D converter 4, the CPU 1 as an arithmetic control means (control unit) composed of a one-chip microcomputer or the like Based on Equation 1, a relative position difference X is calculated. Here, since (B · f) is a known value by the camera distance measuring device 2, the subject distance L is obtained.

CPU1はカメラ全体の撮影シーケンスを司り、レリーズスイッチ7の手動操作を検出して測距装置2を適宜制御し、その結果より合焦機構5を介して撮影レンズ6を動かして、当該被写体9へのピント合せと撮影制御等を行なう。また、露出の必要に応じてフラッシュ発光部8の発光制御等も適宜に行なう。   The CPU 1 is responsible for the shooting sequence of the entire camera, detects manual operation of the release switch 7 and appropriately controls the distance measuring device 2, and moves the shooting lens 6 via the focusing mechanism 5 based on the result, to the subject 9. Focusing and shooting control are performed. In addition, the light emission control of the flash light emitting unit 8 and the like are appropriately performed as necessary for exposure.

センサアレイ4a,4bは、図1(b)のように二次元的に配列されてエリアセンサとして働き、一次元的な像信号だけでなく、当該被写体9の二次元的な画像信号が得られるように構成しておく。
本実施形態の測距装置2を内蔵するカメラ本体の外観図を示すと、図1(c)の如く、カメラ本体10の前面には、撮影レンズ6やAF用の受光レンズ3a,3b、フラッシュ発光部8等が配置されている。カメラ本体10上面のレリーズスイッチ7を押下すると撮影シーケンスが始動する。この撮影シーケンスは、内蔵されたROMに書き込まれた所定のプログラム(これを「カメラシーケンス・プログラム」と称する)に従ったCPU1の指令により適宜制御される。このプログラムには、検知した像信号のうちから人物の頭部を判定する頭部判定手段、およびこの判定結果に基づき合焦ポイントを決定する決定手段を有し、さらに、その人物が向いている方向を判定する向き判定部もソフトウエア的に有している。
The sensor arrays 4a and 4b are two-dimensionally arranged as shown in FIG. 1B and function as area sensors, so that not only a one-dimensional image signal but also a two-dimensional image signal of the subject 9 is obtained. It is configured as follows.
An external view of a camera body incorporating the distance measuring device 2 of the present embodiment is shown. As shown in FIG. 1C, a photographing lens 6, AF light receiving lenses 3a and 3b, and a flash are provided on the front surface of the camera body 10. A light emitting unit 8 and the like are arranged. When the release switch 7 on the upper surface of the camera body 10 is pressed, the shooting sequence is started. This photographing sequence is appropriately controlled by a command from the CPU 1 in accordance with a predetermined program (referred to as a “camera sequence program”) written in a built-in ROM. The program includes a head determination unit that determines the head of a person from the detected image signals, and a determination unit that determines a focus point based on the determination result. A software direction determination unit for determining the direction is also provided.

図2には、この撮影シーケンス(サブルーチン)の一例をフローチャートで示す。レリーズスイッチが操作されると、まずステップS1にて、エリアセンサ4a又は4bによって撮影画面内の被写体の像を検出する(S1)。その結果から人物の頭部を検出する。この頭部検出には幾つかの方法があるが、図3(a)〜(c)に示す撮影シーンのイメージのような順序で検出していく(詳細後述)。   FIG. 2 is a flowchart showing an example of this photographing sequence (subroutine). When the release switch is operated, first, in step S1, the image of the subject in the shooting screen is detected by the area sensor 4a or 4b (S1). The head of the person is detected from the result. Although there are several methods for detecting the head, detection is performed in the order of the images of the photographic scene shown in FIGS. 3A to 3C (details will be described later).

ステップS2では、人物の頭部の検出および、測距する候補ポイントの決定を行ない(S2)、続いてステップS3にて後ろ頭の検出を行ない、これに該当するものを候補ポイント群から削除する(S3)。ステップS4では、決定された候補ポイントに関してのみ測距を行ない(S4)、ステップS5にてその候補ポイントの主要被写体にピントを合せる(S5)。そしてステップS6では、所定の撮影動作を行なって(S6)、カメラシーケンス・プログラムのメインルーチンに戻る。   In step S2, the head of the person is detected and candidate points for distance measurement are determined (S2), then the back of the head is detected in step S3, and those corresponding to this are deleted from the candidate point group. (S3). In step S4, the distance is measured only for the determined candidate point (S4), and the main subject of the candidate point is focused in step S5 (S5). In step S6, a predetermined photographing operation is performed (S6), and the process returns to the main routine of the camera sequence program.

ここで、図3(a)〜(c)の各説明図を参照しながら上述の手順を更に詳しく説明すると、図3(a)中の撮影画面11では、二人の人物9a,9bが被写体となっている。この場合、図3(b)の如くこれら被写体の部分9a1および部分9b1がそれぞれの人物の頭部として検出され、主要被写体としての候補とされる。   Here, the above-described procedure will be described in more detail with reference to the explanatory diagrams of FIGS. 3A to 3C. On the shooting screen 11 in FIG. 3A, two persons 9a and 9b are subjects. It has become. In this case, as shown in FIG. 3B, the portions 9a1 and 9b1 of the subject are detected as the heads of the respective persons, and are set as candidates for the main subject.

しかし、図2中のステップS3における後ろ頭検出によって、部分9a1が測距対象候補群から削除されると、図3(c)に示す如く被写体の部分9b1のみが選択され、ピント合せのポイントが複数から一つに絞り込まれる。
上記ステップS4でこのポイントだけを測距し、得られた距離値に基づいて撮影光学系を駆動させてその主要被写体に合焦させると、高速で正しくピント合せされた写真の撮影が可能となる。このようにここでは、画面に複数の人物が存在する場合、後ろ向きよりも前向きの人物を優先するという考え方が前提となっている。
However, if the portion 9a1 is deleted from the distance measurement candidate group by the back head detection in step S3 in FIG. 2, only the subject portion 9b1 is selected as shown in FIG. Narrow down from multiple to one.
If only this point is measured in step S4 and the photographing optical system is driven based on the obtained distance value to focus on the main subject, it is possible to take a photograph that is correctly focused at high speed. . As described above, the premise here is that, when there are a plurality of persons on the screen, the person who faces forward is given priority over the person facing backward.

図4(a),(b)および図5(a),(b)を用いて、本実施形態例の前提となる頭部検出の方法を詳しく説明する。図4(a),(b)を参照してその方法を示すと、頭部検出とその判断の手順は、まず、像データ変化を複数ポイント(丸数字1,丸数字2,丸数字3)を求め、頭部変化(図4(b)中の丸数字2)を上から、頭上パターン(図4(b)中の丸数字1)〜肩幅パターン(図4(b)中の丸数字3)の像信号の形状の違いで判断する。この方法により、図4(b)中の丸数字2のような(波形が上部に突出し始める)パターンが得られた範囲が被写体の頭部が存在する領域であると判断することができる。   The head detection method which is the premise of the present embodiment will be described in detail with reference to FIGS. 4 (a) and 4 (b) and FIGS. 5 (a) and 5 (b). Referring to FIGS. 4A and 4B, the method will be described. The procedure of head detection and determination is as follows. First, the image data change is performed at a plurality of points (circle number 1, circle number 2, circle number 3). The head change (circle number 2 in FIG. 4 (b)) from the top, the overhead pattern (circle number 1 in FIG. 4 (b)) to the shoulder width pattern (circle number 3 in FIG. 4 (b)) ) And the difference in the shape of the image signal. By this method, it is possible to determine that the range in which a pattern such as the circled number 2 in FIG. 4B (the waveform starts to protrude upward) is obtained is the region where the head of the subject exists.

また図5(a)に例示するように、画面内の像信号の変化を微分信号によって検出した後、この結果を二値化すれば人物像の輪郭が得られるので、この輪郭パターンから、円形に近いものを判定し選択する。これにより、図5(b)の如く人物の頭部領域9b2を認識して頭部を特定することができる。   Further, as illustrated in FIG. 5A, after detecting the change of the image signal in the screen by using the differential signal, if the result is binarized, the contour of the person image can be obtained. Judge the item closest to. As a result, as shown in FIG. 5B, the head region 9b2 of the person can be recognized and the head can be specified.

(作用効果1)以上説明したように、この第1実施形態によれば、画面内の人物の頭部を検出して識別し、さらにその頭部の向き(前向き/後向き)によって主要被写体となるであろう順位を判定するため、画面内人物へのピント合せの優先順位を決定する。測距すべき優先度が決まれば、その度合いが低いものは測距しないように測距対象から排除する。特に後ろ向きの人物は通常、主要被写体とはなりえず、ピント合せの候補から排除できるので、その分、主要被写体に対する測距までに要する処理時間を短縮できる。なお、後ろ頭の検出は、髪の毛(黒色、茶色、等)のコントラスト等で判断すればよい。このような測距機能をAFカメラに利用すれば、総体として測距動作を含むAF撮影の高速化と正確なピント合せが可能となる。   (Effect 1) As described above, according to the first embodiment, the head of a person in the screen is detected and identified, and the main subject is determined by the orientation of the head (forward / backward). In order to determine the order that will be, the priority order of focusing on the person in the screen is determined. If the priority to be measured is determined, those with a low degree are excluded from the distance measurement target so as not to measure the distance. In particular, a backward-facing person usually cannot be a main subject and can be excluded from focus candidates, and accordingly, the processing time required for distance measurement on the main subject can be reduced accordingly. Note that the detection of the back of the head may be determined based on the contrast of the hair (black, brown, etc.). If such a distance measuring function is used for an AF camera, it is possible to speed up AF shooting including a distance measuring operation as a whole and to achieve accurate focusing.

(第2実施形態)本発明の第2実施形態例としての測距装置は、機構的には前述の第1実施形態のものと同等な装置で実施できるが、主要被写体の判定方法にその特徴がある。図6のフローチャートには、この第2実施形態例の測距装置が行なう主要被写体の検出と判定の一例(候補ポイント取捨の手順)を示す。この例では第1実施形態とは異なり、後ろ向きの頭部だけでなく、横顔をピント合せ候補から除外したり、前向きの頭部は優先してピント合せの候補に組み入れるようにして、ピント合せの確度をいっそうの向上させるようにしている。   (Second Embodiment) A distance measuring apparatus as a second embodiment of the present invention can be mechanically implemented by an apparatus equivalent to that of the first embodiment described above, but is characterized by a method for determining a main subject. There is. The flowchart in FIG. 6 shows an example of main subject detection and determination performed by the distance measuring apparatus of the second embodiment (procedure for discarding candidate points). In this example, unlike the first embodiment, not only the backward-facing head but also the side face is excluded from the focusing candidates, and the forward-facing head is preferentially incorporated into the focusing candidates. The accuracy is further improved.

ステップS11は、図4(a),(b)、図5(a),(b)等で説明した方法で頭部検出した後、n個の複数の頭部が検出されたときに、各頭部(ポイント)に対して、顔の向きを判別するためにまずこの変数nを初期化するステップである(S11)。
ステップS12にて、この選択された第nポイントの像信号を判定し(S12)、ステップS13ではこの信号がローコントラスト(髪の毛:黒色、茶色等)であり、後ろ向きと判定されればステップS23に分岐して、優先度を示す係数P(n)を低い値(即ちP(n)=1)に設定する。なお、後ろ向きか否かは、図7(a)に示す如く円で囲んだ顔領域のコントラストが低い(即ちローコントラスト)か、高いかによって判定される。
Step S11 is performed when heads are detected by the method described in FIGS. 4A, 4B, 5A, 5B, etc., and then a plurality of n heads are detected. In order to determine the orientation of the face with respect to the head (point), this variable n is first initialized (S11).
In step S12, the image signal of the selected n-th point is determined (S12). In step S13, if this signal is low contrast (hair: black, brown, etc.) and it is determined that it is facing backward, the process proceeds to step S23. Branch and set the coefficient P (n) indicating the priority to a low value (ie P (n) = 1). Whether or not it faces backward is determined by whether the contrast of the face area surrounded by a circle is low (that is, low contrast) or high as shown in FIG.

また、顔が正面向きである場合はステップS14及びS15にて判定される。すなわち、図7(b)の如く顔領域の中央部に鼻のライン(即ち垂直ライン)が認められるか否か(S14)、又は、図7(c)の如く髪の毛や眼鏡、あるいはマユ毛のライン(即ち水平ライン)が認められるか否か(S15)によってそれぞれ判定される。この判定結果がYESのとき正面を向いた顔とみなし、ステップS20に分岐して、優先度がP(n)=10という高い値に設定される。   If the face is facing the front, it is determined in steps S14 and S15. That is, whether or not a nose line (i.e., a vertical line) is recognized at the center of the face area as shown in FIG. 7B (S14), or the hair, glasses, or eyebrows line as shown in FIG. Whether or not (that is, a horizontal line) is recognized (S15). When this determination result is YES, it is regarded as a face facing front, and the process branches to step S20, and the priority is set to a high value of P (n) = 10.

一方、図7(d)に示すような被写体頭部である場合、ステップS16で顔領域の像が左右非対称であると判定されれば、顔は横向きであると判定される(S16)。この場合、ステップS22にて、正面向きと後ろ向きの中間の優先度係数P(n)=5として測距の優先度が設定される(S22)。それ以外はステップS16でNOに分岐し、ステップS21で顔の向きがよくわからないと判断して、P(n)=2と設定する(S21)。このようにして、ステップS26で変数nを一つづつインクリメントしながら全てのポイント(1〜n)について処理する。   On the other hand, in the case of the subject head as shown in FIG. 7D, if it is determined in step S16 that the image of the face area is asymmetrical, the face is determined to be sideways (S16). In this case, in step S22, the priority of distance measurement is set as a priority coefficient P (n) = 5 between the front and the rear (S22). Otherwise, the process branches to NO in step S16, and in step S21, it is determined that the face orientation is not well understood, and P (n) = 2 is set (S21). In this way, all the points (1 to n) are processed while incrementing the variable n one by one in step S26.

各ポイントの顔部について、その向きを判断すると、続くステップS27にて優先度P(n)の大きな三点を選択し、測距を行なう(S27)。この結果、ステップS28にて測距結果が近いものを選び、候補ポイントを一つに絞り込む、即ち選別する(S28)。このようなフローチャートの処理を、撮影シーケンスのうち図2中のステップS3等で行なえば、正確に測距ポイントが決定でき、画面のどこに主要被写体がいても正しいピント合せが可能となる。   When the orientation of the face portion of each point is determined, three points with large priorities P (n) are selected in the following step S27, and distance measurement is performed (S27). As a result, in step S28, the closest distance measurement results are selected, and candidate points are narrowed down to one, that is, selected (S28). If such a process of the flowchart is performed in step S3 in FIG. 2 in the shooting sequence, the distance measuring point can be accurately determined, and the correct focus can be achieved no matter where the main subject is on the screen.

ローコントラスト判定は例えば図8(a)に示す手順に従って行なう。また図8(b),(c)に示すグラフパターンは、上述の図7(a),(b)に示した如くの顔領域の像パターンに対応するセンサデータを示す。つまり、後ろ頭の被写体では図8(b)の如くセンサデータにコントラストがなく、逆に前向きの被写体であれば、図8(c)の如く鼻のライン等によりコントラストが生じる。この原理に従って、図8(a)のフローチャートに沿って後ろ向き判定する。   The low contrast determination is performed, for example, according to the procedure shown in FIG. The graph patterns shown in FIGS. 8B and 8C show sensor data corresponding to the image pattern of the face area as shown in FIGS. 7A and 7B. In other words, the sensor data does not have contrast in the back subject as shown in FIG. 8B, and conversely in the forward subject, contrast occurs due to the nose line or the like as shown in FIG. 8C. According to this principle, the backward determination is made along the flowchart of FIG.

この例では、顔領域の像信号の平均値(SAV)を算出し(S30)、このSAVからの差を各データから求めて、偏差σを計算する(S31)。この偏差σと所定値σ0を比較して(S32)、この偏差σが所定値σ0より大きければ「コントラスト有り」と判定し、一方、この偏差σのほうが小さければ「コントラスト無し(即ちローコントラスト)」と判定して(S33)、CPU1はこのローコントラストの領域が後ろ頭であると認識する。   In this example, an average value (SAV) of image signals in the face area is calculated (S30), a difference from this SAV is obtained from each data, and a deviation σ is calculated (S31). The deviation σ is compared with a predetermined value σ0 (S32), and if the deviation σ is larger than the predetermined value σ0, it is determined that “contrast is present”. (S33), the CPU 1 recognizes that this low contrast region is the back of the head.

また、図9に示すもう一つのフローチャートに従ったローコントラスト判定のように、顔領域のセンサデータのMAX値とMIN値をそれぞれ求め(S35,S36)、その差(MAX値−MIN値)を所定値ΔDと比較し(S37)、ローコントラストか否かを判定してもよい(S38)。   Further, as in the low contrast determination according to another flowchart shown in FIG. 9, the MAX value and the MIN value of the sensor data of the face area are respectively obtained (S35, S36), and the difference (MAX value−MIN value) is obtained. It may be compared with a predetermined value ΔD (S37) to determine whether the contrast is low (S38).

これらの所定値、σ0、ΔDは固定的な値ではなく、顔領域のセンサデータ平均値(SAV)によって切り換え可能にすれば、逆光、順光等の環境の影響を受け難くなり、いっそう効果的である。これらのフローチャートが図6中のステップS13に相当する。   These predetermined values, σ0, ΔD are not fixed values, and if they can be switched by the sensor data average value (SAV) of the face area, they are less affected by the environment such as backlight and direct light, and are more effective. It is. These flowcharts correspond to step S13 in FIG.

次に、図10(a)〜(e)を用いて顔領域垂直ライン判定の方法について説明する。この方法は図10(a)の手順で実行される。図10(e)のように顔領域はほぼ円形として検出されているものとし、そのX,Y方向の開始座標をxS,ySとし、顔領域の終了座標をxE,yEとする(S40,S41)。これより顔の中心座標x2,y2が求められる(S42)。   Next, a face area vertical line determination method will be described with reference to FIGS. This method is executed according to the procedure shown in FIG. As shown in FIG. 10 (e), it is assumed that the face area is detected as a substantially circular shape, the start coordinates in the X and Y directions are xS, yS, and the end coordinates of the face area are xE, yE (S40, S41). ). From this, the center coordinates x2, y2 of the face are obtained (S42).

鼻のラインを検出するために、中心から円の直径の1/6上と下に、参照ラインy1,y3を設ける(S43,S44)。また、鼻のラインを検知したセンサのデータ変化判定の基準となる鼻ラインx2の両側のラインに対応する座標を、x1,x3とするとき(S45,S46,S47)、続くステップS48,S49でこれを算出する。具体的には、顔の横方向の幅の1/4の位置だけ中心ラインから左右に離した所を、x1,x3とする(S48,S49)。   In order to detect the nose line, reference lines y1 and y3 are provided above and below the diameter of the circle from the center (S43, S44). Further, when the coordinates corresponding to the lines on both sides of the nose line x2 as a reference for the data change determination of the sensor detecting the nose line are x1 and x3 (S45, S46, S47), in the subsequent steps S48, S49 This is calculated. More specifically, x1 and x3 are places left and right from the center line by a position that is 1/4 of the lateral width of the face (S48, S49).

ステップS50以降の判定ステップ群は、上記y1,y2,y3,x1,x2,x3を用い、その座標における各センサデータS(X,Y)を用いて、図10(b),(c),(d)のように、Y=y1のライン、Y=y2のライン、Y=y3のラインに沿ってのデータ変化が中央部(x2)で「凹んでいる」か否かを判断する。それには、同じY座標のx1とx2のデータ比較時にS(x1,y)≫S(x2,y)となり、x2とx3のデータ比較時S(x2,y)≪S(x3,y)となることを利用して、ステップS50とS51、ステップS52とS53、ステップS54とS55のYESにおける分岐でラインが黒く通っていることが判断される(S56)。   The determination step group after step S50 uses the above y1, y2, y3, x1, x2, and x3, and uses each sensor data S (X, Y) at the coordinates, and FIGS. 10 (b), (c), As shown in (d), it is determined whether or not the data change along the line Y = y1, the line Y = y2, and the line Y = y3 is “dented” in the central portion (x2). For this purpose, S (x1, y) >> S (x2, y) when comparing data of x1 and x2 of the same Y coordinate, and S (x2, y) << S (x3, y) when comparing data of x2 and x3. By using this, it is determined that the line passes through black at the branches in steps S50 and S51, steps S52 and S53, and YES in steps S54 and S55 (S56).

なお、第2実施形態の図10に示すフローチャートは、前述の図6中のステップS14(顔領域中央部垂直ライン判定)に相当する。また、図6中のステップS15(顔領域中央部水平ライン判定)は、図11(a)のようなフローチャートで実現できる。次に,図10のステップS60,S61で求められたx1,x2,x3,y1,y2,y3及び顔領域のセンサデータ平均値(SAV)を用いて水平ラインを判定する。すなわち、ステップS71,S72,S73と、ステップS74,S75,S76、及びステップS77,S78,S79は各々一組となっており、Y座標を変えて、y1,y2,y3のポイントで線(ライン)ができているか否かを判断するステップである。この判定は、ライン(Y=y1,y2,y3)上のデータが顔部の全センサデータの平均値SAVと比較して、低いレベルか否かで判断する。   Note that the flowchart shown in FIG. 10 of the second embodiment corresponds to step S14 (face area center vertical line determination) in FIG. 6 described above. Moreover, step S15 (face area center part horizontal line determination) in FIG. 6 is realizable with a flowchart like FIG. Next, a horizontal line is determined using x1, x2, x3, y1, y2, y3 obtained in steps S60 and S61 in FIG. 10 and the sensor data average value (SAV) of the face area. That is, Steps S71, S72, S73, Steps S74, S75, S76 and Steps S77, S78, S79 are each a set, and the Y coordinate is changed, and a line (line ) Is a step for determining whether or not. This determination is made based on whether or not the data on the line (Y = y1, y2, y3) is at a lower level than the average value SAV of all the sensor data of the face.

ステップS71,S72,S73においてそれぞれYES,YES、YESと分岐するとき、y1座標で横方向に横切る場合、x1,x2,x3のすべてのポイントで影ができていることを示し、この影をつなぐと、横方向の線(ライン)になることから判断される。この顔部を横切るラインは、図11(b)のようにセンサy1,y2の所にできる場合のみならず、センサy1,y2,y3のいずれかにでる場合もあり、ステップS71〜S73,S74〜S76,S77〜S79それぞれから分岐し、ステップS80の水平ライン判定ステップに移行する。これによって、マユ毛や眼鏡等の影が判断できる。なお、このような状態は、顔が後ろ向きである場合や、横向きである場合には起こり得ない状況である。   When branching to YES, YES, and YES in steps S71, S72, and S73, respectively, when crossing in the horizontal direction at the y1 coordinate, it indicates that shadows are formed at all points x1, x2, and x3, and this shadow is connected. Judging from the fact that it becomes a horizontal line. The line crossing the face portion may be formed not only at the sensor y1, y2 as shown in FIG. 11B but also at any one of the sensors y1, y2, y3. Steps S71 to S73, S74 Branches from S76 and S77 to S79, and proceeds to the horizontal line determination step of Step S80. Thereby, shadows of eyebrows and glasses can be determined. Such a state is a situation that cannot occur when the face is facing backwards or sideways.

また図12には、図7(d)で示したように顔が横向きであることを判定する非対称判定のフローチャートを示す。これは、前述した図6のステップS16に相当する。顔が横向きだと、図12(b)のように、X方向に沿ってセンサデータが対称型ではなくなり、順次変化する形状となる。この判定は顔部縦方向中央のy2の座標で判定する。   FIG. 12 shows a flowchart of asymmetric determination for determining that the face is sideways as shown in FIG. This corresponds to step S16 in FIG. When the face is sideways, the sensor data is not symmetrical along the X direction as shown in FIG. This determination is made based on the y2 coordinate at the center in the vertical direction of the face.

まず、ステップS90,S91で、x1の所とx2の所のデータを比較し、どちらかが大きければ、その変化方向をステップS92,S93にて判定し、同じように変化している場合には、対称形ではあり得ないと考えて、続くステップS94で非対称判定を行なう。ここで顔領域のパターンが非対称である場合、少なくとも後ろ向きではないと判断して、図6中のステップS22にて優先度係数をP(n)=5に設定する。   First, in steps S90 and S91, the data at x1 and x2 are compared, and if either is greater, the direction of change is determined at steps S92 and S93. Assuming that it cannot be symmetric, asymmetric determination is performed in subsequent step S94. Here, if the pattern of the face area is asymmetric, it is determined that the pattern is not at least backward, and the priority coefficient is set to P (n) = 5 in step S22 in FIG.

(作用効果2)このように第2実施形態によれば、主要被写体の検出技術で「人物優先」という方法のほかに、正しくカメラの方向を向いている人物を最優先するという考え方に基づき、前向きの人物を最優先し、横向きの人物を次に優先し、後ろ向きの人物はできるだけ測距対象からは排除するようにしたので、ユーザがピント合せを意識しなくとも、高速で主要被写体を判定し、正確に前向きの人物を優先してその人物にピントを合せることが可能となる。   (Effect 2) As described above, according to the second embodiment, in addition to the method of “person priority” in the main subject detection technique, based on the idea that the person who is correctly facing the camera is given the highest priority, The person who faces forward is given the highest priority, the person who faces horizontally is prioritized next, and the person who faces backward is excluded from the distance measurement as much as possible, so the main subject can be determined at high speed without the user being aware of the focus. In addition, it is possible to focus on a person with priority given to a person who is positive and accurate.

また、図6中のステップS28で「近いもの」を選択する考え方も加味し、図13に例示したような正面を向く複数の人物(9a2,9a3)が存在するシーンでも、わずかな距離の差を考慮したことで正しく主要被写体に「近い被写体優先」でピント合せを行なうことが可能となる。特にこの機能は、ファインダを見ないで撮影するセルフタイマによる撮影時やリモコン撮影時にも、正しくピント合せができ、極めて有効な技術であると言える。つまり、優先順位が高いもの(例えば人物9a2,9a3)に対してはまず測距して、得られた距離結果に従って距離データも加味した更なる被写体選択を行ない、より確度の高い主要被写体(例えば人物9a2)を選択した後、そのポイントに対する正しいピント合せ(合焦動作)が可能となる。   In addition, in consideration of the concept of selecting “close” in step S28 in FIG. 6, even in a scene where a plurality of persons (9a2, 9a3) facing the front as illustrated in FIG. In consideration of the above, it becomes possible to focus correctly with “close subject priority” to the main subject. In particular, this function can be said to be a very effective technique because it can focus correctly even when shooting with a self-timer or shooting with a remote control without looking through the viewfinder. In other words, a subject having a high priority (for example, the persons 9a2 and 9a3) is first measured, and further subject selection is performed in consideration of the distance data according to the obtained distance result, and the main subject having higher accuracy (for example, After selecting the person 9a2), the correct focusing (focusing operation) for that point becomes possible.

したがって、この測距装置はさらにAFカメラにふさわしい単純な構成で主要被写体を判断し、その被写体の測距時の優先度を上げて各被写体の距離を判定し、瞬時に正しいピント制御を行なえる装置なので、これを内蔵すればより廉価かつ高性能のAFカメラを提供できる。   Therefore, this distance measuring device can determine a main subject with a simple configuration suitable for an AF camera, increase the priority at the time of distance measurement of the subject, determine the distance of each subject, and instantaneously perform correct focus control. Since this is a device, it is possible to provide a cheaper and higher performance AF camera by incorporating it.

(変形例)上述した複数の実施形態は次のように変形実施してもよい。例えば、本発明は測距方式に限定されず、パッシブ方式のほかにアクティブ方式であってもよく、センサアレイで像イメージを取り込み画像解析できるものであれば,本発明が同様に適用可能である。したがって、エリアセンサなどの電子撮像系を既に有するカメラにも本発明は容易に適用可能である。これにより、前述と同等またはそれ以上の効果が期待できる。このほかにも、本発明の要旨を逸脱しない範囲で種々の変形実施が可能である。   (Modification) The plurality of embodiments described above may be modified as follows. For example, the present invention is not limited to the distance measurement method, and may be an active method in addition to the passive method. The present invention can be similarly applied as long as an image image can be captured and analyzed by a sensor array. . Therefore, the present invention can be easily applied to a camera that already has an electronic imaging system such as an area sensor. Thereby, the effect equivalent to or more than the above can be expected. In addition, various modifications can be made without departing from the scope of the present invention.

以上、複数例に基づき説明したが本明細書中には次の発明が含まれる。
(1) 測距装置を内蔵し、人物の頭部を検出してピント合せするカメラにおいて、この人物の頭部が前向きか後ろ向きかを判別する判別手段を具備することを特徴とするカメラを提供できる。
As mentioned above, although demonstrated based on multiple examples, the following invention is included in this specification.
(1) Provided with a built-in distance measuring device, and a camera for detecting and focusing a person's head, comprising a discrimination means for discriminating whether the person's head is facing forward or backward it can.

(2) 上記判別手段は、人物の頭部検出しても後ろ向きの人物の後頭部(ローコントラストの頭部)は測距対象から排除することを特徴とする(1)に記載のカメラである。
(3) 上記判別手段は、人物の頭部検出後、めがね状のパターン、鼻状のパターン、およびマユ毛状のパターンを優先して判別することを特徴とする(1)に記載のカメラである。
(2) The camera according to (1), wherein the determination unit excludes the back head of the person facing backward (low contrast head) from the distance measurement object even if the head of the person is detected.
(3) The camera according to (1), wherein the discrimination unit preferentially discriminates a glasses-like pattern, a nose-like pattern, and a mayu-hair-like pattern after detecting a human head. .

(4) 被写体像信号を検出するセンサアレイと、この被写体像信号に基づいて主要被写体を判定および認識し、この主要被写体に対する測距を行なうように制御する制御部と、この制御部の制御に従って当該主要被写体に対する合焦動作を行なう撮影光学系とを具備するカメラにおいて、上記制御部は、検出された被写体像の中から人物の頭部を判定し、測距する対象候補に決定するステップと、上記頭部のうち、後ろ向きの頭を選択してこの後ろ頭を上記候補から削除するステップと、残る候補としての被写体に対して測距動作および合焦動作を行なうように指示するステップと、を有することを特徴とするカメラを提供できる。   (4) A sensor array that detects a subject image signal, a control unit that determines and recognizes a main subject based on the subject image signal, and performs distance measurement on the main subject, and according to the control of the control unit In a camera including a photographing optical system that performs a focusing operation on the main subject, the control unit determines a person's head from the detected subject images and determines a candidate for distance measurement. A step of selecting a head facing backward out of the heads and deleting the head from the candidates; a step of instructing a subject as a remaining candidate to perform a ranging operation and a focusing operation; The camera characterized by having can be provided.

以上説明したように本発明によれば、主要被写体判定の確度が更に向上されたピント合わせ装置を提供することできる。よって、主要被写体の位置を正しく判定し、そこにピント合せを行なうので、誰にでも構図を気にせず写真撮影が楽しめるカメラを単純な構成で実現することができる。   As described above, according to the present invention, it is possible to provide a focusing device in which the accuracy of main subject determination is further improved. Therefore, since the position of the main subject is correctly determined and focused there, it is possible to realize a camera with a simple configuration that allows anyone to enjoy taking a picture without worrying about the composition.

1…CPU(制御部:演算制御手段)、 2…測距装置(測距光学系)、 3a,3b…受光レンズ、 4…A/D変換部、 4a,4b…センサアレイ(検知手段)、 5…合焦機構(ピント合せ部)、 6…撮影レンズ、 7…レリーズスイッチ、 8…フラッシュ発光部、 9…被写体(人物)、 10…カメラ本体、 11…撮影画面(ファインダ視野)、 S1〜S2…撮影シーケンス、 S11〜S28…候補ポイント取捨シーケンス(頭部判定手段)、 S30〜S38…ローコントラスト判定シーケンス(向き判定部)、 S40〜S56…顔領域垂直ライン判定シーケンス(向き判定部)、 S70〜S80…顔領域水平ライン判定シーケンス(向き判定部)。     DESCRIPTION OF SYMBOLS 1 ... CPU (control part: Calculation control means), 2 ... Distance measuring device (ranging optical system), 3a, 3b ... Light receiving lens, 4 ... A / D conversion part, 4a, 4b ... Sensor array (detection means), 5 ... Focusing mechanism (focusing part), 6 ... Shooting lens, 7 ... Release switch, 8 ... Flash light emitting part, 9 ... Subject (person), 10 ... Camera body, 11 ... Shooting screen (viewer field of view), S1- S2 ... Shooting sequence, S11-S28 ... Candidate point selection sequence (head determination means), S30-S38 ... Low contrast determination sequence (direction determination unit), S40-S56 ... Face area vertical line determination sequence (direction determination unit), S70 to S80: Face area horizontal line determination sequence (orientation determination unit).

Claims (2)

被写体像信号を検出する検出手段と、
上記被写体像信号のうち、人物の頭部を判定し検出する頭部判定手段と、
上記頭部判定手段の判定結果に基づいて上記人物の頭部を合焦ポイント候補として決定する候補決定手段と、
上記人物の顔領域中央部の像信号のコントラストを検出するコントラスト検出手段と、
上記候補決定手段により決定された合焦ポイント候補について、上記人物の顔領域中央部の像信号のコントラストから上記人物の顔が正面を向いているか否かを判定し、上記人物の顔領域の像の対称性から横向きか否かを判定する顔方向検出手段と、
上記顔方向検出手段による検出結果に基づいて、ピント合わせ処理を行う合焦ポイントを決定する合焦ポイント決定手段と、
上記合焦ポイント決定手段により決定された合焦ポイントに基づいてピント合わせ処理を行うピント合わせ手段と、
を具備し、
記合焦ポイント決定手段は、上記顔方向検出手段によって、当該ピント合わせ装置に対して正面向きであると判定された顔の人物を優先的に、合焦ポイントとして決定する
ことを特徴とするピント合わせ装置。
Detecting means for detecting a subject image signal;
A head determination means for determining and detecting a head of a person from the subject image signal;
Candidate determination means for determining the head of the person as a focus point candidate based on the determination result of the head determination means;
Contrast detection means for detecting the contrast of the image signal at the center of the human face area;
For the in-focus point candidate determined by the candidate determining means, it is determined whether or not the person's face is facing the front from the contrast of the image signal at the center of the person's face area, and the image of the person's face area Face direction detection means for determining whether or not it is horizontal from the symmetry of
Based on the detection result by the face direction detection means, a focus point determination means for determining a focus point for performing the focusing process;
Focusing means for performing focusing processing based on the focusing point determined by the focusing point determination means;
Comprising
Upper Kigoase point determination means, by the face direction detecting means, the determined face of a person as a front direction to the focusing device preferentially, and determines as an in-focus point Focusing device.
当該ピント合わせ装置は、カメラに搭載されるピント合わせ装置である
ことを特徴とする請求項1に記載のピント合わせ装置。
The focusing apparatus according to claim 1, wherein the focusing apparatus is a focusing apparatus mounted on a camera.
JP2010126684A 2010-06-02 2010-06-02 Focusing device Expired - Fee Related JP5351095B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010126684A JP5351095B2 (en) 2010-06-02 2010-06-02 Focusing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010126684A JP5351095B2 (en) 2010-06-02 2010-06-02 Focusing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000065083A Division JP4549481B2 (en) 2000-03-09 2000-03-09 Focusing device

Publications (2)

Publication Number Publication Date
JP2010244063A JP2010244063A (en) 2010-10-28
JP5351095B2 true JP5351095B2 (en) 2013-11-27

Family

ID=43097064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010126684A Expired - Fee Related JP5351095B2 (en) 2010-06-02 2010-06-02 Focusing device

Country Status (1)

Country Link
JP (1) JP5351095B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5488429A (en) * 1992-01-13 1996-01-30 Mitsubishi Denki Kabushiki Kaisha Video signal processor for detecting flesh tones in am image
JPH11155118A (en) * 1997-11-20 1999-06-08 Casio Comput Co Ltd Electronic camera system
JP2001215403A (en) * 2000-02-01 2001-08-10 Canon Inc Image pickup device and automatic focus detection method

Also Published As

Publication number Publication date
JP2010244063A (en) 2010-10-28

Similar Documents

Publication Publication Date Title
JP5712519B2 (en) Imaging apparatus and imaging method
JP2010010729A (en) Image pickup apparatus, and program
JP6045214B2 (en) Focus adjustment apparatus and control method thereof
JP5417827B2 (en) Focus detection apparatus and imaging apparatus
CN104641275B (en) The control method that imaging control apparatus, imaging device and imaging control apparatus perform
JP5950664B2 (en) Imaging apparatus and control method thereof
US10121067B2 (en) Image processing apparatus that determines processing target area of an image based on degree of saliency, image processing method, and storage medium
JP4549481B2 (en) Focusing device
JP2019117395A (en) Imaging device
JP2019121860A (en) Image processing apparatus and control method therefor
JP2023115356A (en) Measurement device, imaging device, control method, and program
JP6602081B2 (en) Imaging apparatus and control method thereof
JP2007133301A (en) Autofocus camera
JP7158841B2 (en) Imaging device, imaging method, program, recording medium, and image processing device
JP2001083404A (en) Multipoint range-finding device and multipoint range- finding camera provided therewith
JP6427027B2 (en) Focus detection apparatus, control method therefor, imaging apparatus, program, and storage medium
JP4997306B2 (en) How to determine the orientation of a person&#39;s face
JP6352150B2 (en) Image processing apparatus and image processing method
US20180020152A1 (en) Imaging device and focusing evaluation device
JP5351095B2 (en) Focusing device
JP2009294663A (en) Camera
JP4391637B2 (en) camera
TW201642008A (en) Image capturing device and dynamic focus method thereof
JP2016090904A (en) Focus adjustment device and camera
JP2001100087A (en) Multispot range finder

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130822

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees