JP2007180850A - Photographing device - Google Patents

Photographing device Download PDF

Info

Publication number
JP2007180850A
JP2007180850A JP2005376462A JP2005376462A JP2007180850A JP 2007180850 A JP2007180850 A JP 2007180850A JP 2005376462 A JP2005376462 A JP 2005376462A JP 2005376462 A JP2005376462 A JP 2005376462A JP 2007180850 A JP2007180850 A JP 2007180850A
Authority
JP
Japan
Prior art keywords
image
face
imaging
subject
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005376462A
Other languages
Japanese (ja)
Other versions
JP2007180850A5 (en
JP4670635B2 (en
Inventor
Kazuma Hosoi
一磨 細井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2005376462A priority Critical patent/JP4670635B2/en
Publication of JP2007180850A publication Critical patent/JP2007180850A/en
Publication of JP2007180850A5 publication Critical patent/JP2007180850A5/ja
Application granted granted Critical
Publication of JP4670635B2 publication Critical patent/JP4670635B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographing device capable of setting a photographic condition to an object which a photographer intends to photograph. <P>SOLUTION: An imaging means 20 acquires an image of the object before photographing the object. AN extraction means extracts a first partial image being in a preliminarily determined area, from the image acquired by the imaging means 20. A determination means 28 determines a photographic condition in accordance with a second partial image in an area which is a prescribed vector apart from the first partial image, in the image acquired by the imaging means 20. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、追尾や顔検出等の画像認識機能を備えた撮影装置に関する。   The present invention relates to a photographing apparatus having an image recognition function such as tracking and face detection.

従来の撮影装置では、撮影前に得られる画像毎に、人物等の被写体を色相の違いに基づいて追尾する技術が用いられる場合がある。このような撮影装置では、追尾された被写体に合わせて撮影条件が設定される(例えば、特許文献1)。
特開2005−55774号公報
In a conventional photographing apparatus, a technique for tracking a subject such as a person based on a difference in hue may be used for each image obtained before photographing. In such a photographing apparatus, photographing conditions are set according to the tracked subject (for example, Patent Document 1).
JP 2005-55774 A

しかしながら、特許文献1の手法では、追尾された被写体は、撮影条件の設定に適しているとは限らなかった。例えば、被写体となる人物が身につけた衣類の色相が周辺の色相と大きく異なるときには、衣類が追尾され、衣類に合わせて撮影条件が設定される。しかし、撮影条件が設定される被写体としては、衣類ではなく人物の顔が適切である。このように、追尾される被写体は、撮影者が撮影条件を設定したい被写体と同じとは限らない。   However, in the method of Patent Document 1, the tracked subject is not always suitable for setting the shooting conditions. For example, when the hue of clothing worn by a person as a subject is significantly different from the surrounding hues, the clothing is tracked and shooting conditions are set according to the clothing. However, a person's face, not clothing, is appropriate as a subject for which shooting conditions are set. Thus, the subject to be tracked is not necessarily the same as the subject for which the photographer wants to set the photographing conditions.

本発明の目的は、撮影者の意図する被写体に対して撮影条件を設定可能な撮影装置を提供することである。   An object of the present invention is to provide a photographing apparatus capable of setting photographing conditions for a subject intended by a photographer.

請求項1の撮影装置では、撮像手段は、被写体像の撮影前に被写体像の画像を取得する。抽出手段は、撮像手段により取得された画像から、予め決められた領域にある第1部分画像を抽出する。決定手段は、撮像手段により取得された画像において第1部分画像から所定のベクトルだけ離れた領域にある第2部分画像に合わせて撮影条件を決定する。
請求項2の撮影装置では、追尾手段は、抽出手段によって抽出される第1部分画像に基づいて追尾処理を行う。
In the photographing apparatus according to the first aspect, the imaging means acquires the image of the subject image before photographing the subject image. The extraction unit extracts a first partial image in a predetermined area from the image acquired by the imaging unit. The determining unit determines the imaging condition in accordance with the second partial image in an area separated from the first partial image by a predetermined vector in the image acquired by the imaging unit.
According to another aspect of the present invention, the tracking unit performs the tracking process based on the first partial image extracted by the extraction unit.

請求項3の撮影装置では、顔抽出手段は、撮像手段により取得された画像から、被写体像である人物の顔に対応する顔画像を抽出する。ベクトルは、抽出手段によって抽出される第1部分画像と顔抽出手段によって抽出された顔画像とを結ぶ位置ベクトルである。
請求項4の撮影装置では、抽出手段もしくは顔抽出手段は、第1部分画像または顔画像の何れか一方の抽出を失敗したときにベクトルに基づいて他方の抽出を実行する。
According to the third aspect of the present invention, the face extracting unit extracts a face image corresponding to a human face as a subject image from the image acquired by the imaging unit. The vector is a position vector connecting the first partial image extracted by the extracting unit and the face image extracted by the face extracting unit.
According to another aspect of the present invention, when the extraction unit or the face extraction unit fails to extract either the first partial image or the face image, the extraction unit or the face extraction unit executes the other extraction based on the vector.

撮影者の意図する被写体に合わせて撮影条件を設定できる。   Shooting conditions can be set according to the subject intended by the photographer.

以下、本発明の実施形態を図面を用いて説明する。
図1は本発明の撮影装置の第1の実施形態を示している。カメラ100(撮影装置)は、例えば一眼レフレックスタイプのデジタルカメラであり、カメラ本体102を有している。
撮影レンズ104は、被写体からの光束をカメラ本体102に導くために、カメラ本体102の前面に形成されたレンズマウント102aに着脱自在に取り付けられる。レンズマウント102aには、カメラ本体102と撮影レンズ104との間で各種情報を授受するための通信接点(図示せず)が設けられている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 shows a first embodiment of the photographing apparatus of the present invention. The camera 100 (photographing device) is, for example, a single-lens reflex digital camera, and has a camera body 102.
The photographic lens 104 is detachably attached to a lens mount 102 a formed on the front surface of the camera body 102 in order to guide the light flux from the subject to the camera body 102. The lens mount 102 a is provided with a communication contact (not shown) for exchanging various types of information between the camera body 102 and the photographing lens 104.

カメラ本体102は、クイックリターンミラー10、ファインダスクリーン12、ペンタダハプリズム14、ハーフミラー16、再結像光学系18、エリアセンサ20(撮像手段)、接眼レンズ22、被写体に閃光発光を照射する閃光発光部23、機械式のシャッタ24、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等で構成される撮像素子26、CPU28(抽出手段、追尾手段及び決定手段)及びROM30を有している。   The camera body 102 includes a quick return mirror 10, a finder screen 12, a penta roof prism 14, a half mirror 16, a re-imaging optical system 18, an area sensor 20 (imaging means), an eyepiece 22, and flash emission that irradiates a subject with flash emission. Unit 23, mechanical shutter 24, image sensor 26 composed of CCD (Charge Coupled Device), CMOS (Complementary Metal Oxide Semiconductor) image sensor, etc., CPU 28 (extracting means, tracking means and determining means) and ROM 30. ing.

クイックリターンミラー10は、光軸OA上に回動自在に設けられる。クイックリターンミラー10は、被写体の撮影を行わない非撮影時に、光軸OAに対して斜めの位置に配置される。ファインダスクリーン12は、非撮影時に、クイックリターンミラー10から入射される光束を受光可能な位置に配置される。
ファインダスクリーン12は、クイックリターンミラー10により結像された光束を拡散し、ペンタダハプリズム14を介してハーフミラー16に導く位置に配置される。ハーフミラー16は、ペンタダハプリズム14を介して導かれた光束を再結像光学系18及び接眼レンズ22にそれぞれ導く位置に配置される。再結像光学系18は、ハーフミラー16を介して光束をエリアセンサ20に結像可能な位置に配置される。
The quick return mirror 10 is rotatably provided on the optical axis OA. The quick return mirror 10 is disposed at an oblique position with respect to the optical axis OA when the subject is not photographed. The finder screen 12 is arranged at a position where it can receive the light beam incident from the quick return mirror 10 when not photographing.
The finder screen 12 is disposed at a position where the light beam imaged by the quick return mirror 10 is diffused and led to the half mirror 16 via the penta roof prism 14. The half mirror 16 is disposed at a position for guiding the light beam guided through the penta roof prism 14 to the re-imaging optical system 18 and the eyepiece lens 22, respectively. The re-imaging optical system 18 is disposed at a position where the light beam can be imaged on the area sensor 20 via the half mirror 16.

エリアセンサ20は、ペンタダハプリズム14の後側の位置に配置される。なお、エリアセンサ20の位置は、被写体の撮影が開始される前に光束を結像できる位置であれば、例えば、ファインダースクリーン12上でもよい。また、コンパクトタイプのデジタルカメラであれば、撮影動作に用いる撮像素子を撮影前から動作させて画像を取得し、取得した画像をCPUに出力する構成としてもよい。   The area sensor 20 is disposed at a rear position of the penta roof prism 14. The position of the area sensor 20 may be, for example, on the finder screen 12 as long as the light beam can be imaged before photographing of the subject is started. Further, in the case of a compact type digital camera, an image may be acquired by operating an image sensor used for shooting operation before shooting, and the acquired image may be output to the CPU.

エリアセンサ20は、CCD等の撮像素子で構成される。エリアセンサ20は、再結像光学系18により結像された光束を光電変換して、R(赤)、G(緑)、B(青)の色成分の画像信号をCPU28に出力する。接眼レンズ22は、ハーフミラー16から導かれた光束を被写体像として結像可能な位置に配置される。撮影者は、接眼レンズ22により結像された被写体像を見ることで、被写体の構図や状態を確認できる。   The area sensor 20 is composed of an image sensor such as a CCD. The area sensor 20 photoelectrically converts the light beam imaged by the re-imaging optical system 18 and outputs image signals of R (red), G (green), and B (blue) color components to the CPU 28. The eyepiece 22 is disposed at a position where the light beam guided from the half mirror 16 can be formed as a subject image. The photographer can check the composition and state of the subject by looking at the subject image formed by the eyepiece 22.

シャッタ24は、クイックリターンミラー10が図の破線で示す位置に退避する撮影時に、被写体から入射される光束を受光可能な位置に配置される。シャッタ24は、レンズ系32から撮像素子26への光路を遮る位置に配置されるシャッタ膜を有している。シャッタ24は、図示しないシャッタドライバにより駆動され、レンズ系32からカメラ本体102に入射された光束により撮像素子26が露光される露光時間を調節する。シャッタ膜は、被写体の撮像時にレンズ系32から撮像素子26への光路を確保するために開く。なお、機械式のシャッタ24に代えて、撮像素子26の電子シャッタにより露光時間を調節する構成としてもよい。あるいは、機械式のシャッタ24と、撮像素子26の電子シャッタとを併用する構成としてもよい。   The shutter 24 is disposed at a position where the light beam incident from the subject can be received when the quick return mirror 10 is retracted to the position indicated by the broken line in the drawing. The shutter 24 has a shutter film disposed at a position that blocks the optical path from the lens system 32 to the image sensor 26. The shutter 24 is driven by a shutter driver (not shown) and adjusts an exposure time during which the image sensor 26 is exposed by a light beam incident on the camera body 102 from the lens system 32. The shutter film is opened in order to secure an optical path from the lens system 32 to the image sensor 26 when imaging a subject. Instead of the mechanical shutter 24, the exposure time may be adjusted by an electronic shutter of the image sensor 26. Alternatively, the mechanical shutter 24 and the electronic shutter of the image sensor 26 may be used in combination.

撮像素子26は、シャッタ24を介してレンズ系32に対向する位置に配置されている。撮像素子26は、図示しない撮像素子ドライバにより駆動され、レンズ系32より結像される被写体像を光電変換し、光電変換した画像をCPU28に出力する。
撮影レンズ104は、レンズ系32及び絞り34を有している。レンズ系32は、被写体に焦点を合わせるフォーカスレンズや被写体像をズームするためのズームレンズを含む複数枚のレンズにより構成される。フォーカスレンズ及びズームレンズは、図示しないレンズ駆動回路により光軸OA方向の位置が調節される。絞り34は、図示しない絞りドライバによって駆動される。絞り34の絞り値は、レンズ系32を通過した光の光量を絞るように調節される。
The image sensor 26 is disposed at a position facing the lens system 32 via the shutter 24. The image sensor 26 is driven by an image sensor driver (not shown), photoelectrically converts the subject image formed by the lens system 32, and outputs the photoelectrically converted image to the CPU 28.
The taking lens 104 has a lens system 32 and a diaphragm 34. The lens system 32 includes a plurality of lenses including a focus lens that focuses on a subject and a zoom lens that zooms the subject image. The position of the focus lens and the zoom lens in the direction of the optical axis OA is adjusted by a lens driving circuit (not shown). The diaphragm 34 is driven by a diaphragm driver (not shown). The aperture value of the aperture 34 is adjusted to reduce the amount of light that has passed through the lens system 32.

図2及び図3は、エリアセンサ20によって順次出力された画像SP1、SP2を示している。ここでは、被写体が人物であるとして説明する。画像SP1、SP2は、この順番で出力される。これらの画像は、いずれも横32画素、縦24画素で構成されている。この画素の数は、特定の数に限定されない。また、画素の形状は、矩形ではなく、円形や多角形の画素を組み合わせて画像を構成してもよい。なお、図2及び図3において、i、jは、図の水平及び垂直方向それぞれにおける画素単位の座標を示している。   2 and 3 show images SP1 and SP2 sequentially output by the area sensor 20. FIG. Here, description will be made assuming that the subject is a person. The images SP1 and SP2 are output in this order. Each of these images is composed of 32 pixels horizontally and 24 pixels vertically. The number of pixels is not limited to a specific number. Further, the pixel shape is not a rectangle, and an image may be configured by combining circular or polygonal pixels. 2 and 3, i and j indicate coordinates in pixel units in the horizontal and vertical directions, respectively.

図2に示す符号36は、画像SP1内で人物が存在する位置、符号38は、図4で説明する追尾演算によって被写体(この例では、人物の衣服)の追尾が行われる追尾枠を示している。図3に示す符号40は、画像SP2内で追尾演算によって更新された新たな追尾枠(第1部分画像)、符号42は、撮影者の意図する被写体(この例では、人物の顔)に合わせて露出条件を決定するために参照される露出決定位置(第2部分画像)を示している。   2 indicates a position where a person exists in the image SP1, and reference numeral 38 indicates a tracking frame in which a subject (in this example, a person's clothes) is tracked by the tracking calculation described in FIG. Yes. A reference numeral 40 shown in FIG. 3 is a new tracking frame (first partial image) updated by the tracking calculation in the image SP2, and a reference numeral 42 is matched with a subject intended by the photographer (in this example, a human face). The exposure determination position (second partial image) referred to for determining the exposure condition is shown.

図4は、撮影装置の第1の実施形態における露出条件決定動作を示している。図4に示す動作は、CPU28(抽出手段、追尾手段及び決定手段)がROM30に格納されたプログラムを実行することによって実現される。
まず、ステップS100において、CPU28は、撮影者によりレリーズスイッチが半押しされるのを待つ。レリーズスイッチの半押しが検出されると、処理はステップS102に移行する。ステップS100は、レリーズスイッチの半押しが検出されるまで繰り返される。
FIG. 4 shows an exposure condition determining operation in the first embodiment of the photographing apparatus. The operation shown in FIG. 4 is realized by the CPU 28 (extraction means, tracking means, and determination means) executing a program stored in the ROM 30.
First, in step S100, the CPU 28 waits for the photographer to press the release switch halfway. If half-press of the release switch is detected, the process proceeds to step S102. Step S100 is repeated until half-pressing of the release switch is detected.

ステップS102において、CPU28は、エリアセンサ20から出力された画像SP1(図2)を用いて、予め決められた追尾枠38内の特徴量C(sigmabBV、sigmagBV、sigmarBV)を算出する。なお、この追尾枠38は、レリーズスイッチ半押し時に画像SP1の中心に位置していた被写体(例えば、人物の衣服)に合わせて設定されてもよく、あるいは、ユーザの操作によって画像SP1上で指定されてもよい。CPU28は、以下の演算式(1)を用いて特徴量Cを算出する。   In step S102, the CPU 28 uses the image SP1 (FIG. 2) output from the area sensor 20 to calculate a predetermined feature amount C (sigmabBV, sigmagBV, sigmarBV) within the tracking frame 38. The tracking frame 38 may be set according to the subject (for example, a person's clothes) located at the center of the image SP1 when the release switch is half-pressed, or designated on the image SP1 by a user operation. May be. The CPU 28 calculates the feature amount C using the following arithmetic expression (1).

Figure 2007180850
Figure 2007180850

演算式(1)のBVは追尾枠38内における輝度値のAPEX(Additive System of Photographic Exposure)値、i′、j′は、追尾枠38内の水平及び垂直方向それぞれにおける画素単位の座標を示している。この後、処理はステップS104に移行する。
ステップS104において、CPU28は、上述した画像SP1の後にエリアセンサ20から受け取った画像SP2(図3)を用いて、追尾演算を開始する。CPU28は、画像SP2を複数の画素ブロックに分割し、画素ブロック毎に演算式(1)を用いて特徴量C′を算出する。この後、処理はステップS106に移行する。
In Expression (1), BV is the APEX (Additive System of Photographic Exposure) value of the luminance value in the tracking frame 38, and i 'and j' are the coordinates of the pixel unit in the horizontal and vertical directions in the tracking frame 38, respectively. ing. Thereafter, the process proceeds to step S104.
In step S104, the CPU 28 starts tracking calculation using the image SP2 (FIG. 3) received from the area sensor 20 after the image SP1 described above. The CPU 28 divides the image SP2 into a plurality of pixel blocks, and calculates the feature amount C ′ using the arithmetic expression (1) for each pixel block. Thereafter, the process proceeds to step S106.

ステップS106において、CPU28は、特徴量C′を上述した特徴量Cと順次比較し、特徴量Cに最も近い特徴量C″の画素ブロックを新たな追尾枠40(図3)として決定する。そして、CPU28は、画像SP2に後続する画像を用いた追尾演算のために、特徴量C′をROM30に格納する。なお、同じ特徴量C″の画素ブロックが複数存在する場合には、CPU28は、追尾枠38の座標に最も近い画素ブロックを追尾枠40として決定する。この後、処理はステップS108に移行する。   In step S106, the CPU 28 sequentially compares the feature quantity C ′ with the above-described feature quantity C, and determines the pixel block of the feature quantity C ″ closest to the feature quantity C as a new tracking frame 40 (FIG. 3). The CPU 28 stores the feature value C ′ in the ROM 30 for the tracking calculation using the image subsequent to the image SP2. When there are a plurality of pixel blocks having the same feature value C ″, the CPU 28 The pixel block closest to the coordinates of the tracking frame 38 is determined as the tracking frame 40. Thereafter, the process proceeds to step S108.

ステップS108において、CPU28は、露出決定位置42(図3)を設定する。CPU28は、追尾枠40から予め決められた位置ベクトル(x0、y0)の分だけ離れた位置を露出決定位置42として設定する。なお、位置ベクトル(x0、y0)は、ズームレンズ(図1)の焦点距離に応じて変動する。この後、処理はステップS110に移行する。   In step S108, the CPU 28 sets the exposure determination position 42 (FIG. 3). The CPU 28 sets a position separated from the tracking frame 40 by a predetermined position vector (x0, y0) as the exposure determination position 42. The position vector (x0, y0) varies according to the focal length of the zoom lens (FIG. 1). Thereafter, the process proceeds to step S110.

ステップS110において、CPU28は、以下の演算式(2)を用いて露出条件を決定する。
BV+SV=AV+TV・・・(2)
演算式(2)のBVは露出決定位置42における輝度値のAPEX値、SVは撮像素子26の感度値のAPEX値、AVは絞り値のAPEX値、TVはシャッタ速度のAPEX値を示している。CPU28は、演算式(2)を満たすように絞り値AV、シャッタ速度TVを決定する。このように、露出決定位置42に合わせて露出条件を決定できる。この後、処理はステップS112に移行する。
In step S110, the CPU 28 determines an exposure condition using the following arithmetic expression (2).
BV + SV = AV + TV (2)
In Expression (2), BV represents the APEX value of the luminance value at the exposure determination position 42, SV represents the APEX value of the sensitivity value of the image sensor 26, AV represents the APEX value of the aperture value, and TV represents the APEX value of the shutter speed. . The CPU 28 determines the aperture value AV and the shutter speed TV so as to satisfy the arithmetic expression (2). Thus, the exposure condition can be determined according to the exposure determination position 42. Thereafter, the process proceeds to step S112.

ステップS112において、CPU28は、撮影者によりレリーズスイッチが全押しされるのを待つ。レリーズスイッチの全押しが検出されると、処理はステップS114に移行する。レリーズスイッチの全押しが検出されないと、処理はステップS104に移行する。
ステップS114において、CPU28は、シャッタドライバ及び撮像素子ドライバをそれぞれ制御して、シャッタ24及び撮像素子26を駆動し、被写体像を撮像する。そして、撮影装置の第1の実施形態における露出条件決定動作が終了する。
In step S112, the CPU 28 waits for the photographer to fully press the release switch. If it is detected that the release switch is fully pressed, the process proceeds to step S114. If it is not detected that the release switch is fully pressed, the process proceeds to step S104.
In step S114, the CPU 28 controls the shutter driver and the image sensor driver, respectively, drives the shutter 24 and the image sensor 26, and captures a subject image. Then, the exposure condition determination operation in the first embodiment of the photographing apparatus ends.

以上、第1の実施形態では、追尾枠40から位置ベクトル(x0、y0)の分だけ離れた位置を露出決定位置42として設定することで、露出決定位置42に合わせて露出条件を決定できる。このため、撮影者が意図する被写体(例えば、人物の顔)に対して露出条件を決定できる。
図5及び図6は本発明の撮影装置の第2の実施形態を示している。この実施形態では、画像SP1(図2)に後続して、図5に示す画像SP2′が画像SP2(図3)に代えてエリアセンサ20(撮像手段)から出力される。
As described above, in the first embodiment, the exposure condition can be determined according to the exposure determination position 42 by setting the position separated from the tracking frame 40 by the position vector (x0, y0) as the exposure determination position 42. For this reason, it is possible to determine an exposure condition for a subject intended by the photographer (for example, a human face).
5 and 6 show a second embodiment of the photographing apparatus of the present invention. In this embodiment, following the image SP1 (FIG. 2), an image SP2 ′ shown in FIG. 5 is output from the area sensor 20 (imaging means) instead of the image SP2 (FIG. 3).

図5に示す符号44は、画像SP2′内で追尾演算によって更新された新たな追尾枠(第1部分画像)、符号46は、図6で説明する顔検出演算によって被写体(この例では、人物の顔)の検出が行われる顔検出枠(顔画像)、符号48は、露出決定位置を示している。
図6は、撮影装置の第2の実施形態における露出条件決定動作を示している。この実施形態では、CPU28が実行するためにROM30に格納されているプログラムが、画像処理装置の第1の実施形態と相違する。図6は、第1の実施形態(図4)のステップS106がステップS200〜S208に置き換えられた点を除き、図4と同じである。
Reference numeral 44 shown in FIG. 5 is a new tracking frame (first partial image) updated by the tracking calculation in the image SP2 ′, and reference numeral 46 is a subject (in this example, a person) by the face detection calculation described in FIG. The face detection frame (face image) in which the detection of (face) is performed, and reference numeral 48 indicate exposure determination positions.
FIG. 6 shows an exposure condition determination operation in the second embodiment of the photographing apparatus. In this embodiment, the program stored in the ROM 30 for execution by the CPU 28 is different from that of the first embodiment of the image processing apparatus. FIG. 6 is the same as FIG. 4 except that step S106 of the first embodiment (FIG. 4) is replaced with steps S200 to S208.

上述した図4と同じ処理については、詳細な説明を省略する。また、図6に示す動作は、CPU28(抽出手段、追尾手段、顔抽出手段及び決定手段)がROM30に格納されたプログラムを実行することによって実現される。
まず、ステップS100〜S106が実行され、画像SP2′を用いて追尾枠44(図5)が決定された後、ステップS200に移行する。
Detailed description of the same processing as in FIG. 4 described above will be omitted. 6 is realized by the CPU 28 (extracting means, tracking means, face extracting means, and determining means) executing a program stored in the ROM 30.
First, steps S100 to S106 are executed, and after the tracking frame 44 (FIG. 5) is determined using the image SP2 ′, the process proceeds to step S200.

ステップS200において、CPU28は、画像SP2′を用いて顔検出演算を開始する。CPU28は、画像SP2′を顔検出の基準となるテンプレートと同じサイズの画素ブロックに分け、各画素ブロックとテンプレートとの色相値の差分値を画素毎に算出する。この後、処理はステップS202に移行する。
ステップS202において、CPU28は、色相値の差分値が予め決められた閾値以下であるか否かを判定する。差分値が閾値以下であること、すなわち、顔検出が成功したことを検出すると、処理はステップS204に移行する。一方、差分値が閾値を超えること、すなわち、顔検出が失敗したことを検出すると、処理はステップS210に移行する。
In step S200, the CPU 28 starts face detection calculation using the image SP2 ′. The CPU 28 divides the image SP2 ′ into pixel blocks having the same size as the template serving as a reference for face detection, and calculates a difference value between hue values of each pixel block and the template for each pixel. Thereafter, the process proceeds to step S202.
In step S202, the CPU 28 determines whether or not the difference value of the hue value is equal to or less than a predetermined threshold value. When it is detected that the difference value is equal to or smaller than the threshold value, that is, the face detection is successful, the process proceeds to step S204. On the other hand, when it is detected that the difference value exceeds the threshold value, that is, the face detection has failed, the process proceeds to step S210.

ステップS204において、CPU28は、色相値の差分値が予め決められた閾値以下である画素ブロックを顔検出枠46(図5)として検出する。この後、処理はステップS206に移行する。
ステップS206において、CPU28は、顔検出枠46の中心の座標を露出決定位置48(図5)として設定する。この後、処理はステップS208に移行する。
In step S <b> 204, the CPU 28 detects, as the face detection frame 46 (FIG. 5), a pixel block whose hue value difference value is equal to or less than a predetermined threshold value. Thereafter, the process proceeds to step S206.
In step S206, the CPU 28 sets the coordinates of the center of the face detection frame 46 as the exposure determination position 48 (FIG. 5). Thereafter, the process proceeds to step S208.

ステップS208において、CPU28は、追尾枠44から顔検出枠46に至るベクトルを位置ベクトル(x0′、y0′)として設定し、ROM30に格納する。この後、処理はステップS108〜S112が実行され、撮影装置の第2の実施形態における露出決定動作が終了する。
一方、ステップS202で、顔検出が失敗したことが検出された場合、ステップS210において、CPU28は、図4のステップS108と同様に、追尾枠44から位置ベクトル(x0′、y0′)の分だけ離れた位置を露出決定位置として設定する。なお、この位置ベクトル(x0′、y0′)は、顔検出の成功時にCPU28により設定された位置ベクトルである。このため、顔検出が失敗した場合であっても、顔検出枠46の中心の座標を露出決定位置として推定できる。この後、処理はステップS108〜S112が実行され、撮影装置の第2の実施形態における露出決定動作が終了する。
In step S <b> 208, the CPU 28 sets a vector from the tracking frame 44 to the face detection frame 46 as a position vector (x0 ′, y0 ′) and stores it in the ROM 30. Thereafter, steps S108 to S112 are executed, and the exposure determination operation in the second embodiment of the photographing apparatus is completed.
On the other hand, if it is detected in step S202 that the face detection has failed, in step S210, the CPU 28 determines the position vector (x0 ′, y0 ′) from the tracking frame 44 as in step S108 of FIG. Set the remote position as the exposure determination position. The position vector (x0 ′, y0 ′) is a position vector set by the CPU 28 when the face detection is successful. For this reason, even if face detection fails, the coordinates of the center of the face detection frame 46 can be estimated as the exposure determination position. Thereafter, steps S108 to S112 are executed, and the exposure determination operation in the second embodiment of the photographing apparatus is completed.

以上、第2の実施形態では、第1の実施形態と同様な効果を得ることができる。更に、顔検出が失敗した場合であっても、顔検出枠46の中心の座標を露出決定位置として推定できる。このため、撮影者が意図する被写体(例えば、人物の顔)に合わせて露出条件を決定できる。
なお、上述した第1及び第2の実施形態では、露出決定位置に合わせて絞り値AV及びシャッタ速度TVが決定される例について述べた。本発明はかかる実施形態に限定されるものではない。露出決定位置に対して、フォーカスレンズによる焦点合わせや閃光発光部23の調光、あるいは、ホワイトバランスの設定等が行われるものでもよい。
As described above, in the second embodiment, the same effect as that of the first embodiment can be obtained. Furthermore, even when face detection fails, the coordinates of the center of the face detection frame 46 can be estimated as the exposure determination position. For this reason, exposure conditions can be determined in accordance with the subject intended by the photographer (for example, the face of a person).
In the above-described first and second embodiments, the example in which the aperture value AV and the shutter speed TV are determined in accordance with the exposure determination position has been described. The present invention is not limited to such an embodiment. Focusing by a focus lens, dimming of the flash light emitting unit 23, white balance setting, or the like may be performed on the exposure determination position.

上述した第1及び第2の実施形態では、カメラ100としてデジタルカメラが用いられる例について述べた。本発明は、かかる実施形態に限定されるものではない。カメラ100として銀塩フィルム式のカメラが用いられるものでもよい。
上述した第2の実施形態では、CPU28は、顔検出の失敗時に、位置ベクトル(x0′、y0′)に基づいて、図5に示す顔検出枠46の中心の座標を露出決定位置として推定する例について述べた。本発明はかかる実施形態に限定されるものではない。CPU28は、図5に示す画像SP2′内における追尾演算の失敗時に、上述の位置ベクトル(x0′、y0′)に基づいて追尾枠44の位置を露出決定位置として推定するものでもよい。この推定により、追尾演算が失敗した場合であっても、撮影者の意図する被写体(この例では、人物の衣服)に合わせて露出条件を決定できる。
In the first and second embodiments described above, an example in which a digital camera is used as the camera 100 has been described. The present invention is not limited to such an embodiment. A silver film type camera may be used as the camera 100.
In the second embodiment described above, the CPU 28 estimates the coordinates of the center of the face detection frame 46 shown in FIG. 5 as the exposure determination position based on the position vector (x0 ′, y0 ′) when face detection fails. An example was given. The present invention is not limited to such an embodiment. The CPU 28 may estimate the position of the tracking frame 44 as the exposure determination position based on the position vector (x0 ′, y0 ′) when the tracking calculation in the image SP2 ′ shown in FIG. 5 fails. With this estimation, even if the tracking calculation fails, the exposure condition can be determined in accordance with the subject intended by the photographer (in this example, a person's clothes).

以上、本発明について詳細に説明してきたが、上記の実施形態及びその変形例は発明の一例に過ぎず、本発明はこれに限定されるものではない。本発明を逸脱しない範囲で変形可能であることは明らかである。   As mentioned above, although this invention was demonstrated in detail, said embodiment and its modification are only examples of this invention, and this invention is not limited to this. Obviously, modifications can be made without departing from the scope of the present invention.

本発明は、追尾や顔検出等の画像認識機能を備えた撮影装置に適用される。   The present invention is applied to a photographing apparatus having an image recognition function such as tracking and face detection.

本発明の撮影装置の第1の実施形態を示すブロック図である。1 is a block diagram showing a first embodiment of a photographing apparatus of the present invention. エリアセンサから出力された画像を示す説明図である。It is explanatory drawing which shows the image output from the area sensor. エリアセンサから出力された画像を示す説明図である。It is explanatory drawing which shows the image output from the area sensor. 撮影装置の第1の実施形態における露出条件決定動作を示すフローチャートである。It is a flowchart which shows the exposure condition determination operation | movement in 1st Embodiment of an imaging device. エリアセンサから出力された画像を示す説明図である。It is explanatory drawing which shows the image output from the area sensor. 撮影装置の第2の実施形態における露出条件決定動作を示すフローチャートである。It is a flowchart which shows the exposure condition determination operation | movement in 2nd Embodiment of an imaging device.

符号の説明Explanation of symbols

10…クイックリターンミラー、12…ファインダスクリーン、14…ペンタダハプリズム、16…ハーフミラー、18…再結像光学系、20…エリアセンサ、22…接眼レンズ、23…閃光発光部、24…シャッタ、26…撮像素子、28…CPU、30…ROM、32…レンズ系、34…絞り、100…カメラ、102…カメラ本体、102a…レンズマウント、104…撮影レンズ DESCRIPTION OF SYMBOLS 10 ... Quick return mirror, 12 ... Finder screen, 14 ... Pentadaha prism, 16 ... Half mirror, 18 ... Re-imaging optical system, 20 ... Area sensor, 22 ... Eyepiece, 23 ... Flash light emission part, 24 ... Shutter, 26 ... Image sensor 28 ... CPU, 30 ... ROM, 32 ... Lens system, 34 ... Aperture, 100 ... Camera, 102 ... Camera body, 102a ... Lens mount, 104 ... Shooting lens

Claims (4)

被写体像の撮影前に前記被写体像の画像を取得する撮像手段と、
前記撮像手段により取得された画像から、予め決められた領域にある第1部分画像を抽出する抽出手段と、
前記撮像手段により取得された画像において前記第1部分画像から所定のベクトルだけ離れた領域にある第2部分画像に合わせて撮影条件を決定する決定手段とを備えることを特徴とする撮影装置。
Imaging means for obtaining an image of the subject image before photographing the subject image;
Extraction means for extracting a first partial image in a predetermined region from the image acquired by the imaging means;
An imaging apparatus comprising: a determination unit that determines an imaging condition in accordance with a second partial image in a region separated from the first partial image by a predetermined vector in the image acquired by the imaging unit.
請求項1記載の撮影装置において、
前記抽出手段によって抽出される前記第1部分画像に基づいて追尾処理を行う追尾手段を備えることを特徴とする撮影装置。
The imaging device according to claim 1,
An imaging apparatus comprising: tracking means for performing tracking processing based on the first partial image extracted by the extraction means.
請求項2記載の撮影装置において、
前記撮像手段により取得された画像から、前記被写体像である人物の顔に対応する顔画像を抽出する顔抽出手段を備え、
前記ベクトルは、前記抽出手段によって抽出される前記第1部分画像と前記顔抽出手段によって抽出された顔画像とを結ぶ位置ベクトルであることを特徴とする撮影装置。
The imaging device according to claim 2,
A face extracting means for extracting a face image corresponding to the face of the person as the subject image from the image acquired by the imaging means;
The imaging apparatus according to claim 1, wherein the vector is a position vector connecting the first partial image extracted by the extracting unit and the face image extracted by the face extracting unit.
請求項3記載の撮影装置において、
前記抽出手段もしくは前記顔抽出手段は、前記第1部分画像または前記顔画像の何れか一方の抽出を失敗したときに前記ベクトルに基づいて他方の抽出を実行することを特徴とする撮影装置。
In the imaging device according to claim 3,
The imaging apparatus according to claim 1, wherein the extraction unit or the face extraction unit executes the extraction of the other based on the vector when the extraction of either the first partial image or the face image fails.
JP2005376462A 2005-12-27 2005-12-27 Imaging device Expired - Fee Related JP4670635B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005376462A JP4670635B2 (en) 2005-12-27 2005-12-27 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005376462A JP4670635B2 (en) 2005-12-27 2005-12-27 Imaging device

Publications (3)

Publication Number Publication Date
JP2007180850A true JP2007180850A (en) 2007-07-12
JP2007180850A5 JP2007180850A5 (en) 2009-02-26
JP4670635B2 JP4670635B2 (en) 2011-04-13

Family

ID=38305564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005376462A Expired - Fee Related JP4670635B2 (en) 2005-12-27 2005-12-27 Imaging device

Country Status (1)

Country Link
JP (1) JP4670635B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290519A (en) * 2008-05-29 2009-12-10 Canon Inc Camera
JP2009300920A (en) * 2008-06-17 2009-12-24 Samsung Digital Imaging Co Ltd Imaging apparatus and imaging method
JP2013157812A (en) * 2012-01-30 2013-08-15 Olympus Imaging Corp Image processing apparatus and image processing method
JP2013162329A (en) * 2012-02-06 2013-08-19 Sony Corp Image processing apparatus, image processing method, program, and recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187455A (en) * 1992-12-15 1994-07-08 Sharp Corp Face area extracting device for animation picture
JP2001162011A (en) * 1999-12-08 2001-06-19 Daikoku Denki Co Ltd Game management system
JP2004234689A (en) * 2004-04-05 2004-08-19 Konica Minolta Holdings Inc Face extracting method
JP2005086682A (en) * 2003-09-10 2005-03-31 Omron Corp Object decision device
JP2005092639A (en) * 2003-09-18 2005-04-07 Digital Fashion Ltd Image processing device, method and program and recording medium for recording this program
JP2005292972A (en) * 2004-03-31 2005-10-20 Advanced Telecommunication Research Institute International Object recognizing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187455A (en) * 1992-12-15 1994-07-08 Sharp Corp Face area extracting device for animation picture
JP2001162011A (en) * 1999-12-08 2001-06-19 Daikoku Denki Co Ltd Game management system
JP2005086682A (en) * 2003-09-10 2005-03-31 Omron Corp Object decision device
JP2005092639A (en) * 2003-09-18 2005-04-07 Digital Fashion Ltd Image processing device, method and program and recording medium for recording this program
JP2005292972A (en) * 2004-03-31 2005-10-20 Advanced Telecommunication Research Institute International Object recognizing device
JP2004234689A (en) * 2004-04-05 2004-08-19 Konica Minolta Holdings Inc Face extracting method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290519A (en) * 2008-05-29 2009-12-10 Canon Inc Camera
JP2009300920A (en) * 2008-06-17 2009-12-24 Samsung Digital Imaging Co Ltd Imaging apparatus and imaging method
KR101533275B1 (en) * 2008-06-17 2015-07-02 삼성전자주식회사 Photographing apparatus
JP2013157812A (en) * 2012-01-30 2013-08-15 Olympus Imaging Corp Image processing apparatus and image processing method
JP2013162329A (en) * 2012-02-06 2013-08-19 Sony Corp Image processing apparatus, image processing method, program, and recording medium
US20140247374A1 (en) 2012-02-06 2014-09-04 Sony Corporation Image processing apparatus, image processing method, program, and recording medium
US10225462B2 (en) 2012-02-06 2019-03-05 Sony Corporation Image processing to track face region of person

Also Published As

Publication number Publication date
JP4670635B2 (en) 2011-04-13

Similar Documents

Publication Publication Date Title
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP4998308B2 (en) Focus adjustment device and imaging device
JP4893334B2 (en) Image tracking device and imaging device
US8743209B2 (en) Image pickup apparatus and method for controlling the same
JP4670635B2 (en) Imaging device
JP2006195037A (en) Camera
JP2017139646A (en) Imaging apparatus
JP5073602B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP2024003084A (en) Photography equipment
JP2006301172A (en) Imaging apparatus and method for controling imaging apparatus
JP2009229927A (en) Autofocus adjustment device and imaging apparatus
JP2006301172A5 (en)
JP5359150B2 (en) Imaging device
JP2009284071A (en) Image analyzer, and imaging apparatus
JP4748023B2 (en) camera
JP6699679B2 (en) Imaging device
JP5245644B2 (en) Exposure calculator
JP2010028219A (en) Photographing apparatus
JP2010079201A (en) Focus detecting device, and image capturing apparatus
JP2008172368A (en) Imaging apparatus, control method thereof, program and storage medium
JP2005006217A (en) Digital single lens reflex camera
JP5321310B2 (en) Imaging device
JP2018166326A (en) Electronic apparatus
JP2008103809A (en) Photographing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110103

R150 Certificate of patent or registration of utility model

Ref document number: 4670635

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees