JP2008046354A - Object tracking device and camera - Google Patents

Object tracking device and camera Download PDF

Info

Publication number
JP2008046354A
JP2008046354A JP2006221811A JP2006221811A JP2008046354A JP 2008046354 A JP2008046354 A JP 2008046354A JP 2006221811 A JP2006221811 A JP 2006221811A JP 2006221811 A JP2006221811 A JP 2006221811A JP 2008046354 A JP2008046354 A JP 2008046354A
Authority
JP
Japan
Prior art keywords
tracking
subject
image
focus detection
tracking device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006221811A
Other languages
Japanese (ja)
Other versions
JP2008046354A5 (en
JP4720673B2 (en
Inventor
Keiko Muramatsu
慶子 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2006221811A priority Critical patent/JP4720673B2/en
Priority to US12/281,080 priority patent/US8253800B2/en
Priority to PCT/JP2007/061013 priority patent/WO2008001575A1/en
Publication of JP2008046354A publication Critical patent/JP2008046354A/en
Publication of JP2008046354A5 publication Critical patent/JP2008046354A5/ja
Application granted granted Critical
Publication of JP4720673B2 publication Critical patent/JP4720673B2/en
Priority to US13/547,053 priority patent/US9063290B2/en
Priority to US14/712,996 priority patent/US9639754B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object tracking device capable of improving tracking accuracy by distinguishing an object as a tracking object from background information. <P>SOLUTION: The object tracking device is provided with: an imaging means 19 which images an image of an object formed by an imaging optical system 21 and generates picture information; a focus detection means 35 which detects a focus control state of the imaging optical system 21 for the object; and a tracking means 33 which sets reference information for tracking a target of an object image based on the picture information and focus control state and tracks the target. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画面内を移動する被写体を自動的に追尾する被写体追尾装置およびカメラに関する。   The present invention relates to a subject tracking device and a camera that automatically track a subject moving within a screen.

背景技術と問題点Background art and problems

移動被写体を撮影する際に自動的に被写体を追尾して、焦点検出や露出演算を行うカメラが知られている。従来のカメラでは、被写体を追尾するための基準となる画像を記憶し、パターンマッチングにより相関の高い対象を追尾している(たとえば、特許文献1)。しかし、類似する画像情報が近傍にある場合などは、その影響を受け、追尾精度を確保できない。
特開2006−58431号公報
There is known a camera that automatically tracks a subject when shooting a moving subject and performs focus detection and exposure calculation. In a conventional camera, an image serving as a reference for tracking a subject is stored, and a highly correlated object is tracked by pattern matching (for example, Patent Document 1). However, when similar image information is in the vicinity, the tracking accuracy cannot be ensured due to the influence.
JP 2006-58431 A

請求項1の発明による被写体追尾装置は、結像光学系による被写体の像を撮像して画像情報を生成する撮像手段と、被写体に対する結像光学系の焦点調節状態を検出する焦点検出手段と、画像情報と焦点調節状態とに基づいて被写体像のうちの対象を追尾するための基準情報を設定し、対象を追尾する追尾手段とを備えることを特徴とする。
請求項2に記載の発明は、請求項1に記載の被写体追尾装置において、基準情報は、画像情報のうちの対象を含む画像の範囲であることを特徴とする。
請求項3に記載の発明は、請求項1または2に記載の被写体追尾装置において、追尾手段は、焦点調節状態の変化に応じて基準情報を更新することを特徴とする。
請求項4に記載の発明は、請求項3に記載の被写体追尾装置において、焦点調節状態に基づいて、対象がカメラへ接近するか遠ざかるかを判定する判定手段をさらに備え、追尾手段は、判定手段の判定結果に基づいて基準情報を変更することを特徴とする。
請求項5に記載の発明は、請求項1乃至4のいずれか一項に記載の被写体追尾装置において、記追尾手段は、画像情報のうちの色情報と輝度の少なくとも一方を用いて追尾を行なうことを特徴とする。
請求項6に記載の発明は、請求項1乃至5のいずれか一項に記載の被写体追尾装置において、追尾手段は、基準情報が有する色相値に基づいて、画像情報から対象の候補を選択することを特徴とする。
請求項7に記載の発明は、請求項6に記載の被写体追尾装置において、追尾手段は、選択された対象の候補の中から、焦点調節状態に基づいて対象を決定することを特徴とする。
請求項8の発明によるカメラは、請求項1乃至7のいずれか一項に記載の被写体追尾装置を備えることを特徴とする。
An object tracking device according to a first aspect of the present invention includes an imaging unit that captures an image of a subject by an imaging optical system to generate image information, a focus detection unit that detects a focus adjustment state of the imaging optical system with respect to the subject, Reference information for tracking a target in the subject image is set based on the image information and the focus adjustment state, and tracking means for tracking the target is provided.
According to a second aspect of the present invention, in the subject tracking device according to the first aspect, the reference information is a range of an image including a target in the image information.
According to a third aspect of the present invention, in the subject tracking device according to the first or second aspect, the tracking unit updates the reference information in accordance with a change in the focus adjustment state.
According to a fourth aspect of the present invention, in the subject tracking device according to the third aspect, the object tracking device further includes a determination unit that determines whether the target approaches or moves away from the camera based on the focus adjustment state. The reference information is changed based on the determination result of the means.
According to a fifth aspect of the present invention, in the subject tracking device according to any one of the first to fourth aspects, the recording and tracking unit performs tracking using at least one of color information and luminance in the image information. It is characterized by that.
According to a sixth aspect of the present invention, in the subject tracking device according to any one of the first to fifth aspects, the tracking unit selects a target candidate from the image information based on the hue value included in the reference information. It is characterized by that.
According to a seventh aspect of the present invention, in the subject tracking device according to the sixth aspect, the tracking means determines a target from the selected target candidates based on the focus adjustment state.
According to an eighth aspect of the present invention, a camera includes the subject tracking apparatus according to any one of the first to seventh aspects.

本発明によれば、画像情報と焦点調節状態とに基づいて基準画像を設定して対象を追尾するので、追尾精度を向上することができる。   According to the present invention, since the reference image is set based on the image information and the focus adjustment state and the target is tracked, the tracking accuracy can be improved.

以下、図面を参照しながら、被写体追尾装置を備える一眼レフデジタルカメラの一実施の形態を説明する。図1に、本発明のデジタルカメラの要部構成を示す。カメラ本体10には、撮影レンズ21を備えるレンズ鏡筒20が交換可能に装着されている。   Hereinafter, an embodiment of a single-lens reflex digital camera including a subject tracking device will be described with reference to the drawings. FIG. 1 shows a main configuration of a digital camera of the present invention. A lens barrel 20 including a photographic lens 21 is attached to the camera body 10 in a replaceable manner.

カメラ本体10の内部には、被写体を撮像するための第一の撮像素子12が設けられている。第一の撮像素子12としてCCDやCMOS等が使用される。撮影レンズ21と第一の撮像素子12との間には、撮影レンズ21を通過した被写体光をファインダ光学系へと反射するクイックリターンミラー11が配設されている。被写体光の一部はクイックリターンミラー11の半透過領域を透過し、サブミラー111にて下方に反射され、位相差式AFセンサモジュール112へ入射される。   Inside the camera body 10, a first image sensor 12 for imaging a subject is provided. A CCD, CMOS, or the like is used as the first image sensor 12. A quick return mirror 11 that reflects subject light that has passed through the photographing lens 21 to the finder optical system is disposed between the photographing lens 21 and the first image sensor 12. Part of the subject light passes through the semi-transmissive region of the quick return mirror 11, is reflected downward by the sub mirror 111, and enters the phase difference AF sensor module 112.

位相差式AFセンサモジュール112は、たとえば、焦点検出光束を一対の焦点検出用光像に分割して結像する焦点検出光学系と、分割された一対の光像が入射し、それに応じた焦点検出信号を出力する一対のCCDラインセンサとを備える。CCDラインセンサから出力される焦点検出信号は制御部30に入力され、後述するように、制御部30は、焦点調節レンズを合焦位置まで駆動させるレンズ駆動信号を出力する。   For example, the phase difference AF sensor module 112 divides a focus detection light beam into a pair of focus detection light images and a focus detection optical system that forms an image and a pair of split light images incident thereon and a focus corresponding thereto. And a pair of CCD line sensors that output detection signals. The focus detection signal output from the CCD line sensor is input to the control unit 30, and as will be described later, the control unit 30 outputs a lens drive signal for driving the focus adjustment lens to the in-focus position.

クイックリターンミラー11で反射された被写体光は、第一の撮像素子12と光学的に等価な位置に設けられた焦点板13上に結像する。焦点板13上に結像された被写体像は、ペンタプリズム14と接眼レンズ15を介して撮影者により観察されるとともに、ペンタプリズム14からプリズム17と結像レンズ18とを通過し、第二の撮像素子19の受光面上に結像する。なお、不図示のレリーズボタン全押しによって撮影動作が実行される場合は、クイックリターンミラー11が図の破線で示す位置に回動して、被写体光は第一の撮像素子12上に結像する。   The subject light reflected by the quick return mirror 11 forms an image on a focusing screen 13 provided at a position optically equivalent to the first image sensor 12. The subject image formed on the focusing screen 13 is observed by the photographer through the pentaprism 14 and the eyepiece lens 15 and passes through the prism 17 and the imaging lens 18 from the pentaprism 14. An image is formed on the light receiving surface of the image sensor 19. When a shooting operation is executed by fully pressing a release button (not shown), the quick return mirror 11 is rotated to a position indicated by a broken line in the drawing, and the subject light forms an image on the first image sensor 12. .

第二の撮像素子19は、図2(a)に示すように、マトリックス状に配列された複数(図示例では20×14)の画素191を備えている。各画素191は、図2(b)に示すように、さらに3つの細画素191a〜191cに分割されている。これら細画素191a〜191cのそれぞれに、R(赤)、G(緑)、B(青)の3原色フィルターが設けられることにより、被写体像のRGB出力が得られる。   As shown in FIG. 2A, the second image sensor 19 includes a plurality (20 × 14 in the illustrated example) of pixels 191 arranged in a matrix. Each pixel 191 is further divided into three fine pixels 191a to 191c as shown in FIG. Each of these fine pixels 191a to 191c is provided with three primary color filters of R (red), G (green), and B (blue), thereby obtaining an RGB output of the subject image.

第二の撮像素子19は、CCD制御部31により、撮像面に結像された被写体像に対応する信号電荷の蓄積および蓄積電荷の掃き出しを行う。A/D変換回路32は、第二の撮像素子19から出力されたアナログ撮像信号をデジタル画像信号に変換して、制御部30へ出力する。制御部30はCPU、ROM、RAMおよび各種周辺回路から構成されている。機能的には、第二の撮像素子19で取得された画像データに基づいて追尾対象の追尾を行う追尾制御部33と、焦点検出演算を行う焦点検出演算部35と、撮影レンズ21の駆動量を演算するレンズ駆動量演算部36と、後述の焦点検出領域40を表すAFエリアマークの点灯/消灯(点消灯)を行う表示部371の点消灯制御部37とを有する。表示部371は、焦点板13近傍に配置された液晶表示板22によってAFエリアマークを表示可能となっている。   The second image sensor 19 causes the CCD control unit 31 to accumulate signal charges corresponding to the subject image formed on the imaging surface and sweep out the accumulated charges. The A / D conversion circuit 32 converts the analog image signal output from the second image sensor 19 into a digital image signal and outputs the digital image signal to the control unit 30. The control unit 30 includes a CPU, ROM, RAM, and various peripheral circuits. Functionally, the tracking control unit 33 that tracks the tracking target based on the image data acquired by the second image sensor 19, the focus detection calculation unit 35 that performs focus detection calculation, and the driving amount of the photographing lens 21. A lens drive amount calculation unit 36, and an on / off control unit 37 of a display unit 371 for turning on / off (turning on / off) an AF area mark representing a focus detection area 40 described later. The display unit 371 can display the AF area mark by the liquid crystal display plate 22 disposed in the vicinity of the focusing screen 13.

焦点検出演算部35は、撮影者によるエリア選択操作部351の操作で選択された焦点検出領域40に対応する一対のCCDラインセンサから出力される焦点検出信号に基づいて、デフォーカス量などの焦点調節状態の演算を行う。   The focus detection calculation unit 35 is based on a focus detection signal output from a pair of CCD line sensors corresponding to the focus detection region 40 selected by the photographer's operation of the area selection operation unit 351. Calculate the adjustment state.

図3(a)に示すようにこの実施の形態のカメラでは、ファインダ視野などの画面41内に、たとえば11箇所の焦点検出領域40a〜40kが設定されている。この11箇所の焦点検出領域40a〜40kの1つ、たとえば図3(a)の焦点検出領域40eがエリア選択操作部351によって選択されると、焦点検出演算部35は選択された焦点検出領域40eに対する焦点調節状態(以下、便宜上、デフォーカス量と呼ぶ)の演算を行う。さらに、エリア選択操作部351は、11箇所の焦点検出領域40a〜40kの中のどの焦点検出領域が選択されたかを示す選択領域信号を追尾制御部33へ出力する。焦点検出演算部35で算出されたデフォーカス量はレンズ駆動量演算部36に出力される。レンズ駆動量演算部36では、入力したデフォーカス量に基づきレンズ駆動量を演算して、レンズ駆動モータ361に対してレンズ駆動信号を送出する。レンズ駆動モータ361は、レンズ駆動信号に応じて撮影レンズ21を光軸方向へ移動させて焦点調節を行う。さらに、焦点検出演算部35は、すべての焦点検出領域40a〜40kのデフォーカス量を演算し、焦点検出領域40eの近傍にあり、かつ選択された焦点検出領域40eのデフォーカス量との差が所定値以内の焦点検出領域40iを検出し、検出された焦点検出領域を示す近傍領域信号を追尾制御部33へ出力する。   As shown in FIG. 3A, in the camera of this embodiment, for example, eleven focus detection areas 40a to 40k are set in a screen 41 such as a viewfinder field. When one of the eleven focus detection regions 40a to 40k, for example, the focus detection region 40e in FIG. 3A is selected by the area selection operation unit 351, the focus detection calculation unit 35 selects the selected focus detection region 40e. Is calculated for the focus adjustment state (hereinafter referred to as defocus amount for convenience). Furthermore, the area selection operation unit 351 outputs a selection region signal indicating which focus detection region is selected from among the eleven focus detection regions 40a to 40k to the tracking control unit 33. The defocus amount calculated by the focus detection calculation unit 35 is output to the lens drive amount calculation unit 36. The lens drive amount calculation unit 36 calculates a lens drive amount based on the input defocus amount and sends a lens drive signal to the lens drive motor 361. The lens drive motor 361 performs focus adjustment by moving the photographic lens 21 in the optical axis direction according to the lens drive signal. Further, the focus detection calculation unit 35 calculates the defocus amounts of all the focus detection areas 40a to 40k, and there is a difference from the defocus amount of the selected focus detection area 40e that is in the vicinity of the focus detection area 40e. A focus detection area 40 i within a predetermined value is detected, and a neighborhood area signal indicating the detected focus detection area is output to the tracking control unit 33.

追尾制御部33では、入力された選択領域信号および近傍領域信号に基づいて、図3(b)に示すように、焦点検出領域40e、40iに対応する画素を含む範囲の画像データを同デフォーカス量範囲44として抽出する。また、第二の撮像素子19より取得した初期画像43a上において、焦点検出領域40eの位置に相当する色相と相関の高い画素のまとまりを同色相領域46(斜線部分)として抽出する。そして、同デフォーカス量範囲44と同色相領域46とが重なる範囲を含む所定範囲を追尾被写体領域47として設定し、追尾被写体領域47内の画像を追尾の基準となるテンプレート画像48とする。また、追尾被写体領域47を中心として上下左右に、たとえば3画素ずつ拡大した範囲を追尾検索領域49として設定する。   In the tracking control unit 33, based on the input selection region signal and the neighborhood region signal, as shown in FIG. 3B, the image data in a range including pixels corresponding to the focus detection regions 40e and 40i is defocused. Extracted as a quantity range 44. Further, on the initial image 43a acquired from the second image sensor 19, a group of pixels having a high correlation with the hue corresponding to the position of the focus detection area 40e is extracted as the same hue area 46 (hatched portion). A predetermined range including a range where the same defocus amount range 44 and the same hue region 46 overlap is set as a tracking subject region 47, and an image in the tracking subject region 47 is set as a template image 48 serving as a tracking reference. Further, a range enlarged by, for example, 3 pixels is set as the tracking search area 49 in the vertical and horizontal directions with the tracking subject area 47 as the center.

そして、第二の撮像素子19にて時系列的に取得した画像において、追尾探索領域49の領域内で、テンプレート画像48と同じ大きさの切出し領域を作成する。この切出し領域のR(赤)、G(緑)、B(青)各色と、テンプレート画像48のR(赤)、G(緑)、B(青)各色との差分を計算し、この差分により被写体追尾を行う。   Then, in the image acquired in time series by the second image sensor 19, a cutout area having the same size as the template image 48 is created within the tracking search area 49. The difference between the R (red), G (green), and B (blue) colors of the cutout area and the R (red), G (green), and B (blue) colors of the template image 48 is calculated. Perform subject tracking.

図3、4を用いて、被写体追尾方法について詳細に説明する。ここで、撮影者がエリア選択操作部351を操作して、図3(a)に示すように焦点検出領域40eを選択したものとする。これに応じて、焦点検出演算部35は、近傍領域信号を追尾制御部33へ出力する。近傍領域信号とは、焦点検出領域40eの近傍にあり、かつデフォーカス量が焦点検出領域40eとほぼ同一である焦点検出領域の位置を示す信号である。なお、図3(a)の場合は、近傍領域信号で示される領域は、焦点検出領域40iである。   The subject tracking method will be described in detail with reference to FIGS. Here, it is assumed that the photographer operates the area selection operation unit 351 to select the focus detection area 40e as shown in FIG. In response to this, the focus detection calculation unit 35 outputs the neighborhood region signal to the tracking control unit 33. The near region signal is a signal indicating the position of the focus detection region that is in the vicinity of the focus detection region 40e and has the same defocus amount as the focus detection region 40e. In the case of FIG. 3A, the region indicated by the neighborhood region signal is the focus detection region 40i.

追尾制御部33は、選択領域信号と近傍領域信号とに基づいて、焦点検出領域40eおよび40iに対応する画像領域を、図3(b)に示すように、同デフォーカス量範囲44として設定する。さらに、焦点検出領域40eに対応する画像領域内の色相、すなわちR/G、およびB/Gを被写体色相値として設定し、記憶部38に記憶する。その後、撮影画像全体において被写体色相値とほぼ同じ色相を有する同色相領域46を検出する。追尾制御部33は、上述した同デフォーカス量範囲44と同色相領域46の重なる部分を含む所定範囲、たとえば3×3画素を、図3(c)に示すように、追尾被写体領域47として設定する。追尾被写体領域47内の画像はテンプレート画像48aとして記憶部38に記憶される。さらに、追尾被写体領域47の外側の上下左右に、たとえば3画素ずつ拡大した範囲で被写体探索領域49を新たに設定する。   The tracking control unit 33 sets the image area corresponding to the focus detection areas 40e and 40i as the defocus amount range 44 based on the selection area signal and the vicinity area signal, as shown in FIG. . Furthermore, the hues in the image area corresponding to the focus detection area 40e, that is, R / G and B / G are set as subject hue values and stored in the storage unit 38. Thereafter, the same hue region 46 having substantially the same hue as the subject hue value in the entire captured image is detected. The tracking control unit 33 sets a predetermined range including, for example, 3 × 3 pixels including the overlapping portion of the same defocus amount range 44 and the same hue region 46 as the tracking subject region 47 as shown in FIG. To do. The image in the tracking subject area 47 is stored in the storage unit 38 as a template image 48a. Furthermore, a subject search area 49 is newly set on the upper, lower, left, and right outside the tracking subject area 47, for example, in a range enlarged by 3 pixels.

図4(a)は、初期画像43aに続いて第二の撮像素子19から時系列的に取得された次画像43bを示す図である。追尾制御部33は、被写体探索領域49の範囲内で、記憶部38に記憶した被写体色相値との差が所定範囲内の色相を有する画素(図4(a)の斜線部分)を検出して、これらの検出された画素の位置に対応する焦点検出領域を表す信号を焦点検出演算部35へ出力する。焦点検出演算部35は、入力された焦点検出領域、すなわち図4(a)における焦点検出領域40a、40dおよび40eに対して、デフォーカス量の演算を行う。この演算結果に基づいて、焦点検出演算部35は、焦点検出領域40a、40d、40eのデフォーカス量の差が所定値以下であるか、すなわち3つの焦点検出領域が捕捉する対象が同一であるか否かを判定する。なお、図4(a)においては、焦点検出領域40aと40eが捕捉する対象が同一の対象である。さらに焦点検出演算部35は、初期画像43aおよび次画像43bにおける焦点検出領域40eのデフォーカス量の変化に基づいて、追尾対象がカメラ本体10に対して光軸方向に接近しているか遠ざかっているかの判定を行い、これらの判定結果を追尾制御部33へ出力する。   FIG. 4A is a diagram showing the next image 43b acquired in time series from the second image sensor 19 following the initial image 43a. The tracking control unit 33 detects pixels within the range of the subject search area 49 that have hues within the predetermined range that are different from the subject hue values stored in the storage unit 38 (shaded portions in FIG. 4A). Then, a signal representing a focus detection area corresponding to the detected pixel position is output to the focus detection calculation unit 35. The focus detection calculation unit 35 calculates the defocus amount for the input focus detection region, that is, the focus detection regions 40a, 40d, and 40e in FIG. Based on the calculation result, the focus detection calculation unit 35 determines that the difference between the defocus amounts of the focus detection areas 40a, 40d, and 40e is equal to or less than a predetermined value, that is, the targets to be captured by the three focus detection areas are the same. It is determined whether or not. In FIG. 4A, the targets captured by the focus detection areas 40a and 40e are the same target. Further, the focus detection calculation unit 35 determines whether the tracking target is approaching or moving away from the camera body 10 in the optical axis direction based on the change in the defocus amount of the focus detection area 40e in the initial image 43a and the next image 43b. These determination results are output to the tracking control unit 33.

追尾制御部33は、入力された判定結果に基づいて、画像上において追尾対象の画像上での大きさに変化が生じているか否かを判定する。たとえば、焦点検出領域40aおよび40eにおけるデフォーカス量に基づいて、追尾対象のカメラへの接近が判定されると、追尾対象とするテンプレート画像の大きさを拡大する。また、追尾対象がカメラから遠ざかると判定されていると、追尾対象とするテンプレート画像の大きさを縮小する。追尾対象がカメラへ接近しているとも遠ざかるとも判定されなければ、追尾対象とするテンプレート画像の大きさを変えない。追尾対象が拡大もしくは縮小している場合は、記憶部38に記憶したテンプレート画像48aを、たとえば各画素のRGB値を直線補間して、同一のデフォーカス量を有する焦点検出領域40aおよび40eを含み、かつ、その他の焦点検出領域と重ならないように拡大もしくは縮小してテンプレート画像48bを作成し、記憶部38へ記憶する。   The tracking control unit 33 determines whether or not there is a change in the size of the tracking target image on the image based on the input determination result. For example, when the approach to the tracking target camera is determined based on the defocus amounts in the focus detection areas 40a and 40e, the size of the template image to be tracked is enlarged. If it is determined that the tracking target is away from the camera, the size of the template image to be tracked is reduced. If it is not determined that the tracking target is approaching or moving away from the camera, the size of the template image to be tracked is not changed. When the tracking target is enlarged or reduced, the template image 48a stored in the storage unit 38 includes, for example, focus detection areas 40a and 40e having the same defocus amount by linear interpolation of the RGB values of each pixel. In addition, the template image 48b is created by enlarging or reducing so as not to overlap with other focus detection areas, and is stored in the storage unit 38.

図4(a)に示す次画像43bにおいて、対象の接近が判定されている場合は、3×3画素のテンプレート画像48aは、図4(b)に示すように、4×4画素のテンプレート画像48bに拡大される。なお、追尾対象に変化がない場合は、テンプレート画像48aのサイズも変更しない。   In the next image 43b shown in FIG. 4A, when the approach of the object is determined, the 3 × 3 pixel template image 48a is converted into a 4 × 4 pixel template image as shown in FIG. 4B. It is enlarged to 48b. If there is no change in the tracking target, the size of the template image 48a is not changed.

テンプレート画像が確定した後、追尾制御部33は、被写体色相値とほぼ同一の色相を有する画素(図4(a)の斜線部)を追尾探索画素群50として設定する。追尾制御部33は、図4(a)の斜線部で示される画素のそれぞれを中心とした、テンプレート画像48bと同一サイズである4×4画素の切出し領域のそれぞれと、テンプレート画像48bとの間で各画素のR、G、Bの差分を計算する。計算の結果、差分が最小となる切出し領域が、図4(c)に示すように、4×4画素の新たな追尾被写体領域47bとして設定される。   After the template image is determined, the tracking control unit 33 sets the pixels having the same hue as the subject hue value (the hatched portion in FIG. 4A) as the tracking search pixel group 50. The tracking control unit 33 is arranged between the template image 48b and each 4 × 4 pixel cut-out area having the same size as the template image 48b, centering on each of the pixels indicated by the hatched portion in FIG. To calculate the difference between R, G, and B of each pixel. As a result of the calculation, the cut-out area with the smallest difference is set as a new tracking subject area 47b of 4 × 4 pixels, as shown in FIG. 4C.

追尾制御部33は、追尾被写体領域47bの中央位置の座標を焦点検出演算部35へ出力する。焦点検出演算部35は、入力した追尾被写体領域47bの座標に基づき、図4(d)に示すように、追尾被写体領域47bの中心に最も近い焦点検出領域40eが追尾対象を捕捉する焦点検出領域であるとみなし、焦点検出領域40eに対応するAFセンサモジュール112の一対のCCDラインセンサから出力される焦点検出信号を用いて焦点調節状態を演算する。焦点検出演算部35は、焦点検出領域40eを示す選択領域信号を追尾制御部33を介して点消灯制御部37へ出力する。これにより、表示部371は、焦点検出領域40eのAFエリアマークを点灯する。   The tracking control unit 33 outputs the coordinates of the center position of the tracking subject area 47 b to the focus detection calculation unit 35. Based on the coordinates of the input tracking subject region 47b, the focus detection calculation unit 35, as shown in FIG. 4 (d), the focus detection region 40e closest to the center of the tracking subject region 47b captures the tracking target. The focus adjustment state is calculated using the focus detection signals output from the pair of CCD line sensors of the AF sensor module 112 corresponding to the focus detection area 40e. The focus detection calculation unit 35 outputs a selection region signal indicating the focus detection region 40 e to the lighting on / off control unit 37 via the tracking control unit 33. Thereby, the display unit 371 lights the AF area mark of the focus detection area 40e.

なお、複数の焦点検出領域40が追尾被写体領域47bの中心から等距離に位置している場合には、それ以前に取得した時系列的な画像における被写体の移動方向、すなわち、移動履歴に基づいて、被写体の移動が予測される方向に位置する焦点検出領域を選択する。   When the plurality of focus detection areas 40 are located at the same distance from the center of the tracking subject area 47b, the movement direction of the subject in the time-series image acquired before that, that is, based on the movement history. Then, the focus detection area located in the direction in which the movement of the subject is predicted is selected.

上述したように新たな追尾被写体領域47bが設定された後、追尾制御部33はテンプレート画像48の更新を行なう。対象画像の大きさの変化に応じてテンプレート画像48が拡大または縮小されている場合は、追尾制御部33は、サイズが変更されたテンプレート画像48bにおけるR、G、Bの各色の色情報と追尾被写体領域47bにおけるR、G、Bの各色の色情報とを合成する。そして、追尾制御部33は、更新したテンプレート画像を記憶部38に記憶する。テンプレート画像48のサイズが変更されていない場合は、追尾制御部33は、テンプレート画像48aにおけるR、G、Bの各色の色情報と、新たな追尾被写体領域47bにおけるR、G、Bの各色の色情報とを合成する。そして、追尾制御部33は、更新したテンプレート画像48を記憶部38に記憶する。   After the new tracking subject region 47b is set as described above, the tracking control unit 33 updates the template image 48. When the template image 48 is enlarged or reduced in accordance with the change in the size of the target image, the tracking control unit 33 tracks the color information of each color of R, G, and B in the template image 48b whose size has been changed and the tracking. The R, G, and B color information in the subject area 47b is combined. The tracking control unit 33 stores the updated template image in the storage unit 38. When the size of the template image 48 has not been changed, the tracking control unit 33 sets the color information of each color of R, G, B in the template image 48a and the color of each color of R, G, B in the new tracking subject region 47b. Combine with color information. Then, the tracking control unit 33 stores the updated template image 48 in the storage unit 38.

以下で、図5に示すフローチャートを用いて、被写体追尾制御動作の各処理について説明する。なお、このフローチャートに示す各処理は、制御部30によりプログラムを実行して行われる。また、このフローチャートは不図示のレリーズスイッチの半押し操作により開始される。
ステップS1では、撮影者により設定された焦点検出領域に対して焦点検出演算部35で演算された焦点検出演算結果に基づいて、撮影レンズ21を駆動して焦点調節を行い、ステップS2へ進む。ステップS2では、第二の撮像素子19からの画像を取得してステップS3へ進む。
Hereinafter, each process of the subject tracking control operation will be described using the flowchart shown in FIG. Each process shown in this flowchart is performed by executing a program by the control unit 30. This flowchart is started by half-depressing a release switch (not shown).
In step S1, based on the focus detection calculation result calculated by the focus detection calculation unit 35 for the focus detection area set by the photographer, the photographing lens 21 is driven to adjust the focus, and the process proceeds to step S2. In step S2, an image from the second image sensor 19 is acquired, and the process proceeds to step S3.

ステップS3において、焦点検出演算部35により、各焦点検出領域40a〜40kに対するデフォーカス量を演算してステップS4へ進む。ステップS4において、ステップS3におけるデフォーカス量の演算結果に基づいて同デフォーカス量範囲44を決定してステップS5へ進む。ステップS5において、選択された焦点検出領域40に対応する画像の色相を被写体色相値として設定し、被写体色相値を記憶部38に記憶してステップS6へ進む。   In step S3, the focus detection calculation unit 35 calculates the defocus amount for each of the focus detection areas 40a to 40k, and the process proceeds to step S4. In step S4, the same defocus amount range 44 is determined based on the defocus amount calculation result in step S3, and the process proceeds to step S5. In step S5, the hue of the image corresponding to the selected focus detection area 40 is set as the subject hue value, the subject hue value is stored in the storage unit 38, and the process proceeds to step S6.

ステップS6では、初期画像上において、記憶した被写体色相値とほぼ同一の色相を有する同色相領域46を検出して、ステップS7へ進む。ステップS7においては、同デフォーカス量範囲44と同色相領域46とに基づいて追尾被写体領域47を設定し、ステップS8へ進む。ステップS8において、ステップS7で設定した追尾被写体領域47内の画像をテンプレート画像48として記憶部38に記憶して、ステップS9へ進む。   In step S6, the same hue area 46 having a hue substantially the same as the stored subject hue value is detected on the initial image, and the process proceeds to step S7. In step S7, a tracking subject region 47 is set based on the same defocus amount range 44 and the same hue region 46, and the process proceeds to step S8. In step S8, the image in the tracking subject area 47 set in step S7 is stored in the storage unit 38 as the template image 48, and the process proceeds to step S9.

ステップS9においては、ステップS7で設定した追尾被写体領域47に基づいて、前述のようにして被写体探索領域49を設定し、ステップS10へ進む。ステップS10では、撮影者により不図示のレリーズスイッチが全押しされたか否かを判定する。ステップS10が肯定された場合、すなわち、ステップS10において、レリーズスイッチが全押しされたと判定された場合は、ステップS16へ進む。ステップS10が否定された場合、すなわち、ステップS10において、レリーズスイッチが全押しされていないと判定された場合は、ステップS11へ進む。   In step S9, the subject search area 49 is set as described above based on the tracking subject area 47 set in step S7, and the process proceeds to step S10. In step S10, it is determined whether or not a release switch (not shown) has been fully pressed by the photographer. If step S10 is positive, that is, if it is determined in step S10 that the release switch has been fully pressed, the process proceeds to step S16. If step S10 is negative, that is, if it is determined in step S10 that the release switch is not fully pressed, the process proceeds to step S11.

ステップS11では、第二の撮像素子19から次画像(新たな画像)を取得し、ステップS12へ進む。ステップS12においては、後述する更新サブルーチンによって、テンプレート画像48の更新と追尾対象を探索する画素を決定する。サブルーチンにおける各処理の後、ステップS13へ進む。ステップS13においては、被写体探索画素群50の各画素を中心とした切出し領域のそれぞれについて、テンプレート画像48(図4の例では、48aまたは48b)との差分を演算してステップS14へ進む。   In step S11, the next image (new image) is acquired from the second image sensor 19, and the process proceeds to step S12. In step S12, the update of the template image 48 and the pixel to be searched for the tracking target are determined by an update subroutine described later. After each process in the subroutine, the process proceeds to step S13. In step S13, the difference from the template image 48 (48a or 48b in the example of FIG. 4) is calculated for each of the cutout regions centered on each pixel of the subject search pixel group 50, and the process proceeds to step S14.

ステップS14において、ステップS13における演算結果に基づいて、差分値が最小となる切出し領域を新たな追尾被写体領域47bとして決定してステップS15へ進む。ステップS15において、前述のようにテンプレート画像48を新たなテンプレート画像48に更新し、記憶部38に記憶してステップS16へ進む。ステップS16では、ステップS14で特定した追尾被写体領域47bの中央に最も近い焦点検出領域を示す選択領域信号を焦点検出演算部35へ出力し、この焦点検出領域に対するデフォーカス量の演算を行うとともに、表示部371によりこの焦点検出領域に対応するAFエリアマークを点灯して、ステップS10へ戻る。ステップS10においてレリーズスイッチが全押しされたと判定すると、ステップS17へ進んで、撮影動作を行い一連の処理を終了する。   In step S14, based on the calculation result in step S13, the cut-out area having the smallest difference value is determined as a new tracking subject area 47b, and the process proceeds to step S15. In step S15, the template image 48 is updated to a new template image 48 as described above, stored in the storage unit 38, and the process proceeds to step S16. In step S16, a selection area signal indicating the focus detection area closest to the center of the tracking subject area 47b specified in step S14 is output to the focus detection calculation unit 35, and the defocus amount for this focus detection area is calculated. The display unit 371 lights up the AF area mark corresponding to the focus detection area, and the process returns to step S10. If it is determined in step S10 that the release switch has been fully pressed, the process proceeds to step S17, where the photographing operation is performed and the series of processes is terminated.

図5のステップS12の更新サブルーチンについて、図6に示すフローチャートを用いて説明する。
ステップS101において、被写体探索領域49内において、被写体の色相値に近い色相を有する画素を検出して、ステップS102へ進む。ステップS102において、ステップS101で検出された画素位置に対応する焦点検出領域を示す信号を焦点検出演算部35へ出力し、この焦点検出領域に対するデフォーカス量の演算を行いステップS103へ進む。
The update subroutine of step S12 in FIG. 5 will be described using the flowchart shown in FIG.
In step S101, a pixel having a hue close to the hue value of the subject is detected in the subject search area 49, and the process proceeds to step S102. In step S102, a signal indicating the focus detection area corresponding to the pixel position detected in step S101 is output to the focus detection calculation unit 35, the defocus amount for this focus detection area is calculated, and the process proceeds to step S103.

ステップS103においては、ステップS102における演算結果に基づいて、被写体の色相値に近い色相を有する画素に対応する焦点検出領域が複数ある場合でも、これらの焦点検出領域が同一被写体を捕捉しているか否かを判定してステップS104へ進む。ステップS104において、ステップS102における演算結果に基づいて、追尾対象がカメラ本体10の光軸方向に対して接近しているか、もしくは遠ざかっているか否かの判定を行い、ステップS105へ進む。   In step S103, based on the calculation result in step S102, even when there are a plurality of focus detection areas corresponding to pixels having a hue close to the hue value of the subject, whether or not these focus detection areas capture the same subject. And the process proceeds to step S104. In step S104, it is determined whether the tracking target is approaching or moving away from the optical axis direction of the camera body 10 based on the calculation result in step S102, and the process proceeds to step S105.

ステップS105においては、ステップS103およびステップS104における判定結果に基づいて、テンプレート画像48のサイズ変更が必要であるか否かを判定する。テンプレート画像48のサイズ変更が必要な場合は、ステップS105が肯定判定されてステップS106へ進む。テンプレート画像48のサイズ変更が不要な場合は、ステップS105が否定判定されてステップS106をスキップしてステップS107へ進む。   In step S105, it is determined whether or not the template image 48 needs to be resized based on the determination results in steps S103 and S104. If it is necessary to change the size of the template image 48, an affirmative determination is made in step S105 and the process proceeds to step S106. If it is not necessary to change the size of the template image 48, a negative determination is made in step S105, and step S106 is skipped and the process proceeds to step S107.

ステップS106においては、前述した方法によりテンプレート画像48の拡大または縮小を行い、ステップS107へ進む。ステップS107では、ステップS101において検出された、被写体色相値に近い色相を有する画素を追尾探索画素群50として設定する。ステップS107における設定が終了すると、更新サブルーチンを抜けてメインルーチンへ戻る。   In step S106, the template image 48 is enlarged or reduced by the method described above, and the process proceeds to step S107. In step S107, pixels having a hue close to the subject hue value detected in step S101 are set as the tracking search pixel group 50. When the setting in step S107 is completed, the process exits the update subroutine and returns to the main routine.

以上で説明した実施の形態によるデジタルカメラによれば、以下の作用効果が得られる。
(1)第二の撮像素子19により取得された色情報(画像情報)と、焦点検出演算部35で検出された焦点調節状態とに基づいて、追尾対象を含む画像の範囲から得られる基準情報、すなわちテンプレート画像48を設定して追尾対象を追尾するようにした。したがって、追尾対象とは異なる背景情報による影響を除いてテンプレート画像48を設定することができるので、追尾精度が向上する。
According to the digital camera according to the embodiment described above, the following operational effects can be obtained.
(1) Reference information obtained from the range of the image including the tracking target based on the color information (image information) acquired by the second image sensor 19 and the focus adjustment state detected by the focus detection calculation unit 35. That is, the template image 48 is set to track the tracking target. Therefore, since the template image 48 can be set without the influence of background information different from the tracking target, tracking accuracy is improved.

(2)追尾対象に対する焦点調節状態の変化に応じて、テンプレート画像48を更新するようにした。すなわち、追尾対象がカメラ本体10へ接近していると判定された場合はテンプレート画像48を拡大し、遠ざかっていると判定された場合はテンプレート画像48を縮小して、テンプレート画像48を変更する。したがって、追尾対象がカメラへ接近するか、もしくは遠ざかるかによって画面上で変化する追尾対象の大きさ応じてテンプレート画像48を変更するので、背景情報による影響を取り除き、追尾精度を向上させることができる。 (2) The template image 48 is updated according to the change in the focus adjustment state with respect to the tracking target. That is, when it is determined that the tracking target is approaching the camera body 10, the template image 48 is enlarged, and when it is determined that the tracking target is moving away, the template image 48 is reduced and the template image 48 is changed. Therefore, since the template image 48 is changed according to the size of the tracking target that changes on the screen depending on whether the tracking target approaches or moves away from the camera, the influence of the background information can be removed and the tracking accuracy can be improved. .

(3)第二の撮像素子19により取得された画像上において、同色相領域46と同デフォーカス量範囲44とに基づいて追尾被写体領域47を設定するようにした。同色相領域46は、選択された焦点検出領域に対応する所定範囲における色相と相関の高い色相を含む領域であり、同デフォーカス量範囲44は、選択した焦点検出領域のデフォーカス量とほぼ同一のデフォーカス量を有する焦点検出領域を包含する領域である。すなわち、色相値に基づいて追尾対象の候補となる被写体を選択して、選択された追尾対象の候補の中から焦点調節状態とに基づいて追尾対象を決定するようにした。したがって、追尾対象とは異なる背景情報による影響を受けず、追尾演算を行なうことができるので、追尾演算の信頼性を維持することができる。 (3) The tracking subject region 47 is set on the image acquired by the second image sensor 19 based on the same hue region 46 and the same defocus amount range 44. The same hue area 46 is an area including a hue highly correlated with the hue in a predetermined range corresponding to the selected focus detection area, and the same defocus amount range 44 is substantially the same as the defocus amount of the selected focus detection area. This is a region including a focus detection region having a defocus amount of. That is, a subject to be a tracking target candidate is selected based on the hue value, and the tracking target is determined based on the focus adjustment state from the selected tracking target candidates. Therefore, since the tracking calculation can be performed without being influenced by background information different from the tracking target, the reliability of the tracking calculation can be maintained.

以上で説明した実施の形態を以下のように変形することができる。
(1)第二の撮像素子19により取得された追尾対象の色相に基づいて、テンプレート画像48を設定する際の基準となる被写体色相値や同色相領域46などを決定したが、色相に代えて、輝度を用いてもよい。
The embodiment described above can be modified as follows.
(1) Based on the hue of the tracking target acquired by the second image sensor 19, the subject hue value, the same hue region 46, and the like used as a reference when setting the template image 48 are determined. The brightness may be used.

(2)撮影者の操作により追尾対象となる被写体を指定するものに代えて、被写体を認識する機能を備えるカメラであれば、被写体の認識結果に基づいて追尾対象となる被写体を設定して上述の追尾処理を開始するようにしてもよい。 (2) In the case of a camera having a function of recognizing a subject instead of specifying a subject to be tracked by a photographer's operation, the subject to be tracked is set based on the recognition result of the subject. The tracking process may be started.

(3)テンプレート画像48のR、G、Bの各色の色情報と追尾被写体領域47bのR、G、Bの各色の色情報とを合成して新たなテンプレート画像48として更新するものとして説明したが、追尾被写体領域47bを新たなテンプレート画像として置き直してもよい。 (3) It has been described that the color information of each color of R, G, B of the template image 48 and the color information of each color of R, G, B of the tracking subject region 47b are combined and updated as a new template image 48. However, the tracking subject area 47b may be replaced as a new template image.

(4)撮影レンズが交換可能な一眼レフデジタルカメラとして説明したが、本発明はこれに限定されるものではなく、レンズ一体型カメラやビデオカメラに適用してもよい。 (4) Although described as a single-lens reflex digital camera with an interchangeable photographic lens, the present invention is not limited to this and may be applied to a lens-integrated camera or a video camera.

また、本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   In addition, the present invention is not limited to the above-described embodiment as long as the characteristics of the present invention are not impaired, and other forms conceivable within the scope of the technical idea of the present invention are also within the scope of the present invention. included.

本発明の実施の形態におけるデジタルカメラの要部構成を説明する図である。It is a figure explaining the principal part structure of the digital camera in embodiment of this invention. 撮像素子の画素構成を説明する図である。It is a figure explaining the pixel composition of an image sensor. 実施の形態における被写体追尾制御に用いる各種領域を概念的に説明する図である。It is a figure which illustrates notionally various fields used for subject tracking control in an embodiment. 実施の形態における追尾方法を説明する図である。It is a figure explaining the tracking method in embodiment. 実施の形態における被写体追尾処理の動作を説明するフローチャートである。6 is a flowchart illustrating an operation of subject tracking processing in the embodiment. 被写体追尾処理における追尾対象の位置およびサイズを決定するサブルーチンを説明するフローチャートである。It is a flowchart explaining the subroutine which determines the position and size of a tracking object in a subject tracking process.

符号の説明Explanation of symbols

19 第二の撮像素子 33 被写体追尾制御部
35 焦点検出演算部 40 焦点検出領域
44 同デフォーカス量範囲 46 同色相領域
47 追尾被写体領域 48 テンプレート画像
49 被写体探索領域 50 被写体探索画素群
19 Second image sensor 33 Subject tracking control unit 35 Focus detection calculation unit 40 Focus detection area 44 Same defocus amount range 46 Same hue area 47 Tracking subject area 48 Template image 49 Subject search area 50 Subject search pixel group

Claims (8)

結像光学系による被写体の像を撮像して画像情報を生成する撮像手段と、
前記被写体に対する前記結像光学系の焦点調節状態を検出する焦点検出手段と、
前記画像情報と前記焦点調節状態とに基づいて前記被写体像のうちの対象を追尾するための基準情報を設定し、前記対象を追尾する追尾手段とを備えることを特徴とする被写体追尾装置。
Imaging means for capturing an image of a subject by an imaging optical system and generating image information;
Focus detection means for detecting a focus adjustment state of the imaging optical system with respect to the subject;
A subject tracking apparatus comprising: tracking means for setting reference information for tracking a target in the subject image based on the image information and the focus adjustment state, and tracking the target.
請求項1に記載の被写体追尾装置において、
前記基準情報は、前記画像情報のうちの前記対象を含む画像の範囲であることを特徴とする被写体追尾装置。
The subject tracking device according to claim 1,
The subject tracking device, wherein the reference information is a range of an image including the target in the image information.
請求項1または2に記載の被写体追尾装置において、
前記追尾手段は、前記焦点調節状態の変化に応じて前記基準情報を更新することを特徴とする被写体追尾装置。
The subject tracking device according to claim 1 or 2,
The subject tracking device, wherein the tracking means updates the reference information according to a change in the focus adjustment state.
請求項3に記載の被写体追尾装置において、
前記焦点調節状態に基づいて、前記対象がカメラへ接近するか遠ざかるかを判定する判定手段をさらに備え、
前記追尾手段は、前記判定手段の判定結果に基づいて前記基準情報を変更することを特徴とする被写体追尾装置。
The subject tracking device according to claim 3,
Determination means for determining whether the object approaches or moves away from the camera based on the focus adjustment state;
The subject tracking device, wherein the tracking unit changes the reference information based on a determination result of the determination unit.
請求項1乃至4のいずれか一項に記載の被写体追尾装置において、
前記追尾手段は、前記画像情報のうちの色情報と輝度の少なくとも一方を用いて追尾を行なうことを特徴とする被写体追尾装置。
The subject tracking device according to any one of claims 1 to 4,
The subject tracking device, wherein the tracking means performs tracking using at least one of color information and luminance of the image information.
請求項1乃至5のいずれか一項に記載の被写体追尾装置において、
前記追尾手段は、前記基準情報が有する色相値に基づいて、前記画像情報から前記対象の候補を選択することを特徴とする被写体追尾装置。
In the subject tracking device according to any one of claims 1 to 5,
The subject tracking apparatus, wherein the tracking unit selects the target candidate from the image information based on a hue value included in the reference information.
請求項6に記載の被写体追尾装置において、
前記追尾手段は、前記選択された対象の候補の中から、前記焦点調節状態に基づいて前記対象を決定することを特徴とする被写体追尾装置。
The subject tracking device according to claim 6,
The tracking apparatus according to claim 1, wherein the tracking unit determines the target based on the focus adjustment state from the selected target candidates.
請求項1乃至7のいずれか一項に記載の被写体追尾装置を備えることを特徴とするカメラ。   A camera comprising the subject tracking device according to any one of claims 1 to 7.
JP2006221811A 2006-06-28 2006-08-16 Subject tracking device and camera Active JP4720673B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006221811A JP4720673B2 (en) 2006-08-16 2006-08-16 Subject tracking device and camera
US12/281,080 US8253800B2 (en) 2006-06-28 2007-05-30 Tracking device, automatic focusing device, and camera
PCT/JP2007/061013 WO2008001575A1 (en) 2006-06-28 2007-05-30 Tracking device, automatic focusing device, and camera
US13/547,053 US9063290B2 (en) 2006-06-28 2012-07-12 Subject tracking apparatus, camera having the subject tracking apparatus, and method for tracking subject
US14/712,996 US9639754B2 (en) 2006-06-28 2015-05-15 Subject tracking apparatus, camera having the subject tracking apparatus, and method for tracking subject

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006221811A JP4720673B2 (en) 2006-08-16 2006-08-16 Subject tracking device and camera

Publications (3)

Publication Number Publication Date
JP2008046354A true JP2008046354A (en) 2008-02-28
JP2008046354A5 JP2008046354A5 (en) 2010-04-02
JP4720673B2 JP4720673B2 (en) 2011-07-13

Family

ID=39180151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006221811A Active JP4720673B2 (en) 2006-06-28 2006-08-16 Subject tracking device and camera

Country Status (1)

Country Link
JP (1) JP4720673B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265239A (en) * 2008-04-23 2009-11-12 Nikon Corp Focus detecting apparatus, focus detection method, and camera
JP2010008506A (en) * 2008-06-24 2010-01-14 Olympus Imaging Corp Camera
JP2010016762A (en) * 2008-07-07 2010-01-21 Nikon Corp Camera
JP2010039284A (en) * 2008-08-06 2010-02-18 Canon Inc Image pick-up apparatus and control method therefor
JP2010200270A (en) * 2009-02-27 2010-09-09 Nikon Corp Image processing device, camera, and program
JP2010206275A (en) * 2009-02-27 2010-09-16 Nikon Corp Electronic camera
JP2011059415A (en) * 2009-09-10 2011-03-24 Canon Inc Image pickup apparatus and range-finding method
JP2011114646A (en) * 2009-11-27 2011-06-09 Nikon Corp Tracking device, focusing device, and imaging apparatus
JP2013047833A (en) * 2009-02-18 2013-03-07 Panasonic Corp Imaging device
WO2018096816A1 (en) * 2016-11-28 2018-05-31 オリンパス株式会社 Focus adjustment device, control method for focus adjustment device, and storage medium on which focus adjustment program is recorded
JP2018182477A (en) * 2017-04-10 2018-11-15 キヤノン株式会社 Information processing apparatus, information processing method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10547774B2 (en) 2013-01-09 2020-01-28 Sony Corporation Image processing device, image processing method, and program
JP6819323B2 (en) * 2017-01-31 2021-01-27 株式会社Ihi Thermal cycle equipment

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61123368A (en) * 1984-11-20 1986-06-11 Canon Inc Camera
JPH07110429A (en) * 1993-10-08 1995-04-25 Nikon Corp Camera provided with object tracking function
JPH09243904A (en) * 1996-03-05 1997-09-19 Eastman Kodak Japan Kk Method for detecting compositional change of image
JP2002228920A (en) * 2001-01-30 2002-08-14 Minolta Co Ltd Main subject detector and automatic focusing camera
JP2002314851A (en) * 2001-04-10 2002-10-25 Nikon Corp Photographing apparatus
JP2003015019A (en) * 2001-06-27 2003-01-15 Minolta Co Ltd Device for detecting object and camera
JP2005055744A (en) * 2003-08-06 2005-03-03 Minolta Co Ltd Imaging apparatus and program
JP2005215373A (en) * 2004-01-30 2005-08-11 Konica Minolta Photo Imaging Inc Imaging apparatus
JP2007081754A (en) * 2005-09-13 2007-03-29 Canon Inc Camera platform apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61123368A (en) * 1984-11-20 1986-06-11 Canon Inc Camera
JPH07110429A (en) * 1993-10-08 1995-04-25 Nikon Corp Camera provided with object tracking function
JPH09243904A (en) * 1996-03-05 1997-09-19 Eastman Kodak Japan Kk Method for detecting compositional change of image
JP2002228920A (en) * 2001-01-30 2002-08-14 Minolta Co Ltd Main subject detector and automatic focusing camera
JP2002314851A (en) * 2001-04-10 2002-10-25 Nikon Corp Photographing apparatus
JP2003015019A (en) * 2001-06-27 2003-01-15 Minolta Co Ltd Device for detecting object and camera
JP2005055744A (en) * 2003-08-06 2005-03-03 Minolta Co Ltd Imaging apparatus and program
JP2005215373A (en) * 2004-01-30 2005-08-11 Konica Minolta Photo Imaging Inc Imaging apparatus
JP2007081754A (en) * 2005-09-13 2007-03-29 Canon Inc Camera platform apparatus

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265239A (en) * 2008-04-23 2009-11-12 Nikon Corp Focus detecting apparatus, focus detection method, and camera
JP2010008506A (en) * 2008-06-24 2010-01-14 Olympus Imaging Corp Camera
JP2010016762A (en) * 2008-07-07 2010-01-21 Nikon Corp Camera
JP2010039284A (en) * 2008-08-06 2010-02-18 Canon Inc Image pick-up apparatus and control method therefor
JP2013047833A (en) * 2009-02-18 2013-03-07 Panasonic Corp Imaging device
JP2010200270A (en) * 2009-02-27 2010-09-09 Nikon Corp Image processing device, camera, and program
JP2010206275A (en) * 2009-02-27 2010-09-16 Nikon Corp Electronic camera
JP2011059415A (en) * 2009-09-10 2011-03-24 Canon Inc Image pickup apparatus and range-finding method
JP2011114646A (en) * 2009-11-27 2011-06-09 Nikon Corp Tracking device, focusing device, and imaging apparatus
WO2018096816A1 (en) * 2016-11-28 2018-05-31 オリンパス株式会社 Focus adjustment device, control method for focus adjustment device, and storage medium on which focus adjustment program is recorded
US10859790B2 (en) 2016-11-28 2020-12-08 Olympus Corporation Focusing apparatus, control method of focusing apparatus, and recording medium storing focus adjustment program
JP2018182477A (en) * 2017-04-10 2018-11-15 キヤノン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP4720673B2 (en) 2011-07-13

Similar Documents

Publication Publication Date Title
JP4720673B2 (en) Subject tracking device and camera
JP5288015B2 (en) Image tracking device, image tracking method, and camera
US9639754B2 (en) Subject tracking apparatus, camera having the subject tracking apparatus, and method for tracking subject
US8254773B2 (en) Image tracking apparatus and tracking evaluation method
JP2009109714A (en) Image recognizing device, focus adjusting device, and imaging device
JP2009017155A (en) Image recognizing device, focus adjusting device and imaging apparatus
JP2009109839A (en) Image tracking device and imaging device
JP4702193B2 (en) Subject area specifying device, subject area specifying method, and camera
JP5403111B2 (en) Image tracking device
JP5056136B2 (en) Image tracking device
JP2012226206A (en) Image tracking device and imaging apparatus
JP4888249B2 (en) Focus detection apparatus and imaging apparatus
JP4985155B2 (en) Focus adjustment device and imaging device
JP2010200138A (en) Photographic subject tracking device
JP5447579B2 (en) Tracking device, focus adjustment device, and photographing device
JP5233646B2 (en) Image tracking device, imaging device, and image tracking method
JP2010054586A (en) Focusing device and imaging apparatus
JP5789937B2 (en) Image tracking device and imaging device
JP5176845B2 (en) Image tracking device and imaging device
JP2012093775A (en) Focus detector and imaging apparatus
JP2016028298A (en) Focus adjustment device and imaging device
JP2012221289A (en) Image tracking device
JP2014095915A (en) Focus adjustment device and imaging device
JP2014074923A (en) Imaging device
JP2009063688A (en) Image recognition device and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090729

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4720673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250