JP2006129272A - Camera, tracking apparatus, tracking method, and tracking program - Google Patents

Camera, tracking apparatus, tracking method, and tracking program Download PDF

Info

Publication number
JP2006129272A
JP2006129272A JP2004316902A JP2004316902A JP2006129272A JP 2006129272 A JP2006129272 A JP 2006129272A JP 2004316902 A JP2004316902 A JP 2004316902A JP 2004316902 A JP2004316902 A JP 2004316902A JP 2006129272 A JP2006129272 A JP 2006129272A
Authority
JP
Japan
Prior art keywords
subject
tracking
camera
image
detection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004316902A
Other languages
Japanese (ja)
Other versions
JP4504158B2 (en
Inventor
Takeshi Suzuki
猛士 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004316902A priority Critical patent/JP4504158B2/en
Publication of JP2006129272A publication Critical patent/JP2006129272A/en
Application granted granted Critical
Publication of JP4504158B2 publication Critical patent/JP4504158B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera for realizing tracking AF with higher accuracy and to provide a tracking apparatus and a tracking method applied to the camera. <P>SOLUTION: In the camera including imaging means (11, 12, 13) for photographing an object image and a tracking means 53 for tracking a position of an object moving in a photographed image, the tracking means includes a setting means for setting a tracking detection region comprising a detection region to detect a feature point of the object and a monitor region arranged in the vicinity of the detection region and for detecting the movement of the object into the photographed image, and the setting means arranges the monitor region biased toward a predicted moving direction of the object when the moving direction of the object can be predicted. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、動く被写体を画面内で追尾して合焦を行う追尾AF装置を備えたカメラと、被写体の追尾のための画像処理に関する。   The present invention relates to a camera including a tracking AF device that tracks a moving subject within a screen for focusing, and image processing for tracking the subject.

撮影レンズのピント位置を被写体に常に合焦させる連続AFは、動画撮影だけでなく静止画撮影でも便利な機能である。AF自体は画面内の一定位置の情報を検出して動作を行うので、被写体に対して常に合焦状態を維持させるような上記連続AFの場合に、被写体が画面内を移動すると、狙いの被写体と異なる部分にピントが合ってしまい、合焦エラーを起こしてしまうという問題がある。   Continuous AF that always focuses the photographic lens on the subject is a convenient function not only for moving image shooting but also for still image shooting. Since the AF itself operates by detecting information at a certain position in the screen, if the subject moves within the screen in the above-described continuous AF in which the subject is always kept in focus, the target subject There is a problem that a focus error is caused by focusing on a different part.

そこで、被写体のコントラスト情報を検出して移動する被写体を追尾して、この移動に合わせてAFの検出エリアを移動させるいわゆる追尾AFに関する提案がいろいろとなされている。   Accordingly, various proposals have been made regarding so-called tracking AF in which the contrast information of the subject is detected to track the moving subject and the AF detection area is moved in accordance with the movement.

その1つとして、追尾AFの精度をさらに向上させるために、画面上における複数の動き検出領域において検出された動きベクトル情報に、前記各動き検出領域の前記画面内における位置に応じて異なる重み付けを施すことによって動き補正の対象とする領域を設定し、重み付けを施された複数の動きベクトル情報から代表動きベクトル情報を演算し、画像の動きを補正するようにした発明が提案されている(特許文献1参照)。   As one of them, in order to further improve the accuracy of tracking AF, the motion vector information detected in a plurality of motion detection areas on the screen is weighted differently depending on the position of each motion detection area in the screen. An invention has been proposed in which a region to be subjected to motion correction is set by performing calculation, representative motion vector information is calculated from a plurality of weighted motion vector information, and image motion is corrected (patent) Reference 1).

この発明では、カメラコストのために追尾用信号は、追尾専用の撮像素子からの画像信号ではなく、撮影用画像信号が追尾用信号として利用されている。
動体追尾AFは、撮影画像出力の信号により、(コントラストの)パターン検出及びそれの追尾によって実現しているが、信号にノイズが多かったり、手ぶれが存在するような場合には、被写体検出で誤検出してしまう可能性がある。従って、精度向上にはノイズやテブレが少ない画像信号を得る必要があるが、撮影用の画像信号を利用するので、追尾用にのみ最適化させることは出来ない。
In the present invention, because of the camera cost, the tracking signal is not an image signal from a tracking-dedicated imaging device, but a shooting image signal is used as the tracking signal.
Moving body tracking AF is realized by (contrast) pattern detection and tracking based on a captured image output signal, but if the signal is noisy or there is camera shake, an error may occur in subject detection. There is a possibility of detection. Therefore, to improve accuracy, it is necessary to obtain an image signal with less noise and blur, but since an image signal for photographing is used, it cannot be optimized only for tracking.

また、動体追尾AF(コントラストパターン検出による追尾)は、コントラストのパターン検出及びそれの追尾によって実現しているが、誤検出をできる限り減らして、精度を上げるためには、概略でも良いので被写体の動く方向がわかっていることが好ましい。
特許第2770957
In addition, moving body tracking AF (tracking by contrast pattern detection) is realized by contrast pattern detection and tracking thereof. However, in order to reduce the false detection as much as possible and improve the accuracy, the outline of the subject can be used. It is preferable that the moving direction is known.
Patent No. 2770957

本発明は、より精度の高い追尾AFを実現するカメラおよびそのカメラに適用される追尾装置および追尾方法を提供することを目的とする。   An object of the present invention is to provide a camera that realizes tracking AF with higher accuracy, a tracking device and a tracking method applied to the camera.

撮影シーンによっては、前もって被写体の動く向きがわかっている場合も多々ある。本発明の一局面では、その情報を使用者が簡単にカメラに設定できるようにした。これにより、より精度の高い追尾AFを実現することが可能となる。   Depending on the shooting scene, there are many cases where the moving direction of the subject is known in advance. In one aspect of the present invention, the user can easily set the information in the camera. Thereby, it is possible to realize tracking AF with higher accuracy.

具体的には、本発明の局面に係る発明は、被写体画像を撮影する撮像手段と、前記撮像手段の画像出力に基づいて撮影画面内を移動する被写体の位置を追尾する追尾手段を備えたカメラにおいて、前記追尾手段は、被写体の特徴点を検出するための検出領域と検出領域の近傍に配置され被写体の移動を検出するための監視領域とからなる追尾検出領域とを前記撮影画面内に設定する設定手段を有し、前記設定手段は、前記被写体の移動方向が予測可能な場合に、前記被写体の予測移動方向側に前記監視領域を偏らせて配置することを特徴とする。   Specifically, the invention according to the aspect of the present invention includes an imaging unit that captures a subject image, and a tracking unit that tracks the position of a subject that moves within a shooting screen based on an image output of the imaging unit. The tracking means sets a tracking detection area including a detection area for detecting a feature point of the subject and a monitoring area arranged in the vicinity of the detection area for detecting movement of the subject in the photographing screen. And a setting unit configured to bias the monitoring region toward the predicted movement direction of the subject when the movement direction of the subject is predictable.

なお、本発明は、上記のカメラのみの発明に限らず、上記の機能を有するカメラに適用される追尾装置や追尾方法の発明としても成立する。   Note that the present invention is not limited to the above-described camera only, and is also established as an invention of a tracking device and a tracking method applied to a camera having the above functions.

本発明によれば、より精度の高い追尾AFを実現することが可能となる。   According to the present invention, tracking AF with higher accuracy can be realized.

図面を参照して本発明の実施の形態を説明する。
図1は、本発明の実施形態に係るカメラの概略構成を示すブロック図である。本発明の本実施形態に係るカメラの追尾機能に関するブロック図である。図3は、カメラの背面の概観図である。図1を参照して、本発明の実施形態に係るカメラの動作を説明する。
被写体像は、レンズ11を介して、CCD12で電気信号に変換される。CCD12で電気信号に変換された被写体像は、撮像回路13で増幅処理等されて、A/Dコンバータ14でデジタル信号に変換される。デジタル信号に変換された画像信号(以下、「画像情報」とも称する。なお、被写体像は静止画像のみではなく動画像も含むものとする)は、補正回路15で、色相やノイズなどについての補正処理が行われる。補正回路15は、バス16を介して、FIFOメモリ21、フレームメモリ27、記録バッファ31及び第2のCPU40と接続されている。FIFOメモリ21は、入力した情報を入力した順番にオンスクリーン回路22に出力する。オンスクリーン回路22は、FIFOメモリ21から出力された信号をビデオ信号に変換して、ビデオ出力回路23とTFT液晶駆動回路24に出力する。ビデオ出力回路23は、ビデオ出力端子23aから図示しない外部表示装置にビデオ信号を出力するための回路(インターフェース)である。また、TFT液晶駆動回路24は、オンスクリーン回路22から出力されたビデオ信号に基づいて、画像や動画をTFTパネル25に表示するための回路である。そして、TFTパネル25には、被写体の構図等の確認のために補正回路15で処理された画像がモニター画像として表示される。なお、TFTパネル25は、詳細は後述する第1のCPUから制御されるバックライトユニット26により背面より光が液晶面に照射されている。なお、フレームメモリ27は、画像信号を処理するための作業用メモリである。
Embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of a camera according to an embodiment of the present invention. It is a block diagram regarding the tracking function of the camera which concerns on this embodiment of this invention. FIG. 3 is a schematic view of the back of the camera. The operation of the camera according to the embodiment of the present invention will be described with reference to FIG.
The subject image is converted into an electrical signal by the CCD 12 via the lens 11. The subject image converted into an electrical signal by the CCD 12 is amplified by the imaging circuit 13 and converted into a digital signal by the A / D converter 14. An image signal converted into a digital signal (hereinafter also referred to as “image information”. Note that the subject image includes not only a still image but also a moving image) is corrected by the correction circuit 15 for hue, noise, and the like. Done. The correction circuit 15 is connected to the FIFO memory 21, the frame memory 27, the recording buffer 31, and the second CPU 40 via the bus 16. The FIFO memory 21 outputs the input information to the on-screen circuit 22 in the input order. The on-screen circuit 22 converts the signal output from the FIFO memory 21 into a video signal and outputs the video signal to the video output circuit 23 and the TFT liquid crystal drive circuit 24. The video output circuit 23 is a circuit (interface) for outputting a video signal from the video output terminal 23a to an external display device (not shown). The TFT liquid crystal driving circuit 24 is a circuit for displaying an image or a moving image on the TFT panel 25 based on the video signal output from the on-screen circuit 22. On the TFT panel 25, an image processed by the correction circuit 15 for confirming the composition of the subject is displayed as a monitor image. The TFT panel 25 is irradiated with light from the back surface by a backlight unit 26 controlled by a first CPU, which will be described in detail later. The frame memory 27 is a working memory for processing image signals.

また、記録バッファ31は、画像情報を着脱可能な記録媒体33に記憶したり、記録媒体33から読み出したりする際の、バッファメモリであり、記録媒体I/F32を介して、記録媒体との画像情報入出力を行う。第2のCPU40は第1のCPU50と連携しながら様々な処理を行うが、基本的に、画像処理と、記録媒体の制御を行う。第2のCPU40は、例えば、画像圧縮機能41と、画像伸張機能42と、フレームメモリコントロール機能43と、記録媒体アクセス機能44とを備えている。これらの機能により、例えば、記録媒体33に画像を記録する場合には、画像圧縮機能41で画像情報を、例えば、フレームメモリ27を作業用メモリとして、フレームメモリコントロール機能43で制御しながら、JPEG圧縮する。そして、記録媒体アクセス機能44によって記録媒体33にアクセスして、記録媒体33の所定位置に圧縮された画像情報を記録する。また、記録媒体33から画像情報を読み出して、例えば、TFTパネル25に表示する場合には、記録媒体アクセス機能44により記録媒体33をアクセスして所望の画像情報を、記録媒体33から読み出す。記録媒体33から読み出された画像情報は、画像伸張機能42により、画像圧縮の場合と同様にフレームメモリ27を作業用のメモリとして、伸張されてFIFOメモリ21に出力される。以降の動作は、上記した場合と同様であるので、説明を省略する。   The recording buffer 31 is a buffer memory when image information is stored in the removable recording medium 33 or read from the recording medium 33, and an image with the recording medium is recorded via the recording medium I / F 32. Input / output information. The second CPU 40 performs various processes in cooperation with the first CPU 50, but basically performs image processing and control of the recording medium. The second CPU 40 includes, for example, an image compression function 41, an image expansion function 42, a frame memory control function 43, and a recording medium access function 44. With these functions, for example, when an image is recorded on the recording medium 33, image information is controlled by the image compression function 41. For example, while the frame memory 27 is used as a working memory, the frame memory control function 43 controls the JPEG. Compress. Then, the recording medium access function 44 accesses the recording medium 33 to record the compressed image information at a predetermined position on the recording medium 33. Further, when image information is read from the recording medium 33 and displayed on the TFT panel 25, for example, the recording medium 33 is accessed by the recording medium access function 44 and desired image information is read from the recording medium 33. The image information read from the recording medium 33 is decompressed by the image decompression function 42 using the frame memory 27 as a working memory, and output to the FIFO memory 21 as in the case of image compression. Subsequent operations are the same as those described above, and a description thereof will be omitted.

第1のCPU50は、全体の動作を制御するものである。第1のCPU50は、システムコントロール機能51として、ISO感度制御機能52と、被写体追尾機能53と、CCDシャッター制御機能54と、鏡枠絞り制御機能55と、ノイズキャンセラ機能56と、コントラスト調整機能57と、シャープネス調整機能58とを備えている。また、第1のCPU50は、システムコントロール機能51に加えて、AF(オートフォーカス)制御を行うAF制御機能59も備えている。
AF制御機能59は、レンズ11を移動させながら連続して撮影を行わせて、この撮影で得られ、補正回路15で補正処理された画像信号についてそれぞれのコントラスト量の比較を行い、そのコントラスト量のピーク位置を示す画像が撮影されたレンズ11の位置を合焦位置とみなし、その位置にレンズ11を移動させるように制御するものである。そして、AF制御機能59は、コントラスト量の比較に際して、フレームメモリ27から画面内の所定のAF領域についての画像信号を抽出して比較する。
AF制御機能59は、AF領域として、通常のAFがオンされている場合には、画面の中央に設定し、追尾AFがオンされている場合には、後述するように被写体の移動方向と量に基づいて、AF設定領域515で画面内の被写体移動位置に設定される。
The first CPU 50 controls the entire operation. The first CPU 50 includes, as a system control function 51, an ISO sensitivity control function 52, a subject tracking function 53, a CCD shutter control function 54, a lens frame aperture control function 55, a noise canceller function 56, and a contrast adjustment function 57. And a sharpness adjustment function 58. In addition to the system control function 51, the first CPU 50 also includes an AF control function 59 that performs AF (autofocus) control.
The AF control function 59 continuously shoots while moving the lens 11, compares the contrast amounts of the image signals obtained by this shooting and corrected by the correction circuit 15, and the contrast amount The position of the lens 11 where the image showing the peak position is taken as the in-focus position, and the lens 11 is controlled to move to that position. Then, the AF control function 59 extracts and compares an image signal for a predetermined AF area in the screen from the frame memory 27 when comparing the contrast amount.
The AF control function 59 sets the AF area to the center of the screen when normal AF is turned on, and when the tracking AF is turned on, the moving direction and amount of the subject as will be described later. Is set to the subject movement position in the screen in the AF setting area 515.

システムコントロール機能51の各機能について説明する。まず、ISO感度制御機能52は、CCD12のISO感度を制御する。被写体追尾機能53は、動く被写体を自動的に追尾する。CCDシャッター制御機能54はCCDシャッターの露光時間を制御する。鏡枠絞り制御機能55は、鏡枠絞りの量を制御する。ノイズキャンセラ制御機能は、画像情報の中のノイズをキャンセルするための制御を行う。コントラスト調整機能57とシャープネス調整機能58は、それぞれコントラストとシャープネスを調整する。なお、上記の機能において、ノイズのキャンセルや、コントラスト、シャープネス調整は、フレームメモリコントロール機能43を介して、フレームメモリ上のデータに対して行われる。   Each function of the system control function 51 will be described. First, the ISO sensitivity control function 52 controls the ISO sensitivity of the CCD 12. The subject tracking function 53 automatically tracks a moving subject. The CCD shutter control function 54 controls the exposure time of the CCD shutter. The lens frame diaphragm control function 55 controls the amount of the lens frame diaphragm. The noise canceller control function performs control for canceling noise in the image information. A contrast adjustment function 57 and a sharpness adjustment function 58 adjust contrast and sharpness, respectively. In the above function, noise cancellation, contrast, and sharpness adjustment are performed on the data in the frame memory via the frame memory control function 43.

第1のCPU50には、様々な回路が接続されている。例えば、アクチュエータ駆動回路61は、アクチュエータ62を駆動してレンズ11を駆動する。レンズバリア開閉検出手段63は、レンズバリアの開閉状態を検出する。EEPROM64は、カメラの設定条件などを記憶し、カメラの電源をオフしたあとでも、記憶を保持している。接続検出手段65は、カメラと図示しない他の機器との接続状態を検出する。外部データI/F(USB)は、図示しない外部機器とのデータをUSB接続で行うためのインターフェースである。操作部としてのキーマトリクス67は、ユーザからの操作を受け付ける。LCDパネル72は、LCD表示回路71を介して、カメラの状態や、設定条件などを表示する。また、カメラの電源は通常電池75であり、電池75からの電力が電源回路77を介してカメラの各部に供給される。また、電池75の状態は電池状態検出回路76で検出されて、電池75の残量などに応じて、必要な制御が第1のCPU50によってなされる。また、電池75の残量が著しく低下した場合や電池交換時には、バックアップ電源78から電力が供給されて、図示しない揮発メモリに記憶された内容の保持などがなされる。   Various circuits are connected to the first CPU 50. For example, the actuator drive circuit 61 drives the actuator 62 to drive the lens 11. The lens barrier open / close detection means 63 detects the open / close state of the lens barrier. The EEPROM 64 stores camera setting conditions and the like, and retains the memory even after the camera is turned off. The connection detection means 65 detects the connection state between the camera and another device (not shown). The external data I / F (USB) is an interface for performing data connection with an external device (not shown) by USB connection. A key matrix 67 as an operation unit receives an operation from a user. The LCD panel 72 displays the camera state, setting conditions, and the like via the LCD display circuit 71. Further, the power source of the camera is normally a battery 75, and power from the battery 75 is supplied to each part of the camera via the power supply circuit 77. Further, the state of the battery 75 is detected by the battery state detection circuit 76, and necessary control is performed by the first CPU 50 in accordance with the remaining amount of the battery 75 and the like. Further, when the remaining amount of the battery 75 is remarkably lowered or when the battery is replaced, power is supplied from the backup power supply 78, and contents stored in a volatile memory (not shown) are retained.

上記の構成において、図2を参照して、本発明の本実施形態に係るカメラの追尾機能に関する説明を行う。
キーマトリクス67は十字キー671等をを含む検出領域指示手段671を備えている。検出領域指示手段671で指示された検出領域は、被写体追尾機能53の被写体コントラスト検出領域設定機能531に送られて、被写体の特徴点(すなわち、コントラスト)の検出領域を設定する。次に、被写体コントラスト検出機能532は、被写体コントラスト検出領域設定機能531で設定された検出領域内における被写体のコントラストを検出する。被写体移動方向判別機能533は、被写体コントラスト検出領域の周囲を取り囲むような領域を監視領域に設定し、設定されたコントラスト変化を所定時間おきに監視し、監視領域の中で、検出された被写体コントラストの全部又は一部と同様なコントラストのパターンが出現した場合に、その方向に被写体が移動したと判断する。被写体移動量判別機能534は、同様に被写体コントラストの全部又は一部と同様なコントラストパターンが出現した監視領域の座標から移動量を判別する。そして、最終的に、被写体の移動方向と移動量に基づいて、AF領域決定部535でAF領域を決定する。以下、詳細に説明する。
In the above configuration, the tracking function of the camera according to this embodiment of the present invention will be described with reference to FIG.
The key matrix 67 includes detection area instruction means 671 including a cross key 671 and the like. The detection area designated by the detection area instruction means 671 is sent to the subject contrast detection area setting function 531 of the subject tracking function 53 to set the detection area of the feature point (that is, contrast) of the subject. Next, the subject contrast detection function 532 detects the contrast of the subject in the detection area set by the subject contrast detection area setting function 531. The subject movement direction determination function 533 sets a region surrounding the subject contrast detection region as a monitoring region, monitors the set contrast change every predetermined time, and detects the detected subject contrast in the monitoring region. When a contrast pattern similar to all or a part of the image appears, it is determined that the subject has moved in that direction. The subject movement amount determination function 534 similarly determines the movement amount from the coordinates of the monitoring area where the same contrast pattern as the whole or part of the subject contrast appears. Finally, the AF area determination unit 535 determines the AF area based on the moving direction and movement amount of the subject. Details will be described below.

上記のように構成されたカメラにおいて、図3に示すように、背面にはTFTパネル25と、キーマトリクス67と、ビューファインダ80とが配置されている。本発明の実施形態では、被写体の移動方向が予測可能な場合(例えば、軌道上を走る電車など)において、その移動方向(正確には、「予測移動方向」であるが、単に「移動方向」や「方向」と称する場合もある)をユーザが予め入力しておくことにより、追尾精度を上げるようにしている。そのため、図3に示すように、キーマトリクス67として十字ボタン671と、追尾AFオン・オフボタン672と、OK・メニューボタン673とが用意されている。また、TFTパネル25上には、ユーザが入力した被写体の移動方向251が表示される。
上記の構成において、図3から図5を参照して、簡単に動作を説明する。図4は、追尾AFの様子を説明するための図であり、図5は、被写体の移動方向が既知の場合とそうでない場合における追尾動作の違いを説明するための図である。
図4に示すように、被写体92がリング状の場合を考える。パワーオン時には、デフォルトとして、合焦センタ91は画面の中心に設定されている。ここで、追尾AFがオンである場合に、検出領域93は被写体92(の周囲:特徴点)を検出するようになっている。ここで、被写体92が初期位置Aから移動位置Bに移動した場合には、合焦センタ91が被写体92の移動に追従して被写体92の中心に移動し、検出領域93も被写体92の移動に応じて移動する。
In the camera configured as described above, as shown in FIG. 3, the TFT panel 25, the key matrix 67, and the viewfinder 80 are arranged on the back surface. In the embodiment of the present invention, in the case where the moving direction of the subject can be predicted (for example, a train running on a track), the moving direction (to be precise, the “predicted moving direction”) is simply “moving direction”. Or may be referred to as “direction”) in advance, the tracking accuracy is improved. Therefore, as shown in FIG. 3, a cross button 671, a tracking AF on / off button 672, and an OK / menu button 673 are prepared as the key matrix 67. On the TFT panel 25, the moving direction 251 of the subject input by the user is displayed.
In the above configuration, the operation will be briefly described with reference to FIGS. FIG. 4 is a diagram for explaining the state of the tracking AF, and FIG. 5 is a diagram for explaining a difference in the tracking operation when the moving direction of the subject is known and not.
Consider the case where the subject 92 is ring-shaped as shown in FIG. When the power is turned on, the focusing center 91 is set at the center of the screen as a default. Here, when the tracking AF is on, the detection area 93 detects a subject 92 (around: a feature point). Here, when the subject 92 moves from the initial position A to the moving position B, the focusing center 91 follows the movement of the subject 92 and moves to the center of the subject 92, and the detection area 93 also moves the subject 92. Move accordingly.

このときに、通常の追尾AFにおいては、被写体の移動方向が不明であるので、図5の(a)に示すように、検出領域93の外側の1エリアを監視領域94として、被写体92の移動方向と速度を検出して追尾するようになっている。この場合において、例えば、被写体92が初期位置Aから、移動位置B及び移動位置Cに移動した場合を考える。
まず、被写体92が移動位置Bに移動した場合には、被写体92が周辺領域94(図中左側の周辺領域94)で検出されるため、被写体92が図中左側に移動していることが検出される。ところが、被写体92が移動位置Cに素早く移動すると、被写体92が周辺領域94で検出できないので、被写体92を追尾することができなくなってしまう。そこで、周辺領域94のエリアを大きくすれば、短時間に大きな移動が生じても対応できるが、CPUによる処理の負担が増大し、計算が間に合わなくなる。
このため、本発明の実施形態では、追尾AFオン・オフボタン672により追尾AFがオンになると、TFTパネル25上に被写体の予測移動方向251が表示される。そして、ユーザが十字ボタン671により予測移動方向251を指示(図5では左方向)して、所望の方向に移動方向を設定したら、OK・メニューボタン673で決定する。これにより、図5の(b)に示すように、設定した移動方向側(図中左側)に重点的に監視領域94が設定されるので、被写体92が1エリア以上の移動をした場合でも、被写体92の移動量が大きくても追尾することができる。なお、十字ボタン671は、上記の機能以外に、メニュー選択やコマ送り、OK・メニューボタン673は、メニューの表示等にも使用される。なお、被写体の移動方向が特定できない場合には、周辺領域94は均等のままであることはもちろんである。
At this time, in normal tracking AF, since the moving direction of the subject is unknown, as shown in FIG. 5A, the movement of the subject 92 is set with one area outside the detection region 93 as the monitoring region 94. The direction and speed are detected and tracked. In this case, for example, consider a case where the subject 92 has moved from the initial position A to the moving position B and the moving position C.
First, when the subject 92 moves to the movement position B, since the subject 92 is detected in the peripheral region 94 (the peripheral region 94 on the left side in the figure), it is detected that the subject 92 has moved to the left side in the drawing. Is done. However, if the subject 92 quickly moves to the movement position C, the subject 92 cannot be detected in the peripheral area 94, and the subject 92 cannot be tracked. Therefore, if the area of the peripheral area 94 is increased, it can cope with a large movement in a short time, but the processing load by the CPU increases and the calculation is not in time.
Therefore, in the embodiment of the present invention, when the tracking AF is turned on by the tracking AF on / off button 672, the predicted movement direction 251 of the subject is displayed on the TFT panel 25. When the user instructs the predicted moving direction 251 using the cross button 671 (leftward in FIG. 5) and sets the moving direction in a desired direction, the OK / menu button 673 is used for determination. As a result, as shown in FIG. 5B, the monitoring region 94 is set on the set moving direction side (left side in the figure), so that even when the subject 92 moves more than one area, Tracking is possible even when the amount of movement of the subject 92 is large. In addition to the above functions, the cross button 671 is used for menu selection and frame advance, and the OK / menu button 673 is used for displaying a menu. Of course, when the moving direction of the subject cannot be specified, the peripheral region 94 remains equal.

以下、具体的な動作について説明する。図6は、追尾モードにおける動作例を示すフローチャートであり、図7は、被写体の移動方向の入力の流れを示すフローチャートである。   A specific operation will be described below. FIG. 6 is a flowchart showing an operation example in the tracking mode, and FIG. 7 is a flowchart showing an input flow in the moving direction of the subject.

図6において、まず、カメラの電源をオンにする(ステップS51)。次に、自動追尾AFをオンにする(ステップS52)。そして、自動追尾AFがオンかどうかを判定し(ステップS53)、自動追尾AFがオンであれば、詳細は後述するように被写体の移動方向を入力する(ステップS54)。そして、被写体の移動方向を入力したか、又はステップS53において自動追尾AFがオフであれば、被写体の撮影動作がオンかどうか(すなわちシャッターがオンかどうか)を判定し(ステップS55)、撮影動作がオフであれば、ステップS53に戻る。ステップS55において、撮影動作がオンであれば、撮影動作を行い(ステップS56)、動作を終了する。   In FIG. 6, first, the camera is turned on (step S51). Next, the automatic tracking AF is turned on (step S52). Then, it is determined whether or not the automatic tracking AF is on (step S53). If the automatic tracking AF is on, the moving direction of the subject is input as will be described in detail later (step S54). If the moving direction of the subject is input or if the automatic tracking AF is off in step S53, it is determined whether or not the photographing operation of the subject is on (that is, whether the shutter is on) (step S55). If is off, the process returns to step S53. If the shooting operation is on in step S55, the shooting operation is performed (step S56), and the operation ends.

次に、被写体の移動方向の設定入力の流れを図7を参照して説明する。
図6のステップS52で自動追尾AFをオンにすると、前述したように、TFTパネル25に被写体の移動方向を示す表示251が表示される。この表示251は、十字ボタン671で変更可能になっている。
まず、十字ボタン671を操作すると(ステップS61)、十字ボタン671が操作されたかどうかを判定する(ステップS62)。ここで、十字ボタン671が押されていれば、その十字ボタン671の方向が、現在表示されている被写体の移動方向(すなわち移動予測方向)から90度より大きく離れているかどうかを判定する(ステップS63)。ステップS63において、現在設定されている方向と入力された方向とが90度以下である場合には、現在設定されている方向と入力された方向との間に移動方向をセットする(ステップS64)。ステップS63において、現在設定されている方向と入力された方向とが90度を越える場合には、入力された方向に移動方向をセットする(ステップS65)。
そして、方向入力が終了するまでステップS61からステップS65までの動作を繰り返す(ステップS66)。なお、ステップS62において、十字ボタン671が操作されていない場合には、ステップS66に進む。
Next, the flow of setting input for the moving direction of the subject will be described with reference to FIG.
When the automatic tracking AF is turned on in step S52 of FIG. 6, the display 251 indicating the moving direction of the subject is displayed on the TFT panel 25 as described above. This display 251 can be changed with the cross button 671.
First, when the cross button 671 is operated (step S61), it is determined whether or not the cross button 671 is operated (step S62). If the cross button 671 is pressed, it is determined whether the direction of the cross button 671 is more than 90 degrees away from the moving direction of the currently displayed subject (that is, the predicted movement direction) (step). S63). In step S63, when the currently set direction and the input direction are 90 degrees or less, the moving direction is set between the currently set direction and the input direction (step S64). . If the currently set direction and the input direction exceed 90 degrees in step S63, the moving direction is set in the input direction (step S65).
Then, the operations from step S61 to step S65 are repeated until the direction input is completed (step S66). If it is determined in step S62 that the cross button 671 has not been operated, the process proceeds to step S66.

上記の動作において、十字ボタン671が押されたときの動作例を、図8を参照して説明する。なお、以下の説明において、上方向を0度とし、時計回り方向に角度が増えていくものとする。
まず、自動追尾AFをオンにしたときに、図8の(a)に示すように、表示251(以下、説明の便宜上「矢印」と称する)の矢印の向きが上向きであったものとする。このとき、右ボタンが押された場合には、現在の矢印が上方向(0度)であり、十字ボタン操作は右方向(90度)であるので、2つの矢印のなす角度は90度となり、図8(b)に示すように、矢印は45度方向に向くことになる。この状態で、さらに右ボタンを押すと、現在の矢印が45度方向であり、十字ボタン操作が右方向(90度)であるので、(90−45)/2+45=67.5となり、図8の(c)に示すように、矢印は67.5度の方向に向くことになる。
次に図8の(a)の状態で、下ボタンを押した場合には、現在の矢印の方向が0度であり、下方向は180度であるので、2つの矢印のなす角度は180度となり、図8の(d)に示すように、矢印は十字ボタン671の押された方向(すなわち、図8の(d)では下向き)に向くことになる。なお、図8の(b)の状態で下ボタンを押した場合も同様である。また、この状態で右ボタンを押すと、2つの矢印のなす角度は90度となるので、矢印は、上記と同様の動作により135度の方向に向くことになる。なお、十字ボタン671でなく左右キーのみの場合には、指示方向を左キーでは反時計方向に、右キーでは時計方向へそれ1押しで、所定角度分順吹を変化させていくようにしても良い。
An example of the operation when the cross button 671 is pressed in the above operation will be described with reference to FIG. In the following description, it is assumed that the upward direction is 0 degree and the angle increases in the clockwise direction.
First, when the automatic tracking AF is turned on, as shown in FIG. 8A, it is assumed that the direction of the arrow of the display 251 (hereinafter referred to as “arrow” for convenience of explanation) is upward. At this time, if the right button is pressed, the current arrow is upward (0 degrees) and the cross button operation is right (90 degrees), so the angle between the two arrows is 90 degrees. As shown in FIG. 8B, the arrow points in the 45-degree direction. If the right button is further pressed in this state, the current arrow is in the 45 degree direction and the cross button operation is in the right direction (90 degrees), so that (90−45) /2+45=67.5 is obtained. As shown in (c), the arrow points in the direction of 67.5 degrees.
Next, when the down button is pressed in the state of FIG. 8A, the current arrow direction is 0 degrees and the downward direction is 180 degrees, so the angle formed by the two arrows is 180 degrees. Thus, as shown in FIG. 8D, the arrow points in the direction in which the cross button 671 is pressed (that is, downward in FIG. 8D). The same applies when the down button is pressed in the state of FIG. In addition, when the right button is pressed in this state, the angle formed by the two arrows is 90 degrees, and the arrow is directed in the direction of 135 degrees by the same operation as described above. When only the left and right keys are used instead of the cross button 671, the forward direction is changed by a predetermined angle by pressing the pointing direction counterclockwise with the left key and clockwise with the right key. Also good.

上記のように、本発明の実施形態によれば、
1.被写体の状況(特に移動方向)に応じて、周辺領域の配置を変更するようにしたので、適正な検出領域設定ができる。また、少ない検出領域で効率良く判断できるので、短時間の処理で追尾できる。
2.追尾される被写体位置に基づいて焦点調整を行うので、ピントのあった撮影が確実にできる。
As mentioned above, according to embodiments of the present invention,
1. Since the arrangement of the peripheral area is changed according to the state of the subject (particularly the moving direction), an appropriate detection area can be set. In addition, since it can be determined efficiently with a small detection area, tracking can be performed in a short time.
2. Since focus adjustment is performed based on the position of the subject to be tracked, it is possible to reliably perform in-focus shooting.

本発明は、上記各実施の形態に限られない。
例えば、上記の実施形態では、被写体の移動方向の設定を十字ボタンで行っていたが、カメラがジョグダイヤルを有している場合には、ジョグダイヤルを回転させることで、被写体の移動方向を設定しても良い。この場合において、例えば、ジョグダイヤルの回す方向と同じ方向に矢印が回るようにすれば良い。さらに、十字ボタンやジョグダイヤル以外に、例えば、タッチパッドやその他のポインティングデバイスを使用しても良い。
また、上記の実施形態では、現在の矢印の方向と十字ボタンの操作方向とに応じて、矢印の方向を決定したが、これに限らず、移動方向が容易に設定できるような構成であれば、どのような方法で設定するようにしてもかまわない。
また、上記各実施形態は、プログラムに従ったCPU50の制御処理によって実現されるが、つまりこれは、上記プログラム自体が上述した実施形態を実現することになり、このプログラム自体が本発明を構成する。
The present invention is not limited to the above embodiments.
For example, in the above embodiment, the moving direction of the subject is set with the cross button. However, when the camera has a jog dial, the moving direction of the subject is set by rotating the jog dial. Also good. In this case, for example, the arrow may rotate in the same direction as the jog dial rotates. Further, in addition to the cross button and the jog dial, for example, a touch pad or other pointing device may be used.
In the above embodiment, the direction of the arrow is determined according to the current direction of the arrow and the operation direction of the cross button. However, the present invention is not limited to this. Any method can be used.
Further, each of the above embodiments is realized by the control process of the CPU 50 according to the program. That is, this means that the above program itself realizes the above-described embodiment, and this program itself constitutes the present invention. .

なお、これまでの実施形態では、本発明をカメラ製品に搭載した例で説明したが、カメラ単体製品以外でも携帯電話やPDAのカメラ部分にも当然適用可能であって、これらのカメラ部分もこれまで説明してきた「カメラ」の範疇に含まれる。   In the above embodiments, the present invention has been described as an example in which the present invention is mounted on a camera product. However, the present invention can naturally be applied to a camera part of a mobile phone or a PDA other than a single camera product. It is included in the category of “camera” described above.

その他、実施段階ではその要旨を逸脱しない範囲で種々の変形を実施し得ることが可能である。さらに、上記各実施形態には、種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組合せにより種々の発明が抽出され得る。   In addition, in the implementation stage, various modifications can be implemented without departing from the scope of the invention. Further, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements.

また、例えば各実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。   In addition, for example, even if some structural requirements are deleted from all the structural requirements shown in each embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the effect of the invention Can be obtained as an invention.

本発明の実施形態に係るカメラの概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of a camera according to an embodiment of the present invention. 本発明の本実施形態に係るカメラの追尾機能に関するブロック図。The block diagram regarding the tracking function of the camera which concerns on this embodiment of this invention. カメラの背面の概観図。Overview of the back of the camera. 追尾AFの様子を説明するための図。The figure for demonstrating the mode of tracking AF. 被写体の移動方向が既知の場合とそうでない場合における追尾動作の違いを説明するための図。The figure for demonstrating the difference of a tracking operation | movement in the case where the moving direction of a to-be-known object is not known. 追尾モードにおける動作例を示すフローチャート。The flowchart which shows the operation example in tracking mode. 被写体の移動方向の入力の流れを示すフローチャート。The flowchart which shows the flow of an input of a to-be-photographed object's moving direction. 十字ボタンが押されたときの動作例を示す図。The figure which shows the operation example when the cross button is pushed.

符号の説明Explanation of symbols

11…レンズ、12…CCD、13…撮像回路、14…A/Dコンバータ、15…補正回路、16…バス、21…FIFOメモリ、22…オンスクリーン回路、23…ビデオ出力回路、23a…ビデオ出力端子、24…TFT液晶駆動回路、25…TFTパネル、26…バックライトユニット、27…フレームメモリ、31…記録バッファ、32…記録媒体I/F、33…記録媒体、40…第2のCPU、41…画像圧縮機能、42…画像伸張機能、43…フレームメモリコントロール機能、44…記録媒体アクセス機能、50…第1のCPU、51…システムコントロール機能、52…ISO感度制御機能、53…被写体追尾機能、54…CCDシャッター制御機能、55…鏡枠絞り制御機能、56…ノイズキャンセラ機能、57…コントラスト調整機能、58…シャープネス調整機能、59…AF制御機能、61…アクチュエータ駆動回路、62…アクチュエータ、63…レンズバリア開閉検出手段、64…EEPROM、65…接続検出手段、67…キーマトリクス、71…LCD表示回路、72…LCDパネル、75…電池、76…電池状態検出回路、77…電源回路、78…バックアップ電源、531…被写体コントラスト検出領域設定機能、532…被写体コントラスト検出機能、533…被写体移動方向判別機能、534…被写体移動量判別機能、535…AF領域決定部、671…検出領域指示手段。   DESCRIPTION OF SYMBOLS 11 ... Lens, 12 ... CCD, 13 ... Imaging circuit, 14 ... A / D converter, 15 ... Correction circuit, 16 ... Bus, 21 ... FIFO memory, 22 ... On-screen circuit, 23 ... Video output circuit, 23a ... Video output Terminals 24 ... TFT liquid crystal drive circuit 25 ... TFT panel 26 ... Backlight unit 27 ... Frame memory 31 ... Recording buffer 32 ... Recording medium I / F 33 ... Recording medium 40 ... Second CPU DESCRIPTION OF SYMBOLS 41 ... Image compression function, 42 ... Image expansion function, 43 ... Frame memory control function, 44 ... Recording medium access function, 50 ... First CPU, 51 ... System control function, 52 ... ISO sensitivity control function, 53 ... Subject tracking 54: CCD shutter control function, 55: Lens frame aperture control function, 56: Noise canceller function, 57: Control Strike adjustment function, 58 ... sharpness adjustment function, 59 ... AF control function, 61 ... actuator drive circuit, 62 ... actuator, 63 ... lens barrier open / close detection means, 64 ... EEPROM, 65 ... connection detection means, 67 ... key matrix, 71 ... LCD display circuit, 72 ... LCD panel, 75 ... battery, 76 ... battery state detection circuit, 77 ... power supply circuit, 78 ... backup power supply, 531 ... subject contrast detection area setting function, 532 ... subject contrast detection function, 533 ... subject Movement direction determination function, 534... Subject movement amount determination function, 535... AF area determination unit, 671.

Claims (10)

被写体画像を撮影する撮像手段と、前記撮像手段の画像出力に基づいて撮影画面内を移動する被写体の位置を追尾する追尾手段を備えたカメラにおいて、
前記追尾手段は、被写体の特徴点を検出するための検出領域と検出領域の近傍に配置され被写体の移動を検出するための監視領域とからなる追尾検出領域とを前記撮影画面内に設定する設定手段を有し、
前記設定手段は、前記被写体の移動方向が予測可能な場合に、前記被写体の予測移動方向側に前記監視領域を偏らせて配置することを特徴とするカメラ。
In a camera including an imaging unit that captures a subject image, and a tracking unit that tracks the position of a subject that moves within a shooting screen based on an image output of the imaging unit.
The tracking means is configured to set a tracking detection area including a detection area for detecting a feature point of a subject and a monitoring area arranged in the vicinity of the detection area for detecting movement of the subject in the photographing screen. Having means,
The camera is characterized in that, when the moving direction of the subject can be predicted, the setting means places the monitoring area in a biased manner toward the predicted moving direction of the subject.
前記被写体の予測移動方向を設定する操作手段をさらに備え、前記設定手段は前記操作手段の設定に基づいて前記周辺領域を偏らせて配置することを特徴とする請求項1に記載のカメラ。 The camera according to claim 1, further comprising an operation unit configured to set a predicted movement direction of the subject, wherein the setting unit arranges the peripheral region in a biased manner based on the setting of the operation unit. 前記操作手段は、少なくとも再生時に撮影画像の送り操作に使用されるものであって、カメラ背面に配置された左右上下の少なくとも4方向の指示部を有することを特徴とする請求項2に記載のカメラ。 3. The operation unit according to claim 2, wherein the operation unit is used for an operation of sending a captured image at least during reproduction, and has at least four directions indicating units arranged on the back of the camera. camera. 前記追尾手段で追尾される前記被写体の位置に基づいて前記撮像手段の焦点調整を行う合焦手段を更に備えたことを特徴とする請求項1から請求項4のいずれか1項に記載のカメラ。 5. The camera according to claim 1, further comprising a focusing unit configured to adjust a focus of the imaging unit based on a position of the subject tracked by the tracking unit. . 前記撮像手段の画像出力に基づいた画像と前記予測移動方向とを表示する画像表示手段を備えたことを特徴とする請求項1から請求項5のいずれか1項に記載のカメラ。 The camera according to claim 1, further comprising an image display unit that displays an image based on an image output of the imaging unit and the predicted movement direction. 被写体画像を撮影する撮像手段を有するカメラに適用される追尾装置であって、前記撮像手段の画像出力に基づいて撮影画面内を移動する被写体の位置を追尾する追尾装置において、
被写体の特徴点を検出するための検出領域と検出領域の近傍に配置され被写体の移動を検出するための監視領域とからなる追尾検出領域とを前記撮影画面内に設定する設定手段を有し、
前記設定手段は、前記被写体の移動方向が予測可能な場合に、前記被写体の予測移動方向側に前記監視領域を偏らせて配置することを特徴とする追尾装置。
A tracking device that is applied to a camera having an imaging unit that captures a subject image, the tracking device tracking a position of a subject that moves within a shooting screen based on an image output of the imaging unit.
Setting means for setting within the shooting screen a detection area for detecting a feature point of the subject and a tracking detection area that is arranged in the vicinity of the detection area and that includes a monitoring area for detecting movement of the subject;
The tracking device according to claim 1, wherein when the moving direction of the subject is predictable, the setting unit is arranged to bias the monitoring area toward the predicted moving direction side of the subject.
前記被写体の予測移動方向を設定する操作手段をさらに備え、前記設定手段は前記操作手段の設定に基づいて前記周辺領域を偏らせて配置することを特徴とする請求項6記載の追尾装置。 The tracking device according to claim 6, further comprising an operation unit configured to set a predicted movement direction of the subject, wherein the setting unit is arranged to bias the peripheral area based on the setting of the operation unit. 前記追尾装置は、前記撮像手段の焦点調整を行う合焦手段の合焦領域の指定のために被写体の位置を追尾することを特徴とする請求項6又は請求項7に記載の追尾装置。 The tracking device according to claim 6 or 7, wherein the tracking device tracks the position of a subject for designating a focusing area of a focusing unit that performs focus adjustment of the imaging unit. 被写体画像を撮影する撮像手段を有するカメラに適用される追尾方法であって、前記撮像手段の画像出力に基づいて撮影画面内を移動する被写体の位置を追尾する追尾方法において、
被写体の特徴点を検出するための検出領域と検出領域の近傍に配置され被写体の移動を検出するための監視領域とからなる追尾検出領域とを前記撮影画面内に設定し、
前記被写体の移動方向が予測可能な場合に、前記被写体の予測移動方向側に前記監視領域を偏らせて配置することを特徴とする追尾方法。
A tracking method applied to a camera having an imaging unit that captures a subject image, the tracking method tracking a position of a subject moving within a shooting screen based on an image output of the imaging unit.
A tracking detection area consisting of a detection area for detecting a feature point of the subject and a monitoring area for detecting movement of the subject arranged in the vicinity of the detection area is set in the shooting screen,
A tracking method characterized in that, when the moving direction of the subject is predictable, the monitoring area is biased and arranged on the predicted moving direction side of the subject.
被写体画像を撮影する撮像手段を有するカメラに適用される追尾方法を実現するためのプログラムであって、前記撮像手段の画像出力に基づいて撮影画面内を移動する被写体の位置を追尾する追尾方法を実現するプログラムにおいて、
被写体の特徴点を検出するための検出領域と検出領域の近傍に配置され被写体の移動を検出するための監視領域とからなる追尾検出領域とを前記撮影画面内に設定する機能と、
前記被写体の移動方向が予測可能な場合に、前記被写体の予測移動方向側に前記監視領域を偏らせて配置する機能とを具備することを特徴とする追尾プログラム。
A program for realizing a tracking method applied to a camera having an imaging unit that captures a subject image, the tracking method tracking a position of a subject moving in a shooting screen based on an image output of the imaging unit In the program to be realized,
A function for setting a tracking detection area, which is composed of a detection area for detecting feature points of a subject and a monitoring area for detecting movement of the subject arranged in the vicinity of the detection area, in the shooting screen;
A tracking program comprising: a function of biasing and arranging the monitoring area toward the predicted movement direction of the subject when the movement direction of the subject is predictable.
JP2004316902A 2004-10-29 2004-10-29 Camera, tracking device, tracking method, and tracking program Expired - Fee Related JP4504158B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004316902A JP4504158B2 (en) 2004-10-29 2004-10-29 Camera, tracking device, tracking method, and tracking program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004316902A JP4504158B2 (en) 2004-10-29 2004-10-29 Camera, tracking device, tracking method, and tracking program

Publications (2)

Publication Number Publication Date
JP2006129272A true JP2006129272A (en) 2006-05-18
JP4504158B2 JP4504158B2 (en) 2010-07-14

Family

ID=36723438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004316902A Expired - Fee Related JP4504158B2 (en) 2004-10-29 2004-10-29 Camera, tracking device, tracking method, and tracking program

Country Status (1)

Country Link
JP (1) JP4504158B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009069748A (en) * 2007-09-18 2009-04-02 Fujifilm Corp Imaging apparatus and its automatic focusing method
CN101354787B (en) * 2008-08-18 2010-06-02 浙江大学 Intelligent method for extracting target movement track characteristics in vision monitoring searches
JP2011233963A (en) * 2010-04-23 2011-11-17 Ricoh Co Ltd Imaging apparatus and tracking object detection method
JP2012189934A (en) * 2011-03-14 2012-10-04 Canon Inc Imaging apparatus
JP2013098935A (en) * 2011-11-04 2013-05-20 Olympus Imaging Corp Tracking apparatus and tracking method
CN103886605A (en) * 2014-03-31 2014-06-25 江南大学 Method for predicting and tracking moving object based on center of curvature

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102789672B (en) * 2012-07-03 2017-10-10 深圳市瑞工科技有限公司 A kind of baby's sleeping position intelligent identification Method and device
JP7117872B2 (en) 2018-03-28 2022-08-15 キヤノン株式会社 IMAGE PROCESSING DEVICE, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6471382A (en) * 1987-09-11 1989-03-16 Canon Kk Automatic focusing device
JPH05328204A (en) * 1992-05-22 1993-12-10 Canon Inc Automatic focus adjustment device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6471382A (en) * 1987-09-11 1989-03-16 Canon Kk Automatic focusing device
JPH05328204A (en) * 1992-05-22 1993-12-10 Canon Inc Automatic focus adjustment device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009069748A (en) * 2007-09-18 2009-04-02 Fujifilm Corp Imaging apparatus and its automatic focusing method
CN101354787B (en) * 2008-08-18 2010-06-02 浙江大学 Intelligent method for extracting target movement track characteristics in vision monitoring searches
JP2011233963A (en) * 2010-04-23 2011-11-17 Ricoh Co Ltd Imaging apparatus and tracking object detection method
JP2012189934A (en) * 2011-03-14 2012-10-04 Canon Inc Imaging apparatus
JP2013098935A (en) * 2011-11-04 2013-05-20 Olympus Imaging Corp Tracking apparatus and tracking method
US9412008B2 (en) 2011-11-04 2016-08-09 Olympus Corporation Tracking apparatus and tracking method
CN103886605A (en) * 2014-03-31 2014-06-25 江南大学 Method for predicting and tracking moving object based on center of curvature

Also Published As

Publication number Publication date
JP4504158B2 (en) 2010-07-14

Similar Documents

Publication Publication Date Title
JP4288612B2 (en) Image processing apparatus and method, and program
JP4724890B2 (en) Image reproduction apparatus, image reproduction method, image reproduction program, and imaging apparatus
US20130002922A1 (en) Imaging apparatus and computer readable recording medium
WO2016002228A1 (en) Image-capturing device
JP4019200B2 (en) Camera with image display
JP2018157479A (en) Image pickup apparatus, control method of the same, and program
JP2007081465A (en) Remote controller and imaging apparatus
KR20110055241A (en) Digital photographing apparatus and method for controlling the same
JP4504158B2 (en) Camera, tracking device, tracking method, and tracking program
JP2006319903A (en) Mobile apparatus provided with information display screen
JP2005295418A (en) Image pickup device and image pickup and display method
JP6435527B2 (en) Imaging device
JP4418344B2 (en) camera
JP2012049841A (en) Imaging apparatus and program
JP4398346B2 (en) Camera, photographing sensitivity control method, shutter speed control method, and photographing sensitivity control program
JP6347056B2 (en) Imaging apparatus and still image generation method
JP2005072963A (en) Imaging device and its control method
KR20110060298A (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
JP2010009057A (en) Camera
JP2011004220A (en) Digital camera
JP5274223B2 (en) Imaging apparatus and control method thereof
JP6539115B2 (en) Imaging device, control method therefor, and program
JP2021141421A (en) Image processing device and control method thereof, imaging device, program, and storage medium
JP2012060520A (en) Imaging apparatus and program
JP2007005858A (en) Image recording apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090828

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100115

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100422

R151 Written notification of patent or utility model registration

Ref document number: 4504158

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140430

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees