JP2008026801A - Optical device and control method thereof - Google Patents

Optical device and control method thereof Download PDF

Info

Publication number
JP2008026801A
JP2008026801A JP2006202131A JP2006202131A JP2008026801A JP 2008026801 A JP2008026801 A JP 2008026801A JP 2006202131 A JP2006202131 A JP 2006202131A JP 2006202131 A JP2006202131 A JP 2006202131A JP 2008026801 A JP2008026801 A JP 2008026801A
Authority
JP
Japan
Prior art keywords
zoom
focus
lens
image
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006202131A
Other languages
Japanese (ja)
Other versions
JP4933184B2 (en
JP2008026801A5 (en
Inventor
Hiroyuki Hoshika
博之 星加
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006202131A priority Critical patent/JP4933184B2/en
Publication of JP2008026801A publication Critical patent/JP2008026801A/en
Publication of JP2008026801A5 publication Critical patent/JP2008026801A5/ja
Application granted granted Critical
Publication of JP4933184B2 publication Critical patent/JP4933184B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an optical device capable of performing a zooming operation while preventing out-of-focus of an object before and after the zooming operation and to provide a control method therefor. <P>SOLUTION: The optical device includes: an object detecting means, which detects an object from an image; a storage means, which stores data corresponding to the position of a focus lens according to the position of a zoom lens; and a control means, which exerts a focus correction control accompanying the movement of the zoom lens, by moving the focus lens based on the data of the storage means. The control means exerts the focus correction control according to the size of the object obtained by the object detecting means. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は自動焦点調節機能を備えた光学装置及びその制御方法に関するものである。   The present invention relates to an optical apparatus having an automatic focus adjustment function and a control method thereof.

撮像装置において、wide側(tele側)で被写体(対象物)にピントが合っていれば、tele側(wide側)へのズームイン(ズームアウト)動作後にも、その被写体にピントが合っていることが望まれている。また、被写体検出機能を有する撮像装置においては、ズーム動作後にも被写体にピントがあっていることにより被写体検出を素早く行なうことができる。   In the imaging apparatus, if the subject (object) is in focus on the wide side (tele side), the subject is in focus even after zooming in (zoom out) to the telele side (wide side). Is desired. In addition, in an imaging apparatus having a subject detection function, subject detection can be quickly performed because the subject is in focus even after the zoom operation.

上記理由により、従来は、ズーミング中の画像のピントずれ、及びズームレンズとフォーカスレンズの衝突等を防止するためにズーム動作に応じてフォーカスレンズを移動させる、いわゆるズームトラッキング制御が行なわれていた(例えば、特許文献1参照)。図1はズームレンズとフォーカスレンズの位置関係を表したズームトラッキング軌跡(カム軌跡)であり、各被写体距離に対して位置関係が決まっている。ズーム動作を行なう際には、ズームレンズ位置とフォーカスレンズ位置とから被写体距離に対応する情報が算出される。それに対応したズームトラッキング軌跡を追従してズーム動作が行なわれる。例えば、ズームイン動作において、被写体wide側でのフォーカスレンズ位置から被写体距離が無限遠と判断されれば、軌跡101を追従してズームイン動作が行なわれる。こうすることによって無限遠にピントを合わせつつズームイン動作を行なうことができる。
特開平1−321416号公報
For the above reason, conventionally, so-called zoom tracking control is performed in which the focus lens is moved in accordance with the zoom operation in order to prevent the image from being defocused during zooming and the collision between the zoom lens and the focus lens. For example, see Patent Document 1). FIG. 1 is a zoom tracking locus (cam locus) representing the positional relationship between the zoom lens and the focus lens, and the positional relationship is determined for each subject distance. When performing the zoom operation, information corresponding to the subject distance is calculated from the zoom lens position and the focus lens position. The zoom operation is performed following the corresponding zoom tracking locus. For example, in the zoom-in operation, if it is determined that the subject distance is infinite from the focus lens position on the subject wide side, the zoom-in operation is performed following the trajectory 101. By doing this, it is possible to perform a zoom-in operation while focusing at infinity.
JP-A-1-321416

上記従来例において、被写界深度によってはフォーカスレンズとズームレンズの位置関係から正確な被写体距離の算出を行なえない。例えば、被写体までの距離が5mであったとしても、被写体距離が無限遠と判断されれば、図1のズームレンズとフォーカスレンズの位置関係に基づいて無限遠のズームトラッキング軌跡を追従していた。   In the above conventional example, depending on the depth of field, the subject distance cannot be accurately calculated from the positional relationship between the focus lens and the zoom lens. For example, even if the distance to the subject is 5 m, if the subject distance is determined to be infinite, the zoom tracking locus at infinity is followed based on the positional relationship between the zoom lens and the focus lens in FIG. .

そのため、被写体がボケてしまう場合があった。   Therefore, the subject may be blurred.

本発明は、上記の問題点に鑑みなされたもので、その目的は、被写体にボケが生じることのないようにズーム動作を行なうことにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to perform a zoom operation so that the subject is not blurred.

上記目的を達成するために、本出願に係る光学装置は画像から対象物を検出する対象物検出手段と、ズームレンズの位置に応じたフォーカスレンズの位置に関するデータを記憶した記憶手段と、ズームレンズの移動に伴うピント補正制御を前記記憶手段のデータに基づいてフォーカスレンズを移動させて行なう制御手段とを有し、前記制御手段は、前記対象物検出手段により得られた対象物の大きさに応じて、前記ピント補正制御を行なうことを特徴とする。   In order to achieve the above object, an optical apparatus according to the present application includes an object detection unit that detects an object from an image, a storage unit that stores data relating to a position of a focus lens according to the position of the zoom lens, and a zoom lens. Control means for performing focus correction control associated with the movement of the focus lens by moving the focus lens based on the data of the storage means, and the control means has a size of the object obtained by the object detection means. Accordingly, the focus correction control is performed.

また、本発明の光学装置の制御方法は、ズームレンズの位置に応じたフォーカスレンズの位置に関するデータを取得するステップと、ズームレンズの移動に伴うピント補正制御を前記記憶手段のデータに基づいて前記フォーカスレンズの移動をさせるピント補正ステップとを有し、前記補正ステップでは、対象物の大きさに応じて、前記ピント補正を行なうことを特徴とする。   Further, the control method of the optical device according to the present invention includes the step of obtaining data relating to the position of the focus lens according to the position of the zoom lens, and the focus correction control accompanying the movement of the zoom lens based on the data of the storage means. A focus correction step for moving the focus lens, and the correction step performs the focus correction according to the size of the object.

本発明によれば対象物のボケを従来に比べて画期的に抑えたズーム動作を行なうことができる。   According to the present invention, it is possible to perform a zoom operation in which blurring of an object is epoch-making compared to the conventional art.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

(撮像装置の構成)
図2は、本実施形態の撮像装置(光学装置)のブロック図である。201は、ズームレンズ、フォーカスレンズ及び絞りからなる光学系である。202はメカニカルシャッタ(メカシャッタと図示する)、203は被写体からの光を像信号に変換する撮像素子、204はアナログ信号処理を行なうCDS回路、205はアナログ信号をデジタル信号に変換するA/D変換器である。また、206は撮像素子203やCDS回路204及びA/D変換器205を動作させる信号を発生するタイミング信号発生回路、207は光学系201やメカニカルシャッタ202及び撮像素子203の駆動回路である。また、208は、撮像した画像データに必要な信号処理を行なう信号処理回路である。さらに、信号処理回路には顔検出回路222を備えている。209は、信号処理された画像データや顔検出結果を記憶する画像メモリである。また、210は、撮像装置から取り外し可能な画像記録媒体であり、211は、信号処理された画像データを画像記録媒体210に記録するための処理をする記録回路である。また、212は、信号処理された画像データを表示する画像表示装置、213は、画像表示装置212に画像を表示するための処理をする表示回路である。また、214は、撮像装置全体を制御するシステム制御部である。また、215は、システム制御部214で実行される制御方法を記載したプログラムや、プログラムを実行する際に使用されるパラメータやテーブル等の制御データを記憶しておく不揮発性メモリ(ROM)である。不揮発性メモリ215はさらに、ズームトラッキング軌跡データ、及び、キズアドレス等の補正データも記憶している。ここでいうズームトラッキング軌跡データとは、ズームレンズの位置及び被写体距離に応じたフォーカスレンズの位置に関するデータである。このズームトラッキング軌跡データにしたがって、ズームレンズの移動に応じてフォーカスレンズを移動させれば、ピント補正制御を行なうことが可能となる。また、216は、不揮発性メモリ215に記憶されたプログラムや、制御データ及び補正データを転送して記憶しておき、システム制御部214が撮像装置を制御する際に使用する揮発性メモリ(RAM)である。また、217がストロボとなっている。
(Configuration of imaging device)
FIG. 2 is a block diagram of the imaging apparatus (optical apparatus) of the present embodiment. An optical system 201 includes a zoom lens, a focus lens, and a stop. 202 is a mechanical shutter (shown as a mechanical shutter), 203 is an image sensor that converts light from a subject into an image signal, 204 is a CDS circuit that performs analog signal processing, and 205 is an A / D conversion that converts an analog signal into a digital signal. It is a vessel. Reference numeral 206 denotes a timing signal generation circuit that generates signals for operating the image sensor 203, the CDS circuit 204, and the A / D converter 205. Reference numeral 207 denotes a drive circuit for the optical system 201, the mechanical shutter 202, and the image sensor 203. Reference numeral 208 denotes a signal processing circuit that performs signal processing necessary for captured image data. Further, the signal processing circuit includes a face detection circuit 222. Reference numeral 209 denotes an image memory for storing signal-processed image data and face detection results. Reference numeral 210 denotes an image recording medium that can be removed from the imaging apparatus, and reference numeral 211 denotes a recording circuit that performs processing for recording signal-processed image data on the image recording medium 210. Reference numeral 212 denotes an image display device that displays image data subjected to signal processing, and 213 denotes a display circuit that performs processing for displaying an image on the image display device 212. Reference numeral 214 denotes a system control unit that controls the entire imaging apparatus. Reference numeral 215 denotes a non-volatile memory (ROM) for storing a program describing a control method executed by the system control unit 214 and control data such as parameters and tables used when executing the program. . The nonvolatile memory 215 further stores zoom tracking locus data and correction data such as a scratch address. The zoom tracking locus data here is data relating to the position of the zoom lens and the position of the focus lens according to the subject distance. If the focus lens is moved according to the movement of the zoom lens according to the zoom tracking locus data, focus correction control can be performed. Reference numeral 216 denotes a volatile memory (RAM) used when the system control unit 214 controls the imaging apparatus by transferring and storing a program, control data, and correction data stored in the nonvolatile memory 215. It is. Reference numeral 217 denotes a strobe.

さらに、システム制御部214には顔検出の動作を制御する顔検出動作制御部223が備えてあり、光学系201には手ぶれ補正を行なうIS(Image Stabilizer)レンズ、が含まれている。また、振れ検出部224では振動ジャイロなどにより撮像装置の振れを検出することができ、この情報を元に手ぶれ補正が行なわれる。   Further, the system control unit 214 includes a face detection operation control unit 223 that controls the operation of face detection, and the optical system 201 includes an IS (Image Stabilizer) lens that performs camera shake correction. In addition, the shake detection unit 224 can detect the shake of the image pickup apparatus using a vibration gyro and the like, and camera shake correction is performed based on this information.

218は撮像装置の操作部であって、撮影条件の設定や撮影モードなどの選択を行なう。メインスイッチ(メインSW)221は操作者の指示によりシステムに電源を投入するためのスイッチ、219はシャッターボタンが操作者により半押しされたときにONとなるスイッチであって、ONとなると撮像のスタンバイ動作が行なわれる。220はシャッターボタンが操作者により押されたときにONとなるスイッチであって、ONとなると撮像が行なわれる。225は操作者によるズーム動作の指示を受けつけるズームキーである。   Reference numeral 218 denotes an operation unit of the imaging apparatus, which sets shooting conditions and selects a shooting mode. A main switch (main SW) 221 is a switch for turning on the system according to an instruction from the operator. A switch 219 is turned on when the shutter button is half-pressed by the operator. Standby operation is performed. Reference numeral 220 denotes a switch that is turned on when the shutter button is pressed by an operator. When the switch is turned on, an image is taken. Reference numeral 225 denotes a zoom key for receiving an instruction for a zoom operation by the operator.

以下、上述のように構成された撮像装置を用いた撮像動作について説明する。なお、以下の撮像動作ではメカニカルシャッタ202を使用する。撮像動作に先立ち、撮像装置の電源投入時等のシステム制御部214の動作開始時において、不揮発性メモリ215から必要なプログラム、制御データ及び補正データを揮発性メモリ216に転送して記憶しておくものとする。また、これらのプログラムやデータは、システム制御部214が撮像装置を制御する際に使用する。さらに、必要に応じて、追加のプログラムやデータを、適宜、不揮発性メモリ215から揮発性メモリ216に転送したり、システム制御部214が直接不揮発性メモリ215内のデータを読み出したりして使用するものとする。   Hereinafter, an imaging operation using the imaging apparatus configured as described above will be described. Note that the mechanical shutter 202 is used in the following imaging operation. Prior to the imaging operation, necessary programs, control data, and correction data are transferred from the nonvolatile memory 215 to the volatile memory 216 and stored when the operation of the system control unit 214 is started, such as when the imaging apparatus is turned on. Shall. These programs and data are used when the system control unit 214 controls the imaging apparatus. Further, if necessary, additional programs and data are appropriately transferred from the nonvolatile memory 215 to the volatile memory 216, or the system control unit 214 directly reads the data in the nonvolatile memory 215 and uses them. Shall.

まず、光学系201は、システム制御部214からの制御信号により、絞りとレンズを駆動して、適切な明るさに設定された被写体像を撮像素子203上に結像させる。次に、メカニカルシャッタ202は、システム制御部214からの制御信号により、必要な露光時間となるように撮像素子203の動作に合わせて撮像素子203を遮光するように駆動される。この時、撮像素子203が電子シャッタ機能を有する場合は、メカニカルシャッタ202と併用して、必要な露光時間を確保してもよい。撮像素子203は、システム制御部214により制御されるタイミング信号発生回路206が発生する動作パルスをもとにした駆動パルスで駆動され、被写体像を光電変換により電気信号に変換してアナログ画像信号として出力する。撮像素子203から出力されたアナログの画像信号は、システム制御部214により制御されるタイミング信号発生回路206が発生する動作パルスにより、CDS回路204でクロック同期性ノイズを除去し、A/D変換器205でデジタル画像信号に変換される。次に、システム制御部214により制御される信号処理回路208において、デジタル画像信号に対して、色変換、ホワイトバランス、ガンマ補正等の画像処理、解像度変換処理、画像圧縮処理等がなされる。画像メモリ209は、信号処理中のデジタル画像信号を一時的に記憶したり、信号処理されたデジタル画像信号である画像データを記憶したり、顔検出結果を一時的に記憶したりするために用いられる。信号処理回路208で信号処理された画像データや画像メモリ209に記憶されている画像データは、記録回路において画像記録媒体210に適したデータに変換されて画像記録媒体210に記録される。ここでいう画像記録媒体210に適したデータとは、例えば階層構造を持つファイルシステムデータである。また、信号処理回路208で信号処理された画像データや画像メモリ209に記憶されている画像データは、信号処理回路208で解像度変換処理を実施される。その後、表示回路において画像表示装置212に適した信号(例えばNTSC方式のアナログ信号等)に変換される。そして画像表示装置212に表示される。   First, the optical system 201 drives a diaphragm and a lens according to a control signal from the system control unit 214 to form a subject image set to an appropriate brightness on the image sensor 203. Next, the mechanical shutter 202 is driven by the control signal from the system control unit 214 so as to shield the image sensor 203 in accordance with the operation of the image sensor 203 so that a necessary exposure time is reached. At this time, when the image pickup element 203 has an electronic shutter function, it may be used together with the mechanical shutter 202 to secure a necessary exposure time. The image sensor 203 is driven by a drive pulse based on the operation pulse generated by the timing signal generation circuit 206 controlled by the system control unit 214, and converts the subject image into an electrical signal by photoelectric conversion as an analog image signal. Output. The analog image signal output from the image sensor 203 is subjected to an operation pulse generated by the timing signal generation circuit 206 controlled by the system control unit 214, and the clock synchronization noise is removed by the CDS circuit 204. The A / D converter In 205, it is converted into a digital image signal. Next, in the signal processing circuit 208 controlled by the system control unit 214, image processing such as color conversion, white balance, and gamma correction, resolution conversion processing, image compression processing, and the like are performed on the digital image signal. The image memory 209 is used to temporarily store a digital image signal during signal processing, store image data that is a digital image signal subjected to signal processing, or temporarily store a face detection result. It is done. The image data signal-processed by the signal processing circuit 208 and the image data stored in the image memory 209 are converted into data suitable for the image recording medium 210 by the recording circuit and recorded on the image recording medium 210. The data suitable for the image recording medium 210 here is, for example, file system data having a hierarchical structure. Further, the image data processed by the signal processing circuit 208 and the image data stored in the image memory 209 are subjected to resolution conversion processing by the signal processing circuit 208. Thereafter, the signal is converted into a signal suitable for the image display device 212 (for example, an NTSC analog signal or the like) in the display circuit. Then, it is displayed on the image display device 212.

ここで、信号処理回路208においては、システム制御部214からの制御信号により信号処理をせずにデジタル画像信号をそのまま画像データとして、画像メモリ209や記録回路に出力してもよい。また、信号処理回路208は、システム制御部214から要求があった場合に、信号処理の過程で生じたデジタル画像信号や画像データの情報、あるいは、それらから抽出された情報をシステム制御部214に出力する。ここでいう信号処理の過程で生じたデジタル画像信号や画像データの情報とは、例えば、画像の空間周波数、指定領域の平均値、圧縮画像のデータ量等の情報などである。さらに、記録回路は、システム制御部214から要求があった場合に、画像記録媒体210の種類や空き容量等の情報をシステム制御部214に出力する。   Here, the signal processing circuit 208 may output the digital image signal as it is as image data to the image memory 209 or the recording circuit without performing signal processing by the control signal from the system control unit 214. In addition, when requested by the system control unit 214, the signal processing circuit 208 sends the digital image signal and image data information generated in the signal processing process or information extracted from them to the system control unit 214. Output. The digital image signal and image data information generated in the signal processing here is, for example, information such as the spatial frequency of the image, the average value of the designated area, the data amount of the compressed image, and the like. Further, the recording circuit outputs information such as the type and free capacity of the image recording medium 210 to the system control unit 214 when requested by the system control unit 214.

さらに、画像記録媒体210に画像データが記録されている場合の再生動作について説明する。システム制御部214からの制御信号により記録回路は、画像記録媒体210から画像データを読み出す。また、システム制御部214からの制御信号により信号処理回路208は、画像データが圧縮画像であった場合には、画像伸長処理を行ない、画像メモリ209に記憶する。画像メモリ209に記憶されている画像データは、信号処理回路208で解像度変換処理を実施された後、表示回路において画像表示装置212に適した信号に変換されて画像表示装置212に表示される。   Further, a reproduction operation when image data is recorded on the image recording medium 210 will be described. The recording circuit reads image data from the image recording medium 210 in accordance with a control signal from the system control unit 214. In addition, when the image data is a compressed image, the signal processing circuit 208 performs an image expansion process according to a control signal from the system control unit 214 and stores it in the image memory 209. The image data stored in the image memory 209 is subjected to resolution conversion processing by the signal processing circuit 208, converted to a signal suitable for the image display device 212 in the display circuit, and displayed on the image display device 212.

(実施形態の動作)
以下、実施形態の動作について、図3〜図8を参照して詳細に説明する。
(Operation of the embodiment)
Hereinafter, the operation of the embodiment will be described in detail with reference to FIGS.

<撮像装置の全体的動作>
図3は、本実施形態の撮像装置の全体動作を示すフローチャートである。この処理は顔検出を行なう設定であった場合にシステム制御部214において実施される。
<Overall Operation of Imaging Device>
FIG. 3 is a flowchart illustrating the overall operation of the imaging apparatus according to the present embodiment. This processing is performed in the system control unit 214 when the setting is to perform face detection.

まず、ステップS301で顔検出回路222(被写体検出部)にて顔検出処理が行なわれ、検出結果は検出・未検出にかかわらずに画像メモリ209に一時的に保存される。その後、ステップS302へ進む。ステップS302では、システム制御部214がズームキー225の状態を検出する。ズームキー225が操作されていればステップS303へ進み、そうでなければステップS306へ進む。ステップS303では操作されているズーム動作が、ズームイン動作であるか、ズームアウト動作であるかの判断を行なう。ズームアウト動作であった場合は、後述する図4のフローチャートに従ってズームアウト動作が行なわれ(ステップS304)、ズームイン動作であった場合は後述する図5のフローチャートに従ってズームイン動作が行なわれる(ステップS305)。その後、ステップS306へ進む。   First, in step S301, face detection processing is performed by the face detection circuit 222 (subject detection unit), and the detection result is temporarily stored in the image memory 209 regardless of detection / non-detection. Thereafter, the process proceeds to step S302. In step S302, the system control unit 214 detects the state of the zoom key 225. If the zoom key 225 has been operated, the process proceeds to step S303; otherwise, the process proceeds to step S306. In step S303, it is determined whether the operated zoom operation is a zoom-in operation or a zoom-out operation. If it is a zoom-out operation, a zoom-out operation is performed according to the flowchart of FIG. 4 described later (step S304), and if it is a zoom-in operation, a zoom-in operation is performed according to the flowchart of FIG. 5 described later (step S305). . Thereafter, the process proceeds to step S306.

ステップS306ではスイッチSW1の状態を調べて、ONであればステップS307へ進み、そうでなければステップS301へ戻る。ステップS307では、撮像素子203の出力信号から被写体輝度を算出し信号処理回路208がAE処理を行なう。AE処理においては、撮像素子203の出力信号から、一画面分の領域の一部を取り出して、この領域の信号の輝度値に対して累積加算等の演算処理が行われる。これにより、被写体の明るさに応じたAE評価値が算出される。その後、信号処理回路208にてAF処理が行なわれる。AF処理においては、撮像素子203の出力信号から一画面分の領域の一部を取り出して、この領域の信号の高周波成分がハイパスフィルター(HPF)等を介して抽出され、更に累積加算等の演算処理が行われる。これにより、高域側の輪郭成分量等に対応するAF評価値が算出される。AFはAF評価値が最も多くなるフォーカスレンズの位置(合焦位置)を求めることにより行われる。   In step S306, the state of the switch SW1 is checked. If it is ON, the process proceeds to step S307, and if not, the process returns to step S301. In step S307, subject brightness is calculated from the output signal of the image sensor 203, and the signal processing circuit 208 performs AE processing. In the AE processing, a part of the area for one screen is extracted from the output signal of the image sensor 203, and arithmetic processing such as cumulative addition is performed on the luminance value of the signal in this area. Thereby, the AE evaluation value corresponding to the brightness of the subject is calculated. Thereafter, AF processing is performed in the signal processing circuit 208. In the AF process, a part of the area for one screen is extracted from the output signal of the image sensor 203, the high-frequency component of the signal in this area is extracted through a high-pass filter (HPF) or the like, and calculation such as cumulative addition is performed. Processing is performed. Thereby, an AF evaluation value corresponding to the contour component amount on the high frequency side is calculated. The AF is performed by obtaining the position (focus position) of the focus lens that maximizes the AF evaluation value.

また、前述の顔検出処理が行われた場合は顔検出の結果を元にAE、AF処理が行なわれる。具体的には、顔検出回路222にて検出された顔に対応する領域の信号にて前述のAE処理やAF処理が行なわれる。   When the face detection process described above is performed, AE and AF processes are performed based on the result of face detection. Specifically, the above-described AE processing and AF processing are performed on the signal of the area corresponding to the face detected by the face detection circuit 222.

ステップS308ではシステム制御部214でスイッチSW2の状態を調べて、ONであればステップS309へ進み撮像動作を行なう。そうでなければステップS310へ進む。ステップS310ではスイッチSW1の状態を調べて、ONであればステップS308へ戻り、そうでなければS301へ戻る。ステップS309の撮像後はステップS310へと進む。   In step S308, the state of the switch SW2 is checked by the system control unit 214. If the switch SW2 is ON, the process proceeds to step S309 to perform an imaging operation. Otherwise, the process proceeds to step S310. In step S310, the state of the switch SW1 is checked. If the switch SW1 is ON, the process returns to step S308; otherwise, the process returns to S301. After imaging in step S309, the process proceeds to step S310.

<ズームアウト動作>
図3のステップS304のズームアウト動作について、図4を用いて説明する。
<Zoom-out operation>
The zoom-out operation in step S304 in FIG. 3 will be described with reference to FIG.

この処理は、システム制御部214によって行なわれる。図4のシーケンスは、ズームアウト動作であった場合は、フォーカスレンズとズームレンズの位置関係から算出された被写体距離のズームトラッキング軌跡を追従してズームアウトされる。これは、ズームアウト動作においてはズームアウトが進むにつれて(焦点距離が短くなるにつれて)被写界深度が深くなるので、ズームアウト動作前後において被写体がボケることはないためである。   This process is performed by the system control unit 214. If the sequence of FIG. 4 is a zoom-out operation, the zoom-out is performed following the zoom tracking locus of the subject distance calculated from the positional relationship between the focus lens and the zoom lens. This is because in the zoom-out operation, the depth of field becomes deeper as the zoom-out progresses (as the focal length becomes shorter), so that the subject is not blurred before and after the zoom-out operation.

まず、ステップS401でシステム制御部214によってズームトラッキング軌跡をROM215から読み出し、フォーカスレンズ位置:F1とズームレンズ位置:Z5から被写体距離:L1が算出される(図6のa)。次に、ステップS402で前記処理にて求められた被写体距離:L1のズームトラッキング軌跡を追従してズームアウト動作が行なわれて、ステップS403へ進む。   First, in step S401, the system control unit 214 reads the zoom tracking locus from the ROM 215, and the subject distance L1 is calculated from the focus lens position F1 and the zoom lens position Z5 (a in FIG. 6). Next, in step S402, a zoom-out operation is performed following the zoom tracking locus of the subject distance: L1 obtained in the above process, and the process proceeds to step S403.

ステップS403ではシステム制御部214によってズームキー225が操作中であるかの検出を行ない、操作中であった場合は再びステップS402へ戻り、そうでない場合はステップS404へ進みズームアウト動作が停止される。   In step S403, the system control unit 214 detects whether the zoom key 225 is being operated. If the zoom key 225 is being operated, the process returns to step S402. If not, the process proceeds to step S404, and the zoom-out operation is stopped.

図6のaはズームレンズ位置:Z5からズームレンズ位置:Z1までズームアウトされた場合の駆動軌跡を表している。   FIG. 6A shows a driving locus when zooming out from the zoom lens position: Z5 to the zoom lens position: Z1.

<ズームイン動作>
図3のステップS305のズームイン動作を、図5を用いて説明する。
<Zoom in action>
The zoom-in operation in step S305 in FIG. 3 will be described with reference to FIG.

この処理は、信号処理回路208とシステム制御部214によって行なわれる。図5のシーケンスは、顔検出設定が行なわれていた場合に、顔検出の検出結果から求めた被写体距離のズームトラッキング軌跡を追従するようにしてズームインされる。   This processing is performed by the signal processing circuit 208 and the system control unit 214. The sequence of FIG. 5 is zoomed in so as to follow the zoom tracking locus of the subject distance obtained from the detection result of the face detection when the face detection setting is performed.

まず、ステップS501でシステム制御部214によってズームトラッキング軌跡をROM215から読み出し、フォーカスレンズ位置:F2とズームレンズ位置:Z1から被写体距離:L2が算出される(図6のb)。次に、ステップS502にて、ステップ301で行なわれた顔検出の結果を画像メモリ209から取得しステップS503へと進む。ステップS503では前記処理にて取得された顔検出結果の顔の大きさから被写体距離:A1の算出を行なう。算出方法として、顔の大きさが大きければ距離は近く、小さいと遠いと判断できるので、被写体としての顔の大きさとその被写体距離に比例関係をもたせて算出を行なう。ここで、顔が未検出であればA1=0とする。   First, in step S501, the zoom tracking locus is read from the ROM 215 by the system control unit 214, and the subject distance: L2 is calculated from the focus lens position: F2 and the zoom lens position: Z1 (b in FIG. 6). Next, in step S502, the result of face detection performed in step 301 is acquired from the image memory 209, and the process proceeds to step S503. In step S503, the subject distance: A1 is calculated from the face size of the face detection result acquired in the above process. As the calculation method, if the face size is large, the distance is close, and if the face size is small, it can be determined that the distance is long. Therefore, the calculation is performed with a proportional relationship between the face size as the subject and the subject distance. Here, if no face is detected, A1 = 0.

ここで、顔検出回路222では、パターン認識処理を実行して画像データから顔の情報を検出する。この顔の画像データの検出方法としては、パターン認識を用いる方法以外に、ニューラルネットワーク等による学習を用いる方法、物理的な形状における特徴のある部位を画像領域から抽出する方法がある。その他にも、検出した顔の肌の色や目の形等の画像特徴量を統計的に解析する方法等の多数の方法がある。さらに、実用化が検討されている方法としては、ウェーブレット変換と画像特徴量を利用する方法等がある。   Here, the face detection circuit 222 executes pattern recognition processing to detect face information from the image data. In addition to the pattern recognition method, the face image data detection method includes a method using learning using a neural network or the like, and a method of extracting a characteristic part of a physical shape from an image region. In addition, there are many other methods such as a method of statistically analyzing image feature quantities such as detected skin color and eye shape. Furthermore, methods that have been studied for practical use include a method that uses wavelet transform and image feature amounts.

システム制御部214(顔サイズ判別部を含む)は、顔検出回路222によって検出された顔の情報から顔領域(顔座標)におけるピクセル数をカウントし、このピクセル数により顔のサイズを判別する。   The system control unit 214 (including the face size determination unit) counts the number of pixels in the face area (face coordinates) from the face information detected by the face detection circuit 222, and determines the face size based on the number of pixels.

システム制御部214は、顔検出回路222によって検出された顔の情報(目の位置情報)に基づいて目の間隔を算出し、予め求めておいた目の間隔と顔のサイズ(ピクセル数)との統計的関係を用いてテーブル化し、顔のサイズを判別してもよい。また、顔の四隅(所定位置)の座標値から顔領域におけるピクセル数をカウントすることにより、顔のサイズを判別してもよい。   The system control unit 214 calculates the eye interval based on the face information (eye position information) detected by the face detection circuit 222, and calculates the eye interval and face size (number of pixels) obtained in advance. It is also possible to make a table using the statistical relationship and to determine the face size. Further, the face size may be determined by counting the number of pixels in the face area from the coordinate values of the four corners (predetermined positions) of the face.

システム制御部214では、顔のサイズ(ピクセル数)及び被写体距離の関係を示したデータを基に作成されたレンズ焦点距離38mm(広角)時の変換テーブルとを参照して被写体距離を求める。上述したように、顔の大きさとその被写体距離には比例関係がある。   The system control unit 214 obtains the subject distance with reference to the conversion table at the lens focal length of 38 mm (wide angle) created based on the data indicating the relationship between the face size (number of pixels) and the subject distance. As described above, there is a proportional relationship between the face size and the subject distance.

ズーム時におけるレンズ焦点距離が38mmでないときは、(38/ズーム時におけるレンズ焦点距離(mm))及び(判別した顔のサイズ)の積算値を用いて、変換テーブルを参照する。   If the lens focal length during zooming is not 38 mm, the conversion table is referred to using the integrated value of (38 / lens focal length during zooming (mm)) and (determined face size).

これにより、被写体距離を求めることができる。   Thereby, the subject distance can be obtained.

次のステップS504では、A1=0でないか判断を行なう。つまり、顔が検出されていなければL2のズームトラッキング軌跡を追従してズームイン動作される。そうでない場合は、ステップS505へ進む。次のステップS505では、フォーカスレンズ位置とズームレンズ位置から算出した被写体距離:L2と顔検出結果の顔の大きさから算出された被写体距離:A1との比較を行なう。A1≒L2であった場合はステップS507へ進みL2のズームトラッキング軌跡を追従してズームイン動作される。そうでない場合は、A1のズームトラッキング軌跡を追従してズームイン動作するためにステップS506へと進む。ステップS506では、追従する軌跡の修正が行なわれる。修正内容は例えば、図6のbのようにズームイン動作を行ないながら、ズームトラッキング軌跡:A1に乗り換えるように追従を行なう(点601→点604→点603)。こうしてズームイン後には被写体距離:A1にピントを合わせることができる。   In the next step S504, it is determined whether A1 = 0. In other words, if no face is detected, the zoom-in operation is performed following the zoom tracking locus of L2. Otherwise, the process proceeds to step S505. In the next step S505, the subject distance: L2 calculated from the focus lens position and the zoom lens position is compared with the subject distance: A1 calculated from the face size of the face detection result. If A1≈L2, the process proceeds to step S507, and the zoom-in operation is performed following the zoom tracking locus of L2. Otherwise, the process proceeds to step S506 to perform a zoom-in operation following the zoom tracking locus of A1. In step S506, the following locus is corrected. The correction content is, for example, following the zoom tracking locus: A1 while performing a zoom-in operation as shown in FIG. 6b (point 601 → point 604 → point 603). Thus, after zooming in, it is possible to focus on the subject distance A1.

ステップS507では、L2のズームトラッキング軌跡又はステップS506で修正された軌跡を追従してズームイン動作がなされる。   In step S507, the zoom-in operation is performed following the zoom tracking locus of L2 or the locus corrected in step S506.

次のステップS508ではズームキー225が操作されているか判断を行い、行なわれていなければステップS511へ進み、ズームイン動作は停止される。操作されていれば、ステップS509へ進む。ステップS509では、制御回路214にて所定以上にズームイン動作が行なわれたか判断を行ない、行なわれていればステップS510へと進む。行なわれていなければ、ステップS507へと進みズームイン動作が続けられる。ここで、所定量以上のズームイン動作が行なわれたかの判断は、所定の時間間隔:ΔT(ズーム動作開始からの経過時間を含む)またはズームレンズ位置間隔:ΔZ(ズーム動作開始からのズームレンズの移動量を含む)などを決めておき判断する。   In the next step S508, it is determined whether or not the zoom key 225 is operated. If not, the process proceeds to step S511, and the zoom-in operation is stopped. If it has been operated, the process proceeds to step S509. In step S509, the control circuit 214 determines whether or not the zoom-in operation has been performed more than a predetermined amount. If not, the process proceeds to step S507 and the zoom-in operation is continued. Here, whether or not the zoom-in operation is performed by a predetermined amount or more is determined by a predetermined time interval: ΔT (including an elapsed time from the start of the zoom operation) or a zoom lens position interval: ΔZ (the movement of the zoom lens from the start of the zoom operation) (Including the amount).

ステップS510では、顔検出回路222にてズームイン動作中の画像を取得し顔検出が行なわれ、ステップS504へと進む。ここでの処理は、顔検出は図7のようにズームイン動作と平行して行なわれる。こうすることによって、たとえ顔検出に時間がかかる場合でも、タイムロスなくズームイン動作を行なえる。また、このように所定間隔で顔の検出を繰り返すことによって、ズームイン動作以前に被写体の顔が小さくて検出できなかった場合でも、ズームイン動作後においては被写体にピントを合わせることが可能となる。   In step S510, the face detection circuit 222 acquires an image during the zoom-in operation to perform face detection, and the process proceeds to step S504. In this processing, face detection is performed in parallel with the zoom-in operation as shown in FIG. By doing this, even if it takes time to detect a face, the zoom-in operation can be performed without time loss. In addition, by repeating face detection at predetermined intervals in this manner, even when the face of the subject is small and cannot be detected before the zoom-in operation, the subject can be focused after the zoom-in operation.

以上により、顔検出結果をズームトラッキング制御に反映させることにより、ズームイン動作前後において被写体(顔)にボケが生じることがなくなる。   As described above, the face detection result is reflected in the zoom tracking control, so that the subject (face) is not blurred before and after the zoom-in operation.

なお、上記実施形態では、ステップS506でのズームトラッキング軌跡の修正内容として点601→点604→点603のような軌跡であったが、これに限らない。例えば、点601→点602→点603のように、一度フォーカスレンズだけを移動させてから、ズームトラッキング軌跡:A1を追従してもよい。   In the above-described embodiment, the correction contents of the zoom tracking locus in step S506 are locus such as point 601 → point 604 → point 603, but are not limited thereto. For example, the zoom tracking locus A1 may be followed after only the focus lens is moved once, such as point 601 → point 602 → point 603.

また、上記実施形態では、顔検出設定がなされえているときに行なわれる処理であったが、これに限らない。例えば、ポートレートモードなどの人物が被写体となるシーンモードが選ばれても顔検出設定がなされていない場合がある。この場合は図8のように、初期のズーム動作は従来どおり行ない、顔検出を行なってから、その結果に基づいて軌跡修正を行なってもよい。   In the above-described embodiment, the process is performed when the face detection setting has been made. However, the present invention is not limited to this. For example, there are cases where face detection is not set even when a scene mode in which a person is a subject, such as a portrait mode, is selected. In this case, as shown in FIG. 8, the initial zoom operation may be performed as before, and the locus may be corrected based on the result after performing face detection.

また、上記実施形態では、図5のステップS509での判断は、予め決められた時間間隔:ΔTまたはズームレンズ位置間隔:ΔZによって判断がなされていた。しかしながら、例えば、顔検出機能によって算出される顔検出結果の信頼度や成功度などが、低ければ間隔を短くし、高ければ間隔を長くするようにしてもよい。   Further, in the above embodiment, the determination in step S509 in FIG. 5 is made based on a predetermined time interval: ΔT or zoom lens position interval: ΔZ. However, for example, if the reliability or success level of the face detection result calculated by the face detection function is low, the interval may be shortened, and if high, the interval may be increased.

また、上記実施形態では、顔検出回路222にて顔検出処理が行なわれ、検出結果は検出・未検出にかかわらずに画像メモリ209に一時的に保存される構成としたが被写体(対象物)を検出するものであれば顔でなくてもよい。例えば、背景から被写体像を切り出して検出したりすることも考えられる。このとき被写体は人物以外でも予めある程度大きさがわかっている被写体であればよい。   In the above embodiment, the face detection process is performed by the face detection circuit 222, and the detection result is temporarily stored in the image memory 209 regardless of detection / non-detection. As long as it detects, it does not have to be a face. For example, it may be possible to cut out and detect a subject image from the background. At this time, the subject may be any subject other than a person whose size is known in advance.

また、上記実施形態では、SW1がONとなる前のズームキーの操作によるズーム動作中のピント補正に関して説明したが、これに限るものではない。例えば、動画撮影中にズームキーの操作があった場合にフォーカスレンズを移動させてピント補正をする際にも適用できる。   In the above embodiment, the focus correction during the zoom operation by the operation of the zoom key before SW1 is turned on has been described, but the present invention is not limited to this. For example, the present invention can be applied to focus correction by moving the focus lens when a zoom key is operated during moving image shooting.

また、ズーム動作が行なわれる前の状態では、前述のAF評価値を得る焦点検出方式もしくは位相差AF方式にて被写体にピントが合う位置にフォーカスレンズが移動されているものとする。なお、ここでいう位相差AF方式では、被写体からの光束A、Bが光学系をとおり、予定結像面に結像し、予定結像面の後方に設置した一対の二次結像レンズによってAFセンサa、bに再結像する。そして、このAFセンサa、bに再結像した被写体像の位相差を最小にすることによって焦点検出する。   Further, in a state before the zoom operation is performed, it is assumed that the focus lens is moved to a position where the subject is focused by the focus detection method or the phase difference AF method for obtaining the AF evaluation value described above. In the phase difference AF method here, the light fluxes A and B from the subject pass through the optical system and form an image on the planned imaging plane, and a pair of secondary imaging lenses installed behind the planned imaging plane. Re-image is formed on the AF sensors a and b. Then, focus detection is performed by minimizing the phase difference between the subject images re-imaged on the AF sensors a and b.

また、上記実施形態では、ズームアウトの際に、レンズ位置から算出した被写体距離情報を利用して軌跡修正を行ったが、ズームインの際と同様にして被写体としての顔検出結果から軌跡修正を行っても良い。被写界深度によっては、被写体の大きさを利用して軌跡修正を行う方が適切な場合があるからである。   In the above embodiment, the locus correction is performed using the subject distance information calculated from the lens position at the time of zooming out. However, the locus correction is performed from the face detection result as the subject as in the case of zooming in. May be. This is because, depending on the depth of field, it may be more appropriate to correct the locus using the size of the subject.

また、上記実施例では、レンズ鏡筒が一体的に設けられた撮像装置について説明したが、本発明は、レンズ交換式の撮像装置(一眼レフデジタルカメラなど)にも適用することができる。さらに、撮像装置から画像信号を取得してスキャンAF処理を行う光学機器としての交換レンズにも適用することができる。   In the above-described embodiments, the imaging apparatus in which the lens barrel is integrally provided has been described. However, the present invention can also be applied to an interchangeable lens imaging apparatus (such as a single-lens reflex digital camera). Furthermore, the present invention can also be applied to an interchangeable lens as an optical device that acquires an image signal from an imaging apparatus and performs scan AF processing.

なお、本実施形態では、ズームレンズやフォーカスレンズなどの光学系を有する撮像装置を例にとって説明したが、これに限るものではない。例えば、望遠鏡や顕微鏡等でもよい。   In the present embodiment, the imaging apparatus having an optical system such as a zoom lens and a focus lens has been described as an example. However, the present invention is not limited to this. For example, a telescope or a microscope may be used.

代表的なズームトラッキング軌跡を示すグラフである。It is a graph which shows a typical zoom tracking locus. 本発明を適用した撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device to which this invention is applied. 本発明を適用した撮像装置の処理を示すフローチャートである。It is a flowchart which shows the process of the imaging device to which this invention is applied. 図3におけるズームアウト動作処理のフローチャートである。4 is a flowchart of zoom-out operation processing in FIG. 3. 図3におけるズームイン動作処理のフローチャートである。It is a flowchart of the zoom-in operation process in FIG. 本発明のズームトラッキング動作を示すグラフである。It is a graph which shows the zoom tracking operation | movement of this invention. ズームトラッキング動作と顔検出の処理関係を示すグラフである。It is a graph which shows the processing relationship of zoom tracking operation and face detection. 顔検出がなされていない場合の、ズームトラッキング動作と顔検出の処理関係を示すグラフである。6 is a graph showing a processing relationship between zoom tracking operation and face detection when face detection is not performed.

符号の説明Explanation of symbols

201 光学系
202 メカニカルシャッタ
203 撮像素子
204 CDS
205 A/D変換機
206 タイミング信号発生装置
207 駆動回路
208 信号処理回路
209 画像メモリ
210 記録媒体
211 記録用回路
212 画像表示装置
213 表示用回路
214 システム制御回路
215 不揮発性メモリ
216 揮発性メモリ
217 ストロボ
218 撮像装置操作部
219 スイッチ(SW1)
220 スイッチ(SW2)
221 メインスイッチ
222 顔検出回路
223 顔検出動作制御部
224 振れ検出部
225 ズームキー
201 Optical System 202 Mechanical Shutter 203 Image Sensor 204 CDS
205 A / D converter 206 Timing signal generator 207 Drive circuit 208 Signal processing circuit 209 Image memory 210 Recording medium 211 Recording circuit 212 Image display device 213 Display circuit 214 System control circuit 215 Non-volatile memory 216 Volatile memory 217 Strobe 218 Imaging Device Operation Unit 219 Switch (SW1)
220 switch (SW2)
221 Main switch 222 Face detection circuit 223 Face detection operation control unit 224 Shake detection unit 225 Zoom key

Claims (8)

画像から対象物を検出する対象物検出手段と、
ズームレンズの位置に応じたフォーカスレンズの位置に関するデータを記憶した記憶手段と、
ズームレンズの移動に伴うピント補正制御を前記記憶手段のデータに基づいてフォーカスレンズを移動させて行なう制御手段とを有し、
前記制御手段は、前記対象物検出手段により得られた対象物の大きさに応じて、前記ピント補正制御を行なうことを特徴とする光学装置。
Object detection means for detecting the object from the image;
Storage means for storing data relating to the position of the focus lens according to the position of the zoom lens;
Control means for performing focus correction control accompanying movement of the zoom lens by moving the focus lens based on the data of the storage means;
The optical device according to claim 1, wherein the control unit performs the focus correction control according to a size of the object obtained by the object detection unit.
前記ピント補正制御は、前記対象物を検出した際の焦点距離に応じて変わることを特徴とする請求項1に記載の光学装置。   The optical apparatus according to claim 1, wherein the focus correction control changes according to a focal length when the object is detected. 前記制御手段は、予め決められた量以上のズーム動作が行なわれたときに取得された前記対象物の画角に対する大きさに基づいて前記補正制御を行うことを特徴とする請求項1または2に記載の光学装置。   3. The control unit according to claim 1, wherein the control unit performs the correction control based on a size of the object with respect to an angle of view acquired when a zoom operation of a predetermined amount or more is performed. An optical device according to 1. 前記予め決められた量とは、少なくともズーム動作開始からの経過時間及びズームレンズの移動量のいずれか一方を含むことを特徴とする請求項3に記載の光学装置。   4. The optical apparatus according to claim 3, wherein the predetermined amount includes at least one of an elapsed time from the start of the zoom operation and a movement amount of the zoom lens. 前記ズームレンズの位置及び前記フォーカスレンズの位置から対象物の距離に対応する情報を検出する検出手段を更に有し、
前記制御手段は、前記検出手段により得られた対象物の距離に対応する情報と前記記憶手段に記憶されたデータとに基づいて前記フォーカスレンズを移動させるピント補正制御を行なった後に、前記対象物検出手段により得られた対象物の大きさに応じたピント補正制御を行なうことを特徴とする請求項1乃至請求項4のいずれか1項に記載の光学装置。
A detecting means for detecting information corresponding to the distance of the object from the position of the zoom lens and the position of the focus lens;
The control means performs focus correction control for moving the focus lens based on information corresponding to the distance of the object obtained by the detection means and data stored in the storage means, and then performs the object correction. 5. The optical apparatus according to claim 1, wherein focus correction control is performed in accordance with a size of an object obtained by the detection unit.
前記ズームレンズの位置及び前記フォーカスレンズの位置から対象物の距離に対応する情報を検出する検出手段を更に有し、
前記制御手段は、前記対象物検出手段により対象物が検出されていない場合に、前記検出手段により得られた対象物の距離に対応する情報と前記記憶手段に記憶されたデータとに基づいて前記フォーカスレンズを移動させるピント補正制御を行なうことを特徴とする請求項1乃至請求項4のいずれか1項に記載の光学装置。
A detecting means for detecting information corresponding to the distance of the object from the position of the zoom lens and the position of the focus lens;
When the object is not detected by the object detection means, the control means is based on the information corresponding to the distance of the object obtained by the detection means and the data stored in the storage means. The optical apparatus according to claim 1, wherein focus correction control for moving the focus lens is performed.
前記制御手段は、ズームアウト動作の場合には前記対象物検出手段により得られた対象物の大きさに応じて制御し、ズームイン動作が行なわれる場合には、前記対象物検出手段の検出結果を用いないことを特徴とする請求項1乃至請求項4のいずれか1項に記載の光学装置。   The control means controls according to the size of the object obtained by the object detection means in the case of a zoom-out operation, and the detection result of the object detection means when the zoom-in operation is performed. The optical apparatus according to any one of claims 1 to 4, wherein the optical apparatus is not used. ズームレンズの位置に応じたフォーカスレンズの位置に関するデータを取得するステップと、
ズームレンズの移動に伴うピント補正制御を前記記憶手段のデータに基づいて前記フォーカスレンズの移動をさせるピント補正ステップとを有し、
前記補正ステップでは、画像から得られる対象物の大きさに応じて、前記ピント補正を行なうことを特徴とする光学装置の制御方法。
Obtaining data relating to the position of the focus lens according to the position of the zoom lens;
A focus correction step of moving the focus lens based on the data of the storage means for focus correction control accompanying the movement of the zoom lens,
In the correction step, the focus correction is performed according to the size of an object obtained from an image.
JP2006202131A 2006-07-25 2006-07-25 Optical device and control method thereof Expired - Fee Related JP4933184B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006202131A JP4933184B2 (en) 2006-07-25 2006-07-25 Optical device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006202131A JP4933184B2 (en) 2006-07-25 2006-07-25 Optical device and control method thereof

Publications (3)

Publication Number Publication Date
JP2008026801A true JP2008026801A (en) 2008-02-07
JP2008026801A5 JP2008026801A5 (en) 2009-09-10
JP4933184B2 JP4933184B2 (en) 2012-05-16

Family

ID=39117454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006202131A Expired - Fee Related JP4933184B2 (en) 2006-07-25 2006-07-25 Optical device and control method thereof

Country Status (1)

Country Link
JP (1) JP4933184B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010243843A (en) * 2009-04-07 2010-10-28 Fujifilm Corp Autofocus system
JP2019082646A (en) * 2017-10-31 2019-05-30 キヤノン株式会社 Lens control device and imaging device including the same, and lens control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003075717A (en) * 2001-09-06 2003-03-12 Nikon Corp Distance detecting device
JP2006018246A (en) * 2004-06-03 2006-01-19 Canon Inc Imaging apparatus and imaging method
JP2006201282A (en) * 2005-01-18 2006-08-03 Nikon Corp Digital camera
JP2007178543A (en) * 2005-12-27 2007-07-12 Samsung Techwin Co Ltd Imaging apparatus
JP2007248698A (en) * 2006-03-15 2007-09-27 Fujifilm Corp Method and apparatus for imaging
JP2007328212A (en) * 2006-06-09 2007-12-20 Sony Corp Imaging apparatus, imaging apparatus control method and computer program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003075717A (en) * 2001-09-06 2003-03-12 Nikon Corp Distance detecting device
JP2006018246A (en) * 2004-06-03 2006-01-19 Canon Inc Imaging apparatus and imaging method
JP2006201282A (en) * 2005-01-18 2006-08-03 Nikon Corp Digital camera
JP2007178543A (en) * 2005-12-27 2007-07-12 Samsung Techwin Co Ltd Imaging apparatus
JP2007248698A (en) * 2006-03-15 2007-09-27 Fujifilm Corp Method and apparatus for imaging
JP2007328212A (en) * 2006-06-09 2007-12-20 Sony Corp Imaging apparatus, imaging apparatus control method and computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010243843A (en) * 2009-04-07 2010-10-28 Fujifilm Corp Autofocus system
JP2019082646A (en) * 2017-10-31 2019-05-30 キヤノン株式会社 Lens control device and imaging device including the same, and lens control method
JP7039254B2 (en) 2017-10-31 2022-03-22 キヤノン株式会社 A lens control device, an image pickup device including the lens control device, and a lens control method.
US11378774B2 (en) 2017-10-31 2022-07-05 Canon Kabushiki Kaisha Lens control apparatus, imaging apparatus including lens control apparatus, and lens control method

Also Published As

Publication number Publication date
JP4933184B2 (en) 2012-05-16

Similar Documents

Publication Publication Date Title
JP4874669B2 (en) Autofocus unit and digital camera
EP1808014B1 (en) Camera and image processing method for camera
JP5895270B2 (en) Imaging device
US9635280B2 (en) Image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium
JP5237721B2 (en) Imaging device
JP2008271241A (en) Imaging apparatus, image processing apparatus, imaging method, and image processing method
JP2010050521A (en) Imaging device
JP6432038B2 (en) Imaging device
JP6326631B2 (en) Imaging device
JP2009081530A (en) Imaging apparatus and imaging method
JP2008129371A (en) Imaging apparatus
US10917556B2 (en) Imaging apparatus
JP5124929B2 (en) Focus adjustment device and digital camera
JP4933184B2 (en) Optical device and control method thereof
JPH0836129A (en) Method for focusing
JP2011048265A (en) Focus detection device and focus detection method
JP4905048B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND CONTROL PROGRAM
JP5892211B2 (en) Imaging apparatus and program
JP5962974B2 (en) Imaging apparatus, imaging method, and program
JP6858065B2 (en) Imaging device and its control method
JP5446660B2 (en) Image recognition apparatus and imaging apparatus
JP5024033B2 (en) Object tracking device, object tracking program, and object tracking method
JP6089232B2 (en) Imaging device
JP2009017093A (en) Image recognizing device, focus adjusting device and imaging apparatus
JP2006157604A (en) Camera apparatus and automatic photographing control program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090724

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090724

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120216

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees