JP4692273B2 - Focus detection device and camera - Google Patents

Focus detection device and camera Download PDF

Info

Publication number
JP4692273B2
JP4692273B2 JP2005372421A JP2005372421A JP4692273B2 JP 4692273 B2 JP4692273 B2 JP 4692273B2 JP 2005372421 A JP2005372421 A JP 2005372421A JP 2005372421 A JP2005372421 A JP 2005372421A JP 4692273 B2 JP4692273 B2 JP 4692273B2
Authority
JP
Japan
Prior art keywords
focus
evaluation value
focus detection
area
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005372421A
Other languages
Japanese (ja)
Other versions
JP2007171807A (en
JP2007171807A5 (en
Inventor
利巳 渡邉
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to JP2005372421A priority Critical patent/JP4692273B2/en
Publication of JP2007171807A publication Critical patent/JP2007171807A/en
Publication of JP2007171807A5 publication Critical patent/JP2007171807A5/ja
Application granted granted Critical
Publication of JP4692273B2 publication Critical patent/JP4692273B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数のAFエリアに関して焦点検出を行う焦点検出装置、および、その焦点検出装置を備えるカメラに関する。   The present invention relates to a focus detection device that performs focus detection for a plurality of AF areas, and a camera including the focus detection device.
CCDなどの撮像素子を用いて被写体像を撮像し、その撮像信号に基づいてコントラスト法によりオートフォーカス(AF)を行うカメラが知られている(例えば、特許文献1参照)。コントラストAF方式のカメラでは、AFエリアに点光源などの高輝度被写体があると、高輝度被写体に関する撮像信号が飽和し、合焦位置を正しく検出できなくなる場合がある。   2. Description of the Related Art A camera that captures a subject image using an image sensor such as a CCD and performs autofocus (AF) by a contrast method based on the image signal is known (see, for example, Patent Document 1). In a contrast AF system camera, if there is a high-brightness subject such as a point light source in the AF area, the imaging signal related to the high-brightness subject may saturate and the focus position may not be detected correctly.
特許文献1に記載のカメラでは、輝度信号が所定値より大きくなる走査線の数をカウントし、カウント数が所定数を超えると高輝度と判定する。高輝度と判定した場合には、高輝度と判定しない場合に比べて輝度信号の低周波数成分をより多く遮断する高域通過フィルタに切り換え、切り換え後の高域通過フィルタを通過した輝度信号から高周波数成分を抽出することにより、合焦位置を検出している。   In the camera described in Patent Document 1, the number of scanning lines whose luminance signal is larger than a predetermined value is counted, and when the count number exceeds a predetermined number, it is determined that the luminance is high. When judged as high brightness, switch to a high-pass filter that blocks more low-frequency components of the brightness signal than when not judged as high brightness, and from the brightness signal that passed through the high-pass filter after switching, The in-focus position is detected by extracting the frequency component.
特開平6−205268号公報JP-A-6-205268
しかしながら、高輝度の被写体の場合でも、焦点評価値が合焦位置でピークを有する場合がある。このような場合には、撮影信号の高周波数成分を通過させるフィルタの低域遮断周波数を切り換えてしまうと、正しく合焦位置を検出できないと言う問題が生じる。特に、複数のAFエリアを有するカメラでは、所望のAFエリアの被写体に合焦しないという不都合が生じる場合がある。   However, even in the case of a high-luminance subject, the focus evaluation value may have a peak at the in-focus position. In such a case, there is a problem that the in-focus position cannot be detected correctly if the low-frequency cutoff frequency of the filter that passes the high-frequency component of the photographic signal is switched. In particular, in a camera having a plurality of AF areas, there may be a problem that a subject in a desired AF area is not focused.
請求項1の発明は、光学系による被写体像を撮像する撮像素子の撮像信号のうち、第1および第2の焦点検出領域に対応する撮像信号に基づいて、第1および第2の焦点検出領域に関する光学系の合焦位置を算出する焦点検出装置に適用され、第1および第2の焦点検出領域が飽和領域か否かを判定する飽和判定手段と、第1および第2の焦点検出領域に対して撮像信号に基づく第1評価値を算出する第1評価値演算手段と、第1および第2の焦点検出領域が飽和判定手段により飽和領域と判定された場合に、第1および第2の焦点検出領域を合わせた合併領域に対して求めた少なくとも第1評価値に基づいて合焦位置を算出する合焦位置演算手段とを備えたことを特徴とする。 According to the first aspect of the present invention, the first and second focus detection areas are based on the imaging signals corresponding to the first and second focus detection areas, among the imaging signals of the imaging element that captures the subject image by the optical system. Applied to a focus detection device that calculates the in-focus position of the optical system with respect to the saturation detection means for determining whether or not the first and second focus detection areas are saturation areas, and the first and second focus detection areas. On the other hand, when the first evaluation value calculation means for calculating the first evaluation value based on the imaging signal and the first and second focus detection areas are determined as saturation areas by the saturation determination means, the first and second evaluation values are calculated. And a focus position calculation means for calculating a focus position based on at least the first evaluation value obtained for the merged area including the focus detection areas.
本発明によれば各焦点検出領域の被写体状況に応じた適切な合焦位置を算出することができる。
According to the present invention, it is possible to calculate an appropriate in-focus position corresponding to the subject situation in each focus detection area.
以下、図を参照して本発明を実施するための最良の形態について説明する。図1は、本発明の一実施の形態に係るカメラを説明する図である。図1はオートフォーカス(AF)電子カメラの要部構成を示すブロック図であり、電子カメラは、レンズユニット1と、撮像素子2と、A/D変換器3と、メモリ4と、画像処理回路5と、コントロール回路8と、CPU14と、モータ15と、フォーカス制御機構16とを備えている。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a camera according to an embodiment of the present invention. FIG. 1 is a block diagram showing the main configuration of an autofocus (AF) electronic camera. The electronic camera includes a lens unit 1, an image sensor 2, an A / D converter 3, a memory 4, and an image processing circuit. 5, a control circuit 8, a CPU 14, a motor 15, and a focus control mechanism 16.
レンズユニット1はフォーカスレンズを含んでおり、単一焦点距離(固定焦点)のレンズでも良いし、ズームレンズやステップズームレンズのように焦点可変のものでも良い。フォーカスレンズは、レンズユニット1を通過した被写体光が撮像素子2の撮像面上に結像するように、焦点位置を調節するレンズである。モータ15がフォーカス制御機構16を駆動することにより、フォーカスレンズが光軸方向に進退移動する。モータ15は、CPU14から出力されるレンズ駆動信号によって駆動される。   The lens unit 1 includes a focus lens, and may be a single focal length (fixed focus) lens, or may be a variable focus such as a zoom lens or a step zoom lens. The focus lens is a lens that adjusts the focal position so that the subject light that has passed through the lens unit 1 forms an image on the imaging surface of the imaging device 2. When the motor 15 drives the focus control mechanism 16, the focus lens moves forward and backward in the optical axis direction. The motor 15 is driven by a lens driving signal output from the CPU 14.
撮像素子2は、例えば、二次元CCDイメージセンサなどによって構成される。撮像素子2は、撮像面上の被写体像を撮像し、各画素に対応する撮像信号を出力する。撮像素子2から出力される撮像信号は、各画素に入射される光の強さに応じてその信号レベルが異なる。本実施形態では撮像素子2としてCCD撮像素子を用いているが、CCDの代わりにCMOSセンサやCIDなどを用いて構成してもよい。コントロール回路8は、撮像素子2に対するタイミング信号を生成して撮像素子2へ送出する。   The image sensor 2 is configured by, for example, a two-dimensional CCD image sensor. The imaging element 2 captures a subject image on the imaging surface and outputs an imaging signal corresponding to each pixel. The image signal output from the image sensor 2 has a different signal level depending on the intensity of light incident on each pixel. In this embodiment, a CCD image pickup device is used as the image pickup device 2, but a CMOS sensor, a CID, or the like may be used instead of the CCD. The control circuit 8 generates a timing signal for the image sensor 2 and sends it to the image sensor 2.
撮像素子2から出力された撮像信号は、A/D変換器3によってディジタル信号に変換された後に、メモリ4に格納される。画像処理回路5は、メモリ4に格納された画像データに対して所定の方式(例えば、JPEG)で圧縮処理を施し、圧縮処理後の画像データを外部記憶回路6に記憶させる。画像処理回路5は、外部記憶回路6に記録されている圧縮データを読み出して伸長する際の伸長処理も行う。外部記憶回路6は、例えば、メモリカードなどのデータストレージ部材によって構成される。   The imaging signal output from the imaging device 2 is converted into a digital signal by the A / D converter 3 and then stored in the memory 4. The image processing circuit 5 performs compression processing on the image data stored in the memory 4 by a predetermined method (for example, JPEG), and stores the compressed image data in the external storage circuit 6. The image processing circuit 5 also performs decompression processing when the compressed data recorded in the external storage circuit 6 is read and decompressed. The external storage circuit 6 is configured by a data storage member such as a memory card, for example.
CPU14は、AE/AWB回路7と、バンドパスフィルタ9と、積算回路10,11と、演算部12と、AF回路13と、飽和判定部17とを含む。CPU14は、コントロール回路8およびメモリ4などと接続され、電子カメラの焦点検出(AF)や測光(AE)、ホワイトバランス調整(AWB)などの各種演算とカメラ動作のシーケンス制御とを行う。CPU14には、不図示の操作部材から各種操作信号が入力される。CPU14は、操作部材から入力される操作信号に応じて、電子カメラの焦点検出制御、露出制御、およびカラーバランス制御を総括的に管理する。   The CPU 14 includes an AE / AWB circuit 7, a bandpass filter 9, integration circuits 10 and 11, a calculation unit 12, an AF circuit 13, and a saturation determination unit 17. The CPU 14 is connected to the control circuit 8 and the memory 4 and performs various calculations such as focus detection (AF), photometry (AE), white balance adjustment (AWB) of the electronic camera, and sequence control of the camera operation. Various operation signals are input to the CPU 14 from an operation member (not shown). The CPU 14 comprehensively manages focus detection control, exposure control, and color balance control of the electronic camera in accordance with an operation signal input from the operation member.
AE/AWB回路7は、周知の露出演算やホワイトバランス調整処理を行う。ホワイトバランス調整処理は、メモリ4に格納されている画像データに対して行われる。   The AE / AWB circuit 7 performs known exposure calculation and white balance adjustment processing. The white balance adjustment process is performed on the image data stored in the memory 4.
バンドパスフィルタ9は、メモリ4に格納されている画像処理前の画像データのうち、焦点検出用領域(フォーカスエリア)に対応する撮像領域の画像データから高周波数成分を抽出するフィルタである。バンドパスフィルタ9によるフィルタ処理後の画像データは、フィルタ処理前の画像データに比べて、低周波数成分、特に直流成分が除去されている。本実施の形態では、バンドパスフィルタ9によって低周波数成分が除去された画像データの周波数帯域を帯域1と呼び、フィルタ処理前の画像データの周波数帯域を帯域2と呼ぶことにする。   The band pass filter 9 is a filter that extracts a high frequency component from image data of an imaging region corresponding to a focus detection region (focus area) among image data before image processing stored in the memory 4. The image data after the filter processing by the band pass filter 9 has a low frequency component, particularly a direct current component, removed from the image data before the filter processing. In the present embodiment, the frequency band of the image data from which the low frequency component has been removed by the bandpass filter 9 is referred to as band 1, and the frequency band of the image data before the filter processing is referred to as band 2.
積分回路10,11は、フォーカスエリアに対応する撮像領域の画像データの積算処理を行う。本実施の形態のカメラでは、被写界内に複数のフォーカスエリアが設定されている。図2に示すエリアA1〜A5は、撮像素子の撮像領域内における上記フォーカスエリアに対応する領域を示したものである。以下では、これらのエリアA1〜A5もフォーカスエリアと称することにする。図1に示した積分回路10,11は、フォーカスエリアA1〜A5毎に、そのエリア内の画像データの積算処理を行う。   The integrating circuits 10 and 11 perform integration processing of image data in the imaging area corresponding to the focus area. In the camera of the present embodiment, a plurality of focus areas are set in the object scene. Areas A1 to A5 shown in FIG. 2 indicate areas corresponding to the focus area in the imaging area of the imaging device. Hereinafter, these areas A1 to A5 are also referred to as focus areas. The integration circuits 10 and 11 shown in FIG. 1 perform integration processing of image data in each of the focus areas A1 to A5.
積算回路10は、バンドパスフィルタ9でフィルタ処理した後の画像データ、すなわち帯域1の画像データに対して積算処理を行う。一方、積算回路11は、バンドパスフィルタ9を通さない帯域2の画像データに対して積算処理を行う。ここでは、積算回路10による積算結果を評価値AFv1と呼び、積算回路11による積算結果を評価値AFv2と呼ぶことにする。これらの評価値AFv1,AFv2はメモリ4に記憶される。   The integration circuit 10 performs integration processing on the image data that has been filtered by the bandpass filter 9, that is, image data in the band 1. On the other hand, the integration circuit 11 performs integration processing on the image data in the band 2 that does not pass through the bandpass filter 9. Here, the integration result by the integration circuit 10 is referred to as an evaluation value AFv1, and the integration result by the integration circuit 11 is referred to as an evaluation value AFv2. These evaluation values AFv1 and AFv2 are stored in the memory 4.
演算部12は、評価値AFv1,AFv2に基づいて評価値AFv3する。なお、評価値AFv3については、後述するサーチ動作説明において詳述する。飽和判定部17は、メモリ4から各AFエリアA1〜A5の画像データを読み込み、輝度信号が飽和レベル以上か否かを判定する。AF回路13は、後述するように、評価値AFv1、AFv3のいずれかに基づいてフォーカスレンズのAF動作を行う。   The computing unit 12 calculates the evaluation value AFv3 based on the evaluation values AFv1 and AFv2. The evaluation value AFv3 will be described in detail in the description of the search operation described later. The saturation determination unit 17 reads the image data of each of the AF areas A1 to A5 from the memory 4, and determines whether the luminance signal is equal to or higher than the saturation level. As will be described later, the AF circuit 13 performs the AF operation of the focus lens based on one of the evaluation values AFv1 and AFv3.
ところで、図2に示すように、点光源のような高輝度被写体Hがあった場合、例えば、夜間撮影時の街灯のような被写体があった場合、高輝度被写体Hを撮像している画素の出力信号は飽和してしまう。図2に示す例では、AFエリアA1,A2およびA5には高輝度被写体Hが存在しないが、AFエリアA3,A4には高輝度被写体Hが写り込んでいる。   By the way, as shown in FIG. 2, when there is a high-brightness subject H such as a point light source, for example, when there is a subject such as a streetlight at night shooting, the pixels of the high-brightness subject H are imaged. The output signal will be saturated. In the example shown in FIG. 2, the high brightness subject H does not exist in the AF areas A1, A2 and A5, but the high brightness subject H is reflected in the AF areas A3 and A4.
図3は、飽和エリアの場合の、フォーカスレンズの位置と評価値AFv1および評価値AFv2との関係の一例を示す図である。図3の縦軸は評価値レベルを、横軸はフォーカスレンズのレンズ位置を表している。図3において、評価値AFv1の曲線41は、合焦位置から外れた位置で「山」のピークが得られる(合焦位置D1より∞端側のピーク41aと、合焦位置D1より至近側のピーク41b)。   FIG. 3 is a diagram illustrating an example of the relationship between the position of the focus lens and the evaluation value AFv1 and the evaluation value AFv2 in the case of the saturation area. The vertical axis in FIG. 3 represents the evaluation value level, and the horizontal axis represents the lens position of the focus lens. In FIG. 3, the curve 41 of the evaluation value AFv1 has a peak of “mountain” at a position deviating from the in-focus position (the peak 41a on the ∞ end side from the in-focus position D1 and the near side from the in-focus position D1. Peak 41b).
図4は、図3の合焦位置D1付近の様子を示したものである。曲線L1,L2は、AFエリアA3およびA4における評価値AFv2の変化を示したものである。D1は合焦位置を示しており、AFエリアA3,A4の評価値AFv2は合焦位置D1で極小となる。評価値AFv2は輝度値にほぼ対応するものであり、撮像素子2の撮像面に投影された被写体像がぼけると高輝度被写体Hの像もぼけて、より多くの画素の出力信号が飽和するようになる。そのため、レンズ位置が合焦位置D1から遠ざかるにつれて、AFエリアA3,A4の評価値AFv2のレベルは大きくなる。   FIG. 4 shows a state near the in-focus position D1 in FIG. Curves L1 and L2 show changes in the evaluation value AFv2 in the AF areas A3 and A4. D1 indicates the in-focus position, and the evaluation value AFv2 of the AF areas A3 and A4 is minimal at the in-focus position D1. The evaluation value AFv2 substantially corresponds to the luminance value, and when the subject image projected on the imaging surface of the image sensor 2 is blurred, the image of the high-luminance subject H is also blurred, and the output signals of more pixels are saturated. become. Therefore, as the lens position moves away from the in-focus position D1, the level of the evaluation value AFv2 of the AF areas A3 and A4 increases.
図2に示す例では、AFエリアA4はAFエリアA3に比べて高輝度被写体Hの数が少ないので、合焦位置D1から遠ざかった時の評価値AFv2の増加の程度が、AFエリアA3に比べて小さくなっている。このように、AFエリアA4では、レンズ位置の変化に対する評価値AFv2の変化が小さいので、例えば、手ぶれ等によりAFエリアA4内の高輝度被写体Hの数が変化すると、図4の破線L20に示すように評価値AFv2が減少する場合がある。そのため、上述した従来の技術のように、評価値AFv1,AFv2の差分が極大となる位置を合焦位置として検出するものでは、手ぶれにより差分が極大となったレンズ位置を合焦位置と検出してしまう、偽合焦という不都合が生じる場合があった。このような不都合は、マルチエリアAFのように、AFエリアの大きさが小さくなるほど生じやすい。   In the example shown in FIG. 2, since the AF area A4 has a smaller number of high-luminance subjects H than the AF area A3, the degree of increase in the evaluation value AFv2 when moving away from the in-focus position D1 is larger than that in the AF area A3. It is getting smaller. As described above, in the AF area A4, since the change in the evaluation value AFv2 with respect to the change in the lens position is small, for example, when the number of high-luminance subjects H in the AF area A4 changes due to camera shake or the like, a broken line L20 in FIG. Thus, the evaluation value AFv2 may decrease. Therefore, as in the conventional technique described above, when the position where the difference between the evaluation values AFv1 and AFv2 is maximized is detected as the in-focus position, the lens position where the difference is maximized due to camera shake is detected as the in-focus position. Inconvenience of false focusing may occur. Such inconvenience is more likely to occur as the size of the AF area becomes smaller as in multi-area AF.
そこで、本実施の形態では、各AFエリアA1〜A5の合焦位置を求める際に、高輝度被写体Hが存在するAFエリアA3,A4に関しては、これらを合わせた領域を一つの合併エリアA3+A4として扱う。そして、合併エリアA3+A4に関しては評価値AFv3を用いて合焦レンズ位置を求める。一方、高輝度被写体Hが存在しないAFエリアA1,A2,A5に関しては、バンドパスフィルタ9でフィルタ処理された帯域1の積算値である評価値1を用いて、合焦位置をエリア毎に求める。   Therefore, in the present embodiment, when the in-focus positions of the AF areas A1 to A5 are obtained, regarding the AF areas A3 and A4 where the high-luminance subject H exists, the combined area is defined as one merged area A3 + A4. deal with. For the merged area A3 + A4, the focus lens position is obtained using the evaluation value AFv3. On the other hand, for the AF areas A1, A2, and A5 where the high-brightness subject H does not exist, the in-focus position is obtained for each area using the evaluation value 1 that is the integrated value of the band 1 filtered by the bandpass filter 9. .
図5は、本実施の形態におけるAF動作の一例を示すフローチャートであり、CPU14で行われるAF処理を示している。図5のフローチャートによる処理は、例えば、不図示のレリーズスイッチからの半押し操作信号がCPU14に入力されると開始される。ステップ#1では、AF動作に必要なデータやフラグ等の初期化を行う。フラグの一例としては、AFエリアが飽和していることを示す飽和フラグがある。   FIG. 5 is a flowchart showing an example of the AF operation in the present embodiment, and shows an AF process performed by the CPU 14. The process according to the flowchart of FIG. 5 is started when, for example, a half-press operation signal from a release switch (not shown) is input to the CPU 14. In step # 1, initialization of data and flags necessary for the AF operation is performed. An example of the flag is a saturation flag indicating that the AF area is saturated.
ステップ#2では、合焦動作を行う際のフォーカスレンズのサーチ開始位置およびサーチ終了位置を設定する。本実施の形態では、図6に示すようにサーチ開始位置を至近端に、サーチ終了位置を∞(無限遠)端に、それぞれ設定する。なお、サーチ開始位置を∞端に、サーチ終了位置を至近端に設定しても良いし、AF動作開始時のレンズ位置や撮影モードに応じて最適な値に設定するようにしても良い。ステップ#3において、CPU14はモータ15に駆動信号を出力し、レンズユニット1のフォーカスレンズ(不図示)をサーチ開始位置(至近端)に移動させる。   In step # 2, the search start position and search end position of the focus lens when performing the focusing operation are set. In the present embodiment, as shown in FIG. 6, the search start position is set at the closest end, and the search end position is set at the ∞ (infinity) end. Note that the search start position may be set to the ∞ end, and the search end position may be set to the closest end, or may be set to an optimum value according to the lens position and the shooting mode at the start of the AF operation. In step # 3, the CPU 14 outputs a drive signal to the motor 15 to move the focus lens (not shown) of the lens unit 1 to the search start position (closest end).
ステップ#4では、レンズ移動速度を設定する。サーチ開始位置からサーチ終了位置までのフォーカスレンズの移動時間は、この移動速度によって決定される。レンズ移動速度を遅くすると、図6のサーチ動作におけるサンプリング数(図の黒丸)、すなわち、後述する履歴データの数が多くなり、レンズ移動速度を速くすると、履歴データの数が少なくなる。   In step # 4, the lens moving speed is set. The moving time of the focus lens from the search start position to the search end position is determined by this moving speed. When the lens moving speed is slowed down, the number of samplings (black circles in the figure) in the search operation of FIG. 6, that is, the number of history data described later increases, and when the lens moving speed is fastened, the number of history data decreases.
続くステップ#5からステップ#9までが、サーチ動作の処理を示している。ステップ#5では、メモリ4に記憶された画像データに基づいて、各AFエリアA1〜A5の画像データをバンドパスフィルタ9でフィルタ処理する。そして、フィルタ処理された画像データを積算回路10で積算処理することにより、各AFエリアA1〜A5毎に評価値AFv1を算出する。算出された評価値AFv1は、評価値1履歴の履歴データとして記憶される。このとき、評価値AFv1は画像データ取得時のレンズ位置と関連付けられて各AFエリアA1〜A5毎に記憶される。   Subsequent steps # 5 to # 9 show the processing of the search operation. In step # 5, the image data of each AF area A 1 to A 5 is filtered by the band pass filter 9 based on the image data stored in the memory 4. Then, the filtered image data is subjected to integration processing by the integration circuit 10, thereby calculating an evaluation value AFv1 for each of the AF areas A1 to A5. The calculated evaluation value AFv1 is stored as history data of the evaluation value 1 history. At this time, the evaluation value AFv1 is stored for each AF area A1 to A5 in association with the lens position at the time of image data acquisition.
なお、本実施の形態では、一旦メモリ4に格納した画像データを、CPU14に読み込んで評価値を計算するようにしているが、A/D変換器3から出力された画像データを逐次バンドパスフィルタ9へ送り、データ転送と同時に評価値を算出するようにしても良い。逐次バンドパスフィルタ9にデータ転送する構成とすることにより、メモリ4に一旦記憶する場合に比べて、評価値の計算遅れを低減することができる。   In this embodiment, the image data once stored in the memory 4 is read into the CPU 14 and the evaluation value is calculated. However, the image data output from the A / D converter 3 is sequentially converted into a bandpass filter. The evaluation value may be calculated simultaneously with the data transfer. By adopting a configuration in which data is sequentially transferred to the band-pass filter 9, it is possible to reduce evaluation value calculation delay as compared with a case where data is temporarily stored in the memory 4.
続くステップ#6では、メモリ4に記憶された画像データに基づいて、各AFエリアA1〜A5の画像データを積算回路11で積算処理することにより、各AFエリアA1〜A5毎に評価値AFv2を算出する。算出された評価値AFv2は、評価値2履歴の履歴データとして記憶される。このとき、評価値AFv2は画像データ取得時のレンズ位置と関連付けられて各AFエリアA1〜A5毎に記憶される。   In the subsequent step # 6, the image data of each AF area A1 to A5 is integrated by the integration circuit 11 based on the image data stored in the memory 4, thereby obtaining the evaluation value AFv2 for each AF area A1 to A5. calculate. The calculated evaluation value AFv2 is stored as history data of the evaluation value 2 history. At this time, the evaluation value AFv2 is stored for each AF area A1 to A5 in association with the lens position at the time of image data acquisition.
ステップ#7では、メモリ4に記憶された画像データに基づいて、飽和判定部17により次のような飽和判定を各AFエリアA1〜A5毎に行う。まず、AFエリア内の輝度信号を求め、輝度信号の最大値が予め設定された飽和レベル以上か否かを判定する。そして、飽和レベル以上と判定された場合には、飽和フラグを立てる。飽和レベルとしては、例えば、輝度信号が12BitでAD変換されている場合には、信号レベル3800を飽和レベルとして設定すれば良い。   In step # 7, based on the image data stored in the memory 4, the saturation determination unit 17 performs the following saturation determination for each AF area A1 to A5. First, a luminance signal in the AF area is obtained, and it is determined whether or not the maximum value of the luminance signal is equal to or higher than a preset saturation level. If it is determined that the saturation level is exceeded, a saturation flag is set. As the saturation level, for example, when the luminance signal is AD-converted with 12 bits, the signal level 3800 may be set as the saturation level.
ステップ#8では、ステップ#4で設定した移動速度でフォーカスレンズを移動させる。ステップ#9では、フォーカスレンズのレンズ位置がステップ#2で設定したサーチ終了位置に達したか否かを判定し、達したと判定されるとステップ#10へ進み、達していないと判定されるとステップ#5へ戻ってサーチ動作を継続する。   In step # 8, the focus lens is moved at the moving speed set in step # 4. In step # 9, it is determined whether or not the lens position of the focus lens has reached the search end position set in step # 2. If it is determined that the lens has reached, the process proceeds to step # 10, and is determined not to have been reached. Returning to step # 5, the search operation is continued.
ステップ#10では、飽和エリアの判定を行う。すなわち、各AFエリアA1〜A5に関して、飽和フラグが立っているか否かを判定し、飽和フラグが立っているAFエリアを飽和エリアと判定する。上述した飽和フラグを立てるステップ#7の処理は、サーチ動作中の各サンプリング点で各々行われるので、本実施の形態の場合には、複数のサンプリングのいずれか一つにおいて輝度信号の最大値が飽和レベル以上と判定されると、そのAFエリアは飽和エリアと判定されることになる。なお、サーチ動作中に1回でも輝度信号の最大値が飽和レベル以上となったならば、飽和エリアと判定する代わりに、飽和レベル以上となる回数が所定回数以上の場合に飽和エリアと判定しても良い。   In step # 10, a saturated area is determined. That is, for each of the AF areas A1 to A5, it is determined whether a saturation flag is set, and the AF area where the saturation flag is set is determined as a saturation area. Since the above-described processing of step # 7 for setting the saturation flag is performed at each sampling point during the search operation, in the case of the present embodiment, the maximum value of the luminance signal in any one of the plurality of samplings. If it is determined that the level is equal to or higher than the saturation level, the AF area is determined to be a saturated area. If the maximum value of the luminance signal is equal to or higher than the saturation level even once during the search operation, instead of determining as the saturated area, it is determined as the saturated area when the number of times exceeding the saturation level is equal to or greater than the predetermined number. May be.
ステップ#11において、演算部12は、ステップ#10で飽和エリアと判定された全てのAFエリアの評価値AFv1,AFv2に基づいて、評価値AFv3を次のように算出する。なお、評価値AFv3の算出方法については、本発明者による出願特許(特開2004−246013号公報)に詳しく記載されている。まず、次式(1)により差分Δを算出する。この差分Δの算出は、画像データ取得時の各レンズ位置毎に行われるので、図6のサンプリング数(黒丸の数)と同数の差分Δが得られる。
Δ=ΣAFv2−ΣAFv1 …(1)
In step # 11, the calculation unit 12 calculates the evaluation value AFv3 as follows based on the evaluation values AFv1 and AFv2 of all the AF areas determined as the saturated area in step # 10. The calculation method of the evaluation value AFv3 is described in detail in a patent application filed by the present inventor (Japanese Patent Application Laid-Open No. 2004-246013). First, the difference Δ is calculated by the following equation (1). Since the difference Δ is calculated for each lens position at the time of image data acquisition, the same number of differences Δ as the number of samplings (number of black circles) in FIG. 6 is obtained.
Δ = ΣAFv2−ΣAFv1 (1)
次に、複数の差分Δから最大値Δmaxを検出し、最大値Δmaxと各差分Δとの差を評価値AFv3とする。このようにして、レンズ位置毎に得られた評価値AFv3の集合を評価値3履歴と呼ぶことにする。評価値AFv3は、飽和エリアと判定されたAFエリアを一つのAFエリアとみなした場合の評価値を表している。   Next, a maximum value Δmax is detected from a plurality of differences Δ, and a difference between the maximum value Δmax and each difference Δ is set as an evaluation value AFv3. A set of evaluation values AFv3 obtained for each lens position in this way is referred to as an evaluation value 3 history. The evaluation value AFv3 represents an evaluation value when an AF area determined as a saturated area is regarded as one AF area.
図2に示す例では、高輝度被写体Hが存在するAFエリアA3,A4は飽和エリアと判定され、AFエリアA3,A4を一つのエリアと考えて評価値AFv3を算出する。図3から分かるように、差分Δは合焦位置D1から遠ざかるにつれて大きくなるので、最大値Δmaxから差分Δを差し引いた値である評価値AFv3はD1で極大となる。   In the example shown in FIG. 2, the AF areas A3 and A4 in which the high brightness subject H exists are determined as saturation areas, and the evaluation value AFv3 is calculated by regarding the AF areas A3 and A4 as one area. As can be seen from FIG. 3, the difference Δ increases as the distance from the in-focus position D1 increases. Therefore, the evaluation value AFv3, which is a value obtained by subtracting the difference Δ from the maximum value Δmax, becomes maximum at D1.
ステップ#12において、AF回路13は、ステップ#10で飽和エリアと判定されなかったAFエリアに関して、評価値1履歴を用いて各AFエリアの合焦位置を算出する。図2に示す例では、高輝度被写体Hが存在しないAFエリアA1,A2,A5について、評価値1履歴に基づく合焦位置が算出される。   In step # 12, the AF circuit 13 calculates the in-focus position of each AF area using the evaluation value 1 history for the AF area that is not determined as the saturated area in step # 10. In the example illustrated in FIG. 2, the in-focus position based on the evaluation value 1 history is calculated for the AF areas A1, A2, and A5 where the high brightness subject H does not exist.
図7は合焦位置の算出方法を説明する図であって、縦軸は評価値を、横軸はフォーカスレンズのレンズ位置をそれぞれ表している。破線で示す曲線がレンズ位置を変えた場合の評価値を表しており、曲線上の黒丸がサーチ動作により得られた評価値AFv1である。これらの評価値AFv1が評価値1履歴である。上述したステップ#12においては、曲線の最大点を含むP1〜P3の3点について、いわゆる3点内挿演算を行って曲線の極大点に対応するレンズ位置D1を算出する。   FIG. 7 is a diagram for explaining a method of calculating the in-focus position, where the vertical axis represents the evaluation value and the horizontal axis represents the lens position of the focus lens. The curve indicated by the broken line represents the evaluation value when the lens position is changed, and the black circle on the curve is the evaluation value AFv1 obtained by the search operation. These evaluation values AFv1 are the evaluation value 1 history. In step # 12 described above, a so-called three-point interpolation operation is performed on the three points P1 to P3 including the maximum point of the curve to calculate the lens position D1 corresponding to the maximum point of the curve.
レンズ位置D1は、最大点P2と点P3とを通る傾きαの直線と、点P1を通る傾き−αの直線との交点に対応する。このレンズ位置D1は、撮像素子2によって撮像される被写体像のエッジのボケをなくし、画像のコントラストを最大にする位置であり、ステップ#12で算出すべき合焦位置である。   The lens position D1 corresponds to the intersection of a straight line having an inclination α passing through the maximum point P2 and the point P3 and a straight line having an inclination −α passing through the point P1. This lens position D1 is a position that eliminates blurring of the edge of the subject image picked up by the image pickup device 2 and maximizes the contrast of the image, and is a focus position to be calculated in step # 12.
ステップ#13では、飽和エリアと判定されたAFエリアA3,A4に関して、それらを合わせた合併エリアA3+A4の評価値3履歴に基づいて合焦位置を算出する。この合焦位置は、合併エリアA3+A4の合焦位置になっている。合焦位置の算出方法は、上述したエリアA1,A2,A5の場合と同様であって、評価値AFv1に代えて評価値AFv3を用いて同様の計算を行えば良い。なお、上述した特開2004−246013号公報に記載されているように、評価値AFv3を用いることにより、撮像信号が飽和している飽和エリアであっても合焦位置を正確に検出することができる。   In step # 13, with respect to the AF areas A3 and A4 determined to be saturated areas, the in-focus position is calculated based on the evaluation value 3 history of the merged area A3 + A4 obtained by combining them. This in-focus position is the in-focus position of the merged area A3 + A4. The method for calculating the in-focus position is the same as in the above-described areas A1, A2, and A5, and the same calculation may be performed using the evaluation value AFv3 instead of the evaluation value AFv1. Note that, as described in Japanese Patent Application Laid-Open No. 2004-246013 described above, by using the evaluation value AFv3, it is possible to accurately detect the in-focus position even in a saturated area where the imaging signal is saturated. it can.
上述した、ステップ#12およびステップ#13の処理により、各AFエリアA1,A2,A5について合焦位置が得られるとともに、AFエリアA3,A4全体(合併エリアA3+A4)に関して一つの合焦位置が得られる。続くステップ#14では、ステップ#12およびステップ#13で得られた合計4つの合焦位置から、最終的にフォーカスレンズを移動すべき最終合焦位置を算出する。例えば、最も至近側の合焦位置を最終合焦位置とするモード設定になっている場合には、4つの合焦位置の内で最至近のものを最終合焦とする。ステップ#15では、モータ15を駆動して、フォーカスレンズをステップ#14で算出された最終合焦位置へ移動し、図4に示す合焦動作の処理を終了する。   Through the above-described processing of step # 12 and step # 13, in-focus positions are obtained for the respective AF areas A1, A2, A5, and one in-focus position is obtained for the entire AF areas A3, A4 (merged area A3 + A4). It is done. In the subsequent step # 14, the final focus position where the focus lens is to be finally moved is calculated from the total of four focus positions obtained in step # 12 and step # 13. For example, when the mode setting is such that the closest focusing position is the final focusing position, the closest focusing position among the four focusing positions is set as the final focusing. In step # 15, the motor 15 is driven to move the focus lens to the final focusing position calculated in step # 14, and the processing of the focusing operation shown in FIG. 4 ends.
図8は、各AFエリアA1〜A5の撮像データから、上述した4つの合焦位置が算出されるまでのデータの流れを模式的に示したものである。飽和していないAFエリアA1、A2,A5に関しては、各エリアの撮像データから評価値AFv1をそれぞれ算出し、その評価値AFv1に基づいて各エリアの合焦位置(エリア合焦位置)Da1,Da2,Da5が得られる。   FIG. 8 schematically shows a data flow from the imaging data of each of the AF areas A1 to A5 until the above-described four in-focus positions are calculated. For the AF areas A1, A2, and A5 that are not saturated, the evaluation value AFv1 is calculated from the imaging data of each area, and the focus position (area focus position) Da1, Da2 of each area is calculated based on the evaluation value AFv1. , Da5 is obtained.
一方、AFエリアA3,A4に関してはそれぞれ評価値AFv1,AFv2が算出され、さらに、それらの評価値AFv1,AFv2に基づいて、合併エリアA3+A4に対して評価値AFv3が算出される。そして、評価値AFv3に基づいて合併エリアA3+A4の合焦位置(飽和合焦位置)D(a3+a4)が算出される。   On the other hand, evaluation values AFv1 and AFv2 are calculated for the AF areas A3 and A4, respectively, and an evaluation value AFv3 is calculated for the merged area A3 + A4 based on the evaluation values AFv1 and AFv2. Then, the in-focus position (saturated in-focus position) D (a3 + a4) of the merged area A3 + A4 is calculated based on the evaluation value AFv3.
上述したように、本実施の形態では、AFエリアA1〜A5に飽和エリアが複数あった場合、それらの飽和エリアを合わせて一つの合併したAFエリアとして考え、さらに、飽和エリアA3,A4の評価値AFv1,AFv2から算出される評価値AFv3に基づいて合併エリアA3+A4の飽和合焦位置を求めるようにした。その結果、複数のAFエリアに分割されたマルチエリアのカメラにおいて、飽和していないAFエリアだけでなく、撮像信号が飽和しているAFエリアにおいても合焦位置を正確に求めることができる。例えば、従来のように、手ぶれ等によって、高輝度被写体Hが少ないAFエリアA4単独で合焦位置を算出した場合には偽合焦となるような状況であっても、合併したエリアA3+A4では高輝度被写体Hの数が多くなるため、合焦位置の算出をより正確に行うことができる。   As described above, in the present embodiment, when there are a plurality of saturated areas in the AF areas A1 to A5, the saturated areas are considered as one merged AF area, and the saturated areas A3 and A4 are evaluated. Based on the evaluation value AFv3 calculated from the values AFv1 and AFv2, the saturation focus position of the merged area A3 + A4 is obtained. As a result, in a multi-area camera divided into a plurality of AF areas, the in-focus position can be accurately obtained not only in an AF area that is not saturated but also in an AF area where the imaging signal is saturated. For example, as in the conventional case, even when the focus position is calculated solely by the AF area A4 with few high-luminance subjects H due to camera shake or the like, the merged area A3 + A4 is high even if the focus position is false. Since the number of luminance subjects H increases, the in-focus position can be calculated more accurately.
さらに、そのようにして得られた複数の合焦位置から、最終的な合焦位置を一つ求めるようにしているので、偽合焦の発生を防止することができる。   Furthermore, since one final focus position is obtained from the plurality of focus positions obtained in this way, the occurrence of false focus can be prevented.
上述した実施の形態では、最大値Δmaxから差分Δを差し引いた値である評価値AFv3を用いて飽和エリアの合焦位置を検出したが、差分Δを評価値AFv3として用いても良い。この場合、差分Δが極小となるレンズ位置が合焦位置となる。また、評価値AFv2と評価値AFv1との比を評価値AFv3として用いても良し、評価値AFv2を評価値AFv3として用いても良い。すなわち、飽和エリアに関しては、より低周波成分を含んだ評価値AFv2を考慮することにより、飽和エリアでも正確な合焦位置算出を行うことができる。   In the embodiment described above, the in-focus position of the saturated area is detected using the evaluation value AFv3 that is a value obtained by subtracting the difference Δ from the maximum value Δmax, but the difference Δ may be used as the evaluation value AFv3. In this case, the lens position where the difference Δ is minimal is the in-focus position. Further, the ratio between the evaluation value AFv2 and the evaluation value AFv1 may be used as the evaluation value AFv3, or the evaluation value AFv2 may be used as the evaluation value AFv3. That is, regarding the saturated area, by taking into consideration the evaluation value AFv2 including a lower frequency component, accurate focus position calculation can be performed even in the saturated area.
上述した差分Δや評価値AFv2と評価値AFv1との比を評価値AFv3として用いた場合、各AFエリアA1〜A5毎の評価値AFv3をサーチ動作中に算出することができる。この場合、飽和していないAFエリアA1,A2,A5に関しても評価値AFv3が算出されることになる。   When the difference Δ or the ratio between the evaluation value AFv2 and the evaluation value AFv1 is used as the evaluation value AFv3, the evaluation value AFv3 for each of the AF areas A1 to A5 can be calculated during the search operation. In this case, the evaluation value AFv3 is also calculated for the AF areas A1, A2, and A5 that are not saturated.
なお、上述した実施の形態では、飽和エリアを合わせて一つの合併エリアとし合焦位置を算出したが、AFエリアの合併を行わず、それぞれの飽和エリア毎に評価値AFv3に基づいて合焦位置を算出するようにしても良い。その場合、高輝度被写体が少ない状況は別として、各焦点検出領域の被写体状況に応じた適切な合焦位置を算出できるという効果を奏する。   In the embodiment described above, the in-focus position is calculated by combining the saturated areas into one merged area. However, the in-focus position is calculated based on the evaluation value AFv3 for each saturated area without merging the AF areas. May be calculated. In this case, there is an effect that an appropriate in-focus position can be calculated according to the subject situation in each focus detection area, apart from the situation where there are few high-luminance subjects.
また、本実施の形態では、バンドパスフィルタ9,積算回路10,11によるフィルタ処理および積算処理をCPU14によるソフトウェアで処理しているが、これらの機能をハードウェアで実現するように構成しても良い。さらにまた、撮像素子を用いた撮影を行う電子カメラを例に説明したが、撮像素子の出力信号を用いて焦点検出を行う焦点検出装置やカメラであれば、本発明を適用することができる。なお、本発明の特徴を損なわない限り、本発明は上記実施の形態に何ら限定されるものではない。   In this embodiment, the filter processing and integration processing by the bandpass filter 9 and the integration circuits 10 and 11 are processed by software by the CPU 14, but these functions may be configured to be realized by hardware. good. Furthermore, although an electronic camera that performs imaging using an image sensor has been described as an example, the present invention can be applied to any focus detection device or camera that performs focus detection using an output signal of an image sensor. Note that the present invention is not limited to the above embodiment as long as the characteristics of the present invention are not impaired.
オートフォーカス(AF)電子カメラの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of an autofocus (AF) electronic camera. 飽和エリアを説明する図である。It is a figure explaining a saturation area. 飽和エリアの場合の、フォーカスレンズの位置と評価値AFv1および評価値AFv2との関係の一例を示す図である。It is a figure which shows an example of the relationship between the position of a focus lens, evaluation value AFv1, and evaluation value AFv2 in the case of a saturation area. AFエリアA3,A4における評価値AFv2の変化を示す図である。It is a figure which shows the change of evaluation value AFv2 in AF area A3, A4. AF動作の一例を示すフローチャートである。It is a flowchart which shows an example of AF operation | movement. サーチ動作を説明する図である。It is a figure explaining search operation. 合焦位置の算出方法を説明する図である。It is a figure explaining the calculation method of a focus position. 各AFエリアA1〜A5の撮像データから、上述した4つの合焦位置が算出されるまでのデータの流れを模式的に示したブロック図である。It is the block diagram which showed typically the flow of data until the four above-mentioned focus positions are calculated from the imaging data of each AF area A1-A5.
符号の説明Explanation of symbols
1:レンズユニット、2:撮像素子、3:A/D変換器、4:メモリ、9:バンドパスフィルタ、10,11:積算回路、12:演算部、13:AF回路、14:CPU、17:飽和判定部   1: Lens unit, 2: Image sensor, 3: A / D converter, 4: Memory, 9: Band pass filter, 10, 11: Integration circuit, 12: Arithmetic unit, 13: AF circuit, 14: CPU, 17 : Saturation judgment unit

Claims (7)

  1. 光学系による被写体像を撮像する撮像素子の撮像信号のうち、第1および第2の焦点検出領域に対応する撮像信号に基づいて、前記第1および第2の焦点検出領域に関する前記光学系の合焦位置を算出する焦点検出装置において、
    前記第1および第2の焦点検出領域が飽和領域か否かを判定する飽和判定手段と、
    前記第1および第2の焦点検出領域に対して前記撮像信号に基づく第1評価値を算出する第1評価値演算手段と、
    前記第1および第2の焦点検出領域が前記飽和判定手段により飽和領域と判定された場合に、前記第1および第2の焦点検出領域を合わせた合併領域に対して求めた少なくとも前記第1評価値に基づいて合焦位置を算出する合焦位置演算手段とを備えたことを特徴とする焦点検出装置。
    Based on the imaging signals corresponding to the first and second focus detection areas among the imaging signals of the imaging device that captures the subject image by the optical system, the combination of the optical systems related to the first and second focus detection areas. In the focus detection device that calculates the focal position,
    Saturation determination means for determining whether or not the first and second focus detection areas are saturation areas;
    First evaluation value calculation means for calculating a first evaluation value based on the imaging signal for the first and second focus detection areas;
    When the first and second focus detection areas are determined to be saturated areas by the saturation determination means, at least the first evaluation obtained for the merged area combining the first and second focus detection areas A focus detection apparatus comprising: a focus position calculation means for calculating a focus position based on a value.
  2. 請求項1に記載の焦点検出装置において、
    前記撮像信号から所定の信号成分を抽出する抽出手段と、
    前記第1および第2の焦点検出領域に対して前記抽出手段で抽出された信号成分に基づく第2評価値を算出する第2評価値演算手段と、
    前記合併領域に対する前記第1評価値および第2評価値に基づいて、第3評価値を算出する第3評価値演算手段とをさらに有し、
    前記合焦位置演算手段は、前記合併領域に対する前記第3評価値に基づいて前記合併領域に関する前記合焦位置を算出することを特徴とする焦点検出装置。
    The focus detection apparatus according to claim 1,
    Extracting means for extracting a predetermined signal component from the imaging signal;
    Second evaluation value calculation means for calculating a second evaluation value based on the signal component extracted by the extraction means for the first and second focus detection areas;
    A third evaluation value calculating means for calculating a third evaluation value based on the first evaluation value and the second evaluation value for the merged area;
    The focus position calculating means calculates the focus position for the merged area based on the third evaluation value for the merged area.
  3. 請求項2に記載の焦点検出装置において、
    前記抽出手段は、前記撮像信号から所定の高周波数成分を抽出することにより前記所定の信号成分を抽出することを特徴とする焦点検出装置。
    The focus detection apparatus according to claim 2,
    The focus detection apparatus, wherein the extraction unit extracts the predetermined signal component by extracting a predetermined high-frequency component from the imaging signal.
  4. 請求項3に記載の焦点検出装置において、
    前記合焦位置演算手段は、前記飽和判定手段により飽和領域と判定されなかった焦点検出領域に対して、前記第2評価値に基づいて前記合焦位置を算出するとともに、前記飽和判定手段により飽和領域と判定された焦点検出領域に対して、前記第3評価値に基づいて前記合焦位置を算出することを特徴とする焦点検出装置。
    The focus detection apparatus according to claim 3,
    The focus position calculation means calculates the focus position based on the second evaluation value for a focus detection area that has not been determined as a saturation area by the saturation determination means, and is saturated by the saturation determination means. A focus detection apparatus, wherein the focus position is calculated based on the third evaluation value for a focus detection area determined to be an area.
  5. 請求項1〜4のいずれか一項に記載の焦点検出装置において、
    前記複数の焦点検出領域に対して前記合焦位置演算手段により算出された複数の合焦位置から、いずれか一つを最終的な合焦位置として選択する選択手段をさらに備えたことを特徴とする焦点検出装置。
    In the focus detection apparatus according to any one of claims 1 to 4,
    It further comprises selection means for selecting any one of the plurality of focus positions calculated by the focus position calculation means for the plurality of focus detection areas as a final focus position. Focus detection device.
  6. 請求項2〜4のいずれか一項に記載の焦点検出装置において、
    前記第3評価値演算手段は、前記第1評価値と前記第2評価値との差分に基づいて前記第3評価値を算出することを特徴とする焦点検出装置。
    In the focus detection apparatus according to any one of claims 2 to 4,
    The focus evaluation apparatus, wherein the third evaluation value calculation means calculates the third evaluation value based on a difference between the first evaluation value and the second evaluation value.
  7. 請求項1〜6のいずれか一項に記載の焦点検出装置と、
    前記焦点検出装置の検出結果に基づいて焦点調節を行う焦点調節手段とを備えることを特徴とするカメラ。
    The focus detection apparatus according to any one of claims 1 to 6,
    A camera comprising: a focus adjustment unit that performs focus adjustment based on a detection result of the focus detection device.
JP2005372421A 2005-12-26 2005-12-26 Focus detection device and camera Expired - Fee Related JP4692273B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005372421A JP4692273B2 (en) 2005-12-26 2005-12-26 Focus detection device and camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005372421A JP4692273B2 (en) 2005-12-26 2005-12-26 Focus detection device and camera

Publications (3)

Publication Number Publication Date
JP2007171807A JP2007171807A (en) 2007-07-05
JP2007171807A5 JP2007171807A5 (en) 2009-03-26
JP4692273B2 true JP4692273B2 (en) 2011-06-01

Family

ID=38298417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005372421A Expired - Fee Related JP4692273B2 (en) 2005-12-26 2005-12-26 Focus detection device and camera

Country Status (1)

Country Link
JP (1) JP4692273B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6539015B2 (en) 2013-12-05 2019-07-03 キヤノン株式会社 Image pickup apparatus and control method thereof
JP6421032B2 (en) * 2014-12-26 2018-11-07 オリンパス株式会社 Focus detection apparatus, focus detection method, and focus detection program
JP2017034389A (en) * 2015-07-30 2017-02-09 ソニー株式会社 Imaging apparatus, image sensor, and image processing system
JP2018072554A (en) 2016-10-28 2018-05-10 オリンパス株式会社 Imaging device and focus adjustment method
CN112822410B (en) * 2021-04-19 2021-06-22 浙江华创视讯科技有限公司 Focusing method, focusing device, electronic device and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08289192A (en) * 1995-04-17 1996-11-01 Sanyo Electric Co Ltd Auto-focusing video camera
JP2001194576A (en) * 2000-01-14 2001-07-19 Minolta Co Ltd Range-finding device and camera equipped therewith
JP2004117296A (en) * 2002-09-27 2004-04-15 Fuji Photo Optical Co Ltd Distance measuring apparatus and camera provided therewith
JP2004246013A (en) * 2003-02-13 2004-09-02 Nikon Corp Camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08289192A (en) * 1995-04-17 1996-11-01 Sanyo Electric Co Ltd Auto-focusing video camera
JP2001194576A (en) * 2000-01-14 2001-07-19 Minolta Co Ltd Range-finding device and camera equipped therewith
JP2004117296A (en) * 2002-09-27 2004-04-15 Fuji Photo Optical Co Ltd Distance measuring apparatus and camera provided therewith
JP2004246013A (en) * 2003-02-13 2004-09-02 Nikon Corp Camera

Also Published As

Publication number Publication date
JP2007171807A (en) 2007-07-05

Similar Documents

Publication Publication Date Title
JP4647885B2 (en) camera
JP4265233B2 (en) camera
JP2004361484A (en) Autofocus camera
JP2004325517A (en) Imaging unit
JP2007286474A (en) Focus detector and photographing device
JP2002287017A (en) Focusing state detecting device for photographic lens
WO2002099497A1 (en) Device for determining focused state of taking lens
JP4645413B2 (en) Imaging device
JP2004309739A (en) Focus detection device
JP4692273B2 (en) Focus detection device and camera
JP4775172B2 (en) Electronic camera
JP4902946B2 (en) Auto focus camera
JP2007133301A (en) Autofocus camera
JP2008042227A (en) Imaging apparatus
JP2008185823A (en) Focus detector and camera
JP4520792B2 (en) Automatic focus control method and automatic focus control device
JP2009098167A (en) Imaging device and program of the same
JP2007256463A (en) Automatic focusing device and camera
JP2005227447A (en) Autofocus camera
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
JP4595390B2 (en) camera
JP2006330160A (en) Autofocus camera
JP5320937B2 (en) Focus detection apparatus and imaging apparatus
JP5597942B2 (en) Electronic camera
JP2006138899A (en) Camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081219

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101012

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4692273

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees