JP2010008443A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2010008443A
JP2010008443A JP2008164022A JP2008164022A JP2010008443A JP 2010008443 A JP2010008443 A JP 2010008443A JP 2008164022 A JP2008164022 A JP 2008164022A JP 2008164022 A JP2008164022 A JP 2008164022A JP 2010008443 A JP2010008443 A JP 2010008443A
Authority
JP
Japan
Prior art keywords
photoelectric conversion
distance
element line
conversion elements
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008164022A
Other languages
Japanese (ja)
Other versions
JP5095519B2 (en
Inventor
Toshiyuki Tanaka
俊幸 田中
Toshihiro Hamamura
俊宏 濱村
Yuki Endo
由樹 遠藤
Tsuyoshi Moriya
剛志 森谷
Kiyoki Takafuji
巨樹 高藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Digital Imaging Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Digital Imaging Co Ltd filed Critical Samsung Digital Imaging Co Ltd
Priority to JP2008164022A priority Critical patent/JP5095519B2/en
Priority to KR20080107967A priority patent/KR101510107B1/en
Publication of JP2010008443A publication Critical patent/JP2010008443A/en
Application granted granted Critical
Publication of JP5095519B2 publication Critical patent/JP5095519B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus and an imaging method which calculates the distance to a subject with high accuracy. <P>SOLUTION: The imaging apparatus includes: an imaging device 107 having a plurality of photoelectric conversion elements which are disposed two-dimensionally and convert a subject image into an electric signal, the subject image being projected on a light receiving face from a subject; a reading section 111 which sequentially reads electric signals for each photoelectric conversion element from an element line including a plurality of photoelectric conversion elements arranged on one virtual line; and a distance calculating section 132 that calculates the distance to the subject based on an electric signal intensity distribution difference between a first element line set and a second element line set, the first element line set including a plurality of parallel element lines included in a ranging frame, which is an area of part of the imaging device, and a second element line set being disposed on a line extended from the first element line set in the lengthwise direction and includes a plurality of element lines included in the ranging frame and parallel to each other. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置及び撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method.

デジタルスチルカメラ(撮像装置)には、例えば、クイックリターンミラーを備えて、撮影前は結像光学系からの光をファインダー側に導く一眼レフカメラと、クイックリターンミラーを備えず、撮影前も結像光学系から撮像素子(光電変換素子)に光を導くコンパクトカメラなどがある。   Digital still cameras (imaging devices) are equipped with, for example, a quick return mirror, and before shooting, a single-lens reflex camera that guides the light from the imaging optical system to the viewfinder side, and a quick return mirror. There are compact cameras that guide light from an image optical system to an imaging device (photoelectric conversion device).

デジタルスチルカメラは、被写体が撮像面でフォーカス(合焦)するようにフォーカス制御する。デジタルスチルカメラのフォーカス制御には、例えば、位相差検出方式やコントラスト検出方式などがある。位相差検出方式は、被写体の2つの像の位相差から合焦位置を検出して、その合焦位置にフォーカスレンズを駆動する。コントラスト検出方式は、フォーカスレンズを移動しながら画像信号を取得し、コントラスト値が最も高くなる位置(画像中に最もエッジを多く検出した位置)を検出して、そのときのフォーカスレンズの位置を合焦位置として決定する。   The digital still camera performs focus control so that the subject is focused on the imaging surface. The focus control of a digital still camera includes, for example, a phase difference detection method and a contrast detection method. In the phase difference detection method, a focus position is detected from a phase difference between two images of a subject, and a focus lens is driven to the focus position. The contrast detection method acquires the image signal while moving the focus lens, detects the position where the contrast value is highest (the position where the most edges are detected in the image), and aligns the position of the focus lens at that time. Determine as the focal position.

例えば、特許文献1には、位相差検出方式においてCMOS(complementary metal oxide semiconductor)センサーを使用した技術が開示されている。また、特許文献2には、コントラスト検出方式において被写体が低輝度であるとき複数の画素値を加算して精度良く合焦する技術が開示されている。   For example, Patent Document 1 discloses a technique using a complementary metal oxide semiconductor (CMOS) sensor in a phase difference detection method. Further, Patent Document 2 discloses a technique for accurately focusing by adding a plurality of pixel values when the subject has low luminance in the contrast detection method.

特開2004−12815号公報Japanese Patent Laid-Open No. 2004-12815 特開2006−324760号公報JP 2006-324760 A

位相差検出方式は、被写体からの光束を2つに分離して、光の分布の出現距離に基づいて、カメラと被写体と間の距離を算出する。従来、位相差検出方式では、光の検出にラインセンサーが用いられてきた。ラインセンサーは複数の光電変換素子が1次元方向に配置されたセンサーである。図12は、従来の撮像装置のファインダー10及び測距枠12との関係を示す説明図である。ファインダー10内に測距枠12があるとき、測距枠12に対応するように撮像装置内部にはラインセンサー14が配置されている。   In the phase difference detection method, the light flux from the subject is separated into two, and the distance between the camera and the subject is calculated based on the appearance distance of the light distribution. Conventionally, in the phase difference detection method, a line sensor has been used for light detection. The line sensor is a sensor in which a plurality of photoelectric conversion elements are arranged in a one-dimensional direction. FIG. 12 is an explanatory diagram showing a relationship between the finder 10 and the distance measurement frame 12 of the conventional imaging apparatus. When there is a distance measuring frame 12 in the finder 10, a line sensor 14 is arranged inside the imaging apparatus so as to correspond to the distance measuring frame 12.

なお、特許文献1では、ラインセンサーではなく、複数の光電変換素子が2次元方向に配置されたCMOSセンサーを使用する場合について記載されている。しかし、特許文献1の技術は、CMOSセンサーを構成する複数の素子からラインセンサーのように1つの直線上の素子を抽出して走査する技術である。そのため、特許文献1は、被写体像の走査及び距離の算出について従来のラインセンサーとほぼ同一の構成を有している。   Patent Document 1 describes a case where a CMOS sensor in which a plurality of photoelectric conversion elements are arranged in a two-dimensional direction is used instead of a line sensor. However, the technique of Patent Document 1 is a technique for extracting and scanning elements on one straight line like a line sensor from a plurality of elements constituting a CMOS sensor. Therefore, Patent Document 1 has almost the same configuration as that of a conventional line sensor with respect to scanning of a subject image and calculation of a distance.

位相差検出方式では、被写体からの光束が、例えば左右方向に2つに分離されてラインセンサー14に照射される。図12に示すように測距枠12に被写体5がある場合、ラインセンサー14では左右でそれぞれ図13に示すような出力値の分布が得られる。図13は、従来の撮像装置のラインセンサー14の出力値分布を示すグラフである。左右の出力ピーク値の波形間距離Aは、撮像装置と被写体との間の距離に応じて変化する。例えば、撮影距離が長くなるにつれて波形間距離Aは短くなり、撮影距離が短くなると波形間距離Aは長くなる。波形間距離Aを算出するためには、左右2つの波形の相関が最も強くなるところを検出する必要がある。   In the phase difference detection method, the light beam from the subject is split into two in the left-right direction, for example, and irradiated to the line sensor 14. As shown in FIG. 12, when the subject 5 is in the distance measuring frame 12, the line sensor 14 obtains the distribution of output values as shown in FIG. FIG. 13 is a graph showing the output value distribution of the line sensor 14 of the conventional imaging apparatus. The distance A between the waveforms of the left and right output peak values changes according to the distance between the imaging device and the subject. For example, the inter-waveform distance A becomes shorter as the photographing distance becomes longer, and the inter-waveform distance A becomes longer as the photographing distance becomes shorter. In order to calculate the inter-waveform distance A, it is necessary to detect the place where the correlation between the two left and right waveforms is the strongest.

相関検出としては、例えば、一方の波形データを画素単位でシフトしながら他方の波形データとの差分の総和をとり、総和が最小となるときの距離を相関が最も強い波形間距離Aであると判断する方法がある。   As the correlation detection, for example, the sum of the differences from the other waveform data is calculated while shifting one waveform data in units of pixels, and the distance when the sum is minimum is the inter-waveform distance A having the strongest correlation. There is a way to judge.

このとき相関値は、例えば次の式(数式1)で表わすことができ、図13に示す出力値分布では図14に示すような相関値と波形間距離の関係を示すグラフが得られる。図14は、相関値と波形間距離の関係を示すグラフである。相関値が最小min1となるときと図13の波形間距離Aとが対応する。   At this time, the correlation value can be expressed by, for example, the following equation (Equation 1), and the output value distribution shown in FIG. 13 provides a graph showing the relationship between the correlation value and the inter-waveform distance as shown in FIG. FIG. 14 is a graph showing the relationship between the correlation value and the inter-waveform distance. When the correlation value is the minimum min1, the distance A between waveforms in FIG. 13 corresponds.

Figure 2010008443
ここで、n:Area画素数、j:相対画素位置である。
Figure 2010008443
Here, n is the number of Area pixels, and j is a relative pixel position.

ところで、図15に示すように測距枠12内に異なる距離の被写体5及び7が存在する場合、ラインセンサー14では左右でそれぞれ図16に示すような出力値の分布が得られる。図15は、従来の撮像装置のファインダー10及び測距枠12との関係を示す説明図である。図16は、従来の撮像装置のラインセンサー14の出力値分布を示すグラフである。   By the way, when the subjects 5 and 7 having different distances exist in the distance measuring frame 12 as shown in FIG. 15, the line sensor 14 obtains output value distributions as shown in FIG. FIG. 15 is an explanatory diagram showing a relationship between the finder 10 and the distance measurement frame 12 of the conventional imaging apparatus. FIG. 16 is a graph showing the output value distribution of the line sensor 14 of the conventional imaging apparatus.

図16に示すように複数の出力ピーク値が検出されるとき、2つの出力値分布による距離算出において誤差が生じやすい、又は距離の算出が不可能になるという問題がある。即ち、図16に示すような波形が得られたとき相関検出をすると、図17に示すような相関値と波形間距離の関係を示すグラフが得られる。図17は、相関値と波形間距離の関係を示すグラフである。図17に示すように2つの波形間距離A、B共に相関値が等しく最小の相関値min2となるとき、撮像装置と被写体との間の距離を決定することが出ない。また、複数の出力ピーク値が検出されると相関値も高くなるため、距離検出の精度も低くなる。   As shown in FIG. 16, when a plurality of output peak values are detected, there is a problem that an error is likely to occur in the distance calculation by the two output value distributions, or the distance cannot be calculated. That is, if correlation is detected when a waveform as shown in FIG. 16 is obtained, a graph showing the relationship between the correlation value and the distance between waveforms as shown in FIG. 17 is obtained. FIG. 17 is a graph showing the relationship between the correlation value and the distance between waveforms. As shown in FIG. 17, when the correlation values of the two waveform distances A and B are equal and the minimum correlation value min2, the distance between the imaging device and the subject cannot be determined. In addition, when a plurality of output peak values are detected, the correlation value also increases, and the accuracy of distance detection also decreases.

従来、このように距離決定ができないとき、撮像装置と被写体間との距離を最終決定するため、とりあえず相関値の間の値をとったり、予め決められた所定の距離で代用したりしているが、いずれも信頼性が低いという問題があった。   Conventionally, when the distance cannot be determined in this way, the distance between the imaging device and the subject is finally determined, so a value between correlation values is taken for the time being, or a predetermined distance is substituted instead. , Both had the problem of low reliability.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、精度良く被写体との距離を算出することが可能な、新規かつ改良された撮像装置及び撮像方法を提供することにある。   Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved imaging apparatus and imaging method capable of accurately calculating the distance to the subject. Is to provide.

上記課題を解決するために、本発明のある観点によれば、被写体から受光面に照射された被写体像を電気信号に変換する2次元方向に配置された複数の光電変換素子を有する撮像素子と、1つの仮想線分上に配置された複数の光電変換素子からなる素子ラインから電気信号を光電変換素子毎に順次読み出す読み出し部と、撮像素子のうちの一部の領域である測距枠内に含まれる互いに平行な複数の素子ラインからなる第1の素子ラインセットと、該第1の素子ラインセットの長手方向の延長線上に配置された、測距枠内に含まれる互いに平行な複数の素子ラインからなる第2の素子ラインセットとの電気信号の強度分布差に基づいて被写体との距離を算出する距離算出部とを備える撮像装置が提供される。   In order to solve the above problems, according to an aspect of the present invention, an imaging device having a plurality of photoelectric conversion elements arranged in a two-dimensional direction for converting an object image irradiated from a subject onto a light receiving surface into an electric signal; A readout unit that sequentially reads out an electrical signal for each photoelectric conversion element from an element line made up of a plurality of photoelectric conversion elements arranged on one virtual line segment, and within a distance measurement frame that is a partial area of the imaging element A first element line set composed of a plurality of element lines parallel to each other, and a plurality of elements parallel to each other included in the distance measurement frame arranged on the extension line in the longitudinal direction of the first element line set. An imaging apparatus is provided that includes a distance calculation unit that calculates a distance to a subject based on a difference in intensity distribution of an electrical signal from a second element line set including element lines.

かかる構成により、撮像素子は、被写体から受光面に照射された被写体像を電気信号に変換する2次元方向に配置された複数の光電変換素子を有し、読み出し部は、撮像素子のうちの一部の1つの仮想線分上に配置された複数の光電変換素子からなる素子ラインから電気信号を光電変換素子毎に順次読み出す。そして、距離算出部は、撮像素子のうちの一部の領域である測距枠内に含まれる互いに平行な複数の素子ラインからなる第1の素子ラインセットと、該第1の素子ラインセットの長手方向の延長線上に配置された、同一測距枠内に含まれる互いに平行な複数の素子ラインからなる第2の素子ラインセットとの電気信号の強度分布差に基づいて被写体との距離を算出する。   With such a configuration, the imaging element has a plurality of photoelectric conversion elements arranged in a two-dimensional direction for converting a subject image irradiated on the light receiving surface from the subject into an electrical signal, and the reading unit is one of the imaging elements. The electrical signal is sequentially read out for each photoelectric conversion element from an element line including a plurality of photoelectric conversion elements arranged on one virtual line segment of the unit. The distance calculation unit includes a first element line set including a plurality of element lines parallel to each other included in a distance measurement frame that is a partial area of the image sensor, and the first element line set. The distance to the subject is calculated based on the difference in the intensity distribution of the electrical signal from the second element line set that is arranged on the extension line in the longitudinal direction and that is included in the same distance measurement frame and that includes a plurality of element lines that are parallel to each other. To do.

上記距離算出部は、第1の素子ラインセットのうちの1つの素子ラインである第1の素子ラインの強度分布と、第1の素子ラインと同一直線上に配置された第2の素子ラインセットのうちの1つの素子ラインである第2の素子ラインの強度分布とを比較して、距離を算出してもよい。かかる構成により、第1の素子ラインと第2の素子ラインが同一直線上に配置されており、第1の素子ラインの強度分布と第2の素子ラインの強度分布とが比較されて、被写体との距離が算出される。   The distance calculation unit includes an intensity distribution of a first element line which is one element line of the first element line set, and a second element line set arranged on the same straight line as the first element line. The distance may be calculated by comparing the intensity distribution of the second element line which is one of the element lines. With this configuration, the first element line and the second element line are arranged on the same straight line, and the intensity distribution of the first element line is compared with the intensity distribution of the second element line, The distance is calculated.

上記距離算出部は、素子ラインの長手方向と異なる方向に配置された光電変換素子から出力された電気信号の強度を加算して得られた加算値に基づいて、第1の素子ラインセットの強度分布と第2の素子ラインセットの強度分布とを比較して、距離を算出してもよい。かかる構成により、電気信号の強度の加算値が、素子ラインの長手方向と異なる方向に配置された複数の光電変換素子から出力されたそれぞれの電気信号の強度を加算して得られ、この加算値に基づいて、第1の素子ラインセットの強度分布と第2の素子ラインセットの強度分布とが比較されて、被写体との距離が算出される。   The distance calculation unit calculates the intensity of the first element line set based on the addition value obtained by adding the intensity of the electric signal output from the photoelectric conversion element arranged in a direction different from the longitudinal direction of the element line. The distance may be calculated by comparing the distribution with the intensity distribution of the second element line set. With this configuration, the added value of the electric signal strength is obtained by adding the strengths of the electric signals output from the plurality of photoelectric conversion elements arranged in a direction different from the longitudinal direction of the element line. Based on, the intensity distribution of the first element line set and the intensity distribution of the second element line set are compared to calculate the distance to the subject.

上記距離算出部が加算する素子ラインの長手方向と異なる方向に配置された光電変換素子の数は、被写体像の輝度レベルに応じて可変であってもよい。かかる構成により、被写体像の輝度レベルに応じて、距離算出部が加算する素子ラインの長手方向と異なる方向に配置された光電変換素子の数が異なるようにできる。そのため、被写体像の輝度レベルに応じて、感度を向上させることができる。   The number of photoelectric conversion elements arranged in a direction different from the longitudinal direction of the element line added by the distance calculation unit may be variable according to the luminance level of the subject image. With this configuration, the number of photoelectric conversion elements arranged in a direction different from the longitudinal direction of the element line added by the distance calculation unit can be made different according to the luminance level of the subject image. Therefore, the sensitivity can be improved according to the luminance level of the subject image.

上記距離算出部が、素子ラインの長手方向と異なる方向に配置された光電変換素子の電気信号の強度を加算するとき、光電変換素子は互いに重複しないように加算されてもよい。かかる構成により、素子ラインの長手方向と異なる方向に配置された光電変換素子の電気信号の強度が加算されるとき、光電変換素子が互いに重複しないように抽出される。そのため、精度の良い加算された信号強度を得ることができる。   When the distance calculation unit adds the electric signal strengths of the photoelectric conversion elements arranged in a direction different from the longitudinal direction of the element line, the photoelectric conversion elements may be added so as not to overlap each other. With this configuration, when the electric signal strengths of the photoelectric conversion elements arranged in a direction different from the longitudinal direction of the element line are added, the photoelectric conversion elements are extracted so as not to overlap each other. Therefore, it is possible to obtain the added signal strength with high accuracy.

上記距離算出部が、素子ラインの長手方向と異なる方向に配置された光電変換素子の電気信号の強度を加算するとき、素子ラインの長手方向と異なる方向に配置された複数の光電変換素子は1つの仮想直線上に配置されてもよい。かかる構成により、素子ラインの長手方向と異なる方向に配置された光電変換素子の電気信号の強度が加算されるとき、素子ラインの長手方向と異なる方向の1つの仮想直線上に配置された光電変換素子が抽出される。   When the distance calculation unit adds the electric signal strengths of the photoelectric conversion elements arranged in a direction different from the longitudinal direction of the element line, the plurality of photoelectric conversion elements arranged in a direction different from the longitudinal direction of the element line is 1 You may arrange | position on one virtual straight line. With this configuration, when the electric signal strengths of the photoelectric conversion elements arranged in a direction different from the longitudinal direction of the element line are added, the photoelectric conversion arranged on one virtual line in a direction different from the longitudinal direction of the element line Elements are extracted.

上記複数の光電変換素子は、マトリクス状又はハニカム状に配置されてもよい。かかる構成により、マトリクス状又はハニカム状に配置された複数の光電変換素子からなる撮像素子を適用することができる。   The plurality of photoelectric conversion elements may be arranged in a matrix shape or a honeycomb shape. With such a configuration, an imaging element including a plurality of photoelectric conversion elements arranged in a matrix shape or a honeycomb shape can be applied.

上記第1の素子ラインセット及び第2の素子ラインセットは、ユーザーによる選択によって全ての光学変換素子の中から選択可能であってもよい。かかる構成により、第1の素子ラインセット及び第2の素子ラインセットが、ユーザーによる選択によって全ての光学変換素子の中から選択される。   The first element line set and the second element line set may be selectable from all the optical conversion elements by selection by the user. With this configuration, the first element line set and the second element line set are selected from all the optical conversion elements by selection by the user.

また、上記課題を解決するために、本発明の別の観点によれば、被写体から受光面に照射された被写体像を電気信号に変換する2次元方向に配置された複数の光電変換素子を有する撮像素子のうち、1つの仮想線分上に配置された複数の光電変換素子からなる素子ラインから電気信号を光電変換素子毎に順次読み出すステップと、撮像素子のうちの一部の領域である測距枠内に含まれる互いに平行な複数の素子ラインからなる第1の素子ラインセットと、該第1の素子ラインセットの長手方向の延長線上に配置された、測距枠内に含まれる互いに平行な複数の素子ラインからなる第2の素子ラインセットとの電気信号の強度分布差に基づいて被写体との距離を算出するステップとを有する撮像方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, there is provided a plurality of photoelectric conversion elements arranged in a two-dimensional direction for converting a subject image irradiated from a subject onto a light receiving surface into an electrical signal. A step of sequentially reading out an electric signal for each photoelectric conversion element from an element line composed of a plurality of photoelectric conversion elements arranged on one virtual line segment of the image pickup element, and a measurement that is a partial area of the image pickup element. A first element line set including a plurality of element lines parallel to each other included in the distance frame, and parallel to each other included in the distance measurement frame arranged on an extension in the longitudinal direction of the first element line set. And a step of calculating the distance to the subject based on the difference in the intensity distribution of the electrical signal from the second element line set including a plurality of element lines.

かかる構成により、撮像素子は、被写体から受光面に照射された被写体像を電気信号に変換する2次元方向に配置された複数の光電変換素子を有し、撮像素子のうちの一部の1つの仮想線分上に配置された複数の光電変換素子からなる素子ラインから電気信号が光電変換素子毎に順次読み出され、撮像素子のうちの一部の領域である測距枠内に含まれる互いに平行な複数の素子ラインからなる第1の素子ラインセットと、該第1の素子ラインセットの長手方向の延長線上に配置された、同一測距枠内に含まれる互いに平行な複数の素子ラインからなる第2の素子ラインセットとの電気信号の強度分布差に基づいて、被写体との距離が算出される。   With such a configuration, the imaging element has a plurality of photoelectric conversion elements arranged in a two-dimensional direction for converting a subject image irradiated from the subject onto the light receiving surface into an electrical signal, and one of the imaging elements Electrical signals are sequentially read out from the element lines composed of a plurality of photoelectric conversion elements arranged on the imaginary line segment for each photoelectric conversion element, and are included in a distance measurement frame that is a partial area of the imaging element. A first element line set composed of a plurality of parallel element lines, and a plurality of element lines parallel to each other included in the same distance measurement frame, which are arranged on an extension in the longitudinal direction of the first element line set. The distance to the subject is calculated based on the difference in the intensity distribution of the electrical signal from the second element line set.

本発明によれば、精度良く被写体との距離を算出することができる。   According to the present invention, the distance to the subject can be calculated with high accuracy.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

(第1の実施形態の構成)
まず、本発明の第1の実施形態に係る撮像装置100の構成について説明する。図1は、本実施形態に係る撮像装置100を示すブロック図である。撮像装置100は、例えば、デジタル一眼レフカメラであるが、本発明の撮像装置は、これに限定されず、コンパクトデジタルカメラなどであってもよい。
(Configuration of the first embodiment)
First, the configuration of the imaging apparatus 100 according to the first embodiment of the present invention will be described. FIG. 1 is a block diagram illustrating an imaging apparatus 100 according to the present embodiment. The imaging device 100 is, for example, a digital single-lens reflex camera, but the imaging device of the present invention is not limited to this, and may be a compact digital camera or the like.

撮像装置100は、例えば、結像光学系101と、クイックリターンミラー105と、シャッター106と、CMOSセンサー107と、画像入力コントローラ110と、AFセンサー111と、DSP/CPU120と、CPU130と、操作部材135と、ドライバ141、143、145と、モータ142、144、146と、画像信号処理回路152と、圧縮処理回路154と、LCDドライバ156と、LCD158と、VRAM162と、SDRAM164と、メディアコントローラ166と、記録メディア168などからなる。   The imaging apparatus 100 includes, for example, an imaging optical system 101, a quick return mirror 105, a shutter 106, a CMOS sensor 107, an image input controller 110, an AF sensor 111, a DSP / CPU 120, a CPU 130, and an operation member. 135, drivers 141, 143, 145, motors 142, 144, 146, image signal processing circuit 152, compression processing circuit 154, LCD driver 156, LCD 158, VRAM 162, SDRAM 164, media controller 166, , Recording media 168 and the like.

結像光学系101は、例えば、ズームレンズ102、絞り103、フォーカスレンズ104などからなる。結像光学系101は、外部の光情報をCMOSセンサー107に結像させる光学系システムであり、被写体からの光をCMOSセンサー107まで透過させる。ズームレンズ102は、焦点距離を変化させて画角を変えるレンズである。ズームレンズは、ユーザーによって画角が調節されてもよいし、図示しないモータ及びドライバによって制御されてもよい。絞り103は、透過する光量を調節する機構であり、モータ142によって駆動される。フォーカスレンズ104は、光軸方向に移動することでCMOSセンサー107の撮像面に被写体像を合焦させる。フォーカスレンズ104は、モータ144によって駆動される。モータ142、144は、それぞれドライバ141、143から駆動信号を受けて駆動する。   The imaging optical system 101 includes, for example, a zoom lens 102, a diaphragm 103, a focus lens 104, and the like. The imaging optical system 101 is an optical system that forms external light information on the CMOS sensor 107 and transmits light from the subject to the CMOS sensor 107. The zoom lens 102 is a lens that changes the angle of view by changing the focal length. The angle of view of the zoom lens may be adjusted by the user, or may be controlled by a motor and a driver (not shown). The diaphragm 103 is a mechanism that adjusts the amount of light transmitted therethrough, and is driven by a motor 142. The focus lens 104 moves in the optical axis direction to focus the subject image on the imaging surface of the CMOS sensor 107. The focus lens 104 is driven by a motor 144. The motors 142 and 144 are driven by receiving drive signals from the drivers 141 and 143, respectively.

クイックリターンミラー105は、入射光を反射し、かつ入射光の一部を透過させるハーフミラー部材と、ハーフミラー部材の背面(CMOSセンサー107)側に設けられたサブミラーなどからなる。クイックリターンミラー105は、本撮影前、いわゆるミラーダウン状態にあり、結像光学系101とCMOSセンサー107とを結ぶ光路上に配置されて、光路を遮断している。また、クイックリターンミラー105のハーフミラー部材は、本撮影前、結像光学系101からの光をファインダー側に反射する。さらに、クイックリターンミラー105のサブミラーは、本撮影前、ハーフミラー部材を透過した光をAFセンサー111側に反射する。   The quick return mirror 105 includes a half mirror member that reflects incident light and transmits part of the incident light, a sub mirror provided on the back surface (CMOS sensor 107) side of the half mirror member, and the like. The quick return mirror 105 is in a so-called mirror-down state before actual photographing, and is disposed on the optical path connecting the imaging optical system 101 and the CMOS sensor 107 to block the optical path. Further, the half mirror member of the quick return mirror 105 reflects the light from the imaging optical system 101 to the viewfinder side before the main photographing. Further, the sub mirror of the quick return mirror 105 reflects the light transmitted through the half mirror member to the AF sensor 111 side before the main photographing.

クイックリターンミラー105は、本撮影時、いわゆるミラーアップして、結像光学系101とCMOSセンサー107とを結ぶ光路を開放し、被写体からの光をCMOSセンサー107に到達させる。   The quick return mirror 105 is so-called mirror-up at the time of actual photographing, opens the optical path connecting the imaging optical system 101 and the CMOS sensor 107, and causes light from the subject to reach the CMOS sensor 107.

シャッター106は、メカニカルシャッターであり、本撮影時はCMOSセンサー107に光が当たるように結像光学系101とCMOSセンサー107とを結ぶ光路を開放し、非撮影時は光を遮断する。シャッター106は、CMOSセンサー107の露光時間を制御する。クイックリターンミラー105及びシャッター106は、モータ146によって駆動され連動する。モータ146は、ドライバ145から駆動信号を受けて駆動する。   The shutter 106 is a mechanical shutter, and opens an optical path connecting the imaging optical system 101 and the CMOS sensor 107 so that light strikes the CMOS sensor 107 during actual photographing, and blocks light when not photographing. The shutter 106 controls the exposure time of the CMOS sensor 107. The quick return mirror 105 and the shutter 106 are driven and interlocked by a motor 146. The motor 146 is driven by receiving a drive signal from the driver 145.

CMOS(complementary metal oxide semiconductor)センサー107は、撮像素子の一例であり、結像光学系101を透過して入射した光情報を電気信号に光電変換する複数の光電変換素子から構成される。各光電変換素子は光量に応じた電気信号を生成する。なお、撮像素子は、CMOSセンサーに限定されず、CCD(charge coupled device)センサー等を適用することができる。このとき、シャッター106でなく、電子シャッター(図示せず。)を適用してもよい。なお、シャッター106又は電子シャッターの動作は、DSP/CPU120に接続されたシャッターボタン(操作部材135)のスイッチによって行われる。   A CMOS (complementary metal oxide semiconductor) sensor 107 is an example of an image sensor, and includes a plurality of photoelectric conversion elements that photoelectrically convert light information transmitted through the imaging optical system 101 into electrical signals. Each photoelectric conversion element generates an electrical signal corresponding to the amount of light. The imaging device is not limited to a CMOS sensor, and a CCD (charge coupled device) sensor or the like can be applied. At this time, an electronic shutter (not shown) may be applied instead of the shutter 106. Note that the shutter 106 or the electronic shutter is operated by a switch of a shutter button (operation member 135) connected to the DSP / CPU 120.

CMOSセンサー107は、更にCDS/AMP部108、A/D変換部109を有する。CDS/AMP部(相関二重サンプリング回路(correlated double sampling)/増幅器(amplifier))108は、CMOSセンサー107から出力された電気信号に含まれる低周波ノイズを除去すると共に、電気信号を任意のレベルまで増幅する。A/D変換部109は、CDS/AMP部108から出力された電気信号をデジタル変換してデジタル信号を生成する。A/D変換部109は、生成したデジタル信号を画像入力コントローラ110に出力する。   The CMOS sensor 107 further includes a CDS / AMP unit 108 and an A / D conversion unit 109. A CDS / AMP section (correlated double sampling circuit / amplifier) 108 removes low-frequency noise contained in the electrical signal output from the CMOS sensor 107, and at the same time outputs the electrical signal to an arbitrary level. Amplify until. The A / D conversion unit 109 digitally converts the electrical signal output from the CDS / AMP unit 108 to generate a digital signal. The A / D conversion unit 109 outputs the generated digital signal to the image input controller 110.

画像入力コントローラ110は、A/D変換部109から出力されたデジタル信号に対して処理を施し、画像処理が可能となる画像信号を生成する。画像入力コントローラ110は、生成した画像信号を例えば画像信号処理回路152に出力する。また、画像入力コントローラ110は、SDRAM164への画像データの読み書きを制御する。   The image input controller 110 performs processing on the digital signal output from the A / D conversion unit 109 to generate an image signal that can be processed. The image input controller 110 outputs the generated image signal to, for example, the image signal processing circuit 152. The image input controller 110 controls reading / writing of image data to / from the SDRAM 164.

AFセンサー111は、複数の光電変換素子が2次元方向に配置されたCMOSセンサーである。AFセンサー111は、本撮影前にクイックリターンミラー105のサブミラーから光を受けて、光量に応じた電気信号を生成する。AFセンサー111は、生成した電気信号をCPU130に出力する。AFセンサー111は、更にCDS/AMP部112、A/D変換部113を有する。   The AF sensor 111 is a CMOS sensor in which a plurality of photoelectric conversion elements are arranged in a two-dimensional direction. The AF sensor 111 receives light from the sub-mirror of the quick return mirror 105 before the actual photographing and generates an electrical signal corresponding to the light amount. The AF sensor 111 outputs the generated electrical signal to the CPU 130. The AF sensor 111 further includes a CDS / AMP unit 112 and an A / D conversion unit 113.

AFセンサー111は、読み出し部の一例であり、AFセンサー111の光電変換素子のうち、1つの仮想線分上に配置された複数の光電変換素子からなる素子ラインから電気信号を光電変換素子毎に順次読み出す。   The AF sensor 111 is an example of a reading unit, and among the photoelectric conversion elements of the AF sensor 111, an electric signal is output for each photoelectric conversion element from an element line including a plurality of photoelectric conversion elements arranged on one virtual line segment. Read sequentially.

AEセンサー114は、例えば光電変換素子である。AEセンサー114は、本撮影前に被写体から光を受けて、光量に応じた電気信号を生成する。AEセンサー114は、生成した電気信号をCPU130に出力する。   The AE sensor 114 is, for example, a photoelectric conversion element. The AE sensor 114 receives light from the subject before the actual photographing and generates an electrical signal corresponding to the light amount. The AE sensor 114 outputs the generated electrical signal to the CPU 130.

DSP/CPU120、CPU130は、プログラムによって演算処理装置及び制御装置として機能し、撮像装置100内に設けられた各構成要素の処理を制御する。CPU130は本撮影前及び本撮影時に主に動作し、DSP/CPU120は、撮影後に主に動作する。   The DSP / CPU 120 and the CPU 130 function as an arithmetic processing device and a control device according to a program, and control processing of each component provided in the imaging device 100. The CPU 130 mainly operates before and during the main shooting, and the DSP / CPU 120 mainly operates after the shooting.

CPU130は、例えば、フォーカス制御や露出制御に基づいてドライバ141、143、145に信号を出力して結像光学系101、クイックリターンミラー105、シャッター106を駆動させる。また、CPU130は、操作部材135からの信号に基づいて撮像装置100の各構成要素を制御する。DSP/CPU120は、撮影によって取得された画像信号に対する画像処理などを制御する。   For example, the CPU 130 outputs signals to the drivers 141, 143, and 145 based on focus control and exposure control to drive the imaging optical system 101, the quick return mirror 105, and the shutter 106. Further, the CPU 130 controls each component of the imaging apparatus 100 based on a signal from the operation member 135. The DSP / CPU 120 controls image processing for an image signal acquired by shooting.

なお、本実施形態においては、DSP/CPU120、CPU130がそれぞれ1つだけからなる構成であるが、信号系の命令と操作系の命令とを別々のCPUで行うなど複数のCPUから構成されてもよい。   In the present embodiment, the DSP / CPU 120 and the CPU 130 are each composed of only one. However, a signal system command and an operation system command may be executed by separate CPUs. Good.

DSP/CPU120は、図1に示すように、例えば、タイミングジェネレータ121と、適正AWB算出部122と、画像処理選択部123、SIO124などを有する。CPU130は、例えば、画像入力コントローラ131と、AF演算制御部132と、AE演算制御部133と、GUI管理部134と、SIO136などを有する。   As shown in FIG. 1, the DSP / CPU 120 includes, for example, a timing generator 121, a proper AWB calculation unit 122, an image processing selection unit 123, an SIO 124, and the like. The CPU 130 includes, for example, an image input controller 131, an AF calculation control unit 132, an AE calculation control unit 133, a GUI management unit 134, an SIO 136, and the like.

タイミングジェネレータ121は、CMOSセンサー107やCDS/AMP部108にタイミング信号を出力し、CMOSセンサー107を構成している各光電変換素子の電荷の読み出し制御を行う。   The timing generator 121 outputs a timing signal to the CMOS sensor 107 and the CDS / AMP unit 108, and performs charge read control of each photoelectric conversion element constituting the CMOS sensor 107.

適正AWB算出部122は、CMOSセンサー107で受光した被写体像に応じた画像信号の色情報に基づいて、WB制御値を算出する。適正AWB算出部122は、例えば、被写体に応じた適正なホワイトバランス(WB)が得られるようにWB制御値を算出する。適正AWB算出部122は、算出したWB制御値を画像信号処理回路152に送る。   The appropriate AWB calculation unit 122 calculates the WB control value based on the color information of the image signal corresponding to the subject image received by the CMOS sensor 107. For example, the appropriate AWB calculation unit 122 calculates the WB control value so that an appropriate white balance (WB) corresponding to the subject is obtained. The appropriate AWB calculation unit 122 sends the calculated WB control value to the image signal processing circuit 152.

画像処理選択部123は、画像信号に対するガンマ補正、輪郭強調処理などの画像処理を行うか否かを選択したり、各画像処理に必要なパラメータを設定したりする。画像処理選択部123は、選択結果や設定したパラメータを画像信号処理回路152に送る。   The image processing selection unit 123 selects whether or not to perform image processing such as gamma correction and contour enhancement processing on the image signal, and sets parameters necessary for each image processing. The image processing selection unit 123 sends the selection result and the set parameters to the image signal processing circuit 152.

画像入力コントローラ131は、A/D変換部113から出力されたデジタル信号に対して処理を施し、フォーカス制御が可能となる信号を生成する。画像入力コントローラ131は、生成した信号を例えばAF演算制御部132に出力する。   The image input controller 131 processes the digital signal output from the A / D conversion unit 113 and generates a signal that enables focus control. The image input controller 131 outputs the generated signal to, for example, the AF calculation control unit 132.

AF演算制御部132は、フォーカス制御開始の操作信号を受けると、フォーカスレンズ104を一方向に移動する制御信号を生成して、生成した制御信号をドライバ143に出力する。
AF演算制御部132は、AF(auto focus:自動焦点)評価値を算出し、更にAF評価値に基づいてフォーカスレンズ104の合焦位置を算出する。なお、AF評価値は、AFセンサー111から出力された信号の輝度値に基づいて算出する。
Upon receiving the focus control start operation signal, the AF calculation control unit 132 generates a control signal for moving the focus lens 104 in one direction, and outputs the generated control signal to the driver 143.
The AF calculation control unit 132 calculates an AF (auto focus) evaluation value, and further calculates a focus position of the focus lens 104 based on the AF evaluation value. The AF evaluation value is calculated based on the luminance value of the signal output from the AF sensor 111.

AF演算制御部132は、距離算出部の一例であり、互いに平行な複数の素子ラインからなる第1の素子ラインセットと、該第1の素子ラインセットの長手方向の延長線上に配置された、互いに平行な複数の素子ラインからなる第2の素子ラインセットとの電気信号の強度分布差に基づいて被写体と撮像装置100との間の距離を算出する。
AF演算制御部132は、算出の結果得られた合焦位置を制御信号としてドライバ143に出力する。ドライバ143は、AF演算制御部132から受けた制御信号に基づいて駆動信号を生成する。ドライバ143は、生成した駆動信号をモータ144に送る。
The AF calculation control unit 132 is an example of a distance calculation unit, and is arranged on a first element line set including a plurality of element lines parallel to each other and an extension line in the longitudinal direction of the first element line set. The distance between the subject and the imaging device 100 is calculated based on the difference in the intensity distribution of the electrical signal from the second element line set including a plurality of element lines parallel to each other.
The AF calculation control unit 132 outputs the in-focus position obtained as a result of the calculation to the driver 143 as a control signal. The driver 143 generates a drive signal based on the control signal received from the AF calculation control unit 132. The driver 143 sends the generated drive signal to the motor 144.

AE演算制御部133は、AE(auto exposure:自動露光)評価値を算出し、算出したAE評価値に基づいて、絞り103の絞り量やシャッター106のシャッター速度を算出する。なお、AE評価値は、AEセンサー114の輝度値に基づいて算出する。AE演算制御部133は、算出した絞り量やシャッター速度をそれぞれ制御信号としてドライバ141、145に出力する。ドライバ141、145は、AE演算制御部133から受けた制御信号に基づいて駆動信号を生成する。ドライバ141、145は、生成した駆動信号をモータ142、146に送る。   The AE calculation control unit 133 calculates an AE (auto exposure) evaluation value, and calculates the aperture amount of the aperture 103 and the shutter speed of the shutter 106 based on the calculated AE evaluation value. The AE evaluation value is calculated based on the luminance value of the AE sensor 114. The AE calculation control unit 133 outputs the calculated aperture amount and shutter speed to the drivers 141 and 145 as control signals, respectively. Drivers 141 and 145 generate drive signals based on control signals received from AE calculation control unit 133. The drivers 141 and 145 send the generated drive signals to the motors 142 and 146.

また、本実施形態では、AE演算制御部133は、AE評価値に基づいて、AFセンサー111を制御する。例えば、被写体が低輝度であるときは、素子ラインの長手方向と異なる方向に配置された光電変換素子の出力値を加算できるように、通常輝度に比べて多い数の素子ラインから電気信号が出力されるようにする。   In the present embodiment, the AE calculation control unit 133 controls the AF sensor 111 based on the AE evaluation value. For example, when the subject has low luminance, electrical signals are output from a larger number of element lines than normal luminance so that the output values of photoelectric conversion elements arranged in a direction different from the longitudinal direction of the element lines can be added. To be.

GUI管理部134は、LCD158に表示される画像のサムネイル画面や、撮像装置100の操作のためのメニュー画面などのGUI(graphic user interface)を管理する。GUI管理部134は、例えば、操作部材135からの操作信号を受けて、操作信号に基づいた制御信号をLCDドライバ156に送る。   The GUI management unit 134 manages a GUI (graphic user interface) such as a thumbnail screen of images displayed on the LCD 158 and a menu screen for operating the imaging apparatus 100. For example, the GUI management unit 134 receives an operation signal from the operation member 135 and sends a control signal based on the operation signal to the LCD driver 156.

SIO124、136は、相互に信号の入出力を行う入出力インターフェースである。   The SIOs 124 and 136 are input / output interfaces for inputting / outputting signals to / from each other.

操作部材135は、例えば、撮像装置100に設けられた上下左右キー、電源スイッチ、モードダイアル、シャッターボタンなどである。操作部材135は、ユーザーによる操作に基づいて操作信号をCPU130等に送る。例えば、シャッターボタンは、ユーザーによる半押し、全押し、解除が可能である。シャッターボタンは、半押しされたときフォーカス制御開始の操作信号を出力し、半押し解除でフォーカス制御が終了する。また、フォーカスボタンは、全押しされたとき、撮影開始の操作信号を出力する。   The operation member 135 is, for example, an up / down / left / right key, a power switch, a mode dial, or a shutter button provided in the imaging apparatus 100. The operation member 135 sends an operation signal to the CPU 130 or the like based on an operation by the user. For example, the shutter button can be half pressed, fully pressed, or released by the user. When the shutter button is half-pressed, it outputs an operation signal for starting focus control, and when the half-press is released, the focus control ends. The focus button outputs an operation signal for starting shooting when fully pressed.

画像信号処理回路152は、画像入力コントローラ110から画像信号を受け、WB制御値、γ値、輪郭強調制御値などに基づいて、画像処理された画像信号を生成する。圧縮処理回路154は、圧縮処理前の画像信号を受けて、例えばJPEG圧縮形式、又はLZW圧縮形式などの圧縮形式で画像信号を圧縮処理する。圧縮処理回路154は、圧縮処理で生成した画像データを例えばメディアコントローラ166に送る。   The image signal processing circuit 152 receives an image signal from the image input controller 110 and generates an image signal subjected to image processing based on a WB control value, a γ value, an edge enhancement control value, and the like. The compression processing circuit 154 receives the image signal before the compression process, and compresses the image signal in a compression format such as a JPEG compression format or an LZW compression format. The compression processing circuit 154 sends the image data generated by the compression processing to, for example, the media controller 166.

LCDドライバ156は、例えばVRAM162から画像データを受けて、LCD(liquid crystal display:液晶画面)158に画像を表示する。LCD158は、撮像装置100本体に設けられる。LCD158が表示する画像は、例えば、VRAM162から読み出された撮影前の画像(ライブビュー表示)、撮像装置100の各種設定画面や、撮像して記録された画像などである。なお、本実施形態では、表示部としてLCD158、表示駆動部としてLCDドライバ156としたが、本発明はかかる例に限定されず、例えば有機ELディスプレイ、その表示駆動部などであってもよい。   For example, the LCD driver 156 receives image data from the VRAM 162 and displays an image on an LCD (liquid crystal display) 158. The LCD 158 is provided in the main body of the imaging device 100. The image displayed on the LCD 158 is, for example, an image before shooting (live view display) read from the VRAM 162, various setting screens of the image capturing apparatus 100, images captured and recorded, and the like. In the present embodiment, the LCD 158 is used as the display unit and the LCD driver 156 is used as the display drive unit. However, the present invention is not limited to this example, and may be an organic EL display, a display drive unit, or the like.

VRAM(video RAM)162は、画像表示用のメモリであり、複数のチャネルを有する。VRAM162は、SDRAM164からの画像表示用の画像データの入力と、LCDドライバ156への画像データの出力を同時に実行できる。LCD158の解像度や最大発色数はVRAM162の容量に依存する。   A VRAM (video RAM) 162 is a memory for image display and has a plurality of channels. The VRAM 162 can simultaneously input image data for image display from the SDRAM 164 and output image data to the LCD driver 156. The resolution and maximum number of colors of the LCD 158 depend on the capacity of the VRAM 162.

SDRAM(synchronous DRAM)164は、記憶部の一例であり、撮影した画像の画像データを一時的に保存する。SDRAM164は、複数の画像の画像データを記憶できる記憶容量を有している。また、SDRAM164は、DSP/CPU120の動作プログラムを保存する。SDRAM164への画像の読み書きは、画像入力コントローラ110によって制御される。   An SDRAM (synchronous DRAM) 164 is an example of a storage unit, and temporarily stores image data of captured images. The SDRAM 164 has a storage capacity capable of storing image data of a plurality of images. The SDRAM 164 stores an operation program for the DSP / CPU 120. Reading and writing of images to and from the SDRAM 164 is controlled by the image input controller 110.

メディアコントローラ166は、記録メディア168への画像データの書き込み、又は記録メディア168に記録された画像データや設定情報などの読み出しを制御する。記録メディア168は、例えば、光ディスク(CD、DVD、ブルーレイディスク等)、光磁気ディスク、磁気ディスク、半導体記憶媒体などであり、撮影された画像データを記録する。メディアコントローラ166、記録メディア168は、撮像装置100から着脱可能に構成されてもよい。   The media controller 166 controls writing of image data to the recording medium 168 or reading of image data and setting information recorded on the recording medium 168. The recording medium 168 is, for example, an optical disc (CD, DVD, Blu-ray disc, etc.), a magneto-optical disc, a magnetic disc, a semiconductor storage medium, etc., and records photographed image data. The media controller 166 and the recording medium 168 may be configured to be detachable from the imaging apparatus 100.

なお、撮像装置100における一連の処理は、ハードウェアで処理してもよいし、コンピュータ上のプログラムによるソフトウェア処理で実現してもよい。   Note that a series of processing in the imaging apparatus 100 may be processed by hardware or may be realized by software processing by a program on a computer.

次に、フォーカスレンズ104等の光学系とAFセンサー111について詳細に説明する。図2は、フォーカスレンズ104、CMOSセンサー107、コンデンサーレンズ172、セパレーターレンズ174及びAFセンサー111の関係及び構成を示す模式図である。図2上のCMOSセンサー107は、撮像面を示す。光軸上の被写体A点とフォーカスレンズ104の関係は合焦状態であり、光軸上の被写体B点とフォーカスレンズ104の関係は被写体が前ピン状態であり、光軸上の被写体C点とフォーカスレンズ104の関係は被写体が後ピン状態である。   Next, the optical system such as the focus lens 104 and the AF sensor 111 will be described in detail. FIG. 2 is a schematic diagram showing the relationship and configuration of the focus lens 104, the CMOS sensor 107, the condenser lens 172, the separator lens 174, and the AF sensor 111. The CMOS sensor 107 in FIG. 2 shows an imaging surface. The relationship between the subject A point on the optical axis and the focus lens 104 is in focus, and the relationship between the subject B point on the optical axis and the focus lens 104 is that the subject is in the front pin state, and the subject C point on the optical axis is The relationship of the focus lens 104 is that the subject is in the rear pin state.

光軸上の被写体A点からフォーカスレンズ104を通過する光の一部(図2の網かけ部分)は、撮像面で合焦した後、AFセンサー111のコンデンサーレンズ172でセパレーターレンズ174のほうに折り曲げられる。折り曲げられた光は、セパレーターレンズ174によって分割され、分割された光束がAFセンサーの受光面176上に再び結像する。図3は、分割される光束182をフォーカスレンズ位置で示した模式図である。   Part of the light passing through the focus lens 104 from the subject A point on the optical axis (shaded portion in FIG. 2) is focused on the imaging surface, and then is moved toward the separator lens 174 by the condenser lens 172 of the AF sensor 111. It can be bent. The bent light is divided by the separator lens 174, and the divided light beam forms an image again on the light receiving surface 176 of the AF sensor. FIG. 3 is a schematic diagram showing the split light beam 182 at the focus lens position.

コンデンサーレンズ172に対してセパレーターレンズ174の光軸は偏芯している。そのため、焦点状態(合焦、又は前ピン、後ピンであるかの状態)に応じて、被写体像がAFセンサー114の受光面上で結像する位置が、セパレーターレンズ174の光軸の偏芯方向にずれる。このずれ量は、焦点状態に対応しているので、分割された1対の光束がAFセンサー114の受光面上で結像したときの1対の被写体像の間隔を算出することで、焦点状態を検出することができる。   The optical axis of the separator lens 174 is eccentric with respect to the condenser lens 172. For this reason, the position at which the subject image is formed on the light receiving surface of the AF sensor 114 in accordance with the focus state (in-focus state or front pin / rear pin state) is the eccentricity of the optical axis of the separator lens 174. Deviation in direction. Since this shift amount corresponds to the focus state, by calculating the distance between the pair of subject images when the pair of divided light beams form an image on the light receiving surface of the AF sensor 114, the focus state is calculated. Can be detected.

AFセンサー114に配置された複数の光電変換素子は、上記偏芯方向と平行に素子ラインとして選択される。これにより、AFセンサー114に結像した被写体像の間隔を算出することができる。   The plurality of photoelectric conversion elements arranged in the AF sensor 114 are selected as element lines in parallel with the eccentric direction. Thereby, the interval between the subject images formed on the AF sensor 114 can be calculated.

次に、本実施形態の位相差検出方式について説明する。図4は、本実施形態の撮像装置100のファインダー10及び測距枠12との関係を示す説明図である。   Next, the phase difference detection method of this embodiment will be described. FIG. 4 is an explanatory diagram illustrating a relationship between the finder 10 and the distance measurement frame 12 of the imaging apparatus 100 according to the present embodiment.

位相差検出方式は、被写体からの光束を2つに分離して、光の分布の出現距離に基づいて、撮像装置100と被写体と間の距離を算出する。本実施形態の位相差検出方式では、光の検出にCMOSセンサーを適用したAFセンサー111を用いる。そして、AFセンサー111の2次元方向に配置された光電変換素子のうち、線分上に配置された複数の光電変換素子からなる複数の水平ライン184、186、188を用いる。水平ライン184、186、188は互いに平行である。水平ライン184、186、188は、それぞれ複数の光電変換素子が1次元方向に配置されている。ファインダー10内に測距枠12があるとき、測距枠12に対応するように撮像装置内部には3つの水平ライン184、186、188が配置されている。   In the phase difference detection method, the light flux from the subject is separated into two, and the distance between the imaging device 100 and the subject is calculated based on the appearance distance of the light distribution. In the phase difference detection method of this embodiment, an AF sensor 111 to which a CMOS sensor is applied for light detection is used. Then, among the photoelectric conversion elements arranged in the two-dimensional direction of the AF sensor 111, a plurality of horizontal lines 184, 186, 188 composed of a plurality of photoelectric conversion elements arranged on a line segment are used. The horizontal lines 184, 186, 188 are parallel to each other. The horizontal lines 184, 186, and 188 each have a plurality of photoelectric conversion elements arranged in a one-dimensional direction. When the rangefinder frame 12 is present in the viewfinder 10, three horizontal lines 184, 186, 188 are arranged in the imaging apparatus so as to correspond to the rangefinder frame 12.

なお、本実施形態では、CMOSセンサーから1つの水平ラインを抽出する特許文献1の技術と異なり、AFセンサー111のCMOSセンサーから複数の平行な水平ラインをセンサーとして使用する。複数の平行な水平ラインは、同一の測距枠に含まれる。測距枠は、CMOSセンサー107の一部の領域であり、本実施形態のCMOSセンサー107に適用する測距枠は、測距演算を行う際の最小単位(最小領域)となる。そして、この測距枠は、例えばLCD158に表示される最小単位の測距枠(合焦を確認するための枠)と対等の関係にある。なお、本実施形態の1つの測距枠とは、複数の測距最小単位で構成された1つのマルチAFシステムを指すものではなく、測距演算を行う際の1つの最小単位をいう。   In this embodiment, unlike the technique of Patent Document 1 that extracts one horizontal line from a CMOS sensor, a plurality of parallel horizontal lines are used as sensors from the CMOS sensor of the AF sensor 111. A plurality of parallel horizontal lines are included in the same distance measuring frame. The distance measurement frame is a partial area of the CMOS sensor 107, and the distance measurement frame applied to the CMOS sensor 107 of the present embodiment is a minimum unit (minimum area) when performing distance measurement calculation. The distance measurement frame is on a par with the smallest unit distance measurement frame (frame for confirming in-focus) displayed on the LCD 158, for example. Note that one distance measurement frame of the present embodiment does not indicate one multi-AF system configured with a plurality of minimum distance measurement units, but refers to one minimum unit for performing a distance measurement calculation.

本実施形態の位相差検出方式では、被写体からの光束が、例えば左右方向に2つに分離されて水平ライン184、186、188それぞれに照射される。図4に示す測距枠12に被写体5及び7がある場合、上側又は下側に位置する水平ライン186、188では左右で図5上段に示すような出力値の分布が得られる。水平ライン186、188上には被写体5のみ結像されるからである。一方、中央の水平ライン184では左右で図5下段に示すような出力値の分布が得られる。水平ライン186、188上には被写体5及び7が結像されるからである。   In the phase difference detection method of the present embodiment, the light beam from the subject is split into, for example, two in the left-right direction and irradiated to the horizontal lines 184, 186, 188, respectively. When there are the subjects 5 and 7 in the distance measuring frame 12 shown in FIG. 4, the distribution of output values as shown in the upper part of FIG. This is because only the subject 5 is imaged on the horizontal lines 186 and 188. On the other hand, a distribution of output values as shown in the lower part of FIG. This is because the subjects 5 and 7 are imaged on the horizontal lines 186 and 188.

図5は、本実施形態の撮像装置100の水平ライン184、186、188の出力値分布を示すグラフである。左右の出力ピーク値の波形間距離は、撮像装置と被写体との間の距離に応じて変化する。例えば、撮影距離が長くなるにつれて波形間距離は短くなり、撮影距離が短くなると波形間距離は長くなる。   FIG. 5 is a graph showing the output value distribution of the horizontal lines 184, 186, and 188 of the imaging apparatus 100 of the present embodiment. The distance between the left and right output peak values varies depending on the distance between the imaging device and the subject. For example, the distance between waveforms becomes shorter as the shooting distance becomes longer, and the distance between waveforms becomes longer as the shooting distance becomes shorter.

図5では、左右の出力ピーク値の波形間距離Aは、撮像装置100と被写体5との間の距離に対応し、波形間距離Bは、撮像装置100と被写体7との間の距離に対応する。波形間距離A、Bを算出するためには、左右2つの波形の相関が最も強くなるところを検出する必要がある。   In FIG. 5, the inter-waveform distance A between the left and right output peak values corresponds to the distance between the imaging device 100 and the subject 5, and the inter-waveform distance B corresponds to the distance between the imaging device 100 and the subject 7. To do. In order to calculate the inter-waveform distances A and B, it is necessary to detect the place where the correlation between the two left and right waveforms is the strongest.

相関検出としては、例えば、一方の波形データを画素単位でシフトしながら他方の波形データとの差分の総和をとり、総和が最小となるときの距離を相関が最も強い波形間距離であると判断する方法がある。   For correlation detection, for example, while shifting one waveform data pixel by pixel, the sum of differences from the other waveform data is taken, and the distance when the sum is minimized is determined to be the distance between waveforms with the strongest correlation. There is a way to do it.

このとき相関値は、例えば次の式(数式2)で表わすことができる。図5上段に示す出力値分布では、図14と同様の相関値と波形間距離の関係が得られ、図5下段に示す出力値分布では、図17と同様の相関値と波形間距離の関係が得られる。図14と同様に相関最小値min1が、図5上段の波形間距離Aと対応する。また、図17と同様に相関最小値min2が、図5下段の波形間距離A及びBと対応する。   At this time, the correlation value can be expressed by, for example, the following formula (Formula 2). In the output value distribution shown in the upper part of FIG. 5, the relationship between the correlation value and the inter-waveform distance similar to that in FIG. 14 is obtained, and in the output value distribution shown in the lower part of FIG. Is obtained. As in FIG. 14, the minimum correlation value min1 corresponds to the inter-waveform distance A in the upper part of FIG. Similarly to FIG. 17, the minimum correlation value min2 corresponds to the inter-waveform distances A and B in the lower part of FIG.

Figure 2010008443
ここで、n:Area画素数、j:相対画素位置である。
Figure 2010008443
Here, n is the number of Area pixels, and j is a relative pixel position.

本実施形態では、中央の水平ライン184から検出された出力値分布だけでなく、上側又は下側に位置する水平ライン186、188から検出された出力値分布を使用する。複数のデータを使用するため、より正確に撮像装置100と被写体との間の距離を算出することができる。また、複数の出力値ピーク値が検出される場合でも、1つの水平ライン又は従来のラインセンサーを用いる場合と異なり、誤差が生じたり、距離算出が不可能となる問題が発生したりすることはない。その結果、撮像装置100と被写体との間の距離をより精度良く算出することができる。   In the present embodiment, not only the output value distribution detected from the central horizontal line 184 but also the output value distribution detected from the horizontal lines 186 and 188 positioned on the upper side or the lower side is used. Since a plurality of data are used, the distance between the imaging device 100 and the subject can be calculated more accurately. Also, even when multiple output value peak values are detected, unlike the case of using a single horizontal line or a conventional line sensor, it may cause an error or a problem that distance calculation is impossible. Absent. As a result, the distance between the imaging device 100 and the subject can be calculated with higher accuracy.

次に、AFセンサー111上の素子ラインについて説明する。図6及び図7は、本実施形態に係るAFセンサー111の光電変換素子の配置を示す平面図である。AFセンサー111に適用するCMOSセンサーの各光電変換素子は、図6に示すようにマトリクスパターンで構成されてもよいし、図7に示すようにハニカムパターンで構成されてもよい。マトリクスパターンとは、水平方向、及び水平方向に対して垂直方向に複数の光電変換素子が配置されたパターンである。ハニカムパターンとは、水平方向、及び水平方向に対して90°以外の角度を有する方向に複数の光電変換素子が配置されたパターンである。   Next, element lines on the AF sensor 111 will be described. 6 and 7 are plan views showing the arrangement of photoelectric conversion elements of the AF sensor 111 according to this embodiment. Each photoelectric conversion element of the CMOS sensor applied to the AF sensor 111 may be configured with a matrix pattern as illustrated in FIG. 6 or may be configured with a honeycomb pattern as illustrated in FIG. 7. The matrix pattern is a pattern in which a plurality of photoelectric conversion elements are arranged in the horizontal direction and in a direction perpendicular to the horizontal direction. A honeycomb pattern is a pattern in which a plurality of photoelectric conversion elements are arranged in a horizontal direction and in a direction having an angle other than 90 ° with respect to the horizontal direction.

図6に示すAFセンサー111では、フォーカス制御において位相差検出をするとき、AFセンサー111は、1つの仮想線分上に配置された複数の光電変換素子からなる素子ラインL11、L12、L13、R11、R12、R13から電気信号を光電変換素子毎に順次読み出す。図6上において網掛け部分で示した光電変換素子がそれぞれの素子ラインを示す。そして、L11とR11を結ぶラインが、図6に示した水平ライン186に対応し、L12とR12を結ぶラインが、水平ライン184に対応し、L13とR13を結ぶラインが、水平ライン188に対応する。   In the AF sensor 111 shown in FIG. 6, when the phase difference is detected in the focus control, the AF sensor 111 includes element lines L11, L12, L13, R11 including a plurality of photoelectric conversion elements arranged on one virtual line segment. , R12, and R13 sequentially read out electrical signals for each photoelectric conversion element. The photoelectric conversion elements indicated by the shaded portions in FIG. 6 indicate the element lines. The line connecting L11 and R11 corresponds to the horizontal line 186 shown in FIG. 6, the line connecting L12 and R12 corresponds to the horizontal line 184, and the line connecting L13 and R13 corresponds to the horizontal line 188. To do.

なお、一側に配置された素子ラインL11、L12、L13の組合せ、他側に配置された素子ラインR11、R12、R13の組合せを素子ラインセット(第1の素子ラインセット、第2の素子ラインセット)ともいう。素子ラインセットは、CMOSセンサー107のうちの一部の領域である測距枠内に含まれる。   The combination of the element lines L11, L12, L13 arranged on one side and the combination of the element lines R11, R12, R13 arranged on the other side are element line sets (first element line set, second element line). It is also called a set. The element line set is included in a distance measuring frame which is a partial area of the CMOS sensor 107.

また、AF演算制御部132は、素子ラインL11の出力値の強度分布と素子ラインR11の出力値の強度分布の相関を算出し、被写体との距離を算出する。また、本実施形態では、複数のラインについて相関を算出するため、素子ラインL12とR12の相関、素子ラインL13とR13の相関を算出する。   The AF calculation control unit 132 calculates the correlation between the intensity distribution of the output value of the element line L11 and the intensity distribution of the output value of the element line R11, and calculates the distance from the subject. In the present embodiment, in order to calculate the correlation for a plurality of lines, the correlation between the element lines L12 and R12 and the correlation between the element lines L13 and R13 are calculated.

図7に示すAFセンサー111でも図6の場合と同様に、1つの仮想線分上に配置された複数の光電変換素子からなる素子ラインL21、L22、L23、R21、R22、R23から電気信号を光電変換素子毎に順次読み出す。そして、AF演算制御部132は、素子ラインL21とR21の相関、素子ラインL22とR22の相関、素子ラインL23とR23の相関を算出する。   As in the case of FIG. 6, the AF sensor 111 shown in FIG. 7 receives electric signals from the element lines L21, L22, L23, R21, R22, R23 including a plurality of photoelectric conversion elements arranged on one virtual line segment. Read sequentially for each photoelectric conversion element. Then, the AF calculation control unit 132 calculates the correlation between the element lines L21 and R21, the correlation between the element lines L22 and R22, and the correlation between the element lines L23 and R23.

(第1の実施形態の動作)
次に、図8を参照して、本実施形態に係る撮像装置のフォーカス制御における撮影距離算出動作について説明する。図8は、本実施形態に係る撮像装置のフォーカス制御における撮影距離算出動作を示すフローチャートである。
(Operation of the first embodiment)
Next, with reference to FIG. 8, the shooting distance calculation operation in the focus control of the imaging apparatus according to the present embodiment will be described. FIG. 8 is a flowchart showing the shooting distance calculation operation in the focus control of the imaging apparatus according to the present embodiment.

まず、AFセンサー111は、水平ライン(例えば、水平ライン184、186、188など)毎に各光電変換素子が出力する出力値(画素値)を取得する(読み出す)(ステップS101)。そして、AFセンサー111における左右の素子ラインの出力値の強度分布を比較して相関を計算する(ステップS102)。例えば、素子ラインL11とR11の相関、素子ラインL12とR12の相関、素子ラインL13とR13の相関を算出する。   First, the AF sensor 111 acquires (reads) an output value (pixel value) output by each photoelectric conversion element for each horizontal line (for example, horizontal lines 184, 186, 188, etc.) (step S101). Then, the correlation is calculated by comparing the intensity distributions of the output values of the left and right element lines in the AF sensor 111 (step S102). For example, the correlation between the element lines L11 and R11, the correlation between the element lines L12 and R12, and the correlation between the element lines L13 and R13 are calculated.

次に、算出した相関値のうち最小値を水平ライン毎に保持する(ステップS103)。そして、保持した相関値の最小値が所定値より低いか否かを判断する(ステップS104)。即ち、相関値が低いほど素子ライン同士の相関は高くなるため、信頼性が高い。従って、相関値の最小値が所定値より低い場合は、特に処理を行わず、ステップS106へ進む。一方、相関値の最小値が所定値より高い場合は、その水平ラインについては信頼性が低いと判断して、距離算出対象から除外する(ステップS105)。これにより、より信頼性の高い距離算出を行うことができる。   Next, the minimum value among the calculated correlation values is held for each horizontal line (step S103). Then, it is determined whether or not the held minimum correlation value is lower than a predetermined value (step S104). That is, the lower the correlation value, the higher the correlation between the element lines, and thus the higher the reliability. Therefore, when the minimum correlation value is lower than the predetermined value, the process proceeds to step S106 without performing any particular processing. On the other hand, if the minimum correlation value is higher than the predetermined value, it is determined that the reliability of the horizontal line is low, and is excluded from the distance calculation target (step S105). Thereby, distance calculation with higher reliability can be performed.

次に、相関値と波形間距離の関係を示すグラフ(例えば、図14や図17に示すグラフ)がどのような形状であるかについてグラフの尖度を評価する(ステップS106)。相関値と波形間距離の関係を示すグラフの形状が1山分布の形になっていれば、被写体は1つであると判断できる。一方、グラフの形状が1山分布の形になっていない場合は、被写体は距離の異なる複数存在すると判断できる(ステップS107)。そして、グラフの形状が1山分布の形になっていない場合、その水平ラインについては、距離算出対象から除外する(ステップS108)。一方、グラフの形状が1山分布になっているときは、ステップS109へ進む。これにより、距離を算出するべき被写体を限定することができる。   Next, the kurtosis of the graph is evaluated with respect to the shape of the graph indicating the relationship between the correlation value and the distance between waveforms (for example, the graphs shown in FIGS. 14 and 17) (step S106). If the shape of the graph showing the relationship between the correlation value and the inter-waveform distance has a mountain distribution, it can be determined that there is only one subject. On the other hand, if the shape of the graph is not a single mountain distribution, it can be determined that there are a plurality of subjects having different distances (step S107). If the shape of the graph is not a single mountain distribution, the horizontal line is excluded from the distance calculation target (step S108). On the other hand, when the shape of the graph has a mountain distribution, the process proceeds to step S109. Thereby, it is possible to limit the subject whose distance is to be calculated.

次に、上記各処理の結果、残った水平ラインの出力値は信頼性が高い値であるとして、その水平ラインの出力値に基づいて、波形間距離を算出し、更に撮像装置100と被写体との間の撮影距離を算出する。また、残った水平ラインが複数ある場合は、撮影距離が最も近距離であったライン(波形間距離が最も長かったライン)を優先して、撮影距離を決定する(ステップS109)。以上の各処理によって、撮像装置100のフォーカス制御における撮影距離を決定することができる。   Next, assuming that the output value of the remaining horizontal line is a highly reliable value as a result of the above processes, the inter-waveform distance is calculated based on the output value of the horizontal line. The shooting distance between is calculated. If there are a plurality of remaining horizontal lines, the shooting distance is determined giving priority to the line with the shortest shooting distance (the line with the longest distance between waveforms) (step S109). Through the above processes, the shooting distance in the focus control of the imaging apparatus 100 can be determined.

なお、上記実施形態では、1つの測距枠に対応する部分に水平ラインを3つ設ける場合について説明したが、本発明はかかる例に限定されない。撮像装置100は、複数の測距枠が設けられてもよく、それぞれの測距枠に対応する部分に水平ラインが複数設けられる。そして、測距枠毎に上記ステップS101〜ステップS109の処理をして、撮影距離を算出する。その後、測距枠毎に得られた距離を比較して、最適の撮影距離を決定する。   In the above embodiment, the case where three horizontal lines are provided in a portion corresponding to one distance measuring frame has been described, but the present invention is not limited to such an example. The imaging apparatus 100 may be provided with a plurality of distance measurement frames, and a plurality of horizontal lines are provided in portions corresponding to the respective distance measurement frames. Then, the processing at step S101 to step S109 is performed for each distance measurement frame to calculate the shooting distance. Thereafter, the distance obtained for each distance measurement frame is compared to determine an optimum shooting distance.

本実施形態によれば、1つの測距枠内に距離の異なる複数の被写体が混在したとき、距離算出において、誤差が生じにくくなり、更に算出結果の精度を向上させることができる。また、2次元方向に光電変換素子が配置されたCMOSセンサーをAFセンサー111に使用しているため、複数のラインセンサーを平行に配置する場合に比べて被写体像の検出範囲に自由度がある。即ち、ラインセンサーを平行に並べた場合、各ラインセンサーは厚みのあるパッケージを有するため、ラインセンサー相互間に隙間が発生してしまう。その結果、被写体像の検出範囲に制限ができてしまう。一方、本実施形態のように、CMOSセンサーであれば、光電変換素子単位で読み出し位置が指定できるため、検出範囲の自由度が高い。   According to the present embodiment, when a plurality of subjects having different distances are mixed in one distance measurement frame, an error is less likely to occur in the distance calculation, and the accuracy of the calculation result can be further improved. In addition, since a CMOS sensor in which photoelectric conversion elements are arranged in a two-dimensional direction is used for the AF sensor 111, the subject image detection range is more flexible than in the case where a plurality of line sensors are arranged in parallel. That is, when line sensors are arranged in parallel, since each line sensor has a thick package, a gap is generated between the line sensors. As a result, the detection range of the subject image can be limited. On the other hand, in the case of a CMOS sensor as in the present embodiment, the readout position can be specified in units of photoelectric conversion elements, so the degree of freedom of the detection range is high.

更に、本実施形態のようにCMOSセンサーでは、複数の光電変換素子が2次元方向に近接して配置しているため、AFセンサー111の装置本体への取り付け誤差が発生した場合でも、読み出し位置を変更すればよく、調整が簡単である。一方、ラインセンサーは光電変換素子が1次元方向のみに配列されているため、取り付け精度が高く、製造工程が困難であった。   Further, in the CMOS sensor as in the present embodiment, since a plurality of photoelectric conversion elements are arranged close to each other in the two-dimensional direction, even if an attachment error of the AF sensor 111 to the apparatus main body occurs, the reading position can be set. It only needs to be changed and adjustment is easy. On the other hand, since the photoelectric conversion elements are arranged only in the one-dimensional direction, the line sensor has a high mounting accuracy and the manufacturing process is difficult.

(第2の実施形態)
次に、本発明の第2の実施形態に係る撮像装置100について説明する。図9及び図10は、本実施形態に係るAFセンサー111の光電変換素子の配置を示す平面図である。図9は、AFセンサー111に適用するCMOSセンサーの各光電変換素子がマトリクスパターンで構成される場合を示す。図10は、各光電変換素子がハニカムパターンで構成される場合を示す。
(Second Embodiment)
Next, an imaging apparatus 100 according to the second embodiment of the present invention will be described. 9 and 10 are plan views showing the arrangement of photoelectric conversion elements of the AF sensor 111 according to the present embodiment. FIG. 9 shows a case where each photoelectric conversion element of the CMOS sensor applied to the AF sensor 111 is configured with a matrix pattern. FIG. 10 shows a case where each photoelectric conversion element is formed of a honeycomb pattern.

第2の実施形態は、第1の実施形態と比べて各光電変換素子の読み出し範囲が異なる。以下では、読み出し範囲について説明する。第1の実施形態では、図11(A)に示すように1つの水平ラインに含まれる2つの素子ラインL30、R30の相関を計算していた。このとき、太線で囲った1つずつの光電変換素子の単位で出力値を取得していた。   The second embodiment differs from the first embodiment in the readout range of each photoelectric conversion element. Hereinafter, the reading range will be described. In the first embodiment, as shown in FIG. 11A, the correlation between the two element lines L30 and R30 included in one horizontal line is calculated. At this time, the output value is acquired in units of photoelectric conversion elements one by one surrounded by a thick line.

一方、本実施形態は、一側の互いに平行な複数の素子ラインL31、L32、L33、L34を1つの組として第1の素子ラインセットとし、他側の互いに平行な複数の素子ラインR31、R32、R33、R34を1つの組として第2の素子ラインセットとする。そして、走査方向(素子ラインの長手方向)と異なる方向(例えば垂直方向)の光電変換素子の出力値を加算する。例えば、図11(B)に示す例では、太線で囲った4つの光電変換素子の出力値の加算値を取得する。そして、太線で囲った4つの光電変換素子を1つの画素として扱い、走査方向の画素の出力値(加算値)の強度分布を比較して、相関を算出する。   On the other hand, in this embodiment, a plurality of element lines L31, L32, L33, and L34 on one side are set as one set as a first element line set, and a plurality of element lines R31, R32 on the other side are parallel to each other. , R33, R34 as one set to form a second element line set. Then, the output values of the photoelectric conversion elements in a direction (for example, the vertical direction) different from the scanning direction (the longitudinal direction of the element line) are added. For example, in the example illustrated in FIG. 11B, an addition value of output values of four photoelectric conversion elements surrounded by a thick line is acquired. Then, the four photoelectric conversion elements surrounded by bold lines are treated as one pixel, and the intensity distribution of the output values (added values) of the pixels in the scanning direction is compared to calculate the correlation.

図10に示すハニカムパターンの例も同様である。第1の実施形態では、図10(A)に示すように、素子ラインL40、R40において、太線で囲った1つずつの光電変換素子の単位で出力値を取得していた。一方、本実施形態によれば、図10(B)に示すように、素子ラインL41〜L44からなる第1の素子ラインセット、素子ラインR41〜R44からなる第2の素子ラインセットにおいて、太線で囲った4つの光電変換素子を1つの画素として扱い、走査方向の画素の出力値(加算値)の強度分布を比較して、相関を算出する。なお、図10(B)に示すように、例えば1ラインおきに素子ラインを抽出して、加算対象とする光電変換素子が走査方向に対して垂直方向に配列されるようにしてもよいし、図10(C)に示すように、互いに隣接するように素子ラインを抽出してもよい。このとき、図10(C)に示すように、素子ラインL45〜L48からなる第1の素子ラインセット、素子ラインR45〜R48からなる第2の素子ラインセットにおいて、太線で囲った4つの光電変換素子を1つの画素として扱う。加算対象とする光電変換素子は、走査方向に対してほぼ垂直方向にジグザグに配列される。   The example of the honeycomb pattern shown in FIG. 10 is the same. In the first embodiment, as shown in FIG. 10A, in the element lines L40 and R40, the output value is acquired in units of photoelectric conversion elements one by one surrounded by thick lines. On the other hand, according to the present embodiment, as shown in FIG. 10B, in the first element line set including the element lines L41 to L44 and the second element line set including the element lines R41 to R44, The four surrounding photoelectric conversion elements are treated as one pixel, and the correlation is calculated by comparing the intensity distributions of the output values (added values) of the pixels in the scanning direction. As shown in FIG. 10B, for example, element lines may be extracted every other line, and photoelectric conversion elements to be added may be arranged in a direction perpendicular to the scanning direction. As shown in FIG. 10C, element lines may be extracted so as to be adjacent to each other. At this time, as shown in FIG. 10C, in the first element line set composed of element lines L45 to L48 and the second element line set composed of element lines R45 to R48, four photoelectric conversions surrounded by bold lines The element is treated as one pixel. The photoelectric conversion elements to be added are arranged in a zigzag manner in a direction substantially perpendicular to the scanning direction.

AFセンサー111において1つずつの光電変換素子の単位では、十分なダイナミックレンジが得られない場合でも、本実施形態によれば、複数の光電変換素子の出力値を加算するため、各光電変換素子のダイナミックレンジの狭さを補うことができ、感度を高めることができる。また、走査方向に対して垂直方向の画素を加算する場合、走査方向の成分が含まれないため、素性のよいデータを得ることができる。更に、本実施形態によれば、通常のCMOSセンサーで感度のよいAFセンサーを実現することができる。そのため、別途高感度の光電変換素子の開発、製造が不要となりコスト上昇を抑制することができる。   Even if a sufficient dynamic range cannot be obtained in the unit of one photoelectric conversion element in the AF sensor 111, according to this embodiment, the output values of a plurality of photoelectric conversion elements are added. It is possible to compensate for the narrow dynamic range and to increase the sensitivity. In addition, when pixels in the vertical direction with respect to the scanning direction are added, since no component in the scanning direction is included, data with good features can be obtained. Furthermore, according to the present embodiment, an AF sensor with high sensitivity can be realized with a normal CMOS sensor. Therefore, it is not necessary to develop and manufacture a separate high-sensitivity photoelectric conversion element, thereby suppressing an increase in cost.

また、第1の実施形態では、互いに平行な複数の素子ラインを読み出して、測距枠に複数の被写体が含まれるときの距離算出の精度を向上させている。   In the first embodiment, a plurality of element lines parallel to each other are read to improve the accuracy of distance calculation when a plurality of subjects are included in the distance measurement frame.

本実施形態では、互いに平行な複数の素子ラインからなる素子ラインセットを複数読み出すことで、高感度、かつ測距枠に複数の被写体が含まれるときの距離算出の精度の向上を図ることができる。図11は、本実施形態に係るAFセンサー111の光電変換素子の配置を示す平面図である。   In the present embodiment, by reading a plurality of element line sets including a plurality of element lines parallel to each other, it is possible to improve the accuracy of distance calculation when a plurality of subjects are included in the distance measurement frame with high sensitivity. . FIG. 11 is a plan view showing the arrangement of photoelectric conversion elements of the AF sensor 111 according to this embodiment.

図11(A)は、素子ラインL50、L60、L70、R50、R60、R70において、太線で囲った1つずつの光電変換素子の単位で出力値を取得する場合である。本実施形態では、図11(B)に示すように、太線で囲った4つの光電変換素子を1つの画素として扱い、走査方向の画素の出力値(加算値)の強度分布を比較して、相関を算出する。図11(B)の素子ラインセットは、素子ラインL51、L52、L53、L54からなる素子ラインセット、素子ラインR51、R52、R53、R54からなる素子ラインセット、素子ラインL61、L62、L63、L64からなる素子ラインセット、素子ラインR61、R62、R63、R64からなる素子ラインセット、素子ラインL71、L72、L73、L74からなる素子ラインセット、素子ラインR71、R72、R73、R74からなる素子ラインセットがある。   FIG. 11A shows a case where the output values are obtained in units of photoelectric conversion elements one by one surrounded by a thick line in the element lines L50, L60, L70, R50, R60, and R70. In this embodiment, as shown in FIG. 11B, the four photoelectric conversion elements surrounded by a thick line are treated as one pixel, and the intensity distribution of the output values (added values) of the pixels in the scanning direction are compared. Calculate the correlation. The element line set in FIG. 11B includes an element line set including element lines L51, L52, L53, and L54, an element line set including element lines R51, R52, R53, and R54, and element lines L61, L62, L63, and L64. Element line set consisting of, element line set consisting of element lines R61, R62, R63, R64, element line set consisting of element lines L71, L72, L73, L74, element line set consisting of element lines R71, R72, R73, R74 There is.

このとき、素子ラインセットは互いに重複しないように、走査方向に対して垂直方向の光電変換素子を加算する。これにより、AFセンサー111は、精度良く被写体像を検出することができる。   At this time, photoelectric conversion elements in the direction perpendicular to the scanning direction are added so that the element line sets do not overlap each other. Thereby, the AF sensor 111 can detect the subject image with high accuracy.

また、加算する素子ラインの長手方向と異なる方向(例えば垂直方向)に配置された光電変換素子の数(加算数)は、被写体像の輝度レベルに応じて可変とすることができる。例えば、AE演算制御部132がAEセンサー114の出力値を受けて、輝度レベルを把握する。そして、AE演算制御部132が加算の必要性や加算数を決定して、結果をAFセンサー111に送る。これにより、被写体の輝度に応じた感度を有するAFセンサーを実現することができる。   Further, the number of photoelectric conversion elements (addition number) arranged in a direction (for example, the vertical direction) different from the longitudinal direction of the element lines to be added can be made variable according to the luminance level of the subject image. For example, the AE calculation control unit 132 receives the output value of the AE sensor 114 and grasps the luminance level. The AE calculation control unit 132 determines the necessity for addition and the number of additions, and sends the result to the AF sensor 111. Thereby, an AF sensor having sensitivity according to the luminance of the subject can be realized.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

本発明の第1の実施形態に係る撮像装置を示すブロック図である。1 is a block diagram illustrating an imaging apparatus according to a first embodiment of the present invention. フォーカスレンズ、CMOSセンサー、コンデンサーレンズ、セパレーターレンズ及びAFセンサーの関係及び構成を示す模式図である。It is a schematic diagram which shows the relationship and structure of a focus lens, a CMOS sensor, a condenser lens, a separator lens, and an AF sensor. 分割される光束をフォーカスレンズ位置で示した模式図である。It is the schematic diagram which showed the light beam divided | segmented by the focus lens position. 同実施形態の撮像装置のファインダー10及び測距枠12との関係を示す説明図である。It is explanatory drawing which shows the relationship between the finder 10 and the ranging frame 12 of the imaging device of the embodiment. 同実施形態の撮像装置の水平ラインの出力値分布を示すグラフである。It is a graph which shows the output value distribution of the horizontal line of the imaging device of the embodiment. 同実施形態に係るAFセンサーの光電変換素子の配置を示す平面図である。It is a top view which shows arrangement | positioning of the photoelectric conversion element of the AF sensor which concerns on the same embodiment. 同実施形態に係るAFセンサーの光電変換素子の配置を示す平面図である。It is a top view which shows arrangement | positioning of the photoelectric conversion element of the AF sensor which concerns on the same embodiment. 同実施形態に係る撮像装置のフォーカス制御における撮影距離算出動作を示すフローチャートである。5 is a flowchart illustrating an imaging distance calculation operation in focus control of the imaging apparatus according to the embodiment. 本発明の第2の実施形態に係るAFセンサーの光電変換素子の配置を示す平面図である。It is a top view which shows arrangement | positioning of the photoelectric conversion element of the AF sensor which concerns on the 2nd Embodiment of this invention. 同実施形態に係るAFセンサーの光電変換素子の配置を示す平面図である。It is a top view which shows arrangement | positioning of the photoelectric conversion element of the AF sensor which concerns on the same embodiment. 同実施形態に係るAFセンサーの光電変換素子の配置を示す平面図である。It is a top view which shows arrangement | positioning of the photoelectric conversion element of the AF sensor which concerns on the same embodiment. 従来の撮像装置のファインダー及び測距枠との関係を示す説明図である。It is explanatory drawing which shows the relationship with the finder of a conventional imaging device, and a ranging frame. 従来の撮像装置のラインセンサーの出力値分布を示すグラフである。It is a graph which shows the output value distribution of the line sensor of the conventional imaging device. 相関値と波形間距離の関係を示すグラフである。It is a graph which shows the relationship between a correlation value and the distance between waveforms. 従来の撮像装置のファインダー及び測距枠との関係を示す説明図である。It is explanatory drawing which shows the relationship with the finder of a conventional imaging device, and a ranging frame. 従来の撮像装置のラインセンサーの出力値分布を示すグラフである。It is a graph which shows the output value distribution of the line sensor of the conventional imaging device. 相関値と波形間距離の関係を示すグラフである。It is a graph which shows the relationship between a correlation value and the distance between waveforms.

符号の説明Explanation of symbols

100 撮像装置
101 結像光学系
102 ズームレンズ
103 絞り
104 フォーカスレンズ
105 クイックリターンミラー
106 シャッター
107 CMOSセンサー
108、112 CDS/AMP部
109、113 A/D変換部
110、131 画像入力コントローラ
120 DSP/CPU
121 タイミングジェネレータ
130 CPU
135 操作部材
141、143、145 ドライバ
142、144、146 モータ
152 画像信号処理回路
154 圧縮処理回路
156 LCDドライバ
158 LCD
162 VRAM
164 SDRAM
166 メディアコントローラ
168 記録メディア
DESCRIPTION OF SYMBOLS 100 Image pick-up device 101 Imaging optical system 102 Zoom lens 103 Diaphragm 104 Focus lens 105 Quick return mirror 106 Shutter 107 CMOS sensor 108, 112 CDS / AMP part 109, 113 A / D conversion part 110, 131 Image input controller 120 DSP / CPU
121 Timing generator 130 CPU
135 Operation member 141, 143, 145 Driver 142, 144, 146 Motor 152 Image signal processing circuit 154 Compression processing circuit 156 LCD driver 158 LCD
162 VRAM
164 SDRAM
166 Media controller 168 Recording media

Claims (9)

被写体から受光面に照射された被写体像を電気信号に変換する2次元方向に配置された複数の光電変換素子を有する撮像素子と、
1つの仮想線分上に配置された複数の前記光電変換素子からなる素子ラインから前記電気信号を前記光電変換素子毎に順次読み出す読み出し部と、
前記撮像素子のうちの一部の領域である測距枠内に含まれる互いに平行な複数の前記素子ラインからなる第1の素子ラインセットと、該第1の素子ラインセットの長手方向の延長線上に配置された、前記測距枠内に含まれる互いに平行な複数の前記素子ラインからなる第2の素子ラインセットとの前記電気信号の強度分布差に基づいて前記被写体との距離を算出する距離算出部と
を備える、撮像装置。
An imaging device having a plurality of photoelectric conversion elements arranged in a two-dimensional direction for converting a subject image irradiated from a subject onto a light receiving surface into an electrical signal;
A readout unit that sequentially reads out the electrical signal for each photoelectric conversion element from an element line including a plurality of the photoelectric conversion elements arranged on one virtual line segment;
A first element line set composed of a plurality of element lines parallel to each other included in a distance measuring frame, which is a partial area of the image sensor, and an extension in the longitudinal direction of the first element line set The distance for calculating the distance to the subject based on the difference in the intensity distribution of the electric signal with the second element line set composed of a plurality of element lines parallel to each other included in the distance measurement frame An imaging device comprising a calculation unit.
前記距離算出部は、前記第1の素子ラインセットのうちの1つの前記素子ラインである第1の素子ラインの前記強度分布と、前記第1の素子ラインと同一直線上に配置された前記第2の素子ラインセットのうちの1つの前記素子ラインである第2の素子ラインの前記強度分布とを比較して、前記距離を算出する、請求項1に記載の撮像装置。   The distance calculation unit includes the intensity distribution of the first element line which is one of the element lines in the first element line set, and the first element line arranged on the same straight line as the first element line. The imaging apparatus according to claim 1, wherein the distance is calculated by comparing the intensity distribution of a second element line that is one of the two element line sets. 前記距離算出部は、前記素子ラインの長手方向と異なる方向に配置された前記光電変換素子から出力された前記電気信号の強度を加算して得られた加算値に基づいて、前記第1の素子ラインセットの前記強度分布と前記第2の素子ラインセットの強度分布とを比較して、前記距離を算出する、請求項1に記載の撮像装置。   The distance calculation unit is configured to add the first element based on an addition value obtained by adding the electric signal intensities output from the photoelectric conversion elements arranged in a direction different from the longitudinal direction of the element line. The imaging apparatus according to claim 1, wherein the distance is calculated by comparing the intensity distribution of the line set and the intensity distribution of the second element line set. 前記距離算出部が加算する前記素子ラインの長手方向と異なる方向に配置された前記光電変換素子の数は、前記被写体像の輝度レベルに応じて可変である、請求項3に記載の撮像装置。   The imaging apparatus according to claim 3, wherein the number of the photoelectric conversion elements arranged in a direction different from a longitudinal direction of the element line added by the distance calculation unit is variable according to a luminance level of the subject image. 前記距離算出部が、前記素子ラインの長手方向と異なる方向に配置された前記光電変換素子の前記電気信号の強度を加算するとき、前記光電変換素子は互いに重複しないように加算される、請求項3又は4に記載の撮像装置。   The said distance calculation part is added so that the said photoelectric conversion element may not mutually overlap when adding the intensity | strength of the said electrical signal of the said photoelectric conversion element arrange | positioned in the direction different from the longitudinal direction of the said element line. The imaging apparatus according to 3 or 4. 前記距離算出部が、前記素子ラインの長手方向と異なる方向に配置された前記光電変換素子の前記電気信号の強度を加算するとき、前記素子ラインの長手方向と異なる方向に配置された複数の前記光電変換素子は1つの仮想直線上に配置された、請求項3〜5のいずれかに記載の撮像装置。   When the distance calculation unit adds the electric signal intensities of the photoelectric conversion elements arranged in a direction different from the longitudinal direction of the element line, a plurality of the arrangements arranged in a direction different from the longitudinal direction of the element line The imaging device according to claim 3, wherein the photoelectric conversion elements are arranged on one virtual line. 前記複数の光電変換素子は、マトリクス状又はハニカム状に配置された、請求項1〜6のいずれかに記載の撮像装置。   The imaging device according to claim 1, wherein the plurality of photoelectric conversion elements are arranged in a matrix shape or a honeycomb shape. 前記第1の素子ラインセット及び前記第2の素子ラインセットは、ユーザーによる選択によって全ての前記光学変換素子の中から選択可能である、請求項1〜7のいずれかに記載の撮像装置。   The imaging device according to claim 1, wherein the first element line set and the second element line set can be selected from all the optical conversion elements by selection by a user. 被写体から受光面に照射された被写体像を電気信号に変換する2次元方向に配置された複数の光電変換素子を有する撮像素子のうち、1つの仮想線分上に配置された複数の前記光電変換素子からなる素子ラインから前記電気信号を前記光電変換素子毎に順次読み出すステップと、
前記撮像素子のうちの一部の領域である測距枠内に含まれる互いに平行な複数の前記素子ラインからなる第1の素子ラインセットと、該第1の素子ラインセットの長手方向の延長線上に配置された、前記測距枠内に含まれる互いに平行な複数の前記素子ラインからなる第2の素子ラインセットとの前記電気信号の強度分布差に基づいて前記被写体との距離を算出するステップと
を有する、撮像方法。
Among the imaging elements having a plurality of photoelectric conversion elements arranged in a two-dimensional direction for converting a subject image irradiated on the light receiving surface from the subject into an electric signal, the plurality of photoelectric conversions arranged on one virtual line segment Sequentially reading out the electrical signal for each photoelectric conversion element from an element line comprising elements;
A first element line set composed of a plurality of element lines parallel to each other included in a distance measuring frame, which is a partial area of the image sensor, and an extension in the longitudinal direction of the first element line set Calculating a distance to the subject based on a difference in intensity distribution of the electrical signal with a second element line set including a plurality of element lines parallel to each other included in the distance measurement frame disposed in An imaging method comprising:
JP2008164022A 2008-06-24 2008-06-24 Imaging apparatus and imaging method Expired - Fee Related JP5095519B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008164022A JP5095519B2 (en) 2008-06-24 2008-06-24 Imaging apparatus and imaging method
KR20080107967A KR101510107B1 (en) 2008-06-24 2008-10-31 Photographing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008164022A JP5095519B2 (en) 2008-06-24 2008-06-24 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2010008443A true JP2010008443A (en) 2010-01-14
JP5095519B2 JP5095519B2 (en) 2012-12-12

Family

ID=41589086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008164022A Expired - Fee Related JP5095519B2 (en) 2008-06-24 2008-06-24 Imaging apparatus and imaging method

Country Status (2)

Country Link
JP (1) JP5095519B2 (en)
KR (1) KR101510107B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012008212A (en) * 2010-06-22 2012-01-12 Olympus Corp Imaging apparatus
WO2012073729A1 (en) * 2010-11-30 2012-06-07 富士フイルム株式会社 Imaging device and focal position detection method
WO2012073728A1 (en) * 2010-11-30 2012-06-07 富士フイルム株式会社 Imaging device and focal position detection method
US8704940B2 (en) 2011-03-31 2014-04-22 Fujifilm Corporation Imaging device and focusing control method
JP2014112211A (en) * 2012-10-29 2014-06-19 Canon Inc Imaging apparatus and method for controlling the same
JP2014239507A (en) * 2010-04-28 2014-12-18 富士フイルム株式会社 Imaging apparatus
US8964098B2 (en) 2011-03-31 2015-02-24 Fujifilm Corporation Imaging device and focus control method having first and second correlation computations
JP2017027080A (en) * 2016-10-25 2017-02-02 株式会社ニコン Focus detection device and imaging device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102269600B1 (en) * 2014-08-05 2021-06-25 삼성전자주식회사 An imaging sensor capable of detecting phase difference of focus

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0572470A (en) * 1991-06-26 1993-03-26 Fuji Photo Film Co Ltd Phase difference detection type focus detection device
JPH07151950A (en) * 1993-11-29 1995-06-16 Canon Inc Camera
JP2004012815A (en) * 2002-06-06 2004-01-15 Sigma Corp Autofocus camera
JP2005156900A (en) * 2003-11-26 2005-06-16 Kyocera Corp Sensor for detecting focal point, focal point detector having the sensor for detecting focal point, focal point detection method and electronic imaging device
JP2006324760A (en) * 2005-05-17 2006-11-30 Fujifilm Holdings Corp Imaging apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0572470A (en) * 1991-06-26 1993-03-26 Fuji Photo Film Co Ltd Phase difference detection type focus detection device
JPH07151950A (en) * 1993-11-29 1995-06-16 Canon Inc Camera
JP2004012815A (en) * 2002-06-06 2004-01-15 Sigma Corp Autofocus camera
JP2005156900A (en) * 2003-11-26 2005-06-16 Kyocera Corp Sensor for detecting focal point, focal point detector having the sensor for detecting focal point, focal point detection method and electronic imaging device
JP2006324760A (en) * 2005-05-17 2006-11-30 Fujifilm Holdings Corp Imaging apparatus

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014239507A (en) * 2010-04-28 2014-12-18 富士フイルム株式会社 Imaging apparatus
JP2012008212A (en) * 2010-06-22 2012-01-12 Olympus Corp Imaging apparatus
US8830379B2 (en) 2010-06-22 2014-09-09 Olympus Corporation Image pickup apparatus with inter-frame addition components
JPWO2012073728A1 (en) * 2010-11-30 2014-05-19 富士フイルム株式会社 Imaging apparatus and focus position detection method thereof
US8780259B2 (en) 2010-11-30 2014-07-15 Fujifilm Corporation Image capturing apparatus and in-focus position detection method thereof
JP5493011B2 (en) * 2010-11-30 2014-05-14 富士フイルム株式会社 Imaging apparatus and focus position detection method thereof
JP5493010B2 (en) * 2010-11-30 2014-05-14 富士フイルム株式会社 Imaging apparatus and focus position detection method thereof
JPWO2012073729A1 (en) * 2010-11-30 2014-05-19 富士フイルム株式会社 Imaging apparatus and focus position detection method thereof
CN103238098A (en) * 2010-11-30 2013-08-07 富士胶片株式会社 Imaging device and focal position detection method
US9357120B2 (en) 2010-11-30 2016-05-31 Fujifilm Corporation Image capturing apparatus and in-focus position detection method thereof
CN103238098B (en) * 2010-11-30 2015-04-15 富士胶片株式会社 Imaging device and focal position detection method
WO2012073728A1 (en) * 2010-11-30 2012-06-07 富士フイルム株式会社 Imaging device and focal position detection method
WO2012073729A1 (en) * 2010-11-30 2012-06-07 富士フイルム株式会社 Imaging device and focal position detection method
US8964098B2 (en) 2011-03-31 2015-02-24 Fujifilm Corporation Imaging device and focus control method having first and second correlation computations
US8982271B2 (en) 2011-03-31 2015-03-17 Fujifilm Corporation Imaging device and focusing control method
US8704940B2 (en) 2011-03-31 2014-04-22 Fujifilm Corporation Imaging device and focusing control method
JP2014112211A (en) * 2012-10-29 2014-06-19 Canon Inc Imaging apparatus and method for controlling the same
JP2017027080A (en) * 2016-10-25 2017-02-02 株式会社ニコン Focus detection device and imaging device

Also Published As

Publication number Publication date
KR20100002051A (en) 2010-01-06
KR101510107B1 (en) 2015-04-08
JP5095519B2 (en) 2012-12-12

Similar Documents

Publication Publication Date Title
JP5095519B2 (en) Imaging apparatus and imaging method
US8890996B2 (en) Imaging device, semiconductor integrated circuit and imaging method
JP5322783B2 (en) IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE
KR101605419B1 (en) Photographing apparatus and method of photographing
KR100871639B1 (en) Camera and image processing method for camera
JP6029309B2 (en) Focus detection device
JP5653035B2 (en) Imaging apparatus, focus detection method, and control method
JP5618712B2 (en) Automatic focusing device and imaging device
JP5130178B2 (en) Focal length detection apparatus, imaging apparatus, imaging method, and camera
JP2006053545A (en) Optical apparatus
JP2010054730A (en) Focusing position detecting device, imaging apparatus, and focusing position detecting method
WO2013171840A1 (en) Imaging apparatus, and imaging apparatus control method
JP2007024941A (en) Focus detecting apparatus, focusing apparatus and imaging apparatus
JP2017126035A (en) Imaging apparatus, control method, program, and storage medium
JP4329694B2 (en) Imaging device
JP2013113857A (en) Imaging device, and control method therefor
JP6427027B2 (en) Focus detection apparatus, control method therefor, imaging apparatus, program, and storage medium
JPH11258492A (en) Focus detecting device and its method and storage medium readable through computer
JP2006023653A (en) Optical equipment
JP2010060810A (en) Imaging apparatus and imaging method
JP4143395B2 (en) Imaging apparatus, autofocus method, program, and storage medium
JP5069076B2 (en) Imaging apparatus and continuous imaging method
JP2009031562A (en) Light receiving element, light receiver, focus detecting device, camera
JP7237473B2 (en) Focus adjustment device and its control method
JP2009253623A (en) Solid-state imaging device and photographic device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120919

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees