KR20100002051A - Photographing apparatus and method - Google Patents

Photographing apparatus and method Download PDF

Info

Publication number
KR20100002051A
KR20100002051A KR1020080107967A KR20080107967A KR20100002051A KR 20100002051 A KR20100002051 A KR 20100002051A KR 1020080107967 A KR1020080107967 A KR 1020080107967A KR 20080107967 A KR20080107967 A KR 20080107967A KR 20100002051 A KR20100002051 A KR 20100002051A
Authority
KR
South Korea
Prior art keywords
distance
photoelectric conversion
line
conversion elements
lines
Prior art date
Application number
KR1020080107967A
Other languages
Korean (ko)
Other versions
KR101510107B1 (en
Inventor
나오키 타카후지
토시유키 타나카
토시히로 하마무라
츠요시 모리야
유키 엔도
Original Assignee
삼성디지털이미징 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성디지털이미징 주식회사 filed Critical 삼성디지털이미징 주식회사
Publication of KR20100002051A publication Critical patent/KR20100002051A/en
Application granted granted Critical
Publication of KR101510107B1 publication Critical patent/KR101510107B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

PURPOSE: A photographing apparatus and a photograph method measuring a distance as photoelectric conversion elements are provided to produce the distance to a subject of high accuracy by using photoelectric conversion elements arranged 2D. CONSTITUTION: An image beam is transformed into the electrical signal so that a plurality of photoelectric conversion elements is arranged 2D. A reading unit(152) sequentially reads out the electrical signal of photoelectric conversion elements from an element line. A distance calculating unit calculates the distance to the subject based on the difference of the distance calculator is the field-pattern of the electric signal of the first and the second device line.

Description

촬상 장치 및 촬상 방법{Photographing apparatus and method}Imaging Apparatus and Imaging Method {Photographing apparatus and method}

본 발명은 촬상 장치 및 촬상 방법에 관한 것으로, 보다 상세하게는 2차원 방향으로 배치된 광전 변환 소자들을 이용해 거리를 측정하므로 하나의 거리 측정 영역 안에 거리가 다른 여러 개의 피사체가 혼재되었을 때에도 거리 산출시에 오차가 생기지 않아 고정밀도로 피사체까지의 거리를 산출할 수 있는 촬상 장치 및 촬상 방법에 관한 것이다.The present invention relates to an image pickup device and an image pickup method. More particularly, the distance is measured by using photoelectric conversion elements arranged in a two-dimensional direction. The present invention relates to an image pickup apparatus and an image pickup method capable of calculating a distance to a subject with high precision without causing an error in the frame.

디지털 스틸 카메라(촬상 장치)에는, 예를 들면 퀵 리턴 미러를 구비하여 촬영 전에만 결상 광학계로부터 입사된 영상광을 뷰 파인더 측으로 안내하는 일안 리플렉스 카메라와, 퀵 리턴 미러를 구비하지 않고 촬영 전에도 결상 광학계로부터 입사된 영상광을 촬상 소자(광전 변환 소자)로 안내하는 콤팩트 카메라 등이 있다.The digital still camera (imaging device) includes, for example, a single-lens reflex camera having a quick return mirror and guiding video light incident from the imaging optical system only before shooting, to the viewfinder side, and an imaging optical system even before shooting without the quick return mirror. And a compact camera for guiding the video light incident from the image pickup device (photoelectric conversion element).

디지털 스틸 카메라는, 피사체의 영상광이 촬상 소자의 촬상면에 맺히도록 초점을 제어한다. 디지털 스틸 카메라의 포커스 제어에는, 예를 들면 위상차 검출 방식이나 콘트라스트 검출 방식 등이 있다. 위상차 검출 방식은, 피사체의 2가지 상의 위상차로부터 합초 위치를 검출하고, 포커스 렌즈를 검출된 합초 위치로 구동한다. The digital still camera controls the focus so that the video light of the subject is reflected on the imaging surface of the imaging device. The focus control of the digital still camera includes, for example, a phase difference detection method and a contrast detection method. The phase difference detection method detects the focusing position from the phase difference of two images of the subject, and drives the focus lens to the detected focusing position.

콘트라스트 검출 방식은, 포커스 렌즈를 이동하면서 화상 신호를 취득하고, 콘트라스트값이 가장 높은 위치(화상 중에 엣지가 가장 많이 검출된 위치)를 검출하여 그 때의 포커스 렌즈의 위치를 합초 위치로 결정한다.The contrast detection method acquires an image signal while moving the focus lens, detects the position with the highest contrast value (the position where the edge is detected most in the image), and determines the position of the focus lens at that time as the focusing position.

예를 들면, 일본 특허공개공보 제2004-12815호(이하, 인용 문헌 1)에는 위상차 검출 방식에서 씨모스(CMOS; complementary metal oxide semiconductor)센서를 사용한 기술이 개시되어 있다. 또한 일본 특허공개공보 제2006-324760호에는 콘트라스트 검출 방식에서 피사체가 저휘도일 때 여러 개의 화소값을 가산하여 고정밀도로 합초하는 기술이 개시되어 있다.For example, Japanese Patent Laid-Open No. 2004-12815 (hereinafter referred to as Reference Document 1) discloses a technique using a CMOS (complementary metal oxide semiconductor) sensor in a phase difference detection method. Also, Japanese Patent Laid-Open No. 2006-324760 discloses a technique of adding a plurality of pixel values and converging with high precision when a subject is low in the contrast detection method.

위상차 검출 방식은 피사체로부터의 광속을 2개로 분리하여 광의 분포가 나타난 거리(광 분포 출현 거리)에 기초하여 카메라와 피사체간의 거리를 산출한다. 종래의 위상차 검출 방식에서 광의 검출을 위해 라인 센서가 사용되어 왔다. 라인 센서는 1차원 방향으로 배치한 복수의 광전 변환 소자들로 이루어진 센서이다. The phase difference detection method separates the luminous flux from the subject into two and calculates the distance between the camera and the subject based on the distance at which the distribution of light appears (the light distribution appearance distance). In the conventional phase difference detection method, a line sensor has been used for the detection of light. The line sensor is a sensor composed of a plurality of photoelectric conversion elements arranged in a one-dimensional direction.

도 12는 종래의 촬상 장치의 뷰 파인더(10)와 거리 측정 영역(12)의 관계를 도시한 설명도이다. 뷰 파인더(10) 안에 거리 측정 영역(12)이 있을 때, 촬상 장치 내부에는 거리 측정 영역(12)에 대응하여 라인 센서(14)가 배치되어 있다.12 is an explanatory diagram showing the relationship between the view finder 10 and the distance measurement area 12 of the conventional imaging device. When the distance measuring area 12 is in the view finder 10, the line sensor 14 is disposed in the imaging device corresponding to the distance measuring area 12.

한편, 인용 문헌 1에는 라인 센서대신, 복수의 광전 변환 소자가 2차원 방향으로 배치된 CMOS센서를 사용하는 경우에 대해서 기재되어 있다. 그러나 인용 문헌 1의 기술은, CMOS센서를 구성하는 여러 개의 소자에서 라인 센서와 같이 하나의 직선상의 소자를 추출하여 주사하는 기술이다. 따라서 인용 문헌 1은 피사체의 영 상광의 주사 및 거리의 산출에 대해서 종래의 라인 센서와 거의 동일한 구성을 갖는 기술이다.On the other hand, Reference Document 1 describes a case of using a CMOS sensor in which a plurality of photoelectric conversion elements are arranged in a two-dimensional direction instead of a line sensor. However, the technique of cited reference 1 is a technique of extracting and scanning one linear element like a line sensor from several elements constituting a CMOS sensor. Therefore, Cited Reference 1 is a technique having almost the same configuration as the conventional line sensor with respect to the scanning of the image light of the subject and the calculation of the distance.

위상차 검출 방식에서는 피사체로부터의 광속이, 예를 들면 좌우 방향으로 2개로 분리되어 라인 센서(14)에 조사된다. In the phase difference detection method, the light beams from the subject are separated into two, for example, in the left and right directions, and irradiated to the line sensor 14.

도 13은 종래의 촬상 장치의 라인 센서(14)의 출력값 분포를 도시한 그래프이다.13 is a graph showing an output value distribution of the line sensor 14 of the conventional imaging device.

도 12에 도시한 바와 같이 거리 측정 영역(12)에 피사체(5)가 있는 경우, 라인 센서(14)의 좌우부분의 각각에서 도 13에 도시한 것과 같은 출력값의 분포를 얻을 수 있다. 좌우의 출력 피크값의 파형간 거리(A)는 촬상 장치와 피사체간의 거리(촬영 거리)에 따라 변화된다. 예를 들면, 촬영 거리가 길어짐에 따라 파형간 거리(A)는 짧아지고, 촬영 거리가 짧아지면 파형간 거리(A)는 길어진다. 파형간 거리(A)를 산출하기 위해서는 좌우 2개 파형의 상관이 가장 강해지는 곳을 검출할 필요가 있다.As shown in FIG. 12, when the subject 5 exists in the distance measuring area 12, the distribution of the output value as shown in FIG. 13 can be obtained in each of the left and right parts of the line sensor 14. As shown in FIG. The inter-waveform distance A of the left and right output peak values changes according to the distance (imaging distance) between the imaging device and the subject. For example, as the imaging distance becomes longer, the inter-waveform distance A becomes shorter, and when the imaging distance becomes shorter, the inter-waveform distance A becomes longer. In order to calculate the distance A between waveforms, it is necessary to detect where the correlation between the two left and right waveforms is the strongest.

상관 검출 방법에는, 예를 들어 일측 파형 데이터를 화소 단위로 쉬프트하면서 타측 파형 데이터와의 차분의 총합을 취하여, 총합이 최소가 될 때의 거리를 상관이 가장 강한 파형간 거리(A)로 판단하는 방법이 있다.In the correlation detection method, for example, the sum of the differences with the other waveform data is taken while shifting one waveform data in units of pixels, and the distance when the total is minimum is determined as the distance between the waveforms having the strongest correlation (A). There is a way.

이 때의 상관값은, 예를 들면 이하의 수학식 1로 표현할 수 있는데, 도 13에 도시한 출력값 분포에서는 도 14에 도시한 것과 같은 상관값과 파형간 거리의 관계를 도시한 그래프를 얻을 수 있다. 도 14는, 상관값과 파형간 거리의 관계를 도시한 그래프이다. 상관값이 최소(min1)가 될 때와 도 13의 파형간 거리(A)가 대 응한다.The correlation value at this time can be expressed by, for example, the following equation (1). In the output value distribution shown in Fig. 13, a graph showing the relationship between the correlation value and the distance between the waveforms as shown in Fig. 14 can be obtained. have. 14 is a graph showing the relationship between the correlation value and the distance between waveforms. When the correlation value becomes minimum (min1) and the distance A between waveforms in FIG. 13 corresponds.

Figure 112008075955597-PAT00001
Figure 112008075955597-PAT00001

여기에서 n은 영역의 화소수, j는 상대 화소 위치이다.Where n is the number of pixels in the region and j is the relative pixel position.

도 15는 종래의 촬상 장치의 뷰 파인더(10)와 거리 측정 영역(12)의 관계를 도시한 설명도이다. 도 16은 종래의 촬상 장치의 라인 센서(14)의 출력값 분포를 도시한 그래프이다.15 is an explanatory diagram showing the relationship between the view finder 10 and the distance measurement area 12 of the conventional imaging device. 16 is a graph showing an output value distribution of the line sensor 14 of the conventional imaging device.

도 17은 상관값과 파형간 거리의 관계를 도시한 그래프이다.17 is a graph showing the relationship between the correlation value and the distance between waveforms.

도 15에 도시한 바와 같이 거리 측정 영역(12) 안에 상이한 촬영 거리 상에 위치하는 피사체(5, 7)가 존재하는 경우, 라인 센서(14)의 좌우의 각 부분에서는 도 16에 도시한 것과 같은 출력값의 분포를 얻을 수 있다. 도 16에 도시한 것과 같이 여러 개의 출력 피크값이 검출될 때, 2개의 출력값 분포에 의한 거리 산출시에 오차가 생기거나, 또는 거리의 산출이 불가능해지는 문제점이 있었다. As shown in FIG. 15, when there are subjects 5 and 7 located on different photographing distances in the distance measuring area 12, the respective left and right portions of the line sensor 14 are the same as those shown in FIG. 16. The distribution of the output values can be obtained. When several output peak values are detected as shown in Fig. 16, there is a problem in that an error occurs when the distance is calculated by the two output value distributions, or the distance cannot be calculated.

즉 도 16에 도시한 파형이 나왔을 때 상관 검출을 하면, 도 17과 같이 상관값과 파형간 거리의 관계를 도시한 그래프가 얻을 수 있다. 도 17에 도시한 것과 같이 2개의 파형간 거리(A, B) 모두 상관값이 동일하게 최소의 상관값(min2)이 될 때 촬상 장치와 피사체간의 거리를 결정할 수 없다. 또한 여러 개의 출력 피크값이 검출되는 경우에는 상관값도 높아지기 때문에 거리 검출의 정밀도도 낮아지는 문제점이 있었다.In other words, if the correlation is detected when the waveform shown in FIG. 16 is shown, a graph showing the relationship between the correlation value and the distance between the waveforms can be obtained as shown in FIG. As shown in Fig. 17, the distance between the imaging device and the subject cannot be determined when the correlation values between the two waveforms A and B become equal to the minimum correlation value min2. In addition, when a plurality of output peak values are detected, there is a problem that the accuracy of distance detection is also lowered because the correlation value increases.

이와 같이 거리 결정이 불가능할 때, 종래의 기술에서는 촬상 장치와 피사체의 사이의 거리를 최종적으로 결정하기 위해 상관값들의 사이의 값을 우선적으로 취득하거나, 사전에 정해진 소정의 거리로 대치하는 등의 방법을 사용하였는데, 모두 신뢰성이 낮은 문제점이 있었다.In this way, when distance determination is impossible, in the prior art, a method of first obtaining values between correlation values or replacing a predetermined distance with a predetermined distance in order to finally determine the distance between the imaging device and the subject. Was used, all had a problem of low reliability.

본 발명의 목적은 피사체까지의 거리를 고정밀도로 산출할 수 있는 촬상 장치 및 촬상 방법을 제공하는 데 있다.It is an object of the present invention to provide an imaging device and an imaging method which can calculate the distance to a subject with high accuracy.

본 발명의 다른 목적은 하나의 거리 측정 영역 안에 거리가 다른 여러 개의 피사체가 혼재되었을 때에도 정확하게 거리를 산출할 수 있게 하는 데 있다.Another object of the present invention is to be able to calculate the distance accurately even when a plurality of objects having different distances are mixed in one distance measuring area.

본 발명은 2차원 방향으로 배치된 광전 변환 소자들을 이용해 고정밀도로 피사체까지의 거리를 측정할 수 있는 촬상 장치 및 촬상 방법을 제공한다. The present invention provides an imaging apparatus and an imaging method capable of measuring a distance to a subject with high accuracy using photoelectric conversion elements arranged in a two-dimensional direction.

본 발명에 관한 촬상 장치는, 2차원 방향으로 배치되어 피사체로부터 입사된 영상광을 전기 신호로 변환하는 복수의 광전 변환 소자들과, 일 방향을 따라 배치되는 복수의 광전 변환 소자들로 이루어진 소자 라인에서, 광전 변환 소자들의 전기 신호를 순차적으로 독출하는 독출부와, 서로 평행한 복수의 소자 라인들로 이루어진 제1 소자 라인 세트의 전기 신호와 제1 소자 라인 세트의 소자 라인들의 연장 방향을 따라 연장되며 서로 평행한 복수의 소자 라인들로 이루어진 제2 소자 라인 세트의 전기 신호의 강도 분포의 차이에 기초하여 피사체까지의 거리를 산출하는 거리 산출부를 구비한다. 소자 라인은 하나의 가상 선분 위에 배치된 복수의 상기 광전 변환 소자들을 포함할 수 있다. 2차원 방향으로 배치되는 광전 변환 소자들은 촬상 소자를 구성할 수 있으며, 제1 소자 라인 세트와 제2 소자 라인 세트는 촬상 소자 중 일부의 영역인 거리 측정 영역 안에 포함될 수 있다.An image pickup device according to the present invention comprises a plurality of photoelectric conversion elements arranged in a two-dimensional direction and converting image light incident from a subject into an electrical signal, and an element line comprising a plurality of photoelectric conversion elements arranged along one direction. In FIG. 1, a readout for sequentially reading an electrical signal of a photoelectric conversion element, and along an extension direction of an electrical signal of a first element line set and a plurality of element lines of a first element line set. And a distance calculator configured to calculate a distance to the subject based on a difference in the intensity distribution of the electrical signals of the second set of device lines, the plurality of device lines extending and parallel to each other. The device line may include a plurality of the photoelectric conversion devices disposed on one virtual line segment. The photoelectric conversion elements arranged in the two-dimensional direction may constitute an imaging device, and the first device line set and the second device line set may be included in a distance measuring area that is a part of the imaging device.

상술한 구성에 의해, 촬상 소자는 피사체로부터 수광면에 입사된 피사체의 영상광을 전기 신호로 변환하는 2차원 방향으로 배치된 복수의 광전 변환 소자를 가질 수 있고, 독출부는 촬상 소자 중 일부의 한 가상 선분 위에 배치된 복수의 광전 변환 소자로 이루어진 소자 라인에서 전기 신호를 광전 변환 소자마다 순차적으로 독출한다. 그리고 거리 산출부는 촬상 소자 중 일부의 영역인 거리 측정 영역 안에 포함되는 서로 평행한 여러 개의 소자 라인으로 이루어진 제1 소자 라인 세트와, 해당 제1 소자 라인 세트의 길이 방향의 연장선상에 배치되며 거리 측정 영역 안에 포함되는 서로 평행한 여러 개의 소자 라인으로 이루어지는 제2 소자 라인 세트의 전기 신호의 강도의 분포의 차이에 기초하여 피사체까지의 거리를 산출할 수 있다.With the above-described configuration, the imaging element may have a plurality of photoelectric conversion elements arranged in a two-dimensional direction for converting the image light of the subject incident on the light-receiving surface from the subject into an electrical signal, wherein the reader is one of some of the imaging elements. An electrical signal is sequentially read out for each photoelectric conversion element in a device line including a plurality of photoelectric conversion elements disposed on the virtual line segment. The distance calculator includes a first device line set including a plurality of device lines parallel to each other included in a distance measurement area that is a part of an image pickup device, and a distance measurement unit disposed on an extension line in a length direction of the first device line set. The distance to the subject can be calculated based on the difference in the distribution of the intensity of the electrical signals of the second set of element lines composed of several element lines parallel to each other included in the area.

본 발명에 있어서, 거리 산출부는 제1 소자 라인 세트를 이루는 소자 라인들중 하나인 제1 소자 라인의 강도 분포와, 제2 소자 라인 세트를 이루는 소자 라인들 중 제1 소자 라인과 동일 직선 상에 배치된 제2 소자 라인의 강도 분포를 비교하여 거리를 산출할 수 있다. 이와 같은 구성에 의해, 제1 소자 라인과 제2 소자 라인이 동일 직선상에 배치되며, 제1 소자 라인의 강도 분포와 제2 소자 라인의 강도 분포가 비교되어 피사체까지의 거리가 산출될 수 있다.In the present invention, the distance calculator is on the same straight line as the intensity distribution of the first element line, which is one of the element lines constituting the first element line set, and the first element line among the element lines constituting the second element line set. The distance may be calculated by comparing the intensity distributions of the arranged second device lines. With this configuration, the first element line and the second element line are arranged on the same straight line, and the intensity distribution of the first element line and the intensity distribution of the second element line are compared to calculate the distance to the subject. .

본 발명에 있어서, 거리 산출부는, 소자 라인의 길이 방향과 다른 방향, 즉 소자 라인의 연장 방향을 가로지르는 방향을 따라 배치되는 광전 변환 소자들의 전기 신호의 강도를 가산한 가산치에 기초하여 제1 소자 라인 세트의 강도 분포와 제2 소자 라인 세트의 강도 분포를 비교하여 거리를 산출할 수 있다. 이와 같은 구 성에 의해, 소자 라인의 길이 방향과 다른 방향으로 배치된 복수의 광전 변환 소자에서 출력된 각각의 전기 신호의 강도를 가산하여 전기 신호의 강도의 가산치를 얻을 수 있고, 이 가산치에 기초하여 제1 소자 라인 세트의 강도 분포와 제2 소자 라인 세트의 강도 분포가 비교되어 피사체까지의 거리가 산출될 수 있다.In the present invention, the distance calculator is based on a first value based on an addition value of the electric signals of the photoelectric conversion elements arranged along a direction different from the length direction of the device line, that is, the direction transverse to the direction in which the device line extends. The distance may be calculated by comparing the intensity distribution of the element line set and the intensity distribution of the second element line set. With such a configuration, the intensity of each electric signal output from a plurality of photoelectric conversion elements arranged in a direction different from the longitudinal direction of the element line can be added to obtain an added value of the intensity of the electric signal, based on this addition value. The distance to the subject may be calculated by comparing the intensity distribution of the first element line set and the intensity distribution of the second element line set.

본 발명에 있어서, 거리 산출부가 가산치를 얻기 위해 전기 신호의 강도를 가산하는 소자 라인의 길이 방향과 다른 방향, 즉 소자 라인의 연장 방향을 가로지르는 방향을 따라 배치되는 광전 변환 소자들의 수는, 피사체의 영상광의 휘도 레벨에 따라 가변적일 수 있다. 이와 같은 구성에 의해, 피사체의 영상광의 휘도 레벨에 따라 거리 산출부가 가산하는 소자 라인의 길이 방향과 다른 방향으로 배치된 광전 변환 소자의 수를 다르게 할 수 있다. 따라서 피사체의 영상광의 휘도 레벨에 따라 감도를 향상시킬 수 있다.In the present invention, the number of photoelectric conversion elements arranged along the direction transverse to the direction in which the distance calculating unit adds the intensity of the electrical signal to the device line in a direction different from the length direction of the device line, i. It may vary depending on the luminance level of the video light. With such a configuration, the number of photoelectric conversion elements arranged in a direction different from the length direction of the element line added by the distance calculating unit can be varied according to the luminance level of the image light of the subject. Therefore, the sensitivity can be improved according to the luminance level of the image light of the subject.

본 발명에 있어서, 거리 산출부가 가산치를 얻기 위해 전기 신호의 강도를 가산하는 소자 라인의 길이 방향과 다른 방향으로 배치된, 즉 소자 라인의 연장 방향을 가로지르는 방향을 따라 배치되는 광전 변환 소자들은, 제1 소자 라인 세트와 제2 소자 라인 세트의 광전 변환 소자들과 서로 중복되지 않도록 선택될 수 있다. 이와 같은 구성에 의해, 소자 라인의 길이 방향과 다른 방향으로 배치된 광전 변환 소자의 전기 신호의 강도가 가산될 때, 광전 변환 소자가 서로 중복하지 않도록 추출된다. 따라서 고정밀도의 가산된 신호 강도를 얻을 수 있다.In the present invention, the photoelectric conversion elements arranged in a direction different from the longitudinal direction of the element line for adding the intensity of the electrical signal, i.e., arranged along the direction of extension of the element line, to obtain the addition value, The photoelectric conversion elements of the first device line set and the second device line set may be selected to not overlap each other. With such a configuration, when the strengths of the electrical signals of the photoelectric conversion elements arranged in the direction different from the longitudinal direction of the element lines are added, the photoelectric conversion elements are extracted so as not to overlap each other. Thus, a high precision added signal strength can be obtained.

본 발명에 있어서, 거리 산출부가 가산치를 얻기 위해 전기 신호를 가산하는 소자 라인의 연장 방향을 가로지르는 방향을 따라 배치되는 광전 변환 소자들 은, 직선 상에 배치될 수 있다. 이와 같은 구성에 의해, 소자 라인의 길이 방향과 다른 방향으로 배치된 광전 변환 소자의 전기 신호의 강도가 가산될 때, 소자 라인의 길이 방향과 다른 방향의 하나의 가상 직선상에 배치된 광전 변환 소자가 추출될 수 있다.In the present invention, the photoelectric conversion elements arranged along the direction crossing the extension direction of the element line for adding the electric signal to the distance calculator to obtain the addition value may be arranged on a straight line. By such a configuration, when the intensity of the electrical signal of the photoelectric conversion element arranged in a direction different from the longitudinal direction of the element line is added, the photoelectric conversion element arranged on one virtual straight line in a direction different from the longitudinal direction of the element line Can be extracted.

본 발명에 있어서, 복수의 광전 변환 소자들은 매트릭스형이나 벌집 모양으로 배치될 수 있다. 이와 같은 구성에 의해, 매트릭스형 또는 벌집 모양으로 배치된 복수의 광전 변환 소자로 이루어진 촬상 소자를 적용할 수 있다.In the present invention, the plurality of photoelectric conversion elements may be arranged in a matrix or honeycomb shape. With such a configuration, an imaging device composed of a plurality of photoelectric conversion elements arranged in a matrix or honeycomb shape can be applied.

본 발명에 있어서, 제1 소자 라인 세트 및 제2 소자 라인 세트는 광학 변환 소자들 중에서 사용자에 의해 선택될 수 있다. 이와 같은 구성에 의해, 제1 소자 라인 세트 및 제2 소자 라인 세트가 사용자에 의한 선택에 의해 모든 광학 변환 소자 중에서 선택된다.In the present invention, the first element line set and the second element line set may be selected by a user among the optical conversion elements. With this configuration, the first element line set and the second element line set are selected from all the optical conversion elements by selection by the user.

본 발명에 관한 촬상 방법은, 피사체로부터 입사된 영상광을 전기 신호로 변환하는 복수의 광전 변환 소자들이 일 방향을 따라 배치된 소자 라인에서 전기 신호를 광전 변환 소자마다 순차적으로 독출하는 단계와, 서로 평행한 복수의 소자 라인으로 이루어진 제1 소자 라인 세트의 전기 신호와, 제1 소자 라인 세트의 소자 라인들의 연장 방향을 따라 연장되며 서로 평행한 복수의 소자 라인들로 이루어진 제2 소자 라인 세트의 전기 신호의 강도 분포의 차이에 기초하여 피사체까지의 거리를 산출하는 단계를 포함한다. 소자 라인은 하나의 가상 선분 위에 배치된 복수의 상기 광전 변환 소자들을 포함할 수 있다. 2차원 방향으로 배치되는 광전 변환 소자들은 촬상 소자를 구성할 수 있으며, 제1 소자 라인 세트와 제2 소자 라인 세 트는 촬상 소자 중 일부의 영역인 거리 측정 영역 안에 포함될 수 있다.The imaging method according to the present invention includes the steps of sequentially reading an electrical signal for each photoelectric conversion element from a device line in which a plurality of photoelectric conversion elements for converting image light incident from a subject into an electrical signal are arranged along one direction; The electrical signal of the first element line set composed of a plurality of element lines parallel to each other, and the second element line set composed of a plurality of element lines parallel to each other and extending along an extension direction of the element lines of the first element line set. Calculating a distance to the subject based on the difference in the intensity distribution of the electrical signal. The device line may include a plurality of the photoelectric conversion devices disposed on one virtual line segment. The photoelectric conversion elements arranged in the two-dimensional direction may constitute an imaging device, and the first device line set and the second device line set may be included in a distance measuring area that is a part of the imaging device.

상술한 구성에 의해, 촬상 소자는 피사체로부터 수광면에 입사된 피사체의 영상광을 전기 신호로 변환하는 2차원 방향으로 배치된 복수의 광전 변환 소자를 가지고, 촬상 소자 중 일부의 한 가상 선분 위에 배치된 복수의 광전 변환 소자로 이루어진 소자 라인에서 전기 신호가 광전 변환 소자마다 순차적으로 독출되고, 촬상 소자 중 일부의 영역인 거리 측정 영역 안에 포함되는 서로 평행한 여러 개의 소자 라인으로 이루어진 제1 소자 라인 세트와, 해당 제1 소자 라인 세트의 길이 방향의 연장선상에 배치된, 동일거리 측정 영역 안에 포함되는 서로 평행한 여러 개의 소자 라인으로 이루어진 제2 소자 라인 세트와의 전기 신호의 강도 분포차에 기초하여 피사체와의 거리가 산출된다.With the above-described configuration, the imaging element has a plurality of photoelectric conversion elements arranged in a two-dimensional direction for converting the image light of the subject incident on the light-receiving surface from the subject into an electrical signal, and is disposed on one virtual line segment of some of the imaging elements. A first device line set comprising a plurality of device lines parallel to each other included in a distance measuring area which is an area of a part of the imaging device, in which an electrical signal is sequentially read out for each photoelectric conversion device in a device line composed of a plurality of photoelectric conversion devices And on the basis of the intensity distribution difference of the electrical signal with the second element line set composed of several element lines parallel to each other included in the same distance measuring region, which are disposed on the extension line in the longitudinal direction of the first element line set. The distance to the subject is calculated.

상술한 바와 같은 본 발명의 촬상 장치 및 촬상 방법은, 2차원 방향으로 배치된 광전 변환 소자들을 이용해 거리를 측정하므로 하나의 거리 측정 영역 안에 거리가 다른 여러 개의 피사체가 혼재되었을 때에도 거리 산출시에 오차가 생기지 않아 고정밀도로 피사체까지의 거리를 산출할 수 있다.As described above, the image pickup device and the image pickup method of the present invention measure the distance using photoelectric conversion elements arranged in the two-dimensional direction, and thus an error in calculating the distance even when several objects having different distances are mixed in one distance measurement area. The distance to the subject can be calculated with high accuracy.

이하, 첨부 도면의 실시예들을 통하여, 본 발명에 관한 촬상 장치 및 촬상 방법의 구성과 작용을 상세히 설명한다. 본 명세서 및 도면에서 실질적으로 동일한 기능 구성을 가진 구성 요소에 관해서는 동일 부호를 붙임으로써 중복 설명을 생략한다.EMBODIMENT OF THE INVENTION Hereinafter, the structure and operation | movement of the imaging device and imaging method which concern on this invention are demonstrated in detail through embodiments of an accompanying drawing. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals to omit duplicate explanation.

(제1 실시예)(First embodiment)

도 1은 본 발명의 일 실시예에 관한 촬상 장치(100)를 나타내는 블록도이다. 촬상 장치(100)는, 예를 들면 디지털 일안 리플렉스 카메라이지만, 본 발명의 촬상 장치는 이에 한정되지 않으며 콤팩트 디지털 카메라일 수도 있다.1 is a block diagram showing an image capturing apparatus 100 according to an embodiment of the present invention. Although the imaging device 100 is a digital single-lens reflex camera, for example, the imaging device of this invention is not limited to this, It may be a compact digital camera.

도 1에 나타난 실시예에 관한 촬상 장치(100)는, 예를 들면 결상 광학계(101)와, 퀵 리턴 미러(105)와, 셔터(106)와, CMOS센서(107)와, 화상 입력 콘트롤러(110)와, AF센서(111)와, DSP/CPU(120)와, CPU(130)와, 조작 부재(135)와, 드라이버(141, 143, 145)와, 모터(142, 144, 146)와, 화상 신호 처리 회로(152)와, 압축 처리 회로(154)와, LCD 드라이버(156)와, LCD(158)와, VRAM(162)와, SDRAM(164)과, 미디어 콘트롤러(166)와, 기록 미디어(168) 등을 구비한다.The imaging apparatus 100 according to the embodiment shown in FIG. 1 includes, for example, an imaging optical system 101, a quick return mirror 105, a shutter 106, a CMOS sensor 107, and an image input controller ( 110, AF sensor 111, DSP / CPU 120, CPU 130, operation member 135, drivers 141, 143, 145, motors 142, 144, 146 Image signal processing circuit 152, compression processing circuit 154, LCD driver 156, LCD 158, VRAM 162, SDRAM 164, media controller 166, And a recording medium 168.

결상 광학계(101)는, 예를 들면 줌렌즈(102), 조리개(103), 포커스 렌즈(104) 등을 구비한다. 결상 광학계(101)는 외부의 광정보를 CMOS센서(107)에 결상시키는 광학계 시스템으로서, 피사체로부터 입사된 영상광(피사체의 상)을 CMOS센서(107)까지 투과시킨다. 줌렌즈(102)는 초점거리를 변화시켜 화각을 바꾸는 렌즈이다. 줌렌즈는, 사용자에 의해 화각이 조절되어도 좋고, 미도시된 모터 및 드라이버에 의해 제어되어도 좋다. 조리개(103)는 투과하는 광량을 조절하는 기구로서, 모터(142)에 의해 구동된다. 포커스 렌즈(104)는 광축 방향으로 이동함으로써 CMOS센서(107)의 촬상면에 피사체의 영상광을 합초시킨다. 포커스 렌즈(104)는 모터(144)에 의해 구동된다. 모터(142, 144)는 각각 드라이버(141, 143)로부터 구동 신호를 받아 구동한다.The imaging optical system 101 includes, for example, a zoom lens 102, an aperture 103, a focus lens 104, and the like. The imaging optical system 101 is an optical system that forms external optical information onto the CMOS sensor 107, and transmits image light (image of a subject) incident from a subject to the CMOS sensor 107. The zoom lens 102 is a lens for changing the angle of view by changing the focal length. The zoom angle may be adjusted by the user, or may be controlled by a motor and a driver not shown. The diaphragm 103 is a mechanism for adjusting the amount of light passing through and is driven by the motor 142. The focus lens 104 focuses the image light of the subject on the imaging surface of the CMOS sensor 107 by moving in the optical axis direction. The focus lens 104 is driven by the motor 144. The motors 142 and 144 receive driving signals from the drivers 141 and 143, respectively.

퀵 리턴 미러(105)는 입사광을 반사함과 동시에 입사광의 일부를 투과시키는 하프 미러 부재와, 하프 미러 부재의 배면(CMOS센서(107)) 측에 마련된 서브 거울 등을 구비한다. 본 촬영 전에 퀵 리턴 미러(105)는 이른바 미러 다운(하측으로 이동된 상태) 위치에 있으며, 결상 광학계(101)와 CMOS센서(107)를 잇는 광경로 위에 배치되어 광경로를 차단한다. 또한 퀵 리턴 미러(105)의 하프 미러 부재는, 본 촬영 전에 결상 광학계(101)로부터 입사된 영상광을 뷰 파인더 측으로 반사한다. 또한 퀵 리턴 미러(105)의 서브 거울은 본 촬영 전에 하프 미러 부재를 투과한 광을 AF센서(111) 측으로 반사한다.The quick return mirror 105 includes a half mirror member that reflects incident light and transmits part of the incident light, and a submirror provided on the rear surface (CMOS sensor 107) side of the half mirror member. Before the photographing, the quick return mirror 105 is in a so-called mirror down (moved downward) position and is disposed on an optical path connecting the imaging optical system 101 and the CMOS sensor 107 to block the optical path. In addition, the half mirror member of the quick return mirror 105 reflects the image light incident from the imaging optical system 101 before the main photographing to the view finder side. In addition, the sub-mirror of the quick return mirror 105 reflects the light transmitted through the half mirror member to the AF sensor 111 side before the main photographing.

퀵 리턴 미러(105)는 본 촬영시, 이른바 미러 업(상측으로 이동한 상태) 위치로 이동하여 결상 광학계(101)와 CMOS센서(107)를 잇는 광경로를 개방하여 피사체로부터 입사된 영상광을 CMOS센서(107)에 도달시킨다.The quick return mirror 105 moves to a so-called mirror up (moved upward) position at the time of the main shooting, and opens an optical path connecting the imaging optical system 101 and the CMOS sensor 107 to capture the image light incident from the subject. The CMOS sensor 107 is reached.

셔터(106)는 메커니컬 셔터로서, 본 촬영시에는 CMOS센서(107)에 영상광이 입사하도록 결상 광학계(101)와 CMOS센서(107)를 잇는 광경로를 개방하고 비촬영시에는 영상광을 차단한다. 셔터(106)는 CMOS센서(107)의 노광 시간을 제어한다. 퀵 리턴 미러(105) 및 셔터(106)는 모터(146)에 의해 구동되어 연동한다. 모터(146)는 드라이버(145)에서 구동 신호를 받아 구동된다.The shutter 106 is a mechanical shutter, which opens an optical path connecting the imaging optical system 101 and the CMOS sensor 107 so that the image light is incident on the CMOS sensor 107 at the time of photographing, and blocks the image light when not photographing. do. The shutter 106 controls the exposure time of the CMOS sensor 107. The quick return mirror 105 and the shutter 106 are driven by the motor 146 and interlock with each other. The motor 146 is driven by receiving a drive signal from the driver 145.

씨모스(CMOS; complementary metal oxide semiconductor) 센서(107)는 촬상 소자의 일례로서, 결상 광학계(101)를 투과하여 입사된 영상광(광 정보)를 전기 신호로 광전 변환하는 복수의 광전 변환 소자들을 구비한다. 각 광전 변환 소자는 광량에 따른 전기 신호를 생성한다. 촬상 소자는 CMOS센서로 한정되지 않으며 씨씨 디(CCD; charge coupled device)센서 등을 적용할 수 있다. 이 때, 셔터(106)에는 메커니컬 셔터가 아닌 전자 셔터(미도시)를 적용해도 좋다. 또한 셔터(106) 또는 전자 셔터의 동작은 DSP/CPU(120)에 접속된 셔터 버튼(조작 부재(135))의 스위치 동작에 의해 수행될 수 있다.The CMOS sensor 107 is an example of an image pickup device, and includes a plurality of photoelectric conversion devices that photoelectrically convert image light (light information) incident through the imaging optical system 101 into an electrical signal. Equipped. Each photoelectric conversion element generates an electrical signal in accordance with the amount of light. The imaging device is not limited to a CMOS sensor, and a charge coupled device (CCD) sensor may be used. At this time, an electronic shutter (not shown) may be applied to the shutter 106 instead of the mechanical shutter. In addition, the operation of the shutter 106 or the electronic shutter can be performed by a switch operation of the shutter button (operation member 135) connected to the DSP / CPU 120.

CMOS센서(107)는 또한 CDS/AMP부(108), A/D변환부(109)를 구비한다. CDS/AMP부(상관 이중 샘플링 회로(correlated double sampling), 증폭기(amplifier); 108)는 CMOS센서(107)에서 출력된 전기 신호에 포함되는 저주파 노이즈를 제거함과 동시에 전기 신호를 임의의 레벨까지 증폭시킨다. A/D변환부(109)는, CDS/AMP부(108)에서 출력된 전기 신호를 디지털 변환하여 디지털 신호를 생성한다. A/D변환부(109)는 생성한 디지털 신호를 화상 입력 콘트롤러(110)로 출력한다.The CMOS sensor 107 also includes a CDS / AMP unit 108 and an A / D conversion unit 109. The CDS / AMP unit (correlated double sampling circuit, amplifier) 108 amplifies the electrical signal to an arbitrary level while removing low frequency noise included in the electrical signal output from the CMOS sensor 107. Let's do it. The A / D converter 109 digitally converts the electrical signal output from the CDS / AMP unit 108 to generate a digital signal. The A / D converter 109 outputs the generated digital signal to the image input controller 110.

화상 입력 콘트롤러(110)는 A/D변환부(109)에서 출력된 디지털 신호에 대해 처리를 하여 화상 처리가 가능한 화상 신호를 생성한다. 화상 입력 콘트롤러(110)는 생성한 화상 신호를, 예를 들면 화상 신호 처리 회로(152)에 출력한다. 또한 화상 입력 콘트롤러(110)는 SDRAM(164)으로의 화상 데이터의 읽고 쓰기를 제어한다.The image input controller 110 processes the digital signal output from the A / D converter 109 to generate an image signal capable of image processing. The image input controller 110 outputs the generated image signal to the image signal processing circuit 152, for example. The image input controller 110 also controls reading and writing of image data to the SDRAM 164.

AF센서(111)는, 2차원 방향으로 배치되는 복수의 광전 변환 소자들을 구비하는 CMOS센서이다. AF센서(111)는 본 촬영 전에 퀵 리턴 미러(105)의 서브 거울에서 광을 받아 광량에 따른 전기 신호를 생성한다. AF센서(111)는 생성한 전기 신호를 CPU(130)로 출력한다. AF센서(111)는 CDS/AMP부(112), A/D변환 센서(113)를 구 비할 수 있다.The AF sensor 111 is a CMOS sensor including a plurality of photoelectric conversion elements arranged in a two-dimensional direction. The AF sensor 111 receives the light from the sub-mirror of the quick return mirror 105 and generates an electric signal according to the amount of light before the photographing. The AF sensor 111 outputs the generated electric signal to the CPU 130. The AF sensor 111 may include a CDS / AMP unit 112 and an A / D conversion sensor 113.

독출부는 AF센서(111)의 광전 변환 소자 중 하나의 가상 선분 위에 배치된((일 방향을 따라 배치된) 복수의 광전 변환 소자로 이루어진 소자 라인에서 전기 신호를 광전 변환 소자마다 순차적으로 독출하는 기능을 수행한다. 독출부의 일예는 AF센서(111)의 CDS/AMP부(112), A/D변환 센서(113)일 수 있다. 그러나 본 발명의 독출부는 이에 한정되지 않으며, 독출부는 AF센서(111)의 출력 신호를 처리하는 화상 입력 콘트롤러(131)일 수도 있다.The reading unit sequentially reads an electrical signal for each photoelectric conversion element from an element line including a plurality of photoelectric conversion elements (arranged in one direction) disposed on a virtual line segment of one of the photoelectric conversion elements of the AF sensor 111. An example of the reading unit may be a CDS / AMP unit 112 and an A / D conversion sensor 113 of the AF sensor 111. However, the reading unit of the present invention is not limited thereto, and the reading unit is an AF sensor. It may also be an image input controller 131 which processes the output signal of 111.

AE센서(114)는, 예를 들면 광전 변환 소자이다. AE센서(114)는 본 촬영 전에 피사체에서 광을 받아 광량에 따른 전기 신호를 생성한다. AE센서(114)는, 생성한 전기 신호를 CPU(130)로 출력한다.The AE sensor 114 is a photoelectric conversion element, for example. The AE sensor 114 receives the light from the subject and generates an electric signal according to the amount of light before the photographing. The AE sensor 114 outputs the generated electric signal to the CPU 130.

DSP/CPU(120), CPU(130)는 프로그램에 의해 연산 처리 장치 및 제어 장치로서 기능하고, 촬상 장치(100) 안에 설치된 각 구성 요소의 처리를 제어한다. CPU(130)은 본 촬영 전 및 본 촬영시에 주로 동작하고, DSP/CPU(120)는 촬영 후에 주로 동작한다.The DSP / CPU 120 and the CPU 130 function as a calculation processing device and a control device by a program, and control the processing of each component installed in the imaging device 100. The CPU 130 mainly operates before and during main shooting, and the DSP / CPU 120 mainly operates after shooting.

CPU(130)는, 예를 들면 포커스 제어나 노출 제어에 기초하여 드라이버(141, 143, 145)에 신호를 출력하여 결상 광학계(101), 퀵 리턴 미러(105), 셔터(106)를 구동시킨다. 또한 CPU(130)는 조작 부재(135)로부터의 신호에 기초하여 촬상 장치(100)의 각 구성 요소를 제어한다. DSP/CPU(120)는 촬영에 의해 취득된 화상 신호에 대한 화상 처리 등을 제어한다.The CPU 130 outputs a signal to the drivers 141, 143, and 145 based on focus control and exposure control, for example, to drive the imaging optical system 101, the quick return mirror 105, and the shutter 106. . The CPU 130 also controls each component of the imaging device 100 based on the signal from the operation member 135. The DSP / CPU 120 controls image processing and the like with respect to the image signal acquired by shooting.

또한 본 실시예에서는 DSP/CPU(120), CPU(130)가 각각 하나씩 구비된 것으 로 도시되었으나, 신호계의 명령과 조작계의 명령을 각각의 CPU에서 수행하게 하는 등, 여러 개의 CPU로 구성되어도 좋다.In addition, in the present embodiment, the DSP / CPU 120 and the CPU 130 are shown as being provided one by one, but may be composed of a plurality of CPUs, such as causing each CPU to execute a signal system command and an operation system command. .

DSP/CPU(120)는, 도 1에 도시한 바와 같이, 예를 들면 타이밍 제너레이터(121)와, 적정 AWB 산출부(122)와, 화상 처리 선택부(123), SIO(124) 등을 구비한다. CPU(130)는 예를 들면, 화상 입력 콘트롤러(131)와, AF연산 제어부(132)와, AE연산 제어부(133)와, GUI관리부(134)와, SIO(136) 등을 구비한다.As shown in FIG. 1, the DSP / CPU 120 includes, for example, a timing generator 121, an appropriate AWB calculation unit 122, an image processing selection unit 123, an SIO 124, and the like. do. The CPU 130 includes, for example, an image input controller 131, an AF operation control unit 132, an AE operation control unit 133, a GUI management unit 134, an SIO 136, and the like.

타이밍 제너레이터(121)는 CMOS센서(107)나 CDS/AMP부(108)에 타이밍 신호를 출력하여, CMOS센서(107)에 구비된 각 광전 변환 소자의 전하 독출을 제어한다.The timing generator 121 outputs a timing signal to the CMOS sensor 107 or the CDS / AMP unit 108 to control charge reading of each photoelectric conversion element included in the CMOS sensor 107.

적정 AWB 산출부(122)는, CMOS센서(107)에서 수광한 피사체의 영상광에 따른 화상 신호의 색정보에 기초하여 WB제어값을 산출한다. 적정 AWB 산출부(122)는, 예를 들면, 피사체에 따른 적정한 화이트 밸런스(WB)를 얻기 위한 WB제어값을 산출한다. 적정 AWB 산출부(122)는 산출한 WB제어값을 화상 신호 처리 회로(152)에 보낸다.The appropriate AWB calculator 122 calculates the WB control value based on the color information of the image signal corresponding to the video light of the subject received by the CMOS sensor 107. The appropriate AWB calculator 122 calculates, for example, a WB control value for obtaining an appropriate white balance (WB) according to the subject. The appropriate AWB calculating unit 122 sends the calculated WB control value to the image signal processing circuit 152.

화상 처리 선택부(123)는 화상 신호에 대한 감마 보정, 윤곽 강조 처리 등의 화상 처리 여부를 선택하거나, 각 화상 처리에 필요한 파라미터를 설정한다. 화상 처리 선택부(123)는 선택 결과나 설정한 파라미터를 화상 신호 처리 회로(152)에 보낸다.The image processing selector 123 selects whether or not to process an image such as gamma correction, outline enhancement processing, or the like on the image signal, or sets parameters required for each image processing. The image processing selection unit 123 sends the selection result or the set parameter to the image signal processing circuit 152.

화상 입력 콘트롤러(131)는 A/D변환 센서(113)에서 출력된 디지털 신호에 대해 처리를 하여 포커스 제어가 가능한 신호를 생성한다. 화상 입력 콘트롤러(131)는 생성한 신호를, 예를 들면 AF연산 제어부(132)로 출력한다.The image input controller 131 processes the digital signal output from the A / D conversion sensor 113 to generate a signal capable of focus control. The image input controller 131 outputs the generated signal to the AF operation control unit 132, for example.

AF연산 제어부(132)는 포커스 제어 개시 조작 신호를 받으면 포커스 렌즈(104)를 한 방향으로 이동시키는 제어 신호를 생성하고, 생성한 제어 신호를 드라이버(143)에 출력한다.The AF operation control unit 132 generates a control signal for moving the focus lens 104 in one direction when receiving the focus control start operation signal, and outputs the generated control signal to the driver 143.

AF연산 제어부(132)는 AF(auto focus; 자동 초점)평가치를 산출하고, AF 평가치에 기초하여 포커스 렌즈(104)의 합초 위치를 더 산출한다. 또한 AF 평가치는 AF센서(111)에서 출력된 신호의 휘도치에 기초하여 산출한다.The AF operation control unit 132 calculates an AF (auto focus) evaluation value and further calculates a focusing position of the focus lens 104 based on the AF evaluation value. The AF evaluation value is calculated based on the luminance value of the signal output from the AF sensor 111.

AF연산 제어부(132)는 거리 산출부의 일례로서, 서로 평행한 여러 개의 소자 라인들로 이루어진 제1 소자 라인 세트의 전기 신호와, 해당 제1 소자 라인 세트의 길이 방향의 연장선상에 배치되며 서로 평행한 여러 개의 소자 라인들로 이루어진 제2 소자 라인 세트와의 전기 신호의 강도 분포의 차이에 기초하여 피사체와 촬상 장치(100)간의 거리를 산출한다. 즉 AF연산 제어부(132)는 본 발명의 촬상 장치에 구비되는 거리 산출부의 일 예이다.The AF operation control unit 132 is an example of a distance calculation unit and is arranged on an electrical signal of a first element line set including a plurality of element lines parallel to each other, and disposed on an extension line in the longitudinal direction of the first element line set and parallel to each other. The distance between the subject and the imaging device 100 is calculated based on the difference in the intensity distribution of the electrical signal with the second set of element lines consisting of several element lines. That is, the AF operation control unit 132 is an example of the distance calculation unit included in the imaging device of the present invention.

AF연산 제어부(132)는, 산출 결과 얻은 합초 위치를 제어 신호로 생성하여 드라이버(143)에 출력한다. 드라이버(143)는 AF연산 제어부(132)에서 입력된 제어 신호에 기초하여 구동 신호를 생성한다. 드라이버(143)는 생성한 구동 신호를 모터(144)에 보낸다.The AF operation control unit 132 generates the in-focus position obtained as a result of the calculation as a control signal and outputs it to the driver 143. The driver 143 generates a drive signal based on the control signal input from the AF operation controller 132. The driver 143 sends the generated drive signal to the motor 144.

AE연산 제어부(133)는 AE(auto exposure; 자동 노광) 평가치를 산출하고, 산출한 AE 평가치에 기초하여 조리개(103)의 조리개량이나 셔터(106)의 셔터 속도를 산출한다. 또한 AE 평가치는 AE센서(114)의 휘도치에 기초하여 산출한다. AE연산 제어부(133)는 산출한 조리개량이나 셔터 속도를 각각 제어 신호로 생성하여 드 라이버(141, 145)에 출력한다. 드라이버(141, 145)는 AE연산 제어부(133)로부터 입력된 제어 신호에 기초하여 구동 신호를 생성한다. 드라이버(141, 145)는 생성한 구동 신호를 모터(142, 146)에 보낸다.The AE calculation control unit 133 calculates the AE (auto exposure) evaluation value and calculates the aperture amount of the aperture 103 and the shutter speed of the shutter 106 based on the calculated AE evaluation value. Also, the AE evaluation value is calculated based on the luminance value of the AE sensor 114. The AE calculation control unit 133 generates the calculated aperture value or shutter speed as a control signal and outputs them to the drivers 141 and 145, respectively. The drivers 141 and 145 generate a driving signal based on the control signal input from the AE calculation controller 133. The drivers 141 and 145 send the generated driving signals to the motors 142 and 146.

또한 본 실시예에서는, AE연산 제어부(133)가 AE 평가치에 기초하여 AF센서(111)를 제어한다. 예를 들면, 피사체가 저휘도일 때에는 소자 라인의 길이 방향과 다른 방향(소자 라인이 연장되는 방향을 가로지르는 방향, 즉 수직한 방향)으로 배치된 광전 변환 소자들의 출력값을 가산할 수 있도록 통상 휘도에 비해 많은 수의 소자 라인에서 전기 신호가 출력되도록 한다.In addition, in this embodiment, the AE calculation control unit 133 controls the AF sensor 111 based on the AE evaluation value. For example, when the subject is low luminance, the luminance is usually so that the output value of the photoelectric conversion elements arranged in a direction different from the length direction of the element line (the direction transverse to the direction in which the element line extends, that is, the vertical direction) can be added. Compared to this, electrical signals are output from a large number of device lines.

GUI관리부(134)는, LCD(158)에 표시되는 화상의 섬네일 화면이나 촬상 장치(100)의 조작을 위한 메뉴 화면 등의 GUI(graphic user interface)를 관리한다. GUI관리부(134)는, 예를 들면 조작 부재(135)로부터의 조작 신호를 받아 조작 신호에 기초한 제어 신호를 LCD 드라이버(156)에 보낸다.The GUI management unit 134 manages a graphical user interface (GUI) such as a thumbnail screen of an image displayed on the LCD 158 and a menu screen for operating the imaging device 100. The GUI management unit 134 receives an operation signal from the operation member 135, for example, and sends a control signal based on the operation signal to the LCD driver 156.

SIO(124, 136)는 서로에 대해 신호를 입출력하는 입출력 인터페이스이다.The SIOs 124 and 136 are input / output interfaces for inputting and outputting signals to and from each other.

조작 부재(135)는, 예를 들면 촬상 장치(100)에 마련된 상하 좌우 키, 전원 스위치, 모드 다이얼, 셔터 버튼 등이다. 조작 부재(135)는, 사용자에 의한 조작에 기초하여 조작 신호를 CPU(130) 등에 보낸다. 예를 들면, 셔터 버튼은 사용자에 의한 반누름, 완전 누름, 해제가 가능하다. 셔터 버튼은, 반 눌렸을 때 포커스 제어 개시 조작 신호를 출력하고, 반누름 해제로 포커스 제어가 종료된다.또한 초점 버튼은 완전히 눌렸을 때 촬영 개시 조작 신호를 출력한다.The operation member 135 is, for example, an up, down, left, right key, power switch, mode dial, shutter button, or the like provided in the imaging device 100. The operation member 135 sends an operation signal to the CPU 130 or the like based on the operation by the user. For example, the shutter button can be pressed halfway, fully pressed, or released by the user. The shutter button outputs the focus control start operation signal when it is pressed halfway, and the focus control is terminated by releasing the half press. The focus button outputs the shooting start operation signal when the focus button is pressed completely.

화상 신호 처리 회로(152)는, 화상 입력 콘트롤러(110)에서 화상 신호를 받아 WB제어값, γ값, 윤곽 강조 제어값 등에 기초하여 화상 처리된 화상 신호를 생성한다. 압축 처리 회로(154)는 압축 처리 전의 화상 신호를 받아, 예를 들면 JPEG압축 형식 또는 LZW압축 형식 등의 압축 형식으로 화상 신호를 압축 처리한다. 압축 처리 회로(154)는 압축 처리에 의해 생성한 화상 데이터를, 예를 들면 미디어 콘트롤러(166)로 보낸다.The image signal processing circuit 152 receives the image signal from the image input controller 110 and generates an image processed image signal based on the WB control value, gamma value, outline enhancement control value, and the like. The compression processing circuit 154 receives an image signal before compression processing and compresses the image signal in a compression format such as, for example, a JPEG compression format or an LZW compression format. The compression processing circuit 154 sends the image data generated by the compression processing to the media controller 166, for example.

LCD 드라이버(156)는, 예를 들면 VRAM(162)에서 화상 데이터를 받아 LCD(liquid crystal display, 액정 화면; 158)에 화상을 표시한다. LCD(158)는 촬상 장치(100)의 본체에 마련된다. LCD(158)가 표시하는 화상은, 예를 들면 VRAM(162)에서 독출된 촬영 전의 화상(라이브뷰 표시)이나, 촬상 장치(100)의 각종 설정 화면이나 촬상하여 기록된 화상 등일 수 있다. 또한 본 실시예에서는 표시부가 LCD(158)이고, 표시 구동부가 LCD 드라이버(156)인 것으로 설명했였으나, 본 발명은 상기 예에 한정되지 않으며, 예를 들면 유기EL 디스플레이, 그 표시 구동부 등일 수 있다.The LCD driver 156 receives image data from the VRAM 162, for example, and displays an image on a liquid crystal display (LCD) 158. The LCD 158 is provided in the main body of the imaging device 100. The image displayed by the LCD 158 may be, for example, an image before shooting (live view display) read out from the VRAM 162, various setting screens of the imaging device 100, an image captured and recorded, or the like. In addition, in the present embodiment, although the display unit is the LCD 158 and the display driver is the LCD driver 156, the present invention is not limited to the above example, and may be, for example, an organic EL display, its display driver, or the like.

VRAM(video RAM; 162)은 화상 표시용 메모리로서, 여러 개의 채널을 가진다. VRAM(162)은 SDRAM(164)으로부터의 화상 표시용 화상 데이터의 입력과, LCD 드라이버(156)에의 화상 데이터의 출력을 동시에 실행할 수 있다. LCD(158)의 해상도나 최대 발색수는 VRAM(162)의 용량에 의존한다.The VRAM (video RAM) 162 is an image display memory and has several channels. The VRAM 162 can simultaneously perform input of image data for image display from the SDRAM 164 and output of image data to the LCD driver 156. The resolution or maximum number of colors of the LCD 158 depends on the capacity of the VRAM 162.

SDRAM(synchronous DRAM; 164)은 기억부의 일예로서, 촬영한 화상의 화상 데이터를 일시적으로 보존한다. SDRAM(164)은 여러 개 화상의 화상 데이터를 기억할 수 있는 기억용량을 가지고 있다. 또한 SDRAM(164)은 DSP/CPU(120)의 동작 프로 그램을 보존한다. SDRAM(164)으로의 화상의 읽고 쓰기는 화상 입력 콘트롤러(110)에 의해 제어된다.An SDRAM (synchronous DRAM) 164 is an example of a storage unit, and temporarily stores image data of a captured image. The SDRAM 164 has a storage capacity capable of storing image data of several images. The SDRAM 164 also preserves the operation program of the DSP / CPU 120. Reading and writing of the image to the SDRAM 164 are controlled by the image input controller 110.

미디어 콘트롤러(166)는 기록 미디어(168)에의 화상 데이터의 기입, 또는 기록 미디어(168)에 기록된 화상 데이터나 설정 정보 등의 독출을 제어한다. 기록 미디어(168)는, 예를 들면 광디스크(CD, DVD, 블루레이 디스크 등)나, 광자기 디스크나, 자기 디스크나, 반도체 기억 매체 등일 수 있으며, 촬영된 화상 데이터를 기록한다. 미디어 콘트롤러(166)와, 기록 미디어(168)는 촬상 장치(100)에서 착탈 가능하게 설치될 수 있다.The media controller 166 controls the writing of the image data to the recording medium 168 or the reading of the image data and setting information recorded on the recording medium 168. The recording medium 168 may be, for example, an optical disk (CD, DVD, Blu-ray disk, etc.), a magneto-optical disk, a magnetic disk, a semiconductor storage medium, or the like, and records photographed image data. The media controller 166 and the recording medium 168 may be detachably installed in the imaging device 100.

또한 촬상 장치(100)에서의 일련의 처리는 하드웨어에서 처리해도 좋고, 컴퓨터상의 프로그램에 의한 소프트웨어 처리로 실현해도 좋다.In addition, a series of processes in the imaging apparatus 100 may be processed by hardware, and may be implemented by the software process by the program on a computer.

도 2는 포커스 렌즈(104), CMOS센서(107), 콘덴서 렌즈(172), 세퍼레이터 렌즈(174) 및 AF센서(111)의 관계 및 구성을 도시한 모식도이다. 이하에서는 포커스 렌즈(104) 등의 광학계와 AF센서(111)에 대해서 상세히 설명한다. 2 is a schematic diagram showing the relationship and configuration of the focus lens 104, the CMOS sensor 107, the condenser lens 172, the separator lens 174, and the AF sensor 111. Hereinafter, an optical system such as the focus lens 104 and the AF sensor 111 will be described in detail.

도 2의 CMOS센서(107)는 촬상면을 가리킨다. 광축상의 피사체 A점과 포커스 렌즈(104)의 관계는 합초 상태이고, 광축상의 피사체 B점과 포커스 렌즈(104)의 관계는 피사체가 앞 쪽에 초점이 맞추어진 상태이고, 광축상의 피사체 C점과 포커스 렌즈(104)의 관계는 피사체가 뒷 쪽에 초점이 맞추어진 상태이다.The CMOS sensor 107 in FIG. 2 points to the imaging surface. The relationship between the subject A point on the optical axis and the focus lens 104 is in a confocal state, and the relationship between the subject B point on the optical axis and the focus lens 104 is in a state where the subject is focused in front, and the subject C point and the focus on the optical axis are focused. The relationship between the lenses 104 is that the subject is focused on the back side.

광축상의 피사체 A점에서 포커스 렌즈(104)를 통과하는 영상광의 일부(도 2의 회색 부분)는 촬상면으로 합초된 후, AF센서(111)의 콘덴서 렌즈(172)에 세퍼레이터 렌즈(174) 측으로 구부려진다. 구부려진 광은 세퍼레이터 렌즈(174)에 의해 분할되고, 분할된 광속이 AF센서의 수광면(176) 위에 다시 결상된다. A part of the image light passing through the focus lens 104 (the gray portion in FIG. 2) at the object A point on the optical axis is focused onto the imaging surface, and then bent toward the separator lens 174 side to the condenser lens 172 of the AF sensor 111. Lose. The curved light is split by the separator lens 174, and the split light flux is imaged again on the light receiving surface 176 of the AF sensor.

도 3은 분할되는 광속(182)을 포커스 렌즈 위치에서 도시한 모식도이다.3 is a schematic diagram showing the split light beam 182 at the focus lens position.

세퍼레이터 렌즈(174)의 광축은 콘덴서 렌즈(172)에 대해 편심되어 있다. 따라서 초점 상태(합초 또는 앞 쪽에 초점이 맞추어진 상태, 뒷 쪽에 초점이 맞추어진 상태)에 따라 피사체의 상이 AF센서(111)의 수광면 위에서 결상되는 위치가, 세퍼레이터 렌즈(174)의 광축의 편심 방향으로 엇갈린다. 이 엇갈림량은 초점 상태에 대응한 것으로서, 분할된 1쌍의 광속이 AF센서(111)의 수광면 위에서 결상되었을 때의 1쌍의 피사체의 영상광의 간격을 산출함으로써 초점 상태를 검출할 수 있다.The optical axis of the separator lens 174 is eccentric with respect to the condenser lens 172. Therefore, the position where the image of the subject is imaged on the light-receiving surface of the AF sensor 111 according to the focus state (the focus in front of the focus or the front and the focus in the rear) is the eccentricity of the optical axis of the separator lens 174. Staggered in the direction. This staggered amount corresponds to the focus state, and the focus state can be detected by calculating the interval of the video light of the pair of subjects when the divided pair of luminous fluxes are imaged on the light receiving surface of the AF sensor 111.

AF센서(111)에 배치된 복수의 광전 변환 소자들 가운데, 상기 편심 방향과 평행하게 배치된 광전 변환 소자들이 하나의 소자 라인으로서 선택된다. 이로써 AF센서(111)에 결상된 피사체의 영상광의 간격을 산출할 수 있다.Of the plurality of photoelectric conversion elements disposed in the AF sensor 111, photoelectric conversion elements arranged in parallel with the eccentric direction are selected as one element line. As a result, the interval of the image light of the subject formed in the AF sensor 111 can be calculated.

도 4는 본 실시예의 촬상 장치(100)의 뷰 파인더(10)와 거리 측정 영역(12)의 사이의 관계를 도시한 설명도이다. 이하에서는 본 실시예의 위상차 검출 방식에 대해서 설명한다. 4 is an explanatory diagram showing a relationship between the view finder 10 and the distance measuring area 12 of the imaging device 100 of the present embodiment. Hereinafter, the phase difference detection method of the present embodiment will be described.

위상차 검출 방식은, 피사체로부터의 광속을 2개로 분리하고, 광의 분포 출현 거리에 기초하여 촬상 장치(100)와 피사체간의 거리를 산출한다. 본 실시예의 위상차 검출 방식에서는, 광의 검출에 CMOS센서를 적용한 AF센서(111)를 사용한다. 그리고 AF센서(111)의 2차원 방향으로 배치된 광전 변환 소자들 중 가상의 선분 위에 배치된(일 방향을 따라 배치된) 복수의 광전 변환 소자로 이루어진 여러 개의 수평한 소자 라인들(184, 186, 188)을 사용한다. 수평한 소자 라인들(184, 186, 188)은 서로 평행하다. 수평한 소자 라인들(184, 186, 188)에는 각각 복수의 광전 변환 소자가 1차원 방향으로 배치되어 있다. 뷰 파인더(10) 안에 거리 측정 영역(12)이 설정되어 있을 때, 촬상 장치 내부에는 거리 측정 영역(12)에 대응하여 3개의 수평 라인(184, 186, 188)이 배치된다.The phase difference detection method separates the light beams from the subject into two and calculates the distance between the imaging device 100 and the subject based on the distribution appearance distance of the light. In the phase difference detection method of this embodiment, the AF sensor 111 to which the CMOS sensor is applied to the detection of light is used. And a plurality of horizontal element lines 184 and 186 including a plurality of photoelectric conversion elements (along one direction) disposed on a virtual line segment among the photoelectric conversion elements arranged in the two-dimensional direction of the AF sensor 111. , 188). Horizontal device lines 184, 186, 188 are parallel to each other. A plurality of photoelectric conversion elements are disposed in the one-dimensional direction on the horizontal element lines 184, 186, and 188, respectively. When the distance measuring area 12 is set in the view finder 10, three horizontal lines 184, 186, and 188 are disposed in the imaging device corresponding to the distance measuring area 12.

또한 본 실시예에서는 CMOS센서에서 하나의 수평 라인을 추출하는 인용 문헌 1의 기술과 달리 AF센서(111)의 CMOS센서에서 여러 개의 평행한 수평 라인을 센서로 사용한다. 여러 개의 평행한 수평 라인은 동일한 거리 측정 영역에 포함된다. 거리 측정 영역은 CMOS센서(107)의 일부 영역으로서, 본 실시예의 CMOS센서(107)에 적용하는 거리 측정 영역은, 거리 측정 연산을 할 때의 최소 단위(최소 영역)가 된다. 그리고 이 거리 측정 영역은, 예를 들면 LCD(158)에 표시되는 최소 단위의 거리 측정 영역(합초를 확인하기 위한 테두리)와 대등한 관계에 있다. 또한 본 실시예의 하나의 거리 측정 영역이란, 여러 개의 거리 측정 최소 단위로 구성된 하나의 멀티 AF시스템을 가리키는 것이 아니라 거리 측정 연산을 할 때의 하나의 최소 단위를 말한다.In addition, in the present embodiment, unlike the technique of Citation 1, which extracts one horizontal line from the CMOS sensor, several parallel horizontal lines are used as the sensor in the CMOS sensor of the AF sensor 111. Multiple parallel horizontal lines are included in the same distance measuring area. The distance measuring area is a part of the CMOS sensor 107, and the distance measuring area applied to the CMOS sensor 107 of the present embodiment is the minimum unit (minimum area) when performing the distance measuring operation. And this distance measuring area has a relationship with the distance measuring area (edge for confirming a confocal) of the minimum unit displayed on the LCD 158, for example. In addition, one distance measurement area of the present embodiment does not refer to one multi-AF system composed of several distance measurement minimum units, but refers to one minimum unit when performing a distance measurement operation.

본 실시예의 위상차 검출 방식에서는, 피사체로부터의 광속이 예를 들면 좌우 방향으로 2개로 분리되어 각각의 수평 라인(184, 186, 188)에 조사된다. 도 4에 도시한 거리 측정 영역(12)에 두 개의 피사체(5, 7)가 있는 경우, 위쪽 또는 아래쪽에 위치하는 수평 라인(186, 188)의 좌우 부분은 도 5 상단에 도시한 출력값의 분포를 각각 얻을 수 있다. 이는 수평 라인(186, 188)의 위에는 피사체(5)만 결상 되기 때문이다. 한편, 중앙의 수평 라인(184)의 좌우 부분에서는 도 5의 하단에 도시한 출력값과 같은 분포를 얻을 수 있다. 이는 수평 라인(186, 188)의 위에는 피사체(5, 7)가 결상되기 때문이다.In the phase difference detection method of this embodiment, the light beams from the subject are separated into two, for example, in the left and right directions, and irradiated to the horizontal lines 184, 186, and 188. When there are two subjects 5 and 7 in the distance measuring area 12 shown in FIG. 4, the left and right portions of the horizontal lines 186 and 188 located above or below the distribution of the output values shown in the upper part of FIG. 5. Can be obtained respectively. This is because only the subject 5 is imaged on the horizontal lines 186 and 188. On the other hand, in the left and right portions of the center horizontal line 184, the same distribution as the output value shown in the lower part of FIG. This is because the subjects 5 and 7 are imaged on the horizontal lines 186 and 188.

도 5는 본 실시예의 촬상 장치(100)의 수평 라인(184, 186, 188)의 출력값의 분포를 도시한 그래프이다. 좌우의 출력의 피크값의 파형간 거리는 촬상 장치와 피사체간의 거리에 따라 변화된다. 예를 들면, 촬영 거리가 길어지면 파형간 거리는 짧아지고, 촬영 거리가 짧아지면 파형간 거리는 길어진다.5 is a graph showing the distribution of output values of the horizontal lines 184, 186, 188 of the imaging apparatus 100 of the present embodiment. The distance between the waveforms of the peak values of the left and right outputs changes depending on the distance between the imaging device and the subject. For example, the longer the shooting distance, the shorter the distance between waveforms, and the shorter the shooting distance, the longer the distance between waveforms.

도 5에서는 좌우의 출력 피크값의 파형간 거리(A)는 촬상 장치(100)와 피사체(5)간의 거리에 대응하고, 파형간 거리(B)는 촬상 장치(100)와 피사체(7)간의 거리에 대응한다. 파형간 거리(A, B)를 산출하기 위해서는 좌우 2개의 파형의 상관이 가장 강해지는 곳을 검출할 필요가 있다.In FIG. 5, the inter-waveform distance A of the left and right output peak values corresponds to the distance between the imaging device 100 and the subject 5, and the inter-waveform distance B is between the imaging device 100 and the subject 7. Corresponds to the distance. In order to calculate the distances A and B between the waveforms, it is necessary to detect where the correlation between the two left and right waveforms is the strongest.

상관 검출의 방법에는, 예를 들면, 일 측의 파형 데이터를 화소 단위로 쉬프트(천이)하면서 타 측 파형 데이터와의 차분의 총합을 취하여, 총합이 최소가 될 때의 거리를 상관이 가장 강한 파형간 거리로 판단하는 방법이 있다.In the correlation detection method, for example, a waveform having the strongest correlation is obtained by shifting the waveform data of one side by pixel by taking the total sum of the differences with the other waveform data and minimizing the total distance. There is a way to judge the distance between.

이때의 상관값은, 예를 들면 수학식 2로 표시할 수 있다. 도 5의 상단에 도시한 출력값 분포에서는, 도 14와 같은 상관값과 파형간 거리의 관계를 얻을 수 있으며, 도 5의 하단에 도시한 출력값 분포에서는, 도 17과 같은 상관값과 파형간 거리의 관계를 얻을 수 있다. 도 14에서는 상관 최소값(min1)이 도 5의 상단의 파형간 거리(A)와 대응한다. 또한 도 17에서는 상관 최소값(min2)이 도 5의 하단의 파형간 거리(A, B)와 대응한다.The correlation value at this time can be expressed by, for example, Equation (2). In the output value distribution shown in the upper part of FIG. 5, the relationship between the correlation value and the waveform distance as shown in FIG. 14 can be obtained. In the output value distribution shown in the lower part of FIG. 5, the correlation value and the distance between the waveform as shown in FIG. You can get a relationship. In FIG. 14, the correlation minimum value min1 corresponds to the distance A between waveforms at the top of FIG. 5. In addition, in FIG. 17, the correlation minimum value min2 corresponds to the distance between the waveforms A and B at the bottom of FIG. 5.

Figure 112008075955597-PAT00002
Figure 112008075955597-PAT00002

여기에서 n은 영역의 화소수, j는 상대 화소 위치이다.Where n is the number of pixels in the region and j is the relative pixel position.

본 실시예에서는, 중앙의 수평 라인(184)에서 검출된 출력값의 분포뿐 아니라 위쪽 또는 아래쪽에 위치하는 수평 라인(186, 188)에서 검출된 출력값의 분포를 사용한다. 여러 개의 데이터를 사용하기 때문에 보다 정확하게 촬상 장치(100)와 피사체간의 거리를 산출할 수 있다. 또한 여러 개의 출력값의 피크값이 검출되는 경우에도 하나의 수평 라인 또는 종래의 라인 센서를 사용하는 경우와 달리 오차가 생기거나 거리 산출이 불가능해지는 문제가 발생하지 않는다. 그 결과, 촬상 장치(100)와 피사체간의 거리를 보다 고정밀도로 산출할 수 있다.In this embodiment, not only the distribution of the output values detected in the center horizontal line 184 but also the distribution of the output values detected in the horizontal lines 186 and 188 located above or below. Since a plurality of data are used, the distance between the imaging device 100 and the subject can be calculated more accurately. In addition, even when the peak value of a plurality of output values are detected, unlike the case of using one horizontal line or a conventional line sensor, there is no problem that an error or distance calculation is impossible. As a result, the distance between the imaging device 100 and the subject can be calculated more accurately.

다음으로, AF센서(111) 위의 소자 라인에 대해서 설명한다. 도 6 및 도 7은 본 실시예에 관한 AF센서(111)의 광전 변환 소자의 배치를 도시한 평면도이다. Next, the element line on the AF sensor 111 will be described. 6 and 7 are plan views showing the arrangement of the photoelectric conversion elements of the AF sensor 111 according to the present embodiment.

AF센서(111)에 적용하는 CMOS센서의 각 광전 변환 소자는, 도 6에 도시한 바와 같이 매트릭스 패턴으로 구성되어도 좋고, 도 7에 도시한 바와 같이 벌집형 패턴으로 구성되어도 좋다. 매트릭스 패턴이란, 수평한 방향과 수평한 방향에 수직 방향으로 복수의 광전 변환 소자가 배치된 패턴이다. 벌집형 패턴이란, 수평한 방향과 수평한 방향에 대해 90도 이외의 각도를 가진 방향으로 복수의 광전 변환 소자가 배치된 패턴이다.Each photoelectric conversion element of the CMOS sensor applied to the AF sensor 111 may be composed of a matrix pattern as shown in FIG. 6, or may be composed of a honeycomb pattern as shown in FIG. 7. The matrix pattern is a pattern in which a plurality of photoelectric conversion elements are arranged in the vertical direction in the horizontal direction and in the horizontal direction. The honeycomb pattern is a pattern in which a plurality of photoelectric conversion elements are arranged in a direction having an angle other than 90 degrees with respect to the horizontal direction and the horizontal direction.

도 6에 도시한 AF센서(111)에서는, 포커스 제어시에 위상차 검출을 할 때 하나의 가상 선분 위에 배치된 복수의 광전 변환 소자들, 즉 일 방향을 따라 배치되는 광전 변환 소자들로 이루어진 소자 라인(L11, L12, L13, R11, R12, R13)에서 출력되는 전기 신호가 광전 변환 소자마다 순차적으로 독출된다. 도 6에서 음영으로 표시된 광전 변환 소자들이 각각의 소자 라인을 나타낸다. 그리고 L11과 R11을 잇는 라인이 도 6에 도시한 수평 라인(186)에 대응하고, L12와 R12를 잇는 라인이 수평 라인(184)에 대응하며, L13과 R13을 잇는 라인이 수평 라인(188)에 대응한다.In the AF sensor 111 shown in FIG. 6, an element line made up of a plurality of photoelectric conversion elements arranged on one virtual line, that is, photoelectric conversion elements arranged in one direction when phase difference detection is performed in focus control. Electrical signals output at (L11, L12, L13, R11, R12, R13) are sequentially read out for each photoelectric conversion element. The photoelectric conversion elements shaded in FIG. 6 represent each device line. The line connecting L11 and R11 corresponds to the horizontal line 186 shown in FIG. 6, the line connecting L12 and R12 corresponds to the horizontal line 184, and the line connecting L13 and R13 is the horizontal line 188. Corresponds to.

또한 일 측에 배치된 소자 라인(L11, L12, L13)의 조합을 제1 소자 라인 세트라고 하고, 타 측에 배치된 소자 라인(R11, R12, R13)의 조합을 제2 소자 라인 세트라고 한다. 소자 라인 세트들은 CMOS센서(107) 중 일부의 영역인 거리 측정 영역 안에 포함된다.In addition, the combination of the element lines L11, L12, and L13 arranged on one side is called a first element line set, and the combination of the element lines R11, R12, and R13 arranged on the other side is called a second element line set. . The device line sets are included in a distance measurement area, which is an area of some of the CMOS sensors 107.

또한 AF연산 제어부(132)는, 소자 라인(L11)의 출력값의 강도 분포와 소자 라인(R11)의 출력값의 강도 분포의 상관을 산출하고, 피사체와의 거리를 산출한다. 또한 본 실시예에서는 여러 개의 라인에 대해서 상관을 산출하기 때문에 소자 라인(L12)과 (R12)의 상관, 소자 라인(L13)과 (R13)의 상관을 산출한다.In addition, the AF operation control unit 132 calculates a correlation between the intensity distribution of the output value of the element line L11 and the intensity distribution of the output value of the element line R11 and calculates a distance from the subject. In addition, in this embodiment, since the correlation is calculated for several lines, the correlation between the element lines L12 and R12 and the correlation between the element lines L13 and R13 are calculated.

도 7에 도시한 AF센서(111)에서도 도 6의 경우와 마찬가지로, 하나의 가상 선분 위에 배치된, 즉 일 방향을 따라 배치된 복수의 광전 변환 소자들로 이루어진 소자 라인(L21, L22, L23, R21, R22, R23)에서 출력된는 전기 신호가 광전 변환 소자마다 순차적으로 독출된다. 그리고 AF연산 제어부(132)는 소자 라인(L21)과 (R21)의 상관, 소자 라인(L22)와 (R22)의 상관, 소자 라인(L23)과 (R23)의 상관을 산출한다.In the AF sensor 111 shown in FIG. 7, as in the case of FIG. 6, the element lines L21, L22, L23, which are formed of a plurality of photoelectric conversion elements disposed on one virtual line segment, that is, disposed in one direction. The electrical signals output from R21, R22, and R23 are sequentially read out for each photoelectric conversion element. The AF operation control unit 132 calculates the correlation between the element lines L21 and R21, the correlation between the element lines L22 and R22, and the correlation between the element lines L23 and R23.

(제1 실시예의 동작)(Operation of the First Embodiment)

다음으로, 도 8을 참조하여 본 실시예에 관한 촬상 장치의 포커스 제어에서의 촬영 거리 산출 동작에 대해서 설명한다. 도 8은 본 실시예에 관한 촬상 장치의 포커스 제어에서의 촬영 거리 산출 동작을 도시한 흐름도이다.Next, with reference to FIG. 8, the operation | movement distance calculation operation in the focus control of the imaging device which concerns on a present Example is demonstrated. 8 is a flowchart showing an operation for calculating a shooting distance in focus control of the imaging device according to the present embodiment.

우선, AF센서(111)의 수평 라인(예를 들면, 수평 라인(184, 186, 188) 등)마다 각 광전 변환 소자에서 출력하는 출력값(화소값)이 취득된다(독출된다)(단계S101). 그리고 AF센서(111)에서의 좌우 소자 라인의 출력값의 강도 분포를 비교하여 상관을 계산한다(단계S102). 예를 들면, 소자 라인(L11)과 (R11)의 상관, 소자 라인(L12)과 (R12)의 상관, 소자 라인(L13)과 (R13)의 상관을 산출한다.First, an output value (pixel value) output from each photoelectric conversion element is acquired (read out) for each horizontal line (for example, horizontal lines 184, 186, 188, etc.) of the AF sensor 111 (step S101). . The correlation is calculated by comparing the intensity distributions of the output values of the left and right element lines of the AF sensor 111 (step S102). For example, the correlation between the element lines L11 and R11, the correlation between the element lines L12 and R12, and the correlation between the element lines L13 and R13 are calculated.

다음으로, 산출한 상관값 중 최소값을 수평 라인마다 유지한다(단계S103). 그리고 유지한 상관값의 최소값이 소정값보다 낮은지의 여부를 판단한다(단계S104). 즉, 상관값이 낮을수록 소자 라인끼리의 상관은 높아지기 때문에 신뢰성이 높다. 따라서 상관값의 최소값이 소정값보다 낮은 경우에는 특별히 처리하지 않고 단계 S106로 진행한다. 한편, 상관값의 최소값이 소정값보다 높은 경우에는 그 수평 라인에 관해서는 신뢰성이 낮다고 판단하여 거리 산출 대상에서 제외한다(단계 S105). 이로써 보다 신뢰성 높은 거리 산출을 할 수 있다.Next, the minimum value among the calculated correlation values is maintained for each horizontal line (step S103). Then, it is judged whether or not the minimum value of the maintained correlation value is lower than the predetermined value (step S104). In other words, the lower the correlation value, the higher the correlation between the element lines, so that the reliability is high. Therefore, if the minimum value of the correlation value is lower than the predetermined value, the process proceeds to step S106 without any special processing. On the other hand, if the minimum value of the correlation value is higher than the predetermined value, it is determined that the reliability is low with respect to the horizontal line and is excluded from the distance calculation target (step S105). This enables more reliable distance calculation.

다음으로, 상관값과 파형간 거리의 관계를 도시한 그래프(예를 들면, 도 14나 도 17에 도시한 그래프)가 어떠한 형상인지에 대해 그래프의 첨도(뾰족한 정도)를 평가한다(단계S106). 상관값과 파형간 거리의 관계를 도시한 그래프의 형상 이 하나의 산(山)을 갖는 1산(一山) 분포 형태이면, 피사체는 하나라고 판단할 수 있다. 반면 그래프의 형상이 1산 분포 형태가 아닌 경우에는 피사체는 거리가 다른 것이 여러 개 존재한다고 판단할 수 있다(단계S107). 그리고 그래프의 형상이 1산 분포 형태가 아닌 경우, 그 수평 라인은 거리 산출 대상에서 제외한다(단계S108). 반면, 그래프의 형상이 1산 분포일 때에는 단계 S109로 진행한다. 이로써 거리를 산출해야 하는 피사체를 한정할 수 있다.Next, the kurtosis (sharpness) of the graph is evaluated as to what shape the graph showing the relation between the correlation value and the distance between the waveforms (for example, the graph shown in Figs. 14 and 17) (step S106). . If the shape of the graph showing the relationship between the correlation value and the distance between the waveforms is a one-mount distribution with one mountain, it can be determined that there is one object. On the other hand, if the shape of the graph is not in the form of a single distribution, it may be determined that the subject has a plurality of different distances (step S107). If the shape of the graph is not in the one-distribution form, the horizontal line is excluded from the distance calculation target (step S108). On the other hand, if the shape of the graph is a one-distribution distribution, the flow proceeds to step S109. This can limit the subject for which the distance is to be calculated.

다음으로, 상기 각 처리 결과, 남은 수평 라인의 출력값은 신뢰성이 높은 값으로 보아, 그 수평 라인의 출력값에 기초하여 파형간 거리를 산출하여, 촬상 장치(100)와 피사체간의 촬영 거리를 더 산출한다. 또한 남은 수평 라인이 여러 개 있는 경우에는 촬영 거리가 가장 근거리인 라인(파형간 거리가 가장 긴 라인)을 우선으로 촬영 거리를 결정한다(단계S109). 이상의 각 단계에 의해 촬상 장치(100)의 포커스 제어에서의 촬영 거리를 결정할 수 있다.Next, as a result of the above processing, the output value of the remaining horizontal line is regarded as a high reliability value, and the distance between the waveforms is calculated based on the output value of the horizontal line, and the imaging distance between the imaging device 100 and the subject is further calculated. . If there are several horizontal lines remaining, the photographing distance is determined first by the line having the shortest photographing distance (the line having the longest waveform distance) (step S109). By the above steps, the shooting distance in the focus control of the imaging apparatus 100 can be determined.

또한 상기 실시예에서는 하나의 거리 측정 영역에 대응하는 부분에 수평 라인을 3개 설치하는 경우에 대해서 설명했으나, 본 발명은 상기 예에 한정되지 않는다. 촬상 장치(100)에는 여러 개의 거리 측정 영역이 마련될 수 있고, 각각의 거리 측정 영역에 대응하는 부분에 수평 라인이 여러 개 설치될 수 있다. 그리고 거리 측정 영역마다 상기 단계 S101 ~ 단계 S109의 처리를 하여 촬영 거리를 산출한다. 그 후, 거리 측정 영역마다 얻어진 거리를 비교하여 최적의 촬영 거리를 결정한다.In addition, in the said embodiment, although the case where three horizontal lines were provided in the part corresponding to one distance measuring area | region was demonstrated, this invention is not limited to the said example. The imaging apparatus 100 may be provided with a plurality of distance measuring regions, and may be provided with a plurality of horizontal lines in portions corresponding to the respective distance measuring regions. The photographing distance is calculated by performing the processing of steps S101 to S109 for each distance measuring area. Thereafter, the optimum shooting distance is determined by comparing the distances obtained for each distance measuring area.

본 실시예에 의하면, 하나의 거리 측정 영역 안에 거리가 다른 여러 개의 피사체가 혼재되었을 때 거리 산출시에 오차가 생기지 않게 되어 산출 결과의 정밀도를 더욱 향상시킬 수 있다. 또한 2차원 방향으로 광전 변환 소자가 배치된 CMOS센서를 AF센서(111)로 사용하기 때문에 여러 개의 라인 센서를 평행하게 배치하는 경우에 비해 피사체의 영상광의 검출 범위에 자유도가 있다. 즉 라인 센서를 평행하게 나열한 경우, 각 라인 센서는 두꺼운 패키지를 가지기 때문에 라인 센서 상호간에 빈틈이 생긴다. 그 결과, 피사체의 화상의 검출 범위에 제한이 발생한다. 반면, 본 실시예와 같이 CMOS센서라면, 광전 변환 소자 단위로 독출 위치를 지정할 수 있기 때문에 검출 범위의 자유도가 높다.According to the present embodiment, when several subjects having different distances are mixed in one distance measuring area, no error occurs when calculating the distance, and thus the accuracy of the calculation result can be further improved. In addition, since the CMOS sensor in which the photoelectric conversion element is disposed in the two-dimensional direction is used as the AF sensor 111, there is a degree of freedom in the detection range of the image light of the subject as compared with the case where a plurality of line sensors are arranged in parallel. In other words, when the line sensors are arranged in parallel, there is a gap between the line sensors because each line sensor has a thick package. As a result, a limitation occurs in the detection range of the image of the subject. On the other hand, in the CMOS sensor as in the present embodiment, since the read position can be specified in units of photoelectric conversion elements, the degree of detection range is high.

또한 본 실시예와 같이 CMOS센서에서는 복수의 광전 변환 소자가 2차원 방향으로 근접하여 배치되기 때문에 AF센서(111)의 장치 본체에 대한 설치 오차가 발생한 경우에도 독출 위치를 변경하면 되므로 조정이 간단하다. 반면, 라인 센서를 이용한 종래의 기술의 광전 변환 소자가 1차원 방향으로만 배열되기 때문에 설치 정밀도가 높아 제조 공정이 어려웠다.In addition, in the CMOS sensor as shown in the present embodiment, since a plurality of photoelectric conversion elements are disposed in close proximity in the two-dimensional direction, even if an installation error of the apparatus main body of the AF sensor 111 occurs, the readout position may be changed, so that adjustment is simple. . On the other hand, since the photoelectric conversion elements of the prior art using the line sensor are arranged only in the one-dimensional direction, the installation accuracy is high and the manufacturing process is difficult.

(제2 실시예)(2nd Example)

도 9 및 도 10은 본 실시예에 관한 AF센서(111)의 광전 변환 소자의 배치를 도시한 평면도이다. 이하에서는 본 발명의 제2 실시예에 관한 촬상 장치(100)에 대해서 설명한다. 9 and 10 are plan views showing the arrangement of the photoelectric conversion elements of the AF sensor 111 according to the present embodiment. Hereinafter, the imaging apparatus 100 according to the second embodiment of the present invention will be described.

도 9는, AF센서(111)에 적용하는 CMOS센서의 각 광전 변환 소자가 매트릭스 패턴으로 배치되는 경우를 도시한다. 도 10은, 각 광전 변환 소자가 벌집형 패턴으로 배치되는 경우를 도시한다.9 shows a case where each photoelectric conversion element of the CMOS sensor applied to the AF sensor 111 is arranged in a matrix pattern. 10 shows a case where each photoelectric conversion element is arranged in a honeycomb pattern.

제2 실시예는, 제1 실시예와 비교하여 각 광전 변환 소자의 독출 범위가 다르다. 이하에서는 독출 범위에 대해서 설명한다. 제1 실시예에서는, 도 11(A)에 도시한 바와 같이 하나의 수평 라인에 포함되는 2개의 소자 라인(L30, R30)의 상관을 계산하였다. 이 때, 굵은 선으로 둘러싼 하나씩의 광전 변환 소자의 단위로 출력값을 취득하였다.The second embodiment has a different reading range of each photoelectric conversion element than in the first embodiment. The reading range will be described below. In the first embodiment, as shown in Fig. 11A, the correlation between two element lines L30 and R30 included in one horizontal line was calculated. At this time, the output value was acquired in the unit of one photoelectric conversion element enclosed by the thick line.

반면, 본 실시예는 일 측의 서로 평행한 여러 개의 소자 라인(L31, L32, L33, L34)을 하나의 조로서 제1 소자 라인 세트로 정하고, 타 측의 서로 평행한 여러 개의 소자 라인(R31, R32, R33, R34)을 하나의 조로서 제2 소자 라인 세트로 정한다.On the other hand, in the present embodiment, a plurality of element lines L31, L32, L33, and L34 parallel to each other on one side are defined as a first element line set as a pair, and several element lines R31 parallel to each other on the other side , R32, R33, and R34) are defined as the second element line set as one pair.

그리고 주사 방향(소자 라인의 길이 방향)과 다른 방향(예를 들면, 소자 라인의 연장 방향을 가로지르는 수직 방향)의 광전 변환 소자 등의 출력값을 가산한다. 예를 들면, 도 11(B)에 도시한 예에서는, 굵은 선으로 둘러싼 4개의 광전 변환 소자의 출력값의 가산치를 취득한다. 그리고 굵은 선으로 둘러싼 4개의 광전 변환 소자를 하나의 화소로서 취급하고, 이를 기초로 주사 방향의 화소의 출력값(가산치)의 강도 분포를 비교하여 상관을 산출한다.Then, the output values of the photoelectric conversion elements and the like in the direction different from the scanning direction (the longitudinal direction of the element line) (for example, the vertical direction crossing the extending direction of the element line) are added. For example, in the example shown to FIG. 11 (B), the addition value of the output value of four photoelectric conversion elements enclosed by the thick line is acquired. The four photoelectric conversion elements surrounded by the thick line are treated as one pixel, and the correlation is calculated by comparing the intensity distributions of the output values (addition values) of the pixels in the scanning direction based on this.

도 10에 도시한 벌집형 패턴의 예도 동일하다. 제1 실시예에서는 도 10(A)에 도시한 바와 같이 소자 라인(L40, R40)에서 굵은 선으로 둘러싼 하나씩의 광전 변환 소자의 단위로 출력값을 취득하였다. 반면, 본 실시예에 의하면 도 10(B)에 도시한 바와 같이 소자 라인(L41) (L44)로 이루어진 제1 소자 라인 세트, 소자 라인(R41) (R44)로 이루어진 제2 소자 라인 세트에서 굵은 선으로 둘러싼 4개의 광 전 변환 소자를 하나의 화소로서 취급하여, 이를 기초로 주사 방향의 화소의 출력값(가산치)의 강도 분포를 비교하여 상관을 산출한다. 또한 도 10(B)에 도시한 바와 같이, 예를 들면 1라인 간격으로 소자 라인을 추출하여 가산 대상으로 하는 광전 변환 소자들을 주사 방향에 대해 수직 방향으로 배열된 광전 변환 소자들에서 선택된다 또한 도 10(C)에 도시한 바와 같이 서로 인접하도록 소자 라인을 추출해도 좋다. 이 때, 도 10(C)에 도시한 바와 같이 소자 라인(L45) (L48)으로 이루어진 제1 소자 라인 세트, 소자 라인(R45) (R48)으로 이루어진 제2 소자 라인 세트에서, 굵은 선으로 둘러싼 4개의 광전 변환 소자를 하나의 화소로서 취급한다. 가산 대상으로 하는 광전 변환 소자들은, 주사 방향에 대해 거의 수직 방향을 따라 지그재그로 배열된다.The example of the honeycomb pattern shown in FIG. 10 is also the same. In the first embodiment, as shown in Fig. 10A, output values are obtained in units of one photoelectric conversion element surrounded by thick lines in the element lines L40 and R40. On the other hand, according to this embodiment, as shown in Fig. 10B, the first element line set consisting of the element lines L41 and L44 and the second element line set consisting of the element lines R41 and R44 are thicker. The four photoelectric conversion elements surrounded by lines are treated as one pixel, and the correlation is calculated by comparing the intensity distributions of the output values (addition values) of the pixels in the scanning direction based on this. Further, as shown in Fig. 10B, for example, the photoelectric conversion elements to be added by extracting device lines at intervals of one line are selected from the photoelectric conversion elements arranged in a direction perpendicular to the scanning direction. As shown in 10 (C), the element lines may be extracted to be adjacent to each other. At this time, as shown in Fig. 10C, in the first element line set made of the element lines L45 and L48, and the second element line set made of the element lines R45 and R48, surrounded by thick lines. Four photoelectric conversion elements are treated as one pixel. The photoelectric conversion elements to be added are arranged in a zigzag along a direction substantially perpendicular to the scanning direction.

본 실시예에 의하면 AF센서(111)에서 하나씩의 광전 변환 소자의 단위에서는 충분한 다이나믹 레인지를 얻을 수 없는 경우에도, 복수의 광전 변환 소자의 출력값을 가산하기 때문에 각 광전 변환 소자의 다이나믹 레인지가 좁은 것을 보완할 수 있어 감도를 높일 수 있다. 또한 주사 방향에 대해 수직 방향의 화소를 가산하는 경우, 주사 방향의 성분이 포함되지 않기 때문에 소성(素性)이 좋은 데이터를 얻을 수 있다. 또한 본 실시예에 의하면, 통상의 CMOS센서로 고감도의 AF센서를 실현할 수 있다. 따라서 별도의 고감도의 광전 변환 소자의 개발, 제조가 불필요해져 비용 상승을 억제할 수 있다.According to the present embodiment, even when a sufficient dynamic range cannot be obtained in the unit of one photoelectric conversion element in the AF sensor 111, since the output values of the plurality of photoelectric conversion elements are added, the dynamic range of each photoelectric conversion element is narrow. It can be supplemented to increase the sensitivity. In addition, when pixels in the direction perpendicular to the scanning direction are added, data with good plasticity can be obtained because no component in the scanning direction is included. In addition, according to this embodiment, a high-sensitivity AF sensor can be realized by a normal CMOS sensor. Therefore, development and manufacture of a separate high-sensitivity photoelectric conversion element are not necessary, and the increase in cost can be suppressed.

또한 제1 실시예에서는, 서로 평행한 여러 개의 소자 라인을 독출하여 거리 측정 영역에 여러 개의 피사체가 포함될 때의 거리 산출 정밀도를 향상시켰다.In addition, in the first embodiment, several element lines parallel to each other are read to improve the accuracy of distance calculation when several subjects are included in the distance measurement area.

본 실시예에서는 서로 평행한 여러 개의 소자 라인으로 이루어진 소자 라인 세트를 여러 개 독출함으로써 고감도 및 거리 측정 영역에 여러 개의 피사체가 포함될 때의 거리 산출 정밀도의 향상을 꾀할 수 있다. 도 11은, 본 실시예에 관한 AF센서(111)의 광전 변환 소자의 배치를 도시한 평면도이다.In this embodiment, by reading a plurality of element line sets composed of several element lines parallel to each other, it is possible to improve the distance calculation accuracy when a plurality of subjects are included in the high sensitivity and distance measurement area. 11 is a plan view showing the arrangement of the photoelectric conversion elements of the AF sensor 111 according to the present embodiment.

도 11(A)은 소자 라인(L50, L60, L70, R50, R60, R70)에서 굵은 선으로 둘러싼 하나씩의 광전 변환 소자의 단위로 출력값을 취득하는 경우이다. 본 실시예에서는 도 11(B)에 도시한 바와 같이, 굵은 선으로 둘러싼 4개의 광전 변환 소자를 하나의 화소로서 취급하고, 주사 방향의 화소의 출력값(가산치)의 강도 분포를 비교하여 상관을 산출한다.FIG. 11A shows a case where an output value is obtained in units of one photoelectric conversion element surrounded by a thick line in the element lines L50, L60, L70, R50, R60, and R70. In this embodiment, as shown in Fig. 11B, four photoelectric conversion elements enclosed by a thick line are treated as one pixel, and the correlation is obtained by comparing the intensity distributions of the output values (addition values) of the pixels in the scanning direction. Calculate.

도 11(B)의 소자 라인 세트는, 소자 라인(L51, L52, L53, L54)로 이루어진 소자 라인 세트, 소자 라인(R51, R52, R53, R54)로 이루어진 소자 라인 세트, 소자 라인(L61, L62, L63, L64)로 이루어진 소자 라인 세트, 소자 라인(R61, R62, R63, R64)로 이루어진 소자 라인 세트, 소자 라인(L71, L72, L73, L74)로 이루어진 소자 라인 세트, 소자 라인(R71, R72, R73, R74)로 이루어진 소자 라인 세트가 있다.The element line set in Fig. 11B is an element line set composed of element lines L51, L52, L53, and L54, an element line set composed of element lines R51, R52, R53, and R54, and an element line L61. Device line set consisting of L62, L63, L64, Device line set consisting of device lines R61, R62, R63, R64, Device line set consisting of device lines L71, L72, L73, L74, Device line R71 There is a set of device lines consisting of R72, R73, and R74.

이 때, 소자 라인 세트들과 서로 중복되지 않는 광전 변환 소자들 중 주사 방향에 대해 수직 방향의 광전 변환 소자를 가산한다. 이로써 AF센서(111)는 고정밀도로 피사체의 영상광을 검출할 수 있다.At this time, the photoelectric conversion elements perpendicular to the scanning direction are added among the photoelectric conversion elements that do not overlap with the element line sets. As a result, the AF sensor 111 may detect the image light of the subject with high accuracy.

또한 가산되는 소자 라인의 길이 방향과 다른 방향(예를 들면, 소자 라인이 연장되는 방향을 가로지르는 수직 방향)에 배치된 광전 변환 소자의 수(가산수)는, 피사체의 영상광의 휘도 레벨에 따라 가변적일 수 있다.The number (addition number) of the photoelectric conversion elements arranged in a direction different from the length direction of the element line to be added (for example, a vertical direction crossing the direction in which the element line extends) depends on the luminance level of the image light of the subject. It can be variable.

예를 들면, AE연산 제어부(132)가 AE센서(114)의 출력값을 받아 휘도 레벨을 파악한다. 그리고 AE연산 제어부(132)가 가산 필요성이나 가산수를 결정하여 결과를 AF센서(111)에 보낸다. 이로써 피사체의 휘도에 따른 감도를 가진 AF센서를 실현할 수 있다.For example, the AE operation control unit 132 receives the output value of the AE sensor 114 to determine the luminance level. The AE operation control unit 132 determines the addition necessity or the addition number and sends the result to the AF sensor 111. This makes it possible to realize an AF sensor having sensitivity according to the brightness of the subject.

본 발명은 상술한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위에 의해 정해져야 할 것이다.Although the present invention has been described with reference to the above-described embodiments, these are merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the appended claims.

도 1은 본 발명의 일 실시예에 관한 촬상 장치를 나타내는 블럭도이다.1 is a block diagram showing an imaging device according to an embodiment of the present invention.

도 2는 도 1의 촬상 장치에 구비되는 포커스 렌즈, CMOS센서, 콘덴서 렌즈, 세퍼레이터 렌즈 및 AF센서의 관계와 개략적인 구성을 나타내는 모식도다.FIG. 2 is a schematic diagram illustrating a relationship and a schematic configuration of a focus lens, a CMOS sensor, a condenser lens, a separator lens, and an AF sensor included in the imaging device of FIG. 1.

도 3은 도 2의 포커스 렌즈의 위치에서 분할되는 광속을 도시한 모식도다.FIG. 3 is a schematic diagram showing the luminous flux divided at the position of the focus lens of FIG. 2.

도 4는 도 1의 촬상 장치의 뷰 파인더(10)와 거리 측정 영역(12)의 관계를 도시한 설명도이다.4 is an explanatory diagram showing a relationship between the view finder 10 and the distance measuring area 12 of the imaging device of FIG. 1.

도 5는 도 1의 촬상 장치의 수평 라인의 출력값 분포를 도시한 그래프이다.5 is a graph showing an output value distribution of a horizontal line of the imaging device of FIG. 1.

도 6은 도 1의 촬상 장치에 구비되는 AF센서의 광전 변환 소자의 배치의 일 예를 도시한 평면도이다.6 is a plan view illustrating an example of the arrangement of the photoelectric conversion elements of the AF sensor included in the imaging device of FIG. 1.

도 7은 도 1의 촬상 장치에 구비되는 AF센서의 광전 변환 소자의 배치의 다른 예를 도시한 평면도이다.7 is a plan view illustrating another example of the arrangement of the photoelectric conversion elements of the AF sensor included in the imaging device of FIG. 1.

도 8은 도 1의 촬상 장치의 포커스 제어에서의 촬영 거리 산출 동작을 도시한 흐름도이다.8 is a flowchart illustrating an operation of calculating a shooting distance in focus control of the imaging device of FIG. 1.

도 9는 본 발명의 다른 실시예에 관한 촬상 장치에 구비되는 AF센서의 광전 변환 소자의 배치를 도시한 평면도이다.9 is a plan view showing the arrangement of the photoelectric conversion elements of the AF sensor included in the imaging device according to another embodiment of the present invention.

도 10은 도 9의 AF센서의 광전 변환 소자의 배치의 다른 예를 도시한 평면도이다.10 is a plan view illustrating another example of the arrangement of the photoelectric conversion elements of the AF sensor of FIG. 9.

도 11은 도 9의 AF센서의 광전 변환 소자의 배치의 또 다른 예를 도시한 평면도이다.11 is a plan view illustrating another example of the arrangement of the photoelectric conversion elements of the AF sensor of FIG. 9.

도 12는 종래의 촬상 장치의 뷰 파인더 및 거리 측정 영역과의 관계를 도시한 설명도이다.It is explanatory drawing which shows the relationship with the viewfinder and distance measuring area of the conventional imaging device.

도 13은 종래의 촬상 장치의 라인 센서의 출력값의 분포를 도시한 그래프이다.13 is a graph showing a distribution of output values of a line sensor of a conventional imaging device.

도 14는 상관값과 파형간 거리의 관계를 도시한 그래프이다.14 is a graph showing the relationship between the correlation value and the distance between waveforms.

도 15는 종래의 촬상 장치의 뷰 파인더와 거리 측정 영역의 관계를 도시한 설명도이다.15 is an explanatory diagram showing a relationship between a view finder and a distance measurement area in a conventional imaging device.

도 16는 종래의 촬상 장치의 라인 센서의 출력값의 분포를 도시한 그래프이다.16 is a graph showing a distribution of output values of a line sensor of a conventional imaging device.

도 17은 상관값과 파형간 거리의 관계를 도시한 그래프이다.17 is a graph showing the relationship between the correlation value and the distance between waveforms.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

100: 촬상 장치 130: CPU100: imaging device 130: CPU

101: 결상 광학계 135: 조작부재101: imaging optical system 135: operating member

102: 줌렌즈 141, 143, 145: 드라이버102: Zoom lens 141, 143, 145: Driver

103: 조리개 142, 144, 146: 모터103: aperture 142, 144, 146: motor

104: 포커스 렌즈 152: 화상 신호 처리 회로104: focus lens 152: image signal processing circuit

105: 퀵 리턴 미러 154: 압축 처리 회로105: quick return mirror 154: compression processing circuit

106: 셔터 156: LCD 드라이버106: shutter 156: LCD driver

107: CMOS센서 158: LCD107: CMOS sensor 158: LCD

108, 112: CDS/AMP부 162: VRAM108, 112: CDS / AMP section 162: VRAM

109, 113: A/D변환부 164: SDRAM109 and 113: A / D converter 164: SDRAM

110, 131: 화상 입력 콘트롤러 166: 미디어 콘트롤러110, 131: Image input controller 166: Media controller

120: DSP/CPU 168: 기록 미디어120: DSP / CPU 168: recording media

121: 타이밍 제너레이터121: timing generator

Claims (11)

2차원 방향으로 배치되어 피사체로부터 입사된 영상광을 전기 신호로 변환하는 복수의 광전 변환 소자들;A plurality of photoelectric conversion elements arranged in a two-dimensional direction and converting image light incident from a subject into an electrical signal; 일 방향을 따라 배치되는 복수의 상기 광전 변환 소자들로 이루어진 소자 라인에서, 상기 광전 변환 소자들의 상기 전기 신호를 순차적으로 독출하는 독출부; 및A readout unit configured to sequentially read the electrical signals of the photoelectric conversion elements in a device line including a plurality of the photoelectric conversion elements arranged along one direction; And 서로 평행한 복수의 상기 소자 라인들로 이루어진 제1 소자 라인 세트의 상기 전기 신호와, 상기 제1 소자 라인 세트의 상기 소자 라인들의 연장 방향을 따라 연장되며 서로 평행한 복수의 상기 소자 라인들로 이루어진 제2 소자 라인 세트의 상기 전기 신호의 강도 분포의 차이에 기초하여 상기 피사체까지의 거리를 산출하는 거리 산출부;를 구비하는, 촬상 장치.The electrical signal of the first element line set comprising a plurality of the element lines parallel to each other, and the plurality of the element lines extending along the extension direction of the element lines of the first element line set and parallel to each other And a distance calculator for calculating a distance to the subject based on the difference in the intensity distribution of the electrical signals of the second element line set. 제1항에 있어서, The method of claim 1, 상기 거리 산출부는 상기 제1 소자 라인 세트를 이루는 상기 소자 라인들중 하나인 제1 소자 라인의 상기 강도 분포와, 상기 제2 소자 라인 세트를 이루는 상기 소자 라인들 중 상기 제1 소자 라인과 동일 직선 상에 배치된 제2 소자 라인의 상기 강도 분포를 비교하여 상기 거리를 산출하는, 촬상 장치.The distance calculator is a straight line equal to the intensity distribution of the first element line, which is one of the element lines constituting the first element line set, and the first element line, among the element lines constituting the second element line set. And the distance is calculated by comparing the intensity distributions of the second element lines arranged on the image. 제1항에 있어서, The method of claim 1, 상기 거리 산출부는, 상기 소자 라인의 연장 방향을 가로지르는 방향을 따라 배치되는 상기 광전 변환 소자들의 상기 전기 신호의 강도를 가산한 가산치에 기초하여 상기 제1 소자 라인 세트의 상기 강도 분포와 상기 제2 소자 라인 세트의 강도 분포를 비교하여 상기 거리를 산출하는, 촬상 장치.The distance calculating unit may include the intensity distribution and the first distribution of the first element line set based on an added value obtained by adding an intensity of the electrical signal of the photoelectric conversion elements arranged along a direction crossing the extension direction of the element line. An imaging device, wherein the distance is calculated by comparing the intensity distributions of the two-element line sets. 제3항에 있어서,The method of claim 3, 상기 거리 산출부가 상기 가산치를 얻기 위해 전기 신호의 강도를 가산하는 상기 소자 라인의 연장 방향을 가로지르는 방향을 따라 배치되는 상기 광전 변환 소자들의 수는, 상기 피사체의 영상광의 휘도 레벨에 따라 가변적인, 촬상 장치.The number of the photoelectric conversion elements arranged along the direction crossing the direction of extension of the element line where the distance calculator adds the strength of the electrical signal to obtain the addition value is variable according to the brightness level of the image light of the subject, Imaging device. 제3항 또는 제4항에 있어서, The method according to claim 3 or 4, 상기 거리 산출부가 상기 가산치를 얻기 위해 전기 신호의 강도를 가산하는 상기 소자 라인의 연장 방향을 가로지르는 방향을 따라 배치되는 상기 광전 변환 소자들은, 상기 제1 소자 라인 세트와 상기 제2 소자 라인 세트의 상기 광전 변환 소자들과 서로 중복되지 않도록 선택되는, 촬상 장치.The photoelectric conversion elements arranged along the direction transverse to the direction of extension of the device line, in which the distance calculator adds the strength of an electrical signal to obtain the addition value, may include the first device line set and the second device line set. And the photoelectric conversion elements so as not to overlap with each other. 제5항에 있어서, The method of claim 5, 상기 거리 산출부가 상기 가산치를 얻기 위해 전기 신호를 가산하는 상기 소자 라인의 연장 방향을 가로지르는 방향을 따라 배치되는 상기 광전 변환 소자들 은, 직선 상에 배치되는, 촬상 장치.And the photoelectric conversion elements arranged along a direction crossing the extension direction of the device line for adding the electrical signal to the distance calculator to obtain the addition value are arranged on a straight line. 제6항에 있어서, The method of claim 6, 상기 복수의 광전 변환 소자들은 매트릭스형이나 벌집 모양으로 배치되는, 촬상 장치.And the plurality of photoelectric conversion elements are arranged in a matrix or honeycomb shape. 제1항에 있어서, The method of claim 1, 상기 제1 소자 라인 세트 및 상기 제2 소자 라인 세트는 상기 광학 변환 소자들 중에서 사용자에 의해 선택될 수 있는, 촬상 장치.And the first element line set and the second element line set can be selected by a user among the optical conversion elements. 피사체로부터 입사된 영상광을 전기 신호로 변환하는 복수의 광전 변환 소자들이 일 방향을 따라 배치된 소자 라인에서 상기 전기 신호를 상기 광전 변환 소자마다 순차적으로 독출하는 단계; 및Sequentially reading the electrical signal for each of the photoelectric conversion elements from a device line in which a plurality of photoelectric conversion elements for converting image light incident from a subject into an electrical signal are arranged along one direction; And 서로 평행한 복수의 상기 소자 라인으로 이루어진 제1 소자 라인 세트의 상기 전기 신호와, 상기 제1 소자 라인 세트의 상기 소자 라인들의 연장 방향을 따라 연장되며 서로 평행한 복수의 상기 소자 라인들로 이루어진 제2 소자 라인 세트의 상기 전기 신호의 강도 분포의 차이에 기초하여 상기 피사체까지의 거리를 산출하는 단계;를 포함하는, 촬상 방법.The electrical signal of the first device line set including the plurality of device lines parallel to each other, and the plurality of the device lines extending along the extension direction of the device lines of the first device line set and parallel to each other; Calculating a distance to the subject based on a difference in the intensity distribution of the electrical signals in the two-element line set. 제9항에 있어서, The method of claim 9, 상기 거리를 산출하는 단계는, 상기 제1 소자 라인 세트를 이루는 상기 소자 라인들중 하나인 제1 소자 라인의 상기 강도 분포와, 상기 제2 소자 라인 세트를 이루는 상기 소자 라인들 중 상기 제1 소자 라인과 동일 직선 상에 배치된 제2 소자 라인의 상기 강도 분포를 비교하여 상기 거리를 산출하는, 촬상 방법.The calculating of the distance may include the intensity distribution of the first device line, which is one of the device lines constituting the first device line set, and the first device of the device lines constituting the second device line set. And the distance is calculated by comparing the intensity distributions of the second element lines arranged on the same straight line as the line. 제9항에 있어서, The method of claim 9, 상기 거리를 산출하는 단계는, 상기 소자 라인의 연장 방향을 가로지르는 방향을 따라 배치되는 상기 광전 변환 소자들의 상기 전기 신호의 강도를 가산한 가산치에 기초하여 상기 제1 소자 라인 세트의 상기 강도 분포와 상기 제2 소자 라인 세트의 강도 분포를 비교하여 상기 거리를 산출하는, 촬상 방법.The calculating of the distance may include: the intensity distribution of the first set of device lines based on an added value obtained by adding an intensity of the electrical signal of the photoelectric conversion elements arranged along a direction crossing the extending direction of the device line And the intensity distribution of the second element line set to calculate the distance.
KR20080107967A 2008-06-24 2008-10-31 Photographing apparatus and method KR101510107B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2008-164022 2008-06-24
JP2008164022A JP5095519B2 (en) 2008-06-24 2008-06-24 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
KR20100002051A true KR20100002051A (en) 2010-01-06
KR101510107B1 KR101510107B1 (en) 2015-04-08

Family

ID=41589086

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20080107967A KR101510107B1 (en) 2008-06-24 2008-10-31 Photographing apparatus and method

Country Status (2)

Country Link
JP (1) JP5095519B2 (en)
KR (1) KR101510107B1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102870028B (en) * 2010-04-28 2015-11-25 富士胶片株式会社 Imaging device
JP5638849B2 (en) * 2010-06-22 2014-12-10 オリンパス株式会社 Imaging device
CN103238098B (en) * 2010-11-30 2015-04-15 富士胶片株式会社 Imaging device and focal position detection method
JP5493010B2 (en) * 2010-11-30 2014-05-14 富士フイルム株式会社 Imaging apparatus and focus position detection method thereof
JP5491677B2 (en) 2011-03-31 2014-05-14 富士フイルム株式会社 Imaging apparatus and focus control method thereof
CN103403599B (en) 2011-03-31 2015-09-02 富士胶片株式会社 Camera head and focusing control method thereof
JP6338347B2 (en) * 2012-10-29 2018-06-06 キヤノン株式会社 Imaging apparatus and control method thereof
KR102269600B1 (en) * 2014-08-05 2021-06-25 삼성전자주식회사 An imaging sensor capable of detecting phase difference of focus
JP6237858B2 (en) * 2016-10-25 2017-11-29 株式会社ニコン Focus detection apparatus and imaging apparatus

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0572470A (en) * 1991-06-26 1993-03-26 Fuji Photo Film Co Ltd Phase difference detection type focus detection device
JP3102825B2 (en) * 1993-11-29 2000-10-23 キヤノン株式会社 camera
JP2004012815A (en) * 2002-06-06 2004-01-15 Sigma Corp Autofocus camera
JP2005156900A (en) * 2003-11-26 2005-06-16 Kyocera Corp Sensor for detecting focal point, focal point detector having the sensor for detecting focal point, focal point detection method and electronic imaging device
JP2006324760A (en) * 2005-05-17 2006-11-30 Fujifilm Holdings Corp Imaging apparatus

Also Published As

Publication number Publication date
JP5095519B2 (en) 2012-12-12
KR101510107B1 (en) 2015-04-08
JP2010008443A (en) 2010-01-14

Similar Documents

Publication Publication Date Title
KR101510107B1 (en) Photographing apparatus and method
JP5911531B2 (en) Optical equipment
US8890996B2 (en) Imaging device, semiconductor integrated circuit and imaging method
JP6029309B2 (en) Focus detection device
KR101605419B1 (en) Photographing apparatus and method of photographing
CN108462830B (en) Image pickup apparatus and control method of image pickup apparatus
JP5618712B2 (en) Automatic focusing device and imaging device
EP2698658A1 (en) Image pickup apparatus, semiconductor integrated circuit and image pickup method
JP2008026802A (en) Imaging apparatus
JP5130178B2 (en) Focal length detection apparatus, imaging apparatus, imaging method, and camera
US10326925B2 (en) Control apparatus for performing focus detection, image capturing apparatus, control method, and non-transitory computer-readable storage medium
JP2014130131A (en) Imaging apparatus, semiconductor integrated circuit and imaging method
JP2013113857A (en) Imaging device, and control method therefor
JP2013160991A (en) Imaging apparatus
JP6427027B2 (en) Focus detection apparatus, control method therefor, imaging apparatus, program, and storage medium
JP2006023653A (en) Optical equipment
JP2018185354A (en) Controller, imaging device, control method, program, and storage medium
JP2017163412A (en) Image processing system, its control method, imaging apparatus, and program
KR100819807B1 (en) Image pickup apparatus and method of picking up images
KR101839357B1 (en) Imaging apparatus and imaging method
JP7421008B2 (en) Imaging device, imaging method, and program
JP7207874B2 (en) CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP7237473B2 (en) Focus adjustment device and its control method
JP2017134154A (en) Focus control device, imaging device, and focus control program
JP5110887B2 (en) Focus evaluation value detection device and digital camera

Legal Events

Date Code Title Description
N231 Notification of change of applicant
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20180329

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee