KR101757655B1 - Image pickup element, image pickup apparatus, method for controlling the same, and storage medium - Google Patents

Image pickup element, image pickup apparatus, method for controlling the same, and storage medium Download PDF

Info

Publication number
KR101757655B1
KR101757655B1 KR1020160126372A KR20160126372A KR101757655B1 KR 101757655 B1 KR101757655 B1 KR 101757655B1 KR 1020160126372 A KR1020160126372 A KR 1020160126372A KR 20160126372 A KR20160126372 A KR 20160126372A KR 101757655 B1 KR101757655 B1 KR 101757655B1
Authority
KR
South Korea
Prior art keywords
image
imaging
evaluation value
signal
reading
Prior art date
Application number
KR1020160126372A
Other languages
Korean (ko)
Other versions
KR20160118187A (en
Inventor
나오토 오구시
시노부 와타나베
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013137031A external-priority patent/JP6346417B2/en
Priority claimed from JP2013136083A external-priority patent/JP2014143667A/en
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20160118187A publication Critical patent/KR20160118187A/en
Application granted granted Critical
Publication of KR101757655B1 publication Critical patent/KR101757655B1/en

Links

Images

Classifications

    • H04N5/345
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • H04N5/232
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Abstract

본 발명에 따른 촬상소자는, 피사체의 광학상을 형성하고 화상신호를 생성하기 위하여 상기 광학상을 촬상하는 광학계를 포함하는 촬상장치로서, 매트릭스 모양으로 배열된 복수의 화소를 포함하는 화소부를 갖는 제1 소자수단과, 상기 화소부로부터 상기 광학상을 판독하는 판독수단을 구비하는 제2 소자수단을 포함하되, 상기 복수의 화소는 화상신호를 생성하기 위하여 상기 광학상을 광전기적으로 변환하도록 배열되고, 상기 판독수단은 상기 화소부의 제1 화소군으로부터 상기 화상신호를 판독하는 제1 판독수단과, 상기 화소부의 제2 화소군으로부터 상기 화상신호를 판독하는 제2 판독수단을 포함하는 촬상소자와; 상기 촬상소자로부터 출력된 상기 화상신호로부터, 상기 광학상의 촬상조건에 관한 정보를 취득하고, 상기 취득된 정보를 이용하여 상기 촬상조건을 결정하는 촬상조건 결정수단; 및 상기 제1 판독수단 및 상기 제2 판독수단에 의해 판독된 상기 화상신호 중 하나로부터, 상기 촬상조건 결정수단에 의한 결정의 결과에 근거하여 상기 광학상의 촬상에 관한 촬상평가값을 검출하는 촬상 평가값 검출수단을 포함한다.An imaging device according to the present invention is an imaging device including an optical system for imaging an optical image for forming an optical image of a subject and generating an image signal, the imaging device comprising: a pixel having a pixel portion including a plurality of pixels arranged in a matrix; First element means including first element means and reading means for reading the optical image from the pixel portion, the plurality of pixels being arranged to photoelectrically convert the optical image to generate an image signal , The reading means includes first reading means for reading the image signal from the first pixel group of the pixel portion, and second reading means for reading the image signal from the second pixel group of the pixel portion; Imaging condition determining means for obtaining information about the imaging condition of the optical image from the image signal output from the imaging device and determining the imaging condition using the acquired information; And image pickup evaluation means for detecting, from one of the image signals read by the first reading means and the second reading means, an image pickup evaluation value related to the optical image pickup based on a result of the determination by the image pickup condition determining means Value detecting means.

Figure R1020160126372
Figure R1020160126372

Description

촬상소자, 촬상장치, 그 제어 방법, 및 기억매체{IMAGE PICKUP ELEMENT, IMAGE PICKUP APPARATUS, METHOD FOR CONTROLLING THE SAME, AND STORAGE MEDIUM}TECHNICAL FIELD [0001] The present invention relates to an image pickup device, an image pickup device, a control method thereof, and a storage medium. BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]

본 발명은, 적층구조를 갖는 촬상소자, 그 촬상소자를 구비하는 촬상장치, 그 제어 방법, 및 기억매체에 관한 것이다. 보다 구체적으로, 본 발명은, 화상신호에 따라 측광, 측거등에 관한 평가값을 검출할 수 있는 촬상장치에 관한 것이다.The present invention relates to an image pickup device having a laminated structure, an image pickup apparatus having the image pickup device, a control method thereof, and a storage medium. More specifically, the present invention relates to an imaging device capable of detecting an evaluation value relating to photometry, fielding, etc. according to an image signal.

촬상장치에 의해 촬상된 신호를 사용해서 화상평가 및 화상표시를 행하는 기술이 있다. 일본국 공개특허공보 특개 2009-89105호에 개시된 장치에서는, 라이브 뷰(live-view) 판독모드와 초점검출용 자동 노광 판독모드가 개시되어 있다. 그 라이브 뷰 판독모드는, 라이브 뷰 표시를 위한 촬상용 신호를 판독하는 것이고, 또한 초점검출용 자동 노광 판독모드는 초점검출용 신호 및 자동노광용 측광정보에 사용하기 위한 촬상신호를 촬상소자로부터 판독하는 것이다. 이것들의 판독모드는, 프레임마다 순환적으로 반복된다.There is a technique of performing image evaluation and image display using a signal picked up by an image pickup apparatus. In an apparatus disclosed in Japanese Patent Application Laid-Open No. 2009-89105, a live-view reading mode and an automatic exposure reading mode for focus detection are disclosed. The live view reading mode is for reading an image pickup signal for live view display and the auto exposure reading mode for focus detection is for reading an image pickup signal for use in focus detection signal and photometry information for automatic exposure from an image pickup element will be. These read modes are repeated cyclically for each frame.

그렇지만, 일본국 공개특허공보 특개 2009-89105호에 있어서는, 화소단위로 촬상소자로부터 화상신호(즉, 전하)를 판독하므로, 그 전하를 전송하는데 시간이 걸릴 뿐만 아니라, 전송 데이터량이 많아져서 소비 전력이 증대한다.However, in Japanese Patent Application Laid-Open No. 2009-89105, since an image signal (that is, charge) is read from an image pickup element on a pixel-by-pixel basis, not only time is required to transfer the charge but also the amount of data to be transferred increases, .

한층 더, 촬상소자의 출력인 화상신호는 제어장치 등의 다른 장치에 의해 화상신호처리된다. 이에 따라, 많은 전송 데이터량은, 상기 제어장치의 처리 부하 증대의 원인이 된다.Furthermore, the image signal, which is the output of the image pickup device, is subjected to image signal processing by another device such as a control device. As a result, a large amount of data to be transmitted causes the processing load of the control device to increase.

아울러, 일본국 공개특허공보 특개 2009-89105호에 있어서는, 화소부에 초점신호 검출 화소가 구비되어, 불가피하게 촬상신호 화소에 할당된 에어리어가 작아진다. 그들의 초점신호 검출 화소가 촬상신호(화상신호)를 얻을 때에 사용되지 않으므로, 화질이 저하된다.In addition, in Japanese Patent Application Laid-Open No. 2009-89105, a focus signal detection pixel is provided in the pixel portion, which inevitably reduces the area allocated to the image signal pixel. Since the focus signal detection pixels are not used when obtaining an image pickup signal (image signal), the image quality is deteriorated.

따라서, 본 발명의 목적은, 데이터 전송시간을 단축하는 동시에 화질이 저하하는 것을 억제하는 촬상소자 및 촬상장치, 그 제어 방법, 및 기억매체를 제공하는데 있다.Therefore, it is an object of the present invention to provide an image pickup device and an image pickup apparatus, a control method thereof, and a storage medium that reduce a data transfer time and a deterioration in image quality.

상기 목적을 달성하기 위하여, 본 발명에 따른 촬상소자는, 피사체의 광학상을 형성하고 화상신호를 생성하기 위하여 상기 광학상을 촬상하는 광학계를 포함하는 촬상장치로서, 매트릭스 모양으로 배열된 복수의 화소를 포함하는 화소부를 갖는 제1 소자수단과, 상기 화소부로부터 상기 광학상을 판독하는 판독수단을 구비하는 제2 소자수단을 포함하되, 상기 복수의 화소는 화상신호를 생성하기 위하여 상기 광학상을 광전기적으로 변환하도록 배열되고, 상기 판독수단은 상기 화소부의 제1 화소군으로부터 상기 화상신호를 판독하는 제1 판독수단과, 상기 화소부의 제2 화소군으로부터 상기 화상신호를 판독하는 제2 판독수단을 포함하는 촬상소자와; 상기 촬상소자로부터 출력된 상기 화상신호로부터, 상기 광학상의 촬상조건에 관한 정보를 취득하고, 상기 취득된 정보를 이용하여 상기 촬상조건을 결정하는 촬상조건 결정수단; 및 상기 제1 판독수단 및 상기 제2 판독수단에 의해 판독된 상기 화상신호 중 하나로부터, 상기 촬상조건 결정수단에 의한 결정의 결과에 근거하여 상기 광학상의 촬상에 관한 촬상평가값을 검출하는 촬상 평가값 검출수단을 포함한다.In order to achieve the above object, an image pickup device according to the present invention is an image pickup device including an optical system for picking up an optical image for forming an optical image of a subject and generating an image signal, comprising: a plurality of pixels arranged in a matrix And second reading means for reading the optical image from the pixel portion, wherein the plurality of pixels are arranged in a matrix form so as to form the optical image Wherein the reading means includes first reading means for reading the image signal from the first pixel group of the pixel portion, second reading means for reading the image signal from the second pixel group of the pixel portion, An imaging device including: Imaging condition determining means for obtaining information about the imaging condition of the optical image from the image signal output from the imaging device and determining the imaging condition using the acquired information; And image pickup evaluation means for detecting, from one of the image signals read by the first reading means and the second reading means, an image pickup evaluation value related to the optical image pickup based on a result of the determination by the image pickup condition determining means Value detecting means.

본 발명의 다른 국면에서, 본 발명에 따른 제어방법은, 피사체의 광학상을 형성하는 광학계 및 화상신호를 생성하기 위하여 상기 광학상을 촬상하는 촬상소자를 포함하되, 상기 촬상소자는, 매트릭스 모양으로 배열된 복수의 화소를 포함하는 화소부를 갖는 제1 소자수단과, 상기 화소부로부터 상기 광학상을 판독하는 판독수단을 구비하는 제2 소자수단을 포함하고, 상기 복수의 화소는 화상신호를 생성하기 위하여 상기 광학상을 광전기적으로 변환하도록 배열되고, 상기 판독수단은 상기 화소부의 제1 화소군으로부터 상기 화상신호를 판독하는 제1 판독수단과, 상기 화소부의 제2 화소군으로부터 상기 화상신호를 판독하는 제2 판독수단을 포함하는 촬상장치의 제어방법으로서, 상기 촬상소자로부터 출력된 상기 화상신호로부터, 상기 광학상의 촬상조건에 관한 정보를 취득하고, 상기 취득된 정보를 이용하여 상기 촬상조건을 결정하는 단계; 및 상기 제1 판독수단 및 상기 제2 판독수단에 의해 판독된 상기 화상신호 중 하나로부터, 상기 결정된 촬상조건에 근거하여 상기 광학상의 촬상에 관한 촬상평가값을 검출하는 단계를 포함한다.In another aspect of the present invention, a control method according to the present invention includes an optical system for forming an optical image of a subject and an imaging element for imaging the optical image to generate an image signal, wherein the imaging element has a matrix shape And a second element means including first element means having a pixel portion including a plurality of arranged pixels and reading means for reading the optical image from the pixel portion, Wherein the reading means comprises: first reading means for reading the image signal from the first pixel group of the pixel portion; and second reading means for reading the image signal from the second pixel group of the pixel portion And a second reading means for reading out the optical image from the image signal outputted from the image pickup element, Acquiring information on a condition, and determining the imaging condition using the acquired information; And detecting an imaging evaluation value related to the imaging of the optical image based on the determined imaging condition from one of the image signals read by the first reading means and the second reading means.

본 발명의 또 다른 특징들은, 첨부도면을 참조하여 이하의 실시예들의 설명으로부터 명백해질 것이다.Further features of the present invention will become apparent from the following description of the embodiments with reference to the accompanying drawings.

도 1은 본 발명의 제1실시예에서의 촬상장치의 일례의 구성을 나타내는 블록도다.
도 2a 및 2b는 도 1에 나타낸 촬상소자의 구성을 나타내는 설명도다.
도 3은 도 2a 및 2b에 나타낸 제1 칩상의 열 신호선에 있어서의 화소선택을 나타내는 설명도다.
도 4는 도 1에 나타낸 카메라에 있어서의 AF평가 모드시의 촬상 타이밍을 설명하기 위한 타이밍도다.
도 5는 도 1에 나타낸 카메라에 있어서의 제어를 설명하기 위한 흐름도다.
도 6은 본 발명의 제2실시예에 따른 카메라에서 사용되는 촬상소자의 일례의 그 구성을 나타낸 블록도다.
도 7은 본 발명의 제2실시예에 있어서의 측광 평가 모드시의 촬상 타이밍을 설명하기 위한 타이밍도다.
도 8은 본 발명의 제3실시예에 따른 카메라에서 사용되는 촬상소자의 일례의 그 구성을 나타낸 블록도다.
도 9는 본 발명의 제3실시예에 있어서의 표준편차 평가 모드시의 촬상 타이밍을 설명하기 위한 타이밍도다.
도 10은 종래의 촬상장치에 있어서 라이브 뷰를 위한 오토 포커스 촬상동작의 타이밍을 나타내는 설명도다.
도 11은 본 발명의 제4실시예에 따른 촬상장치의 구성을 나타낸 블록도다.
도 12a 및 12b는 본 발명의 제4실시예에 따른 촬상장치가 갖는 촬상소자의 구성을 나타낸다.
도 13은 본 발명의 제4실시예에 따른 촬상장치에서 사용하는 촬상소자의 화소부의 판독 구성을 나타내는 설명도다.
도 14a 및 14b는 본 발명의 제4실시예에 따른 촬상장치의 촬상 타이밍을 나타낸다.
도 15는 본 발명의 제4실시예에 따른 촬상장치의 AF모드에서의 동작을 나타낸 흐름도다.
도 16은 본 발명의 제5실시예에 따른 촬상장치의 구성을 나타낸다.
도 17은 본 발명의 제5실시예에 따른 촬상장치의 AF모드에서의 동작을 나타낸 흐름도다.
도 18은 본 발명의 제5실시예에 따른 촬상장치에 있어서의 씬(scene) 판정을 나타내는 판정표다.
도 19는 본 발명의 제6실시예에 따른 촬상장치의 구성을 나타낸다.
1 is a block diagram showing an example of the configuration of an image pickup apparatus according to the first embodiment of the present invention.
2A and 2B are explanatory diagrams showing the configuration of the imaging element shown in Fig.
3 is a diagram showing pixel selection in the column signal line on the first chip shown in Figs. 2A and 2B. Fig.
Fig. 4 is a timing chart for explaining the imaging timing in the AF evaluation mode in the camera shown in Fig. 1. Fig.
Fig. 5 is a flowchart for explaining control in the camera shown in Fig. 1. Fig.
6 is a block diagram showing the configuration of an example of an image pickup device used in a camera according to the second embodiment of the present invention.
Fig. 7 is a timing chart for explaining the imaging timing in the photometric evaluation mode in the second embodiment of the present invention. Fig.
8 is a block diagram showing the configuration of an example of an image pickup device used in a camera according to the third embodiment of the present invention.
9 is a timing chart for explaining the imaging timing in the standard deviation evaluation mode in the third embodiment of the present invention.
10 is an explanatory diagram showing the timing of an autofocus imaging operation for a live view in a conventional imaging apparatus.
11 is a block diagram showing a configuration of an image pickup apparatus according to a fourth embodiment of the present invention.
12A and 12B show the configuration of an image pickup device included in the image pickup apparatus according to the fourth embodiment of the present invention.
13 is an explanatory view showing a reading structure of a pixel portion of an imaging device used in an imaging device according to a fourth embodiment of the present invention.
14A and 14B show the imaging timing of the imaging apparatus according to the fourth embodiment of the present invention.
15 is a flowchart showing the operation in the AF mode of the imaging apparatus according to the fourth embodiment of the present invention.
16 shows a configuration of an image pickup apparatus according to the fifth embodiment of the present invention.
17 is a flowchart showing the operation in the AF mode of the imaging apparatus according to the fifth embodiment of the present invention.
18 is a judgment table showing a scene judgment in the image pickup apparatus according to the fifth embodiment of the present invention.
Fig. 19 shows a configuration of an image pickup apparatus according to the sixth embodiment of the present invention.

이하, 본 발명의 각종 실시예, 특징 및 국면을 도면을 참조하여 상세히 설명한다. 이하, 본 발명의 실시예들에 따른 촬상장치의 일례에 대해서 도면을 참조하여 설명한다.Hereinafter, various embodiments, features and aspects of the present invention will be described in detail with reference to the drawings. Hereinafter, an example of an image pickup apparatus according to embodiments of the present invention will be described with reference to the drawings.

제1실시예First Embodiment

도 1은, 본 발명의 제1실시예에서의 촬상장치의 일례의 구성을 나타낸 블록도다.1 is a block diagram showing an example of the configuration of an image pickup apparatus according to the first embodiment of the present invention.

그 도면에 나타낸 촬상장치는, 예를 들면 동화상 기능 구비 디지털 스틸 카메라 또는 비디오 카메라에 적용된다.The image pickup apparatus shown in the drawing is applied to, for example, a digital still camera or a video camera having a moving image function.

촬상장치(100)는, 광학경통(101), 촬상소자(102), 구동부(103), 신호 처리부(104), 압축 신장부(105), 제어부(106), 발광부(107), 조작부(108), 화상표시부(109), 및 화상기록부(110)를 구비한다.The imaging apparatus 100 includes an optical lens barrel 101, an imaging device 102, a driving unit 103, a signal processing unit 104, a compression expansion unit 105, a control unit 106, a light emitting unit 107, 108, an image display unit 109, and an image recording unit 110.

광학경통(101)은, 렌즈 유닛(도시 생략, 이하 간단히 렌즈라고 부른다) 및 기계적 광학부(1011)를 구비하고 있다. 상기 렌즈는 피사체로부터의 광(광학상)을 촬상소자(102)에 집광한다(즉, 결상한다).The optical lens barrel 101 is provided with a lens unit (not shown in the figure, hereinafter simply referred to as a lens) and a mechanical optical portion 1011. The lens condenses (i.e., images) the light (optical image) from the object on the image pickup element 102.

도면에 나타내지 않았지만, 기계적 광학부(1011)는, AF기구, 줌 구동기구, 기계적 셔터 기구, 및 조리개 기구를 가지고 있다. 기계적 광학부(1011)는 제어부(106)의 제어하에서 구동부(103)에 의해 구동된다.Although not shown in the drawing, the mechanical optical portion 1011 has an AF mechanism, a zoom driving mechanism, a mechanical shutter mechanism, and an iris mechanism. The mechanical optical portion 1011 is driven by the driving portion 103 under the control of the control portion 106. [

촬상소자(102)는, 후술하는 화소부(201) 및 A/D컨버터(도시 생략)를 가진다. 예를 들면, 촬상소자(102)는, 소위 XY판독 방식의 CMOS형 이미지 센서다. 촬상소자(102)는 제어부(106)의 제어하에서 동작하는 구동부(103)에 의해, 노광, 신호 판독, 및 리셋트등의 촬상동작을 행한다. 또한, 촬상소자(102)는, 촬상신호(화상신호라고도 한다)를 출력한다.The image pickup device 102 has a pixel portion 201 and an A / D converter (not shown), which will be described later. For example, the image pickup device 102 is a so-called XY read CMOS type image sensor. The imaging device 102 performs imaging operations such as exposure, signal reading, and reset by a driving unit 103 operated under the control of the control unit 106. [ Further, the image pickup device 102 outputs an image pickup signal (also referred to as an image signal).

촬상소자(102)는, AF평가값 검출부(1021)를 갖는다. 이 AF평가값 검출부(1021)는 촬상소자(102)에서 얻어진 화상신호에 따라 얻어진 콘트라스트 정보 및 위상차 정보에 의거하여, 제어부(106)로 제어된 타이밍으로 AF평가값(오토 포커스 평가값)을 검출한다. AF평가값 검출부(1021)는 해당 AF평가값을 제어부(106)에 출력한다.The image pickup element 102 has an AF evaluation value detection unit 1021. [ The AF evaluation value detection section 1021 detects an AF evaluation value (autofocus evaluation value) at a timing controlled by the control section 106 based on the contrast information and the phase difference information obtained in accordance with the image signal obtained by the image pickup device 102 do. The AF evaluation value detection section 1021 outputs the corresponding AF evaluation value to the control section 106. [

신호 처리부(104)는, 제어부(106)의 제어하에서, 촬상소자(102)의 출력인 화상신호에 대하여, 화이트 밸런스 조정 처리, 색보정처리, 및 자동노출(AE)처리등의 신호 처리를 실시해서, 그 화상신호를 화상 데이터로서 출력한다.Under the control of the control unit 106, the signal processing unit 104 performs signal processing such as white balance adjustment processing, color correction processing, and automatic exposure (AE) processing on the image signal output from the image pickup element 102 And outputs the image signal as image data.

제어부(106)의 제어하에서 동작하는 압축 신장부(105)는, 신호 처리부(104)의 출력인 화상 데이터에 대하여, JPEG(Joint Photographic Coding Experts Group)방식등의 소정의 정지화상 데이터 포맷에 의해 압축 부호화처리를 실시한다. 또한, 압축 신장부(105)는 제어부(106)로부터 보내진 상기 부호화된 화상 데이터의 신장 복호화 처리를 실시한다.The compression decompression unit 105 under the control of the control unit 106 compresses (compresses) the image data output from the signal processing unit 104 by a predetermined still image data format such as JPEG (Joint Photographic Coding Experts Group) And performs encoding processing. The compression decompression unit 105 performs decompression decoding processing of the coded image data sent from the control unit 106. [

또한, 압축 신장부(105)는, MPEG(Moving Picture Experts Group)방식에 의해 동화상 데이터에 대해서 압축 부호화/신장 복호화처리를 행하여도 좋다.Further, the compression / expansion unit 105 may perform compression encoding / decompression decoding processing on moving image data by the MPEG (Moving Picture Experts Group) method.

제어부(106)는, 예를 들면, 중앙처리장치(CPU), 판독전용 메모리(ROM), 및 랜덤 액세스 메모리(RAM)를 구비한 마이크로콘트롤러다. CPU가 ROM에 기억된 프로그램을 실행함으로써, 촬상장치(100) 전체를 포괄적으로 제어한다.The control unit 106 is a microcontroller having a central processing unit (CPU), a read only memory (ROM), and a random access memory (RAM), for example. The CPU executes the program stored in the ROM to comprehensively control the entire imaging apparatus 100.

발광부(107)는, 신호 처리부(104)에 의해 행해진 AE처리로 인해 피사체의 노광 값이 낮다고 판정되면, 피사체에 대하여 발광해서 조명한다. 발광부(107)로서, 예를 들면, 크세논 관을 사용한 스트로브 장치 또는 LED발광 장치를 사용하여도 된다.When it is determined that the exposure value of the subject is low due to the AE process performed by the signal processing unit 104, the light emitting unit 107 emits light to illuminate the subject. As the light emitting portion 107, for example, a strobe device using a xenon tube or an LED light emitting device may be used.

조작부(108)는, 예를 들면, 셔터 릴리즈 버튼등의 각종 조작 키, 레버, 및 다이얼을 가지고, 유저의 입력 조작에 대응한 조작 신호를 제어부(106)에 준다.The operation unit 108 has various operation keys, such as a shutter release button, a lever, and a dial, for example, and gives an operation signal corresponding to a user's input operation to the control unit 106. [

화상표시부(109)는, 예를 들면, 액정 디스플레이(LCD)등의 표시 디바이스 및 그 LCD에 대한 인터페이스 회로를 구비하고, 제어부(106)로부터 보내진 화상 데이터에 대응한 화상을 그 표시 디바이스에 표시한다.The image display unit 109 includes a display device such as a liquid crystal display (LCD) and an interface circuit for the LCD, and displays an image corresponding to the image data sent from the control unit 106 on the display device .

화상기록부(110)는, 예를 들면, 휴대용의 반도체 메모리, 광디스크, 하드디스크 드라이브(HDD) 또는 자기테이프등의 기록 매체이며, 압축 신장부(105)에 의해 압축 부호화된 화상 데이터를 화상 파일로서 기억한다. 또한, 화상기록부(110)는 제어부(106)에 의해 지정된 화상 파일을 판독해서 제어부(106)에 출력한다.The image recording unit 110 is a recording medium such as a portable semiconductor memory, an optical disk, a hard disk drive (HDD), or a magnetic tape, for example. The image recording unit 110 compresses and compresses image data compressed by the compression / I remember. The image recording unit 110 also reads out the image file designated by the control unit 106 and outputs it to the control unit 106. [

이제, 도 1에 나타낸 촬상장치(100)의 기본적인 동작에 관하여 설명한다.The basic operation of the image pickup apparatus 100 shown in Fig. 1 will now be described.

예를 들면, 정지화상을 촬영하는 경우에, 촬상을 위한 준비동작으로서, 촬상소자(102)에서는 화소(201)로부터 출력된 화상신호를 순차로 CDS처리 및 AGC 처리를 실시한다. 그 후, 그 화상신호를 A/D컨버터에서 디지털 화상신호로 변환한다. 이 얻어진 디지털 화상신호는 AF평가값 검출부(1021) 및 신호 처리부(104)에 출력된다.For example, as a preparatory operation for capturing a still image, the image pickup element 102 performs CDS processing and AGC processing on the image signals output from the pixel 201 in sequence. Thereafter, the image signal is converted from the A / D converter into a digital image signal. The obtained digital image signal is output to the AF evaluation value detection unit 1021 and the signal processing unit 104. [

AF평가값 검출부(1021)는, 디지털 화상신호로부터 얻어진 콘트라스트 정보에 따라 AF평가값(제어 정보)을 산출하고, 그 AF평가값을 제어부(106)에 출력한다. 제어부(106)는, AF평가값에 의거하여 기계적 광학부(1011)의 제어량을 결정하고, 이 제어량에 따라 구동부(103)를 제어한다. 그 결과, 기계적 광학부(1011)는, 구동부(103)에 의해 구동된다.The AF evaluation value detection section 1021 calculates an AF evaluation value (control information) in accordance with the contrast information obtained from the digital image signal, and outputs the AF evaluation value to the control section 106. [ The control unit 106 determines the control amount of the mechanical optical unit 1011 based on the AF evaluation value, and controls the driving unit 103 in accordance with the control amount. As a result, the mechanical optical portion 1011 is driven by the driving portion 103. [

신호 처리부(104)는, 상기의 디지털 화상신호에 대하여, 예를 들면 화질보정처리를 실행해서 카메라 스루(through) 화상신호를 생성하고, 해당 카메라 스루 신호를 제어부(106)를 거쳐 화상표시부(109)에 보낸다. 그 결과, 화상표시부(109)는 상기 카메라 스루 화상신호에 대응한 카메라 스루 화상을 표시할 수 있어서, 유저는 그 카메라 스루 화상을 보면서 화각 조정을 행할 수 있다.The signal processing unit 104 generates a camera through image signal by executing, for example, image quality correction processing on the digital image signal, and outputs the camera through signal to the image display unit 109 ). As a result, the image display unit 109 can display the camera through image corresponding to the camera through image signal, so that the user can adjust the angle of view while viewing the camera through image.

이 상태에서, 조작부(108)의 셔터 릴리즈 버튼이 눌려지면, 제어부(106)의 제어하에서, 촬상소자(102)로부터의 1프레임분의 촬상신호(디지털 화상신호)가 신호 처리부(104)에 받아들여진다. 신호 처리부(104)는, 상기 1프레임분의 디지털 화상신호에 대해 화질보정처리를 실행하고, 처리후의 디지털 화상신호(화상 데이터)를 압축 신장부(105)에 보낸다.In this state, when the shutter release button of the operation unit 108 is pressed, an image pickup signal (digital image signal) for one frame from the image pickup device 102 is received by the signal processing unit 104 under the control of the control unit 106 . The signal processing unit 104 performs image quality correction processing on the digital image signal for one frame and sends the processed digital image signal (image data) to the compression expansion unit 105. [

압축 신장부(105)는 화상 데이터 압축 부호화하고, 부호화된 화상 데이터를 제어부(106)를 거쳐 화상기록부(110)에 보낸다. 그 결과, 촬상된 정지화상에 관련되는 화상 파일이 화상기록부(110)에 기록된다.The compression decompression unit 105 compresses the image data and sends the encoded image data to the image recording unit 110 via the control unit 106. [ As a result, an image file related to the captured still image is recorded in the image recording section 110. [

화상기록부(110)에 기록된 화상 파일을 재생하는 경우에, 제어부(106)는, 조작부(108)로부터의 조작 입력에 따라 선택된 화상 파일을 화상기록부(110)로부터 판독한다. 그리고, 제어부(106)는 해당 화상 파일을 신장 복호화 처리를 실행하는 압축 신장부(105)에 보낸다.When reproducing the image file recorded in the image recording unit 110, the control unit 106 reads the selected image file from the image recording unit 110 in accordance with the operation input from the operation unit 108. [ Then, the control unit 106 sends the image file to the compression / decompression unit 105 that executes the decompression decoding process.

복호된 화상 데이터는, 제어부(106)를 거쳐 화상표시부(109)에 보내진다. 그 결과, 화상표시부(109)에는 화상 데이터에 대응한 정지화상이 재생 표시된다.The decoded image data is sent to the image display unit 109 via the control unit 106. [ As a result, the still image corresponding to the image data is reproduced and displayed on the image display section 109. [

동화상 데이터를 기록하는 경우에, 제어부(106)의 제어하에서 촬상소자(102)로부터 출력된 디지털 화상신호가 신호 처리부(104)에 받아들여진다. 신호 처리부(104)에서 순차로 처리된 화상 데이터는 압축 신장부(105)에서 압축 부호화 처리된다. 그 후, 압축 신장부(105)로부터 부호화된 동화상 데이터가 순차로 화상기록부(110)에 전송되어서 동화상 파일로서 기록된다.The digital image signal outputted from the image sensing element 102 under the control of the control section 106 is received in the signal processing section 104. In this case, The image data sequentially processed by the signal processing unit 104 is compression-encoded by the compression unit 105. [ Thereafter, the moving image data encoded by the compression / expansion unit 105 is sequentially transferred to the image recording unit 110 and recorded as a moving image file.

화상기록부(110)에 기록된 동화상 파일을 재생하는 경우에, 제어부(106)는, 조작부(108)로부터의 조작 입력에 따라, 상기 선택된 동화상 파일을 화상기록부(110)로부터 판독한다. 그 후, 제어부(106)는 해당 동화상 파일을 신장 복호화 처리를 실행하는 압축 신장부(105)에 보낸다. 복호된 동화상 데이터는 제어부(106)를 거쳐 화상표시부(109)에 보내진다. 그 결과, 화상표시부(109)에는 동화상 데이터에 대응한 동화상이 재생 표시된다.The control unit 106 reads the selected moving image file from the image recording unit 110 in accordance with an operation input from the operation unit 108. The control unit 106 reads the moving image file recorded in the image recording unit 110, Then, the control unit 106 sends the moving image file to the compression / expansion unit 105 that executes the decompression decoding process. The decoded moving image data is sent to the image display unit 109 via the control unit 106. [ As a result, the moving image corresponding to the moving image data is reproduced and displayed on the image display section 109. [

이제, 종래의 촬상장치에 있어서의 촬상화상으로부터 평가값을 산출하면서, 표시 화상을 표시하는 기술과 이에 관련되는 과제를 함께 설명한다. 종래의 촬상장치에 있어서 포커스 제어에 사용하는 피사체의 위치 정보를 얻기 위해서는, 촬상소자로부터 출력된 화상신호에 따라 그 위치 정보를 얻는다. 또한, 피사체로부터 광신호를 전용의 검출장치에 직접 입력하고, 그 광신호가 나타낸 화상에 있어서의 위상차를 사용하여, 상기 위치 정보를 얻는다. 그 화상신호에 따라 위치 정보를 얻는 경우에는, 전용의 검출장치가 불필요하기 때문에, 촬상장치를 소형화할 수 있다.Now, a description will be given of a technique for displaying a display image while calculating an evaluation value from a captured image in a conventional image pickup apparatus, and problems related thereto. In order to obtain the positional information of the subject used in the focus control in the conventional image pickup apparatus, the positional information is obtained in accordance with the image signal output from the image pickup element. Further, an optical signal is directly input from a subject to a dedicated detection device, and the positional information is obtained by using a phase difference in an image represented by the optical signal. In the case where position information is obtained in accordance with the image signal, a dedicated detection device is unnecessary, so that the image pickup apparatus can be downsized.

도 10은, 종래의 촬상장치에 있어서 라이브 뷰를 위한 오토 포커스 촬상동작(AF평가 촬상)의 타이밍을 나타내는 설명도다.10 is an explanatory diagram showing the timing of an autofocus imaging operation (AF evaluation imaging) for a live view in a conventional imaging apparatus.

종래의 촬상장치에 있어서는, 수직동기신호(Vertical Driving Pulse:VD)에 의해 촬상 타이밍이 규정되어 있다. AF제어신호가 온(on)이 되면, 라이브 뷰 촬상기간후의 VD에 따라 AF평가용 화상이 촬상된다. 그 AF제어신호가 오프(off)가 되면, 다시 라이브 뷰 촬상기간이 시작된다.In the conventional imaging apparatus, the imaging timing is defined by a vertical driving pulse (VD). When the AF control signal is turned on, an AF evaluation image is captured in accordance with VD after the live view imaging period. When the AF control signal is turned off, the live view imaging period starts again.

이렇게, 라이브 뷰용 화상을 얻는 라이브 뷰 촬상기간과 AF평가용 화상을 얻는 AF동작 기간이 시간축을 따라 직렬로 존재하므로, 라이브 뷰용 화상과 AF평가용 화상을 동시에 촬상할 수는 없다.In this way, since the live view imaging period for obtaining the live view image and the AF operation period for obtaining the AF evaluation image exist in series along the time axis, it is not possible to simultaneously capture the live view image and the AF evaluation image.

이 때문에, 도면에 나타낸 바와 같이 라이브 뷰 기간(프레임)의 사이에 위치하는 AF동작 기간동안에 AF평가용 화상이 촬상된다. 따라서, 라이브 뷰용 화상과 AF평가용 화상과의 사이에 시간 지연이 생긴다.Therefore, as shown in the figure, the AF evaluation image is captured during the AF operation period located between the live view periods (frames). Therefore, there is a time delay between the live view image and the AF evaluation image.

덧붙여, AF평가용 화상을 촬상할 때에도 라이브 뷰 표시를 행하지지만, 이 경우에 AF평가용 화상에 따라 라이브 뷰 표시가 행해진다. 도 10에 나타나 있는 바와 같이, AF평가용 화상을 촬상할 때, 라이브 뷰 촬상기간보다도 프레임 레이트(frame rate)가 높다. 이에 따라, 촬상소자의 판독에 있어서는 선별율이 높아지고, 불가피하게 화질이 저하하게 된다. 이 과제를 회피하기 위해서, 일부의 촬상소자는, 예를 들면, 초점신호 검출용 화소를 촬상신호용 화소와는 별도로 설치하는 화소부를 갖는다.Incidentally, even when capturing an AF evaluation image, live view display is performed, but in this case, live view display is performed according to the AF evaluation image. As shown in Fig. 10, when capturing an AF evaluation image, the frame rate is higher than the live view image capture period. As a result, in the reading of the image pickup device, the screening rate is increased and inevitably the image quality is lowered. In order to avoid this problem, some of the imaging elements have, for example, a pixel portion for setting the focus signal detection pixel separately from the imaging signal pixel.

본 실시예에서는, 상기 과제를 감안하여, 도 2a 및 2b에 나타나 있는 바와 같은 촬상소자(102)를 제공한다. 촬상소자(102)는, 화상신호로부터 얻어진 평가값 혹은 그 평가값에 근거하는 제어 정보를 표시용의 화상신호와 병행해서 생성하여, 처리 시간을 단축하고 처리 부하를 경감하도록 구성된다.In the present embodiment, an image pickup device 102 as shown in Figs. 2A and 2B is provided in view of the above problems. The image pickup element 102 is configured to generate control information based on the evaluation value obtained from the image signal or the evaluation value thereof in parallel with the image signal for display, thereby shortening the processing time and reducing the processing load.

도 2a 및 2b는, 도 1에 나타낸 촬상소자(102)의 구성을 나타내는 설명도다. 도 2a는 촬상소자(102)의 구조를 나타낸 사시도이며, 도 2b는 그 구성을 나타낸 블록도다.2A and 2B are explanatory diagrams showing the configuration of the imaging element 102 shown in Fig. 2A is a perspective view showing a structure of an image pickup device 102, and FIG. 2B is a block diagram showing the structure thereof.

도 2a에 있어서, 촬상소자(102)는 제1 칩(화소부)(20) 및 제2 칩(21)을 가진다. 제2 칩(제2 소자부)(21) 위에 제1 칩(제1 소자부)(20)이 적층되어 있다. 매트릭스 모양으로 배열된 복수의 화소(201)를 갖는 제1 칩(20)은, 광입사측에 배치되어 있다(즉, 광학상의 수광측에 위치하고 있다).In Fig. 2A, the image pickup device 102 has a first chip (pixel portion) 20 and a second chip 21. A first chip (first element portion) 20 is laminated on a second chip (second element portion) 21. The first chip 20 having a plurality of pixels 201 arranged in a matrix shape is disposed on the light incident side (that is, on the light receiving side of the optical image).

제2 칩(21)은, 후술하는 열주사 회로 213-a 및 213-b와 행주사 회로(212)를 구비한 화소구동부가 위에 형성되어 있다. 전술한 AF평가값 검출부(제어 정보 생성부)(1021)도 제2 칩(21) 위에 형성되어 있다.The second chip 21 is formed with a pixel driver provided thereon with column scanning circuits 213-a and 213-b and a column scanning circuit 212 described later. The above-described AF evaluation value detector (control information generator) 1021 is also formed on the second chip 21.

이렇게, 제1 칩(20)에 화소(201)를 형성하고, 제2 칩(21)에 화소구동부 및 AF평가값 검출부(1021)를 형성하므로, 촬상소자(102)의 주변회로 및 화소부의 제조 프로세스를 분배할 수 있다. 따라서, 주변회로에 있어서의 배선의 세선화 및 고밀도화로의 경향은, 고속화, 소형화 및 고성능화를 실현할 수 있다.Since the pixel 201 is formed on the first chip 20 and the pixel driver and the AF evaluation value detecting section 1021 are formed on the second chip 21 in this way, Process can be distributed. Therefore, the tendency toward thinning and densification of wirings in peripheral circuits can realize high speed, small size, and high performance.

도 2b에 나타나 있는 바와 같이, 제1 칩(20)에 있어서, 화소(201)는 매트릭스 모양으로 배열되어 있다. 화소(201) 각각은, 수평방향(행 방향)으로 전송 신호선(203), 리셋트 신호선(204), 및 행 선택 신호선(205)에 접속되고, 수직방향(열방향)으로 열 신호선 202-a 및 202-b에 접속되어 있다. 이때, 열 신호선 202-a 및 202-b는 판독행 단위로 접속처가 서로 다르다.As shown in Fig. 2B, in the first chip 20, the pixels 201 are arranged in a matrix shape. Each of the pixels 201 is connected to the transfer signal line 203, the reset signal line 204 and the row select signal line 205 in the horizontal direction (row direction), and the column signal line 202-a And 202-b. At this time, the column signal lines 202-a and 202-b are connected to each other in units of read rows.

도면에 나타낸 바와 같이, 화소(201)의 각각은, 광전변환소자인 포토다이오드PD, 전송 트랜지스터M1, 리셋트 트랜지스터M2, 증폭 트랜지스터M3, 선택 트랜지스터M4 및 플로팅 디퓨전FD를 가지고 있다.As shown in the figure, each of the pixels 201 has a photodiode PD as a photoelectric conversion element, a transfer transistor Ml, a reset transistor M2, an amplification transistor M3, a selection transistor M4, and a floating diffusion FD.

도면에 나타낸 예에서, 상기 트랜지스터 각각은, n채널MOS 전계효과 트랜지스터(MOS FET)다.In the example shown in the figure, each of the transistors is an n-channel MOS field effect transistor (MOS FET).

상기 전송 트랜지스터M1, 리셋트 트랜지스터M2 및 선택 트랜지스터M4의 게이트에는, 각각 전송 신호선(203), 리셋트 신호선(204), 및 행 선택 신호선(205)이 접속되어 있다. 이것들 신호선(203∼205)은 수평방향으로 연장하고, 동일행의 화소가 동시에 구동된다. 이것에 의해, 라인 순차 동작형의 롤링 셔터의 동작을 제어하여, 소정의 행마다 노출 시간을 바꾸어서 촬상할 수 있다. 또는, 전체 행 동시 동작형의 글로벌 셔터의 동작을 제어할 수 있다.A transfer signal line 203, a reset signal line 204, and a row select signal line 205 are connected to the gates of the transfer transistor Ml, the reset transistor M2, and the select transistor M4, respectively. These signal lines 203 to 205 extend in the horizontal direction, and the pixels on the same line are simultaneously driven. Thereby, the operation of the rolling shutter of the line sequential operation type can be controlled, and the image can be captured while changing the exposure time for each predetermined row. Alternatively, it is possible to control the operation of the global shutter of the all-row simultaneous operation type.

한층 더, 선택 트랜지스터M4의 소스에는 열 신호선 202-a 또는 202-b가 행단위로 접속되어 있다.Furthermore, the source of the selection transistor M4 is connected to the column signal line 202-a or 202-b on the row.

포토다이오드PD는, 광전변환에 의해 생성된 전하를 축적한다. 포토다이오드PD의 P측이 접지되고, N측이 전송 트랜지스터M1의 소스에 접속되어 있다. 전송 트랜지스터M1이 온 하면, 포토다이오드PD의 전하가 FD에 전송된다. FD에는 기생 용량이 존재하므로, FD에 전송된 전하가 축적된다.The photodiode PD accumulates the charges generated by the photoelectric conversion. The P side of the photodiode PD is grounded and the N side is connected to the source of the transfer transistor M1. When the transfer transistor M1 is turned on, the charge of the photodiode PD is transferred to the FD. Since the parasitic capacitance exists in the FD, the charges transferred to the FD are accumulated.

증폭 트랜지스터M3의 드레인에는 전원전압Vdd가 인가되고, 그 증폭 트랜지스터M3의 게이트는 상기 FD에 접속되어 있다. 증폭 트랜지스터M3은, FD의 전하(즉, 전압)를 증폭해서 전압신호로 변환한다. 선택 트랜지스터M4는, 신호를 판독하는 화소를 행단위로 선택하기 위한 것이다. 그 선택 트랜지스터M4의 드레인은 증폭 트랜지스터M3의 소스에 접속되어 있다. 선택 트랜지스터M4의 소스는 열 신호선(202)에 접속되어 있다.The power supply voltage Vdd is applied to the drain of the amplifying transistor M3, and the gate of the amplifying transistor M3 is connected to the FD. The amplifying transistor M3 amplifies the charge (i.e., voltage) of the FD and converts it into a voltage signal. The selection transistor M4 is for selecting a pixel for reading a signal on a row. The drain of the selection transistor M4 is connected to the source of the amplifying transistor M3. The source of the selection transistor M4 is connected to the column signal line 202. [

선택 트랜지스터M4가 온 하면, FD의 전압에 대응하는 전압신호가 열 신호선(202)에 출력된다. 리셋트 트랜지스터M2의 드레인에는 전원전압Vdd가 인가되고, 그 소스는 FD에 접속되어 있다. 리셋트 트랜지스터M2가 온 하면, FD의 전압은 전원전압Vdd에 리셋트된다.When the selection transistor M4 is turned on, a voltage signal corresponding to the voltage of the FD is outputted to the column signal line 202. [ A power supply voltage Vdd is applied to the drain of the reset transistor M2, and the source of the reset transistor M2 is connected to the FD. When the reset transistor M2 is turned on, the voltage of the FD is reset to the power supply voltage Vdd.

제2 칩(21)은, 칼럼ADC블록(211)을 구비하고, 이 칼럼ADC블록은 열 신호선 202-a 또는 202-b에 접속되어 있다. 제2 칩(21)에는, 행주사 회로(212), 열주사 회로213-a 및 213-b, 타이밍 제어부(214), 수평신호선(출력부)215-a 및 215-b, 전환 스위치(216), 프레임 메모리(217), 및 AF평가값 검출부(1021)가 더 구비되어 있다.The second chip 21 includes a column ADC block 211, which is connected to the column signal line 202-a or 202-b. The second chip 21 is provided with a row scanning circuit 212, column scanning circuits 213-a and 213-b, a timing control unit 214, horizontal signal lines (output units) 215-a and 215- ), A frame memory 217, and an AF evaluation value detecting section 1021. [

타이밍 제어부(214)는 제어부(106)의 제어하에서 행주사 회로(212), 열주사 회로213-a 및 213-b, 및 칼럼ADC블록(211)의 동작 타이밍을 제어한다. 행주사 회로(212)는 각 행을 주사하고, 열주사 회로213a 및 213b는 각각 각 열을 주사한다.The timing controller 214 controls the operation timings of the column scan circuit 212, the column scan circuits 213-a and 213-b, and the column ADC block 211 under the control of the control unit 106. [ The row scanning circuit 212 scans each row, and the column scanning circuits 213a and 213b scan each column.

수평신호선215-a 및 215-b는, 열주사 회로213-a 및 213-b 각각에서 제어된 타이밍에 따라 칼럼ADC블록(211)의 출력 신호(화상신호)를 전송한다.The horizontal signal lines 215-a and 215-b transmit output signals (image signals) of the column ADC block 211 in accordance with the timings controlled by the column scanning circuits 213-a and 213-b, respectively.

프레임 메모리(217)는 수평신호선(215-b)으로부터 출력되는 화상신호를 일시적으로 기억한다. AF평가값 검출부(1021)는 프레임 메모리(217)에 기억된 화상신호에 따라 AF평가를 행하고, 그 AF평가값을 제어부(106)에 보낸다.The frame memory 217 temporarily stores image signals output from the horizontal signal line 215-b. The AF evaluation value detection section 1021 performs AF evaluation in accordance with the image signal stored in the frame memory 217 and sends the AF evaluation value to the control section 106. [

전환 스위치(216)는 수평신호선(215-b)에 출력되는 화상신호를 AF평가값 검출부(1021) 및 신호 처리부(104)의 어느 한쪽에 선택적으로 출력하는 스위치다.The changeover switch 216 is a switch for selectively outputting the image signal output to the horizontal signal line 215-b to either the AF evaluation value detection unit 1021 or the signal processing unit 104. [

이때, 수평신호선(215-a)에 전송된 화상신호는 신호 처리부(104)에 주어진다.At this time, the image signal transmitted to the horizontal signal line 215-a is given to the signal processing unit 104. [

도 3은, 도 2a 및 2b에 나타낸 제1 칩(20)에 있어서 열 신호선 202-a 또는 202-b에 있어서의 화소선택을 나타내는 설명도다.Fig. 3 is an explanatory diagram showing pixel selection in the column signal line 202-a or 202-b in the first chip 20 shown in Figs. 2A and 2B.

도 3은, 6행×8열의 화소부를 나타내고, 여기에서 각 화소는 베이어(Bayer) 배열에 따라 배열되어 있다.Fig. 3 shows a pixel portion of 6 rows x 8 columns, where each pixel is arranged according to a Bayer arrangement.

도 1에 나타낸 조작부(108)의 조작에 의해 포커스 제어 모드가 온되면, 제어부(106)는 촬상소자(102)에 있어서의 판독행을 나눈다(즉, 전환 스위치(216)의 전환을 제어하여, 수평신호선 215-b를 프레임 메모리(217)에 접속한다). 따라서, 라이브 뷰용 촬상(제2 촬상 모드) 및 AF평가값 검출 촬상(제1 촬상 모드)을 동시에 행할 수 있다.When the focus control mode is turned on by the operation of the operation unit 108 shown in Fig. 1, the control unit 106 divides the reading row in the imaging element 102 (i.e., controls the switching of the selector switch 216, The horizontal signal line 215-b is connected to the frame memory 217). Therefore, the live view imaging (second imaging mode) and the AF evaluation value detection imaging (first imaging mode) can be performed at the same time.

이에 따라, 라이브 뷰용의 화상신호(제2 화상신호 즉, 화상표시신호)는 열 신호선 202-a에 출력되고, AF평가 검출용의 화상신호(제1 화상신호)는 열 신호선 202-b에 출력된다.Thus, an image signal for a live view (second image signal, that is, an image display signal) is output to the column signal line 202-a, and an image signal for AF evaluation detection (first image signal) do.

도 3에 있어서, 행번호 1 및 2는 AF평가값 검출 촬상을 위한 행(제1 화소군)이며, 행번호 3∼8은 라이브 뷰 촬상을 위한 행(제2 화소군)이다. 도면에 나타낸 예에서는, 판독 주사가 행단위로 순차로 행해지고, 8행단위로 반복적으로 판독 주사가 이루어지게 된다.In Fig. 3, row numbers 1 and 2 are rows (first pixel group) for AF evaluation value detection imaging, and row numbers 3 to 8 are rows (second pixel group) for live view imaging. In the example shown in the figure, read-out scanning is performed sequentially on a row-by-row basis, and read-out scanning is repeatedly performed on the 8th row.

AF평가값 검출 촬상에서는, 프레임 레이트 중시 때문에 수직동색 4화소중 3화소(4라인 중 3라인)를 선별 판독한다. 한편, 라이브 뷰용 촬상에서는, 화질중시 때문에, 나머지의 수직동색 4화소중 1화소(4라인 중 1라인)를 선별해 3화소를 가산한다.In the AF evaluation value detection imaging, three pixels (three lines out of four lines) among the four pixels of the vertical same color are selected for reading because of the importance of the frame rate. On the other hand, in the imaging for live view, one pixel (one line out of four lines) of the remaining four pixels of the same vertical color is selected for image quality, and three pixels are added.

Figure 112016095146310-pat00001
Figure 112016095146310-pat00001

Figure 112016095146310-pat00002
Figure 112016095146310-pat00002

바꿔 말하면, AF평가값 검출 촬상에 있어서는, 제1 화소군을 제1 프레임 레이트로 판독한다. 라이브 뷰 촬상에서는, 제2 화소군을 제1 프레임 레이트보다도 느린 제2 프레임 레이트로 판독한다.In other words, in the AF evaluation value detection imaging, the first pixel group is read at the first frame rate. In live view imaging, the second pixel group is read at a second frame rate which is slower than the first frame rate.

전술한 바와 같이, 선택행마다 AF주사 촬상과 라이브 뷰 촬상을 나눔으로써, 다른 전하축적 시간에서 데이터 사이즈가 다른 프레임 레이트의 화상신호를 취득할 수 있다.As described above, by dividing the AF scanning imaging and the live view imaging for each selected row, it is possible to acquire an image signal having a different data size at different charge accumulation time.

다음에, 열 신호선 202-a 및 202-b에 출력된 전압신호(아날로그 신호)는, 도 2b에 나타낸 칼럼ADC블록(211)에 있어서 아날로그 신호로부터 디지털 신호(화상신호)로 변환된다.Next, the voltage signal (analog signal) output to the column signal lines 202-a and 202-b is converted from an analog signal to a digital signal (image signal) in the column ADC block 211 shown in Fig. 2B.

칼럼ADC블록(211)의 출력인 화상신호는, 열주사 회로 213-a 또는 213-b에 의해 칼럼ADC블록(211)으로부터 수평신호선 215-a 또는 215-b에 판독된다. 수평신호선 215-a에 판독된 화상신호는 신호 처리부(104)에 보내진다.The image signal which is the output of the column ADC block 211 is read out from the column ADC block 211 to the horizontal signal line 215-a or 215-b by the column scanning circuit 213-a or 213-b. The image signal read to the horizontal signal line 215-a is sent to the signal processing unit 104. [

한편, 수평신호선 215-b에 판독된 화상신호는, 스위치(216)에 출력되고, 제어부(106)의 제어에 따라 신호 처리부(104) 또는 프레임 메모리(217)에 출력된다. 이때, 전환 스위치(216)는, 프레임 단위로 전환된다.On the other hand, the image signal read out to the horizontal signal line 215-b is output to the switch 216 and outputted to the signal processing unit 104 or the frame memory 217 under the control of the control unit 106. [ At this time, the changeover switch 216 is switched on a frame-by-frame basis.

이 경우에, 정지 화상의 촬영에서는 선별하지 않고 화소신호를 판독하므로, 스위치(216)는 신호 처리부(104)와 연결된 경로로 전환된다.In this case, since the pixel signal is read without taking a picture in the still image shooting, the switch 216 is switched to the path connected to the signal processing unit 104. [

한편, AF평가 모드(즉, 오토 포커스 제어 모드)에서, 수평신호선 215-b로부터 전환 스위치(216)를 거쳐 프레임 메모리(217)에 화상신호가 기록되고, AF평가값 검출부(1021)는 프레임 메모리(217)에 기록된 화상신호에 있어서의 콘트라스트 정보에 의거하여 AF평가값을 검출한다. AF평가값은 피사체의 포커스 정보다. 그 포커스 정보는, 콘트라스트 정보, 기계적 광학부(1011)내의 AF기구부에 있어서의 디포커스 이동량, 또는 AF기구부의 제어 정보로 구성된다. AF평가값은, 다수 화소의 AF평가값용 화상 데이터와 비교하여 데이터량면에서 충분히 작다. 이 AF평가값은 AF평가값 검출부(1021)로부터 제어부(106)에 보내진다.On the other hand, in the AF evaluation mode (i.e., the autofocus control mode), an image signal is recorded from the horizontal signal line 215-b to the frame memory 217 via the changeover switch 216, The AF evaluation value is detected based on the contrast information in the image signal recorded on the recording medium 217. The AF evaluation value is the focus information of the subject. The focus information is composed of contrast information, defocus movement amount in the AF mechanism section in the mechanical optical section 1011, or control information of the AF mechanism section. The AF evaluation value is sufficiently small in terms of the data amount as compared with the image data for the AF evaluation value of the plurality of pixels. This AF evaluation value is sent from the AF evaluation value detection section 1021 to the control section 106. [

이렇게, 본 실시예에 있어서 AF평가값 검출부(1021)는, 칩(21)에 내장되어, 전력 절약, 고속처리 및 저비용 설계를 달성한다. 대부분의 경우에, 칩(21)과, 신호 처리부(104) 또는 제어부(106)는, 별도의 기판에 배치되어, 칩간의 통신에 있어서 배선의 저항성분과 용량성분이 많아진다. 이에 따라, 칩내의 배선에서의 통신과 비교하여 통신속도가 저하된다. 고속 신호를 송출하기 위해서는, 신호 파형 품질을 유지하기 위해서 앰프로 구동할 필요가 있는등, 구동전력을 상승시킬 필요가 있다.Thus, in this embodiment, the AF evaluation value detection section 1021 is embedded in the chip 21 to achieve power saving, high-speed processing, and low-cost design. In most cases, the chip 21 and the signal processing unit 104 or the control unit 106 are disposed on separate substrates, and the resistance component and the capacitance component of the wiring are increased in the inter-chip communication. As a result, the communication speed is lowered as compared with the communication in the wiring in the chip. In order to transmit a high-speed signal, it is necessary to drive it with an amplifier in order to maintain the signal waveform quality.

본 실시예에 있어서, 동일 반도체 칩 위에 AF평가값 검출부(1021)가 상기 칩(21)과 함께 배치되어 있으므로, 화상 데이터의 출력 선을 보다 짧게 할 수 있고, 또한 상기 앰프의 배치도 생략할 수 있다. 덧붙여, AF평가값 자체도 데이터량이 적으므로, 촬상소자(102)와 제어부(106)간의 통신에 걸린 시간이 짧아지고, 이에 따라서 소비 전력의 저하를 꾀할 수 있다.In this embodiment, since the AF evaluation value detecting section 1021 is disposed together with the chip 21 on the same semiconductor chip, the output line of the image data can be made shorter and the arrangement of the amplifiers can be omitted . In addition, since the AF evaluation value itself has a small amount of data, the time taken for communication between the image pickup device 102 and the control unit 106 is shortened, and consequently power consumption can be reduced.

이하의 설명에서는, 촬상시에, 열 신호선 202-a 및 수평신호선 215-a에 의한 출력 경로를 채널Ch1이라고 부르고, 열 신호선 202-b 및 수평신호선 215-b에 의한 출력 경로를 채널Ch2이라고 부른다.In the following description, an output path by the column signal line 202-a and the horizontal signal line 215-a is called a channel Ch1, and an output path by the column signal line 202-b and the horizontal signal line 215-b is called a channel Ch2 .

도 4는, 도 1에 나타낸 카메라(100)에 있어서의 AF평가 모드에서의 촬상 타이밍을 설명하기 위한 타이밍도다.4 is a timing chart for explaining the imaging timing in the AF evaluation mode in the camera 100 shown in Fig.

도 4에 나타낸 바와 같이, 수직동기신호VD에 의해 촬상 타이밍이 규정되어 있다. AF평가 모드가 온 되면, 제어부(106)는 시각T0의 수직동기신호VD의 하강에지(edge)에서 AF제어신호, 채널Ch1을 사용한 라이브 뷰 촬상, 및 채널Ch2를 사용한 AF평가용 촬상을 동시에 시작한다.As shown in Fig. 4, the imaging timing is defined by the vertical synchronization signal VD. When the AF evaluation mode is turned on, the control unit 106 simultaneously starts the AF control signal at the falling edge of the vertical synchronization signal VD at time T0, the live view imaging using the channel Ch1, and the AF evaluation imaging using the channel Ch2 do.

기간T0∼TF1에서, 채널Ch2를 거쳐 화소부(20)로부터 판독된 AF평가용 화상신호는, 수평신호선(215-b) 및 전환 스위치(216)를 거쳐 프레임 메모리(217)에 보존된다. 그후, 기간TF1∼TF2에 있어서, AF평가값 검출부(1021)는 프레임 메모리(217)에 보존된 AF용 화상신호에 따라 AF평가값을 검출한다. 그 후, 기간TF2∼TF3에 있어서, AF평가값 검출부(1021)는 AF평가값을 제어부(106)에 출력한다.The AF evaluation image signal read from the pixel portion 20 through the channel Ch2 in the periods T0 to TF1 is stored in the frame memory 217 via the horizontal signal line 215-b and the changeover switch 216. [ Thereafter, in the periods TF1 to TF2, the AF evaluation value detection section 1021 detects the AF evaluation value in accordance with the AF image signal stored in the frame memory 217. [ Thereafter, in the periods TF2 to TF3, the AF evaluation value detection section 1021 outputs the AF evaluation value to the control section 106. [

도면에 나타낸 예에서는, 1수직동기신호VD의 기간 동안에, 라이브 뷰가 1프레임분 촬상되고, AF평가(AF주사)가 3프레임분 촬상된다. 제어부(106)가 수직동기신호VD를 L레벨이라고 하면(시간T1), AF평가가 종료한다.In the example shown in the figure, during the period of one vertical synchronizing signal VD, live view is taken for one frame, and AF evaluation (AF scanning) for three frames. When the control section 106 sets the vertical synchronization signal VD to the L level (time T1), the AF evaluation is ended.

상기한 바와 같이, 도 1에 나타낸 카메라(100)는, AF평가 모드에서, 신호 처리부(104)를 거쳐 화상 데이터를 제어부(106)에 보내서 AF평가값을 얻을 필요가 없다. 달리 말하면, 데이터량이 적은 AF평가값을 촬상소자(102)로부터 직접 제어부(106)에 출력한다. 따라서, 부하를 저감하여 전력 삭감을 행할 수 있다.As described above, in the AF evaluation mode, the camera 100 shown in Fig. 1 does not need to send the image data to the control unit 106 via the signal processing unit 104 to obtain the AF evaluation value. In other words, the AF evaluation value with a small amount of data is directly output from the image pickup element 102 to the control section 106. [ Therefore, the load can be reduced and the power consumption can be reduced.

제어부(106)는 그 AF평가값과 후술하는 소정의 AF기대값과를 비교하고, AF평가값이 AF기대값을 만족하면, AF제어신호를 하강시킨다(시간T1). AF제어신호가 하강되면, AF평가용 촬상만이 정지하고, 라이브 뷰 촬상이 계속된다.The control unit 106 compares the AF evaluation value with a predetermined AF expectation value to be described later, and when the AF evaluation value satisfies the AF expectation value, the AF control signal is lowered (time T1). When the AF control signal is lowered, only AF evaluation imaging stops, and live view imaging continues.

도 5는, 도 1에 나타낸 카메라(100)에 있어서의 제어를 설명하기 위한 흐름도다. 이때, 도면에 나타낸 흐름도는 제어부(106)의 제어하에서 행해진다.Fig. 5 is a flowchart for explaining control in the camera 100 shown in Fig. At this time, the flowchart shown in the figure is performed under the control of the control unit 106. [

카메라(100)의 전원이 온이고 스탠바이 상태(즉, 촬상전의 촬상준비 상태)가 되면, 제어부(106)는 AF평가 모드가 시행되는지를 판정한다(단계S502). 즉, 제어부(106)는 오토포커스 모드가 설정되어 있는 것인가 아닌가를 판정한다.When the power of the camera 100 is on and the standby state (that is, the imaging preparation state before imaging) is reached, the control unit 106 determines whether the AF evaluation mode is executed (step S502). That is, the control unit 106 determines whether or not the autofocus mode is set.

AF평가 모드가 시행되지 않으면(단계S502에 있어서, NO), 제어부(106)는 라이브 뷰 촬상을 시작해서(단계S503), 후술한 단계S515에 진행된다.If the AF evaluation mode is not performed (NO in step S502), the control unit 106 starts live view imaging (step S503) and proceeds to step S515 described later.

AF평가 모드가 시행된다고 판단되면(단계S502에 있어서, YES), 제어부(106)는 AF제어신호를 온(H레벨)으로 한다(단계S504). 다음에, 제어부(106)는 AF평가 촬상횟수를 카운트하기 위한 변수n에 0을 대입한다(단계S505).If it is determined that the AF evaluation mode is to be executed (YES in step S502), the control unit 106 turns on the AF control signal (H level) (step S504). Next, the control unit 106 substitutes 0 for the variable n for counting the AF evaluation imaging count (step S505).

다음에, 도 4에서 설명한 바와 같이, 제어부(106)는 AF평가 촬상을 시작하고(단계S506), 또한 단계S516에 있어서 라이브 뷰 촬상을 시작한다.Next, as described in Fig. 4, the control unit 106 starts AF evaluation imaging (step S506), and also starts live view imaging in step S516.

AF평가 촬상을 시작한 후, 제어부(106)는 변수n을 1만큼 증분한다(단계S507). 그 후, 제어부(106)의 제어하에서, AF평가값 검출부(1021)는 AF평가 촬상에 의해 얻어진 AF평가용 화상신호에 따라 AF평가값AF_K를 검출한다(단계S508).After AF evaluation imaging is started, the control unit 106 increments the variable n by 1 (step S507). Thereafter, under the control of the control unit 106, the AF evaluation value detection unit 1021 detects the AF evaluation value AF_K in accordance with the AF evaluation image signal obtained by the AF evaluation imaging (step S508).

다음에, 제어부(106)는, AF평가값AF_K가 AF기대값 K_min 및 K_max에 대하여 다음 식(1), 즉, 소정의 평가 조건을 충족시키는 것인가 아닌가를 판정한다(단계S509).Next, the control unit 106 determines whether or not the AF evaluation value AF_K satisfies the following equation (1), that is, the predetermined evaluation condition, with respect to the AF expected values K_min and K_max (step S509).

K_min <AF_K <K_max (1)K_min < AF_K < K_max (1)

여기에서, AF기대값 K_min 및 K_max는, 기대되는 AF평가값의 최소값 및 최대값을 나타내고, 카메라(100)의 설계시 또는 카메라(100)의 조정시에 제어부(106)에 미리 기록된다.Here, the AF expected values K_min and K_max represent the minimum and maximum values of the expected AF evaluation values and are recorded in advance in the control unit 106 at the time of designing the camera 100 or at the time of adjustment of the camera 100. [

AF평가값AF_K가 식(1)을 충족시키지 않으면(단계S509에 있어서, NO), 제어부(106)는 상기의 AF평가값AF_K에 따라 피드백 제어량을 구한다. 그 후, 제어부(106)는 해당 피드백 제어량에 따라 구동부(103)를 구동제어해서 기계적 광학부(1011)에 구비된 포커스 렌즈를 광축을 따라 구동한다(단계S510).If the AF evaluation value AF_K does not satisfy the formula (1) (NO in step S509), the control section 106 obtains the feedback control amount in accordance with the AF evaluation value AF_K. Thereafter, the control unit 106 drives the drive unit 103 in accordance with the feedback control amount to drive the focus lens provided in the mechanical optical unit 1011 along the optical axis (step S510).

다음에, 제어부(106)는 변수(AF평가값 촬상횟수)n이 소정의 수(이 경우에는, 3)인지의 여부를 판정한다(단계S511). AF평가값 촬상횟수가 3미만이면(단계S511에 있어서, NO), 제어부(106)는 단계S506의 처리에 되돌아가서, AF평가 촬상을 행한다.Next, the control unit 106 judges whether or not the variable (the number of times AF evaluation value imaging) n is a predetermined number (3 in this case) (step S511). If the number of times of AF evaluation value imaging is less than 3 (NO in step S511), the control unit 106 returns to the process of step S506 to perform AF evaluation imaging.

AF평가값 촬상횟수가 3이면(단계S511에 있어서, YES), 제어부(106)는 라이브 뷰 표시를 행한 후(단계S512), 단계S505의 처리에 되돌아가서 AF평가값 촬상횟수n을 제로로 설정한다.If the number of times of AF evaluation value imaging is 3 (YES in step S511), the control unit 106 performs live view display (step S512) and returns to the process of step S505 to set the number of times AF evaluation value imaging n to zero do.

AF평가값AF_K가 식(1)을 충족시키면(단계S509에 있어서, YES), 제어부(106)는 AF제어신호를 오프(L레벨)로 하고(단계S513), 촬상소자(102)에 있어서의 AF평가 촬상을 정지한다(단계S514). 그 후, 제어부(106)는 촬상한 라이브 뷰용 화상신호에 대응한 화상을 화상표시부(109)에 표시하고(단계S515), 그 카메라는 대기 상태가 된다(단계S517).If the AF evaluation value AF_K satisfies the equation (1) (YES in step S509), the control section 106 turns off the AF control signal (L level) (step S513) AF evaluation imaging is stopped (step S514). Thereafter, the control unit 106 displays an image corresponding to the captured live view image signal on the image display unit 109 (step S515), and the camera is in the standby state (step S517).

도 5에 나타낸 흐름도에서는, 제어부(106)는, AF평가 촬상을 정지한 후, 단계S516의 라이브 뷰 촬상에 의해 얻어진 화상신호에 대응한 화상을 표시한다. 단계S503의 라이브 뷰 촬상을 시작하면, 제어부(106)는 단계S515의 처리로 진행되어 라이브 뷰 표시를 행한다.In the flowchart shown in Fig. 5, after the AF evaluation imaging is stopped, the control unit 106 displays an image corresponding to the image signal obtained by the live view imaging in step S516. When the live view imaging of step S503 is started, the control unit 106 proceeds to the process of step S515 to perform live view display.

전술한 바와 같이, 본 발명의 제1실시예에서는, 제2 칩(21)내에 AF평가값 검출부(1021)를 구비한다. 이에 따라, 라이브 뷰용 화상이 촬상되는 동안, 프레임 레이트가 빠른 AF평가용 화상의 촬상과 AF평가값을 산출해서 출력할 수 있다. 그 결과, AF평가를 행할 때의 시간 지연을 단축할 수 있다.As described above, in the first embodiment of the present invention, the AF evaluation value detector 1021 is provided in the second chip 21. [ Thus, while the live view image is being captured, the image pickup of the AF evaluation image with a high frame rate and the AF evaluation value can be calculated and output. As a result, the time delay in performing the AF evaluation can be shortened.

또한, AF평가에 있어서, 데이터 용량이 적은 AF평가값만이 촬상소자(102)로부터 직접 제어부(106)에 보내지므로, 신호 출력 부하가 경감되어 소비 전력을 삭감할 수 있다.In addition, in the AF evaluation, only the AF evaluation value with a small data capacity is sent from the image sensing element 102 directly to the control section 106, so that the signal output load can be reduced and the power consumption can be reduced.

상기의 실시예에서는 라이브 뷰시에 AF를 행하는 예에 관하여 설명했지만, 라이브 뷰뿐만 아니라 기타 동화상 촬영시에 있어서도 상기의 수법을 사용할 수 있다.Although the above embodiment has been described with respect to an example in which AF is performed in Live View, the above method can be used not only in live view but also in other moving images.

또한, 본 실시예에서는, AF평가값을 촬상소자(102)로부터 제어부(106)에 직접 출력하고, 제어부(106)가 AF평가값에 따라 구동부(103)에 의해 기계적 광학부(1011)를 제어한다. 그렇지만, 구동부(103)는 AF평가값에 따라 기계적 광학부(1011)를 구동제어하여도 된다.In the present embodiment, the AF evaluation value is directly output from the image pickup element 102 to the control section 106, and the control section 106 controls the mechanical optical section 1011 by the drive section 103 in accordance with the AF evaluation value do. However, the driving section 103 may drive-control the mechanical optical section 1011 in accordance with the AF evaluation value.

제2실시예Second Embodiment

이제, 본 발명의 제2실시예의 카메라의 일례에 관하여 설명한다.Now, an example of the camera of the second embodiment of the present invention will be described.

제2실시예에서의 카메라의 구성은, 촬상소자(102)의 구성이 도 2b에 나타낸 촬상소자와 다른 것을 제외하고는 도 1에 나타낸 카메라와 같다. 이하의 설명에서는, 스트로브등의 발광부에 의한 측광동작을 위한 정지 화상 촬영에 관하여 설명한다.The configuration of the camera in the second embodiment is the same as that shown in Fig. 1 except that the configuration of the imaging device 102 is different from that of the imaging device shown in Fig. 2B. In the following description, the still image photographing for the photometric operation by the light emitting portion such as the strobe will be described.

도 6은, 본 발명의 제2실시예에 따른 카메라에서 사용되는 촬상소자의 일례의 구성을 나타낸 블록도다.6 is a block diagram showing an example of the configuration of an image pickup device used in a camera according to the second embodiment of the present invention.

이때, 도 6에 있어서, 도 2a에 나타낸 촬상소자와 동일한 구성요소 부재에 대해서는 동일한 참조번호를 부착해서 설명을 생략한다.Here, in Fig. 6, the same reference numerals are attached to the same constituent elements as those of the imaging element shown in Fig. 2A, and a description thereof will be omitted.

도 6에 나타낸 촬상소자(102)에서는, 제2 칩(21)은 AF평가값 검출부(1021) 대신에 측광값 평가부(601)를 구비한다. 이 측광값 평가부(601)는 프레임 메모리(217)에 접속되고, 제어부(106)에 접속되어 있다.6, the second chip 21 includes a photometric value evaluation unit 601 instead of the AF evaluation value detection unit 1021. [ The photometric value evaluation unit 601 is connected to the frame memory 217 and is connected to the control unit 106. [

측광값 평가부(601)는, 제1 칩(20)으로부터 열 신호선 202-b 및 수평신호선 215b(즉, 채널Ch2)를 거쳐서 판독된 화상신호에 따라 색비율 및 노광 값을 측광값으로서 산출한다. 상기 측광 평가부(601)는 해당 측광값에 따라 화이트 밸런스 계수 및 발광부(107)의 발광 제어량등의 측광제어 데이터를 제어부(106)에 출력한다.The photometric value evaluating unit 601 calculates the color ratio and the exposure value as a photometric value in accordance with the image signal read from the first chip 20 via the column signal line 202-b and the horizontal signal line 215b (i.e., the channel Ch2) . The photometric evaluation unit 601 outputs the photometric data such as the white balance coefficient and the light emission control amount of the light emitting unit 107 to the control unit 106 in accordance with the photometric value.

제어부(106)는 측광제어 데이터에 따라 신호 처리부(104) 및 발광부(107)에 제어 명령을 보내고, 신호 처리부(104)에 있어서의 화이트 밸런스 보정 및 발광부(107)의 발광량을 제어한다.The control unit 106 sends a control command to the signal processing unit 104 and the light emitting unit 107 in accordance with the light metering control data and controls the white balance correction in the signal processing unit 104 and the amount of light emitted by the light emitting unit 107.

도 7은, 본 발명의 제2실시예에 있어서의 측광 평가 모드에서의 촬상 타이밍을 설명하기 위한 타이밍도다.7 is a timing chart for explaining the imaging timing in the photometric evaluation mode in the second embodiment of the present invention.

측광 평가 모드에서, 제어부(106)는 시간T70의 수직동기신호VD의 하강에지에서 수직동기신호VD에 동기해서 채널Ch1을 사용한 라이브 뷰 촬상과 채널Ch2를 사용한 측광 평가 촬상을 동시에 시작한다. 이 측광 평가 촬상에 있어서는, 화이트 밸런스 계수 및 발광부(107)의 발광 제어를 위한 측광 평가 촬상이 행해진다.In the photometric evaluation mode, the control unit 106 simultaneously starts live view imaging using the channel Ch1 and photometric evaluation imaging using the channel Ch2 in synchronization with the vertical synchronization signal VD at the falling edge of the vertical synchronization signal VD at time T70. In this photometric evaluation imaging, the white balance coefficient and photometric evaluation imaging for light emission control of the light emitting portion 107 are performed.

여기에서는, 화이트 밸런스 계수 산출을 위한 측광 평가 촬상을 화이트 밸런스 계수산출용 촬상이라고 부르고, 발광 제어를 위한 측광 평가 촬상을 발광 제어량 측광촬상이라고 부른다.Here, the photometric evaluation imaging calculation for calculating the white balance coefficient is referred to as a white balance coefficient calculating imaging, and the photometric evaluation imaging for emission control is referred to as a light emission control amount photometric imaging.

우선, 기간T70∼T71에 있어서, 화이트 밸런스 계수산출 촬상이 행해진다. 채널Ch2를 거쳐 화소부(20)로부터 판독된 화이트 밸런스 계수평가용 화상신호는, 수평신호선(215-b) 및 전환 스위치(216)를 거쳐 프레임 메모리(217)에 보존된다.First, in the period T70 to T71, the white balance coefficient calculation imaging is performed. The white balance coefficient evaluation image signal read from the pixel portion 20 via the channel Ch2 is stored in the frame memory 217 via the horizontal signal line 215-b and the changeover switch 216. [

기간T71∼T72에 있어서, 측광값 평가부(601)는 프레임 메모리(217)에 보존된 화이트 밸런스 계수평가용 화상신호에 따라 화이트 밸런스 계수를 산출한다. 그 후, 기간T72∼T73에 있어서, 측광값 평가부(601)는 화이트 밸런스 계수를 제어부(106)에 출력한다.In the periods T71 to T72, the photometric value evaluation unit 601 calculates the white balance coefficient in accordance with the image signal for white balance coefficient evaluation stored in the frame memory 217. [ Thereafter, in the period T72 to T73, the photometric value evaluation unit 601 outputs the white balance coefficient to the control unit 106. [

다음에, 시간T73에 있어서, 제어부(106)는 발광 제어신호를 기동해서(H레벨), 발광부(107)를 소정의 발광량으로 발광시키면서, 발광 제어량 측광촬상을 시작한다. 그 후, 시간T74에 있어서, 제어부(106)는 발광 제어신호를 (L레벨에) 하강시켜서, 발광 제어량 측광 촬상을 정지한다.Next, at time T73, the control unit 106 starts the light emission control signal (H level) and starts light emission control amount photometric imaging while causing the light emission unit 107 to emit light with a predetermined light emission amount. Thereafter, at time T74, the control section 106 lowers the light emission control signal (to the L level) to stop the light emission control amount photometric imaging.

따라서, 기간T73∼T74에 있어서, 정지 화상 촬영에 있어서의 발광부(107)의 발광 제어량 측광촬상이 행해지고, 발광 제어량 평가용 화상신호가 프레임 메모리(217)에 보존된다.Therefore, in the period T73 to T74, the light emission control amount of the light emitting portion 107 in the still image shooting is photographed, and the image signal for evaluation of the light emission control amount is stored in the frame memory 217. [

기간T73∼T74에 있어서는, 발광 제어신호가 온이 되므로, 발광부(107)에 의한 사전발광(즉, 프리(pre)발광)이 행해지고, 피사체의 노광량을 산출하기 위한 촬상인 발광 제어량 측광촬상이 행해진다.In the period T73 to T74, since the light emission control signal is turned on, preliminary light emission (that is, preliminary light emission) by the light emission section 107 is performed and light emission control amount photometric imaging, which is the imaging for calculating the exposure amount of the subject, Is done.

기간T74∼T75에 있어서, 측광값 평가부(601)는 프레임 메모리(217)에 보존된 발광 제어량 평가용 화상신호에 따라 피사체에 관련되는 노광 값을 산출한다. 그 노광 값에 따라, 측광값 평가부(601)는 발광 제어량을 생성한다. 다음에, 기간T75∼T76에 있어서, 측광값 평가부(601)는 발광 제어량 제어부(106)에 출력한다.In the periods T74 to T75, the photometric value evaluation unit 601 calculates an exposure value related to the subject in accordance with the image signal for evaluation of the light emission control amount stored in the frame memory 217. [ Based on the exposure value, the metering value evaluation unit 601 generates the light emission control amount. Next, in the periods T75 to T76, the photometric value evaluating section 601 outputs the photometric value to the light emission control amount control section 106. [

시간T76에 있어서, 제어부(106)는 측광 평가 모드를 정지 화상 촬영 모드로 전환하고, 발광 제어신호를 온으로서 발광부(107)를 발광시킨다(본(main)발광). 이때, 제어부(106)는 발광 제어량에 따라 발광부(107)의 발광량을 제어한다.At time T76, the control unit 106 switches the photometric evaluation mode to the still image photographing mode, and turns on the light emission control signal to cause the light emitting unit 107 to emit light (main light emission). At this time, the control unit 106 controls the light emission amount of the light emitting unit 107 according to the light emission control amount.

한층 더, 제어부(106)는 전환 스위치(216)를 바꾸고, 채널Ch2를 거쳐 출력된 화상신호를 신호 처리부(104)에 출력하고, 화소부(20)의 전체 화소로부터 판독된 화상신호를 신호 처리부(104)에 제공한다.The control unit 106 changes the changeover switch 216 and outputs the image signal output through the channel Ch2 to the signal processing unit 104 and outputs the image signal read out from all the pixels of the pixel unit 20 to the signal processing unit 104. [ (104).

도면에 나타낸 예에서는, 1수직동기신호VD의 기간에 라이브 뷰가 1프레임분 촬상된다. 이 기간동안에, 화이트 밸런스 계수 산출 촬상과, 화이트 밸런스 계수의 산출 및 출력과, 발광 제어량 측광 촬상과, 발광 제어량의 산출 및 출력이 행해진다.In the example shown in the drawing, the live view is taken for one frame in the period of one vertical synchronizing signal VD. During this period, white balance coefficient calculation imaging, calculation and output of white balance coefficient, light emission control amount light metering imaging, calculation and output of light emission control amount are performed.

상술한 것처럼, 본 발명의 제2 실시예에서는, 제2 칩(21)내에 AF평가값 검출부(1021)를 구비하여, 라이브 뷰용 화상을 촬상할 수 있고, 프레임 레이트가 빠른 측광 평가용 화상을 촬상할 수 있고, 측광 평가값을 산출해서 출력할 수 있다. 그 결과, 측광 평가를 행할 때의 시간 지연을 단축할 수 있다.As described above, in the second embodiment of the present invention, the AF evaluation value detecting section 1021 is provided in the second chip 21, so that a live view image can be captured, And the metering evaluation value can be calculated and output. As a result, the time delay in the photometric evaluation can be shortened.

또한, 측광 평가에서, 데이터 용량이 적은 측광 평가값(화이트 밸런스 계수 및 발광 제어량)만이 촬상소자(102)로부터 직접 제어부(106)에 보내진다. 그 결과, 신호 출력 부하가 경감되어서 소비 전력을 삭감할 수 있다.In the photometric evaluation, only the photometric evaluation value (white balance coefficient and light emission control amount) with a small data capacity is sent from the image sensing element 102 directly to the control section 106. [ As a result, the signal output load is reduced, and the power consumption can be reduced.

상기의 실시예에서는, 측광 평가값을 촬상소자(102)로부터 제어부(106)에 직접 입력하고, 제어부(106)는 측광 평가값에 따라 신호 처리부(104) 및 발광부(107)를 제어한다. 그렇지만, 촬상소자(102)로부터 측광 평가값을 신호 처리부(104) 및 발광부(107)에 보내서 직접적으로 제어하여도 된다.In the embodiment described above, the photometric evaluation value is directly input from the imaging element 102 to the control unit 106, and the control unit 106 controls the signal processing unit 104 and the light emitting unit 107 in accordance with the photometric evaluation value. However, the photometric evaluation value may be directly sent to the signal processing unit 104 and the light-emitting unit 107 from the imaging device 102. [

제3실시예Third Embodiment

다음에, 본 발명의 제3실시예에서의 카메라의 일례에 관하여 설명한다.Next, an example of the camera in the third embodiment of the present invention will be described.

제3실시예에서의 상기 카메라의 구성은, 촬상소자(102)의 구성이 도 2b에 나타낸 촬상소자와 다른 것을 제외하고는 도 1에 나타낸 카메라와 같다.The configuration of the camera in the third embodiment is the same as that shown in Fig. 1 except that the configuration of the imaging device 102 is different from that of the imaging device shown in Fig. 2B.

도 8은, 본 발명의 제3실시예에 따른 카메라에서 사용되는 촬상소자의 일례의 구성을 나타낸 블록도다.8 is a block diagram showing an example of the configuration of an image pickup device used in a camera according to the third embodiment of the present invention.

이때, 도 8에 있어서, 도 2a 및 도 6에 나타낸 촬상소자와 동일한 구성요소 부재는 동일한 참조번호를 부착해서 그 설명을 생략한다.Here, in Fig. 8, the same structural elements as those of the imaging element shown in Figs. 2A and 6 are denoted by the same reference numerals, and a description thereof will be omitted.

도 8에 나타낸 촬상소자(102)에서, 제2 칩(21)은 AF평가값용 검출부(1021) 대신에 화상신호 평가부(801)를 구비한다. 이 화상신호 평가부(801)는 프레임 메모리(217)에 접속되고, 제어부(106)에 접속되어 있다.8, the second chip 21 includes an image signal evaluation unit 801 instead of the AF evaluation value detection unit 1021. The image signal evaluation unit 801 shown in FIG. The image signal evaluation section 801 is connected to the frame memory 217 and is connected to the control section 106.

화상신호 평가부(801)는, 제1 칩(20)으로부터 열 신호선 202-b를 거쳐서 판독된 화상신호에 따라 신호 변동을 나타내는 표준편차(표준편차값이라고도 한다)를 산출한다. 그 후, 화상신호 평가부(801)는 상기 표준편차를 화상신호 평가값으로서 제어부(106)에 출력한다. 제어부(106)는 상기 표준편차가 미리 설정된 역치(표준편차 역치)를 초과하면, 게인 업(gain-up)량 또는 노광량(즉, 노광 기간)을 제어하는 촬상제어신호를 구동부(103)에 보낸다. 구동부(103)는 이 촬상제어신호에 따라 촬상소자(102)를 구동해서 노출 제어를 행한다. 이것은, 표준편차가, 미리 설정된 역치를 초과하면, 화상신호에 있어서의 S/N비의 악화를 나타내어서, 소정의 화질을 유지하기 위해서 노출 제어에 제한을 두는 것이 효과적이기 때문이다.The image signal evaluation unit 801 calculates a standard deviation (also referred to as a standard deviation value) indicating a signal variation according to an image signal read from the first chip 20 via the column signal line 202-b. Thereafter, the image signal evaluation unit 801 outputs the standard deviation to the control unit 106 as an image signal evaluation value. The control unit 106 sends an imaging control signal for controlling the amount of gain-up or the amount of exposure (that is, the exposure period) to the driving unit 103 when the standard deviation exceeds a predetermined threshold (standard deviation threshold) . The driving unit 103 drives the imaging element 102 in accordance with the imaging control signal to perform exposure control. This is because it is effective to limit the exposure control to maintain the predetermined image quality by indicating the deterioration of the S / N ratio in the image signal if the standard deviation exceeds a predetermined threshold value.

도 8에 나타낸 예에서는, 노출 제어에 의해 소정의 화질을 유지한다. 그렇지만, 노출 제어에 한하지 않고, 예를 들면, 노이즈 저감 처리에 있어서의 보정값을 바꾸어서 소정의 화질을 유지하여도 된다. 한층 더, 도면에 나타낸 예에서, 화상신호 평가부(801)는 표준편차인 화상신호 평가값을 출력하도록 구성된다. 그렇지만, 화상신호 평가부(801)는, 구동부(103), 신호 처리부(104), 또는 발광부(107)에 상기 표준편차에 대응한 제어신호를 출력해서 소정의 화질을 유지하도록 구성되어도 된다.In the example shown in Fig. 8, a predetermined image quality is maintained by exposure control. However, the present invention is not limited to the exposure control, and the predetermined image quality may be maintained, for example, by changing the correction value in the noise reduction processing. Furthermore, in the example shown in the figure, the image signal evaluation unit 801 is configured to output an image signal evaluation value that is a standard deviation. However, the image signal evaluation unit 801 may be configured to output a control signal corresponding to the standard deviation to the drive unit 103, the signal processing unit 104, or the light emission unit 107 to maintain a predetermined image quality.

도 9는, 본 발명의 제3실시예에 있어서의 표준편차 평가 모드에서의 촬상 타이밍을 설명하기 위한 타이밍도다.9 is a timing chart for explaining the imaging timing in the standard deviation evaluation mode in the third embodiment of the present invention.

상기 카메라가 표준편차 평가 모드가 되면, 제어부(106)는 시간T90에 있어서 수직동기신호VD1 및 VD2의 하강에지에서 촬상을 시작한다. 여기에서, 제어부(106)는 수직동기신호VD1에 동기해서 채널Ch1을 사용한 라이브 뷰 촬상과, 수직동기신호VD2에 동기해서 채널Ch2를 사용한 표준편차 평가 촬상(화상신호 평가 촬상이라고도 한다)을 시작한다.When the camera enters the standard deviation evaluation mode, the control unit 106 starts imaging at the falling edge of the vertical synchronization signals VD1 and VD2 at time T90. Here, the control unit 106 starts live view imaging using the channel Ch1 in synchronization with the vertical synchronization signal VD1 and standard deviation evaluation imaging (also referred to as image signal evaluation imaging) using the channel Ch2 in synchronization with the vertical synchronization signal VD2 .

수직동기신호VD1에 동기한 라이브 뷰 촬상에 있어서는, 라이브 뷰 표시를 위한 프레임 레이트에 따라 촬상동작이 행해진다. 수직동기신호VD2에 관련되는 1VD기간(T90∼T93)에, 복수 프레임의 라이브 뷰 촬상이 행해진다.In the live view imaging in synchronization with the vertical synchronization signal VD1, the imaging operation is performed in accordance with the frame rate for the live view display. Live view imaging of a plurality of frames is performed in one VD period (T90 to T93) related to the vertical synchronization signal VD2.

기간T90∼T91에 있어서의 화상신호 평가 촬상에 있어서, 채널Ch2에 판독된 표준편차검출용 화상신호가 촬상소자(102)로부터 판독된다. 이 기간T90∼T91에서의 설정은, 시간T93이후에 있어서의 정지 화상 촬상에 있어서의 노출 기간에서의 설정과 동일하다. 시간T93이후의 노출 제어는, 조작부(108)를 사용한 유저 조작 또는 촬상소자(102)로부터 얻어진 화상신호에 대응한 AE제어에 따라 결정된다. 따라서, 채널Ch2에 있어서의 화상신호 평가 촬상에 있어서는, 채널Ch1에 있어서의 라이브 뷰 표시용 노출 제어와 다른 노출 제어가 행해진다.Evaluation of Image Signal in Period T90 to T91 In the image sensing, the standard deviation detecting image signal read in the channel Ch2 is read out from the image sensing element 102. [ The setting in the period T90 to T91 is the same as the setting in the exposure period in the still image pickup after the time T93. The exposure control after the time T93 is determined according to the user operation using the operation unit 108 or the AE control corresponding to the image signal obtained from the image pickup device 102. [ Therefore, in the image signal evaluation imaging in the channel Ch2, exposure control different from the exposure control for the live view display in the channel Ch1 is performed.

한층 더, 채널Ch2에 있어서, 시간T93이후의 정지 화상 촬영과 같은 노출 제어를 행함으로써, 정지 화상 촬영전에 화질의 악화 요인이 되는 신호증폭에 의한 S/N의 악화가 제한될 수 있다. 또한, 촬상화소의 긴 축적 동작등의 촬상제어가 제한될 수 있다. 그 결과, 정지 화상의 화질이 소정의 레벨이상으로 악화하는 것을 방지할 수 있다.Furthermore, in the channel Ch2, by performing the same exposure control as the still image pickup after the time T93, the deterioration of the S / N ratio due to the signal amplification, which is a deterioration factor of the image quality before the still image pickup, can be restricted. Further, imaging control such as long accumulation operation of the imaging pixels can be restricted. As a result, deterioration of the image quality of the still image to a predetermined level or more can be prevented.

기간T90∼T91에 있어서 촬상의 결과 얻어진 채널Ch2의 출력, 즉, 표준편차검출용 화상신호는, 수평신호선 215-b 및 스위치(216)를 거쳐 프레임 메모리(217)에 보존된다. 기간T91∼T92에 있어서, 프레임 메모리(217)에 보존된 표준편차검출용 화상신호는 화상신호 평가부(801)에 판독되어서, 화상신호 평가부(801)는 표준편차검출용 화상신호에서 신호 변동인 표준편차값을 산출한다.The output of the channel Ch2 obtained as a result of imaging in the period T90 to T91, that is, the image signal for standard deviation detection, is stored in the frame memory 217 via the horizontal signal line 215-b and the switch 216. [ The standard deviation detecting image signal stored in the frame memory 217 is read to the image signal evaluating section 801 and the image signal evaluating section 801 evaluates the signal fluctuation Lt; / RTI &gt;

그 후, 기간T92∼T93에 있어서, 화상신호 평가부(801)는 기간T91∼T92에 산출된 표준편차값만을 촬상소자(102)로부터 제어부(106)에 출력한다. 시간T93이후에 있어서는, 카메라는 표준편차 평가 모드로부터 정지 화상 촬영 모드로 바뀐다. 제어부(106)는 스위치(216)를 바꾸어서 화상신호를 신호 처리부(104)에 출력가능하게 하여, 전체 화소를 판독할 수 있다. 이 경우, 제어부(106)는 화상신호 평가부(801)에서 산출된 표준편차값에 따라 노출 제어를 행한다.Thereafter, in the period T92 to T93, the image signal evaluation section 801 outputs only the standard deviation value calculated in the period T91 to T92 from the image sensing element 102 to the control section 106. [ After time T93, the camera changes from the standard deviation evaluation mode to the still image shooting mode. The control unit 106 can switch the switch 216 to enable the image signal to be output to the signal processing unit 104 so that all the pixels can be read. In this case, the control unit 106 performs exposure control according to the standard deviation value calculated by the image signal evaluation unit 801. [

전술한 바와 같이, 본 발명의 제3 실시예는, 라이브 뷰용 화상신호와 평가용의 화상신호를 동시에 촬상하도록 구성된다. 이에 따라서, 정지 화상의 촬상을 행하기 전에, 정지 화상 촬상에 있어서의 동작을 제어하기 위한 표준편차값을 실제의 촬영전에 검출할 수 있다.As described above, the third embodiment of the present invention is configured to simultaneously capture an image signal for live view and an image signal for evaluation. Accordingly, the standard deviation value for controlling the operation in the still image sensing can be detected before the actual sensing before the sensing of the still image.

한층 더, 제3 실시예는, 데이터량이 적은 화상신호 평가값인 표준편차값을 직접 제어부(106)에 출력하도록 구성된다. 이에 따라서, 촬상소자(102)로부터 신호 처리부(104)에 데이터량이 큰 화상신호를 더 이상 보낼 필요가 없다. 이 결과, 신호 출력에 기인하는 부하 저감에 의해 전력삭감을 행할 수 있다.Furthermore, the third embodiment is configured to output the standard deviation value, which is an image signal evaluation value with a small amount of data, to the direct control section 106. [ Accordingly, there is no need to send an image signal having a large data amount from the image pickup device 102 to the signal processing unit 104 any more. As a result, it is possible to reduce the power by reducing the load caused by the signal output.

이렇게 하여, 본 발명의 제3 실시예에서는, 라이브 뷰용의 촬상기간과는 다른 촬상기간에 화상신호를 촬상소자(102)에 있어서 동시에 취득하기는 하지만, 상기 촬상동작이 라이브 뷰용 촬상동작과 다르다. 그 취득된 화상신호에 따라, 화상신호 평가값인 표준편차값을 촬상소자(102)에서 산출해서 제어부(106)에 출력한다. 그 결과, 라이브 뷰 모드중에 화상신호 평가값을 얻을 수 있어, 전력 절약과 함께 시간 단축을 꾀할 수 있다.Thus, in the third embodiment of the present invention, the image pickup device 102 acquires an image signal simultaneously in the image pickup period different from the image pickup period for live view, but the image pickup operation is different from the live-view image pickup operation. In accordance with the acquired image signal, the standard deviation value, which is an image signal evaluation value, is calculated by the image pickup element 102 and outputted to the control section 106. [ As a result, the evaluation value of the image signal can be obtained during the live view mode, thereby saving power and time.

제3 실시예에서는 화상신호에 관련되는 표준편차값을 산출하는 예에 관하여 설명하고, 아래에 나타낸 것과 같은 평가값을 화상신호 평가부(801)에서 산출시켜서, 대응하는 보정을 제어부(106)에 행하게 해도 된다.In the third embodiment, an example of calculating the standard deviation value related to the image signal is described. The evaluation value shown below is calculated by the image signal evaluation section 801, and the corresponding correction is sent to the control section 106 .

(1) 화상신호 기준값으로서 사용되는 오프셋 성분의 1프레임당의 변동량인 화상신호 오프셋 보정값이, 화상신호로부터 산출되어도 된다. (2) 열 또는 행 단위에서의 스트라이프형 고정 패턴 노이즈가 검출되어도 된다. (3) 동화상 녹화나 라이브 뷰 표시의 조건과는 다른 노출 조건을 설정하고, 광원출력의 변화를 검출함으로써, 플리커(flicker)가 검출되어도 된다. (4) WB계수, (5) 대상 피사체의 이동량, 및 (6) 벡터량을 검출함으로써 손 흔들림 보정 값 혹은 피사체의 움직임 검출값이 산출되어도 된다. (7) 색 셰이딩 평가값, (8) 휘도 셰이딩 평가값, 및 (9) 플리커 평가값을 산출하여, 기계적 광학부(1011)내의 조리개 기구부나 촬상소자(102)의 셔터 제어에 의한 노광 제어를 행하여도 된다.(1) The image signal offset correction value, which is the variation per frame of the offset component used as the image signal reference value, may be calculated from the image signal. (2) Striped fixed pattern noise in a column or row unit may be detected. (3) A flicker may be detected by setting exposure conditions different from the conditions of moving image recording or live view display and detecting a change in the light source output. (4) the WB coefficient, (5) the amount of movement of the subject, and (6) the vector amount to calculate the hand shake correction value or the motion detection value of the subject. (8) a luminance shading evaluation value, and (9) a flicker evaluation value to calculate exposure control based on the shutter control of the diaphragm mechanism section and the imaging element 102 in the mechanical optical section 1011 May be performed.

이때, 상기 각 평가값이 상기 개시된 방법들뿐만 아니라 다른 공지의 방법들에 의해서도 취득하여 보정되어도 된다는 것은 당연하다.It will be appreciated that each of the evaluation values may be acquired and corrected by the above-described methods as well as other known methods.

상기의 설명으로부터 분명하게 나타나 있는 바와 같이, 도 1에 나타낸 예에서는, 제어부(106) 및 구동부(103)가 제어부 및 판독 제어부로서 기능한다. 제어부(106) 및 화상표시부(109)는 표시 제어부로서도 기능한다.As apparent from the above description, in the example shown in Fig. 1, the control section 106 and the drive section 103 function as a control section and a read control section. The control unit 106 and the image display unit 109 also function as a display control unit.

본 발명에 대해서 상기 실시예에 의거하여 설명했지만, 본 발명은, 이것들의 실시예에 한정되는 것이 아니고, 본 발명의 범위와 사상내에서 나오는 여러가지 형태도 본 발명에 포함된다.Although the present invention has been described based on the above embodiments, the present invention is not limited to these embodiments, and various aspects derived from the scope and spirit of the present invention are also included in the present invention.

예를 들면, 상기의 실시예의 기능을 제어 방법으로서 사용하여도 되고, 이 제어 방법을 촬상장치에 의해 실행하여도 된다. 또한, 상기의 실시예의 기능을 갖는 프로그램을 제어 프로그램으로서 사용해도 되고, 해당 제어 프로그램을 촬상장치가 구비하는 컴퓨터에 실행시켜도 된다. 예를 들면, 상기 제어 프로그램은, 컴퓨터에 판독 가능한 기록 매체에 기록된다.For example, the functions of the above embodiments may be used as the control method, or the control method may be executed by the image pickup apparatus. Further, a program having the functions of the above embodiments may be used as a control program, or the control program may be executed by a computer provided with the image pickup apparatus. For example, the control program is recorded on a computer-readable recording medium.

상기의 제어 방법 및 제어 프로그램의 각각은, 적어도 제어 단계 및 표시 제어 단계를 포함한다.Each of the control method and the control program includes at least a control step and a display control step.

또한, 본 발명은, 이하의 처리를 실행 함으로써도 실현될 수 있다. 즉, 전술한 실시예의 기능을 실현하는 소프트웨어(프로그램)는, 네트워크 또는 각종의 기록 매체를 거쳐서 시스템 또는 장치에 공급된다. 그 시스템 또는 그 장치의 컴퓨터(또는 CPU와 MPU등의 디바이스)가 그 프로그램을 판독해서 실행한다.Further, the present invention can also be realized by executing the following processing. That is, the software (program) for realizing the functions of the above-described embodiments is supplied to the system or apparatus via the network or various recording media. The system or a computer (or a device such as a CPU and an MPU) of the system reads and executes the program.

본 발명에 의하면, 포커스 제어등의 제어에만 사용되는 제어 정보는, 그 제어를 실행할 때에 촬상소자로부터 출력된다. 따라서, 데이터 전송시간을 단축하고, 게다가 화질의 저하를 회피할 수 있다.According to the present invention, the control information used only for the control of the focus control or the like is output from the image pickup element when performing the control. Therefore, it is possible to shorten the data transfer time and avoid deterioration of image quality.

제4실시예Fourth Embodiment

도 11은, 본 발명의 제4실시예에 따른 촬상장치의 구성 예를 나타내는 블록도다. 도면에 나타낸 촬상장치는, 예를 들면 동화상 기능 부착 전자 스틸 카메라 또는 비디오 카메라에 적용된다.11 is a block diagram showing a configuration example of an image pickup apparatus according to the fourth embodiment of the present invention. The imaging device shown in the drawing is applied to, for example, an electronic still camera or a video camera with a moving image function.

도 11에 있어서, 촬상장치(1100)는, 렌즈(1101), 이미지 센서(1102), 화상신호처리부(1103), 압축 신장부(1104), 렌즈 구동제어부(1105), 촬상 평가값 검출부(1106), 씬 판별부(1107), 및 시스템 제어부(1108)를 구비한다. 촬상장치(1100)는, 발광부(1109), 조작부(1110), 기억부(1111), 및 표시부(1112)를 더 구비한다.11, the image capturing apparatus 1100 includes a lens 1101, an image sensor 1102, an image signal processing section 1103, a compression expanding section 1104, a lens drive control section 1105, an imaging evaluation value detecting section 1106 ), A scene discrimination unit 1107, and a system control unit 1108. [ The image capturing apparatus 1100 further includes a light emitting portion 1109, an operation portion 1110, a storage portion 1111, and a display portion 1112.

렌즈(1101)는, 촬영 광학계를 구성하는 렌즈 군이다. 그 렌즈(1101)내에는, 포커스 렌즈가 포함되어 있다. 이 포커스 렌즈는, 포커스 조정용 렌즈다. 이 포커스 렌즈는 광축방향을 따라 그 위치를 변경 가능하게 구성되어 있다. 렌즈 구동제어부(1105)는, 촬상 평가값 검출부(1106)에 의해 검출된 값에 의거하여 포커스 렌즈를 구동제어하고, 초점조절 처리를 실행하는 초점조절부로서의 기능을 가진다. 렌즈(1101)를 통과한 광은, CMOS이미지 센서 등으로 구성된 이미지 센서(1102)의 결상면 위에, 피사체의 광학상으로서 포커싱된다. 그 후, 그 광학상은, 후술하는 화소(1201)에서 화소신호로 광전변환된다.The lens 1101 is a lens group constituting a photographing optical system. Inside the lens 1101, a focus lens is included. This focus lens is a focus adjustment lens. The focus lens is configured so that its position can be changed along the optical axis direction. The lens drive control section 1105 has a function as a focus adjustment section for performing drive control of the focus lens based on the value detected by the image pickup evaluation value detection section 1106 and executing focus adjustment processing. The light having passed through the lens 1101 is focused on the image plane of the image sensor 1102 composed of a CMOS image sensor or the like as an optical image of the subject. Thereafter, the optical image is photoelectrically converted into a pixel signal from a pixel 1201 to be described later.

이미지 센서(1102)는, 화소(1201) 및 A/D컨버터를 갖는다. 예를 들면, 이미지 센서(1102)는, 소위 XY판독 방식의 CMOS형 이미지 센서다. 이미지 센서(1102)는, 시스템 제어부(1108)의 제어하에서, 노광, 신호 판독 및 리셋트등의 촬상동작을 행하고, 촬상신호(화상신호라고도 한다)를 출력한다.The image sensor 1102 has a pixel 1201 and an A / D converter. For example, the image sensor 1102 is a so-called XY read CMOS type image sensor. Under the control of the system control section 1108, the image sensor 1102 performs imaging operations such as exposure, signal reading and resetting, and outputs an imaging signal (also referred to as an image signal).

촬상 평가값 검출부(1106)는, 이미지 센서(1102)로부터 출력된 화상신호로부터 촬상 평가값을 검출한다. 이 경우에, 시스템 제어부(1108)로부터 출력된 타이밍에 있어서, 촬상평가값을 검출한다. 그 상세한 동작에 관해서는 후술한다.The imaging evaluation value detection section 1106 detects the imaging evaluation value from the image signal output from the image sensor 1102. [ In this case, the imaging evaluation value is detected at the timing outputted from the system control section 1108. [ The detailed operation will be described later.

여기에서, 촬상평가값이란, 촬상장치의 제어나, 촬영된 화상에 대한 보정등을 행하는데 필요한 파라미터다. 예를 들면, 그 촬상평가값은, AF평가값, 화이트 밸런스(WB)평가값, 및 자동 노출(AE)평가값등의 촬상장치의 기본동작에 필요한 평가값이다. AF평가값은, 촬상시에 피사체에 초점을 맞추기 위한 평가값으로, 주로 포커스 렌즈를 제어하는데 필요하다. WB평가값은, 촬상시에 색을 보정하는데 필요한 평가값이며, 또한 현상시에 필요한 파라미터다. AE평가값은, 촬영시에 적정한 노출을 얻는데 필요한 평가값이다. AE평가값은, 주로, 조리개, 셔터 스피드 및 감도를 설정하는데 필요하다.Here, the imaging evaluation value is a parameter necessary for controlling the imaging apparatus and correcting the photographed image. For example, the imaging evaluation value is an evaluation value necessary for the basic operation of the imaging apparatus such as an AF evaluation value, a white balance (WB) evaluation value, and an automatic exposure (AE) evaluation value. The AF evaluation value is an evaluation value for focusing on a subject at the time of image capture, and is mainly necessary for controlling the focus lens. The WB evaluation value is an evaluation value necessary for correcting the color at the time of image capture and is also a parameter required at the time of development. The AE evaluation value is an evaluation value required to obtain an appropriate exposure at the time of photographing. The AE evaluation value is mainly required to set the aperture, the shutter speed and the sensitivity.

시스템 제어부(1108)는, 촬상평가값으로서 얻어진 파라미터 중 1개인 AF평가값에 의거하여 렌즈(1101)의 제어량을 결정하고, 이 제어량을 렌즈 구동제어부(1105)에 출력한다. 렌즈 구동제어부(1105)는, 시스템 제어부(1108)로부터 얻어진 AF평가값의 제어량에 의거하여 렌즈(1101)를 광축방향으로 구동함으로써 피사체의 초점 조절을 행한다.The system control section 1108 determines the control amount of the lens 1101 based on the AF evaluation value of one of the parameters obtained as the imaging evaluation value and outputs the control amount to the lens drive control section 1105. [ The lens drive control section 1105 drives the lens 1101 in the direction of the optical axis based on the control amount of the AF evaluation value obtained from the system control section 1108 to adjust the focus of the subject.

화상신호처리부(1103)는, 시스템 제어부(1108)의 제어하에서, 이미지 센서(1102)의 출력인 화상신호에 대하여 신호 처리를 행해서 화상 데이터를 생성한다. 보다 구체적으로는, 촬상평가값 검출부에서 검출된 촬상평가값에 의거하여, 화이트 밸런스 조정 처리, 색보정처리, 및 AE처리등의 신호 처리를 실시해서, 화상 데이터를 생성한다.Under the control of the system control section 1108, the image signal processing section 1103 performs signal processing on the image signal output from the image sensor 1102 to generate image data. More specifically, based on the imaging evaluation values detected by the imaging evaluation value detection section, signal processing such as white balance adjustment processing, color correction processing, and AE processing is performed to generate image data.

압축 신장부(1104)는, 시스템 제어부(1108)의 제어하에서 동작하고, 화상신호처리부(1103)의 출력인 화상 데이터에 대하여, 소정의 정지화상 데이터 포맷으로 압축 부호화처리를 행한다. 예를 들면, 상기 소정의 정지화상 데이터 포맷은, JPEG(Joint Photographic Coding Experts Group)방식이다. 또한, 압축 신장부(1104)는 시스템 제어부(1108)로부터 보내진 부호화된 화상 데이터에 대하여 신장 복호화의 처리를 행한다. 또한, 압축 신장부(1104)는, MPEG(Moving Picture Experts Group)방식등에 의해 동화상 데이터에 대하여 압축 부호화/신장 복호화처리를 행하여도 된다.The compression decompression unit 1104 operates under the control of the system control unit 1108 and performs compression encoding processing on the image data output from the image signal processing unit 1103 in a predetermined still image data format. For example, the predetermined still image data format is JPEG (Joint Photographic Coding Experts Group). The compression decompression unit 1104 performs decompression decoding processing on the coded image data sent from the system control unit 1108. [ Further, the compression / expansion unit 1104 may perform compression encoding / decompression decoding processing on moving image data by the MPEG (Moving Picture Experts Group) method or the like.

씬 판별부(1107)에서는, 시스템 제어부로부터 얻어진 촬영 조건에 의거하여 촬영 씬을 판별한다. 이 판별된 촬영 씬에 따라, 촬영하기 위한 촬영 파라미터나 화상처리 파라미터등의 파라미터를 변경하기 위한 정보를, 시스템 제어부(1108)에 보낸다. 여기에서, 촬상평가값 검출부(1106)는, 씬 판별의 정보에 의거하여, 후술하는 것처럼 촬상평가값 검출용 화상신호 또는 표시용 화상신호의 어느쪽으로부터 촬상평가값을 검출할지를 결정한다.The scene discrimination unit 1107 discriminates the shooting scene based on the shooting condition obtained from the system control unit. And sends information to the system control unit 1108 to change parameters such as photographing parameters and image processing parameters for photographing in accordance with the determined photographing scene. Here, the imaging evaluation value detection section 1106 determines, based on the information on the scene discrimination, which imaging evaluation value is to be detected from the imaging evaluation value detection image signal or the display image signal as described later.

시스템 제어부(1108)는, 예를 들면, 중앙처리장치(CPU), 판독전용 메모리(ROM), 및 랜덤 액세스 메모리(RAM)를 구비하는 마이크로콘트롤러다. 시스템 제어부(1108)의 CPU는, ROM에 기억된 프로그램을 실행함으로써, 촬상장치(1100) 전체를 포괄적으로 제어한다.The system control unit 1108 is a microcontroller including, for example, a central processing unit (CPU), a read only memory (ROM), and a random access memory (RAM). The CPU of the system control section 1108 executes a program stored in the ROM to comprehensively control the entire image capturing apparatus 1100.

발광부(1109)는, 화상신호처리부(1103)에 의해 행해진 AE처리에서 피사체의 노광 값이 낮다고 판정된다면, 피사체에 대하여 광을 조사해서 조명을 행한다. 발광부(1109)로서는, 예를 들면, 크세논 관을 사용한 스트로브 장치 또는 LED발광 장치를 사용하여도 된다. 조작부(110)는, 예를 들면, 셔터 릴리즈 버튼등의 각종 조작 키, 레버, 및 다이얼을 가지고, 유저의 입력 조작에 대응한 조작 신호를 시스템 제어부(1108)에 준다.If it is determined that the exposure value of the subject is low in the AE process performed by the image signal processing unit 1103, the light emitting unit 1109 illuminates the subject to perform illumination. As the light emitting portion 1109, for example, a strobe device using a xenon tube or an LED light emitting device may be used. The operation unit 110 has various operation keys, such as a shutter release button, a lever, and a dial, for example, and gives an operation signal corresponding to a user's input operation to the system control unit 1108. [

기록부(1111)는, 예를 들면, 휴대용의 반도체 메모리, 광디스크, 하드 디스크 드라이브(HDD) 또는 자기테이프등의 기록 매체이며, 압축 신장부(1104)에 의해 압축 부호화된 화상 데이터를 화상 파일로서 기억한다. 또한, 기록부(1111)는, 시스템 제어부(1108)에 의해 지정된 화상 파일을 판독해서, 시스템 제어부(1108)에 출력한다.The recording unit 1111 is a recording medium such as a portable semiconductor memory, an optical disk, a hard disk drive (HDD), or a magnetic tape, for example, and stores the image data compression- do. The recording unit 1111 also reads out the image file specified by the system control unit 1108 and outputs it to the system control unit 1108. [

화상표시부(1112)는, 예를 들면, 액정 디스플레이(LCD)등의 표시 디바이스 및 LCD에 대한 인터페이스 회로를 구비하여, 시스템 제어부(1108)로부터 보내진 화상 데이터로 나타내어진 화상을 그 표시 디바이스에 표시한다.The image display unit 1112 includes, for example, a display device such as a liquid crystal display (LCD) and an interface circuit for the LCD, and displays an image represented by image data sent from the system control unit 1108 on the display device .

도 12a 및 12b는, 도 11에 나타낸 이미지 센서(1102)의 구성을 나타내는 설명도다. 도 12a는 이미지 센서의 사시도이며, 도 12b는 그 구성을 나타낸 블록도다.12A and 12B are explanatory diagrams showing the configuration of the image sensor 1102 shown in Fig. 12A is a perspective view of the image sensor, and FIG. 12B is a block diagram showing the configuration thereof.

도 12a에 있어서, 이미지 센서(1102)는 제1칩(제1 소자부)(120) 및 제2 칩(제2 소자부)(121)을 가지고, 제2 칩(121) 위에 제1 칩(120)이 적층되어 있다. 제1 칩(120)은 매트릭스 모양으로 배열된 복수의 화소(1201)를 가지고, 제1 칩(120)은 화소배열을 광입사측을 향해서 적층되어 있다(즉, 광학상을 수광하는 쪽에 위치되어 있다). 제2 칩(121)은, 후술하는 열주사 회로 1213-a 및 1213-b와 행주사 회로(1212)를 구비한 화소구동부를 갖는다.12A, the image sensor 1102 has a first chip (first device portion) 120 and a second chip (second device portion) 121, and a second chip 121 120 are stacked. The first chip 120 has a plurality of pixels 1201 arranged in a matrix shape and the first chip 120 is stacked with the pixel array facing the light incident side have). The second chip 121 has a pixel driver including column scanning circuits 1213-a and 1213-b and a row scanning circuit 1212, which will be described later.

이렇게, 제1 칩(120)에 화소(1201)를 형성하고, 제2 칩(121)에 화소구동부를 형성하면, 이미지 센서(1102)의 주변회로 및 화소부의 제조 프로세스를 분리할 수 있다. 따라서, 주변회로에 있어서의 배선의 세선화 및 고밀도화로의 경향은, 고속화, 소형화 및 고성능화를 실현할 수 있다.By forming the pixel 1201 in the first chip 120 and forming the pixel driver in the second chip 121, the peripheral circuit of the image sensor 1102 and the manufacturing process of the pixel portion can be separated. Therefore, the tendency toward thinning and densification of wirings in peripheral circuits can realize high speed, small size, and high performance.

도 12b에 나타나 있는 바와 같이, 제1 칩(120)에 있어서, 화소(1201)는 매트릭스 모양으로 배열되어 있고, 각 화소(1201)는 수평방향(행 방향)으로 전송 신호선(1203), 리셋트 선(1204) 및 행 선택 신호선(1205)에 접속되어 있다. 또한, 화소(1201)는 수직방향(열 방향)으로 열 신호선 1202-a 및 1202-b에 접속되어 있다. 이때, 열 신호선 1202-a 및 1202-b의 각각은, 행단위로, 화소를 다른 판독처에 접속하도록 구성된다.12B, in the first chip 120, the pixels 1201 are arranged in a matrix shape, and each pixel 1201 is divided into a transfer signal line 1203 in the horizontal direction (row direction) Line 1204 and the row selection signal line 1205, respectively. Further, the pixel 1201 is connected to the column signal lines 1202-a and 1202-b in the vertical direction (column direction). At this time, each of the column signal lines 1202-a and 1202-b is configured to connect the pixel to the other read destination over the row.

또한, 화소(1201)의 각각은, 도면에 나타나 있는 바와 같이, 광전변환소자인 포토다이오드PD, 전송 트랜지스터M1, 리셋트 트랜지스터M2, 증폭 트랜지스터M3, 선택 트랜지스터M4 및 플로팅 디퓨전FD를 갖는다. 도면에 나타낸 예에서는, 상기 트랜지스터의 각각은 n채널MOS 전계효과 트랜지스터(MOS FET)다.Each of the pixels 1201 has a photodiode PD as a photoelectric conversion element, a transfer transistor M1, a reset transistor M2, an amplification transistor M3, a selection transistor M4, and a floating diffusion FD as shown in the figure. In the example shown in the figure, each of the transistors is an n-channel MOS field effect transistor (MOS FET).

상기 전송 트랜지스터M1, 리셋트 트랜지스터M2 및 선택 트랜지스터M4의 게이트에는, 각각, 전송 신호선(1203), 리셋트 신호선(1204) 및 행 선택 신호선(1205)이 접속되어 있다. 이것들 신호선(1203∼1205)은 수평방향으로 연장하게 배열되고, 동일행의 화소는 동시에 구동된다. 그 결과, 라인 순차 동작형의 롤링 셔터 또는 전체 라인 동시 동작형의 글로벌 셔터의 동작을 제어할 수 있다. 한층 더, 선택 트랜지스터M4의 소스에는, 열 신호선 1202-a 또는 1202-b가 행단위로 접속되어 있다.A transfer signal line 1203, a reset signal line 1204, and a row select signal line 1205 are connected to the gates of the transfer transistor Ml, the reset transistor M2, and the select transistor M4, respectively. These signal lines 1203 to 1205 are arranged to extend in the horizontal direction, and the pixels in the same row are driven simultaneously. As a result, it is possible to control the operation of the rolling shutter of the line sequential operation type or the global shutter of the all-line simultaneous operation type. Furthermore, the column signal line 1202-a or 1202-b is connected to the source of the selection transistor M4 on the row.

포토다이오드PD는, 광전변환에 의해 생성된 전하를 축적한다. 포토다이오드PD의 P측은, 접지되고, N측은, 전송 트랜지스터M1의 소스에 접속되어 있다. 전송 트랜지스터M1이 온 하면, 포토다이오드PD의 전하가 FD에 전송된다. 그 FD에는 기생 용량이 존재하므로, 그 FD에 전송된 전하가 축적된다.The photodiode PD accumulates the charges generated by the photoelectric conversion. The P side of the photodiode PD is grounded, and the N side is connected to the source of the transfer transistor M1. When the transfer transistor M1 is turned on, the charge of the photodiode PD is transferred to the FD. Since the parasitic capacitance exists in the FD, the charges transferred to the FD are accumulated.

증폭 트랜지스터M3의 드레인에는 전원전압Vdd가 인가되고, 그 게이트는 그 FD에 접속되어 있다. 증폭 트랜지스터M3은, FD의 전하(즉, 전압)를 증폭해서 전압신호로 변환한다. 선택 트랜지스터M4는, 행선택 신호선(1205)에 의해, 신호를 판독하는 화소를 행단위로 선택하기 위한 것이다. 그 선택 트랜지스터M4의 드레인은 증폭 트랜지스터M3의 소스에 접속되어 있다. 선택 트랜지스터M4의 소스는 열 신호선(1202)에 접속되어 있다.A power supply voltage Vdd is applied to the drain of the amplifying transistor M3, and its gate is connected to the FD. The amplifying transistor M3 amplifies the charge (i.e., voltage) of the FD and converts it into a voltage signal. The selection transistor M4 is for selecting a pixel for reading a signal on the row by the row selection signal line 1205. [ The drain of the selection transistor M4 is connected to the source of the amplifying transistor M3. The source of the selection transistor M4 is connected to the column signal line 1202. [

행선택 신호선(1205)에 의해 선택 트랜지스터M4가 온 하면, FD의 전압에 대응한 전압신호가 열 신호선(1202)에 출력된다. 리셋트 트랜지스터M2의 드레인에는 전원전압Vdd가 인가되고, 그 소스는 FD에 접속되어 있다. 리셋트 신호선(1204)에 의해 리셋트 트랜지스터M2가 온되면, FD의 전압은 전원전압Vdd에 리셋트된다.When the selection transistor M4 is turned on by the row selection signal line 1205, a voltage signal corresponding to the voltage of the FD is output to the column signal line 1202. [ A power supply voltage Vdd is applied to the drain of the reset transistor M2, and the source of the reset transistor M2 is connected to the FD. When the reset transistor M2 is turned on by the reset signal line 1204, the voltage of the FD is reset to the power supply voltage Vdd.

제2 칩(121)에는, 칼럼ADC블록(1211)이 설치되어 있고, 칼럼ADC블록(1211)은 열 신호선1202-a 또는 1202-b에 접속되어 있다. 한층 더, 제2 칩(121)에는, 행주사 회로(1212), 열주사 회로(1213-a, 1213-b), 타이밍 제어부(1214), 및 수평신호선(출력부)(1215-a, 1215-b)이 설치된다.A column ADC block 1211 is provided in the second chip 121 and a column ADC block 1211 is connected to the column signal line 1202-a or 1202-b. A row scanning circuit 1212, column scanning circuits 1213-a and 1213-b, a timing control section 1214 and horizontal signal lines (output sections) 1215-a and 1215 -b) is installed.

타이밍 제어부(1214)는, 시스템 제어부(1108)의 제어하에서 행주사 회로(1212), 열주사 회로(1213-a, 1213-b) 및 칼럼ADC블록(1211)의 동작 타이밍을 제어한다. 행주사 회로(1212)는 각 행을 주사하고, 열주사 회로 1213-a 및 1213-b는 각각 각 열을 주사한다.The timing control unit 1214 controls the operation timings of the column scan circuit 1212, the column scan circuits 1213-a and 1213-b, and the column ADC block 1211 under the control of the system control unit 1108. [ The row scanning circuit 1212 scans each row, and the column scanning circuits 1213-a and 1213-b scan each column.

수평신호선 1215-a 및 1215-b는, 각각 열주사 회로 1213-a 및 1213-b에서 제어된 타이밍에 의거하여 칼럼ADC블록(1211)의 출력 신호(화상신호)를 전송한다. 그 결과, 라이브 뷰용의 화상신호(제2 화상신호, 즉, 화상표시신호)는 열 신호선1202-a에 출력되고, 촬상평가 검출용의 화상신호(제1 화상신호)는 열 신호선1202-b에 출력된다.The horizontal signal lines 1215-a and 1215-b transmit the output signals (image signals) of the column ADC block 1211 on the basis of timings controlled by the column scanning circuits 1213-a and 1213-b, respectively. As a result, an image signal (second image signal, i.e., an image display signal) for live view is output to the column signal line 1202-a, and an image signal (first image signal) .

도 13에 있어서, 행번호 1 및 2는 촬상평가값 검출용 화상의 촬상을 위한 행(제1 화소군)이며, 행번호 3∼8은 라이브 뷰용 화상의 촬상을 위한 행(제2 화소군)이다. 도면에 나타낸 예에서는, 판독 주사가 행단위로 순차로 행해지고, 8행단위로 반복적으로 판독 주사가 이루어지게 된다.13, row numbers 1 and 2 are rows (first pixel group) for image pickup evaluation value detection images, row numbers 3 to 8 are rows (second pixel group) for image pickup of a live view image, to be. In the example shown in the figure, read-out scanning is performed sequentially on a row-by-row basis, and read-out scanning is repeatedly performed on the 8th row.

촬상평가값 검출 촬상에서는, 프레임 레이트 중시 때문에 수직동색 4화소중 3화소를 선별 판독한다. 한편, 라이브 뷰용의 화상에서는, 화질중시 때문에 수직동색 4화소중 1화소를 선별해서 3화소를 가산한다. 바꿔 말하면, 촬상평가값 검출 촬상에 있어서는, 제1 화소군을 제1 프레임 레이트에서 판독한다. 라이브 뷰 촬상에서는, 제2 화소군을 제1 프레임 레이트보다도 느린 제2 프레임 레이트에서 판독한다.In the imaging evaluation value detection imaging, three pixels out of four pixels of vertical same color are read out selectively because of the importance of the frame rate. On the other hand, in the image for live view, one pixel out of four vertically-same-color pixels is selected because image quality is important, and three pixels are added. In other words, in the imaging evaluation value detection imaging, the first pixel group is read at the first frame rate. In live view imaging, the second pixel group is read at a second frame rate which is slower than the first frame rate.

전술한 바와 같이, 선택행마다 촬상평가값 검출 촬상과 라이브 뷰 촬상을 분리함으로써, 다른 전하축적 시간으로 데이터 사이즈가 다른 프레임 레이트에서 화상신호를 취득하는 것이 가능해진다.As described above, by separating the imaging evaluation value detection imaging and the live view imaging for each selected row, it is possible to acquire an image signal at a frame rate different in data size with different charge accumulation time.

열 신호선1202-a 및 1202-b에 출력된 전압신호(아날로그 신호)는, 도 12a 및 12b에 나타낸 칼럼ADC블록(1211)에 있어서 아날로그 신호로부터 디지털 신호(화상신호)로 변환된다. 칼럼ADC블록(1211)의 출력인 화상신호는, 열주사 회로 1213-a 또는 1213-b에 의해 칼럼ADC블록(1211)으로부터 수평신호선 1215-a 또는 1215-b에 판독되어 출력된다(제1 판독부, 제2 판독부).The voltage signals (analog signals) output to the column signal lines 1202-a and 1202-b are converted from analog signals to digital signals (image signals) in the column ADC block 1211 shown in Figs. 12A and 12B. The image signal which is the output of the column ADC block 1211 is read out from the column ADC block 1211 to the horizontal signal line 1215-a or 1215-b by the column scanning circuit 1213-a or 1213-b and output A second reading unit).

다음에, 촬상평가값의 일례로서, AF동작용의 최적의 촬상평가값(AF평가값)을 검출하는 동작을 도 14a 및 14b를 참조하여 설명한다.Next, an operation of detecting an optimum imaging evaluation value (AF evaluation value) of the AF operation as an example of the imaging evaluation value will be described with reference to Figs. 14A and 14B.

도 14a는, 후술하는 씬 판별의 결과로서, 촬상평가값 검출용 화상으로부터 AF평가값(오토 포커스 평가값)을 검출하는 타이밍도다. 도 14a에 나타낸 바와 같이, 수직동기신호에 의해 촬상 타이밍이 규정되어 있다. 카메라가 AF평가 모드에 있으면, 시스템 제어부(1108)는 시간T0의 수직동기신호의 하강에지에서 AF제어신호를 (H레벨로) 상승시킨다. 다음에, 수직동기신호가 상승하면, 시스템 제어부(1108)는 수직동기신호에 동기해서 화상표시신호용과 촬상평가값 검출신호용의 촬상동작을 동시에 시작해서 행한다.14A is timing for detecting an AF evaluation value (autofocus evaluation value) from an image for evaluation of imaging evaluation, as a result of scene determination to be described later. As shown in Fig. 14A, the imaging timing is defined by the vertical synchronization signal. When the camera is in the AF evaluation mode, the system control unit 1108 raises the AF control signal (to the H level) at the falling edge of the vertical synchronization signal at time T0. Next, when the vertical synchronization signal rises, the system control section 1108 starts and starts the imaging operation for the image display signal and the imaging evaluation value detection signal at the same time in synchronization with the vertical synchronization signal.

기간T0∼TF1에서, 수평신호선 1215-b를 거쳐서 화소부(120)로부터 판독된 촬상평가용 화상신호는, 촬상평가값 검출부(1106)에 입력된다. 그후, 기간TF1∼TF2에 있어서, AF평가값이 산출된다. 이 AF 평가값은, 이미지 센서(1102)로부터 출력된, 촬상평가값 검출용 화상신호로부터 얻어진 콘트라스트 정보 및 위상차 정보에 의거하여 시스템 제어부(1108)로 제어된 타이밍에 따라 산출된다. 그 후, 기간TF2∼TF3에 있어서, 촬상평가값 검출부(1106)는 그 AF평가값을 시스템 제어부(1108)에 출력한다.In the period T0 to TF1, the imaging evaluation image signal read from the pixel portion 120 via the horizontal signal line 1215-b is input to the imaging evaluation value detection unit 1106. [ Thereafter, AF evaluation values are calculated in the periods TF1 to TF2. The AF evaluation value is calculated according to the timing controlled by the system control section 1108 based on the contrast information and the phase difference information obtained from the image evaluation evaluation value detection image signal output from the image sensor 1102. [ Thereafter, in the periods TF2 to TF3, the imaging evaluation value detection section 1106 outputs the AF evaluation values to the system control section 1108. [

도면에 나타낸 예에서는, 1수직동기신호의 기간 동안에, 라이브 뷰용 화상의 1프레임이 촬상되고, AF평가값 검출용 화상(AF주사)의 3프레임이 촬상된다. 시스템 제어부(1108)가 수직동기신호를 L레벨로 하면, 라이브 뷰용 화상의 1프레임 기간내의 AF평가가 종료한다.In the example shown in the drawing, one frame of the live view image is picked up and three frames of the AF evaluation value detection image (AF scan) are picked up during the period of one vertical synchronizing signal. When the system control section 1108 changes the vertical synchronizing signal to the L level, the AF evaluation within one frame period of the live view image ends.

시스템 제어부(1108)는 AF평가값과 후술하는 소정의 AF기대값을 비교한다. AF평가값이 그 AF기대값에 대한 소정의 평가 조건을 만족하면, 시스템 제어부(1108)는 AF제어신호를 하강시킨다(시간T1). AF제어신호가 하강하면, AF평가 촬상만이 정지하고, 라이브 뷰 촬상이 계속된다.The system control unit 1108 compares the AF evaluation value with a predetermined AF expectation value described later. When the AF evaluation value satisfies a predetermined evaluation condition for the AF expectation value, the system control section 1108 lowers the AF control signal (time T1). When the AF control signal falls, only AF evaluation imaging stops, and live view imaging continues.

도 14b는, 후술하는 씬 판별의 결과에 따라, 라이브 뷰용 화상으로부터 AF평가값을 검출하는 타이밍도다.14B is timing for detecting the AF evaluation value from the live view image in accordance with the result of the scene judgment described later.

도 14a에 나타낸 바와 같이, 수직동기신호에 의해 촬상 타이밍이 규정되어 있다. AF평가 모드가 설정되어 있으면, 시스템 제어부(1108)는 시간T0의 수직동기신호의 하강에지에서 AF제어신호를 (H레벨로) 상승시킨다. 다음에, 수직동기신호가 상승하면, 시스템 제어부(1108)는 수직동기신호에 동기해서 화상표시신호용만 촬상동작을 행한다.As shown in Fig. 14A, the imaging timing is defined by the vertical synchronization signal. If the AF evaluation mode is set, the system control section 1108 raises the AF control signal (to the H level) at the falling edge of the vertical synchronizing signal at time T0. Next, when the vertical synchronization signal rises, the system control section 1108 performs imaging operation only for the image display signal in synchronization with the vertical synchronization signal.

기간T0∼TF4에 있어서, 1215-a를 거쳐서 화소(1201)로부터 판독된 라이브 뷰용 화상신호는, 촬상평가값 검출부(1106)와 화상신호처리부(1103)에 입력된다. 기간TF4∼TF5에 있어서, AF평가값이 산출된다. 촬상평가값 검출부(1106)는, 이미지 센서(1102)로부터 출력된, 라이브 뷰용 화상의 화상신호로부터 얻어진 콘트라스트 정보 및 위상차 정보에 의거하여 시스템 제어부(1108)로 제어된 타이밍에 따라 AF평가값을 산출한다. 그 후에, 기간TF5∼TF6에 있어서, 촬상평가값 검출부(1106)는 AF평가값을 시스템 제어부(1108)에 출력한다.In the periods T0 to TF4, the live view image signal read from the pixel 1201 via 1215-a is input to the evaluation value detection unit 1106 and the image signal processing unit 1103. [ In the periods TF4 to TF5, the AF evaluation value is calculated. The imaging evaluation value detection section 1106 calculates the AF evaluation value in accordance with the timing controlled by the system control section 1108 based on the contrast information and the phase difference information obtained from the image signal of the live view image outputted from the image sensor 1102 do. Thereafter, in the periods TF5 to TF6, the imaging evaluation value detection section 1106 outputs the AF evaluation value to the system control section 1108. [

도면에 나타낸 예에서는, 1수직동기신호 동안에, 라이브 뷰용 화상의 1프레임이 촬상되고, AF평가값 검출용 화상(AF주사)은 촬상되지 않는다. 시스템 제어부(1108)가 수직동기신호를 L레벨로 하면, 라이브 뷰용 화상 1프레임 기간동안의 AF평가가 종료한다.In the example shown in the drawings, one frame of the live view image is picked up during one vertical synchronizing signal, and the AF evaluation value detection image (AF scan) is not picked up. When the system control section 1108 sets the vertical synchronization signal to the L level, the AF evaluation for one frame period of the live view image is ended.

시스템 제어부(1108)는 라이브 뷰용 화상으로부터 검출된 AF평가값과 후술하는 소정의 AF기대값과를 비교한다. AF평가값이 AF기대값에 대해 소정의 평가 조건을 만족하면, AF제어신호를 하강시킨다(시간T7). AF제어신호가 하강하면, 상기 표시 화상에 의거한 AF평가용 검출 동작이 정지하고, 라이브 뷰 촬상이 계속된다.The system control unit 1108 compares the AF evaluation value detected from the live view image with a predetermined AF expected value described later. When the AF evaluation value satisfies a predetermined evaluation condition for the AF expectation value, the AF control signal is lowered (time T7). When the AF control signal falls, the AF evaluation detection operation based on the display image is stopped and the live view imaging is continued.

도 14a에 나타나 있는 바와 같이, 본 실시예에서는, 촬상평가값 검출용 화상에 대해서, 라이브 뷰용 화상의 동작보다 빠른 프레임 레이트를 설정 가능하다. 이에 따라, 촬상장치에의 촬상평가값의 반영이 종래보다도 더 빨리 제어될 수 있다.As shown in Fig. 14A, in this embodiment, it is possible to set a frame rate faster than the operation of the live view image with respect to the image for evaluation of the image evaluation value. Thus, the reflection of the imaging evaluation value to the imaging apparatus can be controlled faster than before.

그렇지만, 촬상장치에는 프로그램 선도로 설정된 노출 제어로 인해 어두운 씬의 추종 한계가 존재한다. 이에 따라, 프레임 레이트가 빠른 촬상평가값 검출용 화상과, 프레임 레이트가 느린 라이브 뷰용 화상은, 노출 제어에 의한 어두운 씬의 추종 한계에 있어서 다르다. 본 실시예에서는, 어두운 씬의 추종 한계에 있어서 3상태의 차이가 발생된다.However, the imaging apparatus has a tracking limit of dark scenes due to the exposure control set by the program guide. Accordingly, the image for evaluation of image pickup evaluation with a high frame rate and the image for live view with a slow frame rate differ in the follow-up limit of dark scenes due to exposure control. In the present embodiment, a difference of three states occurs in the tracking limit of the dark scene.

씬 판별부(1107)는, 라이브 뷰용 화상 촬영시에, 시스템 제어부(1108)에 의해 촬영(노출)조건으로서 설정되어 있는 감도설정 값이나, 셔터 스피드 등으로부터 산출된 노광량으로부터 촬영 씬의 특징을 판별한다. 촬상평가값 검출부(1106)는, 씬 판별부(1107)의 판별 결과에 따라, 촬상평가값 검출용 화상과 라이브 뷰용 화상 중 어느 하나로부터 촬상평가값을 검출한다.The scene discrimination unit 1107 discriminates the characteristic of the shooting scene from the sensitivity set value set as the shooting (exposure) condition or the exposure amount calculated from the shutter speed or the like by the system control unit 1108 at the time of shooting the live view image do. The imaging evaluation value detection unit 1106 detects the imaging evaluation value from either the imaging evaluation value detection image or the live view image in accordance with the discrimination result of the scene discrimination unit 1107. [

이하, AF평가 모드에서의 제4실시예에 따른 촬상장치의 동작을, 도 15의 흐름도를 참조하여 상세히 설명한다.Hereinafter, the operation of the imaging apparatus according to the fourth embodiment in the AF evaluation mode will be described in detail with reference to the flowchart of Fig.

이때, 도면에 나타낸 흐름도는 시스템 제어부(1108)의 제어하에서 행해진다. 설명을 위해, 촬상평가값 검출용 화상에서 검출된 촬상평가값을 AF_Kα로서 정의하고, 라이브 뷰용 화상에서 검출된 촬상평가값을 AF_Kβ로서 정의한다.At this time, the flowchart shown in the figure is performed under the control of the system control unit 1108. [ For the sake of description, the imaging evaluation value detected in the imaging evaluation value detection image is defined as AF_K alpha, and the imaging evaluation value detected in the live view image is defined as AF_K beta.

유저에 의해 전원이 온되고, 각종 초기 설정을 행한 후(단계S1502), 카메라의 모드는 라이브 뷰 모드와 동화상 기록등의 동작 모드에 이행되고, 촬영이 개시된다(단계S1520).After power is turned on by the user and various initial settings are made (step S1502), the camera mode is changed to an operation mode such as live view mode and moving image recording, and shooting starts (step S1520).

시스템 제어부(1108)는 AF평가 모드가 실시되는지의 여부를 판정한다(단계S1502). 즉, 시스템 제어부(1108)는 오토포커스 모드가 설정되어 있는 것인가 아닌가를 판정한다. AF평가 모드가 실시되지 않으면(단계S1503에 있어서, NO), 시스템 제어부(1108)는 라이브 뷰 촬상만을 시작해서(단계S1520), 후술한 단계S1521에 진행된다.The system control unit 1108 determines whether or not the AF evaluation mode is performed (step S1502). In other words, the system control section 1108 determines whether or not the autofocus mode is set. If the AF evaluation mode is not performed (NO in step S1503), the system control unit 1108 starts only live view imaging (step S1520), and proceeds to step S1521 described later.

AF평가 모드가 실시된다고 하면(단계S1503에 있어서, YES), 시스템 제어부(1108)는 AF제어신호를 온(H레벨)으로 한다(단계S1504). 다음에, 시스템 제어부(1108)는 AF평가 촬상의 횟수를 카운트하기 위한 변수n에 0을 대입한다(단계S1505). 다음에, 단계S1506에서, 시스템 제어부(1108)는, 라이브 뷰 촬영을 행하기 위한 촬상조건의 노광량S를 검출한다.If the AF evaluation mode is to be executed (YES in step S1503), the system control unit 1108 turns on the AF control signal (H level) (step S1504). Next, the system control section 1108 substitutes 0 into a variable n for counting the number of AF evaluation imaging (step S1505). Next, in step S1506, the system control section 1108 detects the exposure amount S of the imaging condition for performing live view imaging.

다음에, 씬 판별부(1107)에 의해, 단계S1506에서 검출된 노광량E와 노광량 기대값Ev의 비교를 행한다(촬상조건 판정). 시스템 제어부(1108)는, 라이브 뷰 촬영의 노광량이 노광 설정의 기대값 Ev에 대하여 다음 식(1), 즉, 소정의 감도조건을 충족시킬 것인가 아닌가를 판정한다(단계S1507).Next, the scene determination unit 1107 compares the exposure amount E detected in step S1506 with the exposure amount expected value Ev (imaging condition determination). The system control unit 1108 determines whether or not the exposure amount of the live view photographing satisfies the following equation (1), that is, a predetermined sensitivity condition, with respect to the expected value Ev of the exposure setting (step S1507).

E <Ev...(1)E <Home ... (1)

라이브 뷰의 노광량Ev가, (1)식을 충족시킨 경우(YES), S1508의 동작으로 진행되어, AF평가값 검출 촬상을 스타트한다.If the exposure amount EV of the live view satisfies the expression (1) (YES), the process proceeds to the operation in S1508 to start the AF evaluation value detection imaging.

다음에, 도 14a에 설명한 바와 같이, 시스템 제어부(1108)는 AF평가 촬상을 시작한다(단계S1508). AF평가 촬상을 시작한 후, 시스템 제어부(1108)는 변수n을 1만큼 증분한다(단계S1509). 그 후, 시스템 제어부(1108)의 제어하에서, 촬상평가값 검출부(1106)는 AF평가 촬상에서 얻어진 AF평가용 화상신호로부터 AF평가값AF_Kα를 검출한다(단계S1510).Next, as described in Fig. 14A, the system control section 1108 starts AF evaluation imaging (step S1508). After AF evaluation imaging is started, the system control unit 1108 increments the variable n by 1 (step S1509). Thereafter, under the control of the system control section 1108, the imaging evaluation value detection section 1106 detects the AF evaluation value AF_Kα from the AF evaluation image signal obtained in the AF evaluation imaging (step S1510).

다음에, 시스템 제어부(1108)는, AF평가값AF_Kα가 AF기대값인 K_minα 및 K_maxα에 대하여 다음 식(2), 즉 소정의 평가 조건을 충족시킬 것인가 아닌가를 판정한다(단계S1511).Next, the system control unit 1108 determines whether or not the AF evaluation value AF_Kα satisfies the following equation (2), that is, the predetermined evaluation condition, with respect to the AF expected values K_minα and K_maxα (step S1511).

K_minα <AF_Kα <K_maxα(2)K_minα <AF_Kα <K_maxα (2)

여기에서, AF평가값 기대값K_minα 및 K_maxα는 기대된 AF평가값의 최소값 및 최대값으로서 설정된다. 이들 값은, 촬상장치의 설계시 또는 촬상장치의 조정시에 시스템 제어부(1108)에 사전 기록된다.Here, the AF evaluation value expectation values K_min [alpha] and K_max [alpha] are set as the minimum and maximum values of the expected AF evaluation value. These values are pre-recorded in the system control section 1108 at the time of designing of the image pickup apparatus or adjustment of the image pickup apparatus.

AF평가값AF_Kα가 식(2)을 충족시키지 않으면(단계S1511에 있어서, NO), 시스템 제어부(1108)는 상기의 AF평가값AF_Kα에 의거하여 피드백 제어량을 산출한다. 그 후, 시스템 제어부(1108)는 해당 피드백 제어량에 따라서 렌즈 구동제어부(1105)를 구동제어해서 렌즈(1101)에 구비된 포커스 렌즈를 구동한다(단계S1512).If the AF evaluation value AF_Kα does not satisfy the formula (2) (NO in step S1511), the system control section 1108 calculates the feedback control amount based on the AF evaluation value AF_Kα. Thereafter, the system control unit 1108 controls the lens drive control unit 1105 according to the feedback control amount to drive the focus lens provided in the lens 1101 (step S1512).

다음에, 시스템 제어부(1108)는 변수(AF평가값 촬상 횟수)n이 소정의 수(이 경우에는, 3)인지의 여부를 판정한다(단계S1513). AF평가값 촬상횟수가 3미만이면(단계S1511에 있어서, NO), 시스템 제어부(1108)는 단계S1510의 처리로 되돌아가서, AF평가 촬상을 행한다. 한편, AF평가값 촬상횟수가 3이면(단계S1513에 있어서, YES), 시스템 제어부(1108)는, 단계S1505의 처리에 되돌아가서, AF평가값 촬상횟수n을 제로로 설정한다.Next, the system control section 1108 judges whether or not the variable (the number of times AF evaluation value imaging) n is a predetermined number (3 in this case) (step S1513). If the number of times of AF evaluation value imaging is less than 3 (NO in step S1511), the system control unit 1108 returns to the processing of step S1510 to perform AF evaluation imaging. On the other hand, if the number of times the AF evaluation value imaging is 3 (YES in step S1513), the system control unit 1108 returns to the process of step S1505 and sets the AF evaluation value imaging number n to zero.

AF평가값AF_Kα가 식(2)을 충족시키면(단계S1511에 있어서, YES), 시스템 제어부(1108)는 AF제어신호를 오프(L레벨)로 하고(단계S1514), 촬상소자(1102)에 있어서의 AF평가 촬상을 정지한다(단계S1515). 그 후, 시스템 제어부(1108)는, 동작을 단계S1522에 진행시킨다.If the AF evaluation value AF_Kα satisfies the expression (2) (YES in step S1511), the system control section 1108 turns off the AF control signal (L level) (step S1514) (Step S1515). Thereafter, the system control section 1108 advances the operation to step S1522.

단계S1507에서 라이브 뷰용 화상의 노광량E가, (1)식을 충족시키지 않는 경우(NO), S1516의 동작으로 진행되고, 라이브 뷰용의 촬상화상으로부터 AF평가값AF_Kβ를 검출한다. 다음에, 시스템 제어부(1108)는, AF평가값AF_Kβ가 AF기대값인 K_minβ 및 K_maxβ에 대하여 다음 식(3), 즉, 소정의 평가 조건을 충족시키는 것인가 아닌가를 판정한다(단계S1517).If the exposure amount E of the live view image in step S1507 does not satisfy the expression (1) (NO), the process proceeds to step S1516 to detect the AF evaluation value AF_K? From the live view image. Next, the system control unit 1108 determines whether the AF evaluation value AF_Kβ satisfies the following equation (3), that is, the predetermined evaluation condition, with respect to the AF expected values K_minβ and K_maxβ (step S1517).

K_minβ <AF_K <K_maxβ (3)K_minβ <AF_K <K_maxβ (3)

여기에서, AF기대값K_minβ 및 K_maxβ는 기대되는 AF평가값의 최소값 및 최대값으로서 설정되어 있다. 이들 값은, 촬상장치의 설계시 또는 촬상장치의 조정시에 시스템 제어부(1108)에 사전 기록된다.Here, the AF expected values K_min [beta] and K_max [beta] are set as the minimum and maximum values of the expected AF evaluation value. These values are pre-recorded in the system control section 1108 at the time of designing of the image pickup apparatus or adjustment of the image pickup apparatus.

AF평가값AF_Kβ가 식(3)을 충족시키지 않는 경우에는(단계S1517에 있어서, NO), 시스템 제어부(1108)는 상기의 AF평가값AF_Kβ에 따라 피드백 제어량을 산출한다. 그 후, 시스템 제어부(1108)는 해당 피드백 제어량에 따라 렌즈 구동제어부(1105)를 구동제어해서 렌즈(1101)에 구비된 포커스 렌즈를 구동해(단계S1518), 단계S1522의 동작으로 진행된다.If the AF evaluation value AF_Kβ does not satisfy the formula (3) (NO in step S1517), the system control section 1108 calculates the feedback control amount in accordance with the AF evaluation value AF_Kβ. Thereafter, the system control section 1108 controls the lens drive control section 1105 in accordance with the feedback control amount to drive the focus lens provided in the lens 1101 (step S1518), and proceeds to the operation of step S1522.

AF평가값AF_Kβ가 식(3)을 충족시키는 경우에는(단계S1517에 있어서, YES), 시스템 제어부(1108)는 AF제어신호를 오프(L레벨)로 하고(단계S1519), 단계S1522의 동작으로 진행된다. 단계S1522에서는, 라이브 뷰 동작의 종료의 지시가 있으면(YES), 라이브 뷰 동작이 종료한다. 라이브 뷰 동화상이 계속되는 경우에는(NO), 단계S1503의 동작으로 되돌아가고, 라이브 뷰 동작을 행하면서, AF동작을 행한다.(YES in step S1517), the system control unit 1108 turns off the AF control signal (L level) (step S1519), and in step S1522, It proceeds. In step S1522, if there is an instruction to end the live view operation (YES), the live view operation ends. If the live view moving image continues (NO), the process returns to step S1503 to perform the AF operation while performing the live view operation.

전술한 바와 같이, 본 실시예는, 라이브 뷰 촬상과 촬상평가값 검출 촬상이 1프레임 기간 동안에 동시에 가능한 촬상소자를 구비한 촬상장치를 전제로 하고 있다. 라이브 뷰 촬상시의 노출 조건에 근거한 씬 판별의 결과에 따라, AF평가값을 검출하는 화상을, AF평가값용 화상 및 라이브 뷰 화상으로부터 선택한다. 그 결과, 밝은 씬에서 피사체 촬영시에, AF평가를 행할 때의 시간 지연을 단축할 수 있고, 어두운 씬에서는 AF평가값의 정밀도를 향상할 수 있다. 또한, 본 실시예에서는, AF평가값과 비교하여 AF기대값을, AF평가값용 화상 및 라이브 뷰 화상에 대해서 다른 AF기대값으로 했다. 그렇지만, 이들 기대값은 동일해도 된다.As described above, the present embodiment is based on an image pickup apparatus having an image pickup device capable of simultaneously performing live view image pickup and image pickup evaluation value detection image pickup in one frame period. An image for detecting the AF evaluation value is selected from the AF evaluation value image and the live view image in accordance with the result of scene determination based on the exposure condition at the time of live view imaging. As a result, it is possible to shorten the time delay in performing AF evaluation at the time of shooting a subject in a bright scene, and improve the accuracy of the AF evaluation value in a dark scene. In the present embodiment, the AF expectation value is compared with the AF evaluation value to set a different AF expectation value for the AF evaluation value image and the live view image. However, these expected values may be the same.

본 실시예에서는, 촬상평가값의 예로서, AF평가값을 설명했지만, 그 밖의 촬상평가값, 이를테면 WB평가값(화이트 밸런스 데이터)이나, AE평가값(노출 제어 데이터)도 같은 구성에서 최적의 평가값을 검출하기도 한다. WB평가값이나 AE평가값일 경우에, 촬상평가값 검출용 화상이나 라이브 뷰용 화상은, 단계S1507의 씬 판별의 결과에 따라 평가값을 검출하기 위해서 전환된다. 이에 따라, 상기 시간 지연을 단축할 수 있고, WB나 AE평가값 검출의 정밀도가 최적화될 수 있다.In the present embodiment, the AF evaluation value is described as an example of the imaging evaluation value, but other imaging evaluation values such as the WB evaluation value (white balance data) and the AE evaluation value (exposure control data) The evaluation value is also detected. In the case of the WB evaluation value or the AE evaluation value, the image pickup evaluation value detection image or live view image is switched in order to detect the evaluation value according to the result of the scene discrimination in step S1507. Thus, the time delay can be shortened and the precision of WB or AE evaluation value detection can be optimized.

제5실시예Fifth Embodiment

본 발명의 제4실시예에서는 노출 정보만에 의거하여 촬영 씬을 판별하고, 그 판별 결과에 따라, AF평가값 화상 또는 라이브 뷰 화상으로부터 AF평가값을 검출하도록 구성된 구성을 설명했다. 본 실시예에서는, 노출 정보뿐만아니라, 얼굴정보, 휘도정보 및 색정보에 의거하여서도 촬영 씬을 판별 함으로써 한층 더 정밀도 좋게 촬상평가값을 검출하도록 구성된다. 이하, 본 발명의 제5실시예에 따른 촬상장치에 대해서, 도 16 내지 도 18을 참조해서 설명한다. 이때, 상기 제4실시예와 같은 도면에 나타낸 구성요소 부재는, 동일한 참조번호로 나타내므로, 그에 대한 설명을 생략한다.In the fourth embodiment of the present invention, a configuration has been described in which the photographic scene is determined based only on the exposure information, and the AF evaluation value is detected from the AF evaluation value image or the live view image in accordance with the determination result. In the present embodiment, the image pickup evaluation value is detected with higher precision by discriminating the image pickup scene even on the basis of the face information, the luminance information and the color information, as well as the exposure information. Hereinafter, an imaging apparatus according to a fifth embodiment of the present invention will be described with reference to Figs. 16 to 18. Fig. At this time, the constituent members shown in the same figure as the fourth embodiment are denoted by the same reference numerals, and a description thereof will be omitted.

도 16은, 본 실시예에 따른 촬상장치의 블록도다. 본 실시예는, 구성에 있어서, 얼굴정보 검출부(1601), 휘도정보 검출부(1602) 및 색정보 검출부(1603)를 구비한 것외에는, 상기 제4실시예와 같다.16 is a block diagram of an image pickup apparatus according to the present embodiment. This embodiment is the same as the fourth embodiment except that it has a face information detecting section 1601, a luminance information detecting section 1602 and a color information detecting section 1603 in the configuration.

얼굴정보 검출부(1601)는, 이미지 센서(1102)로부터 출력된 화상신호에 대하여 얼굴검출 처리를 행하고, 촬영된 프레임 화상에서의 인물이나 동물(예를 들면, 애완동물)의 얼굴을 검출한다. 또한, 얼굴정보 검출부(1601)는, 검출된 얼굴의 영역을 얼굴정보로서 씬 판별부(1107)에 출력한다.The face information detection unit 1601 performs face detection processing on the image signal output from the image sensor 1102 and detects the face of a person or an animal (for example, a pet) in the photographed frame image. The face information detection unit 1601 also outputs the detected face area to the scene discrimination unit 1107 as face information.

휘도정보 검출부(1602)는, 화상신호 처리부(1103)로부터 출력된 화상 데이터 화상에 대하여 휘도검출 처리를 행한다. 그 처리에서, 화상 프레임 화상을 복수의 영역으로 분할하고, 각 영역의 평균 휘도를 구한다. 휘도정보 검출부(1602)는, 이것들의 평균 휘도를 사용하여서, 프레임 화상의 중심부와 그 주변부간의 휘도차이나 중심휘도값등의 휘도정보를 산출한다. 휘도정보 검출부(1602)에서 검출된 휘도정보는, 씬 판별부(1107)에 출력된다.The luminance information detection unit 1602 performs luminance detection processing on the image data image output from the image signal processing unit 1103. [ In the process, the image frame image is divided into a plurality of regions, and an average luminance of each region is obtained. The luminance information detecting unit 1602 calculates luminance information such as a luminance difference and a central luminance value between the central portion of the frame image and the peripheral portion thereof using the average luminance thereof. The luminance information detected by the luminance information detecting unit 1602 is output to the scene determining unit 1107. [

색정보 검출부(1603)는, 화상신호 처리부(1103)로부터 출력된 화상 데이터 화상에 대하여 색검출 처리를 행하여, 평균 색상, 고색상영역의 면적등의 색정보를 검출한다. 색정보 검출부(1603)에서 검출된 색정보는, 씬 판별부(1107)에 출력된다.The color information detection unit 1603 performs color detection processing on the image data image output from the image signal processing unit 1103 to detect color information such as an average color and an area of a high color area. The color information detected by the color information detection unit 1603 is output to the scene determination unit 1107. [

씬 판별부(1107)는, 얼굴정보 검출부(1601), 휘도정보 검출부(1602),및 색정보 검출부(1603)로부터 입력된 각 정보에 의거하여 상기 화상신호 처리부(1103)에서 처리된 화상 데이터 화상으로부터 촬영 씬의 배경과 촬영 씬의 피사체를 판별한다. 이때, 얼굴정보 검출부(1601), 휘도정보 검출부(1602), 및 색정보 검출부(1603)로부터 보내진 각 정보는, 씬 판별부(1107)에 의해 일시적으로 보존되고, 필요에 따라 갱신된다.The scene discrimination section 1107 judges whether or not the image data image processed in the image signal processing section 1103 based on each piece of information inputted from the face information detection section 1601, the luminance information detection section 1602 and the color information detection section 1603 The background of the shooting scene and the subject of the shooting scene are discriminated. At this time, the pieces of information sent from the face information detection section 1601, the luminance information detection section 1602, and the color information detection section 1603 are temporarily stored by the scene discrimination section 1107 and updated as necessary.

다음에, 본 실시예에 따른 촬상장치에 있어서의 촬영 씬의 판별 동작에 관하여 설명한다.Next, a determination operation of the shooting scene in the imaging apparatus according to the present embodiment will be described.

씬 판별부(1107)는, 이미지 센서(1102)로부터 출력된 라이브 뷰의 화상신호에 대하여, 휘도정보 검출부(1602)에서 검출된 휘도정보와 색정보 검출부(1603)에서 검출된 색정보를 사용함으로써, 촬영 씬의 배경을 판별한다. 한층 더, 씬 판별부(1107)는, 얼굴검출부(1601)에서 검출된 얼굴정보를 사용함으로써, 촬영 씬에 있어서의 피사체를 판별한다.The scene discrimination section 1107 uses the luminance information detected by the luminance information detection section 1602 and the color information detected by the color information detection section 1603 with respect to the image signal of the live view outputted from the image sensor 1102 , The background of the shooting scene is discriminated. Furthermore, the scene discrimination section 1107 uses the face information detected by the face detection section 1601 to discriminate the subject in the shooting scene.

우선, 촬영 씬의 배경의 판별에 관하여 설명한다.First, the determination of the background of the shooting scene will be described.

씬 판별부(1107)는, 휘도정보 검출부(1602)에서 검출된 휘도정보와 색정보 검출부(1603)에서 검출된 색정보를 해석하고, 화상상의 푸른 하늘색의 영역의 면적이 역치이상인가 아닌가를 판정한다. 씬 판별부(1107)는, 푸른 하늘색의 영역의 면적이 역치이상이면, 촬영 씬의 배경이 푸른 하늘이라고 판정한다. 또한, 씬 판별부(1107)는, 휘도정보 검출부(1602)로부터의 휘도정보와 색정보 검출부(1603)로부터의 색정보를 해석한다. 그 결과, 씬 판별부(1107)는, 화상상의 휘도가 소정의 히스토그램 분포나 분산의 조건을 충족시킨다고 판정했을 경우에, 촬영 씬의 배경은 야경이라고 판정한다. 예를 들면, 야경등의 어두운 씬에서의 화상의 휘도는, 저휘도부가 대부분을 차지하고, 또한, 고휘도부가 단발적으로 발생하고 있는 상태다. 또한, 씬 판별부(1107)는, 휘도정보 검출부(1602)로부터의 휘도정보와 색정보 검출부(1603)로부터의 색정보를 해석하고, 화상상의 평균 색상, 고색상의 영역의 면적이 모두 역치이상인가 아닌가를 판정한다. 이들 값이 그 역치이상이면, 씬 판별부(1107)는, 촬영 씬이 선명한 씬이라고 판정한다.The scene discrimination section 1107 analyzes the luminance information detected by the luminance information detection section 1602 and the color information detected by the color information detection section 1603 and judges whether the area of the blue sky area on the image is equal to or more than a threshold value do. The scene discrimination unit 1107 judges that the background of the shooting scene is a blue sky when the area of the blue sky-blue area is equal to or larger than the threshold value. The scene discrimination section 1107 analyzes luminance information from the luminance information detection section 1602 and color information from the color information detection section 1603. As a result, when the scene discrimination unit 1107 judges that the luminance on the image satisfies the predetermined histogram distribution or distribution condition, it determines that the background of the shooting scene is the night scene. For example, the brightness of an image in a dark scene such as a night scene occupies most of the low-luminance portion, and a state in which a high-luminance portion occurs singly. The scene discrimination unit 1107 analyzes the luminance information from the luminance information detection unit 1602 and the color information from the color information detection unit 1603 and determines whether the areas of the average color and high color areas on the image are all equal to or more than the threshold value Or not. If these values are greater than or equal to the threshold value, the scene discrimination section 1107 judges that the photographic scene is a clear scene.

다음에, 촬영 씬에 있어서의 피사체를 판별하는 동작에 관하여 설명한다.Next, an operation of determining a subject in the shooting scene will be described.

씬 판별부(1107)는, 얼굴검출부(1601)로부터의 얼굴정보를 해석한다. 화상신호로부터 얼굴이 검출되어 있었을 경우에, 씬 판별부(1107)는, 촬영 씬에 있어서의 피사체가 인물이라고 판정한다.The scene discrimination section 1107 analyzes the face information from the face detection section 1601. [ When a face is detected from the image signal, the scene discrimination section 1107 judges that the subject in the photographing scene is a person.

씬 판별부(1107)는, 상기한 바와 같이 씬의 배경과 피사체의 양쪽을 판정하고, 이것들의 판정 결과를 조합하여, 그 조합된 1개의 판정 결과를 시스템 제어부(1108)에 출력한다.The scene discrimination section 1107 judges both the background of the scene and the subject as described above, combines the judgment results thereof, and outputs the combined judgment result to the system control section 1108. [

다음에, 본 실시예에 따른 촬상장치의 AF평가 모드에서의 상세한 동작을, 도 17의 흐름도를 참조하여 설명한다. 본 실시예의 상세한 동작을 설명하기 위해서, 라이브 뷰 화상으로부터 검출된 얼굴정보 검출 값을 X1, 휘도정보 검출 값을 Y1, 색정보 검출 값을 Z1로서 정의한다. 상기 제4실시예와 다른 동작 국면들에 대해서만 설명한다.Next, the detailed operation in the AF evaluation mode of the imaging apparatus according to the present embodiment will be described with reference to the flowchart of Fig. In order to describe the detailed operation of this embodiment, the face information detection value detected from the live view image is defined as X1, the luminance information detection value as Y1, and the color information detection value as Z1. Only the operation phases different from those of the fourth embodiment will be described.

씬 판별부(1107)는, 검출된 각 정보의 검출 값과 대응한 기대값: 얼굴정보X; 휘도정보Y; 및 색정보Z를 비교하고, 도 18에 나타나 있는 바와 같이 AF평가값AF_Kα 또는 AF_Kβ를 선택한다. 이 선택 결과에 따라, 단계S1702에서의 분기를 결정한다.The scene discrimination section 1107 judges whether or not the expected value corresponding to the detected value of each detected information: face information X; Luminance information Y; And the color information Z, and selects the AF evaluation value AF_K alpha or AF_K beta as shown in FIG. In accordance with the selection result, the branching in step S1702 is determined.

단계S1701에서는, 취득된 라이브 뷰용 화상으로부터 상기 얼굴정보 검출부(1601), 휘도정보 검출부(1602) 및 색정보 검출부(1603)는, 얼굴정보X1, 휘도정보Y1 및 색정보Z1을 검출한다. 단계S1702에서는, 씬 판별부(1107)에 의해 단계S1701에서 촬상평가값 검출용 화상 및 라이브 뷰용 화상으로부터 검출된 각 정보값으로부터, 도 18의 표에 나타낸 것처럼, 다음의 촬영에 반영하기 위한 촬상평가값을 결정한다.In step S1701, the face information detection unit 1601, the luminance information detection unit 1602, and the color information detection unit 1603 detect face information X1, luminance information Y1, and color information Z1 from the acquired live view image. In step S1702, as shown in the table of Fig. 18, from the respective information values detected by the image determination evaluation value image and the live view image in step S1701 by the scene determination unit 1107, the image evaluation &Lt; / RTI &gt;

예를 들면, 하나의 예에서 각 정보값의 관계가 하기에 나타나 있는 바와 같다고 가정한다:For example, in one example, it is assumed that the relationship of each information value is as follows:

얼굴정보값:X1>XFace information value: X1> X

휘도정보값:Y1>YLuminance information value: Y1 > Y

색정보값:Z1>ZColor information value: Z1> Z

이 경우에, 단계S1702에서는, AF평가값 검출 촬상을 스타트해(즉, YES로 분기), 단계S1508의 동작으로 진행되고, 시스템 제어부(1108)는 변수n을 1만큼 증분한다(단계S1509). 그 후의 처리는, 상기 제4실시예와 같다.In this case, in step S1702, the AF evaluation value detection imaging is started (that is, branching to YES), the operation proceeds to step S1508, and the system control unit 1108 increments the variable n by 1 (step S1509). The subsequent processing is the same as in the fourth embodiment.

다른 예에서는, 각 정보값의 관계가 하기에 나타나 있는 바와 같다:In another example, the relationship of each information value is as follows:

얼굴정보값:X1≤XFace information value: X1? X

휘도정보값:Y1≤YLuminance information value: Y1? Y

색정보값:Z1≤ZColor information value: Z1? Z

이 경우에, 단계S1702에서는, AF평가값 검출 촬상이 스타트되지 않아서(즉, NO로 분기), 단계S1516의 동작으로 진행되어 라이브 뷰용 촬상화상으로부터 AF평가값AF_Kβ를 검출한다. 그 후의 처리는, 상기 제4실시예와 같다. 그 밖의 씬 판별의 경우, 도 18에 나타나 있는 바와 같은 관계를 이용한다.In this case, in step S1702, the AF evaluation value detection imaging is not started (that is, branching to NO), and the process proceeds to step S1516 to detect the AF evaluation value AF_Kβ from the live view imaging image. The subsequent processing is the same as in the fourth embodiment. In the case of other scene discrimination, the relationship shown in FIG. 18 is used.

상술한 것처럼, 본 실시예는, 라이브 뷰 촬상과 촬상평가값 검출 촬상이 1프레임 기간 동안에 동시에 가능한 촬상소자를 구비한 촬상장치를 전제로 하고 있다. 상기 휘도/색/얼굴정보에 근거한 촬영 씬의 판별결과에 따라, AF평가값을 검출하는 화상을, AF평가값용 화상 또는 라이브 뷰용 화상으로부터 선택한다. 따라서, 밝은 씬에서 피사체 촬영시에는 AF평가를 행할 때의 시간 지연을 단축할 수 있고, 어두운 씬에서는 AF평가값의 정밀도를 향상할 수 있다.As described above, the present embodiment is based on an image pickup device having an image pickup device capable of simultaneously performing live view image pickup and image pickup evaluation value detection image pickup in one frame period. An image for detecting the AF evaluation value is selected from the image for AF evaluation value or the image for live view in accordance with the determination result of the shooting scene based on the brightness / color / face information. Therefore, when shooting a subject in a bright scene, the time delay in performing the AF evaluation can be shortened, and in the dark scene, the accuracy of the AF evaluation value can be improved.

또한, 본 실시예에서는, 씬 판별을 행할 때, 촬상평가값 검출용 화상과 라이브 뷰용 화상 각각으로부터, 얼굴정보, 휘도정보 및 색정보를 검출했다. 그렇지만, 본 발명은, 이 구성에 한정되는 것은 아니다. 상기 제1실시예에서 기재한 감도를 검출하고, 그 결과도 씬 판별의 하나의 인자로서 사용하는 경우, AF평가값을 검출할 때의 시간 지연을 더욱 단축할 수 있고, AF평가값 검출 속도를 더욱 최적화할 수 있다.In the present embodiment, when the scene is discriminated, face information, luminance information, and color information are detected from each of the image pickup evaluation value detection image and the live view image. However, the present invention is not limited to this configuration. When the sensitivity described in the first embodiment is detected and the result is also used as one factor of the scene discrimination, the time delay in detecting the AF evaluation value can be further shortened, Further optimization is possible.

또한, 본 실시예에서는, 씬 판별을 행하는데 필요한 정보인 얼굴정보, 휘도정보 및 색정보 중 적어도 2개가 큰 정보값일 경우의 촬상화상으로부터 촬상평가값을 결정했다. 그렇지만, 본 발명은, 이것에 한정하는 것은 아니다. 촬상평가값에 따라 각 정보값에 가중치를 주어서 비교를 행해도 된다.In the present embodiment, imaging evaluation values are determined from captured images when at least two of face information, luminance information, and color information, which is information necessary for scene determination, are large information values. However, the present invention is not limited to this. The comparison may be performed by weighting each information value according to the imaging evaluation value.

제6실시예Sixth Embodiment

이제, 본 발명의 제6실시예를 설명한다. 본 실시예는, 촬상평가값 검출부(1106)를, 이미지 센서(1102)의 외부가 아니라, 내부, 이를테면 도 12a의 제2 칩(121)의 화소구동부내에 형성하도록 구성된다.Now, a sixth embodiment of the present invention will be described. The present embodiment is configured to form the imaging evaluation value detection section 1106 in the pixel drive section of the inside of the image sensor 1102, for example, the pixel section of the second chip 121 in Fig. 12A.

도 19는, 촬상평가값 검출부를 내장하는 이미지 센서(1102)의 블록도다. 도 19에 있어서, 도 12a 및 12b와 같은 구성요소 부재는 동일한 참조번호로 나타내어진다.19 is a block diagram of an image sensor 1102 incorporating an imaging evaluation value detection unit. In Fig. 19, the constituent members as shown in Figs. 12A and 12B are denoted by the same reference numerals.

그 도면에 있어서, 촬상평가값 검출부(1901)는, 촬상평가값, 이를테면, AF평가값(오토포커스 데이터)을 검출하고, 검출된 평가값만을 시스템 제어부(1106)에 출력한다. 촬상평가값 검출부(1901)는, 시스템 제어부(1108)가 촬상소자(1102)에서 얻어진 화상신호로부터 얻어진 콘트라스트 정보 및 위상차 정보에 의거하여 제어한 타이밍에 따라서 동작한다.In the figure, the imaging evaluation value detection section 1901 detects an imaging evaluation value, such as an AF evaluation value (autofocus data), and outputs only the detected evaluation value to the system control section 1106. [ The imaging evaluation value detection section 1901 operates in accordance with the timing controlled by the system control section 1108 based on the contrast information and the phase difference information obtained from the image signal obtained by the imaging element 1102. [

스위치(1902, 1903)는 시스템 제어부(1108)에 의해 제어된다. 스위치(1902, 1903)는, 씬 판별부(1107)의 판별 결과에 의거하여 촬상평가값 검출용의 화상신호와 라이브 뷰용의 화상신호를 전환함으로써, 그 신호 중 하나가, 촬상평가값을 검출할 때 촬상평가값 검출부(1901)에 선택적으로 입력된다. 스위치(1902)는, 도 13에 나타낸 촬상평가값에 대응하는 화소의 신호들의 출력처를 선택하는 것이고, 이때의 출력처는 신호 처리부(1103) 또는 촬상평가값 검출부(1901) 중 하나이다. 스위치(1903)는, 도 13에 나타낸 라이브 뷰용 선택행에 대응하는 화소의 신호들을 촬상평가값에 사용할 때에 온으로 전환되는 스위치다.The switches 1902 and 1903 are controlled by the system control unit 1108. The switches 1902 and 1903 switch the image signal for image pickup evaluation value detection and the image signal for live view on the basis of the discrimination result of the scene discrimination section 1107 so that one of the signals detects the image pickup evaluation value And is selectively inputted to the imaging evaluation value detection unit 1901. [ The switch 1902 selects an output destination of signals of pixels corresponding to the imaging evaluation values shown in FIG. 13, and the output destination at this time is one of the signal processing section 1103 and the imaging evaluation value detecting section 1901. The switch 1903 is a switch that is turned on when the signals of pixels corresponding to the selected row for live view shown in Fig. 13 are used for the imaging evaluation value.

도 19의 이미지 센서의 동작을, 제4실시예에 따른 촬상장치에서 사용될 때에, 도 15의 흐름도를 참조하여 설명한다.The operation of the image sensor of Fig. 19 will be described with reference to the flowchart of Fig. 15 when it is used in the image pickup apparatus according to the fourth embodiment.

단계S1503에서는, AF동작이 개시된다. 제4실시예에서 설명한 바와 같이, 단계S1507에 있어서 라이브 뷰의 노광량Ev가, (1)식을 충족시키는 경우(YES), 단계S1508의 동작으로 진행되어, AF평가값 검출용의 촬상이 스타트한다. 이때, 스위치 1902는 촬상평가값 검출부(1901)측에 접속되고, 스위치 1903은 오프로 된다.In step S1503, the AF operation is started. As described in the fourth embodiment, when the exposure amount Ev of the live view satisfies the expression (1) (YES) in the step S1507, the process proceeds to the operation in the step S1508 and the imaging for AF evaluation value detection is started . At this time, the switch 1902 is connected to the imaging evaluation value detector 1901 side, and the switch 1903 is turned off.

AF평가 촬상을 시작한 후, 시스템 제어부(1108)는 변수n을 1만큼 증분한다(단계S1509). 그 후, 촬상평가값 검출부(1901)는, AF평가값용 화상으로부터 AF평가값AF_Kα를 검출한다.After AF evaluation imaging is started, the system control unit 1108 increments the variable n by 1 (step S1509). Thereafter, the imaging evaluation value detection section 1901 detects the AF evaluation value AF_Kα from the AF evaluation value image.

단계S1507에 있어서 라이브 뷰의 노광량Ev가, (1)식을 충족시키지 않는 경우(NO), 단계S1516의 동작으로 진행된다. 단계S1516에서는, 스위치(1903)가 온으로 되고, 촬상평가값 검출부(1901)는, 라이브 뷰용의 화상신호로부터 AF평가값AF_Kβ를 검출한다. 이때, 스위치(1902)는, 신호 처리부(1103)측에 접속되어 있지만, AF평가값용의 동작은 행하고 있지 않기 때문에, 상기 신호 처리부에의 화소신호는 출력되지 않는다. 또한, 촬상평가값 검출부(1901)가 시스템 제어부(1108)에 AF평가값만을 전송하므로, 상기 제4실시예와 비교해서 외부에의 전송 데이터량을 삭감할 수 있어, 소비 전력을 삭감할 수 있다. 이후의 동작이 제1실시예에서의 동작과 같으므로, 그에 대한 설명은 생략한다. 이때, 제5실시예에 따른 촬상장치에 도 19의 이미지 센서를 사용했을 경우도, 같은 동작이 적용된다.In step S1507, if the exposure amount Ev of the live view does not satisfy the expression (1) (NO), the operation proceeds to step S1516. In step S1516, the switch 1903 is turned on, and the imaging evaluation value detection unit 1901 detects the AF evaluation value AF_K? From the live view image signal. At this time, although the switch 1902 is connected to the signal processing unit 1103 side, the pixel signal to the signal processing unit is not outputted because the operation for the AF evaluation value is not performed. Further, since the imaging evaluation value detecting section 1901 transmits only the AF evaluation value to the system control section 1108, the amount of data to be transferred to the outside can be reduced as compared with the fourth embodiment, and the power consumption can be reduced . Since the subsequent operations are the same as those in the first embodiment, a description thereof will be omitted. At this time, when the image sensor of Fig. 19 is used in the image pickup apparatus according to the fifth embodiment, the same operation is applied.

상술한 제6실시예에서는, 촬상평가값 검출부가 이미지 센서내에 형성되어 있어서, 상기 제1 및 제2실시예에 있어서 촬상평가값 검출시의 데이터의 전송량을 삭감할 수 있다. 따라서, 소비 전력을 저감시킬 수 있다.In the sixth embodiment described above, the imaging evaluation value detecting section is formed in the image sensor, so that the amount of data transmission at the time of detecting the imaging evaluation value in the first and second embodiments can be reduced. Therefore, the power consumption can be reduced.

기타의 실시예Other Embodiments

또한, 본 발명의 실시예들은, 기억매체(예를 들면, 비일시적 컴퓨터 판독 가능한 기억매체)에 레코딩된 컴퓨터 실행가능한 명령어를 판독하고 실행하여 본 발명의 상술한 실시예(들)의 하나 이상의 기능을 수행하는 시스템 또는 장치를 갖는 컴퓨터에 의해 실현되고, 또 예를 들면 상기 기억매체로부터 상기 컴퓨터 실행가능한 명령어를 판독하고 실행하여 상기 실시예(들)의 하나 이상의 기능을 수행하여서 상기 시스템 또는 상기 장치를 갖는 상기 컴퓨터에 의해 행해진 방법에 의해 실현될 수 있다. 상기 컴퓨터는, 중앙처리장치(CPU), 마이크로처리장치(MPU) 또는 기타 회로 중 하나 이상을 구비하여도 되고, 별개의 컴퓨터나 별개의 컴퓨터 프로세서의 네트워크를 구비하여도 된다. 상기 컴퓨터 실행가능한 명령어를, 예를 들면 네트워크나 상기 기억매체로부터 상기 컴퓨터에 제공하여도 된다. 상기 기억매체는, 예를 들면, 하드 디스크, 랜덤액세스 메모리(RAM), 판독전용 메모리(ROM), 분산형 컴퓨팅 시스템의 스토리지, 광디스크(콤팩트 디스크(CD), 디지털 다기능 디스크(DVD) 또는 블루레이 디스크(BD)TM등), 플래시 메모리 소자, 메모리 카드 등 중 하나 이상을 구비하여도 된다.Embodiments of the present invention may also be practiced with other computer-readable media including computer-readable instructions stored on a storage medium (e.g., non-volatile computer readable storage medium) For example, by reading and executing the computer-executable instructions from the storage medium to perform one or more functions of the embodiment (s) to perform the functions of the system or device &lt; RTI ID = 0.0 &gt;Lt; RTI ID = 0.0 &gt; computer. &Lt; / RTI &gt; The computer may have one or more of a central processing unit (CPU), a micro processing unit (MPU), or other circuitry, or may comprise a separate computer or a network of separate computer processors. The computer-executable instructions may be provided to the computer from, for example, a network or the storage medium. The storage medium may be, for example, a hard disk, a random access memory (RAM), a read only memory (ROM), a storage of a distributed computing system, an optical disk (compact disk (CD), digital versatile disk Disk (BD) TM, etc.), a flash memory device, a memory card, and the like.

본 발명을 실시예들을 참조하여 기재하였지만, 본 발명은 상기 개시된 실시예들에 한정되지 않는다는 것을 알 것이다. 아래의 청구항의 범위는, 모든 변형예와 동등한 구조 및 기능을 포함하도록 폭 넓게 해석해야 한다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. The scope of the following claims is to be construed broadly to include structures and functions equivalent to all variations.

Claims (15)

피사체의 광학상을 형성하고 화상신호를 생성하기 위하여 상기 광학상을 촬상하는 광학계를 포함하는 촬상장치로서,
매트릭스 모양으로 배열된 복수의 화소를 포함하는 화소부를 갖는 제1 소자수단과, 상기 화소부로부터 상기 광학상을 판독하는 판독수단을 구비하는 제2 소자수단을 포함하되, 상기 복수의 화소는 화상신호를 생성하기 위하여 상기 광학상을 광전기적으로 변환하도록 배열되고, 상기 판독수단은 상기 화소부의 제1 화소군으로부터 상기 화상신호를 판독하는 제1 판독수단과, 상기 화소부의 제2 화소군으로부터 상기 화상신호를 판독하는 제2 판독수단을 포함하는 촬상소자와;
상기 촬상소자로부터 출력된 상기 화상신호로부터, 상기 광학상의 촬상조건에 관한 정보를 취득하고, 상기 취득된 정보를 이용하여 상기 촬상조건을 결정하는 촬상조건 결정수단; 및
상기 제1 판독수단 및 상기 제2 판독수단에 의해 판독된 상기 화상신호 중 하나로부터, 상기 촬상조건 결정수단에 의한 결정의 결과에 근거하여 상기 광학상의 촬상에 관한 촬상평가값을 검출하는 촬상 평가값 검출수단을 포함하는 촬상장치.
An imaging device comprising an optical system for imaging an optical image to form an optical image of a subject and generate an image signal,
And second element means including first element means having a pixel portion including a plurality of pixels arranged in a matrix form and reading means for reading the optical image from the pixel portion, Wherein the reading means comprises first reading means for reading the image signal from the first pixel group of the pixel portion and second reading means for reading the image signal from the second pixel group of the pixel portion, An imaging device including second reading means for reading a signal;
Imaging condition determining means for obtaining information about the imaging condition of the optical image from the image signal output from the imaging device and determining the imaging condition using the acquired information; And
An imaging evaluation value for detecting an imaging evaluation value related to the imaging of the optical image based on a result of the determination by the imaging condition determining means from one of the image signals read by the first reading means and the second reading means And an image pickup device.
제 1 항에 있어서,
상기 촬상조건에 관한 상기 정보는 상기 광학상의 촬상을 위한 노광량이고,
상기 촬상조건 결정수단은 상기 노광량과 상기 촬상조건을 결정하기 위한 소정의 노광량을 비교하도록 배치되는, 촬상장치.
The method according to claim 1,
Wherein the information regarding the imaging condition is an exposure amount for imaging the optical image,
Wherein the imaging condition determining means is arranged to compare the exposure amount with a predetermined exposure amount for determining the imaging condition.
제 1 항에 있어서,
상기 촬상조건 결정수단은, 상기 촬상소자로부터 출력된 상기 화상신호의 휘도정보를 검출하는 휘도정도 검출수단과, 상기 촬상소자로부터 출력된 상기 화상신호의 색정보를 검출하는 색정보 검출수단, 및 상기 촬상소자로부터 출력된 상기 화상신호에 근거하여 촬상된 인물의 얼굴정보를 검출하는 얼굴정보 검출수단을 구비하고,
상기 촬상조건 결정수단은, 상기 휘도정보, 상기 색정보 및 상기 얼굴정보에 근거하여 상기 촬상조건의 상기 결정을 하도록 배치되는, 촬상장치.
The method according to claim 1,
Wherein the image pickup condition determining means comprises a brightness degree detecting means for detecting brightness information of the image signal outputted from the image pickup element, a color information detecting means for detecting color information of the image signal outputted from the image pickup element, And face information detecting means for detecting face information of the person picked up based on the image signal outputted from the image pickup element,
Wherein the imaging condition determining means is arranged to make the determination of the imaging condition based on the brightness information, the color information, and the face information.
제 1 항에 있어서,
상기 판독수단을 제어하는 제어수단을 더 구비하고,
상기 제어수단은, 상기 결정된 촬상조건에 근거하는 소정의 프레임 레이트에서 상기 제1 판독수단 및 상기 제2 판독수단 중 적어도 하나를 구동하도록 배치되는, 촬상장치.
The method according to claim 1,
Further comprising control means for controlling said reading means,
Wherein the control means is arranged to drive at least one of the first reading means and the second reading means at a predetermined frame rate based on the determined imaging condition.
제 4 항에 있어서,
상기 제2 화소군으로부터 판독된 화소 신호의 상기 프레임 레이트는, 상기 제1 화소군으로부터 판독된 화소 신호의 상기 프레임 레이트보다 적은, 촬상장치.
5. The method of claim 4,
Wherein the frame rate of the pixel signal read from the second pixel group is smaller than the frame rate of the pixel signal read from the first pixel group.
제 1 항에 있어서,
상기 촬상 평가값 검출수단은, 오토 포커스 데이터, 노출 제어 데이터 및 화이트 밸런스 데이터 중 적어도 하나를 검출하도록 배치되는, 촬상장치.
The method according to claim 1,
Wherein the imaging evaluation value detection means is arranged to detect at least one of autofocus data, exposure control data and white balance data.
제 4 항에 있어서,
상기 제어수단은, 상기 촬상 평가값 검출수단에 의해 검출된 촬상평가값에 따라 상기 광학계의 구동을 제어하도록 배치되는, 촬상장치.
5. The method of claim 4,
Wherein the control means is arranged to control the driving of the optical system in accordance with the imaging evaluation value detected by the imaging evaluation value detection means.
제 4 항에 있어서,
상기 제어수단은, 상기 촬상 평가값 검출수단에 의해 검출된 촬상평가값에 따라 상기 광학계의 노출을 제어하도록 배치되는, 촬상장치.
5. The method of claim 4,
Wherein the control means is arranged to control the exposure of the optical system in accordance with the imaging evaluation value detected by the imaging evaluation value detection means.
제 4 항에 있어서,
상기 제어수단은, 상기 촬상 평가값 검출수단에 의해 검출된 촬상평가값에 따라 상기 화상신호의 화이트 밸런스를 제어하도록 배치되는, 촬상장치.
5. The method of claim 4,
Wherein the control means is arranged to control the white balance of the image signal in accordance with the imaging evaluation value detected by the imaging evaluation value detection means.
제 4 항, 제 5 항, 제 7 항, 제 8 항 및 제 9 항 중 어느 한 항에 있어서,
상기 촬상 평가값 검출수단은, 상기 제2 소자수단에 제공되고,
상기 제2 소자수단은, 상기 제1 판독수단 및 상기 제2 판독수단으로부터 판독된 상기 화상신호를 상기 촬상 평가값 검출수단 및 상기 화상신호를 디지털 신호로 변환하는 변환수단에 선택적으로 입력하는 스위치를 더 포함하는, 촬상장치.
The method according to any one of claims 4, 5, 7, 8, and 9,
The imaging evaluation value detection means is provided to the second element means,
The second element means includes a switch for selectively inputting the image signal read out from the first reading means and the second reading means to the imaging evaluation value detection means and the conversion means for converting the image signal into a digital signal Further comprising:
제 10 항에 있어서,
상기 제어수단은, 상기 결정된 촬상조건에 따라 상기 스위치를 제어하도록 배치되는, 촬상장치.
11. The method of claim 10,
And the control means is arranged to control the switch in accordance with the determined imaging condition.
제 1 항에 있어서,
상기 제1 화소군 및 상기 제2 화소군은, 상기 화소부의 다른 행의 복수의 화소를 포함하는, 촬상장치.
The method according to claim 1,
Wherein the first pixel group and the second pixel group include a plurality of pixels in different rows of the pixel portion.
제 1 항에 있어서,
상기 제1 소자수단 및 상기 제2 소자수단은 적층되고, 상기 제1 소자수단은 상기 광학상을 수광하는 쪽에 위치되는, 촬상장치.
The method according to claim 1,
Wherein the first element means and the second element means are laminated, and the first element means is positioned on a side that receives the optical image.
피사체의 광학상을 형성하는 광학계 및 화상신호를 생성하기 위하여 상기 광학상을 촬상하는 촬상소자를 포함하되, 상기 촬상소자는, 매트릭스 모양으로 배열된 복수의 화소를 포함하는 화소부를 갖는 제1 소자수단과, 상기 화소부로부터 상기 광학상을 판독하는 판독수단을 구비하는 제2 소자수단을 포함하고, 상기 복수의 화소는 화상신호를 생성하기 위하여 상기 광학상을 광전기적으로 변환하도록 배열되고, 상기 판독수단은 상기 화소부의 제1 화소군으로부터 상기 화상신호를 판독하는 제1 판독수단과, 상기 화소부의 제2 화소군으로부터 상기 화상신호를 판독하는 제2 판독수단을 포함하는 촬상장치의 제어방법으로서,
상기 촬상소자로부터 출력된 상기 화상신호로부터, 상기 광학상의 촬상조건에 관한 정보를 취득하고, 상기 취득된 정보를 이용하여 상기 촬상조건을 결정하는 단계; 및
상기 제1 판독수단 및 상기 제2 판독수단에 의해 판독된 상기 화상신호 중 하나로부터, 상기 결정된 촬상조건에 근거하여 상기 광학상의 촬상에 관한 촬상평가값을 검출하는 단계를 포함하는, 제어방법.
An optical system for forming an optical image of a subject and an imaging device for imaging the optical image to generate an image signal, the imaging device comprising: a first element unit having a pixel section including a plurality of pixels arranged in a matrix shape; And second reading means for reading the optical image from the pixel portion, wherein the plurality of pixels are arranged to photoelectrically convert the optical image to generate an image signal, and the reading Means for reading out the image signal from the first pixel group of the pixel portion and second reading means for reading the image signal from the second pixel group of the pixel portion,
Acquiring information on the imaging condition of the optical image from the image signal output from the imaging element and determining the imaging condition using the acquired information; And
And detecting an imaging evaluation value related to the imaging of the optical image based on the determined imaging condition from one of the image signals read by the first reading means and the second reading means.
컴퓨터가 청구항 14에 따른 제어방법을 실행하도록 촬상장치를 제어하기 위한 프로그램을 기억한 컴퓨터 판독 가능한 기억매체.A computer-readable storage medium storing a program for controlling an imaging apparatus such that a computer executes a control method according to claim 14.
KR1020160126372A 2012-12-28 2016-09-30 Image pickup element, image pickup apparatus, method for controlling the same, and storage medium KR101757655B1 (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JPJP-P-2012-288036 2012-12-28
JP2012288036 2012-12-28
JP2013137031A JP6346417B2 (en) 2013-06-28 2013-06-28 Imaging apparatus, control method thereof, and control program
JPJP-P-2013-137031 2013-06-28
JPJP-P-2013-136083 2013-06-28
JP2013136083A JP2014143667A (en) 2012-12-28 2013-06-28 Imaging device, imaging apparatus, control method thereof and control program thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020130163663A Division KR101663947B1 (en) 2012-12-28 2013-12-26 Image pickup element, image pickup apparatus, method for controlling the same, and storage medium

Publications (2)

Publication Number Publication Date
KR20160118187A KR20160118187A (en) 2016-10-11
KR101757655B1 true KR101757655B1 (en) 2017-07-14

Family

ID=51735985

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020130163663A KR101663947B1 (en) 2012-12-28 2013-12-26 Image pickup element, image pickup apparatus, method for controlling the same, and storage medium
KR1020160126372A KR101757655B1 (en) 2012-12-28 2016-09-30 Image pickup element, image pickup apparatus, method for controlling the same, and storage medium

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020130163663A KR101663947B1 (en) 2012-12-28 2013-12-26 Image pickup element, image pickup apparatus, method for controlling the same, and storage medium

Country Status (3)

Country Link
KR (2) KR101663947B1 (en)
BR (1) BR102013033787A2 (en)
RU (1) RU2566735C2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008263352A (en) * 2007-04-11 2008-10-30 Nikon Corp Imaging element, focus detecting device, and imaging device
JP2009303194A (en) * 2008-02-14 2009-12-24 Nikon Corp Image processing device, imaging device and image processing program
US20130100326A1 (en) 2011-10-21 2013-04-25 Sony Corporation Comparator, ad converter, solid-state imaging device, and camera system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009082194A (en) * 2007-09-27 2009-04-23 Fujifilm Corp Radiation conversion panel and method of capturing radiation image with it
JP5157400B2 (en) * 2007-12-03 2013-03-06 株式会社ニコン Imaging device
JP4887314B2 (en) * 2008-02-28 2012-02-29 富士フイルム株式会社 Imaging apparatus and image signal processing method
JP5578915B2 (en) * 2010-04-01 2014-08-27 キヤノン株式会社 Solid-state imaging device and driving method thereof
JP5693082B2 (en) * 2010-08-09 2015-04-01 キヤノン株式会社 Imaging device
JP5762002B2 (en) * 2011-01-06 2015-08-12 キヤノン株式会社 Imaging device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008263352A (en) * 2007-04-11 2008-10-30 Nikon Corp Imaging element, focus detecting device, and imaging device
US20080291311A1 (en) 2007-04-11 2008-11-27 Nikon Corporation Image pickup device, focus detection device, image pickup apparatus, method for manufacturing image pickup device, method for manufacturing focus detection device, and method for manufacturing image pickup apparatus
JP2009303194A (en) * 2008-02-14 2009-12-24 Nikon Corp Image processing device, imaging device and image processing program
US20130100326A1 (en) 2011-10-21 2013-04-25 Sony Corporation Comparator, ad converter, solid-state imaging device, and camera system

Also Published As

Publication number Publication date
BR102013033787A2 (en) 2016-09-27
RU2566735C2 (en) 2015-10-27
KR20140086869A (en) 2014-07-08
RU2013158771A (en) 2015-07-10
KR101663947B1 (en) 2016-10-12
KR20160118187A (en) 2016-10-11

Similar Documents

Publication Publication Date Title
US9609223B2 (en) Image pickup element, image pickup apparatus, and method and program for controlling the same
JP6995806B2 (en) Image sensor and image sensor
JP6190184B2 (en) Imaging device, imaging apparatus, control method thereof, and control program
US10349028B2 (en) Image pickup apparatus that displays image based on signal output from image pickup device, method of controlling the same, and storage medium
US7911527B2 (en) Focusing apparatus and focusing method
US20220166911A1 (en) Image capturing apparatus
JP2008109485A (en) Imaging apparatus and imaging control method
JP6632580B2 (en) Imaging device and imaging device
JP6346417B2 (en) Imaging apparatus, control method thereof, and control program
KR101757655B1 (en) Image pickup element, image pickup apparatus, method for controlling the same, and storage medium
JP6223160B2 (en) Imaging device, control method thereof, and control program
JP7051565B2 (en) Imaging device and its control method, imaging system
US10863088B2 (en) Image capturing apparatus and control method for capturing still images without interrupting video recordings
JP2015126386A (en) Image pickup device, and control method and program of the same

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant