KR20070098404A - Image pickup apparatus and method of picking up images - Google Patents
Image pickup apparatus and method of picking up images Download PDFInfo
- Publication number
- KR20070098404A KR20070098404A KR1020060070841A KR20060070841A KR20070098404A KR 20070098404 A KR20070098404 A KR 20070098404A KR 1020060070841 A KR1020060070841 A KR 1020060070841A KR 20060070841 A KR20060070841 A KR 20060070841A KR 20070098404 A KR20070098404 A KR 20070098404A
- Authority
- KR
- South Korea
- Prior art keywords
- exposure
- exposure time
- focus detection
- data
- time
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F7/00—Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
- G03F7/20—Exposure; Apparatus therefor
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Studio Devices (AREA)
- Automatic Focus Adjustment (AREA)
- Focusing (AREA)
Abstract
Description
도 1은 제1 실시예에 의한 촬상 장치에 대해 설명하는 설명도이다.1 is an explanatory diagram for explaining an image pickup device according to a first embodiment.
도 2는 제1 실시예에 의한 CPU의 구성에 대해 설명하는 설명도이다.2 is an explanatory diagram for explaining the configuration of the CPU according to the first embodiment.
도 3은 제1 실시예에 의한 촬상 방법에 대해 설명하는 흐름도이다.3 is a flowchart for explaining the imaging method according to the first embodiment.
도 4는 화상의 일 예를 나타내는 설명도이다.4 is an explanatory diagram showing an example of an image.
도 5는 제1 실시예에 의한 초점 위치와 노광시간의 제어에 대해 설명하는 설명도이다.5 is an explanatory diagram for explaining control of a focus position and an exposure time according to the first embodiment.
도 6은 제1 실시예에 의한 초점 위치와 AF 평가값과의 관계를 나타내는 설명도이다.6 is an explanatory diagram showing a relationship between a focus position and an AF evaluation value according to the first embodiment.
도 7은 제2 실시예에 의한 촬상 방법에 대해 설명하는 흐름도이다.7 is a flowchart for explaining the imaging method according to the second embodiment.
도 8은 제2 실시예에 의한 초점 위치와 노광시간의 제어에 대해 설명하는 설명도이다.8 is an explanatory diagram for explaining control of a focus position and an exposure time according to the second embodiment.
* 도면의 주요부분에 대한 부호의 간단한 설명 *Brief description of symbols for the main parts of the drawings
100: 촬상 장치 102: 줌 렌즈100: imaging device 102: zoom lens
102a, 104a, 106a: 구동 장치 104: 조리개102a, 104a, 106a: Drive device 104: Aperture
106: 초점 렌즈 108: CCD 소자106: focusing lens 108: CCD element
110: CDS회로 112: A/D 변환기110: CDS circuit 112: A / D converter
114: 화상 입력 콘트롤러 116: 화상 신호 처리부114: image input controller 116: image signal processing unit
118: 화상 합성부 120: 압축 처리부118: image synthesizing unit 120: compression processing unit
122: LCD 드라이버 124: LCD122: LCD driver 124: LCD
126: 타이밍 발생기 128: CPU126: timing generator 128: CPU
132: 조작부 133: 셔터 버튼132: control panel 133: shutter button
134: 메모리 136: VRAM134: memory 136: VRAM
138: 미디어 콘트롤러 140: 기록 미디어138: media controller 140: recording media
142a, 142b, 142c: 모터 드라이버 152: 적정 AE 레벨 산출부142a, 142b, and 142c: Motor Driver 152: Proper AE Level Calculator
154: 노광 제어부 156: 노광시간 결정부154: exposure control unit 156: exposure time determining unit
158: 합초 위치 검출부 160: 화상158: in-focus position detection unit 160: image
162a, 162b, 162c: 초점 검출 영역162a, 162b, 162c: focus detection area
본 발명은 촬상 장치 및 촬상 방법에 관한 것이다.The present invention relates to an imaging device and an imaging method.
복수의 초점 검출 영역을 가진 촬상 장치에 있어서, 종래에는 화면 전체에 동일한 노광조건에서 촬영을 했기 때문에, 예를 들어, 도 4와 같이 화면 전체에 매우 어두운 피사체 또는 매우 밝은 피사체가 혼재해 있는 경우에는, 자동 초점의 평가값(합초 평가값)을 얻기 어렵다. 그 때문에, 매우 어두운 피사체 또는 매우 밝은 피사체와 초점 검출 영역이 겹쳐진 경우에는, 그 초점 검출 영역에서는 피사체의 합초 상태의 검출이 불가능하다는 문제가 있었다.In the image pickup apparatus having a plurality of focus detection areas, conventionally, since the image is taken under the same exposure conditions on the entire screen, for example, when a very dark subject or a very bright subject is mixed in the entire screen as shown in FIG. It is difficult to obtain the evaluation value (focal evaluation value) of auto focus. Therefore, when a very dark subject or a very bright subject overlaps with the focus detection region, there is a problem that the focus state of the subject cannot be detected in the focus detection region.
이 문제를 해결하기 위해, 특개평7-170446호 및 특개평7-154676호와 같이, 노광 동작을 수행하고 있는 중에도 화상 데이터를 출력할 수 있는 비파괴 독출형 촬상 소자를 이용하여 각각의 초점 검출 영역에서 최적의 노광시간을 제어하거나, 1필드 또는 1프레임 내에서 여러 번 광전변환 출력을 수행하거나 하고, 매우 어두운 피사체 또는 매우 밝은 피사체와 초점 검출 영역이 겹쳐진 경우라도, 피사체의 합초 검출을 수행하는 기술이 개시되어 있다. 그 밖에, 특개2001-264620호와 같이 하나의 초점 검출 영역에 대해 1회의 노광동작을 수행하여 여러 번의 노광동작을 수행함으로써 피사체의 합초 상태의 검출을 수행하는 기술이 개시되어 있다.To solve this problem, as in Japanese Patent Laid-Open No. 7-170446 and Japanese Patent Laid-Open No. 7-154676, each focus detection area is formed by using a non-destructive readout image pickup device capable of outputting image data even during an exposure operation. Technology to control the optimal exposure time in the camera, perform photoelectric conversion output several times in one field or frame, and perform focusing detection of a subject even when a very dark subject or a very bright subject overlaps with the focus detection area Is disclosed. In addition, as disclosed in Japanese Patent Application Laid-Open No. 2001-264620, a technique for detecting the focusing state of a subject by performing one exposure operation to one focus detection area and performing several exposure operations is disclosed.
그러나, 특개평7-170446호 및 특개평7-154676호의 방법은, 촬상 소자로서 널리 이용되고 있는 CCD(Charge Coupled Devices) 소자나 CMOS(Complementary Metal Oxide Semiconductor)소자와 같은 비파괴 독출형이 아닌 촬상 소자로는 사용할 수 없다는 문제가 있었다. 또한 특개2001-264620호의 방법은 하나의 초점 검출 영역에 대해 1회의 노광동작을 수행하고 있기 때문에, 한 번의 촬영 조작으로 여러 번 노광동작을 할 필요가 있기 때문에, 효율면에 문제가 있었다.However, the methods of Japanese Patent Laid-Open Nos. 7-170446 and 7-154676 are non-destructive read-out imaging devices such as CCD (Charge Coupled Devices) devices and Complementary Metal Oxide Semiconductor (CMOS) devices that are widely used as imaging devices. There was a problem that can not be used. Moreover, since the method of Unexamined-Japanese-Patent No. 2001-264620 performs one exposure operation | movement with respect to one focus detection area | region, since it is necessary to perform exposure operation several times by one imaging operation, there existed a problem in terms of efficiency.
본 발명은 이와 같은 문제를 감안하여 이루어진 것으로, 매우 어두운 피사체 또는 매우 밝은 피사체와 초점 검출 영역이 겹쳐진 경우에, 그 초점 검출 영역에서 피사체의 합초 검출을 수행하는 새로운 개량된 촬상 장치 및 촬상 방법을 제공하는 데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and provides a novel improved imaging apparatus and imaging method for performing confocal detection of a subject in the focus detection region when a very dark subject or a very bright subject overlaps with the focus detection region. Its purpose is to.
상기 과제를 해결하기 위해, 본 발명의 어느 관점에 의하면, 복수의 초점 검출 영역 중에서 최적의 합초 상태를 얻을 수 있는 초점 검출 영역을 검출하여 피사체의 촬상을 수행하는 촬상 장치로서, 복수의 다른 시간 간격을 가진 노광시간에 주기적으로 노광처리를 반복하는 노광부와; 각 초점 검출 영역에 있어서, 각 노광시간에 노광하여 얻어지는 화상 데이터의 노광데이터를 취득하는 노광데이터 취득부와; 노광 데이터에 기초하여 초점 검출 영역마다 최적의 노광시간을 결정하는 노광시간 결정부와; 초점 검출 영역마다 검출된 최적의 노광시간에 의한 노광데이터를 비교하여 최적의 합초 상태를 얻을 수 있는 초점 검출 영역을 검출하는 합초 위치 검출부를 포함하는 것을 특징으로 하는 촬상 장치가 제공된다.SUMMARY OF THE INVENTION In order to solve the above problems, according to some aspects of the present invention, an image pickup apparatus which detects a focus detection region capable of obtaining an optimal confocal state from among a plurality of focus detection regions, and performs imaging of a subject, and comprises a plurality of different time intervals. An exposure unit which repeats the exposure processing periodically at an exposure time having a light emission rate; In each focus detection area, an exposure data acquisition unit for obtaining exposure data of image data obtained by exposure at each exposure time; An exposure time determiner that determines an optimal exposure time for each focus detection region based on the exposure data; An imaging device is provided, comprising a focusing position detection section for detecting a focusing detection region that can obtain an optimal focusing state by comparing exposure data at the optimum exposure time detected for each focus detection region.
이러한 구성에 의하면, 노광부는 복수의 다른 시간 간격을 가진 노광시간에 주기적으로 노광처리를 반복하고, 노광 데이터 취득부는 각 노광시간에 노광하여 얻어지는 화상 데이터의 노광데이터를 취득하고, 노광시간 결정부는 노광데이터에 기초하여 초점 검출 영역마다 최적의 노광시간을 결정하며, 합초 위치 검출부는 노광데이터를 비교하여 최적의 합초 상태를 얻을 수 있는 초점 검출 영역을 검출한다. 그 결과, 본 발명의 일 관점에 따른 촬상 장치에 의하면, 초점 검출 영역마다 최적의 노광시간을 결정함으로써, 매우 어두운 피사체 또는 매우 밝은 피사체와 초점 검출 영역이 겹쳐진 경우에, 그 초점 검출 영역에서 피사체의 합초 검출을 수행할 수 있다.According to this configuration, the exposure unit periodically repeats the exposure processing at exposure times having a plurality of different time intervals, the exposure data acquisition unit acquires exposure data of image data obtained by exposing at each exposure time, and the exposure time determination unit exposes the exposure. An optimal exposure time is determined for each focus detection region based on the data, and the focusing position detection unit compares the exposure data and detects a focus detection region capable of obtaining an optimal focusing state. As a result, according to the imaging device according to one aspect of the present invention, when an extremely dark subject or a very bright subject and the focus detection region overlap with each other by determining an optimal exposure time for each focus detection region, In-focus detection can be performed.
상기 촬상 장치는 동일한 시간 간격을 가진 노광시간에 노광한 노광데이터를 조합함으로써 복수의 다른 시간 간격을 가진 노광시간에 노광한 노광데이터와 등가의 노광데이터를 생성하는 화상 합성부를 더 포함할 수도 있다. 이러한 구성에 의하면, 화상 합성부는 복수의 다른 시간 간격을 가진 노광시간에 노광한 노광데이터와 등가의 노광데이터를 생성한다. 그 결과, 매우 어두운 피사체 또는 매우 밝은 피사체와 초점 검출 영역이 겹쳐진 경우에, 그 초점 검출 영역에서 피사체의 합초 검출을 수행할 수 있다.The imaging device may further include an image synthesizing unit which generates exposure data equivalent to the exposure data exposed at the exposure time having a plurality of different time intervals by combining the exposure data exposed at the exposure time having the same time interval. According to this configuration, the image synthesizing unit generates exposure data equivalent to the exposure data exposed at the exposure time having a plurality of different time intervals. As a result, when the very dark subject or the very bright subject and the focus detection region overlap, the focus detection of the subject can be performed in the focus detection region.
노광시간 결정부는 각 초점 검출 영역에서의 화상 데이터의 합초 평가값에 기초하여 최적의 합초 상태를 얻을 수 있는 노광시간을 최적의 노광시간으로 결정할 수도 있다. 이러한 구성에 의하면, 노광시간 결정부는 합초 평가값으로부터 적절한 합초 상태를 얻는데 최적인 노광시간을 결정한다. 그 결과, 각 초점 검출 영역에서의 화상 데이터의 합초 평가값을 산출하여 적절한 합초 상태를 얻는데 최적인 노광시간을 결정함으로써, 매우 어두운 피사체 또는 매우 밝은 피사체와 초점 검출 영역이 겹쳐진 경우에, 그 초점 검출 영역에서 피사체의 합초 검출을 수행할 수 있다.The exposure time determiner may determine an exposure time for obtaining an optimal focusing state as an optimal exposure time based on a focusing evaluation value of image data in each focus detection area. According to this structure, the exposure time determining unit determines the exposure time that is optimal for obtaining a proper focusing state from the focusing value. As a result, the focal length detection value of image data in each focus detection area is calculated to determine an optimal exposure time for obtaining an appropriate focusing state, so that when the very dark subject or the very bright subject overlaps with the focus detection area, the focus detection is performed. The focus detection of the subject may be performed in the area.
복수의 다른 시간 간격을 가진 노광시간에 초점 검출 영역내의 밝은 부분을 기준으로 하여 최고의 휘도를 가진 노광데이터가 포화하지 않는 노광시간을 포함시키도록 할 수도 있다. 이러한 구성에 의하면, 노광부에서 노광처리를 수행할 때 화상 데이터가 포화하지 않는 노광시간에 노광처리를 수행한다. 그 결과, 점광원과 같이 매우 밝은 피사체를 포함하는 화상을 촬영하는 경우에도 정확하게 피사체의 합초 검출을 수행할 수 있다.The exposure time having a plurality of different time intervals may be made to include the exposure time when the exposure data having the highest luminance is not saturated based on the bright part in the focus detection area. According to this structure, the exposure processing is performed at an exposure time at which the image data is not saturated when the exposure processing is performed in the exposure unit. As a result, even when photographing an image including a very bright subject such as a point light source, it is possible to accurately detect the focus of the subject.
상기 과제를 해결하기 위해, 본 발명의 다른 관점에 의하면, 복수의 초점 검출 영역 중에서 최적의 합초 상태를 얻을 수 있는 초점 검출 영역을 검출하여 피사체의 촬상을 수행하는 촬상 방법으로서, 복수의 다른 시간 간격을 가진 노광시간에 주기적으로 노광처리를 반복하는 노광단계와; 각 초점 검출 영역에 있어서, 각 노광 시간에 노광하여 얻어지는 화상 데이터의 노광데이터를 취득하는 노광데이터 취득 단계와; 노광 데이터에 기초하여 초점 검출 영역마다 최적의 노광시간을 검출하는 최적의 노광시간 검출 단계와; 초점 검출 영역마다 검출된 최적의 노광시간에 의한 노광데이터를 비교하여 최적의 합초 상태를 얻을 수 있는 초점 검출 영역을 검출하는 합초 위치 검출 단계를 포함하는 것을 특징으로 하는 촬상 방법이 제공된다.In order to solve the above problems, according to another aspect of the present invention, an image pickup method for detecting an image of a subject by detecting a focus detection region capable of obtaining an optimal confocal state among a plurality of focus detection regions, the plurality of different time intervals An exposure step of repeating the exposure processing periodically at an exposure time having a; An exposure data acquisition step of acquiring exposure data of image data obtained by exposing at each exposure time in each focus detection area; An optimal exposure time detection step of detecting an optimum exposure time for each focus detection region based on the exposure data; An imaging method is provided, comprising a focusing position detection step of detecting a focusing detection area capable of obtaining an optimal focusing state by comparing exposure data by the optimum exposure time detected for each focus detection area.
이러한 구성에 의하면, 노광 단계는 복수의 다른 시간 간격을 가진 노광시간에 주기적으로 노광처리를 반복하고, 노광데이터 취득 단계는 각 노광 시간에 노광하여 얻어지는 화상 데이터의 노광데이터를 취득하고, 노광시간 결정 단계는 노광데이터에 기초하여 초점 검출 영역마다 최적의 노광시간을 결정하며, 합초 위치 검출 단계는 노광데이터를 비교하여 최적의 합초 상태를 얻을 수 있는 초점 검출 영역을 검출한다. 그 결과, 본 발명의 다른 관점에 따른 촬상 방법에 의하면, 초점 검출 영역마다 최적의 노광시간을 결정함으로써 매우 어두운 피사체 또는 매우 밝은 피사체와 초점 검출 영역이 겹쳐진 경우에, 그 초점 검출 영역에서 피사체의 합초 검출을 수행할 수 있다.According to this configuration, the exposure step is repeated the exposure process periodically at an exposure time having a plurality of different time intervals, and the exposure data acquisition step acquires exposure data of image data obtained by exposure at each exposure time, and determines the exposure time. The step determines an optimal exposure time for each focus detection area based on the exposure data, and the focusing position detection step detects a focus detection area that can obtain an optimal focusing state by comparing the exposure data. As a result, according to the imaging method according to another aspect of the present invention, when a very dark subject or a very bright subject overlaps with the focus detection region by determining an optimal exposure time for each focus detection region, the focusing region of the subject is in the focus detection region. Detection can be performed.
상기 촬상 방법은 동일한 시간 간격을 가진 노광시간에 노광한 노광데이터를 조합함으로써 복수의 다른 시간 간격을 가진 노광시간에 노광한 노광데이터와 등가의 노광데이터를 생성하는 화상 합성 단계를 더 포함하고 있을 수 있다. 이러한 구성에 의하면, 화상 합성 단계는 복수의 다른 시간 간격을 가진 노광시간에 노광한 노광데이터와 등가의 노광데이터를 생성한다. 그 결과, 매우 어두운 피사체 또는 매우 밝은 피사체와 초점 검출 영역이 겹쳐진 경우에, 그 초점 검출 영역에서 피사체의 합초 검출을 수행할 수 있다.The imaging method may further include an image synthesizing step of generating exposure data equivalent to the exposure data exposed at the exposure time having a plurality of different time intervals by combining the exposure data exposed at the exposure time having the same time interval. have. According to this configuration, the image synthesizing step generates exposure data equivalent to the exposure data exposed at the exposure time having a plurality of different time intervals. As a result, when the very dark subject or the very bright subject and the focus detection region overlap, the focus detection of the subject can be performed in the focus detection region.
노광시간 결정 단계는 각 초점 검출 영역에서의 화상 데이터의 합초평가값에 기초하여 최적의 합초 상태를 얻을 수 있는 노광시간을 최적의 노광시간으로 결정하도록 할 수도 있다. 이러한 구성에 의하면, 노광시간 결정 단계는 합초 평가값으로부터, 적절한 합초상태를 얻는데 최적인 노광시간을 결정한다. 그 결과, 각 초점 검출 영역에서의 화상 데이터의 합초 평가값을 산출하여, 적절한 합초 상태를 얻는데 최적인 노광시간을 결정함으로써 매우 어두운 피사체 또는 매우 밝은 피사체와 초점 검출 영역이 겹쳐진 경우에 그 초점 검출 영역에서 피사체의 합초 검출을 수행할 수 있다.The exposure time determining step may be configured to determine, as the optimum exposure time, an exposure time for obtaining an optimal focusing state based on the focusing evaluation value of the image data in each focus detection area. According to this configuration, the exposure time determining step determines the exposure time that is optimal for obtaining an appropriate focusing state from the focusing evaluation value. As a result, a focal point evaluation value of the image data in each focus detection area is calculated to determine an optimal exposure time for obtaining an appropriate confocal state, so that the focus detection area when a very dark subject or a very bright subject overlaps with the focus detection area In-focus detection of the subject can be performed at.
이하에 첨부 도면을 참조하면서, 본 발명의 바람직한 실시예에 대해 상세히 설명한다. 또한, 본 명세서 및 도면에 있어서, 실질적으로 동일한 기능 구성을 가진 구성 요소에 대해서는, 동일한 부호를 첨부함으로써 중복 설명을 생략한다.EMBODIMENT OF THE INVENTION Preferred embodiment of this invention is described in detail, referring an accompanying drawing below. In addition, in this specification and drawing, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol about the component which has substantially the same functional structure.
이하에서는, 첨부된 도면들에 도시된 본 발명의 실시예를 상세히 설명한다.Hereinafter, embodiments of the present invention shown in the accompanying drawings will be described in detail.
도 1은 본 발명의 제1 실시예에 의한 촬상 장치에 대해 설명하는 설명도이다. 도 1에 도시한 바와 같이, 본 발명의 일 실시예로 의한 촬상 장치(100)는 줌 렌즈(102)와, 조리개(104)와, 초점 렌즈(106)와, 구동 장치(102a, 104a, 106a)와, CCD(Charge Coupled Devices) 소자(108)와, 앰프 일체형 CDS(Correlated Double Sampling) 회로(110)와, A/D 변환기(112)와, 화상 입력 콘트롤러(114)와, 화상 신호 처리부(116)와, 압축 처리부(120)와, LCD(Liquid Crystal Display) 드라이버(123)와, LCD(124)와, 타이밍 발생기(126)와, CPU(Central Processing Unit)(128)와, 조작부(132)와, 셔터 버튼(133)과, 메모리(134)와, VRAM(Video Random Access Memory)(136)과, 미디어 콘트롤러(138)와, 기록 미디어(140)와, 모터 드라이버(142a, 142b, 142c)를 포함한다.1 is an explanatory diagram for explaining an image pickup device according to a first embodiment of the present invention. As shown in FIG. 1, the
이하에서는 본 발명의 제1 실시예에 의한 촬상 장치(100)의 구성에 대해 구체적으로 설명한다.Hereinafter, the configuration of the
줌 렌즈(102)는 구동 장치(102a)에 의해 광축 방향에 전후하여 이동시킴으로써 초점거리가 연속적으로 변화하는 렌즈이고, 피사체의 크기를 변화하여 촬영한다. 조리개(104)는 화상을 촬영할 때, 구동 장치(104a)에 의해 CCD 소자(108)에 들어오는 광량을 조절한다. 초점 렌즈(106)는 구동 장치(106a)에 의해 광축 방향으로 전후하여 이동시킴으로써 피사체의 핀트를 조절하는 것이다. 본 실시예에서는, 초점 렌즈(106)를 원거리에서 근거리로 구동시키면서 복수의 노광시간에 노광제어를 수행함으로써 합초 평가값을 얻는다.The
본 실시예에 있어서는, 줌 렌즈(102) 및 초점 렌즈(106)는 1개만 나타내고 있는데, 줌 렌즈(102)의 수는 2개 이상일 수도 있고, 초점 렌즈(106)의 수도 2개 이상일 수도 있다.In this embodiment, only one
CCD 소자(108)는 노광부의 일 예로, 줌 렌즈(102), 조리개(104) 및 초점 렌즈(106)로부터 입사된 광을 전기 신호로 변환하기 위한 소자이다. 본 실시예에 있어서는 전자 셔터에 의해 입사광을 제어하여 전기 신호를 출력하는 시간을 조절하고 있는데, 기계 셔터를 사용하여 입사광을 제어하여 전기 신호를 출력하는 시간을 조절할 수도 있다.The
본 실시예에서는 노광부로서 CCD 소자(108)를 사용하고 있는데, 본 발명은 이러한 예에 한정되지 않고, CCD 소자(108) 대신에 CMOS (Complementary Metal Oxide Semiconductor) 소자를 사용할 수도 있고, 또한 기타 이미지 센서를 사용할 수도 있다. CMOS 소자는, CCD 소자보다도 고속으로 피사체의 영상광을 전기 신호로 변환할 수 있으므로, 피사체를 촬영하고나서 화상의 합성 처리를 하기까지의 시간을 단축할 수 있다.In the present embodiment, the
CDS 회로(110)는 CCD 소자(108)로부터 출력된 전기 신호의 잡음을 제거하는, 샘플링 회로의 일종인 CDS 회로와, 잡음을 제거한 후에 전기 신호를 증폭하는 앰프가 일체로 된 회로이다. 본 실시예에서는 CDS 회로와 앰프가 일체로 된 회로를 사용하여 촬상 장치(100)를 구성하고 있는데, CDS 회로와 앰프를 각각 회로로 구성할 수도 있다.The
A/D 변환기(112)는 CCD 소자(108)로 생성된 전기 신호를 디지털 신호로 변환하고, 화상의 원(raw)데이터를 생성하는 것이다.The A /
화상 입력 콘트롤러(114)는 A/D 변환기에서 생성된 화상의 원데이터를 메모리(134)로 입력하는 것을 제어하는 것이다.The
화상 신호 처리부(116)는 CCD 소자(108)로부터 출력된 전기 신호나,화상 합성부(118)에서 합성한 화상에 대해, 광량의 게인 보정이나 화이트 밸런스의 조정을 수행하는 것이다. 화상 신호 처리부(116)는 본 발명의 노광데이터 취득부로서의 기능을 갖고 있고, 촬영한 화상의 노광데이터를 취득한다. 노광데이터에는 합초 평가값(AF 평가값)이나 AE(Auto Exposure;자동 노광) 평가값을 포함하고 있으며, 화상 신호 처리부(116)에 있어서 합초 평가값이나 AE 평가값의 산출을 수행한다.The image
화상 합성부(118)는 촬영한 복수의 화상 데이터를 합성하는 것이다.화상 합성부의 형태로, 화상을 합성하는 회로일 수도 있고, 화상을 합성하기 위한 컴퓨터 프로그램일 수도 있다.The
압축 처리부(120)는 화상 합성부(118)에서 합성한 화상을 적절한 형식의 화상 데이터로 압축하는 압축 처리를 수행한다. 화상의 압축 형식은 가역 형식일 수도, 비가역 형식일 수도 있다. 적절한 형식의 예로, JPEG(Joint Photographic Experts Group) 형식이나 JPEG 2000형식으로 변환할 수도 있다.The
LCD(124)는 촬영 조작을 수행하기 전의 라이브뷰(live view) 표시나, 촬상 장치(100)의 각종 설정 화면이나, 촬영한 화상의 표시 등을 수행한다. 화상 데이터나 촬상 장치(100)의 각종 정보의 LCD(124)로의 표시는 LCD 드라이버(122)를 통해 수행된다.The
타이밍 발생기(126)는 CCD 소자(108)에 타이밍 신호를 입력한다. 타이밍 발 생기(126)로부터의 타이밍 신호에 의해 셔터 속도가 결정된다. 즉, 타이밍 발생기(126)로부터의 타이밍 신호에 의해 CCD 소자(108)의 구동이 제어되고, CCD 소자(108)가 구동하는 시간 내에 피사체로부터의 영상광을 입사함으로써, 화상 데이터의 기초가 되는 전기 신호가 생성된다.The
CPU(128)는 CCD 소자(108)나 CDS 회로(110) 등에 대해 신호계의 명령을 수행하거나, 조작부(132)의 조작에 대한 조작계의 명령을 수행한다. 본 실시예에 있어서는, CPU를 하나만 포함하고 있는데, 신호계의 명령과 조작계의 명령을 각각 CPU에 수행하도록 할 수도 있다.The
조작부(132)는 촬영 모드 선택부로서의 기능을 포함하고, 촬상 장치(100)의 조작을 수행하거나 촬영시 각종 설정을 수행하기 위한 부재가 배치 되어 있다. 조작부(132)에 배치되는 부재에는, 전원 버튼, 촬영 모드나 촬영 드라이브 모드의 선택 및 효과 파라미터를 설정하는 십자키 및 선택 버튼 등이 배치된다. 셔터 버튼(133)은 촬영 조작을 하기 위한 것이고, 반누름 상태에서 피사체를 합초하고, 전체누름 상태에서 피사체의 촬상을 수행한다.The operation unit 132 includes a function as a photographing mode selection unit, and a member for performing an operation of the
메모리(134)는 화상 기억부의 일 예로, 촬영한 화상이나 화상 합성부(118)에서 합성한 화상을 일시적으로 기억하는 것이다. 메모리(134)는 복수의 화상을 기억할 수 있을 정도의 기억용량을 갖고 있다. 메모리(134)에 대한 화상의 재생/기록은 화상 입력 콘트롤러(114)에 의해 제어된다.The
VRAM(136)은 LCD(124)에 표시하는 내용을 유지하는 것이고, LCD(124)의 해상도나 최대 발색수는 VRAM(136)의 용량에 의존한다.The
기록 미디어(140)는 화상 기록부의 일 예로, 촬영한 화상이나 화상 합성부(118)에서 합성한 화상을 기록하는 것이다. 기록 미디어(140)에의 입출력은 미디어 콘트롤러(138)에 의해 제어된다. 기록 미디어(140)에는 플래쉬 메모리에 데이터를 기록하는 카드형 기억장치인 메모리 카드를 사용할 수 있다.The
모터 드라이버(142a, 142b, 142c)는 줌 렌즈(102), 조리개(104) 및 초점 렌즈(106)을 동작시키는 구동 장치(102a, 104a, 106a)를 제어한다. 모터 드라이버(142a, 142b, 142c)를 통해 줌 렌즈(102), 조리개(104) 및 초점 렌즈(106)를 동작시킴으로써 피사체의 크기나 광량, 핀트를 조절한다.The
이상, 도 1을 사용하여 본 발명의 제1 실시예에 의한 촬상 장치에 대해 설명했다. 이어, 본 발명의 제1 실시예에 의한 촬상 장치의 CPU 구성에 대해 설명한다.In the above, the imaging device which concerns on 1st Example of this invention was demonstrated using FIG. Next, the CPU configuration of the imaging device according to the first embodiment of the present invention will be described.
도 2는 본 발명의 제1 실시예에 의한 CPU(128)의 구성에 대해 설명하는 설명도이다. 도 2에 도시한 바와 같이, 본 발명의 제1 실시예에 의한 CPU(128)는 적정 AE 레벨 산출부(152)와, 노광 제어부(154)와, 노광시간 결정부(156)와, 합초 위치 검출부(158)를 포함한다.2 is an explanatory diagram for explaining the configuration of the
적정 AE 레벨 산출부(152)는 촬상 장치(100)에서 자동노광을 수행하고, EV(Exposure Value)값을 취득한다. 취득한 EV값에 기초하여 적정한 노광시간 및 셔터 속도의 그룹이 결정된다. EV값은 조리개 값이 F1, 셔터 속도가 1초일 때에 적절한 노출을 얻을 수 있는 광량을 EV=0으로 하고, 조리개 값이나 셔터 속도를 변화시킴으로써 EV값이 변화한다. EV값은 F를 조리개 값, T를 셔터 속도로 하여 EV=log2(F2/T)로 구할 수 있다. 따라서, 같은 조리개 값에서는 셔터 속도가 고속이 되면 될 수록, EV값이 상승하고, 같은 셔터 속도에서는 조리개 값을 크게 하면 할수록, EV값이 상승한다.The appropriate
노광 제어부(154)는 적정 AE 레벨 산출부(152)에서 산출한 노광시간에 기초하여 피사체를 촬영할 때의 노광시간을 결정한다. 결정한 노광시간에 기초하여 피사체로부터의 영상광의 CCD 소자(108)에의 입사 시간을 제어한다.The
노광시간 결정부(156)는 각 초점 검출 영역에 있어서, 피사체의 합초상태의 검출에 최적인 노광시간을 결정하는 것이다.The
합초위치 검출부(158)는 노광시간 결정부(156)에서 결정한 각 초점 검출 영역에서 피사체의 합초 상태의 검출에 최적인 노광시간의 그룹 중에서,가장 피사체의 합초 상태의 검출에 적합한 합초 위치를 검출하는 것이다. 피사체의 합초 위치의 검출 방법에 대해서는 후술한다.The in-focus
이상, 도 2를 이용하여 제1 실시예에 의한 촬상 장치의 CPU의 구성에 대해 설명했다. 이어, 도 3 내지 도 6을 이용하여 본 발명의 제1 실시예에 의한 촬상 방법에 대해 설명한다.In the above, the structure of the CPU of the imaging device which concerns on 1st Example was demonstrated using FIG. Next, the imaging method according to the first embodiment of the present invention will be described with reference to FIGS. 3 to 6.
도 3은 본 발명의 제1 실시예에 의한 촬상 방법에 대해 설명하는 흐름도이다. 첫째, 촬영자는 셔터 버튼(133)을 반누름 상태로 한다(이하, 셔터 버튼(133)의 반누름 상태를 가리켜 「S1 상태」라고 한다). 셔터 버튼(133)을 S1 상태로 함으로써, CPU(128)로부터 모터 드라이버(142c)를 구동시키는 신호를 주고, 모터 드라이버(142c)가 초점 렌즈(106)을 구동시킴으로써 피사체에 초점을 맞춘다.3 is a flowchart for explaining an imaging method according to the first embodiment of the present invention. First, the photographer puts the
초점 렌즈(106)를 원거리에서 근거리로 이동시키면서 노광을 수행함으로써 피사체의 합초 위치를 검출한다. 본 실시예에서는 복수의 다른 노광시간의 그룹을 하나의 싸이클로 하여 그 싸이클을 반복함으로써 초점 검출 영역이 복수개 존재한 경우의 적절한 합초 위치를 얻는 것을 특징으로 한다.The focusing position of the subject is detected by performing exposure while moving the
초점 렌즈(106)의 구동이 시작되면, 전자 셔터를 이용하여 CCD 소자(108)를 동작시켜 제1 노광시간에서의 노광제어를 수행한다(S110 단계). 제1 노광시간이 경과하면 CCD 소자(108)는 동작을 멈추고, CCD 소자(108)에 입사된 피사체의 영상광으로부터 화상 데이터를 읽어낸다(S112 단계). 그리고, 출력한 화상 데이터의 각 초점 검출 영역에서의 AF 평가값을 화상 신호 처리부(116)에서 산출한다(S114 단계).When driving of the
AF 평가값의 산출은 인접하는 화소간 데이터의 차를 쌓아올림으로써 수행한다. AF 평가값의 계산에는 IIR(Infinite Impulse Response) 필터나 FIR(Finite Impulse Response) 필터를 사용한다. 피사체에 합초해 있는 합초 상태일 때, 화상 데이터에서의 화소간 데이터의 차가 가장 커진다.The calculation of the AF evaluation value is performed by stacking the difference of data between adjacent pixels. The calculation of the AF evaluation value uses an Infinite Impulse Response (IIR) filter or a Finite Impulse Response (FIR) filter. In the in-focus state in which the subject is in focus, the difference between the pixel data in the image data is greatest.
제1 노광시간에 노광을 수행하여 생성된 화상 데이터의 AF 평가값을 산출하면, 계속해서 전자 셔터를 이용하여 CCD 소자(108)를 동작시켜 제1 노광시간보다 장시간의 제2 노광시간에서의 노광제어를 수행한다(S116 단계). 제2 노광시간이 경과하면 CCD 소자(108)의 동작을 멈추고, CCD 소자(108)에 입사된 피사체의 영상광으로부터 화상 데이터를 출력한다(S118 단계). 그리고, 출력한 화상 데이터의 각 초점 검출 영역에서의 AF 평가값을 화상 신호 처리부(116)에서 산출한다(S120 단계).When the AF evaluation value of the image data generated by performing exposure at the first exposure time is calculated, the
제2 노광시간에 노광을 수행하여 생성된 화상 데이터의 AF 평가값을 산출하면, 계속해서 전자 셔터를 이용하여 CCD 소자(108)를 동작시켜 제2 노광시간보다 장시간의 제3 노광시간에서의 노광제어를 수행한다(S122 단계). 제3 노광시간이 경과하면 CCD 소자(108)의 동작을 멈추고, CCD 소자(108)에 입사된 피사체의 영상광으로부터 화상 데이터를 출력한다(S124 단계). 그리고, 출력한 화상 데이터의 각 초점 검출 영역에서의 AF 평가값을 화상 신호 처리부(116)에서 산출한다(S126 단계).When the AF evaluation value of the image data generated by performing the exposure at the second exposure time is calculated, the
또한, 본 실시예에 있어서는, 제2 노광시간은 제1 노광시간의 배의 시간으로 설정하고, 제3 노광시간은 제1 노광시간의 3배의 시간으로 설정하고 있는데, 본 발명은 이에 한정되지 않는다. 예를 들어, 제2 노광시간을 제1 노광시간의 3배로, 제3 노광시간을 제1 노광시간의 5배로 설정하여 각 초점 검출 영역에서의 AF 평가값을 산출할 수도 있다. 또한 본 실시예에 있어서는 짧은 노광시간부터 긴 노광시간의 노광처리를 주기적으로 반복하여 수행하고 있는데, 본 발명은 이에 한정되지 않고, 긴 노광시간부터 짧은 노광시간의 노광처리를 주기적으로 반복할 수도 있다.In the present embodiment, the second exposure time is set to a time that is twice the first exposure time, and the third exposure time is set to a time that is three times the first exposure time, but the present invention is not limited thereto. Do not. For example, the AF evaluation value in each focus detection area may be calculated by setting the second exposure time to three times the first exposure time and the third exposure time to five times the first exposure time. In the present embodiment, the exposure processing from the short exposure time to the long exposure time is repeated periodically, but the present invention is not limited thereto, and the exposure processing from the long exposure time to the short exposure time may be repeated periodically. .
제3 노광시간에서의 노광이 끝나면, 초점 렌즈(106)가 최종 구동 위치인지 아닌지 판단한다(S128 단계). 초점 렌즈(106)가 최종 구동 위치가 아닌 경우에는, 상기 S110 단계로 되돌아가서 다시 한번 제1 노광시간에서의 노광을 수행한다. 한편, 초점 렌즈(106)가 최종 구동 위치인 경우에는, 각 초점 검출 영역에서의 적절한 노광시간을 선택한다(S130 단계).After the exposure in the third exposure time is finished, it is determined whether or not the
도 5는 본 발명의 제1 실시예에 의한 초점 위치와 노광시간의 제어에 대해 설명하는 설명도이다. 셔터 버튼(133)을 S1 상태로 하여 초점 렌즈(106)의 구동이 시작되면, 맨 처음에 초점 렌즈(106)의 초점 위치가 「100」인 곳에서 제1 노광시간에서의 노광을 수행한다. 이어, 초점 렌즈(106)를 구동하여 초점 위치가 「110」에 도달하면, 제2 노광시간에서의 노광을 수행한다. 이어, 초점 렌즈(106)를 구동하여 초점 위치가 「120」에 도달하면, 제3 노광시간에서의 노광을 수행한다.5 is an explanatory diagram for explaining the control of the focus position and the exposure time according to the first embodiment of the present invention. When the driving of the
이와 같이 초점 위치를 이동시키면서 제1 노광시간, 제2 노광시간 및 제3 노광시간에서의 노광을 초점 렌즈(106)가 최종 구동 위치에 도달할 때까지 반복한다.In this manner, the exposure at the first exposure time, the second exposure time, and the third exposure time is repeated while the focusing position is moved until the
이어, 노광시간 결정부(156)에서 각 초점 검출 영역에서의 최적의 노광시간을 선택한다(S132 단계). 초점 렌즈(106)의 위치와 그 위치에서의 노광의 결과 얻어진 화상 데이터의 AF 평가값으로부터 이른바 등산(登山)법에 의해 AF 평가값의 피크(peak)를 탐색하여 각 초점 검출 영역에서의 최적의 노광시간을 선택한다. 초점 렌즈(106)의 위치와 AF 평가값과의 관계를 그래프화 하고, 가장 경사가 큰 노광시간을 그 초점 검출 영역에서의 적절한 노광시간으로 한다.Subsequently, the
도 6은 본 발명의 제1 실시예에 의한 초점 위치와 AF 평가값과의 관계를 나타내는 설명도로, 3종류의 노광시간과, 그 노광시간에 노광을 수행했을 때의 각 초점 검출 영역에서의 AF 평가값과의 관계를 나타낸 것이다.Fig. 6 is an explanatory diagram showing the relationship between the focus position and the AF evaluation value according to the first embodiment of the present invention, and three types of exposure time and AF in each focus detection area when exposure is performed at the exposure time. The relationship with the evaluation value is shown.
예를 들어, 사각의 점으로 표시된 그래프는, 도 4에 나타내는 화상(160) 중 좌측의 초점 검출 영역(162a)에서의 AF 평가값을 나타낸 것이다. 각각의 AF 평가값을 이은 곡선의 피크에 대한 경사가 가장 큰 것은, 굵은 선의 제3 노광시간에서의 AF 평가값이고, 피크시 초점 렌즈(106)의 초점 위치는 약「495」이다.For example, the graph indicated by the square dots shows the AF evaluation value in the
마찬가지로, 마름모꼴 점으로 표시된 그래프는 도 4에 나타내는 화상(160) 중 중앙의 초점 검출 영역(162b)에서의 AF 평가값을 나타낸 것이다. 각각의 AF 평가값을 이은 곡선의 피크에 대한 경사가 가장 큰 것은,제2 노광시간에서의 AF 평가값이고, 피크시 초점 렌즈(106)의 초점 위치는 약「500」이다.Similarly, the graph indicated by the lozenge points shows the AF evaluation value in the focus detection area 162b in the center of the
마찬가지로, 삼각의 점으로 표시된 그래프는 도 4에 나타내는 화상(160) 중 우측의 초점 검출 영역(162c)에서의 AF 평가값을 나타낸 것이다.각각의 AF 평가값을 이은 곡선의 피크에 대한 경사가 가장 큰 것은 제2 노광시간에서의 AF 평가값이며, 피크시 초점 렌즈(106)의 초점 위치는 약 「335」이다.Similarly, the graph indicated by the triangular point shows the AF evaluation value in the
이와 같이 각 초점 검출 영역에서 합초 상태의 검출을 수행하는데 최적인 노광시간의 데이터군으로부터 초점 위치를 취득함으로써, CCD 소자(108)의 다이내믹 레인지(dynamic range)를 초월하는 복수의 피사체를 촬영하려고 하는 경우에도 적절한 합초 검출이 가능해진다.Thus, by acquiring the focal position from the data group of the exposure time which is optimal for detecting the focusing state in each focus detection region, a plurality of subjects which are beyond the dynamic range of the
이와 같이 취득한 적절한 노광시간에서의 초점 위치와 AF 평가값의 관계 그래프에서의 피크시 초점 위치가, 각 초점 검출 영역에서의 합초 위치가 된다. 실제로 촬영할 때에는 이 중 하나의 초점 검출 영역에 초점을 맞춰서 촬영한다. 그것을 위해, 합초 위치 검출부(158)에서 복수의 합초 위치 중에서 하나를 선택하고(S132 단계), 선택한 합초 위치에 초점 렌즈(106)를 이동시켰다(S134 단계).The peak-time focus position in the relationship graph between the focus position at the appropriate exposure time and the AF evaluation value thus obtained becomes the focusing position in each focus detection area. In actual shooting, the camera focuses on one of the focus detection areas. For that purpose, the focusing
본 실시예에 있어서는, 주요 피사체는 촬영자로부터 가장 가까운 위치에 있다고 가정하면, 최종적인 합초 위치는 수치가 가장 큰 「500」이 되고, 중앙의 초점 검출 영역(162b)에 포함되는 피사체에 초점을 맞추기 위해, 초점 렌즈(106)의 초점 위치를 「500」에 대응하는 위치로 이동한다. 또한, 본 발명에 있어서는, 주요 피사체의 위치는 촬영자로부터 가장 가까운 위치가 아닌 위치에 있다고 가정하고, 합초 위치를 설정할 수도 있다.In this embodiment, assuming that the main subject is at the position closest to the photographer, the final focusing position is "500" with the largest value, and focuses on the subject included in the center focus detection area 162b. For this purpose, the focus position of the
초점 렌즈(106)의 위치가 결정되었으므로, 조작자는 그 후에 셔터 버튼(133)을 S2 상태로 하여 촬상동작을 수행한다. 촬상동작에 의해 촬영한 화상은 밝은 피사체와 어두운 피사체가 혼재한 경우에도 적절히 주요 피사체로 합초한 화상이 된다.Since the position of the
제1 노광시간, 제2 노광시간 및 제3 노광시간은 적정 AE 레벨 산출부(152)에서 산출한 노광시간으로부터 설정할 수도 있다. 또한, 본 실시예에 있어서는 3개의 노광시간의 그룹을 이용하고 있는데, 본 발명은 이에 한정되지 않으며, 2개일 수도, 4개일 수도 있다.The first exposure time, the second exposure time, and the third exposure time may be set from the exposure time calculated by the appropriate AE
또한 피사체가 점광원과 같이 매우 밝은 것인 경우, 화상 데이터가 포화되어 버릴 가능성이 높고, AF 평가값을 올바로 얻을 수 없게 될 우려가 있다. 이것을 막기 위해, 가장 장시간의 노광시간은 가장 밝은 하이라이트부를 기준으로 화상 데이터가 포화되지 않는 노광시간으로 설정할 수도 있다.In addition, when the subject is very bright like a point light source, there is a high possibility that the image data will be saturated, and there is a fear that the AF evaluation value cannot be obtained correctly. In order to prevent this, the longest exposure time may be set to an exposure time at which image data is not saturated based on the brightest highlight portion.
이상 설명한 바와 같이, 본 발명의 제1 실시예에 의하면, 초점 렌즈를 이동시키면서 복수의 서로 다른 노광시간에서의 노광을 반복하여 그 노광에 의해 얻어지는 화상 데이터의 AF 평가값을 산출함으로써 밝은 피사체와 어두운 피사체가 혼재한 상황에서도 적절히 주요 피사체에 합초한 화상을 촬영할 수 있다.As described above, according to the first embodiment of the present invention, a bright subject and a dark subject are calculated by repeating the exposure at a plurality of different exposure times while moving the focus lens, and calculating the AF evaluation value of the image data obtained by the exposure. Even when the subjects are mixed, the image suitably combined with the main subject can be taken.
제1 실시예에서는 초점 렌즈를 이동시키면서 복수의 서로 다른 노광시간에서 의 노광을 반복하여 AF 평가값을 산출했다. 제2 실시예에서는 초점 렌즈를 이동시키면서 소정의 노광시간의 노광을 반복하여 노광에 의해 생성된 화상 데이터를 복수의 합성 패턴으로 합성하고, 그 합성한 화상 데이터를 이용하여 AF 평가값을 산출한다.In the first embodiment, the AF evaluation value was calculated by repeating exposure at a plurality of different exposure times while moving the focus lens. In the second embodiment, the exposure of the predetermined exposure time is repeated while moving the focus lens, and the image data generated by the exposure is synthesized into a plurality of composite patterns, and the AF evaluation value is calculated using the synthesized image data.
제2 실시예에 의한 촬상 장치 및 CPU의 구성은 제1 실시예에 의한 촬상 장치(100) 및 CPU(128)와 동일하기 때문에, 여기서는 상세한 설명은 생략한다. 이하, 도 7을 이용하여 본 발명의 제2 실시예에 의한 촬상 방법에 대해 설명한다.Since the configurations of the imaging device and the CPU according to the second embodiment are the same as those of the
초점 렌즈(106)의 구동이 시작되면, 전자 셔터를 이용하여 CCD 소자(108)를 동작시켜 소정의 노광시간에서의 노광제어를 수행한다(S210 단계).소정의 노광시간이 경과하면 CCD 소자(108)의 동작을 멈추고, CCD 소자(108)에 입사된 피사체의 영상광으로부터 화상 데이터를 출력한다(S212 단계).When driving of the
소정의 노광시간에서의 노광을 수행하여 생성된 화상 데이터의 출력이 끝나면, 초점 렌즈(106)가 최종 구동 위치인지 아닌지 판단한다(S214 단계). 초점 렌즈(106)가 최종 구동 위치가 아닌 경우에는, 상기 S210 단계로 되돌아가서 다시 한 번 소정의 노광시간에서의 노광을 수행한다. 한편, 초점 렌즈(106)가 최종 구동 위치인 경우에는, 소정의 노광시간에서의 노광을 수행하여 생성된 화상 데이터를, 화상 합성부(118)에서 복수의 합성 패턴으로 합성한다(S216 단계). 화상 합성부(118)에서 복수의 합성 패턴으로 합성함으로써, 복수의 다른 시간 간격을 가진 노광시간을 가상적으로 생성할 수 있다.When the output of the image data generated by performing exposure in a predetermined exposure time is finished, it is determined whether or not the
도 8은 본 발명의 제2 실시예에 의한 초점 위치와 노광시간의 제어에 대해 설명하는 설명도이다. 셔터 버튼(133)을 S1 상태로 하여 초점 렌즈(106)의 구동이 시작되면, 맨 처음에 초점 렌즈(106)의 초점 위치가 「100」인 곳에서 소정의 노광시간에서의 노광을 수행한다. 이어, 초점 렌즈(106)를 구동하여 초점 위치가 「110」에 도달하면, 소정의 노광시간에서의 노광을 수행한다. 이어, 초점 렌즈(106)를 구동하여 초점 위치가 「120」에 도달하면, 소정의 노광시간에서의 노광을 수행한다.8 is an explanatory diagram for explaining the control of the focus position and the exposure time according to the second embodiment of the present invention. When driving of the
이와 같이 초점 위치를 구동시키면서 소정의 노광시간에서의 노광을, 초점 렌즈(106)이 최종 구동 위치에 도달할 때까지 반복한다.In this way, exposure at a predetermined exposure time while driving the focus position is repeated until the
초점 렌즈(106)가 최종 구동 위치에 도달하면, 화상 합성부(118)에서 화상 데이터의 합성을 수행한다. 본 실시예에서는 3개의 화상 데이터를 1조로 하여, 1번째의 화상 데이터와 2번째의 화상 데이터를 합성하여 하나의 화상 데이터를 작성하고, 3개의 화상 데이터를 모두 합성하여 별도의 화상 데이터를 작성한다.When the
또한, 제2 실시예에서는 1번째의 화상 데이터와 2번째의 화상 데이터를 합성하여 작성된 화상 데이터가, 제1 실시예에서의 제2 노광시간에 의해 생성된 화상 데이터와 등가인 것으로 하고, 또한 3개의 화상 데이터를 모두 합성하여 작성된 화상 데이터가 제1 실시예에서의 제3 노광시간에 의해 생성된 화상 데이터와 등가인 것으로 한다.In addition, in the second embodiment, it is assumed that image data created by combining the first image data and the second image data is equivalent to the image data generated by the second exposure time in the first embodiment. It is assumed that the image data created by combining all the two image data is equivalent to the image data generated by the third exposure time in the first embodiment.
화상 데이터의 합성이 끝나면, 작성된 각각의 화상 데이터에 대해 AF 평가값을 산출한다(S218 단계). 본 실시예에 있어서는, 1번째의 화상 데이터, 1번째의 화상 데이터와 2번째의 화상 데이터를 합성하여 작성된 화상 데이터, 3개의 화상 데 이터를 모두 합성하여 작성된 화상 데이터에 대해 각각 AF 평가값을 산출한다.After synthesizing the image data, the AF evaluation value is calculated for each of the created image data (step S218). In this embodiment, AF evaluation values are respectively calculated for the first image data, the image data created by combining the first image data and the second image data, and the image data created by combining all three image data. do.
본 실시예에 있어서도, 제1 실시예와 마찬가지로, 각 피사체 영역에서의 적절한 노광시간을 검출하려면, 노광시간 결정부(156)에 있어서, 초점 렌즈(106)의 위치와 그 위치에서의 노광의 결과 얻어진 화상 데이터의 AF 평가값으로부터 AF 평가값의 피크를 탐색하여 각 초점 검출 영역에서의 최적의 노광시간을 선택한다(S220 단계). 초점 렌즈(106)의 위치와 AF 평가값과의 관계를 그래프화하고, 경사가 큰 노광시간을 그 피사체 영역에서의 적절한 노광시간으로 한다.Also in this embodiment, similarly to the first embodiment, in order to detect the appropriate exposure time in each subject area, in the exposure
이와 같이 취득한 적절한 노광시간에서의 초점 위치와 AF 평가값의 관계 그래프에 있어서의 피크시 초점 위치가, 각 초점 검출 영역에서의 합초 위치가 된다. 실제로 촬영할 때에는, 이 중 하나의 초점 검출 영역에 초점을 맞춰 촬영한다. 그것을 위해, 합초 위치 검출부(158)에서 복수의 합초 위치 중에서 하나를 선택하고(S222 단계), 선택한 합초 위치에 초점 렌즈(106)를 이동시켰다(S224 단계).The peak-time focus position in the relationship graph between the focus position at the appropriate exposure time and the AF evaluation value thus obtained becomes the focusing position in each focus detection area. In actual shooting, the camera focuses on one of the focus detection areas. For that purpose, the in-focus
초점 렌즈(106)의 위치가 결정되었으므로, 조작자는 그 후 셔터 버튼(133)을 S2 상태로 하여 촬상동작을 수행한다. 촬상동작에 의해 촬영한 화상은 밝은 피사체와 어두운 피사체가 혼재한 경우에도 적절히 주요 피사체에 초점이 맞는 화상으로 된다.Since the position of the
또한 제2 실시예에서는 3개의 화상 데이터를 1조로 했는데, 1조의 화상 데이터의 수나 화상 데이터의 합성 패턴은 이에 한정되지 않는다. 예를 들어 4개의 화상 데이터를 1조로 하여 이 4개의 화상 데이터로부터 1번째의 화상 데이터, 1번째의 화상 데이터와 2번째의 화상 데이터를 합성하여 작성된 화상 데이터, 4개의 화 상 데이터를 모두 합성하여 작성된 화상 데이터에 대해 각각 AF 평가값을 산출할 수도 있고, 1번째의 화상 데이터와 2번째의 화상 데이터를 합성하여 작성된 화상 데이터, 1번째 내지 3번째의 화상 데이터를 합성하여 작성된 화상 데이터, 4개의 화상 데이터를 모두 합성하여 작성된 화상 데이터에 대해 각각 AF 평가값을 산출할 수도 있다.In the second embodiment, three pieces of image data are set to one set, but the number of sets of image data and the composition pattern of the image data are not limited thereto. For example, by combining four image data into one set, image data created by combining the first image data, the first image data and the second image data, and the four image data are synthesized from the four image data. AF evaluation values may be calculated for the created image data, respectively, image data created by combining the first image data and the second image data, image data created by combining the first to third image data, and four The AF evaluation value may be calculated for each of the image data created by combining all the image data.
이상, 첨부 도면을 참조하면서 본 발명의 바람직한 실시예에 대해 설명했지만, 본 발명은 이러한 예에 한정되지 않는다는 것은 물론이다. 당업자라면, 특허 청구 범위에 기재된 범위 내에서 각종 변경 또는 수정이 가능하다는 것은 명백하고, 그들에 대해서도 당연히 본 발명의 기술적 범위에 속하는 것을 알 수 있다.As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this example. Those skilled in the art will appreciate that various changes or modifications can be made within the scope of the claims, and it is obvious that they also belong to the technical scope of the present invention.
예를 들어, 상기 실시예에서의 촬상 장치(100)의 구성 요소의 일부는, 촬상 장치(100)의 내부에 기억된 컴퓨터 프로그램일 수도 있고, 각부의 기능을 실행하는 마이크로 프로세서 등의 하드웨어일 수도 있다.For example, a part of the components of the
본 발명에 의하면, 매우 어두운 피사체 또는 매우 밝은 피사체와 초점 검출 영역이 겹쳐진 경우에, 그 초점 검출 영역에서 피사체의 합초 검출을 수행할 수 있는 촬상 장치 및 촬상 방법을 제공할 수 있다.According to the present invention, when a very dark subject or a very bright subject overlaps with a focus detection region, it is possible to provide an imaging device and an imaging method capable of performing focusing detection of a subject in the focus detection region.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이 다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
Claims (7)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006095893A JP4799247B2 (en) | 2006-03-30 | 2006-03-30 | Imaging apparatus and imaging method |
JPJP-P-2006-00095893 | 2006-03-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20070098404A true KR20070098404A (en) | 2007-10-05 |
KR100819807B1 KR100819807B1 (en) | 2008-04-07 |
Family
ID=38674679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060070841A KR100819807B1 (en) | 2006-03-30 | 2006-07-27 | Image pickup apparatus and method of picking up images |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP4799247B2 (en) |
KR (1) | KR100819807B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009109623A (en) * | 2007-10-29 | 2009-05-21 | Sony Corp | Imaging apparatus |
CN110418057A (en) | 2013-10-01 | 2019-11-05 | 株式会社尼康 | Electronic equipment |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR940021455U (en) * | 1993-02-10 | 1994-09-24 | Automatic backlight compensation device | |
JP3270252B2 (en) * | 1994-09-12 | 2002-04-02 | オリンパス光学工業株式会社 | camera |
JP3270253B2 (en) * | 1994-09-12 | 2002-04-02 | オリンパス光学工業株式会社 | camera |
JP2952182B2 (en) * | 1995-05-09 | 1999-09-20 | 三星電子株式会社 | Imaging device |
KR100250904B1 (en) * | 1997-02-15 | 2000-04-01 | 모리시타 요이찌 | Light quantity control system |
JP2000155257A (en) * | 1998-11-19 | 2000-06-06 | Fuji Photo Film Co Ltd | Method and device for autofocusing |
JP2001264620A (en) * | 2000-03-15 | 2001-09-26 | Kyocera Corp | Multipoint range-finding camera |
JP2004198625A (en) * | 2002-12-17 | 2004-07-15 | Olympus Corp | Camera |
JP2005214994A (en) * | 2004-01-27 | 2005-08-11 | Sanyo Electric Co Ltd | Camera |
-
2006
- 2006-03-30 JP JP2006095893A patent/JP4799247B2/en not_active Expired - Fee Related
- 2006-07-27 KR KR1020060070841A patent/KR100819807B1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR100819807B1 (en) | 2008-04-07 |
JP2007271809A (en) | 2007-10-18 |
JP4799247B2 (en) | 2011-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100781175B1 (en) | Photographing apparatus, and photographing method | |
US6359650B1 (en) | Electronic camera having a tilt detection function | |
KR100871639B1 (en) | Camera and image processing method for camera | |
JP4727534B2 (en) | Imaging device | |
JP2007065048A (en) | Photographing device and focus control method | |
JP2010054730A (en) | Focusing position detecting device, imaging apparatus, and focusing position detecting method | |
KR20100002051A (en) | Photographing apparatus and method | |
US7925149B2 (en) | Photographing apparatus and method for fast photographing capability | |
JP4878978B2 (en) | Imaging apparatus and imaging method | |
JP2008079193A (en) | Digital camera | |
JP2007025559A (en) | Focusing position detecting method and device | |
KR20100059658A (en) | Imaging apparatus and imaging method | |
JP2003319407A (en) | Imaging apparatus | |
JP2000155257A (en) | Method and device for autofocusing | |
JP2005283776A (en) | Method and device of automatic focusing of camera | |
KR100819807B1 (en) | Image pickup apparatus and method of picking up images | |
KR100819808B1 (en) | Photographing apparatus, and photographing method | |
JP2012220890A (en) | Focus adjustment device | |
JP2004085964A (en) | Automatic focusing device, digital camera, and portable information input device | |
JP2010060810A (en) | Imaging apparatus and imaging method | |
JP2004145022A (en) | Digital camera | |
JP2010219741A (en) | Imaging apparatus and image processor | |
JP2001024931A (en) | Image pickup unit and solid-state imaging element | |
JP3272186B2 (en) | Auto focus video camera | |
JP4681899B2 (en) | Imaging apparatus and imaging method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130227 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20140227 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20150226 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20160226 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20170224 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20180227 Year of fee payment: 11 |
|
LAPS | Lapse due to unpaid annual fee |