KR20080057345A - Imaging system with adjustable optics - Google Patents

Imaging system with adjustable optics

Info

Publication number
KR20080057345A
KR20080057345A KR1020087011579A KR20087011579A KR20080057345A KR 20080057345 A KR20080057345 A KR 20080057345A KR 1020087011579 A KR1020087011579 A KR 1020087011579A KR 20087011579 A KR20087011579 A KR 20087011579A KR 20080057345 A KR20080057345 A KR 20080057345A
Authority
KR
South Korea
Prior art keywords
image
exposure time
time
exposure
measurement
Prior art date
Application number
KR1020087011579A
Other languages
Korean (ko)
Inventor
오씨 칼레보
한누 카코리
미카 쿤나리
미코 올릴라
Original Assignee
노키아 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노키아 코포레이션 filed Critical 노키아 코포레이션
Priority to KR1020087011579A priority Critical patent/KR20080057345A/en
Publication of KR20080057345A publication Critical patent/KR20080057345A/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

This invention provides a solution for determining a non-exposure time during which imaging optics can be adjusted without affecting the image being captured. In the solution an image sequence comprising at least two images is acquired, at least one of which said at least two images is used as measurement image and at least one other of which said at least two images is used as final image. Exposure times are determined for the measurement image and the final image. By means of the exposure times for the measurement image and the final image, the non-exposure time can be determined. As a result of this, the imaging optics can be adjusted during non-exposure time.

Description

적응형 옵틱을 구비한 이미징 시스템{Imaging system with adjustable optics}Imaging system with adjustable optics

본 발명은 영상 분야에 관한 것이다. 보다 상세히, 적응형 옵틱를 구비한 영상 시스템에서 영상과 관련된 것이다.The present invention relates to the field of imaging. More specifically, it relates to imaging in imaging systems with adaptive optics.

지난 수년간 디지털 카메라와 같은 디지털 영상 시스템은 영상 기술 분야에서 주목할 만한 역할을 담당해 왔다. 디지털 카메라는 하나 이상 장착된 프로세서에 의해 특성이 나타나는 것으로 디지털 형식으로 이미지를 저장한다. 전기적인 특성상, 디지털 카메라(또는 디지털 카메라 모듈)는 또 다른 전기 장치에 이미 집적된 기술이 구현되어 있으며, 그 일반적인 예로 디지털 카메라가 장착된 휴대용 전화기(휴대폰)을 들 수 있다. 마스터 장치(예를 들어, 카메라 모듈이 장착되어 있는 장치)에 따라, 카메라 모듈은 장치 내의 다른 많은 구성부품이나 시스템과 통신이 가능하다. 예를 들어, 카메라 폰의 경우, 카메라 모듈은 하나 이상의 프로세서와 통신하여 동작하고, 디지털 카메라의 경우, 다른 종류의 전용 신호 처리 구성장치를 포함할 수 있다. Over the years, digital imaging systems such as digital cameras have played a remarkable role in the field of imaging technology. Digital cameras store images in digital format as characterized by one or more equipped processors. In terms of electrical characteristics, a digital camera (or a digital camera module) has a technology already integrated in another electric device, and a typical example is a portable telephone (mobile phone) equipped with a digital camera. Depending on the master device (eg, the device on which the camera module is mounted), the camera module can communicate with many other components or systems within the device. For example, in the case of a camera phone, the camera module operates in communication with one or more processors, and in the case of a digital camera, it may include other types of dedicated signal processing components.

디지털 영상 시스템 분야에서 적응형 옵틱는 오토-포커싱이나 광학줌 기능과 같이 캡쳐된 영상의 특성을 조절하기 위해 전기적으로 이미지 포커싱을 제어하는데 사용될 수 있다. 이러한 기능은 영상장치에서 보다 중요한 역할을 차지하고 있다. 오토-포커싱이나 줌 기능은 이동형 렌즈 성분을 지닌 기존의 렌즈 옵틱으로 수행되었고 최근에는 굴절력(refractive power)에 영향을 끼치기 위해 적응형 모양이나 다른 적응형 수단을 지닌 렌즈를 이용한 광학 시스템을 이용하여 수행된다. In the field of digital imaging systems, adaptive optics can be used to electrically control image focusing to adjust the characteristics of the captured image, such as auto-focusing or optical zoom. These functions play a more important role in the imaging device. Auto-focusing or zooming was performed with conventional lens optics with movable lens components, and recently with optical systems using lenses with adaptive shapes or other adaptive means to affect refractive power. do.

영상 시스템은 장면 이미지를 생성하기 위해 빛을 모으는 렌즈 시스템을 포함한다. 빛은 전기적으로 빛을 기록하는 반도체 장치로 포커스가 모인다. 이러한 반도체 장치는 일반적으로, 예를 들어 CMOS(Complementary Metal Oxide Semiconductor) 또는 CCD(Charge-Coupled Device) 센서와 같은 장치일 수 있다.The imaging system includes a lens system that collects light to produce a scene image. Light is focused on a semiconductor device that records light electrically. Such a semiconductor device may generally be a device such as a complementary metal oxide semiconductor (CMOS) or a charge-coupled device (CCD) sensor.

센서는 감광(light-sensitive) 픽셀의 집합으로 구성되고, 감광 픽셀은 빛을 전하로 변환시키고, 전하는 추후에 디지털 영상 데이터로 변환된다. 센서에는 비닝(binning)이라는 기술이 적용될 수 있다. 비닝은 영상 시스템의 유효감도(effective sensitivity)를 증가시키고 영상 내의 픽셀의 양을 감소시키기 위해 인접한 픽셀들을 결합하는 기술이다. The sensor consists of a set of light-sensitive pixels, which convert light into electric charges, which in turn are converted into digital image data. A technique called binning can be applied to the sensor. Binning is a technique that combines adjacent pixels to increase the effective sensitivity of the imaging system and reduce the amount of pixels in the image.

영상 시스템은 또한 셔터 수단을 포함한다. 주요 셔터 타입으로는 글로벌셔터(global shutter)와 롤링 셔터(rolling shutter)가 있다. 최근에는 롤링 셔터는 CMOS 센서와 함께 사용되고, 글로벌 셔터는 CCD 센서와 함께 사용된다. 그러나, 이 경우 셔터는 다른 방식으로 사용될 수도 있다. 셔터 수단은 이미지 센서의 노출을 제한하기 위해 사용된다. 셔터 동작은 리셋, 노출 및 판독 동작과 같은 동작들이 적어도 포함되고, 또한 열림 및 닫힘과 같은 동작도 발생한다. 글로벌 및 롤링 셔터 수단은 모두 전기적으로 또는 기계적으로 구현될 수 있으며, 기계적 구현에 있 어서는 다양한 구경이나 ND(Neutral Density) 필터들이 사용될 수 있다. 롤링 셔터는 실질적으로 라인 단위로 이미지를 노출하는 특성이 있다. 글로벌 셔터는 한번에 영상 내의 모든 픽셀을 노출한다. The imaging system also includes shutter means. The main shutter types are a global shutter and a rolling shutter. Recently, rolling shutters are used with CMOS sensors, and global shutters are used with CCD sensors. In this case, however, the shutter may be used in other ways. Shutter means are used to limit the exposure of the image sensor. The shutter operation at least includes operations such as reset, exposure and read operations, and also operations such as open and close occur. Both global and rolling shutter means can be implemented electrically or mechanically, and in mechanical implementation various apertures or Neutral Density (ND) filters can be used. Rolling shutters have a characteristic of exposing images substantially in a line unit. The global shutter exposes all the pixels in the image at one time.

영상 시스템은 주로 한 영상 내의 하나 이상의 영역으로부터 현재 포커싱값을 측정하고 측정한 결과값을 영상 시스템 내에 포함되어 있는 제어부에서 활용하는 포커스검출기를 또한 포함한다. 포커스는 영상 내의 인접한 영역간의 콘트라스트에 기초하여 측정되고, 그 결과에 따라 제어부는 영상 내의 콘트라스트를 chleog화 할 수 있는 최적의 포커스를 찾는다. The imaging system also includes a focus detector which primarily measures current focusing values from one or more regions within an image and utilizes the measured results in a control unit included in the imaging system. The focus is measured based on the contrast between adjacent areas in the image, and according to the result, the controller finds an optimal focus that can chleog the contrast in the image.

영상 시스템은 또한 영상 픽셀 내의 현재 빛의 노출 레벨을 측정하고 그 결과값이 역시 제어부에서 사용되는 노출검출기도 포함한다. 제어부는 현재 노출 레벨을 이용하여 목표 노출레벨과 비교한다. 노출 시간을 비교한 결과에 따라, 아날로그 이득값, 디지털 이득값, 구경 및 ND 필터가 제어된다. 제어부는 또한 사용자 인터페이스를 통해 수신하고 있는 정보를 이용한다. 예를 들면 사용자가 특정 영상에 줌 기능을 적용하고자 하는 경우, 제어부는 렌즈의 위치를 변경시킨다. 옵틱 드라이버는 렌즈 시스템이 이동되는 경우 사용되고, 주로 I2C(Inter-Intergrated Cirguit) 명령이나 PWM(Pulse Width Modulation) 신호를 이용하여 제어된다. The imaging system also includes an exposure detector which measures the exposure level of the current light in the image pixel and the resulting value is also used in the controller. The controller compares the target exposure level with the current exposure level. According to the result of comparing the exposure time, the analog gain value, digital gain value, aperture, and ND filter are controlled. The control also uses the information being received via the user interface. For example, when a user wants to apply a zoom function to a specific image, the controller changes the position of the lens. The optical driver is used when the lens system is moved, and is mainly controlled by using an inter-intergrated cirguit (I2C) command or a pulse width modulation (PWM) signal.

영상 시스템은 입력 장치를 포함하거나 또는 연결되어 있다(예, 줌 기능을 위한 제어 버튼, 영상 선택, 셔터 제어기). 플래쉬도 영상 시스템에서 자주 사용된다. 포커스 검출기, 노출 검출기, 제어부를 포함하는 모든 영상 처리 및 실질적인 영상 처리는 카메라 모듈,카메라 프로세서, 애플리케이션 엔진, 베이스밴드 엔진이 나 이상의 조합에서 수행될 수 있다. 이러한 처리는 또한 소프트웨어나 하드웨어 처리부를 통해 수행될 수 있다. 영상 처리에 있어 적어도 검출기나 제어부는 실시간으로 동작해야 한다. The imaging system includes or is connected to an input device (eg control button for zoom function, image selection, shutter controller). Flash is also often used in imaging systems. All image processing and substantive image processing, including focus detectors, exposure detectors, and controllers, may be performed in one or more combinations of camera modules, camera processors, application engines, and baseband engines. Such processing may also be performed via software or hardware processing. In image processing, at least the detector or controller must operate in real time.

본 명세서에서, 영상은 스틸 영상, 비디오 영상 또는 뷰파인더 영상을 나타낼 수 있다. 스틸 영상은 움직이지 않는 것에 기초한 시각 정보를 생성한다. 스틸 영상은 찍힌 후 바로 메모리에 저장된다. 비디오 영상은 시간에 따라 변화하는 시각 동영상을 생성한다. 비디오 영상은, 연속적으로 이미지를 제공하기 위해 일련의 시각 영상이 찍힌다. 뷰파인더 영상은 뷰파인더 디스플레이에 영상을 제공한다. 디지털 영상 시스템에서 뷰파인더는 사용자가 캡쳐하고 있는 장면을 미리 보여주기 위해 집적된 칼라 디스플레이를 말한다. 디스플레이 상에 보이는 뷰파인더 영상은 주로 이미지 센서에서 찍히고 센서 또는 프로세서에서 원 해상도보다 해상도를 낮춘 후에 뷰파인더 디스플레이에 디스플레이된다. 이반적으로 뷰파인더 영상을 저장할 필요는 없다. 뷰파인더 영상은 뷰파인더 디스플레이 상에 즉각적으로 업데이트 되어 사용자가 지연시간 없이 화면상에서 영상을 바로 볼 수 있도록 구현되는 것이 바람직하다.In this specification, the image may represent a still image, a video image, or a viewfinder image. The still image generates visual information based on being stationary. Still images are captured and stored in memory immediately. The video image produces a visual video that changes over time. In a video image, a series of visual images are taken to continuously provide an image. The viewfinder image provides the image on the viewfinder display. In a digital imaging system, the viewfinder is an integrated color display for previewing the scene you are capturing. The viewfinder image shown on the display is mainly taken by the image sensor and displayed on the viewfinder display after the sensor or processor has lowered the resolution than the original resolution. In general, there is no need to save the viewfinder image. The viewfinder image is immediately updated on the viewfinder display so that the user can immediately view the image on the screen without delay.

영상에 있어 포커스는 자동(오토-포커싱) 또는 사용자의 동작에 따라 수동으로 이루어 질 수 있다. 또한, AF(auto-focus) 기능은 싱글샷 오토-포커싱이나 연속 오토-포커싱 기능을 이용하여 구현될 수 있다. 싱글샷 오토-포커싱은 주로 스틸 영상을 촬영할 때 이용되고, 연속 오토-포커싱은 비디오 영상 촬영에 이용된다. In the image, the focus may be automatic (auto-focusing) or manually according to the user's motion. In addition, the AF (auto-focus) function may be implemented using single-shot auto-focusing or continuous auto-focusing. Single-shot auto-focusing is mainly used when shooting still images, and continuous auto-focusing is used for video image shooting.

싱글샷 오토-포커싱은 주로 렌즈가 그 범위내에서 고정된 증분값을 이용하여 이동하는 방식으로 구현되고, 포커스 검출기가 검출한 값을 기록한다. 스캐닝이 끝나면, 렌즈는 콘트라스트가 최대인 지점으로 이동한다. 싱글샷 오토-포커싱은 예를 들어,촬영버튼을 반쯤 누르는 경우에 활성화된다. 촬영버튼이 완전히 눌린 경우에는, 영상 옵틱은 이미 적절하게 조정되어 있는 상태로, 즉시 영상이 촬영되어 사용자에게 촬영의 만족감을 제공한다. 포커스 시스템의 성능은 최적의 포커스를 찾는데 걸리는 시간과 포커싱된 영상의 정확성에 의해 결정된다. Single-shot auto-focusing is mainly implemented in such a way that the lens moves with a fixed increment within that range, and records the value detected by the focus detector. After scanning, the lens moves to the point where the contrast is maximum. Single-shot auto-focusing is activated, for example, when the shooting button is pressed halfway down. When the photographing button is fully pressed, the image optics are already properly adjusted, and images are captured immediately to provide the user with satisfaction of photographing. The performance of the focus system is determined by the time it takes to find the optimal focus and the accuracy of the focused image.

연속 오토-포커싱에서, 포커스 검출기에서 검출된 값은 실질적으로 연속적으로 촬영된 영상으로부터 결정되고, 포커스 검출기의 결과값이 영상 옵틱을 조정할 필요가 있다는 것을 표시할 때마다, 영상 옵틱을 조정함으로써 포커스가 개선된다. 특히, 비디오 영상에서 촬영된 영상들은 실시간으로 뷰파인더 디스플레이에도 디스플레이 된다. 연속 오토-포커싱의 이점은 옵틱이 지속적으로 포커스를 유지할 수 있으므로 뷰파인더 영상이 항상 포커스가 맞춰진 상태에 있다는 것이다. 이러한 기능은 비디오 촬영에 있어 필수 기능일 뿐만 아니라 스틸 영상을 촬영할 때에도 매우 유용하다. 한장의 스틸 영상은 기본적인 연속 포커싱과 함께 퀵 싱글샷 포커싱을 통해 세부 튜닝을 함으로써 지연 없이 또는 최소한의 지연으로 촬영을 수행할 수 있다.In continuous auto-focusing, the value detected by the focus detector is determined from the image taken substantially continuously, and whenever the result of the focus detector indicates that the image optic needs to be adjusted, the focus can be adjusted by adjusting the image optic. Is improved. In particular, the images taken from the video image are displayed on the viewfinder display in real time. The advantage of continuous auto-focusing is that the viewfinder image is always in focus because the optics can stay focused. This is not only essential for video shooting, but also very useful for shooting stills. A single still image can be shot with no delay or minimal delay by fine tuning through basic single focusing and quick single shot focusing.

이상에서 스틸 영상, 비디오 영상 및 뷰파인더 디스플레이에서 각각 다른 조건의 포커싱 요건이 요구된다는 것이 명확해졌다. 롤링 셔터 타입의 또는 글로벌 셔터 타입의 노출 제어 중 어느 것이 사용되는지에 따라 노출동안 오토-포커싱(또는 줌)에 사용되는 렌즈 동작은 여려 형태의 아티팩트(artifact)를 형성할 수 있 다. 특히, 롤링 셔터가 사용되는 경우, 이미지 간의 블랭크 시간이 주로 짧기 때문에(영상 센서가 어떠한 광학 영상 정보도 수집하지 못한 경우), 렌즈가 움직이기에는 시간이 부족하고 그 결과 이미지에 아티팩트가 발생하게 된다. 또한, 최근의 고-해상도 센서들이 사용되는 경우, 카메라 모듈과 연속한 일련의 이미지 간에 인터페이스의 대역폭 제한으로 인해 뷰파인더의 이미지를 주로 서브샘플링, 비닝, 또는 다운스케일링 된다. 그 결과 뷰파인더 영상의 해상도가 제한되어 있으므로 오토-포커싱 검출의 품질은 연속한 이미지 처리과정에서 후반부의 이미지에 제한된다. From the above, it is clear that focusing requirements of different conditions are required in still images, video images, and viewfinder displays. Depending on whether a rolling shutter type or global shutter type exposure control is used, the lens operation used for auto-focusing (or zooming) during the exposure may create several types of artifacts. In particular, when a rolling shutter is used, since the blank time between images is mainly short (when the image sensor has not collected any optical image information), there is insufficient time for the lens to move, resulting in artifacts in the image. . In addition, when modern high-resolution sensors are used, the image of the viewfinder is mainly subsampled, binned, or downscaled due to the bandwidth limitations of the interface between the camera module and the successive series of images. As a result, since the resolution of the viewfinder image is limited, the quality of auto-focusing detection is limited to the image at the second half during subsequent image processing.

롤링 셔터가 사용되는 대부분의 주요한 애플리케이션에서는 검출 지역에 대한 이미지 정보가 포커스 검출기에서 사용되는 경우, 오토-포커싱 검출 정보는 전용 하드웨어나 소프트웨어를 통해 즉각 계산할 수 있다. 즉, 오토-포커싱은 서브-샘플링, 비닝 또는 다운스케일링된 이미지를 토대로 할 필요없이, 전체 이미지의 전 해상도를 이용하여 이미지에서 선택된 부분에 수행될 수 있다. In most major applications where rolling shutters are used, auto-focusing detection information can be calculated immediately with dedicated hardware or software when image information for the detection area is used in the focus detector. That is, auto-focusing can be performed on selected portions of the image using the full resolution of the entire image, without having to base the sub-sampled, binned or downscaled image.

주로, 포커스 검출 지역은 이미지 영역의 중간에 위치한다. 이 경우 현재 이미지의 모든 라인이 완전히 노출되고 전송되기 이전에 다음 프레임에서 렌즈 동작에 대한 결정이 이루어질 수 있다. 하지만 이 경우 문제점은 이미지의 중앙 부분에서 오토-포커싱 처리가 수행된 이후에 렌즈들이 즉각적으로 움직일 경우, 현재 이미지의 마지막 라인들은 움직이고 있는 렌즈에 의해 노출되고 이로 인해 발생한 아티팩트가 캡쳐된 또는 시야에 있는 이미지에서 보이게 된다. Primarily, the focus detection zone is located in the middle of the image area. In this case a decision may be made about the lens operation in the next frame before all lines of the current image are fully exposed and transmitted. However, in this case, the problem is that if the lenses move immediately after the auto-focusing process is performed in the center of the image, the last lines of the current image are exposed by the moving lens and the artifacts caused by this are captured or in view. Will be visible in the image.

결국 렌즈의 동작이 멈추기 이전에 다음 이미지 프레임의 노출이 시작되는 경우 비슷한 종류의 아티팩트가 발생 될 수 있다. 이런 상황은 포커스 렌즈와 광학 줌 렌즈 동작 모두에서 발생할 수 있다. 이러한 상황에서 롤링 셔터를 이용할 경우 이미지의 첫 라인들이 훼손되고, 글로벌 셔터를 이용할 경우 전체 이미지가 손상된다. 줌 렌즈는 예를 들어, 이미지 프레임 간에 이미지 센서가 노출되지 않고 있는 경우에만 이동이 가능하다. 언제 렌즈 동작을 수행하라는 명령을 내릴지는 매우 중요하다. 또한, 전용 하드웨어가 사용될 경우, 렌즈가 실제로 움직이기 전에 지연이 발생할 수 있다. As a result, a similar kind of artifact may occur if the exposure of the next image frame begins before the lens stops operating. This situation can occur with both focus lens and optical zoom lens operation. In this situation, the first line of the image is broken when using the rolling shutter, and the whole image is damaged when using the global shutter. The zoom lens can be moved only if, for example, the image sensor is not exposed between image frames. It is very important when ordering a lens operation. Also, if dedicated hardware is used, there may be a delay before the lens actually moves.

이미지 포커싱, 특히 싱글 샷 오토-포커싱을 요구하는 경우에는 상당히 많은 시간을 요구하므로, 카메라가 이미지에 포커싱을 맞출 때쯤에는 이미 찍고자 하는 장면을 놓치게 하는 경우가 발생한다. 이런 상황은 주로 객체가 빠르게 움직이거나 상황이 빠르게 변화는 예를 들어, 스포츠나 기타 활동 영상의 경우에서 빈번하게 볼 수 있다. If you're looking for image focusing, especially single shot auto-focusing, you'll need a lot of time, so you'll miss the scene you're already shooting by the time the camera focuses on the image. This situation is frequently seen in the case of sports or other activity footage, for example, when an object moves fast or the situation changes rapidly.

적응형 옵틱을 사용하는 롤링 셔터 이용 예는 관련 기술에서 찾아 볼 수 있다. 예를 들어, 캡쳐되고 있는 이미지에 대한 영향을 고려하지 않고 렌즈를 움직인 직후 렌즈를 움직이라는 명령이 주어질 수 있다. 이러한 경우, 일반적으로 이미지의 마지막 라인이 훼손되게 된다. 다른 일 예에서, 렌즈 동작에 대한 명령은 전체 이미지가 캡쳐된 직후에 이루어진다. 이 경우에는 전체 이미지가 캡쳐될 때까지 렌즈 동작이 다소 지연된다. 블랭킹(blanking) 길이 및 노출 시간에 따라, 렌즈는 블랭크구간을 움직인다. 하지만, 구간이 짧은 반면에 렌즈 동작은 상대적으로 긴 시간동안 계속되어 주로 다음 이미지의 첫 라인이 훼손된다. Examples of using a rolling shutter using adaptive optics can be found in the related art. For example, a command may be given to move the lens immediately after moving the lens without considering the effect on the image being captured. In this case, the last line of the image is generally corrupted. In another example, instructions for lens operation are made immediately after the entire image is captured. In this case, the lens operation is somewhat delayed until the entire image is captured. Depending on the blanking length and the exposure time, the lens moves the blank section. However, while the interval is short, the lens operation continues for a relatively long time, mainly breaking the first line of the next image.

기존에는 오토-포커싱 검출은 프레임 단위로 오토-포커싱 검출값을 측정하여 수행되었다. 이런 유형의 검출 방법은 전체 이미지 프레임이나, 또는 전체 서브-샘플링 된 이미지 프레임이 포커스 검출이 수행될 때 AD로 변환되어야만 한다. 하지만, 적합한 이미지 뷰잉이나 적합한 포커싱 검출을 수행시 시간 부족으로 일부 프레임은 빈번히 이 과정을 스킵한다. 그 결과 포커싱 시간은 더 길어지게 된다. 비디오 영상의 경우, 프레임들은 거의 스킵되지 않지만, 노출로 인한 아티팩트가 발생하게 되어 레코딩된 비디오 시퀀스 상에서 렌즈의 동작을 볼 수 있게 된다. In the past, auto-focusing detection was performed by measuring the auto-focusing detection value in units of frames. This type of detection method requires that the entire image frame, or the entire sub-sampled image frame, be converted to AD when focus detection is performed. However, some frames frequently skip this process due to lack of time in performing proper image viewing or proper focusing detection. As a result, the focusing time becomes longer. In the case of a video image, the frames are rarely skipped, but artifacts due to exposure occur, allowing the lens to be seen on the recorded video sequence.

이상에 서술한 바와 같이, 렌즈가 포커싱이나 줌 등의 목적으로 움직여야할 때에, 캡쳐된 이미지에 손상을 가하지 않고 이미지를 적합하게 노출하기 위해서는 기존의 문제점을 해결하기 위한 해결책이 요구된다.As described above, when the lens needs to move for the purpose of focusing or zooming, a solution for solving the existing problem is required to properly expose the image without damaging the captured image.

본 발명에서, 포커싱이나 줌을 위해 영상 옵틱을 조정하는 과정에서 이미지 센서 상태에 대해서는 완전히 기술되지 않았다. 본 발명은 옵틱의 조절할 수 있는 시간을 최대화하고, 동시에 캡쳐된 이미지에서 발생하는 아티팩트를 최소화하는 것을 목적으로 한다. 또한, 사용자에게 개선된 사용법을 제공하기 위해 응답시간을 최소화하는 것을 목적으로 한다.In the present invention, the state of the image sensor in the process of adjusting the image optics for focusing or zooming is not fully described. The present invention aims to maximize the controllable time of the optics and at the same time minimize the artifacts that occur in the captured image. It also aims to minimize response time in order to provide improved usage to the user.

본 발명은 옵틱 조절 동작을 함께 적절히 이용하여 이미지 노출에 대한 해결책을 제시하고 캡쳐된 이미지에서 발생하는 아티팩트를 동시에 최소화 하는 것을 목적으로 한다. The present invention aims to propose a solution to image exposure by using the optical adjustment operation properly together and to minimize the artifacts occurring in the captured image at the same time.

본 발명의 또 다른 목적은 이미지 포커싱 과정에서 응답 시간을 최소화 하기 위한 다양한 방법을 제공하는 것이다. It is another object of the present invention to provide various methods for minimizing response time in an image focusing process.

이미지 시퀀스를 획득하기 위한 이미징 방법, 이미징 장치, 이미징 모듈 및 컴퓨터 판독 매체가 개시되었다. 이는 적어도 두 개의 이미지를 포함하는 이미지 시퀀스를 획득하는 단계로서, 적어도 하나의 이미지는 측정이미지로 사용되고, 다른 적어도 하나의 이미지는 최종이미지로 사용되는, 획득 단계; 측정이미지 노출 시간 및 최종이미지 노출 시간을 결정하는 단계; 상기 측정이미지 노출 시간 및 상기 최종이미지 노출 시간 간의 비-노출 시간을 결정하는 단계; 및 상기 비-노출 시간동안 이미징 옵틱 조정을 허용하는 단계를 포함한다. An imaging method, an imaging device, an imaging module, and a computer readable medium for obtaining an image sequence have been disclosed. This is a step of acquiring an image sequence including at least two images, wherein at least one image is used as the measurement image and the other at least one image is used as the final image; Determining a measurement image exposure time and a final image exposure time; Determining a non-exposure time between the measured image exposure time and the final image exposure time; And allowing imaging optic adjustment during the non-exposure time.

이상의 목적은 청구항 32, 33, 34, 36, 37 및 38항에서 특징으로 개시된 비-노출 시간을 결정하는 방법, 모듈 및 컴퓨터 판독 매체를 통해 획득될 수 있다.The above object can be attained through a method, a module and a computer readable medium for determining the non-exposure time disclosed by the features as claimed in claims 32, 33, 34, 36, 37 and 38.

본 발명의 제 1 실시예는 옵틱 조절을 위한 타이밍 방법이라 불린다. 본 실시예에서는 오토-포커스 검출 방식에 의해 적합한 타이밍이 결정된다. 타이밍은 오토 포커스 및/또는 줌 옵틱이 어떻게 조절되어야 하는지를 알려준다. The first embodiment of the present invention is called a timing method for optical adjustment. In this embodiment, an appropriate timing is determined by the auto-focus detection method. The timing tells how the auto focus and / or zoom optics should be adjusted.

본 발명의 제 1 실시예가 포커스 또는 줌 옵틱이 조절될 수 있는 정확한 때를 규정하고 있으므로, 이미지 아타팩트는 발생되지 않을 수 있다. 주어진 상황에서 프레임 블랭크 시간이 작은 경우, 본 발명은 블랭크 시간을 넘어 옵틱 제어를 위한 마진(margin)에 더 많은 시간을 할당할 것이다. Since the first embodiment of the present invention defines the exact time when the focus or zoom optic can be adjusted, image artifacts may not occur. If the frame blank time is small in a given situation, the present invention will allocate more time to the margin for optical control beyond the blank time.

상기 제 1 실시예는 또한 제어 루프에서 레이턴스를 최소화하고 실시간 기능을 개선한다. 그 이유는 오토포커스 통계 계산량이 이전 프레임에서 이미 수행되었으므로, 옵틱 조절은 다음 프레임 이전에 이미 적용될 수 있기 때문이다. The first embodiment also minimizes latency in the control loop and improves real time functionality. The reason is that since the autofocus statistical calculation has already been performed in the previous frame, the optical adjustment can be applied before the next frame.

오토-포커스/줌 하드웨어에서 세틀링(settling) 타임은, 예를 들면, 옵틱 위치를 위해 이를 옮기기 시작한 후 최종적으로 멈추기까지 요구되는 전체 시간, 블랭크 시간과 같은 범위일 수 있다. 따라서, 관심 픽셀을 노출하기 전에 충분히 긴 세틀링 시간을 제공하는 것이 중요하다. 긴 세틀링 시간은 오토-포커스/줌 활성화 제어기에서 작은 시작 전류를 요하므로, 배터리가 장착된 제한된 전원 용량을 구비한 휴대 장치에서 특히 유용하다. 전체 비-노출 시간이 옵틱 조절을 위해 사용될 때, 활성화기는 너무 빠를 필요는 없다. 즉 더 적은 전원으로 옵틱 조절이 가능하다. The settling time in the auto-focus / zoom hardware may be, for example, a range such as the total time, blank time required to start moving it for the optical position and finally stop. Therefore, it is important to provide a settling time long enough before exposing the pixel of interest. Long settling times require a small starting current in the auto-focus / zoom activation controller and are therefore particularly useful in portable devices with limited power capacity with batteries. When the total non-exposure time is used for the optics adjustment, the activator need not be too fast. That means the optics can be adjusted with less power.

본 발명의 제 2 실시예는 하나의 프레임 내에서 다수개의 옵틱 위치로부터 오토-포커스를 검출하는 것이다. 이는 검출 영역 픽셀이 노출되지 않았을 때 옵틱 조절을 통해 수행되지만, 여전히 전체 이미지 프레임의 노출동안 수행된다. 검출 영역은 이미지 내의 관심 영역이고, 이는 포커스 검출에 이용된다. A second embodiment of the present invention is to detect auto-focus from a plurality of optical positions in one frame. This is done via optics adjustment when the detection area pixels are not exposed, but still during the exposure of the entire image frame. The detection area is the area of interest in the image, which is used for focus detection.

본 발명의 제 2 실시예는 포커스 검출을 더 빠르게 하는 방법을 제시한다. 또한, 연속적인 포커스가 항상 필요한 것이 아니므로, 더 낮은 소비전력이라는 이점을 얻을 수 있다. 이로써 이용성을 개선한다. The second embodiment of the present invention provides a method for faster focus detection. In addition, since continuous focus is not always necessary, the advantage of lower power consumption can be obtained. This improves usability.

본 발명의 제 3 실시예는 블랭크 구간 또는 노출 및 렌즈 동작 시간을 제어한다. The third embodiment of the present invention controls the blank period or exposure and lens operating time.

본 실시예는 훼손되지 않은 비디오나 뷰파인더 영상을 제공하고, 이러한 이미지는 해당 이미지의 빛 및 제어 조건하에서 최대 반복 주파수에서 제공될 수 있다. 하지만, 최대 이미지 주파수를 요구하지 않는 경우, 고정된 이미지 주파수로 옵틱 조절을 할 수 있고 옵틱이 조절될 경우(많이, 조금, 전혀) 최대 노출 시간을 확보한다. 이와 유사하게, 노출 시간이 짧고, 줌이 가속화되거나 또는 일시적인 피크 효과가 감소되는 경우, 옵틱은 더 느리게 조절된다. This embodiment provides an undamaged video or viewfinder image, which may be provided at the maximum repetition frequency under light and control conditions of the image. However, if you do not require the maximum image frequency, you can adjust the optics at a fixed image frequency and, if the optics are adjusted (a lot, little, no), get the maximum exposure time. Similarly, when the exposure time is short, the zoom is accelerated or the temporary peak effect is reduced, the optics are adjusted more slowly.

제 3 실시예는 또한 자동 밤/낮 모드를 유동적으로 전환이 가능케하여, 노출 시간보다 더 크지는 않지만 이에 따라 이미지 주파수를 늦출 수 있다. The third embodiment also allows for flexible switching of the automatic night / day mode so that it is not larger than the exposure time but can slow down the image frequency accordingly.

이하 본 발명의 바람직한 실시예가 첨부된 도면들을 참조하여 설명될 것이다. 도면들 중 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 참조번호들 및 부호들로 나타내고 있음에 유의해야 한다. Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the same elements among the drawings are denoted by the same reference numerals and symbols as much as possible even though they are shown in different drawings.

도 1 은 이미지 시퀀스의 일 예를 도시한다.1 shows an example of an image sequence.

도 2 는 옵틱 조절을 위한 타이밍 방식의 일 예를 도시한다. 2 shows an example of a timing scheme for optical adjustment.

도 3 은 오토-포커스 창을 포함하는 이미지 프레임의 일 예를 도시한다.3 shows an example of an image frame including an auto-focus window.

도 4는 오토-포커스 시스템의 일 예를 도시한다. 4 shows an example of an auto-focus system.

도 5 는 프레임 구간동안 하나의 옵틱 위치 및 조절의 일 예를 도시한다. 5 shows an example of one optical position and adjustment during a frame period.

도 6 은 하나의 프레임 내의 N 개의 옵틱 위치를 측정하는 방식의 일 예를 도시한다. 6 shows an example of a method of measuring N optical positions in one frame.

도 7 은 옵틱 위치의 기능으로서 포커스 측정의 일 예를 도시한다. 7 shows an example of focus measurement as a function of optical position.

도 8 은 하나의 프레임 동안 풀 포커스 스캔의 일 예를 도시한다 8 shows an example of a full focus scan during one frame

도 9 는 글로벌 셔터에서 포커스 스캔의 일 예를 도시한다 9 shows an example of a focus scan in a global shutter;

도 10은 정적 블랭크 구간 방식의 일 예를 도시한다. 10 shows an example of the static blank interval scheme.

도 11 은 동적 블랭크 구간 방식의 일 예를 도시한다. 11 shows an example of a dynamic blank interval scheme.

도 12 는 본 발명에 따른 장치의 일 예를 도시한다. 12 shows an example of an apparatus according to the invention.

본 발명은 적응형 옵틱을 이용하는 영상 시스템에 관한 것이다. 영상 시스템은 스틸영상 카메라, 디지털 비디오 카메라, 스틸 영상 또는 비디오 영상 또는 모두를 구동할 수 있는 이동 단말기, 또는 영상을 구동할 수 있는 다른 전기 장치일 수 있다. 영상 시스템은 이동할 수 있는 적응형 옵틱(예, 오토-포커스 렌즈 또는 광학 줌 렌즈)과 센서(예, CCD 센서 또는 CMOS 센서)를 포함한다. The present invention relates to an imaging system using adaptive optics. The imaging system may be a still image camera, a digital video camera, a mobile terminal capable of driving still images or video images, or both, or another electrical device capable of driving images. Imaging systems include movable adaptive optics (eg, auto-focus lenses or optical zoom lenses) and sensors (eg, CCD sensors or CMOS sensors).

시스템은 또한 이미지 센서와 관련된 이미지 처리 수단을 더 포함하고 카메라 모듈, 별개의 처리 회로, 이동 단말의 애플리케이션 엔진 또는 이들의 혼합된 형태에 장착될 수 있다. 처리 회로는 적어도 이미지를 형성하고, 이미지를 개선시키는 기능과 실시간 제어, 예를 들어 EC(lightening), WB(white balance) 및 F(sharpness)와 같은 개선시키는 기능을 포함한다. 실시간 처리는 자동으로 구현될 수 있으며, 사용자는 어떠한 동작을 취할 필요는 없다. The system further includes image processing means associated with the image sensor and may be mounted in a camera module, separate processing circuitry, an application engine of the mobile terminal or a mixed form thereof. The processing circuit includes at least the function of forming an image, improving the image and improving the real time control, for example, lightening (EC), white balance (WB) and sharpness (F). Real-time processing can be implemented automatically and the user does not need to take any action.

영상 시스템은 또한 입력 장치를 포함하거나 입력장치에 연결될 수 있다. 입력장치를 통해 카메라 동작을 제어할 수 있다. 이러한 동작의 예로는 줌 제어, 객체 선택, 모드 선택 및 이미지 캡쳐나 비디오 영상을 활성화 등이 있다. 이하에서 서술하는 렌즈는 예를 들어, 기존의 렌즈나 리퀴드 렌즈 또는 이와 유사한 것을 포함한다. 따라서, 당업자는 "렌즈 동작" 또는 "렌즈 움직임" 등의 용어에서 동작과 움직임을 기존 렌즈의 실질적인 동작으로 이해하게 될 것이다. 다만, 예를 들어, 리퀴드 렌즈가 사용되는 경우, 움직임 및 동작은 다소 다른 조절 동작으로 해석된다. 즉, 이 경우에는 움직임을 통해 빛이 이미지 센서로 투영되고 이미지의 윤곽이 형성된다. The imaging system may also include or be coupled to an input device. Camera operation can be controlled through the input device. Examples of such operations include zoom control, object selection, mode selection and image capture or video image activation. The lens described below includes, for example, an existing lens or a liquid lens or the like. Thus, those skilled in the art will understand the motion and motion in terms of "lens motion" or "lens motion" as the actual motion of an existing lens. However, when a liquid lens is used, for example, the motion and the motion are interpreted as somewhat different adjustment motions. That is, in this case, the light is projected to the image sensor through the movement and the image is outlined.

본 발명의 배경 기술에서 서술한 바와 같이, 영상 시스템은 또한 글로벌 셔터나 롤링 셔터와 같은 셔터 수단을 포함한다. 이하에서도 명료성을 위해 이런 용어가 사용된다. 이 용어가 본 발명의 기술범위를 불필요하게 제한하도록 해석되어서는 안되며, 본 발명의 주요 기술적 개념 내지 특징을 이해하기 위해 해석되어야 한다. As described in the background of the present invention, the imaging system also includes shutter means such as a global shutter or a rolling shutter. This term is also used below for clarity. This term should not be interpreted to unnecessarily limit the technical scope of the present invention, but rather to understand the main technical concepts or features of the present invention.

도 1 은 적어도 두 개의 프레임 F1, F2를 포함하는 이미지 시퀀스의 일 예를 도시한다. 1 shows an example of an image sequence comprising at least two frames F1, F2.

적어도 두 개의 프레임 중 한 프레임은 측정이미지 F1이고 다른 프레임은 최종이미지 F2이다. 최종이미지는 저장되어 있는 이미지이고, 측정이미지는 예를 들어 포커스나 노출 시간을 측정하기 위해 사용될 수 있는 이미지이다. One of the at least two frames is the measured image F1 and the other is the final image F2. The final image is a stored image, and the measured image is an image that can be used, for example, to measure focus or exposure time.

측정영역 M1 은 측정이미지 F2에서 정의되고 측정에 사용된다. 최종이미지는 센서에서 획득되고 있는 로(raw) 이미지일 수 있다. 따라서, 디지털 이미지 처리나 다른 알고리듬은 실제로 저장되기 이전에 최종이미지에 적용될 수 있다. Measuring area M1 is defined in measuring image F2 and used for the measurement. The final image may be a raw image being acquired at the sensor. Thus, digital image processing or other algorithms can be applied to the final image before it is actually stored.

하나의 이미지 프레임 내에는 여러 가지 측정이미지가 존재할 수 있다. 측정이미지는 일반적으로 최종이미지보다 작고, 저장되지 않는다. 그러나 이미지 시퀀스가 비디오 영상 시퀀스인 경우에는 측정이미지들은 최종이미지로 판단되어 저장된다. Various measurement images may exist in one image frame. The measured image is usually smaller than the final image and is not stored. However, when the image sequence is a video image sequence, the measured images are determined as the final image and stored.

"블랭크 시간"은 센서가 프레임/라인, 픽셀 리세팅, 다른 센서 구조에서 발생된 이유 또는 사용자가 정의한 제어방식으로 인해 의미 있는 이미지 데이터를 기록할 수 없는 시간과 관련되어 있다. "블랭크 시간"은 반드시 이미지가 노출되지 않는 시간만을 의미하는 것을 아니라, 픽셀들이 센서에서 앞으로 전송되지 않는 시간을 의미할 수도 있다. "Blank time" refers to the time when a sensor is unable to record meaningful image data due to frames / lines, pixel resets, other sensor structures, or user-defined controls. "Blank time" does not necessarily mean only the time at which the image is not exposed, but may also mean the time when pixels are not forwarded from the sensor.

도 1 에 두 개의 프레임 F1, F2 간의 블랭크 시간이 도시되어 있다. 롤링 셔터에서 빛은 지속적으로 수신되지만, 실제로 판독을 하기 직전에는 픽셀과 라인들은 노출 시간 전에 리셋 된다. 센서에서 픽셀이 노출되지 않는 시간은 수직 블랭크 구간 내이다. 센서는 여전히 각 블랭크 구간 동안 노출될 수 있다(예를 들어, 적어도 다음 라인은, 라인 블랭크구간 동안 노출된다). 블랭크 시간은 이미지 프레임간에, 라인 간에 또한 픽셀 간에 발생할 수 있다. 1 shows the blank time between two frames F1, F2. Light is continuously received at the rolling shutter, but just before the reading is actually done, the pixels and lines are reset before the exposure time. The time that a pixel is not exposed at the sensor is within the vertical blank period. The sensor may still be exposed during each blank period (eg, at least the next line is exposed during the line blank period). Blank time may occur between image frames, between lines, and between pixels.

도 1 에 도시된 바와 같이 양 이미지는 각각 고유의 노출시간을 지닌다. 최종이미지 F2의 노출은 부분적으로 블랭크 시간과 겹친다. 하지만, 측정이미지 F1의 노출은 최종이미지 F2와는 완전히 다르게 반응한다. 측정이미지 F1의 노출은 측정영역 M1을 판독하기 이전에 시작된다. 도 1에서 주의하여야 하는 것은 최종이미지 F2의 노출은 최종이미지 F2 이후의 블랭크 시간까지 지속되지 않는다는 점이다. As shown in Fig. 1, each image has a unique exposure time. The exposure of the final image F2 partially overlaps with the blank time. However, the exposure of the measured image F1 responds completely differently from the final image F2. The exposure of the measurement image F1 starts before reading the measurement area M1. It should be noted in FIG. 1 that the exposure of the final image F2 does not last until the blank time after the final image F2.

F1과 F2 사이의 "비-노출시간"은 블랭크 타임 시작지점에서 적어도 다음 픽셀, 라인 또는 이미지에 노출이 수행되지 않는 구간 및 렌즈가 동작할 수 있는 구간까지 걸리는 시간이다. 도 1에서, 비-노출 시간은 측정이미지 F1의 노출이 끝나는 지점에서 시작한다. 그리고, 비-노출 시간은 렌즈의 동작에 필요한 시간에 따라 연장될 수 있다. 비디오의 경우, 비-노출 시간은 뷰파인더 또는 측정이미지들만큼은 연장될 수 없다. The "non-exposure time" between F1 and F2 is the time from the start of the blank time to the section in which no exposure is performed on at least the next pixel, line or image and the section in which the lens can operate. In FIG. 1, the non-exposure time starts at the point where the exposure of the measured image F1 ends. And the non-exposure time can be extended depending on the time required for the operation of the lens. In the case of video, the non-exposure time cannot be extended by the viewfinder or measured images.

비-노출 시간을 연장하는 방법은 채널 레이트(rate)를 증가시켜, 이미지를 보다 빠르게 판독하는 것이다. 이런 식으로 구현하면, 이미지가 보다 빠르게 판독되므로, 블랭크에 더 오랜 시간이 걸리게 되고, 이 시간은 렌즈 동작에 이용될 수 있다. 종래 기술에서는 채널 레이트를 증가시키는 법에 대한 단점을 기술하고 있다. 그 이유는 비용과 채널 레이트를 증가시 EMC-노이즈가 발생될 수 있기 때문이다. 하지만, 채널 레이트를 증가는 더 적은 과정을 통해 또는 차등 신호 인터페이스를 통해 가능하게 되었다. A way to extend the non-exposure time is to increase the channel rate to read the image faster. Implemented in this way, the image is read faster, so the blank takes longer, and this time can be used for lens operation. The prior art describes disadvantages of how to increase the channel rate. This is because EMC-noise can occur when the cost and channel rate are increased. However, increasing the channel rate has become possible through lesser processes or via differential signal interfaces.

뷰파인더 영상의 경우에는, 더 적은 영상을 대상으로 포커스과 측정을 수행한다. 따라서, 이미지는 서브-샘플링되고, 비닝(binned)되거나, 다운-스케일링 되므로 더 적은 크기의 이미지를 제공할 수 있게 된다. 더 적은 이미지는 더 빠르게 판독될 수 있다. 따라서, 비-노출시간이 더 길어진다. 스틸 영상의 경우, 측정이미지들은 실제 최종이미지보다 더 작으므로, 비-노출 시간이 자동적으로 남게 된다. In the case of a viewfinder image, focus and measurement are performed on fewer images. Thus, the image can be sub-sampled, binned or down-scaled to provide a smaller sized image. Less images can be read faster. Thus, the non-exposure time is longer. In the case of still images, the measured images are smaller than the actual final image, so the non-exposure time remains automatically.

기본적인 방법은 일련의 이미지 프레임 또는 일련의 이미지 섹션, 예를 들어 라인을 형성하는 이미지 시퀀스를 획득하는 단계를 포함할 수 있다. 이미지 시퀀스의 적어도 일 부분은 렌즈를 제어하는데 이용된다. The basic method may comprise acquiring a series of image frames or a sequence of images forming a series of image sections, eg, lines. At least a portion of the image sequence is used to control the lens.

블랭크 시간이 이미지간, 라인간 또는 픽셀 간의 이미지 시퀀스 내에서 정의되고, 비-노출 시간도 정의된다. 블랭크 시간의 일부를 구성하는 비-노출 시간 동안 렌즈는 끝부분에서 움직인다. 이를 해결하는 이유는 렌즈가 노출에 기초하여 동작(오토-포커스, 줌)하지 않도록 하는 것이다. 따라서, 렌즈가 움직이는 시간 구간과 노출이 다 수행되지 않은 구간(예를 들어 비-노출시간)이 정의된다. 비-노출 시간은 기본적으로 연속한 이미지와 그들의 노출 간의 간격(gap)으로 정의될 수 있다. Blank times are defined within an image sequence between images, lines or pixels, and non-exposure times are also defined. The lens moves at the end during the non-exposure time, which constitutes part of the blank time. The reason for this is to ensure that the lens does not operate (auto-focus, zoom) based on exposure. Thus, the time period in which the lens moves and the period in which exposure is not performed (eg, non-exposure time) are defined. Non-exposure time can basically be defined as the gap between successive images and their exposure.

영상 시스템은 비-노출시간 동안 동작을 수행하도록 하는 수단을 포함한다. 이러한 동작은, 예를 들어, 노출시간을 정의하는 것, 이미지 내에 정보가 있는 위치를 정의하는 것 등을 포함한다. 또한, 시스템은 비-노출시간 동안 픽셀의 동작과 이미 수행된 동작에 대한 파악이 필요하다. 또한, 각 동작 수행시 발생하는 지연도 모두 파악하고 동작해야 한다. 예를 들어, 렌즈 동작의 상이성 정도에 따라 어느 정도의 지연이 발생하는지를 파악해야 한다. 또한, 이상의 수단들은 포커스가 사라졌는지 또는 잘못되었는지를 알 수 있어야 한다. The imaging system includes means for performing the operation during the non-exposure time. Such actions include, for example, defining exposure times, defining locations of information within an image, and the like. In addition, the system needs to know the operation of the pixel and the operation already performed during the non-exposure time. In addition, all delays that occur when performing each operation should be identified and operated. For example, it is necessary to know how much delay occurs depending on the degree of difference in lens operation. In addition, the above means should be able to know whether the focus is lost or wrong.

이하에서는 여러 실시예를 통해 본 발명에 대해 서술하겠다. Hereinafter, the present invention will be described through various embodiments.

1) 렌즈 동작에 있어 타이밍 방식1) Timing method for lens operation

도 2 는 렌즈 동작에 있어 타이밍 방식(timing solution)을 도시한다. 센서에서 픽셀 데이터는 노출된 후 전송된다(1). 프로세서(110)는 측정되고 있는 이미지의 이미지 데이터를 수신하고, 또한 예를 들어, 오토-포커싱 검출이 이루어지는 오토-포커싱 로직(112)을 포함한다. 2 illustrates a timing solution for lens operation. In the sensor, pixel data is exposed (1) and transmitted. Processor 110 receives image data of the image being measured, and also includes auto-focusing logic 112 where, for example, auto-focusing detection is made.

검출부(112)가 오토-포커스 통계를 계산하거고, 그 후 이미징 센서에서 계산 된 통계를 제어 CPU(113)으로 전송된다(예를 들어, 이미지 프레임 내에서 전송되거나 I2C를 통해 전송된다). 계산이 수행된 후에, 오토-포커스 통계량은 제어 CPU(113)부에 전달된다(3). 제어 CPU(113)는 오토-포커스 통계를 판독하고(4) 비-노출 시간이 얼마나 필요한지를 결정한다. 예를 들어, 오토-포커스 및/또는 줌 렌즈들은 어떻게 변경해야 하는지를 결정한다. The detection unit 112 calculates the auto-focus statistics, and then transmits the statistics calculated at the imaging sensor to the control CPU 113 (eg, transmitted in an image frame or transmitted through I2C). After the calculation is performed, the auto-focus statistic is sent to the control CPU 113 section (3). The control CPU 113 reads the auto-focus statistics (4) and determines how much non-exposure time is needed. For example, auto-focus and / or zoom lenses determine how to change.

렌즈 동작이 필요하다고 결정한 경우, 제어 CPU(113)는 또한 사용자 인터페이스로부터 수신한 정보를 이용할 수 있다. 센서(100)로부터 이미지 데이터를 수신하는 수신기 로직(111)에서 라인 카운터가 사용될 수 있다. 제어 CPU(113)는 오토-포커스 통계가 계산된 이후에 수신기에서 라인 카운터의 기록을 판독한다(5). 그리고 이미지 센서 내의 픽셀의 개수, 전송 클럭 주파수 및 줌 하드웨어에서 발생할 수 있는 지연을 파악함으로써, 렌즈를 동작시킬 수 있는지 없는지를 결정할 수 있다. If it is determined that lens operation is required, the control CPU 113 can also use the information received from the user interface. A line counter can be used in receiver logic 111 to receive image data from sensor 100. The control CPU 113 reads the record of the line counter at the receiver after the auto-focus statistics have been calculated (5). By determining the number of pixels in the image sensor, the transmission clock frequency, and the delays that may occur with the zoom hardware, it is possible to determine whether the lens can be operated.

일 실시예로, 1600*1200 센서로부터 이미지 프레임이 초당 20 프레임의 속도(f/s)로 수신되고, 전송 시간이 라인당 40 μs이며, 프레임 마다 5개의 블랭킹 라인이 있다. 라인 넘버 1020이 수신되는 때에 렌즈 조절이 결정이 이미 결정되었다면, 아직 이미지의 끝에 180개의 라인이 남아 있고(1200-1020), 이미지 전송을 마치는데 7.2 밀리세컨드가 요구된다. 따라서, 줌 하드웨어에서 지연이 1 밀리세컨드인 경우, 그로 인해 25 라인(1000μs/ 40μs) 만큼의 지연시간이 요구되고, 라인넘버 1175(1200-25)가 수신된 이후에 줌 하드웨어(114, 115)에 명령을 할 수 있고(6, 7) 그 후, 줌 옵틱은 현재 이미지가 완성된 이후 움직이기 시작할 수 있다.In one embodiment, an image frame is received from a 1600 * 1200 sensor at a rate of 20 frames per second (f / s), the transmission time is 40 μs per line, and there are five blanking lines per frame. If the lens adjustment decision has already been determined when line number 1020 is received, there are still 180 lines at the end of the image (1200-1020) and 7.2 milliseconds is required to complete the image transfer. Thus, if the delay in the zoom hardware is 1 millisecond, then a delay of as many as 25 lines (1000 μs / 40 μs) is required, and the zoom hardware 114, 115 after line number 1175 1200-25 has been received. You can command (6, 7) and then the zoom optic can start moving after the current image is complete.

렌즈 구동부(114)에 대한 명령(6)은 렌즈의 동작이 현재 이미지 노출을 흩뜨리지 않는 것이 확실해 진 이후에 할 수 있다. 제어 CPU(113)는 또한 노출값과 블랭크구간을 제어함으로써, 렌즈 동작으로 인해 다음 이미지 프레임이 훼손되지 않게 된다. The command 6 for the lens driver 114 can be made after it is assured that the operation of the lens does not disturb the current image exposure. The control CPU 113 also controls the exposure value and the blank section so that the next image frame is not corrupted by the lens operation.

현재 또는 다음 이미지 프레임이 필요하지않는 경우, 제어 CPU(113)는 다음 포커스 검출 지역이 렌즈 동작으로 훼손되지는 않았는지 파악해야 한다. 예를 들어, 싱글 샷 포커스는 가능한 빨리 맞추어야 한다. 따라서, 글로벌 셔터가 사용되는 경우, 가능한 빨리 렌즈를 동작시키기 위해 글로벌 셔터의 타이밍은 알고 있어야 한다. If no current or next image frame is needed, the control CPU 113 must determine if the next focus detection area has not been compromised by lens operation. For example, single shot focus should be adjusted as soon as possible. Therefore, when a global shutter is used, the timing of the global shutter must be known in order to operate the lens as soon as possible.

도 3 은 측정이미지 프레임 내의 오토-포커스 위치를 도시한다. 오토-포커스 위치는 측정 지역으로 간주 될 수 있고 센서배열부(100) 내의 참조 번호 101-108 로 표시되었다. 3개의 라인 노출 시간을 이용하는 (CMOS) 센서 내의 첫 5줄과 관련된 일 노출(롤링 셔터의 경우) 실시예가 테이블 1 에 도시되었다.

Figure 112008034305243-PCT00001
3 shows the auto-focus position in the measured image frame. The auto-focus position can be considered the measurement area and is indicated by reference numerals 101-108 in the sensor array 100. One exposure (for rolling shutter) embodiment associated with the first five lines in the (CMOS) sensor using three line exposure times is shown in Table 1.
Figure 112008034305243-PCT00001

[Table 1 : 타이밍 방식을 위한 노출의 일 실시예]Table 1: Example of Exposure for Timing Method

본 실시예를 설명하기 위해, 테이블 4의 Step 4 를 예로 들어 보겠다. Step 4에서, 첫번째 라인(line 1)이 판독된 후, 두 개의 열이(row 2, 3)이 노출된다. 그리고 4번째 줄(line 4)이 리셋된다. 그 후 5번째 라인(line 5)가 Step 8에서 판독될 때까지 다음 단계들이 진행된다. 이전 단계들 Step 1-3은 노출 동작을 초기화 하고, 이러한 동작은 주로 수직 블랭크 구간동안 이루어진다. Step 1-4에서 line 1의 작동을 추적하면, 해당 라인이 먼저 판독되고, 그 후 두 개의 라인 동안 노출되며 마지막으로 판독되는 것을 볼 수 있다. 반면, 리셋의 기능을 추적하면, Step 1에서 line 1부터 시작하여 Step 5 동안 line 5에 이를 때까지 한 라인씩 앞으로 이동한다. 본 실시예에서, 이후의 라인과 블랭크 시간은 도시되지 않았다. 그리고 블랭크 시간은 노출 시간보다 더 큰 것으로 가정하고, line 1은 현 이미지의 마지막 라인이 판독될 때까지 다음 이미지를 위해 리셋될 필요는 없다. To illustrate this embodiment, take Step 4 of Table 4 as an example. In Step 4, after the first line (line 1) is read, two rows (row 2, 3) are exposed. The fourth line (line 4) is reset. The next steps then proceed until the fifth line (line 5) is read in Step 8. The previous steps Step 1-3 initiate the exposure operation, which is usually done during the vertical blank period. If you trace the operation of line 1 in Step 1-4, you can see that the line is read first, then exposed for two lines, and finally read. On the other hand, if you trace the function of the reset, starting from line 1 in step 1 and moving forward line by line until step 5 is reached during step 5. In this embodiment, subsequent lines and blank times are not shown. And assume that the blank time is greater than the exposure time, line 1 need not be reset for the next image until the last line of the current image is read.

본 실시예에서, 라인 카운터는 영상 센서 상태를 파악하기 위해 수신부 로직(111)과 관련된 내용에서 기술하였다. 이에 더하여, 라인 카운터는 또한 시간 측정을 위해 사용될 수도 있다. 본 실시예에서는, 노출 시간이 매우 짧고, 렌즈 동작이 매우 짧은 상황에서 시간 측정을 하는 기능을 하고 있다. 짧은 노출 시간은 노출 시간이 블랭크 시간 내에 렌즈가 움직이는 시간인 수직 블랭크 구간보다 더 짧다는 것을 의미한다. 주로, 짧은 노출 시간은 다음의 예(e.g.)보다 더 짧을 수 있다는 것을 의미한다. e.g. 50/(20*(1200+50))s =1/500s =2 ms, 이 경우 50은 블랭크 라인의 양(=본 실시예에서, 최대 노출 시간), 20은 일초당 판독되는 프레임의 양(2Mpix 영상은 1200 라인을 포함한다). 따라서, 노출 시간은 이보다 더 짧으므로, 블랭크 구간 내에서 렌즈가 동작할 시간은 충분하다. 왜냐하면, 그렇지 않으면 다음 이미지의 첫 라인이 현재 이미지의 마지막 라인이 판독되기 이전에 노출되기 때문이다. In the present embodiment, the line counter has been described in the context related to the receiver logic 111 to determine the state of the image sensor. In addition, a line counter may also be used for time measurement. In this embodiment, the time measurement is performed in a situation where the exposure time is very short and the lens operation is very short. Short exposure time means that the exposure time is shorter than the vertical blank section, which is the time the lens moves within the blank time. Primarily, a short exposure time means that it can be shorter than the following example (e.g.). e.g. 50 / (20 * (1200 + 50)) s = 1 / 500s = 2 ms, where 50 is the amount of blank lines (= maximum exposure time in this embodiment), 20 is the amount of frames read per second ( 2Mpix video includes 1200 lines). Therefore, since the exposure time is shorter than this, there is sufficient time for the lens to operate within the blank period. This is because otherwise, the first line of the next image is exposed before the last line of the current image is read.

또한 주의할 것은 예를 들어 블랭크 라인의 양이 더블인 경우, 블랭크 시간은 더블이 되지 않는다는 점이다. 이유는 (100/(20*(1200+100))s=1/260s~=3.85ms 이기 때문이다. 또한 주의할 것은 센서 픽셀의 판독이 동시에 가속화되어야한다. 그렇지 않으면 센서에서 초당 20 프레임을 지닐 수 없기 때문이다. 일반적으로, 롤링 셔터가 이미지 왜곡을 발생시키지 않기 위해서는 적어도 초당 15프레임이 요구된다. 실제로 더 짧은 시간 내에 이미지 판독이 가능하므로, 이미지 왜곡이 줄어들게 되어, 정적(static) 블랭크 시간을 가능한 크게 증가시키는 것이 또한 가능하다. 또한 블랭크 시간을 작게 유지시켜 센서로부터 두배의 프레임양을 캡쳐하는 것이 가능하다. 하지만, 실제 작동에서, 렌즈 동작은 영상에 영향을 미치므로, 최대 노출 시간 역시 감소하게 된다. 이후에 서술될, 또 다른 실시예(3. 블랭크 시간을 이용한 렌즈 움직임 및 이미지 노출)에서는 블랭크 시간이 정적으로(3.1) 또는 동적으로(3.2) 증가 되는 경우 사용될 수 있다. Note also that the blank time is not double, for example when the amount of blank lines is double. This is because (100 / (20 * (1200 + 100)) s = 1 / 260s ~ = 3.85ms. Also note that the reading of the sensor pixels must be accelerated simultaneously, otherwise the sensor will have 20 frames per second. In general, at least 15 frames per second are required for the rolling shutter to not cause image distortion, and in fact, image reading can be performed within a shorter time, which reduces image distortion, resulting in a static blank time. It is also possible to increase as large as possible, and it is also possible to keep the blank time small to capture twice the amount of frames from the sensor, but in practical operation, since the lens operation affects the image, the maximum exposure time is also reduced. In another embodiment, described later (3. Lens Movement and Image Exposure Using Blank Time), the blank time is static (3). .1) or dynamically (3.2) when used.

테이블 1은 1200 가시 이미지 라인과 50 블랭크 라인을 구비한 센서의 첫 5줄의 일 실시예를 도시한다. Step 4에서 첫 라인의 판독이 시작되고, 블랭크 시간동안 Step 1-3이 발생한다. 노출 시간은 3개의 라인 동안이고, 1200 개의 라인과 50개의 블랭크 라인을 구비한 센서, 그리고 40μs 내에서 라인 판독이 이루어지는 실시예에 노출 시간을 접목시키면, 노출 시간은 120μs가 된다. 따라서, 47개의 라인이 렌즈 동작(=비-노출 시간)동안에 남게될 것이고, 이는 47*40 =1.88ms 를 의미 한다. 따라서 본 예에서 센서의 전체 블랭크 시간은 50*40μs=2ms 이다.Table 1 shows one embodiment of the first five lines of the sensor with 1200 visible image lines and 50 blank lines. The reading of the first line starts in step 4, and steps 1-3 occur during the blank time. The exposure time is for three lines, and the exposure time is 120 μs when incorporating the exposure time into an embodiment with 1200 lines and 50 blank lines and a line reading within 40 μs. Thus, 47 lines will remain during lens operation (= non-exposure time), which means 47 * 40 = 1.88ms. Thus, in this example, the total blank time of the sensor is 50 * 40μs = 2ms.

2)빠른 2) fast 포커스focus 검출 방식( Detection method ( fastfast focusfocus solutionsolution ))

도 4 는 오토-포커스 시스템의 일 예를 도시한다. 오터 포커스 시스템은 적어도 센서(300), 포커스 검출부(312), 오토-포커스 제어부(314), 옵틱 드라이버(315) 및 옵틱(optics, 316)을 포함한다. 4 shows an example of an auto-focus system. The auto focus system includes at least a sensor 300, a focus detector 312, an auto-focus controller 314, an optic driver 315, and an optic 316.

기본 방식은 렌즈를 그 범위내에서 동작시키고, 컨트라스트 값을 기록한 후에 최적의 컨트라스트 값을 가진 위치로 렌즈를 이동시키는 것이다. 본 발명의 실시예는 관련 기술을 이용할 때보다 더 빠르게 포커스를 찾게 해준다. The basic approach is to operate the lens within that range, record the contrast value and then move the lens to the position with the best contrast value. Embodiments of the present invention allow for faster focus finding than when using related techniques.

본 발명의 주요 개념은 하나 또는 다수개의 프레임 내에서 하나 또는 다수 개의 렌즈 위치로부터 포커스를 측정하는 것이다. 이로 인해 포커스 검색이 더 빨라진다. 이 실시예는 이하의 방법으로 구현이 가능하다. The main idea of the present invention is to measure focus from one or multiple lens positions in one or multiple frames. This makes the focus search faster. This embodiment can be implemented in the following manner.

본 방법에서는 렌즈들 위한 위치가 고정된 증분값을 지닐 필요는 없지만, 오토-포커스 제어 방식은 측정을 수행하기 위해 새로운 렌즈의 위치를 선택해야 한다. In this method, the position for the lenses does not have to have a fixed increment, but the auto-focus control scheme must select the position of the new lens to perform the measurement.

2.1 하나의 프레임 내에서 하나의 렌즈 위치 측정2.1 Measuring one lens position within one frame

도 5 는 하나의 프레임 판독 시간 Tf 내에서 하나의 렌즈 위치가 측정되는 일 실시예를 도시한다. 이미지 프레임 내의 측정영역 M에서 컨트라스트가 검출된 다. 렌즈 위치에 대한 측정값은 측정영역 M의 하부영역에서 고주파수(및/ 또는 밴드패스) 컨텐트를 수집함으로써 획득된다. 측정된 하부영역의 세트만이 평가 단계에서 사용되는 것도 가능하다. 렌즈는 측정영역 M의 마지막 라인을 판독하는 지점과 다음 프레임 N+1(도 5에 도시 안됨)내의 측정영역 M의 첫 라인의 노출이 시작되는 지점간의 렌즈 동작 시간 동안 Pn 과 Pn +1 위치를 이동한다. 렌즈가 이 시간틀을 벗어나 동작하는 경우, 측정영역 내의 라인들은 혼합된 데이터를 획득하게 되고, 측정영역은 더이상 단 하나의 렌즈 위치에 대응하지 않는다. Pn +1 위치는 다음 프레임 N+1 내에서 측정된다. 5 shows one frame read time T f One embodiment in which one lens position is measured is shown. Contrast is detected in the measurement area M in the image frame. The measured value for the lens position is obtained by collecting high frequency (and / or bandpass) content in the lower region of the measurement region M. It is also possible that only a set of measured subregions is used in the evaluation step. The lens is P n and P n +1 during the lens operation time between the point at which the last line of the measuring area M is read out and the point at which the first line of the measuring area M in the next frame N + 1 (not shown in FIG. 5) starts. Move the position. If the lens operates out of this time frame, the lines in the measurement area acquire mixed data and the measurement area no longer corresponds to only one lens position. The P n + 1 position is measured within the next frame N + 1.

렌즈 동작을 위해 할당된 시간은, 비-노출 시간의 예를 들면 다음과 같다.The time allotted for lens operation is, for example, the non-exposure time as follows.

Figure 112008034305243-PCT00002
Figure 112008034305243-PCT00002

이 때, Texp는 노출 시간이다.At this time, T exp is the exposure time.

2.2 하나의 프레임에서 N 개의 렌즈 위치 측정2.2 Measuring N Lens Positions in One Frame

도 6은 하나의 노출 프레임 내에서 두 개의 렌즈 위치가 측정되는 것을 도시한다. 컨트라스트는 이미지 프레임 I 내의 M1 및 M2 영역에서 검출된다. 측정값은 고주파수(및/또는 밴드 패스) 컨텐트를 하부-영역으로부터 모음으로써 파악된다. 평가 단계에서 측정된 하부영역 세트만을 이용할 수도 있다. 6 shows that two lens positions are measured within one exposure frame. Contrast is detected in the M1 and M2 regions within image frame I. The measurements are captured by collecting high frequency (and / or band pass) content from the sub-regions. Only the set of subregions measured in the evaluation step may be used.

M1 영역 내의 첫 라인의 노출은 Llead 라인 판독에서 시작된다. 이는 M1 영역 내의 첫 라인이 Llead 라인 판독 동안 노출되고 있음을 의미한다. 렌즈는 이미지 프레임 N 내의 M1 영역의 마지막 라인을 판독하는 지점과 M2 영역의 첫 라인의 노출이 시작되는 지점 간의 TLensM1 - M2시간 동안 Pn 과 Pn +1 위치를 이동한다. Exposure of the first line in the M1 area starts with the L lead line reading. This means that the first line in the M1 area is exposed during the L lead line read. The lens shifts the P n and P n +1 positions for the time T LensM1 - M2 between the point at which the last line of the M1 region in the image frame N is read out and the point at which exposure of the first line of the M2 region begins.

이 렌즈는 이미지 프레임 N 내의 M2 영역의 마지막 라인 판독 지점과 다음 프레임 N+1 내의 M1 영역 내의 첫 라인의 노출 시작점 사이의 TLensM2 - M1 시간(도시 안됨) Pn +1 과 Pn +2 위치를 이동한다. This lens is the T LensM2 - M1 between the last line reading point of the M2 region in image frame N and the start of exposure of the first line in M1 region in next frame N + 1. Time (not shown) Moves P n +1 and P n +2 positions.

렌즈가 이 시간틀 바깥에서 동작하는 경우, 측정영역 내의 라인들은 혼합된 데이터를 획득하게 되고, 측정영역은 단 하나의 렌즈 위치에 대응하지 않는다. Pn +2 위치 및 Pn +3위치는 다음 프레임에서 측정된다. 노출 시간 Texp 는 하나의 프레임 내에서 일반적으로 상수이나, 당업자는 하나의 프레임 내에서 변할 수도 있음을 알 것이다. When the lens operates outside this time frame, the lines in the measurement area acquire mixed data, and the measurement area does not correspond to only one lens position. The P n +2 position and the P n +3 position are measured in the next frame. The exposure time Texp is generally constant within one frame, but one skilled in the art will appreciate that it may vary within one frame.

Figure 112008034305243-PCT00003
Figure 112008034305243-PCT00003

도 7 은 렌즈 동작 범위를 스캔한 후의 결과를 도시한다. 도 7 은 도 6과 관 련되어 있고 두 개의 별개 측정영역과 관련된 커브를 도시한다. 두 개의 별개 측정영역 중 하나의 영역은 다른 영역보다 더 많은 정보가 있다. 피크 포커스 위치는 커브를 종합하여 계산될 수 있다. 7 shows the result after scanning the lens operating range. FIG. 7 shows a curve related to FIG. 6 and associated with two separate measurement areas. One of the two separate measurement areas contains more information than the other area. The peak focus position can be calculated by combining the curves.

노출 시간 Texp 는 얼마나 많은 측정이 하나의 프레임 내에서 수행될 수 있는지를 정의하는데 사용된다. 또한, 예를 들어, MTF/PSF(Modulation Transfer Function, 모듈레이션 전이 기능/Point Spread Fuction, 포인트 확산 기능)과 같은 렌즈 특성 값이 포커스를 평가하기 위해 이용될 수 있다. The exposure time Texp is used to define how many measurements can be performed in one frame. In addition, lens characteristic values, such as, for example, Modulation Transfer Function (MTF / PSF), Point Spread Fuction, and Point Spread Function, may be used to evaluate the focus.

2.2 실시예는 두 개의 측정영역을 예를 들어 설명하고 있으나, 당업자는 단지 두 개의 영역에 한정되는 것이 아님을 유의하여야 한다. 또한, 렌즈 위치가 2.2 실시예에서는 연속하여 기술되었으나, 위치 역시 상이할 수 있다. 렌즈 위치들 간의 거리는 항상 같을 필요는 없다. 측정영역의 크기나 위치는 노출 시간과 렌즈 동작에 필요한 시간에 따라 변할 수 있다. Example 2.2 describes two measurement areas by way of example, but one of ordinary skill in the art should be aware that they are not limited to only two areas. In addition, although the lens position has been continuously described in the 2.2 embodiment, the position may also be different. The distance between lens positions does not always need to be the same. The size or position of the measurement area may vary depending on the exposure time and the time required for the lens operation.

2.3. 하나의 프레임(또는 두 개의 프레임) 내에서 연속적인 순간2.3. Consecutive moments within one frame (or two frames)

본 실시예는 (도 8 참고) 2.1 실시예와 유사하나, 특정 렌즈 위치에서 렌즈가 멈춘다는 점에 있어 차이가 있다. M 영역의 하부 영역들은 전체 렌즈 동작 범위의 부분구간으로부터의 데이터를 포함한다. 따라서, 포커스 값을 해석할 때는 이를 고려하여야 한다. 또한, 노출시간은 이러한 계산을 고려하여 이루어져야 한다. 본 실시예는 이미지가 문서나 명함과 같이 편평한 객체일 때 유용하다. This embodiment is similar to the embodiment 2.1 (see FIG. 8) except that the lens stops at a specific lens position. The lower regions of the M region contain data from the subsections of the entire lens operating range. Therefore, this must be taken into account when interpreting the focus value. In addition, the exposure time should be made in consideration of this calculation. This embodiment is useful when the image is a flat object such as a document or a business card.

본 실시예에서, 렌즈는 고정된 속도로 이동하나, 예를 들어 프레임 동안 다 양한 범위의 싸이클과 같이 다양한 속도나 경로로 움직일 수 있다. 또 다른 구현예로서, 제 1 프레임간에서 렌즈들은 최소에서 최대까지 동작할 수 있고 렌즈들은 제 2 프레임 간에서 최대에서 최소로 동작을 복원할 수 있다. 이런 방식으로, 두 개의 커브들이 생성될 수 있고, 그 이미지 내의 다른 영역 내의 다른 컨트라스트 지역의 영향이 감소 될 수 있다. 또한, 렌즈 특성값(예, MTF/PSF)은 포커스를 계산할 때 이용될 수 있다. In this embodiment, the lens moves at a fixed speed, but can move at various speeds or paths, for example, over a wide range of cycles during the frame. As yet another embodiment, the lenses may operate from minimum to maximum between the first frame and the lenses may restore operation from maximum to minimum between the second frame. In this way, two curves can be generated, and the influence of different contrast regions within other regions in the image can be reduced. In addition, lens characteristic values (eg, MTF / PSF) may be used when calculating focus.

2.4 글로벌 셔터를 이용한 빠른 2.4 Fast with Global Shutter 포커싱Focusing

상기에서 서술한 바와 같이, 글로벌 셔터는 일반적으로 CCD 센서들과 함께 사용된다. 하지만, DMOS 센서들도 글로벌 리셋과 글로벌 셔터를 포함할 수 있다. 도 9 는 그랍된 이미지(810)가 오토-포커스 계량에 사용되고, 풀(full) 이미지(800)가 뷰파인더 영상로 사용될 수 있는 예를 도시한다. As described above, global shutters are generally used with CCD sensors. However, DMOS sensors can also include global resets and global shutters. 9 shows an example where the drawn image 810 can be used for auto-focus metering and the full image 800 can be used as a viewfinder image.

제 1 타이밍 챠트(801)는 프레임 레이트와 포커싱 속도가 ADC(Analog to Digital Conversion) 속도에 제한되는 일반적인 동작 모드를 포함한다. 당연히, 노출 시간이 매우 길 경우 노출 시간은 또한 제한요소가 될 수 있다. 제 2 타이밍 챠트(802)는 포커싱 스피드가 최대화되고, 뷰파인더 영상은 전혀 캡쳐되지 않은 시스템을 도시한다. The first timing chart 801 includes a general operation mode in which the frame rate and the focusing speed are limited to the analog to digital conversion (ADC) speed. Naturally, exposure time can also be a limiting factor if the exposure time is very long. The second timing chart 802 shows a system in which the focusing speed is maximized and the viewfinder image is not captured at all.

이 경우, 포커싱 속도는 렌즈 동작, 리셋 및 노출 시간에 의해 제한된다. 제 3 타이밍 챠트(803)는 빠른 포커싱이 이루어 질 수 있으나, 미리보기 이미지는 여전히 적당한 프레임 레이트로 보이는 예를 도시한다. 크라핑이 수행되면, 크라핑 영역 외의 전하들은 무시되거나 AD로 변환되지 않는다. In this case, the focusing speed is limited by the lens operation, reset and exposure time. The third timing chart 803 shows an example where fast focusing can be achieved, but the preview image still looks at the proper frame rate. If clipping is performed, the charges outside the clipping region are ignored or not converted to AD.

빠른 포커스 검출법은 포커스를 찾는데 필요한 시간에 있어 상당한 이점이 있다. 예를 들어, "X"가 필요한 측정량에 대응된다면, 시간은 2.1 실시예(노출 시간을 제한함으로써)에 의해 줄어들 수 있고, 2.2 실시예에 의해 시간은 X/N으로 줄어들 수 있다. 2.3 실시예에 의하 경우 시간은 측정시 증가되는 프레임 레이트에 의해 줄어들 수 있다. 2.3 실시예는 또한 지속적인 초점이 필요하지 않으므로 전력 소비까지도 줄일 수 있다. Fast focus detection has a significant advantage in the time needed to find focus. For example, if " X " corresponds to the required measurement amount, the time can be reduced by the 2.1 embodiment (by limiting the exposure time), and by the 2.2 embodiment the time can be reduced to X / N. In the 2.3 embodiment, the time can be reduced by increasing the frame rate during the measurement. The 2.3 embodiment also reduces power consumption since it does not require constant focus.

3) 블랭크 시간을 이용한 렌즈 이동 및 이미지 노출3) Lens shift and image exposure using blank time

본 실시예는 블랭크 구간이 제어되거나(동적으로 변화하는 블랭크 구간) 또는 노출 및 렌즈 동작 시간이 제어되는(정적 블랭크 구간)에 관하여 설명한다. 동적으로 변하는 블랭크 구간이 사용될 때, 최대 이미지프레임 레이트는 이미지 정보를 훼손시키지 않는 알려진 노출값과 렌즈 동작 시간 내에서 획득될 수 있다. 또한, 렌즈 동작이 있거나 또는 심지어 없는 경우에도 최대 이미지 프레임 레이트 내에서 자동 낮-밤 장면 변화를 이용할 수 있게 한다. 프레임 레이트는 동적으로 변하는 블랭크 구간이 사용될 때 상수는 아니다. 하지만, 정적 블랭크 구간에서는 프레임 레이트가 상수일 수 있다.This embodiment describes a blank section being controlled (a dynamically varying blank section) or an exposure and lens operating time controlled (a static blank section). When a dynamically varying blank interval is used, the maximum image frame rate can be obtained within a known exposure value and lens operating time that does not compromise the image information. It also enables automatic day-night scene changes within the maximum image frame rate even with or without lens motion. The frame rate is not constant when a dynamically varying blank period is used. However, the frame rate may be constant in the static blank period.

블랭크 시간 시나리오는 모두 롤링 셔터와 글로벌 셔터에서 사용될 수 있다. 글로벌 셔터를 사용하는 경우, 전체 이미지가 센서에서 다 전송되지 않아도, 렌즈 동작이 셔터 렌즈가 닫힌 직후 시작한다는 것을 유념해야 한다. 또한 두 셔터 모두 에서 블랭크 해법은 이미징 센서 내의 시스템 클락을 변화시키지 않고서도 구현될 수 있음을 유념해야 한다. 이는 PLL(Phase Locking Loop_가 세팅되어 있을 때 나쁜 화질의 이미지를 전송하거나 이미지 프레임을 스킵할 필요가 없는 상황과 같은 경우 큰 이점이 된다. Blank time scenarios can be used with both rolling shutters and global shutters. When using a global shutter, it should be noted that the lens operation starts immediately after the shutter lens is closed, even if the entire image is not transmitted from the sensor. It should also be noted that the blank solution in both shutters can be implemented without changing the system clock in the imaging sensor. This is a great advantage when the PLL (Phase Locking Loop_) is set, such as when there is no need to send poor quality images or skip image frames.

3.1 정적(3.1 static staticstatic ) 블랭크 구간 Blank section

본 실시예(도 10)에 따른 일 구현에서, 원하는 이미지 주파수는 렌즈가 움직이는 방식에 따라 블랭크 시간의 정의되는 제약 내에서 렌즈가 동작할 수 있는 방식에서 노출 시간을 최대로 제한 한 이후 버스에서 사용되고 있는 레이트에 기초하여 최대 블랭크 시간을 이용함으로써 획득된다. 노출 시간은 짧아진 노출 시간이 아날로그나 디지털 이득값으로 대체되는 방식으로 제한될 수 있다. In one implementation according to this embodiment (Fig. 10), the desired image frequency is used on the bus after the maximum limit of exposure time in a manner in which the lens can operate within a defined constraint of the blank time depending on how the lens is moved. Obtained by using the maximum blank time based on the rate at which it is present. Exposure time can be limited in such a way that shorter exposure times are replaced by analog or digital gain values.

참고번호 96a, 96b 는 완전히 가시화된 이미지 프레임의 노출 시간을 나타내고, 참고번호 97a, 97b 는 AF-통계 블락의 비-노출 시간을 나타낸다. 도 10에서, 프레임 블랭크 92a, 92b. 92c, 라인 블랭크 91a, 91b, 삽입된/부수 데이터 94a, 94b, 94c, 94d 가 도시되었다. 라인 판독은 98 사인에 의해 표시된다. 그리고, 노출시간은 95에 의해 가시 데이터는 99에 의해 표시된다. Reference numerals 96a and 96b denote exposure times of the fully visualized image frames, and reference numerals 97a and 97b denote non-exposure times of the AF-statistic blocks. 10, frame blanks 92a, 92b. 92c, line blanks 91a, 91b, inserted / incident data 94a, 94b, 94c, 94d are shown. The line read is indicated by 98 sine. The exposure time is represented by 95 and the visible data is represented by 99.

이러한 시스템에서, 전체 라인의 양을 상수로 설정함으로써 이미지 주파수가 상수를 유지하도록 한다. 하지만, 이득을 증가시켜 동적 영역을 감소시키는 방식 외에 다른 방식으로 이미지를 훼손시키지 않으면서도, 버스 레이트의 제한범위와 판독 레이트의 제한 범위 내에서, 여전히 노출제한을 위한 시간과, 렌즈 동작에 필 요한 제한 시간이 넉넉하다. In such a system, the image frequency remains constant by setting the amount of the entire line to a constant. However, within the limits of the bus rate and the read rate, the time for exposure limitation and lens operation are still required, without compromising the image in any way other than increasing the gain to reduce the dynamic range. There is plenty of time limit.

정적 블랭크 구간이 사용될 때, 노출 및 렌즈 동작시간이 제한되므로, 이미지는 이미지 내에 어떠한 아티팩트도 발생시키지 않고 캡쳐 될 수 있다. 이는 요구되는 프레임 레이트 내에서 인터페이스에 의해 동작할 수 있도록 블랭크 시간은 가능한 길어야 함을 의미한다. 또한, 긴 노출이나, 긴 렌즈 동작시간이 요구되는 경우, 다른 또는 두 개의 셔터는 제한되어야만 한다. 이는 노출 시간은 예를 들어, 아날로그 이득(gain) 값을 이용하여 보상되어야만 하고, 줌 속도는 감소되는 것을 의미한다. When static blank intervals are used, the exposure and lens operating time are limited, so that the image can be captured without generating any artifacts in the image. This means that the blank time should be as long as possible to be able to operate by the interface within the required frame rate. Also, if long exposures or long lens operating times are required, the other or two shutters must be limited. This means that the exposure time must be compensated for example using an analog gain value and the zoom speed is reduced.

3.2 동적 블랭크 구간3.2 Dynamic Blank Segment

본 발명의 또 다른 실시예에서 롤링 셔터는 프레임 블랭크 시간 102a, 102b, 102c이 각 이미지에서 사용된다. 이는 렌즈 동작과 다음 이미지의 첫 라인 노출에 필요하다. 따라서, 프레임 블랭크 시간 102a, 102b, 102c 은 이미지에 따라 변경되고 완전한 이미지를 위해 충분한 비-노출 시간을 획득하기 위해서는 대응되는 노출 시간 105a, 105b보다 더 커야한다. In another embodiment of the present invention, the rolling shutter uses frame blank times 102a, 102b, 102c in each image. This is necessary for lens operation and the first line exposure of the next image. Thus, the frame blank times 102a, 102b, 102c must be greater than the corresponding exposure times 105a, 105b in order to change according to the image and obtain sufficient non-exposure time for the complete image.

렌즈 움직임은 이전 프레임(Frame N-1)의 마지막 가시(visible) 라인이 노출된 직후 시작될 수 있다. 렌즈 움직임 제어는 따라서, 렌즈가 동작하기로 되어 있는 방향으로(줌 제어 또는 오토-포커싱 제어) 렌즈가 마지막 가시 픽셀(라인)의 노출에서 동작을 시작하기까지 지연시간이 필요하다. 또한, 렌즈 동작이 발생한 직후, 제 1 픽셀(라인)의 노출이 해당 라인 상의 픽셀을 리세팅 함으로써 시작될 수 있다. 어떤 동작(-줌 또는 오토포커싱 제어-)이 실행중인지, 렌즈 동작량과 방향이 무엇인지를 알고 있는 한, 다음 이미지(N+1 프레임) 처리를 위해 요구되는 렌즈 동작과 시간(106a, 107a, 106b, 107b)은 현재 이미지(N 프레임)가 노출되기 이전에 미리 알 수 있다. 뷰파인더 영상의 경우, 포커싱은 중요하다. Lens movement may begin immediately after the last visible line of the previous frame N-1 is exposed. Lens motion control thus requires a delay time for the lens to begin operation at the exposure of the last visible pixel (line) in the direction in which the lens is supposed to operate (zoom control or auto-focusing control). In addition, immediately after the lens operation occurs, exposure of the first pixel (line) can be started by resetting the pixel on the line. As long as you know which operation (zoom or autofocusing control) is being performed and what the lens operation amount and direction are, the lens operation and time required for processing the next image (N + 1 frame) 106a, 107a, 106b and 107b may be known in advance before the current image (N frame) is exposed. In the case of a viewfinder picture, focusing is important.

따라서, 이 경우 렌즈 동작 시간(107a, 107b)은 스틸 또는 비디오 영상의 경우 렌즈 동작 시간(106a, 106b)와 다르다. 줌 제어는 사용자가 하고, 렌즈를 계속 앞뒤로 자주 움직이지 않기 위해서 지속적인 오토-포커싱 제어를 수행함에 있어 상당한 이력현상(hysteresis)이 있을 수밖에 없다. 또한, 다음 이미지(N+1 프레임)의 노출(105b)을 이미 알고 있으므로 현재 이미지(N 프레임) 프레임 블랭크 영역(102b) 내에서 요구되는 블랭크 라인의 양은 쉽게 계산된다. Thus, in this case, the lens operating times 107a and 107b differ from the lens operating times 106a and 106b in the case of still or video images. Zoom control is done by the user, and there is inevitably significant hysteresis in performing continuous auto-focusing control so that the lens does not move back and forth frequently frequently. In addition, since the exposure 105b of the next image (N + 1 frame) is already known, the amount of blank line required within the current image (N frame) frame blank area 102b is easily calculated.

본 실시예에서, 센서의 판독 레이트는 변화지 않으므로, 센서의 시스템 클락과의 충돌은 없으나, 가시 및 블랭크 라인들의 양은 전송되고 이미지 내에 있도록 해야 한다. 라인 블랭크 영역(101a, 101b)내의 블랭크 픽셀은 가시 이미지 109a, 109b와 같이 디스플레이되고 있는 이미지에 포함되지 않은 픽셀들이다. 또한 수직 블랭크, 보조/삽입된 데이터, 가짜 픽셀, 다크 픽셀, 블랙 픽셀, 제조업자의 특정 데이터와 같은 다른 비가시 이미지 영역이 있을 수 있다. 가시 라인의 양을 변화시키는 것은 이미지가 디지털로 줌 되는 때에 주로 행해지는 이미지 크라핑(cropping)에 대응된다. In this embodiment, the read rate of the sensor does not change, so there is no collision with the sensor's system clock, but the amount of visible and blank lines must be transmitted and in the image. Blank pixels in line blank areas 101a and 101b are pixels that are not included in the image being displayed, such as visible images 109a and 109b. There may also be other invisible image areas such as vertical blanks, auxiliary / inserted data, fake pixels, dark pixels, black pixels, manufacturer specific data. Changing the amount of visible lines corresponds to image cropping, which is usually done when the image is digitally zoomed.

도 11에서는 블랭크 라인을 삽입하여 프레임 블랭크를 변화시키는 것이 도시되고 있으며, 여기서 SMIA(Standard Mobile Imaging Architecture) 스펙의 센서를 이용하고 있다. 또한, 라인(101a, 101b)의 끝에 픽셀을 삽입하여 라인 블랭크를 변화시키는 것도 가능하다. In FIG. 11, a blank line is inserted to change a frame blank, and a sensor of a standard mobile imaging architecture (SMIA) specification is used. It is also possible to change the line blank by inserting pixels at the ends of the lines 101a and 101b.

SMIA 센서는 원래 시스템 클락을 변화시키지 않고 일정한 이미지 주파수를 제어하는 기능을 수행한다. 이러한 센서들은 또한 판독 레이트에 대한 필요나 이미지 제한에 대한 이미지의 지속적인 노출없이 긴 노출 시간을 구현하도록 제작되었다. 또한, 렌즈 동작은 이미지의 어느 면에서도 보이지 않는다. 따라서, 이러한 시스템은 이미지를 훼손시키지 않고 원하는 때에 렌즈를 움직일 수 있는 방식으로 이미지를 노출하여 원하는 노출 시간을 획득하면서 가능한 큰 이미지 주파수를 제공한다. SMIA sensors function to control a constant image frequency without changing the original system clock. These sensors are also designed to achieve long exposure times without the need for read rates or continuous exposure of the image to image limits. Also, lens motion is not visible on either side of the image. Thus, such a system exposes the image in such a way that the lens can be moved when desired without compromising the image to provide the largest possible image frequency while obtaining the desired exposure time.

또한 주의할 것은 블랭크 영역은 보다 적합한 뷰파인더 프레임 업데이트를 획득하기 위해 절대적으로 필요한 것보다 심지어 약간 더 동적으로 증가될 수 있다. 예를 들면, 블랭크 라인이 부가되어, 현재 프레임 시작에서 다음 프레임 시작까지가 그런식으로 증가되어 예를 들어, 1, 2,...,n/60s 이 된다. Note also that the blank area can be increased even slightly more dynamically than absolutely necessary to obtain a more suitable viewfinder frame update. For example, a blank line is added so that from the start of the current frame to the start of the next frame it is increased such that, for example, 1, 2, ..., n / 60s.

3.3. 총괄(3.3. General ( GeneralGeneral ))

도 10 및 11 은 정적 및 동작 블랭크 구간 방식을 각각 도시한다. 도 10 및 11에서, 렌즈 동작 시간, 노출 시간 및 포커싱 데이터 영역이 도시되었다. 10 and 11 illustrate the static and operational blank interval schemes, respectively. 10 and 11, the lens operating time, exposure time and focusing data area are shown.

도 10 및 11에서 가장 큰 차이점은 도 10에서는 블랭크 시간이 동일하고, 렌즈 동작(96a, 97a, 96b, 97b)가 요구되는 노출시간(95a, 95b)(또는 반대로)에 기초하여 변경된다. 도 11에서는 렌즈 동작(106a, 107a, 106b, 107b) 시간과 노출 시 간(105a, 105b)이 알려져 있고 블랭크 구간은 이에 기초하여 변경된다. The biggest difference in FIGS. 10 and 11 is that the blank time is the same in FIG. 10, and the lens operation 96a, 97a, 96b, 97b is changed based on the exposure time 95a, 95b (or vice versa) required. In FIG. 11, the lens operation 106a, 107a, 106b, 107b time and exposure time 105a, 105b are known and the blank section is changed based on this.

이전 3.1 및 3.2 과정은 다음 방식으로 글로벌 셔터에도 적용된다. The previous 3.1 and 3.2 processes also apply to global shutters in the following manner.

렌즈 동작이 시작될 수 있으면, 그 후 이미지의 노출은 글로벌 셔터에 의해 닫힌다.렌즈 동작은 센서로부터 해당 이미지 판독이 지속되는 시간이 얼마나 긴지와 관계없이 시작된다. 마찬가지로, 픽셀의 글로벌 리셋(또는 글로벌 셔터의 개방)과 그에 따른 새로운 이미지의 노출은 렌즈가 정확한 위치로 이동하고 이전의 가시 이미지가 센서에서 판독된 직후에 시작될 것이고, 글로벌 셔터는 이상의 판독 후에 개방된다. If the lens operation can be started, then the exposure of the image is closed by the global shutter. The lens operation is started regardless of how long the corresponding image reading from the sensor lasts. Similarly, global reset of the pixel (or opening of the global shutter) and thus exposure of the new image will begin immediately after the lens has moved to the correct position and the previous visible image has been read by the sensor, and the global shutter is opened after the abnormal reading. .

유념할 것은 이 경우, 비-노출 시간은 셔터가 닫힌 이후 센서가 판독되는 동안의 시간과 다음 이미지에서 사용된 첫 라인이 리세팅 되기(일반적으로, 글로벌 리셋) 전의 블랭크 시간이다. 비-노출 시간동안, 센서는 최종이미지 내의 가시 픽셀이나 측정에 사용되는 픽셀에 빛을 수신하지(또는 버리지) 못한다.Note that in this case, the non-exposure time is the time during which the sensor is read after the shutter is closed and the blank time before the first line used in the next image is reset (generally a global reset). During the non-exposure time, the sensor does not receive (or discard) light in the visible pixels in the final image or in the pixels used for measurement.

최대 이미지 주파수(3.2)를 타겟으로 한 과정이 사용되지 않는 경우, 더 많은 시간이 렌즈 동작에 사용되고 노출에는 더 짧은 시간이 사용되는 것을 유념해야 한다. 이로 인해, 광학 줌/오토-포커싱 렌즈는 일반적인 것보다 동일한 경로에서 더 빨라지거나 또는 더 작은 임시 수용량을 지니고 동작한다. It should be noted that if a process targeting the maximum image frequency (3.2) is not used, more time is used for lens operation and shorter time is used for exposure. Because of this, optical zoom / auto-focusing lenses operate faster or with smaller temporary capacity in the same path than normal.

일부 경우에는, 뷰파인더 영상이 일시적으로 훼손되는 것을 방지하려고 하지 않는다. 왜냐하면, 그러한 이미지를 추가적으로 사용하기 위해 저장하지 않기 때문이다. 따라서, 가능한 빠른 자동-포커싱 기능이 긴 노출 시간과 함께 (3.1, 3.2) 두 과정에서 모두 구현될 수 있다. 이러한 구현은 포커싱 제어에 속하지 않는 픽셀 /픽셀 라인의 노출 구간 동안 렌즈 움직임으로 얻어진다. 이 움직임은 뷰파인더 영상에서는 보이나 최종으로 저장된 스틸 영상에서는 보이지 않는다. 또한 비디오 영상의 경우, 첫번째 오토-포커싱 제어를 가능한 빨리 구현하는 것이 좋다. 그에 따라 통계로 사용되는 영역이 손상되지 않는 한 이미지는 훼손될 수 있다. In some cases, no attempt is made to prevent the viewfinder image from being temporarily damaged. Because we do not store such images for further use. Thus, the fastest auto-focusing function possible can be implemented in both processes with long exposure times (3.1, 3.2). This implementation is obtained with lens movement during the exposure period of the pixel / pixel line that does not belong to the focusing control. This movement is visible in the viewfinder image but not in the last saved still image. In addition, for video images, it is best to implement the first auto-focusing control as soon as possible. As a result, the image can be corrupted unless the area used for statistics is damaged.

유념할 것은 컨트롤 렌즈의 제한 값에 따라 판독 레이트 상에서 노출시간은 언제나 제어할 수 있기 때문에 제어 렌즈는 거의 필요하지 않다. 따라서, 최대 이미지 주파수(3.2)를 타겟으로 하는 구현에서, 블랭크 시간은 0(또는 센서 제한값)으로 자주 세팅될 수 있다. 또한, 최대 이미지 주파수를 타겟으로 한 구현은 낮/밤 모드 자동 제어에서(렌즈 동작에 관계없이) 잘 동작한다. 이 경우 블랭크는 빛 조건에 따라 증가되지만, 뷰파인더 영상은 필요 이상으로 느려지지는 않는다. Note that the control lens is rarely needed because the exposure time can always be controlled at the read rate depending on the limit value of the control lens. Thus, in implementations that target the maximum image frequency 3.2, the blank time can often be set to zero (or sensor limit). In addition, implementations targeting the maximum image frequency work well in day / night mode automatic control (regardless of lens operation). In this case, the blank increases with light conditions, but the viewfinder image is not slowed down more than necessary.

해당, 빛 및 제어 상황에서 최대 이미지 주파수를 지닌 원하는 결과나 훼손되지 않은 이미지가 구현된다. 또한, 최대 이미지 주파수가 목표가 아닌 경우 고정된 이미지 주파수를 지닌 렌즈 동작이 가능하고, 렌즈가 이동하는 방식에 따라 최대 노출 아이템을 보장할 수 있다. 이와 비슷하게, 노출 시간이 짧은 경우, 줌을 빠르게 하거나 또는 렌즈 움직임이 느려질 때 일시적인 피크 효과를 감소시키는 것도 가능하다. In this case, the desired result or undamaged image with the maximum image frequency under light and control situations is achieved. In addition, when the maximum image frequency is not the target lens operation with a fixed image frequency is possible, and the maximum exposure item may be guaranteed according to the way the lens moves. Similarly, if the exposure time is short, it is also possible to speed up zooming or reduce the transient peak effect when the lens movement slows down.

구현avatar

이상의 실시예들은 이동 장치, 디지털 카메라, 웹 카메라나 이와 비슷한 전자 장치의 일부인 영상 시스템의 제어 CPU상에서 구현될 수 있다. 보다 빠르고 보 다 정확한 타이밍을 위해 전용 하드웨어가 이미징 센서나 수신단에 요구될 수도 있다. The above embodiments may be implemented on a control CPU of an imaging system that is part of a mobile device, digital camera, web camera or similar electronic device. Dedicated hardware may be required at the imaging sensor or receiver for faster and more accurate timing.

도 12는 전기 장치의 구현 예를 도시한다. 도 12의 장치(1200)는 전송부(1221) 및 수신부(1222)를 구비하거나 또는 이에 연결된 통신 수단(1220)을 포함한다. 또한, 전송부(1281) 및 수신부(1282)를 역시 구비한 다른 통신 수단(1280)을 포함할 수 있다. 제 1 통신 수단(1220)은 원격통신을 위한 것이고, 다른 통신 수단(1280)은 블루투스 시스템, WLAN(Wireless Local Area Network) 또는 다른 장치와 로컬로 사용하기 위한 다른 시스템과 같이 단거리 통신 수단 종류로 사용될 수 있다. 12 illustrates an example implementation of an electrical device. The apparatus 1200 of FIG. 12 comprises communication means 1220 with or connected to a transmitter 1221 and a receiver 1222. It may also include other communication means 1280 also having a transmitter 1281 and a receiver 1282. The first communication means 1220 is for telecommunications, and the other communication means 1280 may be used for short-range communication means, such as a Bluetooth system, a Wireless Local Area Network (WLAN), or another system for use locally with other devices. Can be.

도 12의 실시예에 따른 장치(1200)는 또한 시각 정보 및 이미징 데이터를 디스플레이하는 디스플레이부(1240)를 포함한다. 또한, 상기 장치(1200)는 데이터 입력을 위해 키패드(1250)와 같은 인터랙션 수단을 포함한다. 디스플레이가 터치-스크린 디스플레이인 경우, 키패드(1250) 대신 또는 이에 더하여, 첨펜을 포함할 수도 있다. The apparatus 1200 according to the embodiment of FIG. 12 also includes a display 1240 for displaying visual information and imaging data. The device 1200 also includes interaction means such as a keypad 1250 for data entry. If the display is a touch-screen display, it may include a stylus instead of or in addition to the keypad 1250.

장치(1200)는 이어폰(1261) 및 마이크로폰(1262)와 같은 오디오 수단(1260)을 포함하고 선택적으로 오디오 정보를 코딩(필요한 경우에는 디코딩)하는 코덱을 포함한다. 장치(1200)는 영상 시스템(1210)을 포함하거나 이와 연결되어 있다. Device 1200 includes audio means 1260, such as earphone 1261 and microphone 1262, and optionally includes a codec for coding (decoding, if necessary) audio information. Device 1200 includes or is coupled to imaging system 1210.

제어부(1230)는 기능을 제어하거나 장치(1200) 내에서 애플리케이션을 실행하기 위해 장치(1200)에 통합될 수 있다. 제어부(1230)는 하나 이상의 프로세서(CPU, DSP)를 포함할 수 있다. 또한, 장치는 예를 들어, 데이터, 애플리케이션 및 컴퓨터 프로그램 코드를 저장하기 위해 메모리(1270)를 포함한다. 당업자는 영상 시스템은 시스템의 성능을 향상시키기 위해 여러 기능이 더 통합될 수 있음을 이해할 것이다.The controller 1230 may be integrated into the device 1200 to control functionality or to execute an application within the device 1200. The controller 1230 may include one or more processors (CPU, DSP). The apparatus also includes a memory 1270 for storing data, applications, and computer program code, for example. Those skilled in the art will appreciate that an imaging system may be further integrated with various functions to improve the performance of the system.

이상 도면과 명세서에서 최적 실시예들이 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. The best embodiments have been disclosed in the drawings and specification above. Although specific terms have been used herein, they are used only for the purpose of describing the present invention and are not used to limit the scope of the present invention as defined in the meaning or claims.

그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible from this. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

Claims (38)

적어도 두 개의 이미지를 포함하는 이미지 시퀀스를 획득하는 단계로서, 적어도 하나의 이미지는 측정이미지로 사용되고, 다른 적어도 하나의 이미지는 최종이미지로 사용되는, 획득 단계; Obtaining an image sequence comprising at least two images, wherein at least one image is used as the measurement image and the other at least one image is used as the final image; 측정이미지 노출 시간 및 최종이미지 노출 시간을 결정하는 단계; Determining a measurement image exposure time and a final image exposure time; 상기 측정이미지 노출 시간 및 상기 최종이미지 노출 시간 간의 비-노출 시간을 결정하는 단계; 및 Determining a non-exposure time between the measured image exposure time and the final image exposure time; And 상기 비-노출 시간동안 이미징 옵틱 조정을 허용하는 단계; 를 포함하는 것을 특징으로 하는 이미징 방법. Allowing imaging optics adjustments during the non-exposure time; Imaging method comprising a. 제 1 항에 있어서, The method of claim 1, 상기 이미지 시퀀스 내에서 더 작은 이미지가 상기 측정이미지로 사용되고, 더 큰 이미지는 상기 최종이미지로 사용되는 것을 특징으로 하는 이미징 방법. And a smaller image is used as the measurement image and a larger image is used as the final image in the image sequence. 제 1 항에 있어서, The method of claim 1, 상기 측정이미지는 비디오 영상이나 뷰파인더 영상의 경우 상기 최종이미지로 사용되는 것을 특징으로 하는 이미징 방법. And the measured image is used as the final image in the case of a video image or a viewfinder image. 제 1 항에 있어서, The method of claim 1, 상기 최종이미지는 저장되는 것을 특징으로 하는 이미징 방법. And the final image is stored. 제 1 항에 있어서, 상기 노출 시간은 The method of claim 1, wherein the exposure time 상기 측정이미지의 크기 제어, 상기 측정이미지의 서브-샘플링, 상기 이미지 시퀀스 판독을 위해 사용되는 채널 레이트 변경, 상기 측정이미지 노출 시간 또는 상기 최종이미지 노출 시간 또는 두 경우 모두 제어,Controlling the size of the measured image, sub-sampling the measured image, changing the channel rate used for reading the image sequence, controlling the measured image exposure time or the final image exposure time or both, 이상의 방법 또는 이상의 방법의 조합에 의해 연장되는 것을 특징으로 하는 이미징 방법. Imaging method characterized in that it is extended by the above method or a combination of the above methods. 제 1 항에 있어서, The method of claim 1, 상기 측정이미지는 측정 이미지 프레임, 이미지 프레임 내의 측정영역 중 하나인 것을 특징으로 하는 이미징 방법. And the measurement image is one of a measurement image frame and a measurement region in the image frame. 제 1 항에 있어서, The method of claim 1, 오토 포커싱 통계는 상기 측정이미지로부터 계산되는 것을 특징으로 하는 이미징 방법. Auto focusing statistics are calculated from the measured image. 제 7 항에 있어서, The method of claim 7, wherein 상기 비-노출 시간은 상기 오토-포커스 통계와 이미지 센서내의 픽셀량을 포함하는 정보, 줌 하드웨어에서 전송 클럭 주파수 지연가능시간에 의해 결정되는 것 을 특징으로 하는 이미징 방법. And the non-exposure time is determined by information including the auto-focus statistics and the amount of pixels in the image sensor and the transmission clock frequency delayable time in zoom hardware. 제 1 항에 있어서, The method of claim 1, 적어도 하나의 측정영역은 적어도 상기 측정이미지내에서 정의되고, 이 경우 오토-포커스는 적어도 하나의 렌즈 위치에서 상기 적어도 하나의 측정영역 내에서 측정되는 것을 특징으로 하는 이미징 방법. At least one measurement area is defined at least in the measurement image, in which case the auto-focus is measured in the at least one measurement area at at least one lens position. 제 9 항에 있어서, The method of claim 9, 포커스 측정값은 상기 적어도 하나의 측정영역의 하부 영역으로부터 고주파 컨텐트 또는 밴드-패스 주파수 컨텐트를 수집함으로써 획득되는 것을 특징으로 하는 이미징 방법. And a focus measurement is obtained by collecting high frequency content or band-pass frequency content from a lower area of said at least one measurement area. 제 10 항에 있어서, 상기 옵틱은 The method of claim 10, wherein the optics 제 1 측정영역의 마지막 라인 판독지점과 동일한 이미지 내의 제 2 측정영역의 첫 라인 노출시작 지점 사이, 제 1 이미지 내의 제 1 측정영역 노출 지점과 제 2 이미지 내의 상기 제 2 측정영역 노출 지점 사이, 또는 이미징 동안 지속적으로 조정되는 것을 특징으로 하는 이미징 방법. Between the first line exposure start point of the second measurement area in the same image as the last line reading point of the first measurement area, between the first measurement area exposure point in the first image and the second measurement area exposure point in the second image, or Imaging method characterized in that it is continuously adjusted during imaging. 제 1 항에 있어서, The method of claim 1, 블랭크 시간은 상기 비-노출 시간이 결정될 때 이용되는 것을 특징으로 하는 이미징 방법. Blank time is used when the non-exposure time is determined. 제 12 항에 있어서, The method of claim 12, 최대 블랭크 시간은 이미징 옵틱 조정을 위해 상기 비-노출 시간을 규정하기 위해 사용되는 것을 특징으로 하는 이미징 방법. Maximum blank time is used to define the non-exposure time for imaging optic adjustment. 제 12 항에 있어서, The method of claim 12, 상기 블랭크 시간은 상기 비-노출 시간을 규정하기 위해 노출 시간에 따라 제어되는 것을 특징으로 하는 이미징 방법. And the blank time is controlled in accordance with the exposure time to define the non-exposure time. 제 1 항에 있어서, The method of claim 1, 상기 이미지 시퀀스는 스틸 영상, 비디오 영상 또는 뷰파인더 영상 또는 이러한 영상의 조합으로 형성되는 것을 특징으로 하는 이미징 방법. And the image sequence is formed of a still image, a video image or a viewfinder image or a combination of such images. 적어도 하나의 측정이미지와 적어도 하나의 최종이미지를 포함하는 이미지 시퀀스를 획득하는 단계; Obtaining an image sequence comprising at least one measured image and at least one final image; 오토-포커스 통계를 상기 측정이미지로부터 계산하는 단계; Calculating auto-focus statistics from the measured image; 상기 오토-포커스 통계를 이용하여 비-노출 시간을 결정하는 단계로서, 비-노출 시간은 상기 최종 시간을 위해 사용되는 결정단계;를 포함하는 이미징 옵틱 조절에 사용되는 비-노출 시간을 결정하는 방법.Determining the non-exposure time using the auto-focus statistic, wherein the non-exposure time is a determination step used for the final time. . 적어도 하나의 측정이미지와 적어도 하나의 최종이미지를 포함하는 이미지 시퀀스를 획득하는 단계; Obtaining an image sequence comprising at least one measured image and at least one final image; 적어도 상기 측정이미지 내에서 적어도 하나의 측정영역을 규정하는 단계;Defining at least one measurement area in at least the measurement image; 상기 측정영역 내에서 적어도 하나의 렌즈 위치로부터 오토-포커스를 측정하는 단계; Measuring auto-focus from at least one lens position within the measurement area; 상기 측정영역의 마지막 라인의 판독지점 및 다음 측정영역의 첫 라인의 노출 시작지점 간을 상기 비-노출시간으로 규정하는 단계; 를 포함하는 것을 특징으로 하는 이미징 옵틱 조절에 사용되는 비-노출 시간을 결정하는 방법. Defining the non-exposure time between a reading point of the last line of the measurement area and an exposure start point of the first line of the next measurement area; And determining a non-exposure time used for imaging optic adjustment. 제 17 항에 있어서, 상기 옵틱은 18. The method of claim 17, wherein the optics are 상기 측정영역의 마지막 라인 판독지점과 연속한 이미지 내의 상기 측정영역의 첫 라인 노출시작 지점 사이, 하나의 이미지 내의 하나의 측정영역 노출 지점과 동일한 상기 이미지 내의 다음 측정영역 노출 지점 사이의 시간 동안, 또는 이미징 동안 지속적으로 조정되는 것을 특징으로 하는 이미징 옵틱 조절에 사용되는 비-노출 시간을 결정하는 방법. Between the last line reading point of the measurement area and the first line exposure start point of the measurement area in a continuous image, between one measurement area exposure point in one image and the next measurement area exposure point in the image, or A method of determining the non-exposure time used for imaging optic adjustment, characterized in that it is continuously adjusted during imaging. 적어도 하나의 측정이미지와 적어도 하나의 최종이미지를 포함하는 이미지 시퀀스를 획득하는 단계; Obtaining an image sequence comprising at least one measured image and at least one final image; 상기 이미지 시퀀스 내에서 발생하는 적어도 하나의 블랭크 시간을 규정하는 단계; Defining at least one blank time occurring within the image sequence; 상기 블랭크 시간 내의 이미지 옵틱 조절을 제어하거나 또는 상기 블랭크 시간을 제어하여 상기 비-노출 시간을 규정하는 단계;를 포함하는 것을 특징으로 하는 이미징 옵틱 조절에 사용되는 비-노출 시간을 결정하는 방법. Controlling the image optics adjustment in the blank time or controlling the blank time to define the non-exposure time. 적응형 이미징 옵틱, 이미지 시퀀스로서 프로세서에 제공되는 빛을 모으는 적어도 이미지 센서를 포함하는 이미징 장치로서, An imaging device comprising at least an image sensor that collects light provided to a processor as an adaptive imaging optic, an image sequence, comprising: 상기 이미지 시퀀스는 적어도 두 개의 이미지와 이미지의 노출을 제어하는 노출 제어부를 포함하고, 상기 적어도 두 개의 이미지 중 적어도 하나는 측정이미지이고, 다른 하나는 최종이미지이며, 이 경우, 상기 이미징 장치는 The image sequence includes at least two images and an exposure control for controlling exposure of the images, at least one of the at least two images being a measurement image and the other being a final image, in which case the imaging device 측정이미지 노출 시간 및 최종이미지 노출 시간을 결정하는 단계; Determining a measurement image exposure time and a final image exposure time; 상기 측정이미지 노출 시간 및 상기 최종이미지 노출 시간 간의 비-노출 시간을 결정하는 단계; 및 Determining a non-exposure time between the measured image exposure time and the final image exposure time; And 상기 비-노출 시간동안 상기 이미징 옵틱의 조정을 허용하는 단계;를 구현할 수 있는 것을 특징으로 하는 이미징 장치. Allowing adjustment of the imaging optics during the non-exposure time. 제 20 항에 있어서, The method of claim 20, 상기 이미지 시퀀스에서 더 작은 이미지를 상기 측정이미지로 이용하고, 더 큰 이미지를 상기 최종이미지로 이용하는 단계를 더 구현할 수 있는 것을 특징으로 하는 이미징 장치. And using a smaller image as the measurement image and using a larger image as the final image in the image sequence. 제 20 항에 있어서, 상기 측정 이미지는 The method of claim 20, wherein the measurement image is 비디오 영상 또는 뷰파인더 영상에서 상기 최종이미지인 것을 특징으로 하는 이미징 장치. And the final image in a video image or a viewfinder image. 제 20 항에 있어서, The method of claim 20, 상기 최종이미지를 저장하는 단계를 더 구현할 수 있는 것을 특징으로 하는 이미징 장치. And storing the final image. 제 20 항에 있어서, The method of claim 20, 상기 측정이미지에서 오토-포커스 통계를 계산하는 단계를 더 구현할 수 있는 것을 특징으로 하는 이미징 장치. And calculating auto-focus statistics on the measured image. 제24 항에 있어서, The method of claim 24, 상기 오토-포커스 통계, 이미지 센서 내의 픽셀량을 포함하는 정보, 줌 하드웨어에서 전송 클락 주파수 지연가능시간에 의해 상기 비-노출 시간을 결정할 수 있는 단계를 더 구현할 수 있는 것을 특징으로 하는 이미징 장치. And determining the non-exposure time by the auto-focus statistic, information including the amount of pixels in the image sensor, and transmit clock frequency delayable time in zoom hardware. 제 20 항에 있어서,The method of claim 20, 적어도 상기 측정 이미지에서 적어도 하나의 측정영역을 규정하는 단계; 및Defining at least one measurement area in at least the measurement image; And 적어도 하나의 렌즈 위치에서 상기 적어도 하나의 측정영역 내의 오토-포커스를 측정하는 단계를 더 구현할 수 있는 것을 특징으로 하는 이미징 장치. And measuring auto-focus in the at least one measurement area at at least one lens position. 제 20 항에 있어서, The method of claim 20, 상기 비-노출 시간을 규정하기 위해 최대 블랭크 시간으 이용하는 단계를 더 구현할 수 있는 것을 특징으로 하는 이미징 장치. And using the maximum blank time to define the non-exposure time. 제 20 항에 있어서, The method of claim 20, 상기 비-노출 시간을 규정하기 위해 노출 시간에 따라 블랭크 시간을 제어하는 단계를 더 구현할 수 있는 것을 특징으로 하는 이미징 장치. And controlling the blank time in accordance with the exposure time to define the non-exposure time. 제 20 항에 있어서, The method of claim 20, 상기 이미지 시퀀스는 스틸 영상, 비디오 영상 또는 뷰파인더 영상 또는 이상의 조합으로 형성되는 것을 특징으로 하는 이미징 장치.And the image sequence is formed of a still image, a video image, a viewfinder image, or a combination of the above. 제 20 항에 있어서, The method of claim 20, 셔터수단은 롤링 셔터이거나 또는 글로벌 셔터인 것을 특징으로 하는 이미징 장치.And the shutter means is a rolling shutter or a global shutter. 제 1 항 내지 15 항 중 어느 한 항에 따른 방법을 구현할 수 있는 비-노출 시간을 결정하는 것을 특징으로 하는 이미징모듈.16. An imaging module, comprising determining a non-exposure time at which a method according to any one of claims 1 to 15 can be implemented. 적어도 하나의 측정 이미지 및 적어도 하나의 최종이미지를 포함하는 이미지시퀀스를 획득하는 단계; Obtaining an image sequence comprising at least one measurement image and at least one final image; 상기 측정이미지에서 오토-포커스 통계를 계산하는 단계; Calculating auto-focus statistics from the measured image; 상기 오토-포커스 통계를 이용하여 비-노출 시간을 결정하는 단계로서, 비-노출 시간은 상기 최종이미지에 사용되는, 결정단계를 구현할 수 있는 것을 특징으로 하는 비-노출 시간을 결정하는 이미징 모듈.Determining non-exposure time using the auto-focus statistic, wherein the non-exposure time may be used in the final image to determine a non-exposure time. 적어도 하나의 측정 이미지 및 적어도 하나의 최종이미지를 포함하는 이미지시퀀스를 획득하는 단계; Obtaining an image sequence comprising at least one measurement image and at least one final image; 적어도 상기 측정 이미지에서 적어도 하나의 측정영역을 규정하는 단계; Defining at least one measurement area in at least the measurement image; 적어도 하나의 렌즈 위치에서 상기 적어도 하나의 측정영역 내의 오토-포커스를 측정하는 단계; 및Measuring auto-focus in the at least one measurement area at at least one lens position; And 상기 측정영역의 마지막 라인의 판독지점과 다음 측정영역의 첫 라인의 노출 시작지점간에서 상기 비-노출 시간을 규정하는 단계;를 구현할 수 있는 것을 특징으로 하는 비-노출 시간을 결정하는 이미징모듈.And defining the non-exposure time between the reading point of the last line of the measurement area and the exposure start point of the first line of the next measurement area. 적어도 하나의 측정 이미지 및 적어도 하나의 최종이미지를 포함하는 이미지시퀀스를 획득하는 단계; Obtaining an image sequence comprising at least one measurement image and at least one final image; 상기 이미지 시퀀스에서 발생하는 적어도 하나의 블랭크 시간을 규정하는 단계; Defining at least one blank time occurring in the image sequence; 상기 블랭크 시간 내의 이미지 옵틱 조절을 제어하거나 또는 상기 블랭크 시간을 제어하여 상기 비-노출 시간을 규정하는 단계;를 구현할 수 있는 것을 특징으로 하는 비-노출 시간을 결정하는 이미징모듈.And controlling the image optics adjustment within the blank time or controlling the blank time to define the non-exposure time. 제 1 항 내지 제 15 항 중 어느 한 항에 따른 방법을 컴퓨터상에서 구현하기 위해 판독형 매체에 저장된 코드를 포함하는 이미징을 위한 컴퓨터 판독매체.16. A computer readable medium for imaging comprising code stored on a readable medium for implementing on a computer the method of any of claims 1-15. 제 16 항에 따른 방법을 컴퓨터상에서 구현하기 위해 판독형 매체에 저장된 코드를 포함하는 이미징을 위한 컴퓨터 판독매체.A computer readable medium for imaging comprising code stored on a readable medium for implementing on a computer the method of claim 16. 적어도 제 17 항 또는 제 18 항 중 한 항에 따른 방법을 컴퓨터상에서 구현하기 위해 판독형 매체에 저장된 코드를 포함하는 이미징을 위한 컴퓨터 판독매체.A computer readable medium for imaging comprising code stored on a readable medium for implementing on a computer the method of at least one of claims 17 or 18. 제 18 항에 따른 방법을 컴퓨터상에서 구현하기 위해 판독형 매체에 저장된 코드를 포함하는 이미징을 위한 컴퓨터 판독매체.A computer readable medium for imaging comprising code stored on a readable medium for implementing on a computer the method of claim 18.
KR1020087011579A 2008-05-14 2005-11-15 Imaging system with adjustable optics KR20080057345A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020087011579A KR20080057345A (en) 2008-05-14 2005-11-15 Imaging system with adjustable optics

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020087011579A KR20080057345A (en) 2008-05-14 2005-11-15 Imaging system with adjustable optics

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020107003295A Division KR20100023056A (en) 2005-11-15 2005-11-15 Imaging system with adjustable optics

Publications (1)

Publication Number Publication Date
KR20080057345A true KR20080057345A (en) 2008-06-24

Family

ID=39803142

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087011579A KR20080057345A (en) 2008-05-14 2005-11-15 Imaging system with adjustable optics

Country Status (1)

Country Link
KR (1) KR20080057345A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140112452A (en) * 2013-03-13 2014-09-23 지멘스 악티엔게젤샤프트 Operating method for a computer to determine an optimized measurement sequence for an imaging medical technology system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140112452A (en) * 2013-03-13 2014-09-23 지멘스 악티엔게젤샤프트 Operating method for a computer to determine an optimized measurement sequence for an imaging medical technology system

Similar Documents

Publication Publication Date Title
KR20100023056A (en) Imaging system with adjustable optics
JP5802520B2 (en) Imaging device
US8558913B2 (en) Capture condition selection from brightness and motion
JP5486317B2 (en) Operation of double lens camera to expand image
KR101625893B1 (en) Image pickup apparatus that periodically changes exposure condition, a method of controlling image pickup apparatus, and storage medium
US20170031138A1 (en) Methods and apparatus for supporting zoom operations
JP4980982B2 (en) Imaging apparatus, imaging method, focus control method, and program
JP2002094862A (en) Image pickup apparatus
JP2007027967A (en) Photographing apparatus
JP4843009B2 (en) Camera lens control method and apparatus, and camera
JP2006033241A (en) Image pickup device and image acquiring means
US20130286254A1 (en) Image capturing apparatus, control method, and recording medium
KR20100060140A (en) Apparatus and method for acquiring wide dynamic range video image in image processing apparatus
WO2019082831A1 (en) Image capturing device, method for controlling image capturing device, and program
JP2006033023A (en) Image pickup device
JP4210189B2 (en) Imaging device
US7492958B2 (en) Digital imaging with autofocus
JP2010113291A (en) Imaging apparatus
JP2007235640A (en) Photographing device and method
JP2020017807A (en) Image processing apparatus, image processing method, and imaging apparatus
KR20080057345A (en) Imaging system with adjustable optics
JP5105298B2 (en) Imaging apparatus and program thereof
JP2007248698A (en) Method and apparatus for imaging
JP5750262B2 (en) Imaging apparatus and imaging method
JP2008209760A (en) Photographing method and photographing device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
A107 Divisional application of patent
B601 Maintenance of original decision after re-examination before a trial
J801 Dismissal of trial

Free format text: REJECTION OF TRIAL FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20100115

Effective date: 20100415