KR20120020024A - Method and apparatus for iris recognition and iridodiagnosi using wireless mobile communications device - Google Patents

Method and apparatus for iris recognition and iridodiagnosi using wireless mobile communications device Download PDF

Info

Publication number
KR20120020024A
KR20120020024A KR1020100083729A KR20100083729A KR20120020024A KR 20120020024 A KR20120020024 A KR 20120020024A KR 1020100083729 A KR1020100083729 A KR 1020100083729A KR 20100083729 A KR20100083729 A KR 20100083729A KR 20120020024 A KR20120020024 A KR 20120020024A
Authority
KR
South Korea
Prior art keywords
image
unit
lens
region
sensor
Prior art date
Application number
KR1020100083729A
Other languages
Korean (ko)
Inventor
김인선
Original Assignee
김인선
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김인선 filed Critical 김인선
Priority to KR1020100083729A priority Critical patent/KR20120020024A/en
Publication of KR20120020024A publication Critical patent/KR20120020024A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Abstract

PURPOSE: An image processing device for recognizing/diagnosing an iris in a wireless mobile communication terminal and a method thereof are provided to photograph iris and face images with clear colors. CONSTITUTION: Each LED(Light Emitting Diode) lighting device(200) transmits a visible ray and an infrared ray by selecting a filter(100). A camera device(600) captures an image of an interest area. A control device(700) controls the camera device and the LED lighting device according to an output value of sensor devices(300~500). An LCD(Liquid Crystal Display) device(800) visually displays a visually processed image. A data processing device(900) corrects the processed image.

Description

무선 이동통신 단말기에서의 홍채인식 및 홍채진단을 위한 영상 처리장치 및 방법{METHOD AND APPARATUS FOR IRIS RECOGNITION AND IRIDODIAGNOSI USING WIRELESS MOBILE COMMUNICATIONS DEVICE}Image processing apparatus and method for iris recognition and iris diagnosis in wireless mobile communication terminal {METHOD AND APPARATUS FOR IRIS RECOGNITION AND IRIDODIAGNOSI USING WIRELESS MOBILE COMMUNICATIONS DEVICE}

본 발명은 무선 이동통신 단말기상에서 가시광선 범위의 영상과 근 적외선 범위의 영상을 수동방식의 좌우 슬라이딩 밴드패스 필터 개폐장치를 이용하여 각각 별도로 획득하여 홍채진단 및 홍채인식을 위해 적합하도록 영상처리하는 영상처리장치 및 방법에 관한 것으로, 보다 상세하게는 얼굴 및 홍채 영역으로부터의 주위 환경의 휘도값 및 색온도값을 검출하는 조도센서, 가속도와 중력등 충격을 감지하는 가속도 및 자이로센서, 회전정보를 감지하는 지자기센서 등을 구비한 카메라와 눈의 촬상이미지를 소단위영역으로 구분하고 이들 소단위영역을 묶어서 몇 개의 중 단위 영역으로 재규정하는 이미지 영역분할단계를 통해 각 소단위 영역마다 신호를 샘플링 하여 밝기 성분, 색상 성분, 샤프니스 성분으로 분리하고 각각에 대하여 보상하여카메라모듈의 소형화 추세에 따른 신호왜곡을 보상한 후에, 오토포커스 카메라장치 사용 시 미리 설정된 피사체 구도(직사각형 테두리)에서 원하는 관심대상영역(얼굴, 눈)을 대상으로 오토 포커싱이 이루어진 선명한 이미지를 촬영할 수 있게 하는 방법에 관한 것이다.
According to the present invention, an image in the visible range and an image in the near infrared range are separately acquired using a manual left and right sliding band pass filter switching device on a wireless mobile communication terminal, and the image is processed to be suitable for iris diagnosis and iris recognition. The present invention relates to a processing apparatus and method, and more particularly, to an illuminance sensor for detecting a luminance value and a color temperature value of an environment from a face and an iris region, an acceleration and gyro sensor for detecting an impact such as acceleration and gravity, and rotation information. The image component of the camera and the eye equipped with a geomagnetic sensor and the like is divided into sub-unit areas, and the signal is sampled for each sub-unit area through the image area division step of grouping these sub-unit areas and redefining them into several middle unit areas. , Separate into sharpness components and compensate for each After compensating for the signal distortion according to the miniaturization trend of the module, when using the autofocus camera device, it is possible to capture a clear image with auto focusing on a target area of interest (face, eyes) in a preset subject composition (rectangular border). It is about how to.

근래에 휴대폰과 같은 무선 이동통신 단말기의 카메라폰의 경우, 보다 높은 해상도의 사진을 촬상하고자 하는 사용자의 요구에 부응하여 이동통신 단말기에 내장되는 카메라가 소형화, 고해상도화 되면서 전용 디지털 스틸 카메라의 해상도 수준과 맞먹는 메가 픽셀 급의 카메라를 내장한 이동통신 단말기가 출시되고 있는 실정이다.Recently, in the case of a camera phone of a wireless mobile communication terminal such as a mobile phone, the camera embedded in the mobile communication terminal has become smaller and higher resolution in response to a user's demand for capturing higher resolution photos. Mobile communication terminals with mega pixel cameras comparable to those of the market are being released.

그러나 고해상도 특성을 갖는 무선 이동통신 단말기용 이동통신 단말기의 However, the mobile communication terminal of the wireless mobile terminal having a high

주 기능인 이동통신 기능을 위한 장치로 인해 그 기능이 전용 디지털 스틸 카메라에 비해 매우 제한된다. 특히, 빛을 받아들여 이미지를 촬상하는 이미지 센서는 수광되는 빛의 많고 적음을 전하량의 차이로 출력하여 이미지를 취득하는 것이 주 기능이므로, 이미지를 촬상하는 주위 환경의 밝기 및 조명에 따라 선명한 색상을 정확하게 검출할 수 없어 홍채진단이나, 홍채인식에 적합한 선명한 사진을 촬상하는 것이 불가능한 문제점이 있다.
The device for the mobile communication function, which is the main function, is very limited compared to the dedicated digital still camera. In particular, the image sensor that receives light and captures an image is a main function of acquiring an image by outputting a large amount and a small amount of light received at a difference in charge amount. There is a problem that it is impossible to accurately capture a clear picture suitable for iris diagnosis or iris recognition because it cannot be detected accurately.

더 상세하게는 렌즈 시스템의 소형화에 따라 이미지의 중심부분이 붉게 나타나는 현상이 방지된 렌즈 시스템 및 이를 구비한 휴대용 모바일 기기에 관한 것이다.More particularly, the present invention relates to a lens system in which a central portion of an image is prevented from appearing red as the lens system is miniaturized, and a portable mobile device having the same.

일반적으로 카메라 등에 사용되는 CCD 또는 CMOS 등의 촬상 소자는 대략 700㎚ 이상의 근적외선 또는 적외선 영역의 광에도 반응한다. 그러나 근적외선 또는 적외선 영역의 광은 촬상 소자에 누화(crosstalk)를 유발시킴으로써 촬상 소자의 색 재현력을 약화시키고, 촬상 소자의 신호 대 잡음비(S/N ration : signal to noise ratio) 특성을 저하시킨다. 따라서 기존의 카메라에 구비된 렌즈 시스템에는 이를 방지하기 위해 근적외선 또는 적외선 영역의 광을 차단하는 적외선 차단 필터가 구비되어 있다.In general, an imaging device such as a CCD or a CMOS used in a camera or the like responds to light in a near infrared or infrared region of about 700 nm or more. However, the light in the near infrared or infrared region weakens the color reproduction ability of the image pickup device by causing crosstalk to the image pickup device, and deteriorates the signal to noise ratio (S / Nration) characteristic of the image pickup device. Therefore, the lens system provided in the existing camera is equipped with an infrared cut filter for blocking light in the near infrared or infrared region to prevent this.

그러나 물체측과 렌즈 시스템 사이에 적외선 차단 필터를 배치하는 경우에는 필터의 외경이 커지고 비용이 높아지며, 후술하는 바와 같이 상기 적외선 차단 필터에 입사하는 광의 입사각이 커짐에 따라 텔레센트릭 각도가 커지게 되고, 그 결과 이미지의 중심부에 붉은색 계열의 노이즈가 발생하거나 이미지의 주변부에 푸른색 계열의 노이즈가 발생한다는 문제점이 있었다. 또한 렌즈 시스템과 촬상 소자 사이에 적외선 차단 필터를 배치하는 경우에는 백 포컬 렝스(BFL : back focal length)가 커져 촬상 장치의 크기를 증가시키고, 또한 촬상 장치의 단가를 상승시킴으로써, 소형화 및 컴팩트화라는 현 추세에 부응하지 못한다는 문제점이 있었다.
However, when the infrared cut filter is disposed between the object side and the lens system, the outer diameter of the filter is increased and the cost is increased. As described later, the telecentric angle becomes larger as the incident angle of the light incident on the infrared cut filter increases. As a result, there was a problem that a red noise occurs in the center of the image or a blue noise occurs in the periphery of the image. In addition, when the infrared cut-off filter is disposed between the lens system and the image pickup device, the back focal length (BFL) increases, thereby increasing the size of the image pickup device and increasing the unit cost of the image pickup device. There was a problem that could not meet the current trend.

또한, 이미지센서는 제조 공정 상의 미세한 차이에 의해 오프셋 전압(Offset Voltage)에 의한 고정 패턴 잡음(Fixed Pattern Noise)이 발생한다. 이러한 잡음을 보상하기 위하여 이미지센서는 화소배열부의 각 화소에서 리셋 신호(Reset Voltage Signal)를 읽고 데이터신호(Data Voltage Signal)을 읽은 후 그 차를 출력하는 상호연관된 이중 샘플링 (Correlated Double Sampling) 기법을 사용한다.In addition, the image sensor generates a fixed pattern noise due to an offset voltage due to a slight difference in the manufacturing process. To compensate for this noise, the image sensor reads a reset voltage signal from each pixel of the pixel array, reads a data voltage signal, and then outputs the difference. use.

디지털화된 데이타는 감마보정부에서 디스플레이 장치의 감마특성을 고려하여 신호의 영역을 세분화하여 영역에 따라 압축/신장 즉 감마 보정된다. 감마 보정된 신호는 자동집광시간 조절장치와 자동 화이트밸런스 회로와 색영역 변환기 등으로 구성된 디지털신호처리부를 통해 사람이 이미지를 볼 때 편하게 볼 수 있는 환경으로 가공된다.The digitized data is compressed / extended, or gamma-corrected, according to the area by subdividing the area of the signal in consideration of the gamma characteristics of the display device in the gamma correction unit. The gamma-corrected signal is processed into an environment that is easy to see when a person views an image through a digital signal processing unit consisting of an automatic focusing time control device, an automatic white balance circuit and a color gamut converter.

이와 같은 이미지센서 특히 CMOS이미지센서는 저전력 소비라는 큰 장점을 가지고 있기 때문에 휴대폰 등 개인 휴대용 시스템에 매우 유용하게 적용되고 있다. 그러나, 휴대폰에 전용되는 이미지센서를 탑재한 카메라 모듈은 점점 소형화되면서 큰 F number를 가진 렌즈를 필요로 하게 되었고, 결국 이미지센서의 RGB칼라 필터 어레이 픽셀 각각이 빛에 대한 렌즈의 굴절 각도와 다른 위치에 존재하고 이와 같은 위치 차이는 빛의 파장과 마이크로렌즈의 세이딩에 따라 빛에 따른 밝기나 색상의 차이가 일어나는 현상이 더욱 가중되었고 필연적으로 RGB컬러 필터의 위치에 따라 신호손실이 발생하여 이미지가 왜곡되는 현상이 일어난다. 촬상 이미지중 중앙부분에 비해 에지부분에서 데이터손실이 집중적으로 일어나고 있어서 중앙부분에 비해 에지부분의 화상이 어둡고 색상표현이 제대로 되지 않고 있다.
Such image sensors, especially CMOS image sensors, have a great advantage of low power consumption, and thus are very useful for personal portable systems such as mobile phones. However, as the camera module equipped with the image sensor dedicated to the mobile phone becomes smaller and requires a lens with a larger F number, each pixel of the RGB color filter array pixel of the image sensor is different from the angle of refraction of the lens with respect to light. This difference in position is caused by the difference in brightness or color depending on the wavelength of the light and the shading of the microlenses.Inevitably, the signal loss occurs depending on the position of the RGB color filter. Distortion occurs. Data loss is more concentrated in the edge part than in the center part of the captured image, so the image of the edge part is darker than the center part and the color is not properly represented.

일반 사용자가 휴대폰, 스마트폰과 같은 무선이동통신장치의 디지털 카메라를 이용하여 임의의 장소에서 정사 영상을 얻고자하는 경우에 이러한 캘리브레이션 패턴 혹은 고정된 카메라 모션을 적용하기는 매우 곤란한 일이다. 또한 가변 초점 렌즈 혹은 줌 렌즈를 사용하는 경우, 초점 거리와 이미지 센터는 렌즈 조작에 의해 변하게 되어 그 때마다 캘리브레이션을 수행해야 할 필요가 생기게 된다.It is very difficult to apply such a calibration pattern or a fixed camera motion when a general user wants to obtain an orthoimage at any place by using a digital camera of a wireless mobile communication device such as a mobile phone or a smart phone. In addition, when using a varifocal lens or a zoom lens, the focal length and the image center are changed by the lens operation, and there is a need to perform calibration each time.

일반적으로 카메라 파라메타는 한 번의 캘리브레이션 단계를 통해 구해지며, 고정된 값을 계속 유지하는 것으로 간주할 수 있으나 카메라 회전각 정보는 매 촬영시마다 바뀌는 것으로 생각해야 하므로 캘리브레이션 패턴을 포함하여 임의의 패턴을 이용하는 경우에도 회전각 정보를 구할 수 있어야 하는 문제점이 있다.
Generally, camera parameters are obtained through one calibration step and can be regarded as maintaining a fixed value, but since the camera rotation angle information should be considered to change with each shooting, any pattern including a calibration pattern is used. Even there is a problem that should be able to obtain the rotation angle information.

본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로서, The present invention has been proposed to solve the above-mentioned conventional problems,

홍채진단을 위한 명확한 영상을 촬영하기 위한 적외선 차단 필터와 홍채인식을 위한 명확한 영상을 촬영하기 위한 근 적외선 투과 필터를 제공하는 방법,
A method of providing an infrared cut filter for capturing clear images for iris diagnosis and a near infrared transmission filter for capturing clear images for iris recognition,

렌즈 시스템의 소형화에 따라 칼라 이미지의 중심부분이 붉게 나타나는 현상을 방지하고, 근적외선 투과 필터에 의해 이미지가 선명하게 되지 않는 현상을 방지하는 렌즈 시스템을 제공하는 방법,
A method of providing a lens system that prevents the central part of a color image from appearing red with the miniaturization of the lens system, and prevents the image from being sharpened by a near-infrared transmission filter.

보다 선명하고 사람의 시감도에 적합한 사진을 촬상할 수 있는 장치를 제공하는 방법,
A method of providing a device capable of taking pictures that are clearer and more suitable for human visibility,

카메라모듈의 소형화 추세에 따른 신호왜곡을 보상할 수 있는 신호보상방법을 제공,
Provides a signal compensation method that can compensate for signal distortion due to the miniaturization trend of the camera module,

관심대상영역(얼굴, 눈)을 대상으로 오토 포커싱이 이루어진 선명한 이미지를 촬영할 수 있게 하는 방법을 제공,
Provides a way to capture clear images with auto focusing on the area of interest (face, eyes)

각속도와 회전각을 이용하여 보정된 영상을 제공하는 방법 등을
To provide a corrected image using angular velocity and rotation angle.

해결하고자 하는 기술적 과제로 한다.
The technical problem to be solved.

본 발명은 앞서 본 종래기술의 문제점을 해결하기 위하여 안출된 것으로,The present invention has been made to solve the problems of the prior art,

홍채진단을 위한 명확한 영상을 촬영하기 위한 적외선 차단 필터와 홍채인식을 위한 명확한 영상을 촬영하기 위한 근 적외선 투과 필터를 간단한 수동방식의 좌우 슬라이딩 필터 개폐장치를 제공하는데 있다.
An infrared cut filter for capturing a clear image for iris diagnosis and a near infrared transmission filter for capturing a clear image for iris recognition provide a simple manual left and right sliding filter opening and closing device.

렌즈 시스템의 소형화에 따라 이미지의 중심부분이 붉게 나타나는 현상이 방지된 렌즈 시스템 및 이를 구비한 무선 이동통신 단말기를 제공하는데 있다.
The present invention provides a lens system in which a central portion of an image is prevented from appearing red as the lens system is miniaturized, and a wireless mobile communication terminal having the same.

이미지를 촬상하는 주위 환경의 정확한 휘도값을 검출할 수 있는 조도센서를 구비함으로써 보다 선명하고 사람의 시감도에 적합한 사진을 촬상할 수 있는 조도센서를 구비한 카메라를 제공하는데 있다.
The present invention provides a camera having an illuminance sensor capable of capturing a picture that is more sharp and suitable for human visibility by providing an illuminance sensor capable of detecting an accurate luminance value of a surrounding environment for capturing an image.

상기 조도센서에서 검출된 휘도값에 따라 LED 조명장치를 제어하여 상기 디지털이미지 신호의 밝기 및 화이트 밸런스를 조절하는 장치 및 방법을 제공하는데 있다.
The present invention provides an apparatus and method for controlling the brightness and white balance of the digital image signal by controlling the LED lighting apparatus according to the luminance value detected by the illuminance sensor.

촬상이미지를 소단위영역으로 구분하고 이들 소단위영역을 묶어서 몇 개의 중단위 영역으로 재규정하는 이미지영역분할단계를 통해 각 소단위영역마다 신호를 샘플링하여 밝기성분, 색상성분, 샤프니스성분으로 분리하고 각각에 대하여 보상을 행하는 방식으로 카메라모듈의 소형화 추세에 따른 신호왜곡을 보상할 수 있는 신호보상방법을 제공하는데 있다.
The image segmentation step of dividing the captured image into sub-unit areas, grouping these sub-unit areas and re-defining them into several mid-level areas, samples the signal for each sub-unit area, and separates them into brightness, color, and sharpness components and compensates for each. The present invention provides a signal compensation method capable of compensating for signal distortion caused by a miniaturization trend of a camera module.

오토포커스 카메라장치 사용 시 원하는 움직이는 피사체 구도(직사각형 테두리)에서 원하는 관심대상영역(얼굴, 눈)을 대상으로 오토 포커싱이 이루어진 선명한 이미지를 촬영할 수 있게 하는 방법을 제공하는데 있다.
The present invention provides a method for capturing a sharp image with auto focusing on a desired region of interest (face or eye) in a desired moving subject composition (rectangular border) when using an autofocus camera device.

임의의 회전각 자세를 취하는 무선통신장치의 디지털 카메라로 촬영된 일반 평면 위의 패턴으로부터 렌즈 왜곡 보정 단계를 거친 후 자동으로 계산된 평면에 대한 상대적인 카메라 회전각 정보를 이용하여 보정된 영상을 생성하는 방법과 지자기 및 가속도 센서로 부터의 각속도와 회전각을 이용하여 보정된 영상을 제공하여 ,
After correcting the lens distortion from the pattern on the general plane photographed by the digital camera of the wireless communication device having an arbitrary rotation angle posture, the corrected image is generated using the camera rotation angle information about the plane automatically calculated. By using the method and the angular velocity and rotation angle from the geomagnetic and acceleration sensors.

상기의 기술적 과제 등을 해결하고자 한다.
To solve the above technical problem.

카메라와 간단할 필터 조작에 의해 칼라가 선명한 홍채 및 얼굴 영상을 촬영하므로 서 무선 이동단기상에서 편리하게 홍채진단이 가능하게 되며, 또한, 초점이 정확한 그레이 스케일 홍채영상을 촬영하므로 서 무선 이동단기상에서 편리하고, 안전하게 무선통신 서비스를 이용할 수 있게된다.
With the camera and simple filter operation, iris and face images with vivid color can be captured, making it easy to diagnose irises on the wireless mobile terminal, and also convenient on the wireless mobile terminal by capturing accurate gray scale iris images. It is possible to use a wireless communication service safely.

조리개가, 복수개의 렌즈군들을 구비하는 렌즈 시스템의 각 렌즈군들 사이의 공간들 중 어느 한 공간에 구비되도록 함으로써, 홍채 영상의 중심부의 이미지와 홍채의 주변부의 이미지간의 왜곡이 발생하는 것을 방지할 수 있다. 추가적인 제조비용 상승이 없이도 홍채 이미지 선명도 저하를 방지할 수 있다.
By allowing the iris to be provided in any one of the spaces between the lens groups of the lens system having a plurality of lens groups, it is possible to prevent distortion between the image of the center of the iris image and the image of the periphery of the iris image. Can be. Degradation of the iris image can be prevented without additional manufacturing cost increase.

무선이동통신용 단말기에 사용되는 카메라에 별도의 조도센서를 구비함으로써 촬상환경의 밝기 및 색온도를 정확한 물리 값으로 검출하여 보다 선명하고 사람의 시감도와 일치하도록 화이트밸런스가 조절된 홍채영상을 촬상할 수 있는 효과가 있다.
The camera used in the wireless mobile communication terminal is equipped with a separate illuminance sensor, so that the brightness and color temperature of the imaging environment can be detected with accurate physical values so that the image can be captured more clearly and the iris image with white balance adjusted to match human visibility It works.

조도센서에서 검출된 촬상환경의 밝기 값을 이용하여, 촬상된 이미지를 표시하는 LCD의 백라이트 조명의 밝기를 주위환경에 적합하게 자동 조절할 수 있으며, 어두운 환경에서 섬광을 제공하는 플래쉬의 광량을 주위환경에 적합하게 자동 조절할 수 있는 부수적인 효과가 있다.
By using the brightness value of the imaging environment detected by the illuminance sensor, the brightness of the backlight of the LCD which displays the captured image can be automatically adjusted to suit the surrounding environment, and the amount of flash light that provides glare in the dark environment can be adjusted. There is a side effect that can be automatically adjusted to suit.

눈의 촬상이미지를 소단위영역으로 구분하고 이들 소단위영역을 묶어서 몇 개의 중 단위 영역으로 재규정하는 이미지 영역분할단계를 통해 각 소단위영역마다 신호를 샘플링 하여 밝기 성분, 색상 성분, 샤프니스 성분으로 분리하고 각각에 대하여 보상을 행하는 방식이기 때문에, 카메라모듈의 소형화 추세에 따른 신호왜곡을 보상할 수 있는 효과를 가진다.
The image segmentation step of dividing the captured image of the eye into sub-unit areas and grouping these sub-unit areas and re-defining them into several middle unit areas is performed by sampling the signal for each sub-unit area and separating them into brightness, color, and sharpness components. Since it is a method of compensating for the signal, signal distortion due to the miniaturization trend of the camera module is compensated.

피사체의 관심영역(양쪽 눈, 즉 양안)이 미리 설정한 피사체 구도(직사각형 테두리) 안에 들어오면, 이 서브 화면에 매칭 되어 저장된 측정거리 이동정보를 저장부로부터 찾아 거리측정부에 제공하여 해당 서브 화면에 대응한 측정거리를 지시하고 그 응답으로 측정거리부로부터 측정 거리 값을 제공받는다. 최상의 초점을 찾기 위해 렌즈를 앞, 뒤로 움직임으로서, 피사체의 거리를 이미지 자체만을 가지고 분석하여 사용자가 촬영거리 및 초점에 많은 신경을 쓰지 않고 쉽고, 편리하게 촬영 할 수 있는 효과를 가진다.
If the area of interest (both eyes, or both eyes) of the subject falls within the preset subject composition (rectangular border), the measured distance movement information matched to this sub-screen is retrieved from the storage unit and provided to the distance measuring unit. It indicates the measurement distance corresponding to and receives the measurement distance value from the measurement distance unit in response. By moving the lens forward and backward to find the best focus, the distance of the subject is analyzed only with the image itself, so that the user can easily and conveniently take a picture without paying much attention to the shooting distance and focus.

이상에서 설명한 바와 같이, 본 발명은 디지털 카메라와 같이 렌즈계를 채용한 영상 장비에서 렌즈 왜곡에 의해 발생하는 영상 품질의 저하를 소프트웨어적으로 보상하고, 이 때의 결과 영상에 대해 정사영상을 생성하는 것으로서 렌즈계의 정보나 외부 장치에 의존하지 않으면서 영상만을 이용하여 자동으로 왜곡 보정을 실시할 수 있으므로 일반 디지털 카메라에서 제공되는 정지 영상 뿐만 아니라 동일한 카메라로 촬영된 동영상에도 적용이 가능한 효과를 가진다.
As described above, the present invention is to compensate for the degradation of the image quality caused by lens distortion in the imaging equipment employing the lens system, such as a digital camera, and to generate an orthoimage for the resulting image at this time as Distortion correction can be performed automatically using only the image without depending on the lens system information or external device, so that it can be applied not only to still images provided by general digital cameras but also to videos captured by the same camera.

도 1은 본 발명의 일 실시형태에 따른 영상처리장치의 개략 구성도이다.
도 2는 본 발명의 일 실시형태에 따른 좌우슬라이딩 방식의 필터 개폐장치구성도이다.
도 3은 본 발명의 일 실시형태에 따른 LED 조명장치 개략구성도이다.
도 4는 상기 조도센서의 일례를 도시한 상세구성도이다.
도 5는 상기 가속도 및 자이로센서의 일례를 도시한 상세구성도이다.
도 6는 본 발명의 일 실시 형태에 따른 렌즈 시스템의 개략적 개념도이다.
도 7은 본 발명의 원리를 설명하기 위한 광 경로를 개략적으로 도시하는 개념도이다.
도 8은 상기 제어부의 개념도이다.
도 9은 상기 제어부의 일례를 보다 상세하게 도시한 구성도이다.
도 10은 본 발명의 일실시예에 따른 신호보상방법의 블록도이다.
도 11은 본 발명에 따른 신호보상을 위해 촬상된 이미지를 영역별로 분할규정한 화면의 일예이다.
도 12은 본 발명의 일실시예에 따른 데이타보상단계의 블록도이다.
도 13은 본 발명의 일 실시 예에 따른 서브 화면 영역에 대응하는 피사체까지의 측정거리 정보에 따라 오토 포커싱을 수행하는 단계별 순서를 보여주는 실시예도이다.
도 14는 본 발명의 일 실시 예에 따른 고정 피사체에 대한 오토 포커싱 위치 변경 방법을 보인 순서도이다.
도 15은 현재 카메라 이미지(perspective 이미지)에서 스케일에 따라 어떤 영역을 왜곡 보정할 것인지를 결정하는 과정을 도시한 것이다.
1 is a schematic structural diagram of an image processing apparatus according to an embodiment of the present invention.
2 is a block diagram of the filter opening and closing device of the left and right sliding method according to an embodiment of the present invention.
3 is a schematic configuration diagram of an LED lighting apparatus according to an embodiment of the present invention.
4 is a detailed configuration diagram showing an example of the illuminance sensor.
Figure 5 is a detailed configuration diagram showing an example of the acceleration and gyro sensor.
6 is a schematic conceptual diagram of a lens system according to an embodiment of the present invention.
7 is a conceptual diagram schematically showing an optical path for explaining the principles of the present invention.
8 is a conceptual diagram of the controller.
9 is a configuration diagram showing an example of the control unit in more detail.
10 is a block diagram of a signal compensation method according to an embodiment of the present invention.
11 is an example of a screen in which divisionally defined images captured for signal compensation according to the present invention are divided into regions.
12 is a block diagram of a data compensation step according to an embodiment of the present invention.
FIG. 13 is a diagram illustrating a step-by-step procedure of performing auto focusing based on measurement distance information to a subject corresponding to a sub screen area according to an exemplary embodiment.
14 is a flowchart illustrating a method of changing an auto focusing position with respect to a fixed subject according to an exemplary embodiment.
FIG. 15 illustrates a process of determining which region is to be distortion-corrected according to a scale in a current camera image (perspective image).

상기 목적을 달성하기 위한 본 발명의 무선 이동통신단말기의 영상처리장치는,
An image processing apparatus of a wireless mobile communication terminal of the present invention for achieving the above object,

필요 목적에 따라 적외선 차단 밴드패스 필터로 부터 관심 영역(얼굴, 눈)에 관한 가시광선 범위의 휘도 분포에 따른 제1 영상을 획득 및 근 적외선 투과 밴드패스 필터(100)로부터 관심영역(얼굴, 눈)에 관한 그레이스케일에 따른 제2 영상을 각각 별도로 획득하는 영상 획득부와,
Acquire the first image according to the luminance distribution of the visible light range with respect to the region of interest (face, eyes) from the infrared cut-off bandpass filter and the region of interest (face, eyes) from the near infrared transmission bandpass filter 100 according to the necessary purpose. An image acquisition unit for separately acquiring a second image according to grayscale of

필요 목적에 따라 실행 처리된 결과 영상을 동시에 하나의 화면에 제 1영상과 제 2영상을 동시에 표시하거나, 각각 별개로 표시 시키는 표시부(800)와,
A display unit 800 for simultaneously displaying the first image and the second image on one screen at the same time or separately displaying the resultant image processed according to a necessary purpose;

상기 영상획득부로부터 처리되어 획득된 영상과 출력정보를 이용하여 홍채진단 및 인식에 적합한 영상으로 보정하는 데이터 처리부(900)를 포함하는 것이다.
And a data processor 900 for correcting an image suitable for iris diagnosis and recognition by using the image and the output information obtained by processing from the image acquisition unit.

상기 영상 획득부는, 센서부(300)(400)(500), LED 조명장치부(200), 카메라부(600), 밴드패스 필터부(100), 제어부(700)를 포함하는 것이 바람직하다.
The image acquisition unit preferably includes a sensor unit 300, 400, 500, an LED lighting unit 200, a camera unit 600, a band pass filter unit 100, and a control unit 700.

상기 영상 획득부의 센서부는,The sensor unit of the image acquisition unit,

상기 관심 영역으로부터의 주위 환경의 휘도값 및 색온도값을 검출하는 조도센서(300), 가속도와 중력등 충격을 감지하는 가속도 및 자이로센서(400), 회전정보를 감지하는 지자기센서(500) 등을 포함한다.
The illuminance sensor 300 for detecting the luminance value and the color temperature value of the surrounding environment from the region of interest, the acceleration and gyro sensor 400 for detecting impacts such as acceleration and gravity, the geomagnetic sensor 500 for detecting rotation information, and the like. Include.

상기 영상 획득부의 LED 조명장치부(200)는,The LED lighting unit 200 of the image acquisition unit,

특정영역 가시광선을 투사하는 가시광선 LED(220)와 근적외선 영역의 광선을 투사하는 적외선 LED(210) 를 각각 포함한다.
And a visible light LED 220 for projecting a specific region visible light and an infrared LED 210 for projecting light in a near infrared region.

상기 영상 획득부의 카메라부는,The camera unit of the image acquisition unit,

상기 관심 영역의 영상을 캡쳐하는 렌즈(610) 및 이미지 센서(650)를 포함한다. The lens 610 and an image sensor 650 for capturing an image of the ROI are included.

상기 카메라부의 렌즈는 The lens of the camera unit

한편, 모바일폰 등과 같은 휴대용 모바일 기기의 경우에는 소형화, 컴팩트화가 중요한 과제인 바, 이러한 휴대용 모바일 기기에 구비될 수 있는 렌즈 시스템은 소형의 렌즈 시스템인 것이 좋으며, 따라서 그러한 경우의 렌즈 시스템은 세 개의 렌즈 군들을 구비하도록 하는 것이 바람직하다.
Meanwhile, in the case of a portable mobile device such as a mobile phone, miniaturization and compactness are important issues. It is preferable that a lens system that can be provided in such a mobile mobile device is a small lens system. It is desirable to have lens groups.

상기 영상 획득부의 밴드패스 필터부(100)는, The band pass filter unit 100 of the image acquisition unit,

렌즈 앞에서 수동방식의 좌우 슬라이딩 개폐식으로 배열되는 근적외선 투과 필터(110)와 적외선 차단 필터(120)를 각각 포함한다.And a near-infrared transmission filter 110 and an infrared cut-off filter 120, which are arranged in front and rear of the lens in a manual sliding mode.

상기 밴드패스필터부(100)의 적외선 차단 밴드패스 필터(120)를 닫고 상기 관심 영역의 영상을 캡쳐하여 상기 가시광선 범위 영상을 획득하는 단계와, 상기 근 적외선 투과 밴드패스 필터(110)를 닫고 상기 관심 영역에 투사된 빛의 영상을 캡쳐하여 상기 근적외선 범위 영상을 획득하는 단계를 포함하는 것이 바람직하다.
Closing the infrared cut-off bandpass filter 120 of the bandpass filter unit 100 and capturing an image of the ROI to obtain the visible range image, and closing the near infrared transmission bandpass filter 110 And capturing an image of light projected on the ROI to obtain the near infrared range image.

상기 영상획득부의 제어 부는, The control unit of the image acquisition unit,

센서의 출력 값에 따라 렌즈(610), 이미지 센서(650) 및 상기 LED 조명장치(200)를 제어하는 방법 및 모듈을 포함하는 것이 바람직하다.It is preferable to include a method and a module for controlling the lens 610, the image sensor 650 and the LED lighting device 200 according to the output value of the sensor.

상기 렌즈 앞에서 상기 적외선 차단 밴드패스 필터(120)가 닫힌 상태에서 상기 관심 영역에 투사된 특정영역 가시광선 LED 조명장치(220) 빛의 영상을 캡쳐하여 관심 영역의 가시광선 범위 영상을 획득하도록 상기 렌즈(611), 이미지 센서(650), LED 조명장치(200)의 밝기를 제어하고, 상기 렌즈 앞에서 상기 근적외선 투과 밴드패스 필터(110)가 닫힌 상태에서 상기 관심 영역에 투사된 근 적외선 LED 조명장치(210)의 빛 영상을 캡쳐하여 상기 관심 영역의 근 적외선 범위 영상을 획득하도록 상기 렌즈, 이미지 센서 및 LED 조명장치의 밝기를 제어하는 것이 바람직하다.
The lens is configured to capture an image of light of a specific region visible light LED illuminator 220 projected onto the ROI while the infrared cut-off bandpass filter 120 is closed in front of the lens to obtain a visible light range image of the ROI. 611, a near-infrared LED illuminator that controls the brightness of the image sensor 650 and the LED illuminator 200, and is projected to the region of interest with the near-infrared transmission bandpass filter 110 closed in front of the lens ( It is preferable to control the brightness of the lens, the image sensor and the LED lighting device to capture the light image of the 210 to obtain a near infrared range image of the region of interest.

상기 영상처리장치의 표시부는 The display unit of the image processing apparatus

상기 영상획득 부에서 획득한 영상 처리된 영상을 시각적으로 표시하는 LCD(800)부를 더 포함하는 것이 바람직하며, 이 실시형태에서 표시부는, 상기 조도 센서(300)에서 검출된 주위환경의 휘도 값에 따라 상기 LCD부의 백라이트 밝기를 조정할 수 있는 것이 바람직하다.
Preferably, the display unit further includes an LCD 800 for visually displaying the image processed image acquired by the image acquisition unit. In this embodiment, the display unit is configured to display the luminance value of the surrounding environment detected by the illuminance sensor 300. Accordingly, it is preferable that the backlight brightness of the LCD unit can be adjusted.

상기 데이터 처리부(900)는 영상획득부로부터 처리되어 획득된 영상과 출력정보를 이용하여 손떨림, 회전, 주위환경의 휘도값 변화 등으로 인한 왜곡된 영상을 홍채진단 및 인식에 적합한 영상으로 보정하는 것이 바람직하다.
The data processor 900 corrects a distorted image due to hand shake, rotation, and a change in luminance value of the surrounding environment using an image obtained by the image acquisition unit and output information, to be suitable for iris diagnosis and recognition. desirable.

이하에서는, 첨부한 도면을 참조하여 본 발명의 장점, 특징 및 바람직한 실시 예에 대해 상세히 설명하도록 한다.
Hereinafter, with reference to the accompanying drawings will be described in detail the advantages, features and preferred embodiments of the present invention.

도 1은 본 발명의 일 실시형태에 따른 영상처리장치의 개략 구성도이다.
1 is a schematic structural diagram of an image processing apparatus according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 영상처리장치는, 피사체의 관심영역(얼굴, 눈)으로부터 진행하는 빛 중에서 가시광선 영역의 빛과 적외선 영역의 빛을 슬라이딩 개폐 방식에 의해 선택하여 투과 또는 차단하는 필터(100), 상기 필터의 선택 여부에 따라 가시광선과 적외선을 투사하는 각각의 LED 조명장치(200), 상기 관심영역으로 부터의 주위 환경의 휘도값 및 색온도 값을 검출하는 조도센서(300), 가속도와 중력 등 충격을 감지하는 가속도 및 자이로센서(400), 회전정보를 감지하는 지자기센서(500)등의 센서장치, 상기 관심 영역의 영상을 캡쳐하는 렌즈 (610)및 이미지 센서(650)를 포함하는 카메라장치(600), 상기 센서 장치의 출력 값에 따라 카메라장치 및 상기 LED 조명장치를 제어하는 제어장치(700), 상기 영상획득부에서 획득하여 영상 처리된 영상을 시각적으로 표시하는 LCD장치(800), 상기 영상획득부에서 영상처리된 영상을 보정하는 데이터처리장치(900)를 포함하여 구성된다.
As shown in FIG. 1, the image processing apparatus of the present invention selects the light of the visible region and the infrared region of the light from the region of interest (face, eyes) of the subject by a sliding switching method. Filter 100 for blocking, each LED lighting device 200 for projecting visible and infrared light according to whether the filter is selected, the illumination sensor 300 for detecting the luminance value and color temperature value of the surrounding environment from the region of interest ), A sensor device such as an acceleration and gyro sensor 400 for detecting an impact such as acceleration and gravity, a geomagnetic sensor 500 for detecting rotation information, a lens 610 for capturing an image of the ROI, and an image sensor 650. A camera device 600 including the camera device, a control device 700 for controlling the camera device and the LED lighting device according to an output value of the sensor device, and a video processed by the image acquisition unit. And a data processing apparatus 900 for correcting an image processed by the image acquisition unit.

여기서 밴드패스필터는 근적외선 영역의 빛은 투과시키고 가시광선 영역의 빛은 차단시키는 필터와 이와 반대로 가시광선 영역은 투과 시키고 적외선 영역의 빛은 차단시키는 필터가 함께 좌우로 구성되어 있다. 상기 필터는 글래스 또는 필름 표면에 코팅되어 사용 될 수 있다. 도 1에서와 같이, 상기 필터를 적절히 배치하고, 슬라이딩 좌우 개폐 방법으로 필터를 필요 목적에 따라 렌즈를 덮는다.
Here, the band pass filter includes a filter that transmits light in the near infrared region and blocks light in the visible region and a filter which transmits the visible region and blocks the light in the infrared region. The filter may be used coated on the glass or film surface. As shown in FIG. 1, the filter is properly disposed, and the filter is covered by a sliding left and right opening and closing method according to a necessary purpose.

도 2는 본 발명의 일 실시형태에 따른 좌우슬라이딩 방식의 필터 개폐장치구성도이다. 2 is a block diagram of the filter opening and closing device of the left and right sliding method according to an embodiment of the present invention.

도 2a의 상태에서 카메라 안착부의 외측 중심으로 돌출된 개폐스위치(150)를 우측으로 밀면 도 2b에 도시된 바와 같이 덮개가 우측으로 슬라이딩되어 카메라 안착부가 근적외선 투과 필터(110)로 완전히 덮여지게 되고,In the state of FIG. 2A, when the opening and closing switch 150 protruding toward the outer center of the camera seating part is pushed to the right side, the cover slides to the right as shown in FIG.

이때 사용자는 인식모드를 프로그램 상에서 선택하면 가시광선 LED(220)는 Off시키고 근적외선 LED(210)만 교대로 ON 하게 된다. 또한 도 2b의 상태에서 개폐스위치(150)를 좌측으로 밀면 덮개는 좌측으로 슬라이딩되어 카메라 안착부가 적외선 차단필터(120)로 완전히 덮여지게 되고, 사용자는 일반 칼라영상촬영 또는 홍채진단모드로 프로그램 상에서 선택하면 가시광선 LED는 On하게 되고, 적외선 LED는 Off 하게 된다.At this time, when the user selects the recognition mode on the program, the visible light LED 220 is turned off and only the near infrared LED 210 is alternately turned on. In addition, when the switch 150 is pushed to the left side in the state of FIG. 2B, the cover is slid to the left so that the camera seat is completely covered with the infrared cut filter 120, and the user selects the program in the normal color image shooting or iris diagnosis mode. When visible light LED turns on, infrared LED turns off.

또한, 개폐스위치는 무선통신단말기와 일체형 또는 분리형으로 구성 될 수 있다.
In addition, the opening and closing switch may be configured integrally or detachably with the wireless communication terminal.

도 3는 본 발명의 일 실시형태에 따른 LED 조명장치 개략구성도이다. 3 is a schematic configuration diagram of an LED lighting apparatus according to an embodiment of the present invention.

LED 조명장치는 상기 필터의 선택여부에 따라 특정영역 가시광선을 투사하는 가시광선 LED와 근적외선 영역의 광선을 투사하는 적외선 LED로서, 도 3과 같이 가시광선 LED(220)는 렌즈의 상단 방향에 위치하고, 적외선 LED(210)는 렌즈의 하단방향에 위치하데, 정중앙 또는 좌우로 구성 될 수 있다.
The LED lighting device is a visible light LED projecting visible light in a specific region and an infrared LED projecting light in a near infrared region according to whether the filter is selected. As shown in FIG. 3, the visible light LED 220 is positioned in the upper direction of the lens. , Infrared LED 210 is located in the lower direction of the lens, it may be configured in the center or right and left.

또한 LED 조명장치의 전원은 무선통신단말기의 전원으로부터 공급 받지않고,In addition, the power of the LED lighting device is not supplied from the power of the wireless communication terminal,

독립적으로 밧데리가 부착되어 전원을 공급 받을 수 있고 분리형으로 구성 될 수 있다.
Independently attached battery can be powered and can be configured separately.

이 경우, 적외선 LED(210)의 파장대역은 700 ~ 900nm 파장을 방사하는 LED 램프를 사용하고, 바람직하게는 760nm의 단일파장을 방사하는 LED 램프와 870nm의 단일파장을 방사하는 LED 램프를 교대로 방사시키고, 방사 대역(760, 870nm)에서 피크를 이루도록 하여 푸른색, 초록색 눈의 서양인과 갈색 눈의 동양인이 방사대역에 따라 한쪽은 밝고, 한쪽은 어둡게 촬영되는 것을 방지한다. 또한 가시광선 LED의 파장대역은 400 ~ 700nm 파장을 방사하는 고휘도 LED(220)를 사용한다.
In this case, the wavelength band of the infrared LED 210 uses an LED lamp that emits a wavelength of 700 ~ 900nm, preferably alternating an LED lamp that emits a single wavelength of 760nm and an LED lamp that emits a single wavelength of 870nm. And the peaks in the emission bands (760 and 870 nm) to prevent the blue and green eyes of Westerners and the brown eyes of Asians from being photographed on one side and dark on the other side. In addition, the wavelength band of the visible light LED uses a high-brightness LED 220 emitting a wavelength of 400 ~ 700nm.

센서장치는 관심영역으로 부터의 주위 환경의 휘도 값 및 색온도 값을 검출하는 조도센서, 가속도와 중력 등 충격을 감지하는 가속도 및 자이로 센서, 회전정보를 감지하는 지자기센서등으로 구성 될 수 있다.
The sensor device may include an illuminance sensor that detects luminance and color temperature values of the surrounding environment from the region of interest, an acceleration and gyro sensor that detects shock such as acceleration and gravity, and a geomagnetic sensor that detects rotation information.

상기 조도센서(300)는 주위 환경의 휘도 및 색온도를 정확한 물리량으로 검출한다. 종래의 이동통신 단말기용 카메라에서는 사용되는 이미지센서(CCD, CMOS)는 그 크기의 제약으로 인해 검출되는 광신호만을 이용하여 밝기 및 화이트 밸런스를 조절하기 때문에 촬상환경의 정확한 밝기(휘도) 및 색온도를 검출할 수 없어 선명하고 사람의 시감도와 일치하는 이미지를 촬상할 수 없었다. 이에 비해, 본 발명에서는 정확한 밝기값(Lux) 및 색온도(캘빈도)를 별도의 조도센서(15)를 통해 검출할 수 있으므로, 이 검출된 밝기값(Lux) 및 색온도(캘빈도)를 이용하여 보다 선명하고 사람의 시감도와 일치하는 이미지를 촬상할 수 있게 된다.
The illuminance sensor 300 detects the luminance and color temperature of the surrounding environment with an accurate physical quantity. In conventional mobile communication cameras, image sensors (CCD, CMOS) are used to adjust the brightness and white balance using only the optical signals detected due to their size constraints. It could not detect and could not capture images that were clear and matched to human visibility. In contrast, in the present invention, since the correct brightness value Lux and the color temperature (Calvin) can be detected through the separate illuminance sensor 15, the detected brightness value Lux and the color temperature (Calvin) are used. It is possible to capture images that are sharper and match human visibility.

도 4는 상기 조도센서의 일례를 도시한 상세구성도로서, 도 4와 같이 조도센서는, 촬상환경의 가시광선을 검출하는 가시광선 검출기(310)와, 촬상환경의 적외선을 검출하는 적외선 검출기(320)와, 상기 검출된 촬상환경의 가시광선 및 적외선을 통합 분석하여 촬상환경의 밝기와 색온도를 정확한 물리량으로 변환 출력하는 변환기(330)를 포함하여 구성 될 수 있다. 상기 변환기에서 출력되는 밝기를 나타내는 물리량은 Lux값일 수 있으며, 색온도를 나타내는 물리량은 캘빈도이다.4 is a detailed configuration diagram showing an example of the illuminance sensor. As shown in FIG. 4, the illuminance sensor includes a visible light detector 310 for detecting visible light in an imaging environment, and an infrared detector for detecting infrared light in an imaging environment. 320, and a converter 330 that converts and outputs the brightness and the color temperature of the imaging environment into an accurate physical quantity by analyzing the visible and infrared rays of the detected imaging environment. The physical quantity indicating the brightness output from the converter may be a Lux value, and the physical quantity indicating the color temperature is Calvin degree.


상기 가속도 센서는 피사체 관심영역 영상이 촬상 면으로 유입되는 노광 중의 흔들림을 감지하고 계산하여, 계산된 흔들림과 사전에 설정된 보정의 한계를 상호 비교하여, 보정의 한계를 벗어나는 과도한 각도를 계산한다.
The acceleration sensor detects and calculates a shake during exposure in which the subject region of interest image is introduced into the imaging surface, and compares the calculated shake with a preset correction limit to calculate an excessive angle that deviates from the correction limit.

또 하나의 일실시 예에서 자이로 센서(400)를 통하여 각속도를 산출하여 흔들림과 사전에 설정된 보정한계를 양적으로 비교하여 과도한 흔들림을 포착한다. 이와 같이 스마트폰에 이미 내장되어 있는 센서를 이용해서 영상의 흔들림을 감지할 경우 처리속도가 빨라지고, 정확해진다.
In another embodiment, the gyro sensor 400 calculates the angular velocity to quantitatively compare the shake with a preset correction limit to capture excessive shake. In this way, when detecting the shaking of the image using the sensor already built in the smart phone, the processing speed is faster, it becomes accurate.

도 5는 상기 가속도 및 자이로센서의 일례를 도시한 상세구성도로서,5 is a detailed configuration diagram showing an example of the acceleration and gyro sensor;

그림 상에서 마지막 부분의 FilterAngle(440)은 단지 라디안(radian)을 degree로 표현을 다시 하는 것 뿐입니다. 결국 FilterAngle이라는 변수가 최종값으로 필터의 결과입니다. 또한 보상신호(410)는 가속도센서에서 출력된 값을 이용해서 구한 각도입니다. 즉, 가속도 센서의 출력이 아니라 거기서 구한 각도이다.The last FilterAngle (440) in the figure simply reexpresses the radians in degrees. After all, the variable FilterAngle is the final result of the filter. In addition, the compensation signal (410) is the angle obtained using the value output from the acceleration sensor. That is, not the output of the acceleration sensor, but the angle obtained there.

그리고 자이로신호(420)라고 되어있는 부분은 자이로신호를 그대로 넣어둔것이 아니라 자이로 신호에 스캐일팩터를 반영해서 각속도(rad/sec)의 결과입니다. 즉, 보상신호는 가속도센서에서 출력된 각도이고, 자이로 신호는 자이로에서 출력된 각속도이다.
And the part of the gyro signal (420) is not the gyro signal as it is, but the result of the angular velocity (rad / sec) reflecting the scale factor in the gyro signal. That is, the compensation signal is the angle output from the acceleration sensor, the gyro signal is the angular velocity output from the gyro.

디지털 카메라와 같이 렌즈 계를 채용한 영상 장비에서 렌즈 왜곡에 의해 발생하는 영상 품질의 저하를 소프트웨어적으로 보상하고, 이때의 결과 영상에 대해 정사영상을 생성하여야 하며, 정사영상 생성을 위해 필요한 정보는 카메라 캘리브레이션을 통해 구해진 초점 거리와 카메라 회전각 정보이다. 이 외에 이미지 센터에 대한 정보도 필요하지만 이미 언급한 대로 이미지 버퍼의 중심으로 간주 하기로 한다. 초점 거리의 경우 카메라 캘리브레이션이 끝난 후에는 변하지 않는 것으로 간주할 수 있지만 사용자의 카메라 조절 상태에 따라 회전각 정보는 항상 변하게 되고, 회전각 정보를 얻기 위한 본 발명의 일실시예로 사용되는 상기 지자기센서(500)는, 상호 직교하는 X축 및 Y축 플럭스게이트를 구비하며, 각 플럭스게이트로부터 지자기에 대응되는 전기적인 신호를 각각 검출하는 지자기검출모듈, 상기 X축 및 Y축 플럭스게이트로부터 각각 검출된 전기적인 신호를 소정의 X축 및 Y축 출력값으로 변환하여 출력하는 신호처리부, 및 상기 X축 및 Y축 출력값을 각각 소정 범위의 값으로 정규화(normalizing)한 후, 정규화된 출력 값으로부터 회전각을 연산하는 지자기 연산부를 포함하는 것이 바람직하다.
In video equipment adopting a lens system such as a digital camera, software image compensation caused by lens distortion is compensated for by software, and ortho images should be generated for the resulting images. This is the focal length and camera rotation angle information obtained through camera calibration. In addition, information about the image center is required, but as already mentioned, it will be regarded as the center of the image buffer. The focal length can be regarded as unchanged after the camera calibration is finished, but the rotation angle information always changes according to the user's camera adjustment state, and the geomagnetic sensor used as an embodiment of the present invention for obtaining the rotation angle information. 500 includes an X- and Y-axis fluxgates orthogonal to each other, and a geomagnetic detection module for detecting an electrical signal corresponding to the geomagnetism from each of the fluxgates and the X- and Y-axis fluxgates, respectively. A signal processor for converting and outputting an electrical signal into predetermined X and Y axis output values, and normalizing the X and Y axis output values to a predetermined range, respectively, and then rotating angles from the normalized output values. It is preferable to include a geomagnetic calculation unit for calculating.

한편, 지자기연산부는 신호처리부에서 출력된 실제 출력값을 소정 범위로 매핑시키는 정규화 과정을 수행하게 된다. 이를 위해, 지자기센서의 제조자는 사전에 수평상태에서 지자기센서를 적어도 1회 이상 회전을 시키면서 X축 및 Y축 플럭스게이트의 출력값을 측정한다. 측정이 완료되면, 측정된 출력값 중 최대값 및 최소값을 선택하여 메모리에 기록하게 된다.Meanwhile, the geomagnetic calculation unit performs a normalization process of mapping the actual output value output from the signal processor to a predetermined range. To this end, the manufacturer of the geomagnetic sensor measures the output values of the X- and Y-axis fluxgates by rotating the geomagnetic sensor at least once in a horizontal state in advance. When the measurement is completed, the maximum and minimum values of the measured output values are selected and recorded in the memory.

지자기연산부는 메모리에 기록된 최대값 및 최소값과, 신호검출부로부터 검출된 X축 및 Y축 출력값을 아래의 수학식에 대입하여 정규화를 수행하게 된다.The geomagnetic calculation unit performs normalization by substituting the maximum and minimum values recorded in the memory and the X and Y axis output values detected from the signal detection unit into the following equation.

수학식 1Equation 1

Figure pat00001

Figure pat00001

수학식1에서, X 및 Y는 각각 X축 및 Y축 플럭스게이트의 출력값, Xn 및 Yn는 각각 X 및 Y의 정규화값, Xmax 및 Xmin은 각각 X의 최대값 및 최소값, 그리고, Ymax 및 Ymin은 각각 Y의 최대값 및 최소값을 나타낸다. 지자기연산부는 기 측정되어 메모리에 기록된 Xmax, Xmin, Ymax 및 Ymin 를 수학식 1에 대입하여 Xbias, Xscale, Ybias, 및 Yscale를 연산한 후, 다시 이를 이용하여 Xn 및 Yn을 연산하게 된다.In Equation 1, X and Y are output values of the X and Y axis fluxgates, Xn and Yn are normalization values of X and Y, respectively, Xmax and Xmin are the maximum and minimum values of X, and Ymax and Ymin are respectively. Represent the maximum and minimum value of Y, respectively. The geomagnetic calculation unit calculates Xbias, Xscale, Ybias, and Yscale by substituting Xmax, Xmin, Ymax, and Ymin previously measured and recorded in the memory into Equation 1, and then calculates Xn and Yn using the same again.

지자기연산부에서 정규화처리된 X축 및 Y축 출력값 에 따르면, X축 출력값은 cos 함수그래프로 나타나고, Y축 출력값은 sin 함수그래프로 나타난다.
According to the X- and Y-axis output values normalized by the geomagnetic calculation unit, the X-axis output is represented by the cos function graph, and the Y-axis output value is represented by the sin function graph.

지자기연산부는 X축 및 Y축 출력값을 이용하여 회전각을 연산하게 된다. 즉, 회전각 ψ은 tan-1(Y축 출력값 / X축 출력값)으로 표시된다. 도 7에 따르면, Y축 출력값 / X축 출력값으로 표현되는 tan 함수그래프도 도시되고 있다.The geomagnetic calculation unit calculates the rotation angle by using the X-axis and Y-axis output values. That is, the rotation angle ψ is expressed as tan-1 (Y-axis output value / X-axis output value). According to Fig. 7, a tan function graph expressed as Y-axis output value / X-axis output value is also shown.

한편, tan-1함수값은 1사분면에서는 0°내지 90°범위값을 가지고, 2사분면 및 3사분면에서는 -90°내지 +90°범위값을 가지며, 4사분면에서는 -90°내지 0°범위값을 가지게 된다. 결과적으로, 0°내지 360°의 범위를 전부 표현하기 위하여, 지자기연산부는 다음과 같은 수식에 따라 회전각을 연산하게 된다.
On the other hand, the tan-1 function has a range of 0 ° to 90 ° in the first quadrant, -90 ° to + 90 ° in the second and third quadrants, and -90 ° to 0 ° in the fourth quadrant. Will have As a result, in order to fully express the range of 0 ° to 360 °, the geomagnetic calculation unit calculates the rotation angle according to the following equation.

수학식 2Equation 2

1 사분면 : 회전각 = tan-1(Y/X)Quadrant 1: Rotation Angle = tan-1 (Y / X)

2 사분면 및 3 사분면 : 회전각 = 180°+ tan-1(Y/X)2nd and 3rd quadrants: angle of rotation = 180 ° + tan-1 (Y / X)

4 사분면 : 회전각 = 360°+ tan-1(Y/X)4 quadrants: rotation angle = 360 ° + tan-1 (Y / X)

수학식 2에서 X 및 Y는 각각 X축 출력값 및 Y축 출력값을 표시한다.
In Equation 2, X and Y represent an X-axis output value and a Y-axis output value, respectively.

지자기연산부에서 연산된 회전각은 제어부로 입력된다. 제어부는 상술한 바와 같이 회전각에 대응되는 정보를 메인메모리로부터 추출한다.
The rotation angle calculated by the geomagnetic calculation unit is input to the controller. The controller extracts the information corresponding to the rotation angle from the main memory as described above.

한편, 본 발명의 또 다른 실시 예에 따르면, 지자기센서는 자기저항센서 (Magnetic Resistance sensor), 자기임피던스 센서(Magnetic Impedance sensor), 홀 센서(hall sensor) 등의 다양한 센서를 사용하여 회전정도를 측정할 수 있다.
On the other hand, according to another embodiment of the present invention, the geomagnetic sensor measures the degree of rotation using a variety of sensors, such as a magnetic resistance sensor (Magnetic Resistance sensor), magnetic impedance sensor (Magnetic Impedance sensor), Hall sensor (hall sensor), etc. can do.

상기 렌즈(610)는, 상기와 같은 목적을 달성하기 위하여, 본 발명은, 적어도 세 개 이상의 렌즈군들이 구비되고, 상기 렌즈 군들 중 적어도 하나의 렌즈군은 비구면 플라스틱 렌즈를 구비하는 것으로 할 수 있다. In order to achieve the above object, the lens 610 may include at least three or more lens groups, and at least one lens group of the lens groups may include an aspherical plastic lens. .

도 6는 본 발명의 바람직한 실시 예에 따른 렌즈 시스템을 개략적으로 도시하는 개념도이다.6 is a conceptual diagram schematically illustrating a lens system according to an exemplary embodiment of the present invention.

상기 렌즈 시스템에 외부의 광이 입사하는 방향으로부터, 정의 굴절력을 가진 제 1 렌즈군(611), 정의 굴절력을 가진 제 2 렌즈군(612) 및 부의 굴절력을 가진 제 3 렌즈군(613)인 것으로 할 수 있다.
The first lens group 611 having positive refractive power, the second lens group 612 having positive refractive power, and the third lens group 613 having negative refractive power from the direction in which external light enters the lens system. can do.

소형 카메라, 특히 소형 모바일폰 등의 휴대용 모바일 기기에 장착되는 카메라는 소형화에 중점을 두고 있다. 이때 상기 카메라의 소형화에 따라 상기 카메라에 구비되는 렌즈 시스템 역시 소형화될 수밖에 없으며, 상기 렌즈 시스템이 소형화됨에 따라 상기 렌즈 시스템에 입사하는 광의 입사각이 커질 수밖에 없다.Small cameras, especially cameras mounted on portable mobile devices such as small mobile phones, are focused on miniaturization. In this case, as the camera is miniaturized, the lens system included in the camera may also be miniaturized. As the lens system is miniaturized, the incident angle of light incident on the lens system may be increased.

도 7은 본 발명의 원리를 설명하기 위한 광 경로를 개략적으로 도시하는 개념도이다.
7 is a conceptual diagram schematically showing an optical path for explaining the principles of the present invention.

이때, 도 7에 도시된 바와 같이, 임의의 피사체(물체)로부터 렌즈 시스템에 입사하는 광은 원뿔과 유사한 형태인 라이트콘(light cone)의 형태로 입사되게 되며, 이 경우 상기 라이트 콘의 중심축 상의 광의 입사각 θ를 텔레센트릭 각도(615)라 한다. 상기 라이트 콘의 중심축 상의 광의 입사각, 즉 텔레센트릭 각도가 중요한 이유는, 렌즈 시스템에 입사되어 이미지를 결정하는 것은 상기 라이트 콘의 중심축(617) 상의 광이며, 상기 라이트 콘의 중심축 이외의 광은 상기 이미지의 휘도를 결정하는 역할만을 하기 때문이다.
At this time, as shown in Figure 7, the light incident on the lens system from any subject (object) is incident in the form of a light cone (light cone) similar to the cone, in this case the central axis of the light cone The incident angle θ of the light on the image is called the telecentric angle 615. The incidence angle of the light on the central axis of the light cone, i.e. the telecentric angle, is important, because it is the light on the central axis 617 of the light cone that is incident on the lens system and determines the image, other than the central axis of the light cone. This is because light only plays a role in determining the brightness of the image.

후술하는 바와 같이, 적외선 차단 필터에 입사하는 광의 텔레센트릭 각도의 크기에 따라 상기 적외선 차단 필터에 의해 차단되는 광의 파장이 달라지게 된다. 즉, 적외선 차단 필터에 입사하는 광의 텔레센트릭 각도가 커질수록 투과하는 영역이 짧아진다. 이는 적외선 차단 필터에 수직으로 입사하는 광은 적외선 영역만이 차단되고 가시광선 영역은 모두 투과되지만,As will be described later, the wavelength of the light blocked by the infrared cut filter varies according to the size of the telecentric angle of the light incident on the infrared cut filter. That is, the larger the telecentric angle of the light incident on the infrared cut filter, the shorter the transmitted region. This means that the light incident perpendicularly to the infrared cut-off filter is blocked only in the infrared region and transmitted in the visible region.

상기 적외선 차단 필터에 입사하는 광의 텔레센트릭 각도가 커질수록 적외선 영역 이외에 적색 부근의 영역도 차단된다는 것을 의미한다.
As the telecentric angle of the light incident on the infrared cut filter increases, it means that a region near red is blocked in addition to the infrared region.

따라서, 텔레센트릭 각도가 큰 입사광, 즉 상기 렌즈 시스템의 중심축 상에 위치하지 않은 피사체의 이미지는 중심축 상에 위치한 피사체의 이미지에 비해 적색 영역이 적은 것으로 나타나게 되어, 주변부의 이미지가 중심부의 이미지에 비해 청색을 띠게 된다. 그 결과, 중심축 상에 위치한 중심부의 이미지는 상대적으로 적색 계열로, 중심축 상에 위치하지 않은 주변부의 이미지는 상대적으로 청색 계열로 나타나, 이미지가 선명하지 않게 된다는 문제점이 발생하게 된다.
Therefore, the incident light having a large telecentric angle, that is, the image of the subject not located on the central axis of the lens system appears to have a smaller red area than the image of the subject located on the central axis. It is blue compared to the image. As a result, the image of the center located on the central axis is relatively red, and the image of the peripheral part not located on the central axis is relatively blue, resulting in a problem that the image is not clear.

즉, 상술한 바와 같이, 상기 적외선 차단 필터(120)에 입사하는 광의 텔레센트릭 각도(615)가 커짐에 따라 상술한 바와 같은 문제점이 발생하는 바, 따라서 상기 적외선 차단 필터에 입사하는 광의 텔레센트릭 각도가 작게 함으로써 상기와 같은 문제점을 방지할 수 있는 것이다. 적외선 차단 필터에 입사하는 광의 텔레센트릭 각도를 작게 하는 방법으로 렌즈 시스템과 촬상 소자 사이에 상기 적외선 차단 필터가 구비되도록 할 수 있으나, 이 경우에는 백 포컬 렝스가 커져 촬상 장치의 크기를 증가시키고, 또한 촬상 장치의 단가를 상승시킴으로써, 소형화 및 컴팩트화라는 현 추세에 부응하지 못한다는 문제점이 있었다.
That is, as described above, as the telecentric angle 615 of the light incident on the infrared cut filter 120 increases, the above-described problem occurs. Thus, the telesen of light incident on the infrared cut filter If the trick angle is small, the above problems can be prevented. The infrared blocking filter may be provided between the lens system and the imaging device by reducing the telecentric angle of the light incident on the infrared blocking filter, but in this case, the back focal length is increased to increase the size of the imaging device. In addition, there is a problem that by increasing the unit cost of the imaging device, it cannot meet the current trend of miniaturization and compactness.

따라서 도 1에 도시된 바와 같이, 상기 적외선 차단 필터(120)가 상기 제 1 렌즈군(611) 전면에 구비되도록 함으로써, 상기 피사체로부터의 광이 상기 제 1 렌즈군을 통과하면서 광 경로가 변경되고, 그 결과 상기 적외선 차단 필터에 입사할 때의 상기 광의 텔레센트릭 각도가 작아지게 하여, 상기 적외선 차단 필터를 상기 렌즈 시스템과 상기 촬상 소자 사이에 구비되도록 하는 경우의 문제점을 방지하면서도 상술한 바와 같은 이미지의 선명도 저하 현상을 방지할 수 있다. 이때 피사체로부터의 광이 상기 제 1 렌즈군을 통과하면서 광경로가 변경되고, 상기 적외선 차단 필터에 입사할 시의 텔레센트릭 각도가 작아지게 하기 위해서는, 상기 제 1 렌즈군이 정의 굴절력을 갖도록 하는 것이좋다.
Therefore, as shown in FIG. 1, the infrared cut filter 120 is disposed on the front surface of the first lens group 611, whereby the light path is changed while the light from the subject passes through the first lens group. As a result, the telecentric angle of the light at the time of entering the infrared cut filter is reduced, thereby preventing the problem of having the infrared cut filter provided between the lens system and the imaging device. The sharpness of the image can be prevented. At this time, the light path is changed while light from the subject passes through the first lens group, and the first lens group has a positive refractive power in order to reduce the telecentric angle when the light enters the infrared cut filter. I like it.

상기 렌즈부는 렌즈, 셔터를 포함하며, 조리개를 더 포함할 수 있다. 상기 렌즈는 전용 디지털 스틸 카메라에 통상적으로 구비되는 줌렌즈(zoom lens), 포커스 렌즈(focus lens) 등을 포함할 수 있다. 상기 셔터는 전자식 또는 기계식 셔터를 모두 포함할 수 있다. 본 발명에 따른 카메라는 전용 디지털 스틸 카메라와 같이 렌즈를 통해 입사되는 빛의 양을 조절하는 조리개를 더 포함할 수 있다. 또한, 상기 렌즈부는 상기 줌렌즈, 포커스 렌즈를 구동하기 위한 렌즈 구동회로와, 상기 셔터를 구동하기 위한 셔터 구동회로 및 상기 조리개를 구동하기 위한 조리개 구동회로를 포함할 수 있다.
The lens unit may include a lens and a shutter, and may further include an aperture. The lens may include a zoom lens, a focus lens, and the like, which are typically provided in a dedicated digital still camera. The shutter may include both an electronic or mechanical shutter. The camera according to the present invention may further include an aperture for adjusting the amount of light incident through the lens, such as a dedicated digital still camera. The lens unit may include a lens driving circuit for driving the zoom lens and a focus lens, a shutter driving circuit for driving the shutter, and an aperture driving circuit for driving the aperture.

본 발명의 일 실시형태에 따른 카메라는 주로 이동통신 단말기에 사용되므로 사용자의 휴대성을 개선하기 위해 상기 렌즈부는 단순하게 구현되는 것이 바람직하다. 즉 상기 줌렌즈, 줌렌즈 구동회로, 조리개 구동회로 등을 삭제하여, 카메라에서 줌기능을 제거하고 상기 조리개가 고정된 조리개 개폐량을 갖도록 할 수 있다. 조리개 개폐량이 고정된 조리개가 사용되는 경우, 셔터의 속도를 조절하여 입사되는 빛의 양을 조절할 수 있다. 하지만 필요에 따라서 상기 렌즈부를 디지털 스틸 비디오 카메라에 구비되는 통상의 렌즈부와 같이 줌렌즈, 포커스 렌즈 및 조리개와 그 구동회로를 모두 또는 선택적으로 포함시켜 구현할 수도 있다.
Since the camera according to the exemplary embodiment of the present invention is mainly used in a mobile communication terminal, it is preferable that the lens unit is simply implemented to improve the portability of the user. That is, the zoom lens, the zoom lens driving circuit, the aperture driving circuit, and the like may be deleted to remove the zoom function from the camera so that the aperture has a fixed aperture opening and closing amount. When the aperture with a fixed aperture opening and closing amount is used, the amount of incident light may be adjusted by adjusting the shutter speed. However, if necessary, the lens unit may be implemented by including all or selectively the zoom lens, the focus lens, the iris, and the driving circuit thereof, as in the conventional lens unit included in the digital still video camera.

상기 이미지센서(650)는, 상기 렌즈부를 통과한 피사체의 이미지(광신호)를 검출하여 촬상된 이미지를 담은 전기신호(촬상이미지신호)로 변환 출력한다. 가시광선 영역(약400~700nm)과 근적외선 영역(약 700~1000nm)으로 감광하는 이미지 센서를 구성하는 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal Oxide Semiconductor)센서로 구성된다. 상기 센서는 렌즈로부터 입력되는 광학상을 광전 변환함으로써 디지털 신호를 생성하여 출력한다.
The image sensor 650 detects an image (optical signal) of the subject passing through the lens unit and converts the converted image into an electrical signal (imaging image signal) containing the captured image. It consists of a Charge Coupled Device (CCD) or Complementary Metal Oxide Semiconductor (CMOS) sensor that forms an image sensor that is sensitive to the visible region (about 400 to 700 nm) and the near infrared region (about 700 to 1000 nm). The sensor generates and outputs a digital signal by photoelectric conversion of the optical image input from the lens.

상기 제어부(700)는, 상기 이미지 센서(650)에서 변환된 전기신호의 노이즈를 제거하고 이득을 조절하여 디지털 이미지 신호로 변환하는 이미지신호처리기(ISP:710); 및 상기 조도센서(300)에서 검출된 휘도값 및 색온도값에 따라 LED 조명장치(200)를 제어하여 상기 디지털이미지 신호의 밝기 및 화이트 밸런스를 조절하고, 상기 밝기 및 화이트 밸런스가 조절된 디지털 이미지 신호를 소정 표준에 따른 표준화상신호로 변환하며, 상기 표준화상신호를 저장하기 위해 압축하고, 압축된 표준화상신호를 표시할 수 있도록 복원하는 디지털신호처리기(DSP:750)를 포함할 수 있다.
The control unit 700 includes: an image signal processor (ISP: 710) for removing noise of the electrical signal converted by the image sensor 650 and controlling gain to convert the signal into a digital image signal; And controlling the LED lighting apparatus 200 according to the luminance value and the color temperature value detected by the illuminance sensor 300 to adjust the brightness and white balance of the digital image signal, and to adjust the brightness and white balance. It may include a digital signal processor (DSP: 750) for converting into a standardized image signal according to a predetermined standard, compressing to store the standardized image signal, and restoring the compressed standardized image signal to display the compressed standardized image signal.

도 8은 상기 제어부(700)의 개념도이다.
8 is a conceptual diagram of the control unit 700.

도 9은 상기 제어부의 일례를 보다 상세하게 도시한 구성도이다.
9 is a configuration diagram showing an example of the control unit in more detail.

상기 표시부(800)는, 상기 제어부를 에서 처리된 이미지를 시각적으로 표시하는 LCD부를 더 포함하는 것이 바람직하며, 이 실시형태에서 표시부는 상기 조도 센서에서 검출된 주위환경의 휘도값에 따라 상기 LCD부의 백라이트 밝기를 조정할 수 있다.
Preferably, the display unit 800 further includes an LCD unit for visually displaying an image processed by the control unit, and in this embodiment, the display unit is configured according to the luminance value of the surrounding environment detected by the illuminance sensor. Backlight brightness can be adjusted.

상기 데이터 처리부(900)는, The data processor 900,

영상획득부로부터 처리되어 획득된 영상과 출력정보를 이용하여 손떨림, 회전, 주위환경의 휘도값 변화 등으로 인한 왜곡된 영상을 홍채진단 및 인식에 적합한 영상으로 보정하는 것이 바람직하다.
It is preferable to correct the distorted image due to camera shake, rotation, change in luminance value of the surrounding environment, etc. by using the image and output information obtained from the image acquisition unit to an image suitable for iris diagnosis and recognition.

본 발명의 제 1 실시예에 따르면, 본 발명의 보상방법은, 촬상이미지를 소단위영역으로 분할하고 이들 소단위영역을 묶어 중앙영역과 에지영역으로 이루어지는 중단위영역으로 재규정하는 이미지영역분할단계(S101)와,상기 각 소단위영역마다 신호를 샘플링하는 데이터샘플링단계(S102)와, 샘플링된 신호를 밝기값,색상값과 샤프니스값으로 분리하는 단계(S103)와, 밝기값을 보상하는 밝기보상단계(S107)와 색상값을 보상하는 색상보상단계(S108)로 이루어진 데이터보상단계(S104)와, 상기 데이터보상단계를 거친 보상데이타의 샤프니스값을 보상하는 샤프니스보상단계(S105)와, 상기 샤프니스보상단계를 통해 보상된 밝기값과 색상값을 먹스하여 휴대폰의 액정장치로 전송하는 먹스단계(S106)로 이루어지는 것을 특징으로 한다.
According to the first embodiment of the present invention, in the compensation method of the present invention, an image area dividing step (S101) of dividing a captured image into sub-unit areas and re-defining these sub-unit areas to re-define them into a middle region consisting of a center area and an edge area (S101). And a data sampling step (S102) of sampling a signal for each sub-unit area, a step (S103) of dividing the sampled signal into brightness values, color values, and sharpness values, and a brightness compensation step (S107) for compensating the brightness values. ) And a color compensation step (S104) comprising a color compensation step (S108) for compensating the color value, a sharpness compensation step (S105) for compensating the sharpness value of the compensation data which has been subjected to the data compensation step, and the sharpness compensation step. It is characterized in that the mux step (S106) for transmitting to the liquid crystal device of the mobile phone by mux the brightness value and the color value compensated through.

본 발명의 제 2 실시예에 따르면, 본 발명의 보상방법은, 제 1 실시예에 있어서, 상기 밝기보상단계(S107)는 중앙영역의 신호를 평균하여 밝기평균값을 연산하는 밝기평균값연산단계(S121)와, 에지영역의 밝기값 Y(n)과 밝기평균값 Ya의 차이값을 연산하는 차이값 연산단계(S122)와, 상기 차이값이 커짐에 따라 밝기이득 Gy(n)을 줄여가는 밝기이득 결정단계(S123)와, 상기 차이값에 밝기이득 Gy(n)을 곱하여 밝기보상값 Yc(n)을 연산하는 보상값 연산단계(S124)로 구성되는 것을 특징으로 한다.
According to a second embodiment of the present invention, in the compensation method of the present invention, in the first embodiment, the brightness compensation step (S107) calculates the brightness average value by averaging the signal in the center area (S121). ), A difference value calculating step (S122) for calculating a difference value between the brightness value Y (n) and the brightness average value Ya of the edge region, and the brightness gain determination of decreasing the brightness gain Gy (n) as the difference value increases. Step S123 and a compensation value calculation step S124 for calculating the brightness compensation value Yc (n) by multiplying the difference value by the brightness gain Gy (n).

본 발명의 제 3 실시예에 따르면, 본 발명의 보상방법은, 제 1 실시예에 있어서, 상기 밝기보상단계는 중앙영역의 신호를 평균하여 밝기평균값Ya을 연산하는 평균값연산단계(S121)와, 에지영역의 밝기값Y(n)과 밝기평균값 Ya의 차이값을 연산하는 차이값 연산단계와, 상기 차이값이 커짐에 따라 밝기이득 Gy(n)을 증가하는 이득 결정단계와, 상기 밝기성분 Y(n)에 밝기이득 Gy(n)을 곱하여 밝기보상값 Yc(n)을 연산하는 보상값 연산단계로 구성되는 것을 특징으로 한다.
According to a third embodiment of the present invention, in the compensation method of the present invention, in the first embodiment, the brightness compensating step comprises: a mean value calculation step (S121) of calculating a brightness average value Ya by averaging a signal in a center region; A difference value calculating step of calculating a difference value between the brightness value Y (n) and the brightness average value Ya of the edge region; a gain determining step of increasing the brightness gain Gy (n) as the difference value increases, and the brightness component Y and a compensation value calculating step of calculating the brightness compensation value Yc (n) by multiplying (n) by the brightness gain Gy (n).

본 발명의 일제 4 실시예에 따르면, 본 발명의 보상방법은, 제 1 실시예 내지 제 2 실시예에 있어서, 상기 색상보상단계는 에지영역의 색상값 U(n),V(n)에 소정의 색상이득 Guv(n)을 곱하여 색상보상값을 연산하는 것을 특징으로 한다.
According to a fourth embodiment of the present invention, in the compensation method of the present invention, in the first to second embodiments, the color compensation step is predetermined to the color values U (n) and V (n) of the edge region. It is characterized by calculating the color compensation value by multiplying the color gain Guv (n) of.

본 발명의 제 5 실시예에 따르면, 본 발명의 보상방법은, 제 4 실시예에 있어서, 상기 샤프니스보상단계는 에지영역의 샤프니스값을 중앙영역의 소단위영역중 그 에지영역에 가장 근접한 것의 샤프니스값으로 대체하는 것을 특징으로 한다.
According to a fifth embodiment of the present invention, in the compensation method of the present invention, in the fourth embodiment, the sharpness compensation step includes: the sharpness value of the edge region closest to the edge region among the subunit regions of the center region; It is characterized by replacing with.

본 발명의 제 6 실시예에 따르면, 본 발명의 보상방법은, 제 5 실시예에 있어서,상기 이미지영역분할단계는 촬상이미지를 총 16개의 소단위 영역으로 분할하고 중앙의 4개의 소단위영역을 묶어 1개의 중앙영역으로 그리고 각 에지의 3개의 소단위영역을 묶어 4개의 에지영역으로 하는 중단위영역으로 재규정하는 것을 특징으로 한다.
According to a sixth embodiment of the present invention, in the compensation method of the present invention, in the fifth embodiment, the image area dividing step divides the captured image into a total of sixteen subunit areas and binds four central subunit areas to one. It is characterized in that the center region and the three sub-unit regions of each edge are redefined as a break-up region having four edge regions.

도 10은 본 발명의 일실시예에 따른 신호보상방법의 블록도이고,
10 is a block diagram of a signal compensation method according to an embodiment of the present invention;

도 11은 본 발명에 따른 신호보상을 위해 촬상된 이미지를 영역별로 분할규정한 화면의 일예이다.
11 is an example of a screen in which divisionally defined images captured for signal compensation according to the present invention are divided into regions.

본 발명의 신호보상방법은 이미지영역분할단계, 데이터샘플링단계, 데이터분리단계, 데이터보상단계와, 샤프니스보상단계, 데이터먹싱단계로 이루어진다.The signal compensation method of the present invention comprises an image region division step, a data sampling step, a data separation step, a data compensation step, a sharpness compensation step, and a data muxing step.

상기 이미지영역분할단계는 촬상된 이미지영역 R을 소단위영역(SR1,SR2,SR3,…,Sn)으로 분할하고 이들 소단위영역을 묶어 중앙영역 CR과 에지영역 ER로 이루어지는 중단위영역(MR)으로 재규정하는 단계이다. 이와 같이 이미지영역을 분할하는 것은 왜곡현상이 촬상이미지의 에지영역ER에서 집중적으로 발생하므로 왜곡현상이 적은 중앙영역의 데이터를 기준으로 에지영역의 데이터값을 보상하기 위함이다. 도 11에 도시된 바에 의하면, 이미지영역 R을 총 16개의 소단위영역 SR1,SR2,…,SR16으로 규정하고, 4개의 소단위영역 SR6,SR7,SR10,SR11을 묶어 중앙영역 CR으로 그리고 SR1, SR2, SR5를 에지영역 ER1로, SR3,SR4,SR8을 에지영역 ER2로, SR9,SR13,SR14를 에지영역 ER3로, SR12,SR15,SR16을 에지영역 ER4로 하는 에지영역으로 이루어진 중단위영역으로 분할규정한다.
The image region dividing step divides the captured image region R into sub-unit regions SR1, SR2, SR3, ..., Sn, grouping the sub-unit regions, and re-defines the sub-region region MR composed of the center region CR and the edge region ER. It is a deciding step. The division of the image area as described above is to compensate for the data value of the edge area based on the data of the center area with less distortion because the distortion phenomenon occurs intensively in the edge area ER of the captured image. As shown in Fig. 11, the image area R is made up of 16 sub-unit areas SR1, SR2,... , SR16, four sub-unit areas SR6, SR7, SR10, SR11 are grouped into a center area CR, SR1, SR2, SR5 as edge area ER1, SR3, SR4, SR8 as edge area ER2, SR9, SR13, The divisional regulation is made into an interruption area consisting of an edge area including SR14 as the edge area ER3 and SR12, SR15 and SR16 as the edge area ER4.

상기 데이터샘플링단계는 소정의 규칙에 따라 각 소단위영역마다 신호를 샘플링하는 단계이다.
The data sampling step is a step of sampling a signal for each subunit region according to a predetermined rule.

상기 데이터분리단계는 샘플링단계로부터 측정된 신호에서 소정의 프로그램을 이용해 밝기값 Y(n), 색상값 U(n),V(n), 샤프니스값S(n)을 분리하는 단계이다.
The data separation step is to separate brightness values Y (n), color values U (n), V (n), and sharpness values S (n) from a signal measured from the sampling step.

상기 데이터보상단계는 밝기보상단계와 색상보상단계로 이루어지며, 상기 밝기보상단계는 평균값연산단계, 차이값연산단계, 이득 결정단계와 보상값연산단계로 이루어진다.
The data compensation step includes a brightness compensation step and a color compensation step, and the brightness compensation step includes an average value calculation step, a difference value calculation step, a gain determination step and a compensation value calculation step.

도 12은 본 발명의 일실시예에 따른 데이타보상단계의 블록도이다, 12 is a block diagram of a data compensation step according to an embodiment of the present invention.

밝기보상단계(S121)에 대하여 설명하면, 상기 밝기평균값연산단계는 중앙영역의 밝기값 Y(n)의 밝기평균값 Ya을 연산하는 단계이다. 예컨대, 앞서 본 16개의 소단위영역으로 분할하는 경우에는, 소단위영역 SR6, SR7, SR10, SR11의 각각의 밝기값 Y(6),Y(7),Y(10),Y(11)을 구하고, 이들의 밝기평균값 Ya=(Y(6)+Y(7)+Y(10)+Y(11))/4 을 구한다.Referring to the brightness compensation step (S121), the brightness average value calculation step is to calculate the brightness average value Ya of the brightness value Y (n) of the central region. For example, in the case of dividing into 16 sub-unit areas, the brightness values Y (6), Y (7), Y (10), and Y (11) of the subunit areas SR6, SR7, SR10, and SR11 are obtained. These brightness average values Ya = (Y (6) + Y (7) + Y (10) + Y (11)) / 4 are obtained.

상기 차이값연산단계(S122)는 중앙영역의 상기 밝기평균값 Ya과 에지영역의 각각의 소단위영역의 밝기값 Y(n)의 차이값을 구하는 단계이다. 이와 같이 차이 값을 연산하는 것은 밝기성분을 보상하기 위한 이득을 결정하기 위함이다.
The difference value calculating step (S122) is a step of obtaining a difference value between the brightness average value Ya of the center region and the brightness value Y (n) of each subunit region of the edge region. The difference value is calculated in order to determine the gain for compensating the brightness component.

상기 이득결정단계(S123)는 여러가지 방식으로 구현될 수 있지만 기본적으로는 에지영역의 밝기값 Y(n)이 중앙영역의 밝기평균값 Ya보다 작다면 에지영역의 밝기값 Y(n)을 보상시 필연적으로 발생하는 노이즈 문제를 최소화시키는 범위내에서 밝기평균값 Ya에 근접하도록 이득을 결정하게 되는데, 앞서 본 밝기값을 보상하기 위하여 상기 차이값이 커질수록 밝기이득 Gy(n)을 줄여가는 방식으로 밝기이득을 결정할 수 있다. 차이값이 커질수록 밝기이득Gy(n)을 줄여가는 방식을 설명하면 다음과 같다.The gain determination step S123 may be implemented in various ways, but basically, if the brightness value Y (n) of the edge area is less than the brightness average value Ya of the center area, it is inevitable to compensate for the brightness value Y (n) of the edge area. The gain is determined to be close to the brightness average value Ya within the range of minimizing the noise problem, which is obtained by decreasing the brightness gain Gy (n) as the difference is larger. Can be determined. The method of reducing the brightness gain Gy (n) as the difference becomes larger is as follows.

Ya-Y(n)≥10 고 Ya-Y(n)〈20, Gy(n)= 2.2 (차이값이 10이상20미만인경우, 밝기이득:2.2)Ya-Y (n) ≥ 10 High Ya-Y (n) <20, Gy (n) = 2.2 (When the difference is more than 10 and less than 20, brightness gain: 2.2)

Ya-Y(n)≥20 고 Ya-Y(n)〈30, Gy(n)= 1.5 (차이값이 20이상30미만인경우, 밝기이득:1.5)Ya-Y (n) ≥20 High Ya-Y (n) <30, Gy (n) = 1.5 (If the difference is more than 20 and less than 30, brightness gain: 1.5)

Ya-Y(n)≥30 고 Ya-Y(n)〈40, Gy(n)= 1.1(차이값이 30이상40미만인경우, 밝기이득:1.1)Ya-Y (n) ≥ 30 High Ya-Y (n) <40, Gy (n) = 1.1 (When difference value is more than 30 and less than 40, brightness gain: 1.1)

Ya-Y(n)≥40 고 Ya-Y(n)〈50, Gy(n)= 0.9(차이값이 40이상50미만인경우, 밝기이득:0.9)Ya-Y (n) ≥ 40 High Ya-Y (n) <50, Gy (n) = 0.9 (When the difference is more than 40 and less than 50, brightness gain is 0.9)

상기 보상밝기값연산단계(S124)는 에지영역의 밝기값 Y(n)을 앞서 본 과정에 의해 결정된 이득으로 보상하는 단계인데,Compensation brightness value calculating step (S124) is a step of compensating the brightness value Y (n) of the edge region with the gain determined by the above process,

상기 차이값에 밝기이득 Gy(n)을 곱하여 보상밝기값 Yc(n)을 결정한다(Yc(n)=(Ya-Y(n))×Gy(n)).
The difference value is multiplied by the brightness gain Gy (n) to determine the compensation brightness value Yc (n) (Yc (n) = (Ya-Y (n)) × Gy (n)).

본 발명의 다른 실시예에 따르면, 상기 밝기이득 Gy(n)을 차이값이 커질수록 증가시키는 방식으로 결정할 수도 있는데, 이와 같은 방식을 취할 경우에는 보상밝기값을 차이값이 아니라 에지영역의 해당 밝기값 Y(n)에 밝기이득 Gy(n)을 직접 곱하여 보상한다(Yc(n)=Y(n)×Gy(n)).According to another embodiment of the present invention, the brightness gain Gy (n) may be determined by increasing the difference as the difference value increases. In this case, the compensation brightness value is not the difference value but the corresponding brightness of the edge region. The value Y (n) is compensated by directly multiplying the brightness gain Gy (n) (Yc (n) = Y (n) × Gy (n)).

상기 색상보상단계는 에지영역의 색상값 U(n), V(n)에 소정의 색상이득 Guv(n)을 곱하여 보상색상값 Uc(n),Vc(n)을 연산하는데 마이크로렌즈와 컬러 필터공정으로 야기되는 신호의 크로스 토크를 이득으로 보상하는 것이다.The color compensation step calculates the compensation color values Uc (n) and Vc (n) by multiplying the color values U (n) and V (n) of the edge area by a predetermined color gain Guv (n). The gain compensates for the crosstalk of the signal caused by the process.

상기 샤프니스보정단계는, 데이터보상단계를 거친 보상밝기값 Yc(n)과, 보상색상값 Uc(n),Vc(n)은 보상과 함께 노이즈도 함께 증가하게 되므로 이와 같은 노이즈에 대해서는 샤프니스보정을 행하게 된다. 샤프니스보정은 공지된 다양한 방식으로 구현될 수 있지만, 바람직하게는 에지영역의 소단위영역의 샤프니스값 S(n)을 해당 에지영역에 가장 가까운 중앙영역의 소단위영역의 샤프니스값으로 대체한다. 이미지영역을 16개로 분할하는 경우를 예를 들면, 에지영역 ER1의 소단위영역 SR1,SR2,SR5의 샤프니스값 S(1), S(2), S(5)을 중앙영역 CR의 소단위영역 SR6의 샤프니스값 S(6)값으로 대체하고, 에지영역 ER2의 소단위영역 SR3,SR4,SR8의 샤프니스값 S(3), S(4), S(8)을 중앙영역 CR의 소단위영역 SR7의 샤프니스값 S(7)값으로 대체하며, 에지영역 ER3의 소단위영역 SR9,SR13,SR14의 샤프니스값 S(9), S(13), S(14)을 중앙영역 CR의 소단위영역 SR10의 샤프니스값 S(10)값으로 대체하고, 에지영역 ER4의 소단위영역 SR12,SR15,SR16의 샤프니스값 S(12), S(15), S(16)을 중앙영역 CR의 소단위영역 SR11의 샤프니스값 S(11)값으로 대체한다.In the sharpness correction step, the compensation brightness values Yc (n) and the compensation color values Uc (n) and Vc (n) that have been subjected to the data compensation step are increased with the noise as well. Will be done. Sharpness correction can be implemented in a variety of known ways, but preferably replaces the sharpness value S (n) of the subunit area of the edge area with the sharpness value of the subunit area of the center area closest to the edge area. In the case of dividing the image area into 16, for example, the sharpness values S (1), S (2) and S (5) of the subunit areas SR1, SR2, SR5 of the edge area ER1 are divided into the subunit areas SR6 of the center area CR. The sharpness values S (3), S (4) and S (8) of the subunit areas SR3, SR4 and SR8 of the edge area ER2 are replaced with the sharpness values S (6) and the sharpness values of the subunit area SR7 of the center area CR. The sharpness values S (9), S (13) and S (14) of the subunit areas SR9, SR13, SR14 of the edge area ER3 are replaced by the S (7) value, and the sharpness values S (of the subunit area SR10 of the center area CR 10) and replace the sharpness values S (12), S (15) and S (16) of the subunit areas SR12, SR15 and SR16 of the edge area ER4 with the sharpness values S (11) of the subunit area SR11 of the center area CR. Replace with a value.

상기 먹스단계는 상기 샤프니스보상단계를 통해 보상된 보상밝기값과 보상색상값을 먹스(MUX)하여 휴대폰의 액정장치로로 전송하는 단계이다.
The MUX step MUX the compensation brightness value and the compensation color value compensated through the sharpness compensation step and transmit the MUX to the liquid crystal device of the mobile phone.

본 발명에 따른 오토 포커싱 방법은Auto focusing method according to the present invention

피사체의 거리를 이미지 자체만을 가지고 컴퓨터 분석을 통하여 결정한다. 카메라는 실제로 화면상에 표시된 피사체의 관심영역(양쪽 눈, 즉 양안)을 조준하여 내부에 위치시킬 피사체의 구도(직사각형 테두리)와 동일한 정보를 통해 . 즉, 카메라는 렌즈를 통해 결상된 상을 촬상 소자에 맺히도록 하고, 촬상 소자의 픽셀의 조각들을 보고 인접한 픽셀들 가운데 강도의 차이점을 본다. 만약 배경이 포커스에서 벗어나 있으면 픽셀들은 매우 비슷한 강도를 갖게 되고, 배경이 포커스에 일치하면 인접한 픽셀들 사이에서 강도의 차이가 크게 된다. 결국 오토 포커스는 인접한 픽셀들 사이에서 강도의 차이가 가장 많은 지점(렌즈의 위치)을 찾는 것이다.
The distance of the subject is determined by computer analysis using only the image itself. The camera uses the same information as the composition (rectangular border) of the subject to be positioned inside by aiming the area of interest (both eyes, or both eyes) of the subject displayed on the screen. That is, the camera causes an image formed through the lens to be formed on the image pickup device, and the pieces of pixels of the image pickup device are viewed to see differences in intensity among adjacent pixels. If the background is out of focus, the pixels will have very similar intensities, and if the background is in focus, the difference in intensity between adjacent pixels will be large. After all, autofocus is to find the point (lens position) with the largest difference in intensity between adjacent pixels.

오토포커스 카메라장치가 부착된 무선통신장치(휴대폰, 스마트폰, PDA등)의 터치스크린을 N개의 서브 화면으로 분할하고 분할한 서브 화면에 대한 화면상의 좌표 영역 정보(서브 화면 영역)와 이 서브 화면 영역에 대응된 측거 정보를 저장한 상태에서, 촬영자에 의한 촬영 모드 설정에 따라 초기 설정된 오토 포커스를 수행하여 피사체를 터치스크린 상에 표시하는 제1 단계, 양안과 얼굴이 조준되어 위치될 수 있도록 직사각형의 윈도우를 설정하여 표시하는 2단계(S131), 양안과 얼굴이 조준되어 직사각형 윈도우에 위치되었을 때 직사각형 부분의 화면상의 좌표를 산출하는 제3단계(S132), 상기 산출한 화면상의 좌표를 포함하는 상기 서브 화면 영역을 파악하는 제4 단계(S133), 및 상기 서브 화면 영역에 대응하는 상기 측정거리 정보에 따라 오토 포커스를 수행하는 제5 단계를 포함하는 미리 정해진 촬영거리내의 화면에 대한 오토 포커싱 위치 변경 방법을 제공한다.
On-screen coordinate area information (sub-screen area) of the sub-screen divided by N sub-screens of a wireless communication device (mobile phone, smart phone, PDA, etc.) equipped with an autofocus camera device, and this sub-screen The first step of displaying the subject on the touch screen by performing auto focus initially set according to the shooting mode setting by the photographer while storing the ranging information corresponding to the area, the rectangle so that both eyes and face can be aimed and positioned. A second step (S131) of setting and displaying a window of a second step; a third step (S132) of calculating an on-screen coordinate of the rectangular part when both eyes and a face are positioned in a rectangular window; A fourth step (S133) of identifying the sub screen area, and auto focus according to the measurement distance information corresponding to the sub screen area. Comprising a fifth step of performing provides a method for changing the auto focusing position on the screen in a predetermined focus distance.

도 13은 본 발명의 일 실시 예에 따른 서브 화면 영역에 대응하는 피사체까지의 측정거리 정보에 따라 오토 포커싱을 수행하는 단계별 순서를 보여주는 실시예도이다.
FIG. 13 is a diagram illustrating a step-by-step procedure of performing auto focusing based on measurement distance information to a subject corresponding to a sub screen area according to an exemplary embodiment.

상기 측정거리 정보는 상기 서브 화면의 중심 픽셀 좌표이며, 그에 따라 상기 제5 단계는 상기 서브 화면의 중심 픽셀을 기준으로 도 12와 같이 인접한 픽셀들 사이에서의 강도 차이를 측정하여 오토 포커싱을 수행하는 것이 바람직하다.
The measurement distance information is a center pixel coordinate of the sub screen, and according to the fifth step, autofocusing is performed by measuring an intensity difference between adjacent pixels as shown in FIG. 12 based on the center pixel of the sub screen. It is preferable.

오토포커스는 서브 화면의 중심 좌표에 대응하는 픽셀(이하, '중심셀'이라 함)을 기준으로 주변 픽셀들 간의 강도 차이를 측정하여 오포포커싱을 수행한다.
The autofocus measures the difference in intensity between neighboring pixels based on a pixel corresponding to the center coordinate of the sub-screen (hereinafter, referred to as a 'center cell') and performs the focusing.

도 14는 본 발명의 제1실시 예에 따른 움직이는 피사체에 대한 오토 포커싱 위치 변경 방법을 보인 순서도이다.
14 is a flowchart illustrating a method of changing an autofocusing position with respect to a moving subject according to a first embodiment of the present invention.

오토포커스 카메라장치가 촬영자에 의해 카메라 모드(즉, 촬영 모드)로 설정되면(S142), 제어 부는 렌즈부에 의해 결상된 피사체의 상을 터치스크린에 표시하고(S143) 측정거리부를 제어하여 설정된 기준에 따라 오토포커싱을 수행한다.When the autofocus camera device is set to the camera mode (ie, the shooting mode) by the photographer (S142), the control unit displays an image of the subject formed by the lens unit on the touch screen (S143) and controls the measurement distance unit. Perform autofocusing accordingly.

그러면 촬영자는 터치스크린을 통해 피사체의 상을 보고 카메라를 이리 저리 움직여 촬영하고자 하는 피사체 구도를 설정한다.Then, the photographer looks at the image of the subject through the touch screen and moves the camera around to set the composition of the subject to be photographed.

좌표 산출 부는 터치스크린에서 반응 신호가 발생한 부분의 좌표를 산출(S144)하여 제어부에 제공하고, 제어 부는 좌표 산출부에서 제공받은 좌표를 저장부에 저장된 서브 화면별 영역과 비교하여(S145) 촬영자가 미리 설정한 사각형 서브 화면을 판단한다.The coordinate calculation unit calculates the coordinates of the portion where the response signal is generated on the touch screen (S144) and provides the coordinates to the controller, and the controller compares the coordinates provided by the coordinate calculation unit with the sub-screen area stored in the storage unit (S145). The preset square subscreen is determined.

제어 부는 촬영자가 미리 설정한 피사체 구도 안에 들어오면, 이 서브 화면에 매칭 되어 저장된 측정거리이동정보를 저장부로부터 찾아 측정거리부에 제공하여 해당 서브 화면에 대응한 측정거리를 지시하고 그 응답으로 측정거리부로부터 측정 거리 값을 제공받는다.(S146)When the photographer enters the preset subject composition, the control unit searches the storage unit for the measured distance movement information stored in the sub-screen, which is matched with the sub-screen, and indicates the measurement distance corresponding to the sub-screen. The measured distance value is provided from the distance unit (S146).

제어 부는 해당 서브 화면에 대응한 측정 거리 값을 파악하면 측정 거리 값에 따른 오토 포커싱을 위해 오토 포커스부에 중심 픽셀 좌표를 제공하여 오토포커스의 수행을 지시한다. 이에 오토 포커스 부는 수신한 중심 픽셀 좌표에 해당하는 화면의 픽셀을 파악하고, 이 중심 픽셀 및 이의 주변 픽셀들 간의 신호 강도 차이를 확인한다.(S147) 그런 다음 오토 포커스 부는 렌즈구동부의 동작을 제어하고, 이에 렌즈 구동 부는 렌즈 부를 이루는 렌즈들을 이동시켜 픽셀들 간에 가장 큰 강도 차이를 보이는 지점을 찾는 오토포커스를 수행한다.(S148)When the controller detects the measured distance value corresponding to the corresponding sub-screen, the controller provides a center pixel coordinate to the auto focus unit for auto focusing according to the measured distance value to instruct the execution of autofocus. Accordingly, the autofocus unit detects pixels on the screen corresponding to the received center pixel coordinates and checks the difference in signal strength between the center pixel and its surrounding pixels. (S147) Then, the autofocus unit controls the operation of the lens driver. In response, the lens driving unit performs autofocus by moving the lenses forming the lens unit to find a point having the greatest intensity difference between pixels.

이러한 오토포커싱에 의해 렌즈부에 입사된 광은 해당 서브 화면의 측정거리 값에 따라 상이 결상되는데, 이때 결상된 상은 촬영자가 미리 설정한 서브 영역이 가장 선명하게 나타난다. 결국, 촬영자는 피사체가 관심영역이 가장 선명한 화상을 터치스크린을 통해 확인하고 촬영할 수 있게 된다.
The light incident on the lens unit by the auto focusing forms an image according to the measurement distance value of the corresponding sub-screen. In this case, the sub-region preset by the photographer appears most clearly. As a result, the photographer can check and capture an image in which the subject has the clearest region of interest through the touch screen.

상기와 같이 렌즈 왜곡에 의한 영상을 소프트웨어적으로 보정하는As described above, the software corrects the image caused by lens distortion.

방법은 다음과 같은 과정을 포함한다.The method includes the following steps.

3차원 공간상에 놓여 있는 평면상의 임의의 점을 X라고 하자. 카메라 회전이 없는 경우에 X는 이미지 상에 perspective 변환(transform)에 의해 다음과 같이 표현된다.Let X be any point on the plane lying in three-dimensional space. In the absence of camera rotation, X is represented by the perspective transform on the image as follows:

Figure pat00002
수학식 3
Figure pat00002
Equation 3

여기서, P는 perspective 변환 행렬(matrix)이며, 이제 카메라 회전 R을 고려하면 다음 수학식 21과 같이 바뀐다.Here, P is a perspective transformation matrix, and considering the camera rotation R, it is changed to the following equation (21).

Figure pat00003
수학식 4
Figure pat00003
Equation 4

그리고 수학식 3 및 4로부터And from equations 3 and 4

Figure pat00004
수학식 5
Figure pat00004
Equation 5

이 때 회전 행렬 R은 카메라 좌표계가 회전한 것으로 생각하여 다음과 같이 표현된다.
At this time, the rotation matrix R is assumed to be rotated by the camera coordinate system and is expressed as follows.

수학식 6
Equation 6

Figure pat00005
Figure pat00005

상기 수학식 6의 각도 값은 카메라 캘리브레이션을 통해 얻게 되는 카메라 회전량과 같으나 회전 방향은 반대를 가리키고 있다. 즉, 기준 좌표계는 평면상에 위치하고 있다고 생각한다. 실제 연산 과정에서 다루게 되는 것은 이미지 픽셀 좌표계이므로 수학식 5만으로 정사영상을 만들어 낼 수가 없다. 이것은 수학식 5에서 x에 PRP-1가 곱해지면서 x'의 세 번째 원소가 '1'이 아니기 때문이다. 즉, 수학식 5를 통해 호모지니어스(homogeneous) 좌표계로 표현된 것을 다시 이미지 좌표계로 표현해야 한다. 이것은 "A"로 나타낸 affine 변환을 통해 해결할 수 있다.
The angle value of Equation 6 is equal to the amount of camera rotation obtained through camera calibration, but the direction of rotation is opposite. In other words, it is assumed that the reference coordinate system is located on the plane. Since the actual operation process is an image pixel coordinate system, it is impossible to generate an orthoimage using Equation 5 only. This is because x in Equation 5 is multiplied by PRP-1, so the third element of x 'is not' 1 '. That is, the expression expressed in the homogeneous coordinate system through Equation 5 should be expressed in the image coordinate system again. This can be solved by the affine transform, denoted by "A".

호모지니어스(Homegeneous) 좌표계(S152)에서 이미지 픽셀 좌표계로 표현하기 위해서는 두 좌표계간의 스케일(scale)을 결정해야 하는데, 일차적으로는 이미지 크기에 대응하는 호모지니어스(homegeneous) 좌표값을 이용하여 변환 행렬을 구할 수 있다.
In order to express the image pixel coordinate system in the homegeneous coordinate system S152, a scale between two coordinate systems needs to be determined. The transform matrix is primarily formed by using a homegeneous coordinate value corresponding to the image size. You can get it.

Figure pat00006
수학식 7
Figure pat00006
Equation 7

이상의 결과를 정리하면, In summary,

Figure pat00007
수학식 8
Figure pat00007
Equation 8

정사영상(ortho-image)(S153)를 얻기 위해서는 정사영상의 픽셀 좌표 값으로부터 여기에 해당하는 perspective 이미지 (렌즈 왜곡된 카메라 영상)의 픽셀 좌표값에서의 그레이(gray)(혹은 컬러)값을 읽어오는 역공간 매핑(inverse spatial mapping)이 유리하므로 아래의 수학식 9을 공간 매핑 함수로 사용하도록 한다.
To obtain an ortho-image (S153), the gray (or color) value of the pixel coordinate value of the corresponding perspective image (lens distorted camera image) is read from the pixel coordinate value of the ortho image. Since inverse spatial mapping is advantageous, Equation 9 below is used as a spatial mapping function.

Figure pat00008
수학식 9
Figure pat00008
Equation 9

실제로 정사영상을 얻는 과정에서는 상기 수학식 9에 표현된 "A" 를 구하는 절차에서 어떤 지점에서의 네 점을 사용하느냐에 따라 최종 영상의 스케일을 결정하도록 한다. 즉, 도 15의 오른쪽에 나타낸 정사 영상의 네 모서리에 대응되는 a2, b2, c2, d2 점을 적당히 조절함으로써 스케일을 결정할 수 있고, 이 값을 이용하여 현재 카메라 이미지(perspective 이미지:S151)에서 어떤 영역을 왜곡 보정할 것인지를 결정하게 된다.In fact, in the process of obtaining the orthoimage, the scale of the final image is determined according to which point four points are used in the procedure of obtaining “A” represented by Equation (9). That is, the scale can be determined by appropriately adjusting the points a2, b2, c2, and d2 corresponding to the four corners of the orthogonal image shown on the right side of FIG. It is decided whether to correct the distortion.

도 15은 현재 카메라 이미지(perspective 이미지)에서 스케일에 따라 어떤 영역을 왜곡 보정할 것인지를 결정하는 과정을 도시한 것이다.
FIG. 15 illustrates a process of determining which region is to be distortion-corrected according to a scale in a current camera image (perspective image).

예를 들어, 도 15에서 a1, b1, c1, d1을 선택하는 경우에는 perspective 이미지(S151)의 내용 전체에 대해 왜곡 보정이 가능하지만 역공간 워핑(inverse spatial warping)과정에서 대응되는 영역이 없는 부분이 발생하게 된다
For example, in the case of selecting a1, b1, c1, and d1 in FIG. 15, distortion of the entire contents of the perspective image S151 may be corrected but there is no corresponding region in the inverse spatial warping process. Will cause this

이상에서 설명한 바와 같이, 본 발명은 디지털 카메라와 같이 렌즈 계를 채용한 영상 장비에서 렌즈 왜곡에 의해 발생하는 영상 품질의 저하를 소프트웨어적으로 보상하고, 이때의 결과 영상에 대해 정사영상을 생성하는 것으로서 렌즈계의 정보나 외부 장치에 의존하지 않으면서 영상만을 이용하여 자동으로 왜곡 보정을 실시할 수 있으므로 일반 디지털 카메라에서 제공되는 정지 영상뿐만 아니라 동일한 카메라로 촬영된 동영상에도 적용이 가능하다. 또한, 줌렌즈나 가변 초점 렌즈를 적용하는 경우에 각 렌즈 위치에 대한 렌즈 왜곡 변수를 캘리브레이션을 통해 구할 수 있고, 이 때 구해진 렌즈 왜곡 변수를 비휘발성 메모리나 룩업 테이블(Look-Up Table)에 저장하는 식으로 대처 가능하며 임의의 렌즈 위치에서 왜곡 변수는 이미 알려진 값의 보간(interpolation)을 통해 해결 가능하다.
As described above, the present invention is to compensate for the degradation of the image quality caused by lens distortion in the imaging equipment employing the lens system, such as a digital camera, and to generate an orthoimage for the resulting image Distortion correction can be performed automatically using only the image without depending on the lens system information or external device, so that it is applicable not only to still images provided by general digital cameras but also to videos captured by the same camera. In addition, in the case of applying a zoom lens or a varifocal lens, the lens distortion parameter for each lens position can be obtained through calibration, and the obtained lens distortion variable is stored in a nonvolatile memory or a look-up table. In this way, the distortion parameter at any lens position can be solved by interpolation of known values.

본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되지 않으며, 후술되는 특허청구의 범위 및 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.In the detailed description of the present invention, specific embodiments have been described, but various modifications may be made without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the following claims and their equivalents.

P: perspective 변환 행렬(matrix)
R: 카메라 회전행렬
A: affine 변환
P: perspective transformation matrix
R: camera rotation matrix
A: convert affine

Claims (16)

필요 목적에 따라 적외선 차단 밴드패스 필터로 부터 관심 영역(얼굴, 눈)에 관한 가시광선 범위의 휘도 분포에 따른 제1 영상을 획득 및 근 적외선 투과 밴드패스 필터(100)로부터 관심영역(얼굴, 눈)에 관한 그레이스케일에 따른 제2 영상을 각각 별도로 획득하는 영상 획득부와,

상기 영상획득부로부터 처리되어 획득된 영상과 출력정보를 이용하여 홍채진단 및 인식에 적합한 영상으로 보정하는 데이터 처리부(900)와,

상기 관심 영역으로부터의 주위 환경의 휘도값 및 색온도값을 검출하는 조도센서(300), 가속도와 중력등 충격을 감지하는 가속도 및 자이로센서(400), 회전정보를 감지하는 지자기센서(500) 등을 포함하는 센서부와.

특정영역 가시광선을 투사하는 가시광선 LED(220)와 근적외선 영역의 광선을 투사하는 적외선 LED(210) 를 각각 포함하는 조명장치부(200)와.

세 개의 렌즈 군들을 구비하는 렌즈 및 저조도 이미지를 센서를 포함하는 카메라부와,

렌즈 앞에서 수동방식의 좌우 슬라이딩 개폐식으로 배열되는 근적외선 투과 필터(110)와 적외선 차단 필터(120)를 각각 포함하는 밴드패스필터부와,

센서의 출력 값에 따라 렌즈(610), 이미지 센서(650) 및 상기 LED 조명장치(200)를 제어하는 방법 및 모듈을 포함하는 제어부와,

영상획득부에서 획득한 영상 처리된 영상을 시각적으로 표시하는 LCD(800)부를 더 포함하는 것이 바람직하며, 조도 센서(300)에서 검출된 주위환경의 휘도값에 따라 상기 LCD부의 백라이트 밝기를 조정할 수 있으며, 실행 처리된 결과 영상을 동시에 하나의 화면에 제 1영상과 제 2영상을 동시에 표시하거나, 각각 별개로 표시 시키는 표시부(800)와,

피사체의 관심영역(양쪽 눈, 즉 양안)이 미리 설정한 피사체 구도(직사각형 테두리) 안에 들어오면, 이 서브 화면에 매칭 되어 저장된 측정거리 이동정보를 저장부로부터 찾아 거리측정부에 제공하여 해당 서브 화면에 대응한 측정 거리 값을 제공받아 최상의 초점을 찾기 위해 렌즈를 앞, 뒤로 움직이는 오토포커싱(S148) 방법과,

영상획득부로부터 처리되어 획득된 영상과 출력정보를 이용하여 손떨림, 회전, 주위환경의 휘도값 변화 등으로 인한 왜곡된 영상을 홍채진단 및 인식에 적합한 영상으로 보정하는 방법을 포함하는 데이터 처리부(900)와,

를 포함하는 것을 특징으로 하는 홍채진단 및 홍채인식용 영상처리 시스템
Acquire the first image according to the luminance distribution of the visible light range with respect to the region of interest (face, eyes) from the infrared cut-off bandpass filter and the region of interest (face, eyes) from the near infrared transmission bandpass filter 100 according to the necessary purpose. An image acquisition unit for separately acquiring a second image according to grayscale of

A data processor 900 for correcting an image suitable for iris diagnosis and recognition by using the image and output information processed and acquired from the image acquisition unit;

The illuminance sensor 300 for detecting the luminance value and the color temperature value of the surrounding environment from the region of interest, the acceleration and gyro sensor 400 for detecting impacts such as acceleration and gravity, the geomagnetic sensor 500 for detecting rotation information, and the like. Sensor unit to include.

And an illumination device unit 200 including a visible light LED 220 for projecting a specific region visible light and an infrared LED 210 for projecting light in a near infrared region.

A camera unit including a lens and a low light image sensor having three lens groups;

A band pass filter unit including a near-infrared transmission filter 110 and an infrared cut-off filter 120 respectively arranged in a manual left and right sliding opening and closing manner in front of the lens;

A control unit including a lens 610, an image sensor 650, and a method and a module for controlling the LED lighting device 200 according to an output value of a sensor;

Preferably, the LCD may further include an LCD 800 that visually displays the processed image acquired by the image acquisition unit, and may adjust the backlight brightness of the LCD unit according to the luminance value of the surrounding environment detected by the illumination sensor 300. And, the display unit 800 to display the first image and the second image on the same screen at the same time, or to display the result processed separately, respectively,

If the area of interest (both eyes, or both eyes) of the subject falls within the preset subject composition (rectangular border), the measured distance movement information matched to this sub-screen is retrieved from the storage unit and provided to the distance measuring unit. Autofocusing (S148) method to move the lens forward and backward to find the best focus by receiving the measured distance value corresponding to

Data processing unit 900 including a method for correcting a distorted image due to camera shake, rotation, change of luminance value of surrounding environment, etc. by using image and output information acquired from image acquisition unit to image suitable for iris diagnosis and recognition )Wow,

Iris diagnosis and iris recognition image processing system comprising a
제 1항에 있어서,
밴드패스필터는 근적외선 영역의 빛은 투과시키고 가시광선 영역의 빛은 차단시키는 필터와 이와 반대로 가시광선 영역은 투과 시키고 적외선 영역의 빛은 차단시키는 필터가 함께 좌우로 구성되어 있다. 상기 필터는 글래스 또는 필름 표면에 코팅되어 사용 될 수 있는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 1,
The band pass filter is composed of a filter which transmits light in the near infrared region and blocks light in the visible region, and a filter which transmits the visible region and blocks the light in the infrared region. The iris diagnosis and iris recognition wireless mobile communication terminal image processing system, characterized in that the filter can be used coated on the glass or film surface
제 1항에 있어서,
밴드패스필터부는 카메라 안착부의 외측 중심으로 돌출된 개폐스위치(150)를 우측으로 밀면 덮개가 우측으로 슬라이딩되어 카메라 안착부가 근적외선 투과 필터(110)로 완전히 덮여지게 되고, 개폐스위치(150)를 좌측으로 밀면 덮개는 좌측으로 슬라이딩되어 카메라 안착부가 적외선 차단필터(120)로 완전히 덮여지게 되고, 무선통신단말기와 일체형 또는 분리형으로 구성 될 수 있는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 1,
When the band pass filter part pushes the opening / closing switch 150 protruding to the outside center of the camera seating part to the right side, the cover slides to the right side so that the camera seating part is completely covered with the near infrared transmission filter 110, and the opening and closing switch 150 is turned to the left side. The sliding cover is slid to the left so that the camera seat is completely covered with the infrared cut filter 120, the iris diagnosis and the iris recognition wireless mobile terminal image processing, characterized in that it can be configured integrally or separately with the wireless communication terminal. system
제 1항에 있어서,
조명장치부는 상기 필터의 선택여부에 따라 특정영역 가시광선을 투사하는 가시광선 LED는 렌즈의 상단 방향에 위치하고, 근적외선 영역의 광선을 투사하는 적외선 LED는 렌즈의 하단방향에 위치하데, 정중앙 또는 좌우로 구성되어 구비하며, LED 조명장치의 전원은 무선통신단말기의 전원으로부터 공급 받지 않고, 독립적으로 배터리가 부착되어 전원을 공급 받을 수 있고 분리형으로 구성 될 수 있는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 1,
The illumination unit is located in the upper direction of the lens of the visible light LED projecting the visible light in a specific region according to the filter selection, the infrared LED projecting the light of the near infrared region is located in the lower direction of the lens. The iris diagnosis and iris recognition wireless, characterized in that the power supply of the LED lighting device is not supplied from the power of the wireless communication terminal, the battery can be independently attached to the power supply and can be configured separately. Mobile communication terminal image processing system
제 1항에 있어서,
센서부의 조도센서는 촬상환경의 가시광선을 검출하는 가시광선 검출기(310)와, 촬상환경의 적외선을 검출하는 적외선 검출기(320)와, 상기 검출된 촬상환경의 가시광선 및 적외선을 통합 분석하여 촬상환경의 밝기와 색온도를 정확한 물리량으로 변환 출력하는 변환기(330)를 포함하여 구성 될 수 있는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 1,
The illuminance sensor of the sensor unit includes a visible light detector 310 for detecting visible light in an imaging environment, an infrared detector 320 for detecting infrared light in an imaging environment, and an integrated analysis of visible light and infrared light in the detected imaging environment. Iris diagnosis and iris recognition wireless mobile terminal image processing system, characterized in that it can be configured to include a converter 330 for converting the output of the brightness and color temperature of the environment to the correct physical quantity
제 1항에 있어서,
센서부의 가속도 센서는 피사체 관심영역 영상이 촬상 면으로 유입되는 노광 중의 흔들림을 감지하고 계산하여, 계산된 흔들림과 사전에 설정된 보정의 한계를 상호 비교하여, 보정의 한계를 벗어나는 과도한 각도를 계산하고,
자이로 센서(400)를 통하여 각속도를 산출하여 흔들림과 사전에 설정된 보정한계를 양적으로 비교하여 과도한 흔들림을 포착하는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 1,
The acceleration sensor of the sensor unit detects and calculates a shake during exposure in which an image of the subject region of interest enters the imaging plane, compares the calculated shake with a preset correction limit, and calculates an excessive angle outside the correction limit.
An iris diagnosis and iris recognition wireless mobile communication terminal image processing system, characterized in that the gyro sensor 400 calculates the angular velocity and quantitatively compares the shake with a preset correction limit to capture excessive shake.
제 1항에 있어서,
센서부의 지자기센서는 상호 직교하는 X축 및 Y축 플럭스게이트를 구비하며, 각 플럭스게이트로부터 지자기에 대응되는 전기적인 신호를 각각 검출하는 지자기검출모듈, 상기 X축 및 Y축 플럭스게이트로부터 각각 검출된 전기적인 신호를 소정의 X축 및 Y축 출력값으로 변환하여 출력하는 신호처리부, 및 상기 X축 및 Y축 출력값을 각각 소정 범위의 값으로 정규화(normalizing)한 후, 정규화된 출력 값으로부터 회전각을 연산하는 지자기 연산부를 포함하는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 1,
The geomagnetic sensor of the sensor unit includes an X-axis and a Y-axis fluxgate which are orthogonal to each other, and a geomagnetic detection module for detecting an electrical signal corresponding to the geomagnetism from each of the fluxgates, and the X- and Y-axis fluxgates respectively detected. A signal processor for converting and outputting an electrical signal into predetermined X and Y axis output values, and normalizing the X and Y axis output values to a predetermined range, respectively, and then rotating angles from the normalized output values. Iris diagnosis and iris recognition wireless mobile communication terminal image processing system comprising a geomagnetic calculation unit for calculating
제 1항에 있어서,
카메라부의 렌즈는 외부의 광이 입사하는 방향으로부터, 정의 굴절력을 가진 제 1 렌즈군(611), 정의 굴절력을 가진 제 2 렌즈군(612) 및 부의 굴절력을 가진 제 3 렌즈군(613)인 것으로 구성되며, 줌렌즈, 포커스렌즈, 조리개를 포함할 수 있는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 1,
The lens of the camera unit is a first lens group 611 having positive refractive power, a second lens group 612 having positive refractive power, and a third lens group 613 having negative refractive power from a direction in which external light is incident. An iris diagnosis and iris recognition wireless mobile terminal image processing system, comprising: a zoom lens, a focus lens, and an aperture
제 1항에 있어서,
적외선 차단 필터(120)가 상기 제 1 렌즈군(611) 전면에 구비되도록 함으로써, 상기 피사체로부터의 광이 상기 제 1 렌즈군을 통과하면서 광 경로가 변경되고, 그 결과 상기 적외선 차단 필터에 입사할 때의 상기 광의 텔레센트릭 각도가 작아지게 하여, 이미지의 선명도 저하 현상을 방지할 수 있는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 1,
By providing an infrared cut filter 120 on the front surface of the first lens group 611, the light path is changed while the light from the subject passes through the first lens group, and as a result it is incident on the infrared cut filter. Iris diagnosis and iris recognition wireless mobile communication terminal image processing system, characterized in that the telecentric angle of the light at the time can be made small, thereby preventing the sharpness of the image.
제 1항에 있어서,
카메라부의 이미지센서(650)는, 저조도에서도 가시광선 영역
(약400~700nm)과 근적외선 영역(약 700~1000nm)으로 감광하는 이미지
센서를 구성하는 CCD(Charge Coupled Device) 또는 CMOS (Complementary Metal Oxide Semiconductor) 센서로 구성되는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 1,
The image sensor 650 of the camera unit has a visible light range even in low light.
(Images about 400 to 700 nm) and near-infrared (about 700 to 1000 nm)
Iris diagnosis and iris recognition wireless mobile communication terminal image processing system, characterized in that composed of a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) sensor
제 1항에 있어서,
제어부(700)는, 상기 이미지 센서(650)에서 변환된 전기신호의 노이즈를 제거하고 이득을 조절하여 디지털 이미지 신호로 변환하는 이미지신호처리기(ISP:710) 및 상기 조도센서(300)에서 검출된 휘도값에 따라 LED 조명장치(200)를 제어하여 상기 디지털이미지 신호의 밝기 및 화이트 밸런스를 조절하고, 상기 밝기 및 화이트 밸런스가 조절된 디지털 이미지 신호를 소정 표준에 따른 표준화상신호로 변환하며, 상기 표준화상신호를 저장하기 위해 압축하고, 압축된 표준화상신호를 표시할 수 있도록 복원하는 디지털신호처리기(DSP:750)를 포함할 수 있는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 1,
The control unit 700 removes noise of the electrical signal converted by the image sensor 650, and adjusts the gain to convert the image signal processor (ISP: 710) and the detected by the illumination sensor 300 The LED lighting apparatus 200 is controlled according to a luminance value to adjust the brightness and white balance of the digital image signal, and convert the digital image signal having the brightness and white balance adjusted to a standardized image signal according to a predetermined standard. Iris diagnosis and iris recognition wireless mobile terminal image, characterized in that it may include a digital signal processor (DSP: 750) for compressing to store the standardized image signal, and restores to display the compressed standardized image signal Processing system
제 1항에 있어서,
데이터 처리부의 신호보상방법은 이미지영역분할단계, 데이터샘플링단계, 데이터분리단계, 데이터보상단계와, 샤프니스보상단계, 데이터먹싱단계로 이루어지는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 1,
The signal processing method of the data processing unit includes an image region division step, a data sampling step, a data separation step, a data compensation step, a sharpness compensation step, and a data muxing step. system
제 12항에 있어서,
이미지영역분할단계는 촬상된 이미지영역 R을 소단위영역(SR1,SR2,SR3,…,Sn)으로 분할하고 이들 소단위영역을 묶어 중앙영역 CR과 에지영역 ER로 이루어지는 중단위영역(MR)으로 재규정하는 단계이다. 이와 같이 이미지영역을 분할하는 것은 왜곡현상이 촬상이미지의 에지영역ER에서 집중적으로 발생하므로 왜곡현상이 적은 중앙영역의 데이터를 기준으로 에지영역의 데이터값을 보상하기 위함이다. 도 11에 도시된 바에 의하면, 이미지영역 R을 총 16개의 소단위영역 SR1,SR2,…,SR16으로 규정하고, 4개의 소단위영역 SR6,SR7,SR10,SR11을 묶어 중앙영역 CR으로 그리고 SR1, SR2, SR5를 에지영역 ER1로, SR3,SR4,SR8을 에지영역 ER2로, SR9,SR13,SR14를 에지영역 ER3로, SR12,SR15,SR16을 에지영역 ER4로 하는 에지영역으로 이루어진 중단위영역으로 분할규정하는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 12,
The image region dividing step divides the captured image region R into sub-unit regions SR1, SR2, SR3, ..., Sn and re-defines the sub-unit regions into a midpoint region MR consisting of the center region CR and the edge region ER. Step. The division of the image area as described above is to compensate for the data value of the edge area based on the data of the center area with less distortion because the distortion phenomenon occurs intensively in the edge area ER of the captured image. As shown in Fig. 11, the image area R is made up of 16 sub-unit areas SR1, SR2,... , SR16, four sub-unit areas SR6, SR7, SR10, SR11 are grouped into a center area CR, SR1, SR2, SR5 as edge area ER1, SR3, SR4, SR8 as edge area ER2, SR9, SR13, An image processing system for iris diagnosis and iris recognition, characterized in that SR14 is divided into an interruption area consisting of an edge area having an edge area ER3 and SR12, SR15, SR16 being an edge area ER4.
제 12항에 있어서,
데이터보상단계는 밝기보상단계와 색상보상단계로 이루어지며, 상기 밝기보상단계는 평균값연산단계, 차이값연산단계, 이득 결정단계와 보상값연산단계로 이루어지는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 12,
The data compensation step includes a brightness compensation step and a color compensation step, and the brightness compensation step includes an average value calculation step, a difference value calculation step, a gain determination step and a compensation value calculation step. Mobile communication terminal image processing system
제 1항에 있어서,
오토포커싱방법은 오토포커스 카메라장치가 부착된 무선통신장치(휴대폰, 스마트폰, PDA등)의 터치스크린을 N개의 서브 화면으로 분할하고 분할한 서브 화면에 대한 화면상의 좌표 영역 정보(서브 화면 영역)와 이 서브 화면 영역에 대응된 측거 정보를 저장한 상태에서, 촬영자에 의한 촬영 모드 설정에 따라 초기 설정된 오토 포커스를 수행하여 피사체를 터치스크린 상에 표시하는 제1 단계, 양안과 얼굴이 조준되어 위치될 수 있도록 직사각형의 윈도우를 설정하여 표시하는 2단계(S131), 양안과 얼굴이 조준되어 직사각형 윈도우에 위치되었을 때 직사각형 부분의 화면상의 좌표를 산출하는 제3단계(S132), 상기 산출한 화면상의 좌표를 포함하는 상기 서브 화면 영역을 파악하는 제4 단계(S133), 및 상기 서브 화면 영역에 대응하는 상기 측정거리 정보에 따라 오토 포커스를 수행하는 제5 단계를 포함하는 미리 정해진 촬영거리내의 화면에 대한 오토 포커싱 위치 변경 방법을 제공하는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 1,
The auto focusing method divides the touch screen of a wireless communication device (mobile phone, smart phone, PDA, etc.) with an auto focus camera device into N sub-screens and coordinate area information on the screen for the sub-screens (sub-screen area). And a first step of displaying the subject on the touch screen by performing auto focus initially set according to the shooting mode setting by the photographer, while storing the ranging information corresponding to the sub-screen area. Step 2 (S131) of setting and displaying a rectangular window so as to be displayed, step 3 (S132) of calculating coordinates on the screen of the rectangular part when both eyes and faces are aimed and positioned in the rectangular window, and calculating the on-screen A fourth step (S133) of identifying the sub screen area including coordinates; and the measurement distance information corresponding to the sub screen area. The iris diagnosis and iris recognition wireless mobile communication terminal image processing system, comprising: providing an auto focusing position changing method for a screen within a predetermined shooting distance including a fifth step of performing auto focus;
제 1항에 있어서,
렌즈 왜곡에 의한 영상을 보정한 정사영상(ortho-image)(S153)를 얻기 위해서는 정사영상의 픽셀 좌표 값으로부터 여기에 해당하는 perspective 이미지 (렌즈 왜곡된 카메라 영상)의 픽셀 좌표값에서의 그레이(gray)(혹은 컬러)값을 읽어오는 역공간 매핑(inverse spatial mapping)을 사용하고, 정사 영상의 네 모서리에 대응되는 점을 적당히 조절함으로써 스케일을 결정하여 현재 카메라 이미지(perspective 이미지:S151)에서 어떤 영역을 왜곡 보정할 것인지를 결정하는 방법을 제공하는 것을 특징으로 하는 홍채진단 및 홍채인식용 무선 이동통신 단말기 영상처리 시스템
The method of claim 1,
In order to obtain an ortho-image (S153) correcting an image caused by lens distortion, the gray in the pixel coordinate value of the perspective image (lens distorted camera image) corresponding to the pixel coordinate value of the orthoimage is obtained. Inverse spatial mapping, which reads (or color) values, and scales by appropriately adjusting the points corresponding to the four corners of the orthoimage to determine which area in the current camera image (perspective image: S151). Iris diagnosis and iris recognition wireless mobile terminal image processing system, characterized in that it provides a method for determining whether to correct the distortion
KR1020100083729A 2010-08-28 2010-08-28 Method and apparatus for iris recognition and iridodiagnosi using wireless mobile communications device KR20120020024A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100083729A KR20120020024A (en) 2010-08-28 2010-08-28 Method and apparatus for iris recognition and iridodiagnosi using wireless mobile communications device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100083729A KR20120020024A (en) 2010-08-28 2010-08-28 Method and apparatus for iris recognition and iridodiagnosi using wireless mobile communications device

Publications (1)

Publication Number Publication Date
KR20120020024A true KR20120020024A (en) 2012-03-07

Family

ID=46128800

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100083729A KR20120020024A (en) 2010-08-28 2010-08-28 Method and apparatus for iris recognition and iridodiagnosi using wireless mobile communications device

Country Status (1)

Country Link
KR (1) KR20120020024A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013154273A1 (en) * 2012-04-13 2013-10-17 Choi Kyung Yong Iris recognition camera system for mobile use
KR20150005335A (en) * 2013-07-05 2015-01-14 엘지전자 주식회사 Image display device and operation method of the image display device
KR20150037628A (en) * 2013-09-30 2015-04-08 삼성전자주식회사 Biometric camera
KR20160033272A (en) 2014-09-17 2016-03-28 주식회사 이리언스 Display apparatus for inducing sight of user and portable terminal therewith
US9367739B2 (en) 2013-07-01 2016-06-14 Samsung Display Co., Ltd Method of operating an iris recognition portable device and iris recognition portable device
WO2016144019A1 (en) * 2015-03-06 2016-09-15 Samsung Electronics Co., Ltd. Method and device for irradiating light for photographing iris
WO2017119726A3 (en) * 2016-01-06 2018-08-02 엘지이노텍(주) Lens module and iris recognition camera module comprising same, and iris recognition camera system and terminal comprising same
WO2018151349A1 (en) * 2017-02-16 2018-08-23 엘지전자 주식회사 Mobile terminal
KR20200029677A (en) * 2018-09-10 2020-03-19 전자부품연구원 Fluorescence reader for measuring immunoassay strip
KR102243332B1 (en) * 2020-02-13 2021-04-22 학교법인 건국대학교 Apparatus for purpil inspection using mobile terminal
CN113505672A (en) * 2021-06-30 2021-10-15 上海聚虹光电科技有限公司 Iris acquisition device, iris acquisition method, electronic device, and readable medium

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9824272B2 (en) 2012-04-13 2017-11-21 Kyung Yong Choi Iris recognition camera system for mobile device
WO2013154273A1 (en) * 2012-04-13 2013-10-17 Choi Kyung Yong Iris recognition camera system for mobile use
US9367739B2 (en) 2013-07-01 2016-06-14 Samsung Display Co., Ltd Method of operating an iris recognition portable device and iris recognition portable device
KR20150005335A (en) * 2013-07-05 2015-01-14 엘지전자 주식회사 Image display device and operation method of the image display device
KR20150037628A (en) * 2013-09-30 2015-04-08 삼성전자주식회사 Biometric camera
KR20160033272A (en) 2014-09-17 2016-03-28 주식회사 이리언스 Display apparatus for inducing sight of user and portable terminal therewith
CN107533635A (en) * 2015-03-06 2018-01-02 三星电子株式会社 For irradiation light to shoot the method and apparatus of iris
KR20160108076A (en) * 2015-03-06 2016-09-19 삼성전자주식회사 Method for irradiating litght for capturing iris and device thereof
WO2016144019A1 (en) * 2015-03-06 2016-09-15 Samsung Electronics Co., Ltd. Method and device for irradiating light for photographing iris
US10318806B2 (en) 2015-03-06 2019-06-11 Samsung Electronics Co., Ltd. Method and device for irradiating light for photographing iris
WO2017119726A3 (en) * 2016-01-06 2018-08-02 엘지이노텍(주) Lens module and iris recognition camera module comprising same, and iris recognition camera system and terminal comprising same
US11151375B2 (en) 2016-01-06 2021-10-19 Lg Innotek Co., Ltd. Lens module and iris recognition camera module comprising same, and iris recognition camera system and terminal comprising same
WO2018151349A1 (en) * 2017-02-16 2018-08-23 엘지전자 주식회사 Mobile terminal
KR20200029677A (en) * 2018-09-10 2020-03-19 전자부품연구원 Fluorescence reader for measuring immunoassay strip
KR102243332B1 (en) * 2020-02-13 2021-04-22 학교법인 건국대학교 Apparatus for purpil inspection using mobile terminal
CN113505672A (en) * 2021-06-30 2021-10-15 上海聚虹光电科技有限公司 Iris acquisition device, iris acquisition method, electronic device, and readable medium
CN113505672B (en) * 2021-06-30 2024-03-12 上海聚虹光电科技有限公司 Iris acquisition device, iris acquisition method, electronic device, and readable medium

Similar Documents

Publication Publication Date Title
KR20120020024A (en) Method and apparatus for iris recognition and iridodiagnosi using wireless mobile communications device
KR102306272B1 (en) Dual camera-based imaging method, mobile terminal and storage medium
KR102306283B1 (en) Image processing method and device
KR102306304B1 (en) Dual camera-based imaging method and device and storage medium
US10009540B2 (en) Image processing device, image capturing device, and image processing method for setting a combination parameter for combining a plurality of image data
JP6065474B2 (en) Imaging control apparatus, imaging control method, and program
JP4305598B2 (en) Camera aperture control method and apparatus, and camera
US8395694B2 (en) Apparatus and method for blurring image background in digital image processing device
TWI462055B (en) Cfa image with synthetic panchromatic image
US7796177B2 (en) Digital camera and controlling method for digital camera
CN108028894B (en) Control system, imaging apparatus, and computer-readable medium
KR20090098197A (en) Digital photographing apparatus to control flash lighting, controlling method for the same, and recording medium which records the program for carrying the same method
US20140071318A1 (en) Imaging apparatus
JP2005130468A (en) Imaging apparatus and its control method
KR20120068655A (en) Method and camera device for capturing iris or subject of good quality with one bandpass filter passing both visible ray and near infra red ray
JP6119235B2 (en) Imaging control apparatus, imaging system, imaging control method, and program
JP4914418B2 (en) Outline emphasis control method and apparatus, and camera
JP4509081B2 (en) Digital camera and digital camera program
US10972660B2 (en) Imaging device and imaging method
JP6780389B2 (en) Imaging control device and imaging control method
CN111133378B (en) Image pickup apparatus, information acquisition method, and recording medium
US10554879B2 (en) Imaging device, imaging device control method, and interchangeable lens
KR20060047034A (en) Apparatus and mothod for exculding vignetting in digital camera
JP2000184382A (en) Digital still camera
KR101323739B1 (en) Digital photographing apparatus including electronic view finder

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application