KR101831247B1 - Apparatus for focus measurement in eye tracking system using multi layer perception - Google Patents
Apparatus for focus measurement in eye tracking system using multi layer perception Download PDFInfo
- Publication number
- KR101831247B1 KR101831247B1 KR1020120010049A KR20120010049A KR101831247B1 KR 101831247 B1 KR101831247 B1 KR 101831247B1 KR 1020120010049 A KR1020120010049 A KR 1020120010049A KR 20120010049 A KR20120010049 A KR 20120010049A KR 101831247 B1 KR101831247 B1 KR 101831247B1
- Authority
- KR
- South Korea
- Prior art keywords
- focus
- value
- input image
- mask
- image
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Studio Devices (AREA)
Abstract
원거리 시선 추적 카메라의 초점 측정 장치가 제공된다. 이 장치는 협각카메라를 이용하여 눈의 영상을 취득하는 영상취득부, 상기 취득한 눈의 영상을 다운 샘플링(down sampling)하여 입력 영상을 생성하는 입력영상생성부, 상기 입력 영상의 평균 그레이 레벨을 학습데이터의 평균 그레이 레벨로 보정하는 밝기보정부, 상기 보정된 입력 영상을 더그만 마스크를 이용하는 초점 측정 방법, 강의 마스크를 이용하는 초점 측정 방법, 하르 웨이블릿 변환 방법, 및 다우비시 웨이블릿 변환 방법을 각각 사용하여 네 개의 초점 값들을 측정하는 초점측정부, 상기 측정된 네 개의 초점값들을 각각 0 내지 1 사이의 값으로 비선형 정규화하는 정규화부, 상기 정규화된 네 개의 초점 값들을 시그모이드 커널함수를 사용하는 다층 신경망을 통해 하나의 최종 초점 값으로 합산하는 초점값합산부, 및 상기 최종 초점 값을 이용하여 초점 렌즈를 제어하는 렌즈제어부를 포함하며, 상기 하르 웨이블릿 변환 방법 및 다우비시 웨이블릿 변환 방법은 각각 네 단계 스케일로 초점 값을 계산하고 상기 네 단계 스케일 각각에서 고 대역 값을 저 대역 값으로 나눈 비를 소정의 가중치를 사용하여 합하여 초점 값을 측정한다. 본 발명에 따르면, 보다 정확한 초점값을 갖는 위치로 초점 렌즈를 이동시킬 수 있다.A focus measuring device for a long-distance line-of-sight camera is provided. The apparatus includes an image acquisition unit that acquires an image of an eye using a narrow angle camera, an input image generation unit that generates an input image by down sampling the acquired image of the eye, A brightness correction unit for correcting the corrected input image with an average gray level of data, a focus measurement method using a mask for further stopping the corrected input image, a focus measurement method using a steel mask, a Har wavel transform method, and a Daubish wavelet transformation method A normalizing unit for nonlinearly normalizing the measured four focus values to a value between 0 and 1, a normalizing unit for normalizing the four normalized focus values by using a sigmoid kernel function, A focus value summing unit for summing a single final focus value through a neural network, And a lens control unit for controlling the focus lens. The Harv wavelet transform method and the Daubish wavelet transform method each calculate a focus value in a four step scale, and calculate a focus value by dividing a high band value by a low band value Are summed with a predetermined weight to measure the focus value. According to the present invention, the focus lens can be moved to a position having a more accurate focus value.
Description
본 발명은 시선 추적 시스템에 관한 것으로서, 보다 자세하게는 카메라의 초점 측정에 관한 것이다.The present invention relates to a line-of-sight tracking system, and more particularly to a focus measurement of a camera.
초점 측정은 의학 영상, 사진, 패턴 인식, 시선 추적 등 영상 어플리케이션에서 광범위 하게 사용된다. 초점 측정 방법은 다양한 방법이 연구 되고 있는데 그 방법들은 크게 공간 영역 기반의 방법과 웨이블릿 영역 기반의 방법으로 나눌 수 있다. Focus measurement is widely used in imaging applications such as medical imaging, photography, pattern recognition, and eye tracking. Various methods of focus measurement have been studied. The methods can be broadly divided into a spatial domain based method and a wavelet domain based method.
공간 영역 기반의 방법은 마스크를 이용하여 고주파의 양을 계산하고, 계산된 고주파의 스코어 값을 통하여 비선형 스케일링을 하여 초점 값을 정의하는 방법이다. 웨이블릿 영역 기반의 방법은 웨이블릿 변환을 사용하여 입력 영상을 멀티 스케일의 서브 밴드로 필터링하고 저주파와 고주파의 비율로 초점 값을 정의하는 방법이다.The spatial domain based method is a method of calculating the amount of high frequency using a mask and nonlinear scaling based on the calculated high frequency score to define a focus value. The wavelet domain based method is a method of filtering the input image into multiscale subbands using wavelet transform and defining the focus value at the ratio of low frequency and high frequency.
공간 영역 기반의 방법은 간단한 계산을 통하여 고주파 성분을 정확히 측정할 수 있는 반면, 웨이블릿 영역 기반의 방법은 초점 값을 정확하게 측정할 수 있을 뿐만 아니라 밝기 변화에 의한 영향도 줄일 수 있다. 공간 영역 기반 방법과 웨이블릿 영역 기반 방법은 모두 좋은 장점을 가지고 있지만 몇 가지 요인에 의해 정확도가 떨어지는 한계가 있다.The spatial domain based method can accurately measure the high frequency components through simple calculation, while the wavelet domain based method can not only measure the focus value accurately but also reduce the influence of the brightness change. Both the spatial domain based method and the wavelet domain based method have good advantages, but there are limitations in accuracy due to several factors.
공간 영역 기반 방법에서의 정확도 감소 요인은, 밝기의 변화, 사용자의 움직임, 영상 내의 눈썹과 속눈썹에 의한 오차, 및 마스크의 제한 적인 필터 범위이다.The factors that reduce the accuracy in the spatial domain based method are the change in brightness, the movement of the user, the error due to eyebrows and eyelashes in the image, and the limited filter range of the mask.
웨이블릿 영역 기반 방법에서의 정확도 감소 요인은 사용자의 움직임, 영상 내의 눈썹과 속눈썹에 의한 오차, 조명의 밝기 이상(너무 밝은 경우, 너무 어두운 경우), 고주파 서브 밴드에 고주파 노이즈가 합성되는 경우이다.The factors that reduce the accuracy in the wavelet domain-based method are the user's motion, the error due to eyebrows and eyelashes in the image, the brightness abnormality of the illumination (too bright or too dark), and high-frequency noise synthesized in the high-frequency subband.
이와 같은 정확도 감소 요인에 의해 초점 값의 정확도가 감소한다. 따라서 공간 영역 및 웨이블릿 영역 기반의 방법을 적절히 결합한 새로운 방법을 이용하여 요소들에 의해 발생하는 정확도 감소를 극복하는 것이 요구된다.Such accuracy decreases the accuracy of the focus value. Therefore, it is required to overcome the reduction in the accuracy caused by the elements using a new method that combines the spatial and wavelet domain based methods properly.
본 발명에서는 다층 신경망을 이용하여 두 가지 방법을 결합하는 방법을 제안한다. In the present invention, a method of combining two methods using a multi-layer neural network is proposed.
본 발명의 기술적 과제는 카메라의 자동 초점 측정 방법 및 장치를 제안하는데 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus for measuring an auto-focus of a camera.
본 발명의 다른 기술적 과제는 초점값에 기반하여 정확하게 초점이 맞는 위치로 초점 렌즈를 움직일 수 있도록 하는 방법 및 장치를 제안하는 데 있다.It is another object of the present invention to provide a method and apparatus for moving a focus lens to a precisely focused position based on a focus value.
본 발명의 일 양태에 따르면, 원거리 시선 추적 카메라의 초점 측정 장치는 협각카메라를 이용하여 눈의 영상을 취득하는 영상취득부, 상기 취득한 눈의 영상을 다운 샘플링(down sampling)하여 입력 영상을 생성하는 입력영상생성부, 상기 입력 영상의 평균 그레이 레벨을 학습데이터의 평균 그레이 레벨로 보정하는 밝기보정부, 상기 보정된 입력 영상을 더그만(daugman) 마스크를 이용하는 초점 측정 방법, 강(Kang)의 마스크를 이용하는 초점 측정 방법, 하르(Haar) 웨이블릿 변환 방법, 및 다우비시(Daubechies) 웨이블릿 변환 방법을 각각 사용하여 네 개의 초점 값들을 측정하는 초점측정부, 상기 측정된 네 개의 초점값들을 각각 0 내지 1 사이의 값으로 비선형 정규화하는 정규화부, 상기 정규화된 네 개의 초점 값들을 Sigmoid 커널을 사용하는 다층 신경망을 통해 하나의 최종 초점 값으로 합산하는 초점값합산부 및 상기 최종 초점 값을 이용하여 초점 렌즈를 제어하는 렌즈제어부를 포함하며, 상기 하르 웨이블릿 변환 방법 및 다우비시 웨이블릿 변환 방법은 각각 네 단계 스케일로 초점 값을 계산하고 상기 네 단계 스케일 각각에서 고 대역 값을 저 대역 값으로 나눈 비를 소정의 가중치를 사용하여 합하여 초점 값을 측정한다.According to an aspect of the present invention, a focus measuring apparatus for a long-distance line-tracking camera includes an image acquiring unit for acquiring an image of an eye using a narrow-angle camera, a down-sampling unit for generating an input image by down- A brightness correction unit that corrects the average gray level of the input image to an average gray level of the learning data, a focus measurement method that uses the corrected input image with a daugman mask, a mask of Kang, A focus measuring unit for measuring four focus values using a Haar wavelet transform method and a Daubechies wavelet transform method respectively using the focus measurement method using the first focus value, the Haar wavelet transform method, and the Daubechies wavelet transform method, A normalization unit for non-linearly normalizing the values of the four normalized focus values, And a lens control unit for controlling the focus lens using the final focus value, wherein the Harv wavelet transform method and the Daubish wavelet transform method each calculate a focus value using a four step scale, And the ratio of the high band value divided by the low band value in each of the four step scales is summed by using a predetermined weight to measure the focus value.
본 발명에 따르면, 보다 정확한 초점값을 갖는 위치로 초점 렌즈를 이동시킬 수 있다.According to the present invention, the focus lens can be moved to a position having a more accurate focus value.
본 발명에 따르면, 공간 영역 기반의 영상에서 고주파수 요소들을 수집하는 능력과 웨이블릿 영역 기반의 영상의 밝기 변화의 영향을 줄이는 능력이 다층 신경망을 사용함으로써 조합될 수 있다.According to the present invention, the ability to collect high frequency components in an image based on a spatial domain and the ability to reduce the influence of a change in brightness of an image based on a wavelet domain can be combined by using a multi-layer neural network.
도 1은 본 발명에 따른 초점 측정 장치의 하드웨어 및 Z 거리 상에서의 사용자의 움직임 범위를 나타낸다.
도 2는 협각카메라에 취득된 영상의 일 예를 나타낸 것이다.
도 3은 본 발명에 따른 초점 측정 방법을 나타낸 흐름도이다.
도 4는 더그만의 마스크의 형태와 Z거리에 따른 성능을 나타낸다.
도 5는 강의 마스크와 Z거리에 따른 성능을 나타낸다.
도 6은 다우비시 웨이블릿 변환을 사용할 때, 두 데이터베이스에서 Z 거리에 따른 초점값을 나타낸 것이다.
도 7은 하르 웨이블릿 변환을 사용할 때, 두 데이터베이스에서 Z 거리에 따른 초점값을 나타낸 것이다.
도 8은 본 발명에 따라서, MLP에서 Linear 커널을 사용할 때, 두 데이터베이스에서 Z 거리에 따른 초점값을 나타낸 것이다.
도 9는 본 발명에 따라서, MLP에서 Sigmoid 커널을 사용할 때, 두 데이터베이스에서 Z 거리에 따른 초점값을 나타낸 것이다.
도 10은 본 발명에 따라서, MLP에서 Hyperbolic Tangent 커널을 사용할 때, 두 데이터베이스에서 Z 거리에 따른 초점값을 나타낸 것이다.
도 11은 본 발명에 따른 초점 측정 장치의 일 예를 나타낸 블록도이다.1 shows the hardware of the focus measuring apparatus according to the present invention and the range of motion of the user on the Z distance.
2 shows an example of an image acquired by the coarse camera.
3 is a flowchart illustrating a focus measurement method according to the present invention.
Fig. 4 shows the performance according to the shape of the mask and the Z distance.
Fig. 5 shows the performance according to the steel mask and Z distance.
FIG. 6 shows focus values according to Z distance in two databases when using Dow Corning wavelet transform.
FIG. 7 shows focus values according to Z distance in two databases when using Har wavel wavelet transformation.
8 shows focus values according to Z distance in two databases when using a linear kernel in the MLP, according to the present invention.
FIG. 9 shows focus values according to Z distance in two databases when using the Sigmoid kernel in the MLP, according to the present invention.
FIG. 10 shows focus values according to Z distance in two databases when a hyperbolic tangent kernel is used in MLP according to the present invention.
11 is a block diagram showing an example of a focus measuring apparatus according to the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 이하에서 개시되는 실시 예에 한정되지 않는다. 또한 도면에서 본 발명을 명확하게 개시하기 위해서 본 발명과 관계없는 부분은 생략하였으며, 도면에서 동일하거나 유사한 부호들은 동일하거나 유사한 구성요소들을 나타낸다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Also, in order to clearly illustrate the present invention in the drawings, portions not related to the present invention are omitted, and the same or similar reference numerals denote the same or similar components.
도 1은 본 발명에 따른 초점 측정 장치의 하드웨어 및 Z 거리 상에서의 사용자의 움직임 범위를 나타낸다.1 shows the hardware of the focus measuring apparatus according to the present invention and the range of motion of the user on the Z distance.
도 1을 참조하면, 하드웨어는 광각카메라, 협각카메라, 패닝/틸팅장치 그리고 네 모서리에 근적외선 조명이 부착된 모니터(예를 들어, IPTV)로 구성될 수 있으며, 상기 기술된 구성요소들은 모두 PC에 연결된다. 1, the hardware may comprise a wide angle camera, a coarse angle camera, a panning / tilting device, and a monitor (e.g., IPTV) with near infrared illumination at four corners, .
광각카메라는 얼굴검출과 검출된 얼굴에서의 눈 검출을 위한 것이다. 두 개의 카메라는 같은 축에 고정되어있다. The wide angle camera is for face detection and eye detection on the detected face. The two cameras are fixed on the same axis.
패닝/틸팅장치는 카메라 축을 조정하기 위한 것이다. The panning / tilting device is for adjusting the camera axis.
모니터의 네 개의 조명은 시선위치의 물체를 나타내고 시선위치를 계산하기 위해 각막 위에 반사광을 만든다.The four lights on the monitor represent the object at the line of sight and create reflected light on the cornea to calculate the line of sight.
협각카메라는 초점 측정을 위한 영상을 취득한다. 협각카메라와 사용자간의 Z-거리 상에서의 사용자의 움직임 범위를 알 수 있다.The coarse camera acquires the image for focus measurement. The range of movement of the user on the Z-distance between the coarse camera and the user can be known.
도 2는 협각카메라에 취득된 영상의 일 예를 나타낸 것이다.2 shows an example of an image acquired by the coarse camera.
도 2를 참조하면, 협각카메라에 의해 취득된 영상은 상기 도 2의 (a)와 같이1600*1200픽셀이다. 하지만, 웨이블릿 변환은 2의 배수에 기반한 정사각형 크기를 요구한다. 따라서 취득된 영상은 상기 도 2의 (b)와 같이 1024*1024픽셀의 크기로 다운 샘플링된다.Referring to FIG. 2, the image captured by the narrow-angle camera is 1600 * 1200 pixels as shown in FIG. 2 (a). However, the wavelet transform requires a square size based on a multiple of two. Thus, the acquired image is downsampled to a size of 1024 * 1024 pixels as shown in FIG. 2 (b).
도 3은 본 발명에 따른 초점 측정 방법을 나타낸 흐름도이다.3 is a flowchart illustrating a focus measurement method according to the present invention.
도 3을 참조하면, 상기 도 2와 같이 협각카메라에 의해 취득된 1600*1200 픽셀크기의 눈 영상은 1024*1024 픽셀크기로 다운 샘플링되어 입력 영상(Input Image)이 된다(S300).Referring to FIG. 3, a snow image having a size of 1600 * 1200 pixels acquired by a coarse camera as shown in FIG. 2 is downsampled to a size of 1024 * 1024 pixels to become an input image (S300).
상기 입력영상은 밝기 보정(brightness compensation)된다(S305). 일 예로,상기 입력 영상의 평균 그레이 레벨을 학습데이터의 평균 그레이 레벨로 보정한다.The input image is brightness compensated (S305). For example, the average gray level of the input image is corrected to the average gray level of the learning data.
밝기 보정된 입력 영상에 대하여 4가지 방법, 즉, 더그만(Daugman)의 마스크를 통한 공간 영역 기반 방법, 강(Kang)의 마스크를 통한 공간 영역 기반 방법, 다우비시(Daubechies) 웨이블릿 변환방법, 및 하르(Haar) 웨이블릿 변환 방법에 의하여 초점값이 각각 측정된다(S310). 시선 추적 장치의 카메라의 자동 초점을 위해 네 가지 방법(더그만의 마스크, 강의 마스크, 다우비시 웨이블릿 변환, 하르 웨이블릿 변환)을 이용하여 구한다. 이렇게 4가지 방법을 결합하여 사용하는 이유는 영상이 취득된 위치와 초점 위치의 차이를 정확히 추측하여 초점 측정의 정확도를 높이기 위해서이다. 따라서, 본 발명은 특히 원 거리 시선 추적 시스템에서 보다 정확하게 초점 렌즈를 제어하여 자동 초점의 성능을 향상 시킬 수 있다.There are four methods for the brightness-corrected input image: a spatial domain based method using a Daugman mask, a spatial domain based method using a mask of Kang, a Daubechies wavelet transform method, The focus values are measured by the Haar wavelet transform method (S310). For automatic focusing of the camera of the eye tracking device, it is obtained by using four methods (further mask, steel mask, Daubishi wavelet transformation, Hargh wavelet transformation). The reason for using these four methods in combination is to accurately estimate the difference between the acquired position and the focus position, thereby increasing the accuracy of the focus measurement. Therefore, the present invention can improve the performance of autofocus by controlling the focus lens more precisely, especially in the far-sight line tracking system.
공간 영역 기반 방법 중 더그만의 마스크는 높고 좁은 밴드 폭을 가지고 영상 내의 가장 고주파의 구성 요소를 취득할 수 있다. 강의 마스크는 중간과 높은 대역대의 밴드 폭을 가지고 있어서 영상 내의 가장 고주파 영역이 아닌 홍채 영역의 초점 값도 측정할 수 있다. 상기 두 가지 방법을 사용하여 각각 영상 내의 가장 고주파 영역과 홍채 영역의 초점 값을 측정할 수 있다.Of the spatial domain based methods, more masks can acquire the highest frequency component in the image with a high and narrow bandwidth. The steel mask has middle and high band widths so that the focus value of the iris region, which is not the highest frequency region in the image, can be measured. Using the above two methods, the highest frequency region in the image and the focus value of the iris region can be measured.
이와 같이 공간 영역 기반 방법은 고주파 부분의 값을 이용하여 초점 값을 계산하는 반면, 영역 기반의 방법은 고주파뿐만이 아니라 저주파의 구성 요소도 고려한다.In this way, the space-based method calculates the focus value using the value of the high-frequency portion, while the region-based method considers the low-frequency component as well as the high-frequency component.
웨이블릿 기반 방법 중에 다우비시 웨이블릿 변환 방법은 홍채 영역의 선탐색 후, 영상에 고역통과필터(High-pass-filter)를 단계적으로 중복 적용하여 초점 값을 계산한다. 만약, 다우비시 웨이블릿 변환 방법을 홍채 영역의 선탐색이 없이 사용할 경우, 초점이 맞은 영상, 초점이 안 맞은 영상 정도의 구분 밖에 할 수 없다. In the wavelet-based method, the Dovasi wavelet transform method calculates the focus value by applying a high-pass-filter to the image step by step after the search of the iris region. If the DWI wavelet transform method is used without the line search of the iris region, only the focused image and the unfocused image can be classified.
웨이블릿 기반 방법 중 하르 웨이블릿 변환 방법은 별도의 홍채 영역의 선탐색이 필요하지 않다. 하르 웨이블릿 변환의 경우 다우비시 웨이블릿 변환과 달리 전체영상에서 단계적으로 중복 적용하는 것이 아니라 짝수 요소(even element)와 그와 연속한 홀수 요소(odd element) 사이의 차이 값을 보여주고 한번 계산을 수행한 요소(element)의 경우 같은 단계에서 다시 사용하지 않는다. The wavelet transform method of the wavelet-based method does not require the line search of the iris region. In contrast to DWI wavelet transform, the wavelet transform of Harsh wavelet transform is not applied to the whole image step by step but it shows the difference value between even element and continuous odd element and performs calculation once For elements, do not use them again in the same step.
즉, 다우비시 웨이블릿 변환 방법은 ROI(Region of Interest)가 필요한 방법이며 필터를 단계적으로 중복 사용하는 방법인 반면, 하르 웨이블릿 변환 방법은 전체 영상을 사용하는 방법이며 필터를 단계별로 한번씩만 연산하는 방법인 점에서 서로 다른 특징을 가지고 있다. In other words, the DWI wavelet transform method requires a region of interest (ROI) method and the filter is used in a stepwise manner. On the other hand, the wavelet transform method is a method using the entire image, But they have different characteristics.
서로 다른 특징들을 가지고 있는 네 가지 방법에 의해 각각 측정된 초점값은 0 내지 1 사이 값으로 정규화된다(S315).The focus value measured by each of the four methods having different characteristics is normalized to a value between 0 and 1 (S315).
정규화된 네 개의 초점값은 미리 학습된(trained) 다층 신경망(Multi Layer Perception : MLP)에 입력되고, 최종 초점값을 출력한다(S320). 정규화된 값을 네 개의 입력으로 하는 MLP를 통하여 초점 위치와 영상 취득 위치의 차이를 계산하여 Z-거리를 추측한다. 다층 신경망을 이용하여 선형적인 Z-거리를 추정한 뒤, 상기 Z-거리를 기초로 시선 추적 장치의 카메라의 초점 렌즈를 제어할 수 있다. The four normalized focus values are input to a pre-trained Multi Layer Perception (MLP), and a final focus value is output (S320). The Z-distance is estimated by calculating the difference between the focal position and the image acquisition position through MLP using the normalized value as four inputs. After the linear Z-distance is estimated using the multilayer neural network, the focus lens of the camera of the gaze tracking device can be controlled based on the Z-distance.
일 예로, 다층 신경망은 초점이 맞는 위치로부터 각각 0, 5, 10, 및 20cm의 네 가지 거리에서 입력 영상을 분류할 수 있다. 다층 신경망의 테스트 과정의 출력에 따라, 초점렌즈가 앞뒤로 조정된다.For example, a multi-layer neural network can classify input images at four distances of 0, 5, 10, and 20 cm from the focused position, respectively. Depending on the output of the test procedure of the multilayer neural network, the focus lens is adjusted back and forth.
다층 신경망에 다양한 종류의 커널이 이용될 수 있다. 일 예로, 선형(Linear) 커널, 시그모이드(Sigmoid) 커널, 하이퍼볼릭 탄젠트(Hyperbolic tangent) 커널이 이용될 수 있다.Various types of kernels can be used for multilayer neural networks. For example, a linear kernel, a sigmoid kernel, and a hyperbolic tangent kernel may be used.
도 4는 더그만의 마스크의 형태와 Z거리에 따른 성능을 나타낸다. 상기 도 4의 (a)는 더그만의 마스크를 나타내며 (b)는 더그만의 마스크를 사용할 때, 두 데이터베이스에서 Z 거리에 따른 초점값을 나타낸 것이다.Fig. 4 shows the performance according to the shape of the mask and the Z distance. 4 (a) shows a more limited mask, and FIG. 4 (b) shows a focus value according to the Z distance in two databases when using a further mask.
도 4를 참조하면, 더그만의 마스크는 8*8 컨볼루션 커널(convolution kernel)로써, 2-D 퓨리에(fourier) 변환에서 "sinc"함수에 의해 다음 수학식과 같이 나타낼 수 있다.Referring to FIG. 4, the more masks can be represented by the "sinc" function in 2-D fourier transform as an 8 * 8 convolution kernel, as shown in the following equation.
여기서, ㅅ과 v는 공간 주파수이고, D는 더그만의 마스크이다. Here, v and v are spatial frequencies, and D is the more mask.
2-D 퓨리에 공간에서, 초점 단계는 공간영역의 고 주파수의 총합의 계산에 의해 측정된다. In 2-D fourier space, the focus step is measured by calculating the sum of high frequencies in the spatial domain.
0에서 1까지의 범위에서의 초점 값을 얻기 위해서, 다음 수학식과 같이 스펙트럼의 총 합이 비선형 정규화를 거친다.In order to obtain the focus value in the range from 0 to 1, the sum of spectrums is subjected to nonlinear normalization as shown in the following equation.
여기에서, x는 스펙트럼의 총 합을 나타내고, c는 오프셋 값이며 f(x)는 초점 값이다.Here, x represents the total sum of spectra, c represents an offset value, and f (x) represents a focus value.
도 5는 강의 마스크와 Z거리에 따른 성능을 나타낸다. 상기 도 5의 (a)는 강의 마스크를 나타내며 (b)는 강의 마스크를 사용할 때, 두 데이터베이스에서 Z 거리에 따른 초점값을 나타낸 것이다.Fig. 5 shows the performance according to the steel mask and Z distance. 5 (a) shows a steel mask, and FIG. 5 (b) shows a focus value according to Z distance in two databases when using a steel mask.
도 5를 참조하면, 강의 마스크는 5*5 컨볼루션 커널로, 2-D 퓨리에 변환에서 밴드 통과 필터로 다음 수학식과 같이 나타낼 수 있다.Referring to FIG. 5, a steel mask can be expressed by a 5 * 5 convolution kernel and a 2-D Fourier transform as a band pass filter as shown in the following equation.
여기에서, ㅅ와 v는 공간 주파수이고, K는 강의 마스크이다. 퓨리에 공간에서, 초점 단계는 중 주파수, 고 주파수에서의 스펙트럼의 합에 의해 계산된다. Where v and v are spatial frequencies and K is a steel mask. In the Fourier space, the focusing step is calculated by the sum of the spectra at the middle frequency and the high frequency.
스펙트럼의 총 합은 초점 값을 얻기 위해 상기 수학식 2와 같은 비선형 정규화를 거친다.The sum of the spectra is subjected to nonlinear normalization as in Equation (2) to obtain the focus value.
도 6은 다우비시 웨이블릿 변환을 사용할 때, 두 데이터베이스에서 Z 거리에 따른 초점값을 나타낸 것이다.FIG. 6 shows focus values according to Z distance in two databases when using Dow Corning wavelet transform.
도 6을 참조하면, 네 단계의 멀티 스케일 다우비시 웨이블릿 변환이 입력영상에 적용된 결과를 알 수 있다. 각각의 스케일에서 고 주파수 성분의 평균과 저 주파수 성분의 평균이 전체 HH 서브밴드 와 LL 서브밴드에 의해 각각 계산된다. 각 스케일의 초점 단계는 고 주파수 성분의 평균을 저 주파수 성분의 평균으로 나눈 비율로 다음 수학식과 같이 계산된다. Referring to FIG. 6, a result of applying the multiscale DWI wavelet transform of four stages to the input image can be known. The average of the high frequency components and the average of the low frequency components at each scale are calculated by the total HH and LL subbands, respectively. The focusing step of each scale is calculated by the following equation as the ratio of the average of the high frequency components divided by the average of the low frequency components.
여기에서 , 와 는 각각 고 주파수 성분의 평균과, 저 주파수 성분의 평균을 나타낸다. R은 하나의 스케일에서의 초점 단계를 정의하는 비율 이다. From here , Wow Represent the average of the high frequency components and the average of the low frequency components, respectively. R is the ratio defining the focus step in one scale.
전체의 변환된 영상의 초점 단계는 네 개의 스케일의 네 개의 비율의 가중치 합으로서 다음 수학식과 같다.The focus step of the entire transformed image is the weighted sum of the four ratios of the four scales, as shown in the following equation.
여기에서, f1은 변환된 영상 전체에서의 초점 단계이고, Wi 는 i번째 스케일의 가중치이며, 와 는 각각 i번째 스케일의 고주파 성분의 평균과 저주파 성분의 평균을 의미한다. Here, f 1 is the focus step in the entire transformed image, W i is the weight of the i-th scale, Wow Means an average of the high-frequency components of the i-th scale and an average of the low-frequency components of the i-th scale, respectively.
상기 가중치 값은 네 가지 특징을 공통된 분모로 해주기 위하여 통계적으로 구해진 값을 사용할 수 있다.The weight value can be a statistically derived value to make the four features common denominator.
상기 초점 단계는 다우비시 웨이블릿 변환에 초점 값을 얻기 위해 상기 수학식 와 같이 정규화된다.The focus step is normalized as in the above equation to obtain a focus value on the Daubish wavelet transform.
도 7은 하르 웨이블릿 변환을 사용할 때, 두 데이터베이스에서 Z 거리에 따른 초점값을 나타낸 것이다.FIG. 7 shows focus values according to Z distance in two databases when using Har wavel wavelet transformation.
도 7을 참조하면, 하르 웨이블릿 변환의 과정은 다우비시 웨이블릿 변환 과정과 동일하다. 첫째로, 입력 영상은 네 가지 스케일의 하르 웨이블릿 변환이 행해지고, 고주파 성분의 평균을 저주파 성분의 평균으로 나눈 비가 구해진다. 네 개의 비율을 가중치 합한 값을 전체 영상의 초점 단계로 정의한다. 초점 값은 초점 단계를 상기 수학식 2와 같이 비선형 정규화하여 최종적으로 계산된다. Referring to FIG. 7, the wavelet transform process is the same as the DWT wavelet transform process. First, the input image is subjected to wavelet transform of four scales, and a ratio obtained by dividing the average of the high frequency components by the average of the low frequency components is obtained. The weighted sum of the four ratios is defined as the focus step of the entire image. The focus value is finally calculated by nonlinearly normalizing the focus step as shown in Equation (2).
상기 도 4 내지 도 7의 더그만 마스크, 강 마스크, 다우비시 웨이블릿 변환 및 하르 웨이블릿 변환이 다층 신경망 학습의 네 가지의 입력이 된다.The more mask, the strong mask, the dowby wavelet transform, and the wavelet transform of FIG. 4 to FIG. 7 are the four inputs of the learning of the multilayer neural network.
다층 신경망 학습 과정에서는 여러 가지의 커널 함수들이 사용될 수 있는데, 일 예로, 선형(linear) 커널, 시그모이드(sigmoid) 커널 또는 하이퍼볼릭 탄젠트(hyperbolic tangent) 커널 중 하나의 커널 함수가 사용될 수 있다.In a multi-layer neural network learning process, various kernel functions can be used. For example, a kernel function of either a linear kernel, a sigmoid kernel or a hyperbolic tangent kernel can be used.
도 8은 본 발명에 따라서, MLP에서 선형 커널을 사용할 때, 두 데이터베이스에서 Z 거리에 따른 초점값을 나타낸 것이다. Figure 8 shows focus values according to Z distance in two databases when using a linear kernel in an MLP, in accordance with the present invention.
도 9는 본 발명에 따라서, MLP에서 시그모이드 커널을 사용할 때, 두 데이터베이스에서 Z 거리에 따른 초점값을 나타낸 것이다. 9 shows focus values according to Z distance in two databases when using the sigmoid kernel in the MLP according to the present invention.
도 10은 본 발명에 따라서, MLP에서 하이퍼볼릭 탄젠트 커널을 사용할 때, 두 데이터베이스에서 Z 거리에 따른 초점값을 나타낸 것이다. 10 shows focus values according to Z distances in two databases when using a hyperbolic tangent kernel in the MLP, according to the present invention.
상기 도 8 내지 도 10의 커널들 간의 기울기와 표준편차를 비교해보았을 때, 특히, 시그모이드 커널이 좋은 결과를 가지며, 다른 커널들도 양호한 결과를 가진다. When comparing the slope and the standard deviation between the kernels of FIGS. 8 to 10, the sigmoid kernel has a good result, and other kernels have good results.
도 11은 본 발명에 따른 초점 측정 장치의 일 예를 나타낸 블록도이다.11 is a block diagram showing an example of a focus measuring apparatus according to the present invention.
도 11을 참조하면, 원거리 시선 추적 카메라의 초점 측정 장치는 영상취득부(1105), 입력영상생성부(1110), 밝기보정부(1115), 초점측정부(1120), 정규화부(1125), 초점값합산부(1130), 및 렌즈제어부(1135)를 포함한다.11, the focus measuring apparatus of the far-sight line tracking camera includes an
영상취득부(1105)는 협각카메라를 이용하여 눈의 영상을 취득한다.The
입력영상생성부(1110)는 상기 취득한 눈의 영상을 다운 샘플링(down sampling)하여 입력 영상을 생성한다.The input image generating unit 1110 down-samples the acquired eye image to generate an input image.
밝기보정부(1115)는 상기 입력 영상의 평균 그레이 레벨을 학습데이터의 평균 그레이 레벨로 보정한다.The brightness correction unit 1115 corrects the average gray level of the input image to the average gray level of the learning data.
초점측정부(1120)는 상기 도 4 내지 상기 도 7과 같이 상기 보정된 입력 영상을 더그만 마스크를 이용하는 초점 측정 방법, 강의 마스크를 이용하는 초점 측정 방법, 하르 웨이블릿 변환 방법, 및 다우비시 웨이블릿 변환 방법을 각각 사용하여 네 개의 초점 값들을 측정한다. 이때, 상기 하르 웨이블릿 변환 방법 및 다우비시 웨이블릿 변환 방법은 각각 네 단계 스케일로 초점 값을 계산하고 상기 네 단계 스케일 각각에서 고 대역 값을 저 대역 값으로 나눈 비를 소정의 가중치를 사용하여 합하여 초점 값을 측정한다.The
상기 정규화부(1125)는 상기 측정된 네 개의 초점값들을 각각 0 내지 1 사이의 값으로 비선형 정규화한다. 또한, 정규화부(1125)는 초점값합산부(1130)에서 합산한 최종 초점 값을 0 내지 1 사이의 값으로 비선형 정규화한다.The
초점값합산부(1130)는 상기 정규화된 네 개의 초점 값들을 시그모이드 커널을 사용하는 다층 신경망(multi Layer perception)을 통해 하나의 최종 초점 값으로 합산한다. 다층 신경망은 이 밖에, 선형 또는 하이퍼볼릭 탄젠트 커널 함수를 사용할 수 있다.The focus
렌즈제어부(1135)는 상기 최종 초점 값을 이용하여 초점 렌즈를 제어한다.The
상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당업자라면 순서도에 나타낸 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.In the above-described exemplary system, the methods are described on the basis of a flowchart as a series of steps or blocks, but the present invention is not limited to the order of the steps, and some steps may occur in different orders . It will also be understood by those skilled in the art that the steps shown in the flowchart are not exclusive and that other steps may be included or that one or more steps in the flowchart may be deleted without affecting the scope of the invention.
이상의 설명은 본 발명의 기술 사상 을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
Claims (10)
눈이 존재하는 영역의 영상을 기반으로 입력 영상을 생성하는 입력영상생성부;
상기 입력 영상의 밝기를 평균 그레이 레벨에 대응되는 밝기로 보정하는 밝기보정부;
상기 보정된 입력 영상을 대상으로 복수 개의 서로 다른 초점 측정 방식을 각각 적용하여, 상기 보정된 입력 영상에 대응되는 상기 복수 개의 초점 값을 생성하는 초점측정부;
상기 복수 개의 초점 값을 각각 미리 정해진 범위의 값으로 비선형 정규화하는 정규화부;
상기 정규화된 복수 개의 초점 값을 다층 신경망을 사용하여 최종 초점 값을 산출하는 초점값합산부; 및
상기 최종 초점 값을 이용하여 초점 렌즈를 제어하는 렌즈제어부를 포함하는 초점 측정 장치.A focus measuring apparatus for a long distance line tracking camera,
An input image generating unit for generating an input image based on an image of a region in which an eye exists;
A brightness correction unit that corrects the brightness of the input image to a brightness corresponding to an average gray level;
A focus measuring unit for applying the plurality of different focus measurement methods to the corrected input image to generate the plurality of focus values corresponding to the corrected input image;
A normalization unit for non-linearly normalizing the plurality of focus values to a predetermined range of values;
A focus value summation unit for calculating a final focus value using the normalized plurality of focus values using a multi-layer neural network; And
And a lens control unit for controlling the focus lens using the final focus value.
더그만(daugman) 마스크를 이용하는 초점 측정 방식, 강(Kang)의 마스크를 이용하는 초점 측정 방식, 하르(Haar) 웨이블릿 변환 방식, 및 다우비시(Daubechies) 웨이블릿 변환 방식 중, 적어도 하나를 포함하는 것을 특징으로 하는 초점 측정 장치.2. The method of claim 1,
A focus measurement method using a mask of Kang, a Haar wavelet transformation method, and a Daubechies wavelet transformation method using a mask of a Kang, a focus measurement method using a daugman mask, a Kang mask, .
상기 눈이 존재하는 영역의 영상을 다운 샘플링(down sampling)하고, 상기 다운 샘플링된 영상을 입력 영상으로 생성하는 것을 특징으로 하는 초점 측정 장치.The image processing apparatus according to claim 1,
Down-sampling an image of a region in which the eye exists, and generating the down-sampled image as an input image.
상기 입력 영상의 평균 그레이 레벨을 학습데이터의 평균 그레이 레벨로 보정하는 것을 특징으로 하는 초점 측정 장치.The apparatus of claim 1,
And corrects the average gray level of the input image to the average gray level of the learning data.
상기 정규화된 복수의 초점 값들에 시그모이드(Sigmoid) 커널 함수를 사용하는 다층 신경망을 적용하여 상기 최종 초점 값을 산출하는 것을 특징으로 하는 초점 측정 장치.2. The apparatus of claim 1, wherein the focus-
Wherein the final focus value is calculated by applying a multi-layer neural network using a sigmoid kernel function to the normalized plurality of focus values.
상기 하르 웨이블릿 변환 방식 및 다우비시 웨이블릿 변환 방식은 각각 네 단계 스케일로 초점 값을 계산하고 상기 네 단계 스케일 각각에서 고 대역 값을 저 대역 값으로 나눈 비를 소정의 가중치로 사용하여 상기 초점 값을 측정하는 것을 특징으로 하는 초점 측정 장치.3. The method of claim 2,
The Harv wavelet transform method and the Daubish wavelet transform method each calculate a focus value using a scale of four steps and use the ratio of the high band value divided by the low band value in each of the four step scales to a predetermined weight to measure the focus value Wherein the focus detection unit detects the focus position of the focus lens.
눈이 존재하는 영역의 영상을 기반으로 입력 영상을 생성하는 과정과,
상기 입력 영상의 밝기를 평균 그레이 레벨에 대응되는 밝기로 보정하는 과정과,
상기 보정된 입력 영상을 대상으로 복수 개의 서로 다른 초점 측정 방식을 각각 적용하여, 상기 보정된 입력 영상에 대응되는 상기 복수 개의 초점 값을 생성하는 과정과,
상기 복수 개의 초점 값을 각각 미리 정해진 범위의 값으로 비선형 정규화하는 과정과,
상기 정규화된 복수 개의 초점 값을 다층 신경망을 사용하여 최종 초점 값을 산출하는 과정과,
상기 최종 초점 값을 이용하여 초점 렌즈를 제어하는 과정을 포함하는 카메라의 초점 측정 방법.A method of measuring a focus of a camera,
Generating an input image based on an image of a region in which an eye exists,
Correcting the brightness of the input image to a brightness corresponding to an average gray level,
Generating a plurality of focus values corresponding to the corrected input image by applying a plurality of different focus measurement methods to the corrected input image,
Linearly normalizing the plurality of focus values to values of a predetermined range;
Calculating a final focus value using the plurality of normalized focus values using a multi-layer neural network;
And controlling the focus lens using the final focus value.
더그만(daugman) 마스크를 이용하는 초점 측정 방식, 강(Kang)의 마스크를 이용하는 초점 측정 방식, 하르(Haar) 웨이블릿 변환 방식, 및 다우비시(Daubechies) 웨이블릿 변환 방식 중, 적어도 하나를 포함하는 것을 특징으로 하는 초점 측정 방법.8. The method of claim 7,
A focus measurement method using a mask of Kang, a Haar wavelet transformation method, and a Daubechies wavelet transformation method using a mask of a Kang, a focus measurement method using a daugman mask, a Kang mask, .
상기 정규화된 네 개의 초점 값들에 시그모이드(Sigmoid) 커널 함수를 사용하는 다층 신경망을 적용하여 상기 최종 초점 값을 산출하는 것을 특징으로 하는 초점 측정 방법.The method of claim 7, wherein the calculating of the final focus value comprises:
Wherein the final focus value is calculated by applying a multi-layer neural network using a sigmoid kernel function to the four normalized focus values.
상기 하르 웨이블릿 변환 방식 및 다우비시 웨이블릿 변환 방식은, 각각 네 단계 스케일로 초점 값을 계산하고 상기 네 단계 스케일 각각에서 고 대역 값을 저 대역 값으로 나눈 비를 소정의 가중치로 사용하여 상기 초점 값을 측정하는 것을 특징으로 하는 초점 측정 방법.9. The method of claim 8,
The Harv wavelet transform method and the Daubix wavelet transform method each calculate a focus value using a scale of four steps and use a ratio obtained by dividing a high band value by a low band value in each of the four step scales as a predetermined weight, And measuring the focal distance.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120010049A KR101831247B1 (en) | 2012-01-31 | 2012-01-31 | Apparatus for focus measurement in eye tracking system using multi layer perception |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120010049A KR101831247B1 (en) | 2012-01-31 | 2012-01-31 | Apparatus for focus measurement in eye tracking system using multi layer perception |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130088666A KR20130088666A (en) | 2013-08-08 |
KR101831247B1 true KR101831247B1 (en) | 2018-02-22 |
Family
ID=49214962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120010049A KR101831247B1 (en) | 2012-01-31 | 2012-01-31 | Apparatus for focus measurement in eye tracking system using multi layer perception |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101831247B1 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK3114540T3 (en) * | 2014-03-06 | 2021-04-19 | Progress Inc | NEURAL NETWORK AND METHODS FOR NEURAL NETWORK TRAINING |
CN105954992B (en) * | 2016-07-22 | 2018-10-30 | 京东方科技集团股份有限公司 | Display system and display methods |
KR102349543B1 (en) | 2016-11-22 | 2022-01-11 | 삼성전자주식회사 | Eye-tracking method and apparatus and generating method of inverse transformed low light image |
WO2019054598A1 (en) * | 2017-09-13 | 2019-03-21 | 주식회사 비주얼캠프 | Eye tracking method and user terminal for performing same |
CN109698901B (en) * | 2017-10-23 | 2020-07-10 | 广东顺德工业设计研究院(广东顺德创新设计研究院) | Automatic focusing method and device, storage medium and computer equipment |
CN110853073B (en) * | 2018-07-25 | 2024-10-01 | 北京三星通信技术研究有限公司 | Method, device, equipment, system and information processing method for determining attention point |
CN110333088B (en) * | 2019-04-19 | 2020-09-29 | 北京化工大学 | Caking detection method, system, device and medium |
CN113378777A (en) * | 2021-06-30 | 2021-09-10 | 沈阳康慧类脑智能协同创新中心有限公司 | Sight line detection method and device based on monocular camera |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100799829B1 (en) * | 2006-10-11 | 2008-01-31 | 삼성전기주식회사 | Method for auto-focusing using neural network |
-
2012
- 2012-01-31 KR KR1020120010049A patent/KR101831247B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100799829B1 (en) * | 2006-10-11 | 2008-01-31 | 삼성전기주식회사 | Method for auto-focusing using neural network |
Also Published As
Publication number | Publication date |
---|---|
KR20130088666A (en) | 2013-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101831247B1 (en) | Apparatus for focus measurement in eye tracking system using multi layer perception | |
Kang et al. | A study on iris image restoration | |
US8995753B2 (en) | Stereo distance measurement apparatus and stereo distance measurement method | |
US10460167B2 (en) | Extended depth-of-field biometric system | |
CN103116739B (en) | System and method for depth from defocus imaging | |
US8049811B2 (en) | Automatic focusing apparatus and method for digital images using automatic filter switching | |
US7912252B2 (en) | Time-of-flight sensor-assisted iris capture system and method | |
US8203602B2 (en) | Depth-aware blur kernel estimation method for iris deblurring | |
JP5866383B2 (en) | Focus error estimation in images | |
EP2328006A1 (en) | Task-based imaging systems | |
WO2011158508A1 (en) | Image processing device and image processing method | |
US20090060286A1 (en) | Identification system and method utilizing iris imaging | |
JP2013253964A (en) | Distance measuring device, imaging apparatus, distance measuring method, and program | |
US11512946B2 (en) | Method and system for automatic focusing for high-resolution structured light 3D imaging | |
CN111222472B (en) | Face recognition method based on structural light frequency domain characteristics | |
US20160255266A1 (en) | Focus position detection device and focus position detection method | |
US9854152B2 (en) | Auto-focus system for a digital imaging device and method | |
CN106842496B (en) | Method for automatically adjusting focus based on frequency domain comparison method | |
US20160162753A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
Kang et al. | Restoration of motion-blurred iris images on mobile iris recognition devices | |
Wang et al. | Blind image deblurring for a close scene under a 6-DOF motion path | |
US9906707B2 (en) | Defocus estimation method independent of the scene content and use in an autofocus system | |
RU2782980C1 (en) | Device and method for image formation with provision of increased depth of the depicted space (options) | |
US10151933B2 (en) | Apparatus and optical system including an optical element | |
Kang et al. | A study on restoration of iris images with motion‐and‐optical blur on mobile iris recognition devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |