KR102286189B1 - Deblurring device and method based on deep learning for gaze estimation - Google Patents

Deblurring device and method based on deep learning for gaze estimation Download PDF

Info

Publication number
KR102286189B1
KR102286189B1 KR1020200058970A KR20200058970A KR102286189B1 KR 102286189 B1 KR102286189 B1 KR 102286189B1 KR 1020200058970 A KR1020200058970 A KR 1020200058970A KR 20200058970 A KR20200058970 A KR 20200058970A KR 102286189 B1 KR102286189 B1 KR 102286189B1
Authority
KR
South Korea
Prior art keywords
image
deep learning
blur
eye
blur restoration
Prior art date
Application number
KR1020200058970A
Other languages
Korean (ko)
Inventor
박강령
윤효식
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020200058970A priority Critical patent/KR102286189B1/en
Application granted granted Critical
Publication of KR102286189B1 publication Critical patent/KR102286189B1/en

Links

Images

Classifications

    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/003Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

The present invention relates to a deblurring device and method based on deep learning for driver's gaze estimation. According to an embodiment of the present invention, a deblurring device and method based on deep learning for gaze estimation can accurately estimate a driver's gaze by deblurring an image with blur through deep learning. The deblurring device includes an input part, a feature extraction part; a deblurring part, and a deep learning part.

Description

시선 추적을 위한 딥 러닝 기반 블러 복원 장치 및 방법 {DEBLURRING DEVICE AND METHOD BASED ON DEEP LEARNING FOR GAZE ESTIMATION}DEBLURRING DEVICE AND METHOD BASED ON DEEP LEARNING FOR GAZE ESTIMATION

본 발명은 영상의 블러 복원 장치 및 방법에 관한 것으로, 보다 상세하게는 운전자의 시선을 추적하기 위해 딥 러닝을 이용해 획득한 영상의 블러를 복원하여 정확한 운전자의 시선을 추적할 수 있는 시선 추적을 위한 딥 러닝 기반 블러 복원 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for restoring blur of an image, and more particularly, to restore the blur of an image acquired using deep learning to track the driver's gaze, and to accurately track the driver's gaze. It relates to a deep learning-based blur restoration apparatus and method.

4차 산업 혁명과 관련된 기술들이 개발됨에 따라, 자율 주행 자동차, 지능형 운전자 보고 시스템 등 각종 운전자를 위한 인공 지능 기반의 기술들이 다양하게 선보여지고 있다. 본 발명은 무인 자동차의 경우 자율 주행과 운전자가 직접 주행할 때의 전환 시점을 판단하기 위하여 사용될 수 있다. 운전자의 시선 정보는 운전자의 상태 정보 중 주행에 가장 밀접한 영향을 끼치며, 운전자 시선 추적을 통하여 자율 주행과 운전자가 직접 주행할 때의 전환 시점을 안전하게 판단할 수 있다. As technologies related to the 4th industrial revolution are developed, various artificial intelligence-based technologies for various drivers, such as autonomous vehicles and intelligent driver reporting systems, are being introduced. In the case of an unmanned vehicle, the present invention may be used to determine a switching time between autonomous driving and direct driving by a driver. The driver's gaze information has the closest effect on driving among the driver's state information, and through driver gaze tracking, it is possible to safely determine the transition time between autonomous driving and the driver's direct driving.

실제 차량 환경에서 차량에 설치된 카메라를 통해 운전자를 촬영하여 시선을 추적할 때 차량의 진동, 도로 환경 등 여러 요인으로 인해 영상에 흐림이 발생한다. 그러나 기존의 딥 러닝 기반 운전자 시선 추적 방법은 주로 블러가 없는 영상을 사용하여 학습하였다. 하지만 운전자 영상에 블러가 존재하는 경우 시선 추적 수행에 어려움이 존재할 수밖에 없고, 성능 또한 하락하는 경향이 있다. 따라서 종래의 운전자 시선 추적 장법들은 블러가 존재하는 영상을 배제하고 딥 러닝 기반 학습을 수행하고 있어 운전자의 시선 추적이 연속적이지 못한다는 제약이 존재한다. 즉, 실제 주행 중인 차량 내에서 설치된 카메라를 통해 운전자의 시선 추적을 수행하던 중 블러가 발생하여 운전자 시선 추적에 있어서 짧은 시간의 공백이 존재하게 된다면, 이 공백으로 인하여 운전자의 상태를 파악하는 데에 제약이 발생하게 된다.In the real vehicle environment, when a driver is photographed through a camera installed in the vehicle to track the driver's gaze, the image is blurred due to various factors such as vehicle vibration and road environment. However, the existing deep learning-based driver gaze tracking method was mainly learned using images without blur. However, when there is blur in the driver's image, there is inevitably a difficulty in performing eye tracking, and performance tends to decrease. Therefore, there is a limitation that the driver's eye tracking is not continuous because the conventional driver's gaze tracking method excludes an image with blur and performs deep learning-based learning. That is, if blur occurs while tracking the driver's gaze through the camera installed in the actual driving vehicle, and a short time gap exists in the driver's gaze tracking, it is difficult to understand the driver's state due to this gap. restrictions will arise.

본 발명의 배경기술은 대한민국 등록특허 제10-1628394 호에 게시되어 있다.Background art of the present invention is disclosed in Korean Patent Registration No. 10-1628394.

본 발명은 다양한 요인으로 영상에 블러가 존재하더라도 딥 러닝을 이용해 영상의 블러 복원을 수행하여 운전자 시선 추적의 정확도가 높은 시선 추적을 위한 딥 러닝 기반 블러 복원 장치 및 방법을 제공한다.The present invention provides an apparatus and method for restoring blur based on deep learning for eye tracking with high accuracy of driver eye tracking by performing blur restoration of an image using deep learning even if blur exists in an image due to various factors.

본 발명은 획득한 영상이 초점이 흐려도 블러 복원을 통해 자의 시선 정보를 정확하게 추적하여 연속적인 운전자의 상태 정보를 정확하게 파악하는 시선 추적을 위한 딥 러닝 기반 블러 복원 장치 및 방법을 제공한다.The present invention provides a deep-learning-based blur restoration apparatus and method for accurately grasping continuous driver's state information by accurately tracking the gaze information of a person through blur restoration even when an acquired image is out of focus.

본 발명의 일 측면에 따르면, 시선 추적을 위한 딥 러닝 기반 블러 복원 장치를 공한다. According to one aspect of the present invention, a deep learning-based blur restoration apparatus for eye tracking is provided.

본 발명의 일 실시예에 따른 복수의 근적외선 카메라를 이용해 영상을 취득하는 입력부, 상기 영상에서 얼굴 특징점을 추출하는 특징 추출부, 결합한 영상에서 블러 정도를 측정하는 블러 측정부, 기 블러 정도가 임계값 이상이면 블러 복원을 수행하는 블러 복원부 및 딥 러닝을 수행하여 상기 결합한 영상의 시선을 추적하는 딥 러닝부를 포함할 수 있다.An input unit for acquiring an image using a plurality of near-infrared cameras according to an embodiment of the present invention, a feature extraction unit for extracting facial feature points from the image, a blur measurement unit for measuring the degree of blur in the combined image, and a threshold value In the above case, it may include a blur restoration unit for performing blur restoration and a deep learning unit for tracking the gaze of the combined image by performing deep learning.

본 발명의 다른 일 측면에 따르면, 시선 추적을 위한 딥 러닝 기반 블러 복원 방법 및 이를 실행하는 컴퓨터 프로그램이 기록된 컴퓨터가 판독 가능한 기록매체를 제공한다.According to another aspect of the present invention, there is provided a computer-readable recording medium in which a deep learning-based blur restoration method for eye tracking and a computer program executing the same are recorded.

본 발명의 일 실시 예에 따른 시선 추적을 위한 딥 러닝 기반 블러 복원 방법 및 이를 실행하는 컴퓨터 프로그램이 저장된 기록매체는 복수의 카메라에서 영상을 획득하는 단계, 상기 영상에서 얼굴 특징점을 검출하는 단계, 상기 얼굴 특징점으로 왼쪽 눈, 오른쪽 눈 및 얼굴 영상을 추출하는 단계, 추출한 상기 영상들을 결합하여 결합 영상을 생성하는 단계, 상기 결합 영상의 초점 값을 측정하는 단계 및 상기 초점 값이 따라 상기 결합 영상의 블러 복원을 하는 단계를 포함할 수 있다.A deep learning-based blur restoration method for eye tracking according to an embodiment of the present invention and a recording medium storing a computer program executing the same according to an embodiment of the present invention include: acquiring images from a plurality of cameras; detecting facial feature points in the images; Extracting the left eye, right eye and face images as facial feature points, combining the extracted images to generate a combined image, measuring a focus value of the combined image, and blurring the combined image according to the focus value It may include a step of restoring.

본 발명의 일 실시 예에 따르면, 시선 추적을 위한 딥 러닝 기반 블러 복원 장치 및 방법은 블러가 존재하는 영상을 딥 러닝으로 블러 복원하여 운전자 시선을 정확하게 추적할 수 있다. According to an embodiment of the present invention, an apparatus and method for restoring blur based on deep learning for eye tracking may accurately track a driver's gaze by restoring an image with blur through deep learning.

본 발명의 일 실시 예에 따르면, 시선 추적을 위한 딥 러닝 기반 블러 복원 장치 및 방법은 획득한 영상이 초점이 흐려도 블러 복원을 통해 자의 시선 정보를 정확하게 추적하여 연속적인 운전자의 상태 정보를 정확하게 파악할 수 있다.According to an embodiment of the present invention, a deep learning-based blur restoration apparatus and method for eye tracking accurately track information on a person's gaze through blur restoration even if an acquired image is out of focus to accurately grasp continuous driver's state information. can

도 1 내지 도 11은 본 발명의 일 실시 예에 따른 시선 추적을 위한 딥 러닝 기반 블러 복원 장치를 설명하기 위한 도면들.
도 12는 본 발명의 일 실시 예에 따른 시선 추적을 위한 딥 러닝 기반 블러 복원 방법을 설명하기 위한 도면.
1 to 11 are diagrams for explaining a deep learning-based blur restoration apparatus for eye tracking according to an embodiment of the present invention.
12 is a diagram for explaining a deep learning-based blur restoration method for eye tracking according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서 및 청구항에서 사용되는 단수 표현은, 달리 언급하지 않는 한 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail through detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Also, as used herein and in the claims, the terms "a" and "a" and "a" are to be construed to mean "one or more" in general, unless stated otherwise.

이하, 본 발명의 바람직한 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. do it with

도 1 내지 도 11은 본 발명의 일 실시 예에 따른 시선 추적을 위한 딥 러닝 기반 블러 복원 장치를 설명하기 위한 도면들이다.1 to 11 are diagrams for explaining a deep learning-based blur restoration apparatus for eye tracking according to an embodiment of the present invention.

도 1을 참조하면, 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 차량 내부에 장착되어 운전자의 시선을 추적하기 위해 획득한 운전자의 측면 및 정면 얼굴 영상을 획득한다. 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 획득한 영상에 블러가 존재하는 경우 블러를 복원하여 강인한 시선 추적이 가능하다. 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 ECU에 탑재되어 차량 내부 통신을 이용해 차량 내 카메라의 영상을 획득하여 블러 복원을 수행한다.Referring to FIG. 1 , the deep learning-based blur restoration apparatus 10 for eye tracking is mounted inside a vehicle and acquires side and front face images of the driver acquired to track the driver's gaze. The deep learning-based blur restoration apparatus 10 for eye tracking restores the blur when there is blur in the acquired image, so that strong eye tracking is possible. The deep learning-based blur restoration apparatus 10 for eye tracking is mounted on an ECU and performs blur restoration by acquiring an image of an in-vehicle camera using in-vehicle communication.

도 2를 참조하면, 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 입력부(100), 특징 추출부(200), 블러 측정부(300), 블러 복원부(400) 및 딥 러닝부(500)를 포함한다.2, the deep learning-based blur restoration apparatus 10 for eye tracking includes an input unit 100, a feature extraction unit 200, a blur measurement unit 300, a blur restoration unit 400, and a deep learning unit ( 500).

입력부(100)는 시선 추적을 위해 운전자의 영상을 취득한다. 예를 들면, 입력부(100)는 복수의 근적외선 카메라를 이용해 운전자의 얼굴 영상을 취득할 수 있다.The input unit 100 acquires an image of the driver for eye tracking. For example, the input unit 100 may acquire the driver's face image using a plurality of near-infrared cameras.

도 3을 참조하면, 입력부(100)는 차량 내 부착된 정면 및 측면의 근적외선 조명이 구비된 근적외선 카메라로부터 운전자 얼굴 영상을 취득한다.Referring to FIG. 3 , the input unit 100 acquires a driver's face image from a near-infrared camera equipped with near-infrared illumination of the front and the side attached to the vehicle.

다시 도 2를 참조하면, 특징 추출부(200)는 입력부(100)에서 취득한 운전자의 얼굴 영상에서 얼굴 특징점(facial feature point)을 추출한다. 특징 추출부(200)는 정면 카메라에서 취득한 운전자의 정면 영상과 측면 카메라에서 취득한 운전자의 측면 영상에서 각각 얼굴 특징점을 추출한다.Referring back to FIG. 2 , the feature extraction unit 200 extracts a facial feature point from the driver's face image acquired by the input unit 100 . The feature extraction unit 200 extracts facial feature points from the driver's front image acquired from the front camera and the driver's side image acquired from the side camera, respectively.

도 4를 참조하면, 특징 추출부(200)는 추출한 얼굴 특징점을 기반으로 운전자의 왼쪽 눈, 오른쪽 눈 및 얼굴을 검출한다. 특징 추출부(200)는 정면 및 측면 영상에서 각각 왼쪽 눈, 오른쪽 눈 및 얼굴을 검출한다.Referring to FIG. 4 , the feature extraction unit 200 detects the driver's left eye, right eye, and face based on the extracted facial feature points. The feature extraction unit 200 detects a left eye, a right eye, and a face from the front and side images, respectively.

도 5를 참조하면. 특징 추출부(200)는 운전자 정면 영상에서 검출한 3개의 영상과 운전자 측면 영상에서 검출한 3개의 영상을 결합하여 3개 채널을 가진 하나의 영상을 생성한다.Referring to Figure 5. The feature extraction unit 200 generates one image having three channels by combining three images detected from the driver's front image and three images detected from the driver's side image.

블러 측정부(300)는 결합된 운전자의 영상으로부터 블러 정도를 측정한다 예를 들면, 도 6과 같이 블러 측정부(300)는 5 X 5크기의 컨볼루션 커널(convolution kernel)을 이용하여 영상의 고주파 부분을 추출하여 초점 값(Focus value)를 측정한다.The blur measuring unit 300 measures the degree of blur from the combined driver's image. For example, as shown in FIG. 6 , the blur measuring unit 300 uses a 5 X 5 convolution kernel of the image. The high-frequency part is extracted and the focus value is measured.

블러 측정부(300)는 측정된 초점 값이 일정 기준치 이상이면, 블러 복원 단계를 수행할 필요가 없으므로 딥 러닝부(500)를 통해 학습 및 운전자 시선 추적을 수행하도록 한다.When the measured focus value is equal to or greater than a predetermined reference value, the blur measurement unit 300 performs learning and driver gaze tracking through the deep learning unit 500 because there is no need to perform the blur restoration step.

블러 측정부(300)는 초점 값이 일정 기준치 미만인 경우 블러 복원부(400)를 호출한다.The blur measurement unit 300 calls the blur restoration unit 400 when the focus value is less than a predetermined reference value.

블러 복원부(400)는 결합된 운전자 영상의 초점 값이 일정 기준치 미만인 경우 블러 복원(Deblurring)을 수행한다. 예를 들면 블러 복원부(400)는 Cycle Generative Adversarial Networks(CycleGAN)을 이용해 블러 복원을 한다. 이때 CycleGAN은 블러가 발생하지 않는 운전자 영상을 통해 학습된 모델이다. GAN은 Generator Network와 Discriminator Network 가 학습하면서 서로 경쟁을 하게끔 구성된다. Generator Network는 입력 영상으로부터 데이터 분포를 만드는 역할을 수행하며, Discriminator Network는 입력으로 주어진 영상이 Generator Network 영상인지, 실제 영상인지 구별하는 역할을 수행한다. 일반적인 GAN의 경우는 학습을 위해서 쌍을 이루는 데이터가 필요하다. 본 발명에서 이용하는 CycleGAN은 일반적인 GAN과는 달리 2쌍의 Generator Network와 Discriminator Network를 사용하여 양 방향 학습을 수행한다. The blur restoration unit 400 performs blur restoration when the focus value of the combined driver image is less than a predetermined reference value. For example, the blur restoration unit 400 restores the blur using Cycle Generative Adversarial Networks (CycleGAN). In this case, CycleGAN is a model learned through driver images that do not cause blur. GAN is configured so that Generator Network and Discriminator Network compete with each other while learning. The generator network plays a role in creating data distribution from the input image, and the discriminator network plays a role in distinguishing whether the image given as an input is a generator network image or an actual image. In the case of a general GAN, paired data is required for learning. Unlike general GAN, CycleGAN used in the present invention performs bidirectional learning using two pairs of Generator Network and Discriminator Network.

도 7을 참조하면, 블러 복원 시 가장 원본과 유사하게 영상이 복원되는 방법이 CycleGAN(도 7(c)) 인 것을 확인할 수 있다. 도 7은 다양한 복원 방법을 이용해 블러 복원을 수행한 예시 영상으로, 도 7(a)는 원본 영상이고, 도7(b)는 블러 영상이다. 도 7(c)는 블러 영상을 CycleGAN을 이용해 블러 복원을 수행한 것이고, 도 7(d)은 DeblurGAN을 이용해 블러 복원을 수행한 영상이다. 도 7(e)는Pix2Pix를 이용해 블러 복원을 수행한 것이고, 도 7(f)는 SRN-DeblurNet을 이용하고, 도 7(g)는 DeepDeblur를 이용해 블러 복원을 수행한 영상이다. Referring to FIG. 7 , it can be confirmed that the method of restoring an image most similar to the original when blur is restored is CycleGAN (FIG. 7(c)). 7 is an exemplary image obtained by performing blur restoration using various restoration methods. FIG. 7(a) is an original image, and FIG. 7(b) is a blur image. FIG. 7(c) is an image obtained by performing blur restoration using CycleGAN on a blurred image, and FIG. 7(d) is an image obtained by performing blur restoration using DeblurGAN. FIG. 7(e) is an image obtained by performing blur restoration using Pix2Pix, FIG. 7(f) is using SRN-DeblurNet, and FIG. 7(g) is an image obtained by performing blur restoration using DeepDeblur.

딥 러닝부(500)는 블러 복원 단계가 필요없는 초점 값이 일정 기준치 이상인 영상과 초점 값이 일정 기준치 미만이라 블러 복원 단계를 거친 영상으로 운전자 시선 추적을 위한 딥 러닝 모델을 학습한다.The deep learning unit 500 learns a deep learning model for tracking a driver's gaze with an image having a focus value greater than or equal to a certain reference value that does not require a blur restoration step and an image that has undergone a blur restoration step because the focus value is less than a predetermined reference value.

도 8을 참조하면, 예를 들어 딥 러닝부(500)는 ResNet-152(deep residual networks-152) 모델로 운전자 시선 영역을 추적할 수 있다.Referring to FIG. 8 , for example, the deep learning unit 500 may track the driver's gaze region using a ResNet-152 (deep residual networks-152) model.

도 9는 딥 러닝부(500)가 도10에 표시된 15개의 영역과 운전자가 눈을 감은 상황을 포함하여 총 16개의 운전자 시선 영역을 계산한 예시이다. 정확도는 SCER(Strictly Correct Estimation Rate)과 LCER(Loosely Correct Estimation Rate)fh 측정한 것이다. SCER은 해당 지점에 대한 정확도이고, LCER은 해당하는 지점과 주변 인접한 영역까지 포함하는 정확도이다. 2그룹으로 나누어 교차검증을 한 결과 최종 정확도는 SCER 90.11%, LCER 98.94%이다. 블러가 있는 경우 블러 복원 단계를 수행하여 딥러닝을 하는 경우 높은 정확도를 확인할 수 있다.9 is an example in which the deep learning unit 500 calculates a total of 16 driver gaze regions including 15 regions shown in FIG. 10 and a situation in which the driver closes his/her eyes. Accuracy is measured by Strictly Correct Estimation Rate (SCER) and Loosely Correct Estimation Rate (LCER)fh. SCER is the accuracy for the corresponding point, and LCER is the accuracy including the corresponding point and the surrounding area. As a result of cross-validation by dividing into two groups, the final accuracy was SCER 90.11% and LCER 98.94%. If there is blur, high accuracy can be confirmed when deep learning is performed by performing the blur restoration step.

도 11을 참조하면, 본 발명에서 사용한 CycleGAN을 이용해 블러 복원 단계를 거치고 ResNet-152 모델을 이용하여 운전자 시선을 추적한 결과가 다른 기술을 적용하여 측정한 결과와 성능보다 높은 정확도를 보이는 것은 실험 결과로도 확인할 수 있다.Referring to FIG. 11, it is the experimental result that the blur restoration step using CycleGAN used in the present invention and the result of tracking the driver's gaze using the ResNet-152 model show higher accuracy than the results and performance measured by applying other techniques. can also be checked.

도12는 본 발명의 일 실시 예에 따른 시선 추적을 위한 딥 러닝 기반 블러 복원 방법을 설명한 도면이다. 이하 설명하는 각 과정은 시선 추적을 위한 딥 러닝 기반 블러 복원 장치를 구성하는 각 기능부가 수행하는 과정이나, 본 발명의 간결하고 명확한 설명을 위해 각 단계의 주체를 시선 추적을 위한 딥 러닝 기반 블러 복원 장치로 통칭하도록 한다.12 is a diagram illustrating a deep learning-based blur restoration method for eye tracking according to an embodiment of the present invention. Each process described below is a process performed by each functional unit constituting a deep learning-based blur restoration device for eye tracking, but for a concise and clear explanation of the present invention, a deep learning-based blur restoration for eye tracking of the subject of each step for a concise and clear explanation of the present invention to be referred to as a device.

도 12를 참조하면, 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 단계 S1201에서 복수의 카메라에서 얼굴 영상을 획득한다. 예를 들면 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 정면 카메라와 측면 카메라로 운전자의 정면과 측면 영상을 획득할 수 있다.Referring to FIG. 12 , the deep learning-based blur restoration apparatus 10 for eye tracking acquires face images from a plurality of cameras in step S1201. For example, the deep learning-based blur restoration apparatus 10 for eye tracking may acquire front and side images of the driver using a front camera and a side camera.

단계 S1202에서 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 획득한 영상에서 얼굴 특징점(Facial feature point)을 검출한다.In step S1202, the deep learning-based blur restoration apparatus 10 for eye tracking detects a facial feature point from the acquired image.

단계 S1203에서 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 얼굴 특징점을 이용하여 왼쪽 눈, 오른쪽 눈 및 얼굴 영상을 추출한다. 예를 들면, 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 운전자의 정면 영상과 측면 영상에 각각 왼쪽 눈, 오른쪽 눈 및 얼굴 영상을 추출하여 총 6장의 영상을 생성한다.In step S1203, the deep learning-based blur restoration apparatus 10 for eye tracking extracts left eye, right eye, and face images by using facial feature points. For example, the deep learning-based blur restoration apparatus 10 for eye tracking generates a total of six images by extracting the left eye, right eye, and face images from the front image and the side image of the driver, respectively.

단계 S1204에서 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 얼굴 특징점을 기반으로 추출한 영상들을 결합하여 3채널로 구성된 하나의 영상을 생성한다. 예를 들면, 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 왼쪽 눈 정면 영상과 왼쪽 눈 측면 영상, 오른쪽 눈 정면 영상과 오른쪽 눈 측면 영상, 정면 얼굴 영상과 측면 얼굴 영상을 각각 채널로 하는 3채널 단일 영상을 생성한다.In step S1204, the deep learning-based blur restoration apparatus 10 for eye tracking generates one image composed of three channels by combining images extracted based on facial feature points. For example, the deep learning-based blur restoration apparatus 10 for eye tracking uses a left eye front image, a left eye side image, a right eye front image and a right eye side image, and a front face image and a side face image as channels, respectively. Creates a 3-channel single image.

단계 S1205에서 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 3채널 단일 영상으로부터 블러 정도를 측정한다. 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 3채널 단일 영상에서 눈 관심영역(eye Region Of Interest)의 초점 값(focus value)을 산출한다. 예를 들면, 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 5X5 크기의 컨볼루션 커널(convolution kernel)을 이용해 3채널 단일 영상의 고주파 부분을 추출하여 초점 값(focus Value)을 측정한다.In step S1205, the deep learning-based blur restoration apparatus 10 for eye tracking measures the degree of blur from a three-channel single image. The deep learning-based blur restoration apparatus 10 for eye tracking calculates a focus value of an eye region of interest in a three-channel single image. For example, the deep learning-based blur restoration apparatus 10 for eye tracking measures a focus value by extracting a high-frequency portion of a 3-channel single image using a 5X5 convolution kernel.

단계 S1206에서 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 초점 값의 점수가 미리 선정한 임계값 미만이면 단계 S1207으로 이동하여 3채널 단일 영상의 블러 복원을 진행한다. 예를 들면, 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 CycleGAN을 이용해 3채널 단일 영상의 블러 복원을 수행한다. 시선 추적을 위한 딥 러닝 기반 영상 블러 복원 장치(10)는 블러 복원된 3채널 단일 영상으로 단계 S1208의 딥 러닝을 이용해 운전자 시선 추적을 수행한다.In step S1206, if the deep learning-based blur restoration apparatus 10 for eye tracking is less than a pre-selected threshold, it moves to step S1207 and restores the blur of a three-channel single image. For example, the deep learning-based blur restoration apparatus 10 for eye tracking performs blur restoration of a 3-channel single image using CycleGAN. The deep learning-based image blur restoration apparatus 10 for eye tracking performs driver gaze tracking using the deep learning of step S1208 with a three-channel single image restored by blurring.

또는 단계 S1206에서 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 초점 값이 미리 선정한 임계값 이상이면 단계 S1208으로 이동하여 3채널 단일 영상으로 시선 추적을 위한 딥 러닝 모델을 수행한다.Alternatively, if the deep learning-based blur restoration apparatus 10 for eye tracking in step S1206 is greater than or equal to a pre-selected threshold, it moves to step S1208 and performs a deep learning model for eye tracking with a three-channel single image.

단계 S1208에서 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 블러 복원 단계(S1207)를 수행하지 않은 블러가 존재하지 않는 영상과 블러 복원 단계( S1207)를 거친 영상을 딥 러닝 모델로 학습한다. 예를 들면, 시선 추적을 위한 딥 러닝 기반 블러 복원 장치(10)는 ResNet-152 모델을 이용하고, 자세한 구조는 도 7과 같다.In step S1208, the deep learning-based blur restoration apparatus 10 for eye tracking learns the image in which the blur does not exist and the image that has undergone the blur restoration step (S1207) for which the blur restoration step (S1207) is not performed as a deep learning model. . For example, the deep learning-based blur restoration apparatus 10 for eye tracking uses the ResNet-152 model, and the detailed structure is shown in FIG. 7 .

상술한 시선 추적을 위한 딥 러닝 기반 블러 복원 방법은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The above-described deep learning-based blur restoration method for eye tracking may be implemented as a computer-readable code on a computer-readable medium. The computer-readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disk, USB storage device, removable hard disk) or a fixed recording medium (ROM, RAM, computer-equipped hard disk). can The computer program recorded in the computer-readable recording medium may be transmitted to another computing device through a network, such as the Internet, and installed in the other computing device, thereby being used in the other computing device.

이상에서, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.In the above, even though it has been described that all components constituting the embodiment of the present invention are combined or operated as one, the present invention is not necessarily limited to this embodiment. That is, within the scope of the object of the present invention, all the components may operate by selectively combining one or more.

도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시 예 들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although acts are shown in a specific order in the drawings, it should not be understood that the acts must be performed in the specific order or sequential order shown, or that all shown acts must be performed to obtain a desired result. In certain circumstances, multitasking and parallel processing may be advantageous. Moreover, the separation of the various components in the embodiments described above should not be construed as necessarily requiring such separation, and the described program components and systems may generally be integrated together into a single software product or packaged into multiple software products. It should be understood that there is

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at focusing on the embodiments thereof. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in modified forms without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

10: 시선 추적을 위한 딥 러닝 기반 블러 복원 장치
100: 입력부
200: 특징 추출부
300: 블러 측정부
400: 블러 복원부
500: 딥 러닝부
10: Deep learning-based blur restoration device for eye tracking
100: input unit
200: feature extraction unit
300: blur measurement unit
400: blur restoration unit
500: deep learning unit

Claims (8)

시선 추적을 위한 딥 러닝 기반 블러 복원 장치에 있어서,
근적외선 카메라를 이용해 정면과 측면의 얼굴 영상을 취득하는 입력부;
상기 영상에서 얼굴 특징점을 검출하고, 상기 얼굴 특징점을 이용해 상기 영상에서 정면의 왼쪽 눈, 정면의 오른쪽 눈, 정면의 얼굴, 측면의 왼쪽 눈, 측면의 오른쪽 눈 및 측면의 얼굴 영상을 추출하고, 추출한 상기 정면의 왼쪽 눈 영상과 측면의 왼쪽 눈 영상, 상기 정면의 오른쪽 눈 영상과 측면의 오른쪽 눈 영상, 상기 정면의 얼굴 영상과 측면의 얼굴 영상을 결합하고, 상기 결합 영상을 각각 채널로 하는 3채널 단일 영상을 생성하는 특징 추출부;
상기 3채널 단일 영상에서 컨볼루션 커널을 이용하여 영상의 고주파 부분을 추출하여 초점 값을 측정하는 블러 측정부;
상기 블러 정도가 임계값 이상이면 CycleGAN 모델을 이용하여 블러 복원을 수행하는 블러 복원부; 및
딥 러닝을 수행하여 상기 결합한 영상의 시선을 추적하는 딥 러닝부를 포함하는 시선 추적을 위한 딥 러닝 기반 블러 복원 장치.
In the deep learning-based blur restoration device for eye tracking,
an input unit for acquiring front and side face images using a near-infrared camera;
A facial feature point is detected in the image, and the front left eye, front right eye, front face, side left eye, side right eye and side face image are extracted from the image using the facial feature point, The front left eye image and the side left eye image, the front right eye image and the side right eye image, and the front face image and the side face image are combined, and the combined image is used as a channel, respectively. a feature extraction unit generating a single image;
a blur measurer for measuring a focus value by extracting a high-frequency portion of an image using a convolution kernel from the three-channel single image;
a blur restoration unit for performing blur restoration using a CycleGAN model when the degree of blur is greater than or equal to a threshold value; and
A deep learning-based blur restoration apparatus for eye tracking comprising a deep learning unit that tracks the gaze of the combined image by performing deep learning.
삭제delete 삭제delete 삭제delete 시선 추적을 위한 딥 러닝 기반 블러 복원 방법에 있어서,
근적외선 카메라를 이용해 정면과 측면의 얼굴 영상을 획득하는 단계;
상기 영상에서 얼굴 특징점을 검출하는 단계;
상기 얼굴 특징점을 이용하여 상기 영상에서 정면의 왼쪽 눈, 정면의 오른쪽 눈, 정면의 얼굴, 측면의 왼쪽 눈, 측면의 오른쪽 눈 및 측면의 얼굴 영상을 추출하는 단계;
추출한 상기 정면의 왼쪽 눈 영상과 측면의 왼쪽 눈 영상, 상기 정면의 오른쪽 눈 영상과 측면의 오른쪽 눈 영상, 상기 정면의 얼굴 영상과 측면의 얼굴 영상을 결합하고, 상기 결합 영상을 각각 채널로 하는 3채널 단일 영상을 생성하는 단계;
상기 3채널 단일 영상에서 컨볼루션 커널을 이용하여 영상의 고주파 부분을 추출하여 초점 값을 측정하는 단계; 및
상기 초점 값에 따라 상기 블러 정도가 임계값 이상이면 CycleGAN 모델을 이용하여 블러 복원을 수행하는 단계를 포함하는 시선 추적을 위한 딥 러닝 기반 블러 복원 방법.
In a deep learning-based blur restoration method for eye tracking,
Acquiring front and side face images using a near-infrared camera;
detecting facial feature points from the image;
extracting a front left eye, a front right eye, a front face, a side left eye, a side right eye, and a side face image from the image using the facial feature points;
3 combining the extracted front left eye image and lateral left eye image, the front right eye image and lateral right eye image, and the front face image and lateral face image, and using the combined image as a channel generating a single channel image;
measuring a focus value by extracting a high-frequency portion of the image using a convolution kernel from the three-channel single image; and
and performing blur restoration using a CycleGAN model when the degree of blur is greater than or equal to a threshold value according to the focus value.
삭제delete 삭제delete 제5항에 기재된 시선 추적을 위한 딥 러닝 기반 블러 복원 방법을 실행하고 컴퓨터가 판독 가능한 기록매체에 기록된 컴퓨터 프로그램.
A computer program recorded in a computer-readable recording medium executing the deep learning-based blur restoration method for eye tracking according to claim 5.
KR1020200058970A 2020-05-18 2020-05-18 Deblurring device and method based on deep learning for gaze estimation KR102286189B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200058970A KR102286189B1 (en) 2020-05-18 2020-05-18 Deblurring device and method based on deep learning for gaze estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200058970A KR102286189B1 (en) 2020-05-18 2020-05-18 Deblurring device and method based on deep learning for gaze estimation

Publications (1)

Publication Number Publication Date
KR102286189B1 true KR102286189B1 (en) 2021-08-06

Family

ID=77315103

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200058970A KR102286189B1 (en) 2020-05-18 2020-05-18 Deblurring device and method based on deep learning for gaze estimation

Country Status (1)

Country Link
KR (1) KR102286189B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102614370B1 (en) * 2022-07-06 2023-12-14 전남대학교산학협력단 Gaze direction estimation method and apparatus using same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10290084B1 (en) * 2018-11-14 2019-05-14 Sonavista, Inc. Correcting image blur in medical image
KR20190100982A (en) * 2018-02-05 2019-08-30 동국대학교 산학협력단 Deep learning based gaze detection system and method for automobile drivers

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190100982A (en) * 2018-02-05 2019-08-30 동국대학교 산학협력단 Deep learning based gaze detection system and method for automobile drivers
US10290084B1 (en) * 2018-11-14 2019-05-14 Sonavista, Inc. Correcting image blur in medical image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Sung Ho Park et al., 'Faster R-CNN and Geometric Transformation-Based Detection of Driver’s Eyes Using Multiple Near-Infrared Camera Sensors', Sensors 2019, MDPI, 7 Jan. 2019 (2019.01.07.) 1부.* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102614370B1 (en) * 2022-07-06 2023-12-14 전남대학교산학협력단 Gaze direction estimation method and apparatus using same

Similar Documents

Publication Publication Date Title
EP3488382B1 (en) Method and system for monitoring the status of the driver of a vehicle
Rangesh et al. Driver gaze estimation in the real world: Overcoming the eyeglass challenge
Shreve et al. Macro-and micro-expression spotting in long videos using spatio-temporal strain
US9213909B2 (en) Object detection method, object detection apparatus, and program
JP6325405B2 (en) Feature point detection apparatus, method and program
US20130004082A1 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
US11113576B2 (en) Information processing apparatus for training neural network for recognition task and method thereof
KR20200060194A (en) Method of predicting depth values of lines, method of outputting 3d lines and apparatus thereof
US20170262727A1 (en) Image processing method, image processing apparatus, and recording medium
JP7149202B2 (en) Behavior analysis device and behavior analysis method
CN111126190B (en) Disguised face recognition method based on free energy theory and dynamic texture analysis
CN113396423A (en) Method of processing information from event-based sensors
KR20170064652A (en) Egomotion estimation system and method thereof
US9323989B2 (en) Tracking device
KR102286189B1 (en) Deblurring device and method based on deep learning for gaze estimation
JPWO2010109831A1 (en) Drive recorder
Rangesh et al. Gaze preserving CycleGANs for eyeglass removal and persistent gaze estimation
JP6395429B2 (en) Image processing apparatus, control method thereof, and storage medium
JPWO2015198592A1 (en) Information processing apparatus, information processing method, and information processing program
JP2009098901A (en) Method, device and program for detecting facial expression
KR20170028631A (en) Method and Apparatus for Detecting Carelessness of Driver Using Restoration of Front Face Image
KR20200049936A (en) Biometric device and method
KR20180082739A (en) Moving Object Detection Method and System with Single Camera
KR20230017273A (en) Eye tracking device, eye tracking method and computer readable medium
KR101786579B1 (en) Method and Apparatus for Determining Front Face

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant