KR20230159739A - Driving assisting system through tracking of eye of fork lift driver based on deep learning, method for the same, and computer-readable recording including the same - Google Patents

Driving assisting system through tracking of eye of fork lift driver based on deep learning, method for the same, and computer-readable recording including the same Download PDF

Info

Publication number
KR20230159739A
KR20230159739A KR1020220058392A KR20220058392A KR20230159739A KR 20230159739 A KR20230159739 A KR 20230159739A KR 1020220058392 A KR1020220058392 A KR 1020220058392A KR 20220058392 A KR20220058392 A KR 20220058392A KR 20230159739 A KR20230159739 A KR 20230159739A
Authority
KR
South Korea
Prior art keywords
deep learning
eye
forklift driver
gaze direction
forklift
Prior art date
Application number
KR1020220058392A
Other languages
Korean (ko)
Inventor
윤효식
홍성민
권순도
Original Assignee
한화오션 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화오션 주식회사 filed Critical 한화오션 주식회사
Priority to KR1020220058392A priority Critical patent/KR20230159739A/en
Publication of KR20230159739A publication Critical patent/KR20230159739A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F17/00Safety devices, e.g. for limiting or indicating lifting force
    • B66F17/003Safety devices, e.g. for limiting or indicating lifting force for fork-lift trucks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/07504Accessories, e.g. for towing, charging, locking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/15Fork lift trucks, Industrial trucks

Abstract

본 발명은, 지게차 운전자의 얼굴영역을 촬영하는 비전카메라(110), 비전카메라(110)에 의해 촬영된 얼굴영역 영상을 저장하는 데이터베이스(120), 데이터베이스(120)의 얼굴영역 영상의 눈 이미지로부터 눈동자 객체와 흰자위 객체를 분할하도록 학습되어 예측하는 딥러닝 모델부(130), 딥러닝 모델부(130)에 의해 분할(구분)된 눈동자 객체와 흰자위 객체의 위치관계를 산출하여 지게차 운전자의 시선방향을 측정하는 시선방향 측정부(140), 및 딥러닝 모델부(130)에 의한 눈영역 분할 예측결과 및 시선방향 측정부(140)에 의한 시선방향을 분석하여 지게차의 졸음운전여부 또는 안전주행여부를 판단하고, 판단결과에 따라 경고 정보를 제공하는 제어부(150)를 포함하여, 딥러닝 모델에 의해 운전자의 눈 이미지를 분석하여 실시간으로 시선방향을 예측하여서 졸음운전, 부주의 또는 미숙련으로 인한 안전사고 발생을 예방할 수 있는, 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템을 개시한다.The present invention includes a vision camera 110 for photographing the face area of a forklift driver, a database 120 for storing the face area image captured by the vision camera 110, and an eye image of the face area image of the database 120. A deep learning model unit 130 that learns and predicts to segment the eye object and the white of the eye object, calculates the positional relationship between the pupil object and the white of the eye object divided by the deep learning model unit 130, and determines the gaze direction of the forklift driver. The eye area segmentation prediction result by the gaze direction measurement unit 140 and the deep learning model unit 130 that measures the gaze direction and the gaze direction by the gaze direction measurement unit 140 are analyzed to determine whether the forklift is drowsy or safe. It includes a control unit 150 that determines and provides warning information according to the judgment result, and analyzes the driver's eye image using a deep learning model to predict the direction of gaze in real time to prevent safety accidents due to drowsy driving, carelessness, or inexperience. We are launching a driving assistance system through deep learning-based forklift driver eye tracking that can prevent accidents.

Description

딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템, 동 방법 및 이를 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체{DRIVING ASSISTING SYSTEM THROUGH TRACKING OF EYE OF FORK LIFT DRIVER BASED ON DEEP LEARNING, METHOD FOR THE SAME, AND COMPUTER-READABLE RECORDING INCLUDING THE SAME}A driving assistance system through deep learning-based forklift driver eye tracking, a computer-readable recording medium on which the method and a computer program for executing the same on a computer are recorded {DRIVING ASSISTING SYSTEM THROUGH TRACKING OF EYE OF FORK LIFT DRIVER BASED ON DEEP LEARNING, METHOD FOR THE SAME, AND COMPUTER-READABLE RECORDING INCLUDING THE SAME}

본 발명은 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템, 동 방법 및 이를 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 보다 상세하게는, 딥러닝 모델에 의해 운전자의 눈 이미지를 분석하여 실시간으로 시선방향을 예측하여서 졸음운전, 부주의 또는 미숙련으로 인한 안전사고 발생을 예방할 수 있는, 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템, 동 방법 및 이를 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체에 관한 것이다.The present invention relates to a driving assistance system through deep learning-based forklift driver eye tracking, the method, and a computer-readable recording medium on which a computer program for executing the same is recorded on a computer. More specifically, the present invention relates to a computer-readable recording medium on which a computer program for executing the same on a computer is recorded. Driving assistance system through deep learning-based forklift driver gaze tracking that analyzes the driver's eye image and predicts the gaze direction in real time to prevent safety accidents due to drowsy driving, carelessness, or inexperience, the method, and execution of the method on a computer It relates to a computer-readable recording medium on which a computer program for performing the following is recorded.

주지하는 바와 같이, 기존 지게차 주행 및 작업 시, 주로 지게차 운전자 외에 보행자나 타 작업자, 혹은 다른 차량이 피할 수 있도록 경고음을 내주는 시스템이 존재한다. 하지만 대다수의 지게차에는 경고음이 존재함에도 지게차 운전자의 부주의 혹은 미숙련으로 인하여 안전사고가 발생한다.As is well known, when driving and working with a conventional forklift, there is a system that emits a warning sound so that pedestrians, other workers, or other vehicles other than the forklift driver can avoid. However, even though the majority of forklifts have warning sounds, safety accidents occur due to the forklift driver's carelessness or inexperience.

즉, 기존 시스템의 문제점은 지게차 운전자의 상태 정보를 이용한 경고 시스템이 아닌 지게차 운전자 외에 외부 환경에 경고를 주는 시스템으로, 지게차 운전자가 부주의한 경우에 대처를 할 수 없다는 단점이 존재한다.In other words, the problem with the existing system is that it is a system that warns the external environment in addition to the forklift driver, rather than a warning system using the forklift driver's status information, and has the disadvantage of not being able to respond if the forklift driver is careless.

이에, 지게차 주행 및 작업 시, 지게차 운전자의 시선이 어느 방향으로 향하는지와 같은 상태 정보를 딥러닝 기반으로 학습하여 지게차 운전자가 전방 주시를 하지 않고 있거나, 모바일 기기를 사용하며 운전을 하는지, 혹은 졸음운전을 하는지와 같은 상태를 인식하고, 인식한 상태를 활용하여 조치를 취하는 시스템을 제안하고자 한다.Accordingly, when driving and working on a forklift, state information such as the direction in which the forklift driver's gaze is directed is learned based on deep learning to detect whether the forklift driver is not looking forward, is driving while using a mobile device, or is drowsy. We would like to propose a system that recognizes states such as driving and takes action using the recognized states.

한국 등록특허공보 제10-2254384호 (딥 러닝 기반 운전자 시선 추적 장치 및 방법, 2021.05.24)Korean Patent Publication No. 10-2254384 (Deep learning-based driver eye tracking device and method, 2021.05.24) 한국 등록특허공보 제10-2017766호 (딥 러닝 기반의 차량 운전자 시선 추적 장치 및 방법, 2019.10.15)Korean Patent Publication No. 10-2017766 (Deep learning-based vehicle driver eye tracking device and method, October 15, 2019)

본 발명의 사상이 이루고자 하는 기술적 과제는, 딥러닝 모델에 의해 운전자의 눈 이미지를 분석하여 실시간으로 시선방향을 예측하여서 졸음운전, 부주의 또는 미숙련으로 인한 안전사고 발생을 예방할 수 있는, 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템, 동 방법 및 이를 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체를 제공하는 데 있다.The technical problem to be achieved by the idea of the present invention is to develop a deep learning-based forklift that can prevent safety accidents due to drowsy driving, carelessness, or inexperience by predicting the gaze direction in real time by analyzing the driver's eye image using a deep learning model. The aim is to provide a computer-readable recording medium on which a driving assistance system through driver eye tracking, the method, and a computer program for executing the same on a computer are recorded.

전술한 목적을 달성하고자, 본 발명의 일 실시예는, 지게차 운전자의 얼굴영역을 촬영하는 비전카메라; 상기 비전카메라에 의해 촬영된 얼굴영역 영상을 저장하는 데이터베이스; 상기 데이터베이스의 얼굴영역 영상의 눈 이미지로부터 눈동자 객체와 흰자위 객체를 분할하도록 학습되어 예측하는 딥러닝 모델부; 상기 딥러닝 모델부에 의해 분할된 상기 눈동자 객체와 상기 흰자위 객체의 위치관계를 산출하여 상기 지게차 운전자의 시선방향을 측정하는 시선방향 측정부; 및 상기 딥러닝 모델부에 의한 눈영역 분할 예측결과 및 상기 시선방향 측정부에 의한 시선방향을 분석하여 지게차의 졸음운전여부 또는 안전주행여부를 판단하고, 판단결과에 따라 경고 정보를 제공하는 제어부;를 포함하는, 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템을 개시한다.In order to achieve the above-described object, an embodiment of the present invention includes a vision camera for photographing the face area of a forklift driver; a database storing face area images captured by the vision camera; A deep learning model unit that learns and predicts to segment eye objects and eye white objects from the eye image of the face area image in the database; a gaze direction measurement unit that measures the gaze direction of the forklift driver by calculating a positional relationship between the pupil object and the white eye object divided by the deep learning model unit; and a control unit that analyzes the eye area segmentation prediction result by the deep learning model unit and the gaze direction by the gaze direction measurement unit to determine whether the forklift is drowsy or safe to drive, and provides warning information according to the determination result. Discloses a driving assistance system through deep learning-based forklift driver eye tracking, including.

여기서, 상기 딥러닝 모델부는, 시멘틱 세그멘테이션 모델일 수 있다.Here, the deep learning model unit may be a semantic segmentation model.

이때, 상기 시멘틱 세그멘테이션 모델은, DeepLab V3+ 모델을 적용할 수 있다.At this time, the DeepLab V3+ model can be applied to the semantic segmentation model.

구체적으로, 상기 DeepLab V3+ 모델은, 상기 눈 이미지로부터 저해상도 특징맵을 추출하는 atrous 컨벌루션모듈과, 상기 특징맵에 대해 임의의 해상도 특징맵을 추출하도록 레이트가 상이한 다수의 atrous 컨벌루션을 병렬로 수행하고 이어붙이는(concatenate) ASPP(Atrous Spatial Pyramid Pooling)와, 그리고 상기 ASPP의 결과를 1×1 컨벌루션하는 제1컨벌루션모듈이 포함된, 인코더; 및 상기 atrous 컨벌루션모듈로부터의 상기 저해상도 특징맵을 1×1 컨벌루션하는 제2컨벌루션모듈과, 상기 제1컨벌루션모듈로부터의 특징맵을 업샘플링하는 제1업샘플링모듈과, 상기 제2컨벌루션모듈에 의한 특징맵과 상기 제1업샘플링모듈에 의해 업샘플링된 특징맵을 이어붙이는 concatenate모듈과, 상기 concatenate모듈에 의한 특징맵을 3×3 컨벌루션하는 제3컨벌루션모듈과, 그리고 상기 제3컨벌루션모듈에 의한 특징맵을 업샘플링하여 복원하는 제2업샘플링모듈이 포함된, 디코더;를 포함하여, 상기 눈 이미지의 픽셀로부터 상기 눈동자 객체와 상기 흰자위 객체의 클래스를 분할하여 클래스별로 상이한 픽셀값을 갖는 세그멘테이션 라벨을 예측할 수 있다.Specifically, the DeepLab V3+ model performs an atrous convolution module that extracts a low-resolution feature map from the eye image and a plurality of atrous convolutions with different rates in parallel to extract a random resolution feature map for the feature map, and then An encoder including concatenate Atrous Spatial Pyramid Pooling (ASPP) and a first convolution module for 1×1 convolution of the result of the ASPP; and a second convolution module for 1×1 convolution of the low-resolution feature map from the atrous convolution module, a first upsampling module for upsampling the feature map from the first convolution module, and A concatenate module that connects a feature map and a feature map upsampled by the first upsampling module, a third convolution module that performs 3×3 convolution of the feature map by the concatenate module, and A decoder including a second upsampling module that upsamples and restores a feature map; including a segmentation label that divides the classes of the eye object and the white of the eye object from pixels of the eye image and has different pixel values for each class. can be predicted.

여기서, 상기 ASPP는, 1×1 컨벌루션 레이어와, 레이트 6의 3×3 컨벌루션 레이어와, 레이트 12의 3×3 컨벌루션 레이어와, 레이트 18의 3×3 컨벌루션 레이어와, 그리고 이미지 풀링 레이어를 포함할 수 있다.Here, the ASPP may include a 1×1 convolutional layer, a 3×3 convolutional layer at a rate of 6, a 3×3 convolutional layer at a rate of 12, a 3×3 convolutional layer at a rate of 18, and an image pooling layer. You can.

또한, 상기 시선방향 측정부는, 상기 딥러닝 모델부에 의해 예측된 상기 눈동자 객체와 상기 흰자위 객체의 분할된 픽셀의 각 중심 좌표를 연산하여 시선벡터값을 구하여서 상기 지게차 운전자의 시선방향을 추적할 수 있다.In addition, the gaze direction measuring unit calculates the center coordinates of each divided pixel of the pupil object and the white eye object predicted by the deep learning model unit to obtain a gaze vector value to track the gaze direction of the forklift driver. You can.

또한, 상기 제어부는, 상기 딥러닝 모델부에 의해 예측된 상기 눈동자 객체와 상기 흰자위 객체의 분할된 픽셀의 각 면적을 산출하고, 산출된 상기 각 면적을 통해서 눈을 지속적으로 감는 행위 또는 상기 감는 행위의 빈도수를 분석하여 상기 졸음운전여부를 판단하고, 상기 시선방향 측정부에 의해 측정된 시선방향을, 상기 지게차의 주행방향과 비교하여 상기 안전운전여부를 판단할 수 있다.In addition, the control unit calculates each area of the divided pixels of the pupil object and the white eye object predicted by the deep learning model unit, and the act of continuously closing the eyes or the act of closing the eyes through each calculated area. Drowsy driving can be determined by analyzing the frequency, and safe driving can be determined by comparing the gaze direction measured by the gaze direction measurement unit with the driving direction of the forklift.

또한, 상기 비전카메라는, 상기 지게차의 내부 센터페시아에 설치되어 상기 지게차 운전자의 얼굴영역을 80도의 FoV로 촬영할 수 있다.Additionally, the vision camera is installed on the inner center fascia of the forklift and can capture the face area of the forklift driver with an 80-degree FoV.

또한, 상기 제어부는, 상기 비전카메라에 의해 촬영된 상기 얼굴영역 영상으로부터 상기 지게차 운전자의 머리 이미지의 픽셀의 분포 면적을 분석하여 반복적인 상하 머리 움직임에 따른 상기 졸음음전여부를 판단할 수 있다.Additionally, the control unit may analyze the distribution area of pixels of the head image of the forklift driver from the facial area image captured by the vision camera to determine whether the driver is drowsy due to repetitive up and down head movements.

한편, 본 발명의 다른 실시예는, 비전카메라에 의해 지게차 운전자의 얼굴영역을 촬영하는 제1단계; 상기 비전카메라에 의해 촬영된 얼굴영역 영상을 데이터베이스에 저장하는 제2단계; 기 학습되어 구축된 딥러닝 모델부에 의해 상기 데이터베이스의 얼굴영역 영상의 눈 이미지로부터 눈동자 객체와 흰자위 객체를 분할하도록 예측하는 제3단계; 시선방향 측정부에 의해서, 상기 딥러닝 모델부에 의해 분할된 상기 눈동자 객체와 상기 흰자위 객체의 위치관계를 산출하여 상기 지게차 운전자의 시선방향을 측정하는 제4단계; 및 제어부를 통해, 상기 딥러닝 모델부에 의한 눈영역 분할 예측결과 및 상기 시선방향 측정부에 의한 시선방향을 분석하여 지게차의 졸음운전여부 또는 안전주행여부를 판단하고, 판단결과에 따라 경고 정보를 제공하는 제5단계;를 포함하는, 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법을 제공한다.Meanwhile, another embodiment of the present invention includes a first step of photographing the face area of a forklift driver using a vision camera; A second step of storing the facial area image captured by the vision camera in a database; A third step of predicting to segment the eye object and the white of the eye object from the eye image of the face area image in the database by a previously learned and constructed deep learning model unit; A fourth step of measuring the gaze direction of the forklift driver by calculating a positional relationship between the pupil object and the white eye object divided by the deep learning model unit by a gaze direction measurement unit; And through the control unit, the prediction result of eye area division by the deep learning model unit and the gaze direction by the gaze direction measurement unit are analyzed to determine whether the forklift is drowsy or safe to drive, and provides warning information according to the judgment result. Provides a driving assistance method through deep learning-based forklift driver eye tracking, including a fifth step of providing.

여기서, 상기 딥러닝 모델부는, 시멘틱 세그멘테이션 모델일 수 있다.Here, the deep learning model unit may be a semantic segmentation model.

이때, 상기 시멘틱 세그멘테이션 모델은, DeepLab V3+ 모델을 적용할 수 있다.At this time, the DeepLab V3+ model can be applied to the semantic segmentation model.

구체적으로, 상기 DeepLab V3+ 모델은, 상기 눈 이미지로부터 저해상도 특징맵을 추출하는 atrous 컨벌루션모듈과, 상기 특징맵에 대해 임의의 해상도 특징맵을 추출하도록 레이트가 상이한 다수의 atrous 컨벌루션을 병렬로 수행하는 이어붙이는(concatenate) ASPP(Atrous Spatial Pyramid Pooling)와, 그리고 상기 ASPP의 결과를 1×1 컨벌루션하는 제1컨벌루션모듈이 포함된, 인코더; 및 상기 atrous 컨벌루션모듈로부터의 상기 저해상도 특징맵을 1×1 컨벌루션하는 제2컨벌루션모듈과, 상기 제1컨벌루션모듈로부터의 특징맵을 업샘플링하는 제1업샘플링모듈과, 상기 제2컨벌루션모듈에 의한 특징맵과 상기 제1업샘플링모듈에 의해 업샘플링된 특징맵을 이어붙이는 concatenate모듈과, 상기 concatenate모듈에 의한 특징맵을 3×3 컨벌루션하는 제3컨벌루션모듈과, 그리고 상기 제3컨벌루션모듈에 의한 특징맵을 업샘플링하여 복원하는 제2업샘플링모듈이 포함된, 디코더;를 포함하여, 상기 눈 이미지의 픽셀로부터 상기 눈동자 객체와 상기 흰자위 객체의 클래스를 분할하여 클래스별로 상이한 픽셀값을 갖는 세그멘테이션 라벨을 예측할 수 있다.Specifically, the DeepLab V3+ model includes an atrous convolution module that extracts a low-resolution feature map from the eye image, and an ear that performs multiple atrous convolutions with different rates in parallel to extract a random resolution feature map for the feature map. An encoder including concatenate Atrous Spatial Pyramid Pooling (ASPP) and a first convolution module for 1×1 convolution of the result of the ASPP; and a second convolution module for 1×1 convolution of the low-resolution feature map from the atrous convolution module, a first upsampling module for upsampling the feature map from the first convolution module, and A concatenate module that connects a feature map and a feature map upsampled by the first upsampling module, a third convolution module that performs 3×3 convolution of the feature map by the concatenate module, and A decoder including a second upsampling module that upsamples and restores a feature map; including a segmentation label that divides the classes of the eye object and the white of the eye object from pixels of the eye image and has different pixel values for each class. can be predicted.

여기서, 상기 ASPP는, 1×1 컨벌루션 레이어와, 레이트 6의 3×3 컨벌루션 레이어와, 레이트 12의 3×3 컨벌루션 레이어와, 레이트 18의 3×3 컨벌루션 레이어와, 그리고 이미지 풀링 레이어를 포함할 수 있다.Here, the ASPP may include a 1×1 convolutional layer, a 3×3 convolutional layer at a rate of 6, a 3×3 convolutional layer at a rate of 12, a 3×3 convolutional layer at a rate of 18, and an image pooling layer. You can.

또한, 상기 시선방향 측정부는, 상기 딥러닝 모델부에 의해 예측된 상기 눈동자 객체와 상기 흰자위 객체의 분할된 픽셀의 각 중심 좌표를 연산하여 시선벡터값을 구하여서 상기 지게차 운전자의 시선방향을 추적할 수 있다.In addition, the gaze direction measuring unit calculates the center coordinates of each divided pixel of the pupil object and the white eye object predicted by the deep learning model unit to obtain a gaze vector value to track the gaze direction of the forklift driver. You can.

또한, 상기 제5단계에서, 상기 제어부는, 상기 딥러닝 모델부에 의해 예측된 상기 눈동자 객체와 상기 흰자위 객체의 분할된 픽셀의 각 면적을 산출하고, 산출된 상기 각 면적을 통해서 눈을 지속적으로 감는 행위 또는 상기 감는 행위의 빈도수를 분석하여 상기 졸음운전여부를 판단하고, 상기 시선방향 측정부에 의해 측정된 시선방향을, 상기 지게차의 주행방향과 비교하여 상기 안전운전여부를 판단할 수 있다.In addition, in the fifth step, the control unit calculates each area of the divided pixels of the pupil object and the white eye object predicted by the deep learning model unit, and continuously controls the eye through each calculated area. Drowsy driving can be determined by analyzing the winding act or the frequency of the winding act, and safe driving can be determined by comparing the gaze direction measured by the gaze direction measurement unit with the traveling direction of the forklift.

또한, 상기 비전카메라는, 상기 지게차의 내부 센터페시아에 설치되어 상기 지게차 운전자의 얼굴영역을 80도의 FoV로 촬영할 수 있다.Additionally, the vision camera is installed on the inner center fascia of the forklift and can capture the face area of the forklift driver with an 80-degree FoV.

또한, 상기 제어부가 상기 비전카메라에 의해 촬영된 상기 얼굴영역 영상으로부터 상기 지게차 운전자의 머리 이미지의 픽셀의 분포 면적을 분석하여 반복적인 상하 머리 움직임에 따른 상기 졸음음전여부를 판단하는 제6단계를 더 포함할 수 있다.In addition, a sixth step is performed in which the control unit analyzes the distribution area of pixels of the head image of the forklift driver from the facial area image captured by the vision camera and determines whether the drowsiness is precipitated due to repetitive up and down head movements. It can be included.

한편, 본 발명의 또 다른 실시예는 앞서 열거한 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체를 제공한다.Meanwhile, another embodiment of the present invention provides a computer-readable recording medium on which a computer program for executing the driving assistance method through deep learning-based forklift driver eye tracking listed above on a computer is recorded.

본 발명에 의하면, 얼굴 영상의 이미지로부터 눈동자와 흰자위 객체의 분할을 실시간으로 수행하는 딥러닝 모델을 적용하여, 눈 이미지를 분석하여 실시간으로 시선방향을 예측하여서 졸음운전, 부주의 또는 미숙련으로 인한 전방 미주시, 모바일기기에 사용에 의한 시선이동에 따른 안전운행여부를 판단하고, 판단결과에 따라 운전자에게 즉시 경고하여 안전사고 발생을 미연에 방지하도록 할 수 있는 효과가 있다.According to the present invention, by applying a deep learning model that performs real-time segmentation of the pupil and the white of the eye object from the image of the face image, the gaze direction is predicted in real time by analyzing the eye image, and the anterior vagus due to drowsy driving, carelessness, or inexperience is prevented. It has the effect of determining whether driving is safe based on eye movements caused by the use of a mobile device and immediately warning the driver based on the judgment result to prevent safety accidents in advance.

도 1은 본 발명의 일 실시예에 의한 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템의 개략적인 구성도를 도시한 것이다.
도 2는 도 1의 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템의 딥러닝 모델부를 분리 도시한 것이다.
도 3은 본 발명의 다른 실시예에 의한 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법의 흐름도를 도시한 것이다.
Figure 1 shows a schematic configuration diagram of a driving assistance system through deep learning-based forklift driver eye tracking according to an embodiment of the present invention.
Figure 2 is a separate illustration of the deep learning model part of the driving assistance system through deep learning-based forklift driver eye tracking of Figure 1.
Figure 3 is a flowchart of a driving assistance method through deep learning-based forklift driver eye tracking according to another embodiment of the present invention.

이하, 첨부된 도면을 참조로 전술한 특징을 갖는 본 발명의 실시예를 더욱 상세히 설명하고자 한다.Hereinafter, embodiments of the present invention having the above-described features will be described in more detail with reference to the attached drawings.

본 발명의 일 실시예에 의한 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템은, 지게차 운전자의 얼굴영역을 촬영하는 비전카메라(110), 비전카메라(110)에 의해 촬영된 얼굴영역 영상을 저장하는 데이터베이스(120), 데이터베이스(120)의 얼굴영역 영상의 눈 이미지로부터 눈동자 객체와 흰자위 객체를 분할하도록 학습되어 예측하는 딥러닝 모델부(130), 딥러닝 모델부(130)에 의해 분할(구분)된 눈동자 객체와 흰자위 객체의 위치관계를 산출하여 지게차 운전자의 시선방향을 측정하는 시선방향 측정부(140), 및 딥러닝 모델부(130)에 의한 눈영역 분할 예측결과 및 시선방향 측정부(140)에 의한 시선방향을 분석하여 지게차의 졸음운전여부 및/또는 안전주행여부 등을 판단하고, 판단결과에 따라 경고 정보를 제공하는 제어부(150)를 포함하여, 딥러닝 모델에 의해 운전자의 눈 이미지를 분석하여 시선방향을 실시간으로 예측하여 졸음운전, 부주의 또는 미숙련으로 인한 안전사고 발생을 예방하는 것을 요지로 한다.The driving assistance system through deep learning-based forklift driver eye tracking according to an embodiment of the present invention includes a vision camera 110 that photographs the face area of the forklift driver, and stores the face area image captured by the vision camera 110. The database 120, the deep learning model unit 130 that learns and predicts to segment the eye object and the white of the eye object from the eye image of the face area image of the database 120, and the deep learning model unit 130 divide (classify). ), a gaze direction measurement unit 140 that measures the gaze direction of the forklift driver by calculating the positional relationship between the pupil object and the white of the eye object, and an eye region segmentation prediction result and a gaze direction measurement unit by the deep learning model unit 130 ( 140), including a control unit 150 that analyzes the gaze direction to determine whether the forklift is drowsy and/or safe to drive, and provides warning information according to the judgment result, and the driver's eyes are controlled by a deep learning model. The aim is to prevent safety accidents caused by drowsy driving, carelessness, or inexperience by analyzing images and predicting gaze direction in real time.

이하, 도 1 및 도 2를 참조하여, 전술한 구성의 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템을 구체적으로 상술하면 다음과 같다.Hereinafter, with reference to FIGS. 1 and 2, the driving assistance system through deep learning-based forklift driver eye tracking of the above-described configuration will be described in detail as follows.

우선, 비전카메라(110)는 지게차(10)를 운전하는 운전자의 얼굴영역을 촬영하는 카메라로서, 지게차의 내부 센터페시아에 설치되어 지게차 운전자의 정면 얼굴영역을 80도의 FoV(Field of View)로 촬영할 수 있다.First, the vision camera 110 is a camera that captures the facial area of the driver driving the forklift 10. It is installed on the inner center fascia of the forklift and can capture the front facial area of the forklift driver with an 80-degree FoV (Field of View). You can.

예컨대, 비전카메라(110)는 근적외선 카메라 및 근적외선 LED 조명을 포함할 수 있으며, 근적외선 LED 조명은 눈부심이 거의 없어 운전자의 시야를 방해하거나 운전에 영향을 미치지 않으며, 주야간의 외부 조명환경에 상관없이 운전자의 눈 검출을 위해 눈 이미지 식별이 가능한 영상을 획득하도록 할 수 있고, 넓은 각도의 FoV로 운전자를 지속적으로 모니터링할 수 있다.For example, the vision camera 110 may include a near-infrared camera and a near-infrared LED light. The near-infrared LED light has little glare, so it does not interfere with the driver's vision or affect driving, and can be used by the driver regardless of the external lighting environment day or night. For eye detection, images capable of identifying eye images can be acquired, and the driver can be continuously monitored with a wide angle FoV.

다음, 데이터베이스(120)는 지게차(10) 주행 중 또는 작업 중 비전카메라(110)에 의해 촬영된 얼굴영역 영상을 제공받아 저장하며, 딥러닝 모델부(130) 또는 시선방향 측정부(140)의 학습데이터로서, 데이터베이스(120)에는 운전자의 눈 이미지의 분할 및 운전자의 시선 추적을 위해 날씨별, 계절별, 하루의 다양한 시간대, 아침, 점심 및 저녁에 획득된 다양한 얼굴영역 영상을 제공받을 수 있다.Next, the database 120 receives and stores the face area image captured by the vision camera 110 while the forklift 10 is running or working, and the deep learning model unit 130 or the gaze direction measurement unit 140 As learning data, the database 120 can be provided with various facial area images acquired by weather, season, various times of the day, morning, lunch, and evening for segmentation of the driver's eye image and tracking the driver's gaze.

다음, 딥러닝 모델부(130)는 데이터베이스(120)로부터 실시간으로 제공받은 얼굴영역 영상의 눈 이미지로부터 눈동자 객체와 흰자위 객체를 분할하도록 학습되어서, 각 눈 이미지의 픽셀들이 눈동자 영역의 클래스 또는 흰자위 영역의 클래스에 속하는지를 예측하여 눈동자와 흰자위를 구분하여 인식하도록 할 수 있다.Next, the deep learning model unit 130 is trained to segment the pupil object and the white of the eye object from the eye image of the face area image provided in real time from the database 120, so that the pixels of each eye image are classified into the class of the pupil area or the white of the eye area. By predicting whether the object belongs to a class, the pupils and whites of the eyes can be distinguished and recognized.

여기서, 딥러닝 모델부(130)는, 관심영역(RoI;Region of Interest)을 추출하지 않고 이미지 전체에 대해 분류를 수행하도록 지역 제안(regional proposal)과 분류(classification)이 동시에 이루어짐과 아울러, 빠른 연산속도로 30fps 이상의 실시간 검출(realtime detection)이 가능하여 실시간 예측이 가능한 1-stage detector 기반의 시멘틱 세그멘테이션(semantic segmentation) 모델일 수 있다.Here, the deep learning model unit 130 performs regional proposals and classifications at the same time to classify the entire image without extracting the region of interest (RoI), and also performs fast It can be a semantic segmentation model based on a 1-stage detector capable of real-time prediction by enabling real-time detection at a computation speed of 30 fps or more.

또한, 시멘틱 세그멘테이션 모델로는, depthwise separable 컨벌루션과, atrous 컨벌루션을 결합한 atrous separable 컨벌루션을 활용한 DeepLab V3+ 모델을 적용할 수 있다.Additionally, as a semantic segmentation model, the DeepLab V3+ model using atrous separable convolution, which combines depthwise separable convolution and atrous convolution, can be applied.

여기서, depthwise separable 컨벌루션은, 기존 컨벌루션 필터와 달리, spatial dimension과 channel dimension을 별도로 분리시켜 각각 처리하여 파라미터 수와 연산량을 줄일 수 있고, atrous 컨벌루션은 기존 컨벌루션과 동일한 양의 파라미터와 계산량을 유지하면서도 receptive field를 크게 가져가고 풀링(pooling) 없이 정보의 손실을 최소화하여 해상도가 보다 양호한 결과를 얻을 수 있다.Here, depthwise separable convolution, unlike existing convolution filters, can reduce the number of parameters and computation amount by processing spatial dimension and channel dimension separately, and atrous convolution maintains the same amount of parameters and computation amount as existing convolution while maintaining receptive By enlarging the field and minimizing information loss without pooling, results with better resolution can be obtained.

구체적으로, 도 2를 참고하면, DeepLab V3+ 모델은, ResNet-50을 backbone 네트워크로 사용하며, ASPP(132)(Atrous Spatial Pyramid Pooling)를 인코더(130A)로 사용하여 특징맵을 추출하고, 디코더(130B)를 통해 인코더(130A)의 특징맵을 업샘플링하도록 스킵 아키텍쳐를 도입하여 인코더(130A)와 디코더(130B)를 연결한 DeepLab V3 모델이다.Specifically, referring to Figure 2, the DeepLab V3+ model uses ResNet-50 as a backbone network, ASPP (132) (Atrous Spatial Pyramid Pooling) as an encoder (130A) to extract a feature map, and a decoder ( This is a DeepLab V3 model that connects the encoder 130A and the decoder 130B by introducing a skip architecture to upsample the feature map of the encoder 130A through 130B).

즉, 인코더(130A)는, 눈 이미지로부터 저해상도 특징맵을 추출하는 atrous 컨벌루션모듈(131)과, 특징맵에 대해 임의의 해상도 특징맵을 추출하도록 필터 내부에 빈공간을 두도록하는 레이트(rate)가 상이한 다수의 atrous 컨벌루션을 병렬로 수행하는 이어붙이는(concatenate) ASPP(Atrous Spatial Pyramid Pooling)(132)와, ASPP(132)의 결과를 1×1 컨벌루션하는 제1컨벌루션모듈(133)을ㄹ 포함할 수 있다.That is, the encoder 130A has an atrous convolution module 131 that extracts a low-resolution feature map from the eye image, and a rate that leaves an empty space inside the filter to extract an arbitrary resolution feature map for the feature map. It will include a concatenate ASPP (Atrous Spatial Pyramid Pooling) 132 that performs a number of different atrous convolutions in parallel, and a first convolution module 133 that performs 1×1 convolution of the result of ASPP 132. You can.

여기서, ASPP(132)는, 1×1 컨벌루션 레이어와, 레이트 6의 3×3 컨벌루션 레이어와, 레이트 12의 3×3 컨벌루션 레이어와, 레이트 18의 3×3 컨벌루션 레이어와, 이미지 풀링 레이어를 포함할 수 있다.Here, ASPP 132 includes a 1×1 convolutional layer, a 3×3 convolutional layer with a rate of 6, a 3×3 convolutional layer with a rate of 12, a 3×3 convolutional layer with a rate of 18, and an image pooling layer. can do.

또한, 디코더(130B)는, atrous 컨벌루션모듈(131)로부터의 저해상도 특징맵을 1×1 컨벌루션하는 제2컨벌루션모듈(134)과, 제1컨벌루션모듈(133)로부터의 특징맵을 4배 업샘플링하는 제1업샘플링모듈(135)과, 제2컨벌루션모듈(134)에 의한 특징맵과 제1업샘플링모듈(135)에 의해 업샘플링된 특징맵을 이어붙이는 concatenate모듈(136)과, concatenate모듈(136)에 의한 특징맵을 3×3 컨벌루션하는 제3컨벌루션모듈(137)과, 제3컨벌루션모듈(137)에 의한 특징맵을 4배 업샘플링하여 복원하는 제2업샘플링모듈(138)을 포함하여, 눈 이미지의 픽셀로부터 눈동자 객체와 흰자위 객체의 클래스를 분할하여 클래스별로 상이한 픽셀값을 갖는 세그멘테이션 라벨을 예측하도록 할 수 있다.In addition, the decoder 130B includes a second convolution module 134 that performs 1×1 convolution of the low-resolution feature map from the atrous convolution module 131, and a 4-fold upsampling of the feature map from the first convolution module 133. A first upsampling module 135, a concatenate module 136 that connects the feature map by the second convolution module 134 and the feature map upsampled by the first upsampling module 135, and a concatenate module A third convolution module 137 that convolves the feature map by 3×3 by (136), and a second upsampling module 138 that restores the feature map by upsampling 4 times the feature map by the third convolution module 137. Including, it is possible to segment the classes of the eye object and the white of the eye object from the pixels of the eye image and predict a segmentation label with different pixel values for each class.

이와 같은 구조로 이루어진 DeepLab V3+ 모델은, 인코더(130A)로부터의 최종 특징맵에 대해 4배 업샘플링하며, 인코더(130A) 중간에 나온 저해상도 특징맵을 1×1 컨벌루션을 적용하여 채널을 줄여, concatenate모듈(136)에 의해 제1컨벌루션모듈(133)로부터의 특징맵과 제2컨벌루션모듈(134)로부터의 특징맵의 concatenation이 가능하도록 하고, 디코더(130B)의 제3컨벌루션모듈(137)과 제2업샘플링모듈(138)을 거쳐 입력된 눈 이미지의 크기로 복원되어 눈동자 객체와 흰자위 객체의 클래스로 최종 분할된 데이터를 예측할 수 있다.The DeepLab V3+ model with this structure upsamples the final feature map from the encoder (130A) by 4 times, and applies 1×1 convolution to the low-resolution feature map from the middle of the encoder (130A) to reduce the channel and concatenate it. The module 136 enables concatenation of the feature map from the first convolution module 133 and the feature map from the second convolution module 134, and the third convolution module 137 and the third convolution module 137 of the decoder 130B The size of the input eye image is restored through the 2-up-sampling module 138, and the data finally divided into the classes of the eye object and the white of the eye object can be predicted.

다음, 시선방향 측정부(140)는 앞선 딥러닝 모델부(130)에 분할된 눈동자 객체와 흰자위 객체의 위치관계를 산출하여 주행 중 또는 작업 중 운전자의 시선방향을 측정하도록 한다.Next, the gaze direction measurement unit 140 calculates the positional relationship between the pupil object and the white of the eye object divided by the preceding deep learning model unit 130 to measure the driver's gaze direction while driving or working.

예컨대, 시선방향 측정부(140)는, 딥러닝 모델부(130)에 의해 예측된 눈동자 객체와 흰자위 객체의 분할된 픽셀의 각 중심 좌표를 연산하고, 각 중심 좌표의 변화를 통해 운전자의 시선이 향하는 시선벡터값을 구하여서 지게차 운전자의 시선방향을 추적하도록 학습된 딥러닝모델일 수 있으며, 이에 의해 특정 개수 이상의 시선방향을 학습하여 운전자의 시선방향을 예측하도록 할 수 있다.For example, the gaze direction measurement unit 140 calculates the center coordinates of each divided pixel of the eye object and the white of the eye object predicted by the deep learning model unit 130, and changes the driver's gaze through changes in each center coordinate. It may be a deep learning model learned to track the gaze direction of the forklift driver by obtaining the facing gaze vector value, thereby learning a certain number of gaze directions or more to predict the driver's gaze direction.

다음, 제어부(150)는 딥러닝 모델부(130)에 의한 눈영역 분할 예측결과를 분석하고, 시선방향 측정부(140)에 의한 시선방향 측정(추적)을 분석하여서, 지게차 운전자의 졸음운전과, 주행방향과 무관한 잘못된 시선방향, 모바일기기 사용에 따른 시선이동 등의 지게차의 안전주행여부를 판단하고, 판단결과에 따라 경고 정보를 LED등을 통한 점멸신호로 또는 스피커를 통한 특정 dB 이상의 경고신호 또는 음성신호로 지게차 운전자에게 즉시 제공하여 안전주행을 하도록 주의를 줄 수 있다.Next, the control unit 150 analyzes the eye region segmentation prediction results by the deep learning model unit 130 and analyzes the gaze direction measurement (tracking) by the gaze direction measurement unit 140 to determine whether the forklift driver's drowsy driving and , determines whether the forklift is driving safely due to incorrect gaze direction unrelated to the driving direction, gaze movement due to use of mobile device, etc., and depending on the judgment result, warning information is provided as a flashing signal through LED lights or a warning exceeding a certain dB through a speaker. A signal or voice signal can be immediately provided to the forklift driver to warn him or her to drive safely.

또한, 제어부(150)는, 딥러닝 모델부(130)에 의해 예측된 눈동자 객체와 흰자위 객체의 분할된 픽셀의 각 면적을 산출하고, 산출된 각 면적의 상대적인 변화를 분석하여서, 눈을 지속적으로 감는 행위 또는 감는 행위의 빈도수를 분석하여 졸음운전여부를 판단하고, 시선방향 측정부(140)에 의해 측정(추적)된 시선방향을 지게차의 주행방향과 비교하여서(예를 들어, 시선방향과 지게차의 주행방향의 상하, 좌우, 전후방향과 비교하여서) 부주의 또는 미숙련으로 인한 전방 미주시, 모바일기기 사용에 의한 시선 하향이동 등에 따른 안전운전여부를 판단할 수도 있다.In addition, the control unit 150 calculates each area of the divided pixels of the eye object and the white of the eye object predicted by the deep learning model unit 130, analyzes the relative change in each calculated area, and continuously monitors the eye. Drowsy driving is determined by analyzing the winding action or the frequency of the winding action, and the gaze direction measured (tracked) by the gaze direction measurement unit 140 is compared with the driving direction of the forklift (for example, the gaze direction and the forklift By comparing the driving direction (up and down, left and right, forward and backward), it is possible to determine whether driving is safe due to missing attention ahead due to carelessness or inexperience, or downward movement of gaze due to use of a mobile device.

또한, 제어부(150)는 비전카메라(110)에 의해 촬영된 얼굴영역 영상으로부터 지게차 운전자의 머리 이미지의 픽셀의 분포 면적을 분석하여 반복적인 상하 머리 움직임에 따른 졸음음전여부를 판단할 수도 있다. 예컨대, 앞서 언급한 딥러닝 모델부(130)는 얼굴영상 이미지로부터 안면 객체와 머리 객체의 클래스를 분할하도록 학습되어 각 객체의 픽셀이 어느 클래스에 속하는지 예측하도록 하고, 해당 픽셀의 면적 분포 변화를 분석하여 졸음운전 등을 판단하도록 할 수도 있다.Additionally, the control unit 150 may analyze the pixel distribution area of the forklift driver's head image from the facial area image captured by the vision camera 110 to determine whether or not the driver is drowsy due to repetitive up and down head movements. For example, the deep learning model unit 130 mentioned above is trained to segment the classes of facial objects and head objects from facial image images to predict which class the pixels of each object belong to, and determine the change in area distribution of the corresponding pixels. It can also be analyzed to determine drowsy driving, etc.

또한, 제어부(150)는, 지게차의 주행시스템(10)과 연동하여, 졸음운전으로 판단된 경우 경고음을 내면서 긴급 제동하여 일시적으로 정지하도록 할 수 있으며, 운전자의 졸음 각성 후에 주행 또는 작업이 가능하도록 운전자에 의해 직접 긴급 제동을 해지하도록 하거나, 딥러닝 모델부(130) 및 시선방향 측정부(140)에 의해 정상 시선방향을 추적한 후 제어부(150)에 의해 긴급 제동을 해지하도록 할 수도 있다.In addition, the control unit 150, in conjunction with the driving system 10 of the forklift, can make emergency braking temporarily stop while emitting a warning sound when drowsy driving is determined, and allows driving or work to be possible after the driver awakens from drowsiness. Emergency braking may be canceled directly by the driver, or emergency braking may be canceled by the control unit 150 after tracking the normal gaze direction by the deep learning model unit 130 and the gaze direction measurement unit 140.

따라서, 전술한 바와 같은 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템에 의해서, 지게차 운전자의 얼굴 영상의 이미지로부터 눈동자와 흰자위 객체의 분할을 실시간으로 수행하는 딥러닝 모델을 적용하여, 눈 이미지를 분석하여 실시간으로 시선방향을 예측하여서 졸음운전, 부주의 또는 미숙련으로 인한 전방 미주시, 모바일기기에 사용에 의한 시선이동에 따른 안전운행여부를 판단하고, 판단결과에 따라 운전자에게 즉시 경고하여 안전사고 발생을 미연에 방지하도록 할 수 있다.Therefore, by applying a deep learning model that performs segmentation of the pupil and the white of the eye object in real time from the forklift driver's face image by the driving assistance system through deep learning-based forklift driver eye tracking as described above, the eye image By analyzing and predicting the direction of gaze in real time, it determines safe driving due to drowsy driving, not looking ahead due to carelessness or inexperience, and gaze movement due to use of mobile devices, and immediately warns the driver based on the judgment result to prevent safety accidents. can be prevented in advance.

도 3은 본 발명의 다른 실시예에 의한 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법의 흐름도를 도시한 것으로서, 이를 참조하여, 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법을 구체적으로 상술하면 다음과 같다.Figure 3 is a flowchart of a driving assistance method through deep learning-based forklift driver eye tracking according to another embodiment of the present invention. With reference to this, the driving assistance method through deep learning-based forklift driver eye tracking is described in detail. If you do so, it is as follows.

우선, 제1단계(S110)에서는 비전카메라(110)에 의해 지게차 운전자의 얼굴영역을 촬영한다. 여기서, 비전카메라(110)는 지게차의 내부 센터페시아에 설치되어 지게차 운전자의 얼굴영역을 80도의 FoV로 촬영할 수 있다.First, in the first step (S110), the face area of the forklift driver is photographed by the vision camera 110. Here, the vision camera 110 is installed on the inner center fascia of the forklift and can capture the face area of the forklift driver with an 80-degree FoV.

후속하여, 제2단계(S120)에서는 비전카메라(110)에 의해 촬영된 얼굴영역 영상을 데이터베이스(120)에 저장한다.Subsequently, in the second step (S120), the facial area image captured by the vision camera 110 is stored in the database 120.

후속하여, 제3단계(S130)에서는 기 학습되어 구축된 딥러닝 모델부(130)에 의해 데이터베이스(120)의 얼굴영역 영상의 눈 이미지로부터 눈동자 객체와 흰자위 객체를 분할하도록 예측하도록 한다.Subsequently, in the third step (S130), the previously learned and constructed deep learning model unit 130 predicts to segment the eye object and the white of the eye object from the eye image of the face area image in the database 120.

여기서, 딥러닝 모델부(130)는 시멘틱 세그멘테이션 모델일 수 있고, 시멘틱 세그멘테이션 모델로는 DeepLab V3+ 모델을 적용할 수 있다.Here, the deep learning model unit 130 may be a semantic segmentation model, and the DeepLab V3+ model may be applied as the semantic segmentation model.

구체적으로, DeepLab V3+ 모델은, 눈 이미지로부터 저해상도 특징맵을 추출하는 atrous 컨벌루션모듈(131)과, 특징맵에 대해 임의의 해상도 특징맵을 추출하도록 레이트가 상이한 다수의 atrous 컨벌루션을 병렬로 수행하는 이어붙이는(concatenate) ASPP(Atrous Spatial Pyramid Pooling)(132)와, 그리고 ASPP(132)의 결과를 1×1 컨벌루션하는 제1컨벌루션모듈(133)이 포함된, 인코더(130A), 및 atrous 컨벌루션모듈(131)로부터의 저해상도 특징맵을 1×1 컨벌루션하는 제2컨벌루션모듈(134)과, 제1컨벌루션모듈(133)로부터의 특징맵을 업샘플링하는 제1업샘플링모듈(135)과, 제2컨벌루션모듈(134)에 의한 특징맵과 제1업샘플링모듈(135)에 의해 업샘플링된 특징맵을 이어붙이는 concatenate모듈(136)과, concatenate모듈(136)에 의한 특징맵을 3×3 컨벌루션하는 제3컨벌루션모듈(137)과, 그리고 제3컨벌루션모듈(137)에 의한 특징맵을 업샘플링하여 복원하는 제2업샘플링모듈(138)이 포함된, 디코더(130B)를 포함하여, 눈 이미지의 픽셀로부터 눈동자 객체와 흰자위 객체의 클래스를 분할하여 클래스별로 상이한 픽셀값을 갖는 세그멘테이션 라벨을 예측하도록 할 수 있다.Specifically, the DeepLab V3+ model includes an atrous convolution module 131 that extracts a low-resolution feature map from an eye image, and an ear that performs multiple atrous convolutions with different rates in parallel to extract a feature map of arbitrary resolution for the feature map. An encoder (130A), including a concatenate ASPP (Atrous Spatial Pyramid Pooling) (132), and a first convolution module (133) for 1×1 convolution of the result of ASPP (132), and an atrous convolution module ( A second convolution module 134 for 1×1 convolution of the low-resolution feature map from 131), a first upsampling module 135 for upsampling the feature map from the first convolution module 133, and a second convolution A concatenate module 136 that connects the feature map by the module 134 and the feature map upsampled by the first upsampling module 135, and a 3×3 convolution of the feature map by the concatenate module 136. Including a decoder (130B) including a third convolution module (137) and a second upsampling module (138) that upsamples and restores the feature map by the third convolution module (137), pixels of the eye image From , the classes of the eye object and the white of the eye object can be divided to predict segmentation labels with different pixel values for each class.

또한, ASPP(132)는, 1×1 컨벌루션 레이어와, 레이트 6의 3×3 컨벌루션 레이어와, 레이트 12의 3×3 컨벌루션 레이어와, 레이트 18의 3×3 컨벌루션 레이어와, 그리고 이미지 풀링 레이어를 포함할 수 있다.In addition, the ASPP 132 includes a 1×1 convolutional layer, a 3×3 convolutional layer with a rate of 6, a 3×3 convolutional layer with a rate of 12, a 3×3 convolutional layer with a rate of 18, and an image pooling layer. It can be included.

후속하여, 제4단계(S140)에서는 시선방향 측정부(140)에 의해서, 딥러닝 모델부(130)에 분할(구분)된 눈동자 객체와 흰자위 객체의 위치관계를 산출하여 지게차 운전자의 시선방향을 측정하도록 한다.Subsequently, in the fourth step (S140), the gaze direction measurement unit 140 calculates the positional relationship between the pupil object and the white of the eye object divided by the deep learning model unit 130 to determine the gaze direction of the forklift driver. Make sure to measure it.

여기서, 시선방향 측정부(140)는, 딥러닝 모델부(130)에 의해 예측된 눈동자 객체와 흰자위 객체의 분할된 픽셀의 각 중심 좌표를 연산하여 시선벡터값을 구하여서 지게차 운전자의 시선방향을 추적하도록 할 수 있다.Here, the gaze direction measurement unit 140 calculates the center coordinates of each divided pixel of the eye object and the white of the eye object predicted by the deep learning model unit 130 to obtain a gaze vector value and determines the gaze direction of the forklift driver. You can have it tracked.

후속하여, 제5단계(S150)에서는 제어부(150)를 통해, 딥러닝 모델부(130)에 의한 눈영역 분할 예측결과 및 시선방향 측정부(140)에 의한 시선방향을 분석하여 지게차의 졸음운전여부 및/또는 안전주행여부를 판단하고, 판단결과에 따라 경고 정보를 제공하도록 한다.Subsequently, in the fifth step (S150), the control unit 150 analyzes the eye region segmentation prediction result by the deep learning model unit 130 and the gaze direction by the gaze direction measurement unit 140 to prevent drowsy driving of the forklift. Determine whether driving is safe and/or safe, and provide warning information based on the judgment results.

또한, 제5단계(S150)에서, 제어부(150)는, 딥러닝 모델부(130)에 의해 예측된 눈동자 객체와 흰자위 객체의 분할된 픽셀의 각 면적을 산출하고, 산출된 각 면적을 통해서 눈을 지속적으로 감는 행위 또는 감는 행위의 빈도수를 분석하여 졸음운전여부를 판단하고, 시선방향 측정부(140)에 의해 추적된 시선방향을 지게차의 주행방향과 비교하여 안전운전여부를 판단할 수 있다.Additionally, in the fifth step (S150), the control unit 150 calculates the area of each divided pixel of the eye object and the white of the eye object predicted by the deep learning model unit 130, and calculates the area of each divided pixel of the eye object and the white of the eye object predicted by the deep learning model unit 130. Drowsy driving can be determined by continuously winding or analyzing the frequency of winding, and safe driving can be determined by comparing the gaze direction tracked by the gaze direction measurement unit 140 with the driving direction of the forklift.

한편, 제어부(150)가 비전카메라(110)에 의해 촬영된 얼굴영역 영상으로부터 머리 이미지의 픽셀의 분포 면적을 분석하여 상하 머리 움직임에 따른 졸음음전여부를 판단하는 제6단계(S160)를 더 포함할 수 있다.Meanwhile, the control unit 150 further includes a sixth step (S160) in which the control unit 150 analyzes the distribution area of pixels of the head image from the face area image captured by the vision camera 110 and determines whether drowsiness is present due to the up and down head movement. can do.

따라서, 전술한 바와 같은 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법에 의해서, 지게차 운전자의 얼굴 영상의 이미지로부터 눈동자와 흰자위 객체의 분할을 실시간으로 수행하는 딥러닝 모델을 적용하여, 눈 이미지를 분석하여 실시간으로 시선방향을 예측하여서 졸음운전, 부주의 또는 미숙련으로 인한 전방 미주시, 모바일기기에 사용에 의한 시선이동에 따른 안전운행여부를 판단하고, 판단결과에 따라 운전자에게 즉시 경고하여 안전사고 발생을 미연에 방지하도록 할 수 있다.Therefore, by applying the driving assistance method through deep learning-based forklift driver eye tracking as described above, a deep learning model that performs segmentation of the pupil and the white of the eye object in real time from the forklift driver's face image is applied to obtain the eye image. By analyzing and predicting the direction of gaze in real time, it determines safe driving due to drowsy driving, not looking ahead due to carelessness or inexperience, and gaze movement due to use of mobile devices, and immediately warns the driver based on the judgment result to prevent safety accidents. can be prevented in advance.

본 발명의 또 다른 실시예는 앞서 열거한 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체를 제공한다.Another embodiment of the present invention provides a computer-readable recording medium on which a computer program for executing the driving assistance method through eye tracking of a forklift driver based on deep learning listed above is recorded on a computer.

본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원 시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.The embodiments described in this specification and the configurations shown in the drawings are only one of the most preferred embodiments of the present invention and do not represent the entire technical idea of the present invention, so various equivalents may be substituted for them at the time of filing the present application. It should be understood that variations and variations may exist.

110 : 비전카메라 120 : 데이터베이스
130 : 딥러닝 모델부 130A : 인코더
130B : 디코더 131 : atrous 컨벌루션모듈
132 : ASPP 133 : 제1컨벌루션모듈
134 : 제2컨벌루션모듈 135 : 제1업샘플링모듈
136 : concatenate모듈 137 : 제3컨벌루션모듈
138 : 제2업샘플링모듈 140 : 시선방향 측정부
150 : 제어부 10 : 지게차
110: vision camera 120: database
130: Deep learning model unit 130A: Encoder
130B: Decoder 131: atrous convolution module
132: ASPP 133: 1st convolution module
134: second convolution module 135: first upsampling module
136: concatenate module 137: third convolution module
138: Second upsampling module 140: Gaze direction measurement unit
150: Control unit 10: Forklift

Claims (19)

지게차 운전자의 얼굴영역을 촬영하는 비전카메라;
상기 비전카메라에 의해 촬영된 얼굴영역 영상을 저장하는 데이터베이스;
상기 데이터베이스의 얼굴영역 영상의 눈 이미지로부터 눈동자 객체와 흰자위 객체를 분할하도록 학습되어 예측하는 딥러닝 모델부;
상기 딥러닝 모델부에 의해 분할된 상기 눈동자 객체와 상기 흰자위 객체의 위치관계를 산출하여 상기 지게차 운전자의 시선방향을 측정하는 시선방향 측정부; 및
상기 딥러닝 모델부에 의한 눈영역 분할 예측결과 및 상기 시선방향 측정부에 의한 시선방향을 분석하여 지게차의 졸음운전여부 또는 안전주행여부를 판단하고, 판단결과에 따라 경고 정보를 제공하는 제어부;를 포함하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템.
A vision camera that captures the facial area of the forklift driver;
a database storing face area images captured by the vision camera;
A deep learning model unit that learns and predicts to segment eye objects and eye white objects from eye images of the face area image in the database;
a gaze direction measuring unit that measures the gaze direction of the forklift driver by calculating a positional relationship between the pupil object and the white eye object divided by the deep learning model unit; and
A control unit that analyzes the eye area segmentation prediction result by the deep learning model unit and the gaze direction by the gaze direction measurement unit to determine whether the forklift is drowsy or safe to drive, and provides warning information according to the judgment result. containing,
Driving assistance system through deep learning-based forklift driver eye tracking.
제 1 항에 있어서,
상기 딥러닝 모델부는, 시멘틱 세그멘테이션 모델인 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템.
According to claim 1,
The deep learning model unit is a semantic segmentation model,
Driving assistance system through deep learning-based forklift driver eye tracking.
제 2 항에 있어서,
상기 시멘틱 세그멘테이션 모델은, DeepLab V3+ 모델을 적용하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템.
According to claim 2,
The semantic segmentation model is characterized by applying the DeepLab V3+ model,
Driving assistance system through deep learning-based forklift driver eye tracking.
제 3 항에 있어서,
상기 DeepLab V3+ 모델은,
상기 눈 이미지로부터 저해상도 특징맵을 추출하는 atrous 컨벌루션모듈과, 상기 특징맵에 대해 임의의 해상도 특징맵을 추출하도록 레이트가 상이한 다수의 atrous 컨벌루션을 병렬로 수행하고 이어붙이는(concatenate) ASPP(Atrous Spatial Pyramid Pooling)와, 그리고 상기 ASPP의 결과를 1×1 컨벌루션하는 제1컨벌루션모듈이 포함된, 인코더; 및
상기 atrous 컨벌루션모듈로부터의 상기 저해상도 특징맵을 1×1 컨벌루션하는 제2컨벌루션모듈과, 상기 제1컨벌루션모듈로부터의 특징맵을 업샘플링하는 제1업샘플링모듈과, 상기 제2컨벌루션모듈에 의한 특징맵과 상기 제1업샘플링모듈에 의해 업샘플링된 특징맵을 이어붙이는 concatenate모듈과, 상기 concatenate모듈에 의한 특징맵을 3×3 컨벌루션하는 제3컨벌루션모듈과, 그리고 상기 제3컨벌루션모듈에 의한 특징맵을 업샘플링하여 복원하는 제2업샘플링모듈이 포함된, 디코더;를 포함하여,
상기 눈 이미지의 픽셀로부터 상기 눈동자 객체와 상기 흰자위 객체의 클래스를 분할하여 클래스별로 상이한 픽셀값을 갖는 세그멘테이션 라벨을 예측하도록 하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템.
According to claim 3,
The DeepLab V3+ model is,
An atrous convolution module that extracts a low-resolution feature map from the eye image, and an Atrous Spatial Pyramid (ASPP) that performs and concatenates a number of atrous convolutions with different rates in parallel to extract a random resolution feature map for the feature map. Pooling) and an encoder including a first convolution module for 1×1 convolution of the result of the ASPP; and
A second convolution module for 1×1 convolution of the low-resolution feature map from the atrous convolution module, a first upsampling module for upsampling the feature map from the first convolution module, and features by the second convolution module A concatenate module that connects a map and a feature map upsampled by the first upsampling module, a third convolution module that performs 3×3 convolution of the feature map by the concatenate module, and features by the third convolution module. Including a decoder including a second upsampling module that upsamples and restores the map,
Characterized in predicting segmentation labels with different pixel values for each class by dividing the classes of the eye object and the white eye object from the pixels of the eye image.
Driving assistance system through deep learning-based forklift driver eye tracking.
제 4 항에 있어서,
상기 ASPP는, 1×1 컨벌루션 레이어와, 레이트 6의 3×3 컨벌루션 레이어와, 레이트 12의 3×3 컨벌루션 레이어와, 레이트 18의 3×3 컨벌루션 레이어와, 그리고 이미지 풀링 레이어를 포함하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템.
According to claim 4,
The ASPP includes a 1×1 convolutional layer, a 3×3 convolutional layer at a rate of 6, a 3×3 convolutional layer at a rate of 12, a 3×3 convolutional layer at a rate of 18, and an image pooling layer. to,
Driving assistance system through deep learning-based forklift driver eye tracking.
제 1 항에 있어서,
상기 시선방향 측정부는, 상기 딥러닝 모델부에 의해 예측된 상기 눈동자 객체와 상기 흰자위 객체의 분할된 픽셀의 각 중심 좌표를 연산하여 시선벡터값을 구하여서 상기 지게차 운전자의 시선방향을 추적하도록 하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템.
According to claim 1,
The gaze direction measuring unit calculates the center coordinates of each divided pixel of the pupil object and the white eye object predicted by the deep learning model unit to obtain a gaze vector value to track the gaze direction of the forklift driver. Characterized by,
Driving assistance system through deep learning-based forklift driver eye tracking.
제 1 항에 있어서,
상기 제어부는,
상기 딥러닝 모델부에 의해 예측된 상기 눈동자 객체와 상기 흰자위 객체의 분할된 픽셀의 각 면적을 산출하고, 산출된 상기 각 면적을 통해서 눈을 지속적으로 감는 행위 또는 상기 감는 행위의 빈도수를 분석하여 상기 졸음운전여부를 판단하고,
상기 시선방향 측정부에 의해 측정된 시선방향을, 상기 지게차의 주행방향과 비교하여 상기 안전운전여부를 판단하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템.
According to claim 1,
The control unit,
Calculate each area of the divided pixels of the pupil object and the white eye object predicted by the deep learning model unit, and analyze the act of continuously closing the eyes or the frequency of the act of closing the eyes through each calculated area. Determine whether you are drowsy driving,
Characterized in that the gaze direction measured by the gaze direction measurement unit is compared with the driving direction of the forklift to determine whether the vehicle is driving safely.
Driving assistance system through deep learning-based forklift driver eye tracking.
제 1 항에 있어서,
상기 비전카메라는, 상기 지게차의 내부 센터페시아에 설치되어 상기 지게차 운전자의 얼굴영역을 80도의 FoV로 촬영하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템.
According to claim 1,
The vision camera is installed on the inner center fascia of the forklift and captures the face area of the forklift driver with an 80-degree FoV.
Driving assistance system through deep learning-based forklift driver eye tracking.
제 1 항에 있어서,
상기 제어부는, 상기 비전카메라에 의해 촬영된 상기 얼굴영역 영상으로부터 상기 지게차 운전자의 머리 이미지의 픽셀의 분포 면적을 분석하여 반복적인 상하 머리 움직임에 따른 상기 졸음음전여부를 판단하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 시스템.
According to claim 1,
The control unit analyzes the distribution area of pixels of the head image of the forklift driver from the facial area image captured by the vision camera and determines whether or not the drowsiness is present due to repetitive up and down head movements.
Driving assistance system through deep learning-based forklift driver eye tracking.
비전카메라에 의해 지게차 운전자의 얼굴영역을 촬영하는 제1단계;
상기 비전카메라에 의해 촬영된 얼굴영역 영상을 데이터베이스에 저장하는 제2단계;
기 학습되어 구축된 딥러닝 모델부에 의해 상기 데이터베이스의 얼굴영역 영상의 눈 이미지로부터 눈동자 객체와 흰자위 객체를 분할하도록 예측하는 제3단계;
시선방향 측정부에 의해서, 상기 딥러닝 모델부에 의해 분할된 상기 눈동자 객체와 상기 흰자위 객체의 위치관계를 산출하여 상기 지게차 운전자의 시선방향을 측정하는 제4단계; 및
제어부를 통해, 상기 딥러닝 모델부에 의한 눈영역 분할 예측결과 및 상기 시선방향 측정부에 의한 시선방향을 분석하여 지게차의 졸음운전여부 또는 안전주행여부를 판단하고, 판단결과에 따라 경고 정보를 제공하는 제5단계;를 포함하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법.
A first step of photographing the face area of the forklift driver using a vision camera;
A second step of storing the facial area image captured by the vision camera in a database;
A third step of predicting to segment the eye object and the white of the eye object from the eye image of the face area image in the database by a previously learned and constructed deep learning model unit;
A fourth step of measuring the gaze direction of the forklift driver by calculating a positional relationship between the pupil object and the white eye object divided by the deep learning model unit by a gaze direction measurement unit; and
Through the control unit, the prediction result of eye area division by the deep learning model unit and the gaze direction by the gaze direction measurement unit are analyzed to determine whether the forklift is drowsy or safe to drive, and provides warning information according to the judgment result. 5th step; including,
Driving assistance method using deep learning-based forklift driver eye tracking.
제 10 항에 있어서,
상기 딥러닝 모델부는, 시멘틱 세그멘테이션 모델인 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법.
According to claim 10,
The deep learning model unit is a semantic segmentation model,
Driving assistance method using deep learning-based forklift driver eye tracking.
제 11 항에 있어서,
상기 시멘틱 세그멘테이션 모델은, DeepLab V3+ 모델을 적용하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법.
According to claim 11,
The semantic segmentation model is characterized by applying the DeepLab V3+ model,
Driving assistance method using deep learning-based forklift driver eye tracking.
제 12 항에 있어서,
상기 DeepLab V3+ 모델은,
상기 눈 이미지로부터 저해상도 특징맵을 추출하는 atrous 컨벌루션모듈과, 상기 특징맵에 대해 임의의 해상도 특징맵을 추출하도록 레이트가 상이한 다수의 atrous 컨벌루션을 병렬로 수행하는 이어붙이는(concatenate) ASPP(Atrous Spatial Pyramid Pooling)와, 그리고 상기 ASPP의 결과를 1×1 컨벌루션하는 제1컨벌루션모듈이 포함된, 인코더; 및
상기 atrous 컨벌루션모듈로부터의 상기 저해상도 특징맵을 1×1 컨벌루션하는 제2컨벌루션모듈과, 상기 제1컨벌루션모듈로부터의 특징맵을 업샘플링하는 제1업샘플링모듈과, 상기 제2컨벌루션모듈에 의한 특징맵과 상기 제1업샘플링모듈에 의해 업샘플링된 특징맵을 이어붙이는 concatenate모듈과, 상기 concatenate모듈에 의한 특징맵을 3×3 컨벌루션하는 제3컨벌루션모듈과, 그리고 상기 제3컨벌루션모듈에 의한 특징맵을 업샘플링하여 복원하는 제2업샘플링모듈이 포함된, 디코더;를 포함하여,
상기 눈 이미지의 픽셀로부터 상기 눈동자 객체와 상기 흰자위 객체의 클래스를 분할하여 클래스별로 상이한 픽셀값을 갖는 세그멘테이션 라벨을 예측하도록 하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법.
According to claim 12,
The DeepLab V3+ model is,
An atrous convolution module that extracts a low-resolution feature map from the eye image, and an Atrous Spatial Pyramid (ASPP) that concatenates a number of atrous convolutions with different rates in parallel to extract an arbitrary resolution feature map for the feature map. Pooling) and an encoder including a first convolution module for 1×1 convolution of the result of the ASPP; and
A second convolution module for 1×1 convolution of the low-resolution feature map from the atrous convolution module, a first upsampling module for upsampling the feature map from the first convolution module, and features by the second convolution module A concatenate module that connects a map and a feature map upsampled by the first upsampling module, a third convolution module that performs 3×3 convolution of the feature map by the concatenate module, and features by the third convolution module. Including a decoder including a second upsampling module that upsamples and restores the map,
Characterized in predicting segmentation labels with different pixel values for each class by dividing the classes of the eye object and the white eye object from the pixels of the eye image.
Driving assistance method using deep learning-based forklift driver eye tracking.
제 13 항에 있어서,
상기 ASPP는, 1×1 컨벌루션 레이어와, 레이트 6의 3×3 컨벌루션 레이어와, 레이트 12의 3×3 컨벌루션 레이어와, 레이트 18의 3×3 컨벌루션 레이어와, 그리고 이미지 풀링 레이어를 포함하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법.
According to claim 13,
The ASPP includes a 1×1 convolutional layer, a 3×3 convolutional layer at a rate of 6, a 3×3 convolutional layer at a rate of 12, a 3×3 convolutional layer at a rate of 18, and an image pooling layer. to,
Driving assistance method using deep learning-based forklift driver eye tracking.
제 10 항에 있어서,
상기 시선방향 측정부는, 상기 딥러닝 모델부에 의해 예측된 상기 눈동자 객체와 상기 흰자위 객체의 분할된 픽셀의 각 중심 좌표를 연산하여 시선벡터값을 구하여서 상기 지게차 운전자의 시선방향을 추적하도록 하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법.
According to claim 10,
The gaze direction measuring unit calculates the center coordinates of each divided pixel of the pupil object and the white eye object predicted by the deep learning model unit to obtain a gaze vector value to track the gaze direction of the forklift driver. Characterized by,
Driving assistance method using deep learning-based forklift driver eye tracking.
제 10 항에 있어서,
상기 제5단계에서, 상기 제어부는,
상기 딥러닝 모델부에 의해 예측된 상기 눈동자 객체와 상기 흰자위 객체의 분할된 픽셀의 각 면적을 산출하고, 산출된 상기 각 면적을 통해서 눈을 지속적으로 감는 행위 또는 상기 감는 행위의 빈도수를 분석하여 상기 졸음운전여부를 판단하고,
상기 시선방향 측정부에 의해 측정된 시선방향을, 상기 지게차의 주행방향과 비교하여 상기 안전운전여부를 판단하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법.
According to claim 10,
In the fifth step, the control unit,
Calculate each area of the divided pixels of the pupil object and the white eye object predicted by the deep learning model unit, and analyze the act of continuously closing the eyes or the frequency of the act of closing the eyes through each calculated area. Determine whether you are drowsy driving,
Characterized in that the gaze direction measured by the gaze direction measurement unit is compared with the driving direction of the forklift to determine whether the vehicle is driving safely.
Driving assistance method using deep learning-based forklift driver eye tracking.
제 10 항에 있어서,
상기 비전카메라는, 상기 지게차의 내부 센터페시아에 설치되어 상기 지게차 운전자의 얼굴영역을 80도의 FoV로 촬영하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법.
According to claim 10,
The vision camera is installed on the inner center fascia of the forklift and captures the face area of the forklift driver with an 80-degree FoV.
Driving assistance method using deep learning-based forklift driver eye tracking.
제 10 항에 있어서,
상기 제어부가 상기 비전카메라에 의해 촬영된 상기 얼굴영역 영상으로부터 상기 지게차 운전자의 머리 이미지의 픽셀의 분포 면적을 분석하여 반복적인 상하 머리 움직임에 따른 상기 졸음음전여부를 판단하는 제6단계를 더 포함하는 것을 특징으로 하는,
딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법.
According to claim 10,
A sixth step in which the control unit analyzes the distribution area of pixels of the head image of the forklift driver from the facial area image captured by the vision camera and determines whether the head is drowsy due to repetitive up and down movement, further comprising a sixth step. Characterized by,
Driving assistance method using deep learning-based forklift driver eye tracking.
제 10 항 내지 제 18 항 중 어느 한 항에 기재된 딥러닝 기반 지게차 운전자 시선추적을 통한 주행보조 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium on which a computer program for executing the driving assistance method through deep learning-based forklift driver eye tracking according to any one of claims 10 to 18 on a computer is recorded.
KR1020220058392A 2022-05-12 2022-05-12 Driving assisting system through tracking of eye of fork lift driver based on deep learning, method for the same, and computer-readable recording including the same KR20230159739A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220058392A KR20230159739A (en) 2022-05-12 2022-05-12 Driving assisting system through tracking of eye of fork lift driver based on deep learning, method for the same, and computer-readable recording including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220058392A KR20230159739A (en) 2022-05-12 2022-05-12 Driving assisting system through tracking of eye of fork lift driver based on deep learning, method for the same, and computer-readable recording including the same

Publications (1)

Publication Number Publication Date
KR20230159739A true KR20230159739A (en) 2023-11-22

Family

ID=88974011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220058392A KR20230159739A (en) 2022-05-12 2022-05-12 Driving assisting system through tracking of eye of fork lift driver based on deep learning, method for the same, and computer-readable recording including the same

Country Status (1)

Country Link
KR (1) KR20230159739A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102017766B1 (en) 2018-02-05 2019-10-15 동국대학교 산학협력단 Deep learning based gaze detection system and method for automobile drivers
KR102254384B1 (en) 2019-06-20 2021-05-24 동국대학교 산학협력단 Device and method for driver's gaze detection by deep learning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102017766B1 (en) 2018-02-05 2019-10-15 동국대학교 산학협력단 Deep learning based gaze detection system and method for automobile drivers
KR102254384B1 (en) 2019-06-20 2021-05-24 동국대학교 산학협력단 Device and method for driver's gaze detection by deep learning

Similar Documents

Publication Publication Date Title
JP7332726B2 (en) Detecting Driver Attention Using Heatmaps
JP5297078B2 (en) Method for detecting moving object in blind spot of vehicle, and blind spot detection device
JP6453490B2 (en) Method and apparatus for recognizing and evaluating road surface reflections
JP6266238B2 (en) Approaching object detection system and vehicle
KR102099265B1 (en) System and method for pedestrian-vehicle collision warning based on pedestrian state
JP2018516799A5 (en)
JP2013008070A (en) Sign recognition device and sign recognition method
CN111553214B (en) Method and system for detecting smoking behavior of driver
KR101914362B1 (en) Warning system and method based on analysis integrating internal and external situation in vehicle
CN109070882A (en) Utilize the driving information providing method and device of camera image
KR101986734B1 (en) Driver assistance apparatus in vehicle and method for guidance a safety driving thereof
Martin et al. Real time driver body pose estimation for novel assistance systems
US20120189161A1 (en) Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus
JP2023552105A (en) Occlusion response prediction of human behavior
KR20180047149A (en) Apparatus and method for risk alarming of collision
JPH11142168A (en) Environment-recognizing apparatus
CN113276821A (en) Driver state estimation device
KR20060121503A (en) Apparatus and method for tracking salient human face in robot surveillance
KR20230159739A (en) Driving assisting system through tracking of eye of fork lift driver based on deep learning, method for the same, and computer-readable recording including the same
JP2021130390A (en) Driver state estimation device
JP6877651B1 (en) Visual load value estimation device, visual load value estimation system, visual load value estimation method, and visual load value estimation program
WO2021262166A1 (en) Operator evaluation and vehicle control based on eyewear data
US20220309796A1 (en) Image processing apparatus
Takemura et al. Development of Lens Condition Diagnosis for Lane Departure Warning by Using Outside Camera
KR102559936B1 (en) Method and apparatus of estimating depth information using monocular camera