KR102625814B1 - DUI zero solution - Google Patents

DUI zero solution Download PDF

Info

Publication number
KR102625814B1
KR102625814B1 KR1020220083525A KR20220083525A KR102625814B1 KR 102625814 B1 KR102625814 B1 KR 102625814B1 KR 1020220083525 A KR1020220083525 A KR 1020220083525A KR 20220083525 A KR20220083525 A KR 20220083525A KR 102625814 B1 KR102625814 B1 KR 102625814B1
Authority
KR
South Korea
Prior art keywords
driver
module
breathalyzer
facial recognition
face
Prior art date
Application number
KR1020220083525A
Other languages
Korean (ko)
Inventor
김인규
정재용
Original Assignee
주식회사 하이텍정보
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이텍정보 filed Critical 주식회사 하이텍정보
Priority to KR1020220083525A priority Critical patent/KR102625814B1/en
Application granted granted Critical
Publication of KR102625814B1 publication Critical patent/KR102625814B1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0809Driver authorisation; Driver identity check
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0836Inactivity or incapacity of driver due to alcohol
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/24Drug level, e.g. alcohol
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/14Trucks; Load vehicles, Busses
    • B60Y2200/143Busses

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 차량의 내부 운전석 앞쪽에 운전기사의 얼굴을 인식하는 AI 모듈 및 음주측정을 행할 수 있는 음주 측정모듈을 설치하여 운수업에 종사하는 운전기사가 버스에 탑승하고 나면 AI 안면인식 모듈을 이용하여 운전기사의 얼굴을 인식한 후, 서버에 기 저장되어 있는 차량의 운전기사 정보 데이터와 비교 판단하여 탑승한 운전기사가 동일 인물인지를 판단한 다음, 음주측정기를 이용하여 운전기사의 음주 유무를 측정하하도록 한 차량형 음주측정 시스템을 제공하며, 특히 운전기사의 얼굴을 인식하여 배차된 운전기사와 동일 인물인지를 판단하도록 하고, 특히 AI 알고리즘을 활용한 CNN(Convolutional neural network) 또는 딥러닝 기반의 YOLO(You Only Look Once) 알고리즘중에서 선택된 하나의 안면인식 측정방식을 사용하도록 한 AI 안면인식 기반 음주운전 제로 솔루션을 제공한다.The present invention installs an AI module that recognizes the driver's face and a breathalyzer module that can perform a breathalyzer test in front of the driver's seat inside the vehicle, so that the driver engaged in the transportation industry uses the AI facial recognition module after boarding the bus. After recognizing the driver's face, it is compared with the driver information data of the vehicle already stored on the server to determine whether the driver on board is the same person, and then the driver's drinking is measured using a breathalyzer. It provides a vehicle-type breathalyzer system that recognizes the driver's face and determines whether it is the same person as the dispatched driver. In particular, it uses AI algorithm-based CNN (Convolutional neural network) or deep learning-based YOLO. We provide an AI facial recognition-based zero drunk driving solution that uses one facial recognition measurement method selected from the (You Only Look Once) algorithm.

Description

AI 안면인식 기반 음주운전 제로 솔루션{DUI zero solution}AI facial recognition-based drunk driving zero solution {DUI zero solution}

본 발명은 음주운전(DUI:Drive under the influence) 제로 솔루션에 관련되는 것으로서, 더욱 상세하게는 차량의 내부 운전석 앞쪽에 운전기사의 얼굴을 인식하는 AI 모듈 및 음주측정을 행할 수 있는 음주 측정모듈을 설치하여 운수업에 종사하는 운전기사가 버스에 탑승하고 나면 AI 안면인식 모듈을 이용하여 운전기사의 얼굴을 인식한 후, 서버에 기 저장되어 있는 차량의 운전기사 정보 데이터와 비교 판단하여 탑승한 운전기사가 동일 인물인지를 판단한 다음, 음주측정기를 이용하여 운전기사의 음주 유무를 측정하고 이상이 없을 시 해당 차량을 운행 하도록 하는 AI 안면인식 기반 음주운전 제로 솔루션에 관한 것이다.The present invention relates to a zero solution for drunk driving (DUI: Drive under the influence). More specifically, an AI module that recognizes the driver's face and a breathalyzer module that can perform a breathalyzer test are installed in front of the driver's seat inside the vehicle. Once installed and a driver engaged in the transportation industry boards the bus, the driver's face is recognized using the AI facial recognition module, and the driver's face is compared with the vehicle's driver information data already stored on the server to determine the driver's status. This is about an AI facial recognition-based drunk driving zero solution that determines whether the driver is the same person, then uses a breathalyzer to measure whether the driver is drunk or not, and then operates the vehicle if there is no problem.

음주운전에 의한 교통사고는 대형 사고로 이어지므로, 음주운전으로 인한 사고 및 피해의 심각성을 지속적으로 홍보하고 있으나, 음주운전은 줄어들지 않고 있다. 음주를 한 후에는 자동차를 놓고 대중교통 수단을 이용해야 하는데, 술 취한 운전기사는 운전을 할 수 있을 것으로 착각하고, 음주운전을 하게 되는 것이다.Traffic accidents caused by drunk driving lead to major accidents, so the seriousness of accidents and damage caused by drunk driving is continuously promoted, but drunk driving is not decreasing. After drinking, you must leave your car and use public transportation, but drunk drivers mistakenly think they can drive and end up driving drunk.

특히, 버스, 택시, 기차, 전철과 같은 대중교통을 운전하는 운전기사는 본인만이 아니라 대중교통을 이용하는 이용자들의 생명까지도 책임져야 하므로, 더욱 음주운전을 차단해야 한다.In particular, drivers who drive public transportation such as buses, taxis, trains, and subways are responsible not only for their own lives but also for the lives of public transportation users, so drunk driving should be further prevented.

최근 여객자동차 운수사업법 개정으로 차량 탑승 전 운수종사자의 음주 여부를 확인하고, 음주로 안전한 운전을 할 수 없다고 판단되는 경우에 해당 운수종사자가 차량을 운행하지 못하도록 제한하고 있다.With the recent revision of the Passenger Transport Service Act, transportation workers are checked to see if they are drinking before boarding a vehicle, and if they are judged to be unable to drive safely due to drinking, they are restricted from operating the vehicle.

특히 버스 운전기사의 음주 운전사고는 다수의 승객의 생명을 위험에 빠뜨릴 수 있으며 대형 인명사고가 발생할 가능성이 큼에 따라 정부는 2020년 4월 국무회의에서 여객자동차 운수사업법을 개정안을 통과시킴으로써 음주운전에 관한 관리책임 강화방안을 마련하여 운수업체가 운행 전 음주 여부를 확인하고 기록해야 한다. In particular, drunk driving accidents by bus drivers can put the lives of many passengers at risk, and as there is a high possibility of major casualties occurring, the government passed an amendment to the Passenger Transport Business Act at the Cabinet meeting in April 2020 to ban drunk driving. A plan should be developed to strengthen management responsibility for transportation companies to check and record drinking before driving.

운전기사는 차량 탑승전 운수종사자의 음주 측정을 관리하고 있으나 이는 대리 측정 및 허위작성 방지에는 부족함이 있어 이를 해결하기 위한 실시간 음주측정 시스템에 대한 니즈가 높아지고 있다. 현재는 운수사업 분야에서 활용되고 있으나 대리측정을 방지하기 위한 부분이 미흡하여 개선이 필요함. 향후에는 운수사업뿐만 아니라 산업현장, 의료분야, 개인측정용 등으로 적용분야가 점차 다양해 질것으로 전망된다.Drivers manage the breathalyzer test of transport workers before boarding the vehicle, but this is insufficient to prevent surrogate measurements and false records, so the need for a real-time breathalyzer test system to solve this problem is increasing. Currently, it is being used in the transportation business field, but the part to prevent proxy measurement is insufficient and needs improvement. In the future, the application fields are expected to gradually diversify, not only in the transportation business but also in industrial sites, medical fields, and personal measurement purposes.

한편, 운수업과 관련하여 음주를 측정하는 시스템에 대한 선행기술로서는 대한민국 특허청 등록특허공보 등록번호 제10-2085489호(명칭: 하이브리드 음주 측정관리 시스템)을 예로 들 수 있다. Meanwhile, an example of prior art regarding a system for measuring alcohol consumption in relation to the transportation industry is the Republic of Korea Intellectual Property Office Patent Publication No. 10-2085489 (name: Hybrid alcohol consumption measurement management system).

상기 선행기술은 사무소용 음주측정관리 단말(100), 네트워크(200), 음주측정 관리 서버(300)를 포함하는 하이브리드 음주측정관리 시스템(1)에 있어서, 사무소용 음주측정 관리 단말(100)은 조합 사무소 내에 설치되어 운수 종사자가 차량 운행 전 지문인식기(120)를 통한 지문 인식을 통한 운수 종사자의 정보를 확인하고, 음주측정기(110)로 운수 종사자의 혈중 알코올 농도를 측정하여 적합 및 부적합을 분석한 뒤, 저장부(138) 상에 적합 및 부적합 정보를 저장하고 네트워크(200)를 통해 음주측정 관리 서버(300)로 전송하여 관리하여 음주로 인한 사고를 미연에 방지토록 하는 것을 요지로 한다.The prior art is a hybrid breathalyzer management system (1) including an office breathalyzer management terminal 100, a network 200, and a breathalyzer management server 300, wherein the office breathalyzer management terminal 100 is Installed within the union office, transport workers check the information of transport workers through fingerprint recognition using a fingerprint reader (120) before driving the vehicle, and measure the transport worker's blood alcohol concentration using a breathalyzer (110) to analyze suitability and inadequacy. Afterwards, the appropriate and unsuitable information is stored on the storage unit 138 and transmitted to the breathalyzer management server 300 through the network 200 for management to prevent accidents caused by drinking.

그러나 선행기술은 운전기사 확인을 위해 지문을 이용하여 확인함으로서 음주를 행한 운전기사는 본인 확인만 한 후, 이어지는 음주 측정시에는 타인이 대리로 측정하는 불법 행위 등의 문제가 발생할 수 있다.However, the prior art uses fingerprints to identify the driver, so problems such as illegal acts where a drunk driver only verifies his identity and is measured by another person on his behalf during the subsequent alcohol test may occur.

대한민국 특허청 등록특허공보 등록번호 제10-2085489호Republic of Korea Intellectual Property Office Registered Patent Publication No. 10-2085489

따라서 상기한 바와 같은 문제점을 해결하기 위한 본 발명의 목적은 차량의 내부 운전석 앞쪽에 운전기사의 얼굴을 인식하는 AI 모듈 및 음주 측정을 행할 수 있는 음주 측정모듈을 설치하여 운수업에 종사하는 운전기사가 버스에 탑승하고 나면 AI 안면인식 모듈을 이용하여 운전기사의 얼굴을 인식한 후, 서버에 기 저장되어 있는 차량의 운전기사 정보 데이터와 비교 판단하여 탑승한 운전기사가 동일 인물인지를 판단한 다음, 음주측정기를 이용하여 운전기사의 음주 유무를 측정하고 이상이 없을 시 해당 차량을 운행 하도록 하는 음주운전 제로 솔루션을 제공함에 있다.Therefore, the purpose of the present invention to solve the problems described above is to install an AI module that recognizes the driver's face and a breathalyzer module that can perform a breathalyzer test in front of the driver's seat inside the vehicle, so that the driver engaged in the transportation industry can After boarding the bus, the driver's face is recognized using the AI facial recognition module, and then compared with the vehicle's driver information data already stored on the server to determine whether the driver on board is the same person. We provide a zero drunk driving solution that uses a measuring device to measure whether the driver is drunk and allows the vehicle to be driven if there is no problem.

본 발명의 다른 목적은 운전기사의 얼굴을 인식하여 배차된 운전기사와 동일 인물인지를 판단하도록 하고, 특히 AI 알고리즘을 활용한 CNN(Convolutional neural network) 또는 딥러닝 기반의 YOLO(You Only Look Once) 알고리즘중에서 선택된 하나의 안면인식 측정방식을 사용하도록 한 AI 안면인식 기반 음주운전 제로 솔루션을 제공함에 있다.Another object of the present invention is to recognize the driver's face to determine whether it is the same person as the dispatched driver, and in particular, to use AI algorithm-based CNN (Convolutional neural network) or deep learning-based YOLO (You Only Look Once) We provide an AI facial recognition-based zero drunk driving solution that uses one facial recognition measurement method selected from among the algorithms.

상술한 목적을 달성하기 위한 본 발명은 운수업 사업장에 종사하는 운전기사가 차량에 탑승하였을 때, 운전기사의 음주유무를 측정하도록 하는 차량형 음주측정 시스템에 있어서, 차량의 운전석 앞쪽에 설치되며 디스플레이가 장착된 단말기, 상기 단말기의 전면 일측 상단에 설치되며 운전기사의 안면인식 정보를 촬영하는 AI 안면인식모듈, 상기 단말기의 전면 타측에 설치되며 운전석에 착석한 운전기사의 동영상을 촬영하는 카메라 모듈, 상기 단말기의 전면 일측 하단에 설치되며 안면인식이 완료된 운전기사의 혈중 알코올농도를 측정하는 음주측정모듈, 상기 안면인식모듈, 카메라모듈 및 음주측정모듈로부터 전송되는 정보를 입력받아 제어하는 제어모듈(60)을 포함하며, 상기 제어모듈은 상기 안면인식모듈에서 전송되는 운전기사의 안면 이미지 정보와 데이터베이스 서버에 저장되어 있는 운전기사의 정보를 비교 판단하여 차량에 탑승한 운전기사가 배차를 받은 운전기사와 동일 인물인지 비교 판단하며, 상기 제어모듈은 상기 운전석에 착석한 운전기사의 안면을 상기 카메라모듈에서 촬영하여 전송받은 상태에서 데이터베이스서버에 저장되어 있는 운전기사의 얼굴을 비교 판단하며, 상기 제어모듈은 상기 음주측정모듈에서 측정된 운전기사의 혈중 알코올농도 측정 수치와 허용 음주 측정수치를 비교하여 음주 측정 유무를 비교 판단하며, 상기 안면인식모듈은 AI 알고리즘을 활용한 CNN(Convolutional neural network) 또는 그리드에 대한 그리드 중앙을 중심으로 미리 정의된 형태로 지정된 경계박스의 개수를 예측하고 이를 기반으로 신뢰도를 계산하는 딥러닝 기반의 YOLO(You Only Look Once) 알고리즘중에서 선택된 하나의 안면인식 측정방식을 사용하며, 상기 AI 알고리즘을 활용한 CNN은 운전기사의 안면 전체 윤곽을 검출하는 검출부, 운전기사의 안면에서 특징을 검출하는 안면 특징 검출부, 운전기사의 안면 비대칭을 검출하는 안면 비대칭 검출부를 통해 검출된 각 영상 특징들을 취합하여 상기 제어모듈(60)로 전송하도록 하여 상기 제어모듈은 전송된 운전기사의 안면 이미지 정보를 상기 데이터베이스 서버에 저장되어 있는 운전기사와 안면 이미지와 정확하게 비교 판단할 수 있으며, 상기 안면인식모듈은 운전기사가 배차된 차량에 탑승하기 시작하는 지점부터 운전기사의 움직임을 감지하여 운전기사의 안면 이미지를 촬영하도록 하며, 상기 카메라모듈은 상기 안면인식모듈이 동작한 이후부터 상기 음주측정모듈에서 음주측정이 완료될 때까지 운전기사에 대해 동영상 촬영이 계속해서 이루어지도록 하며, 상기 제어모듈에는 원격제어모듈이 연결되며, 상기 원격제어모듈은 상기 단말기의 장애가 발생할 경우 관리자의 단말기를 이용하여 원격으로 제어할 수 있도록 함을 특징으로 한다.The present invention to achieve the above-described object is a vehicle-type alcohol breathalyzer system that measures the driver's drinking status when the driver engaged in a transportation business gets on the vehicle. It is installed in front of the driver's seat of the vehicle and has a display. A mounted terminal, an AI facial recognition module installed at the top of one front side of the terminal and capturing facial recognition information of the driver, a camera module installed at the other front side of the terminal and capturing a video of the driver seated in the driver's seat, the above A breathalyzer module installed at the bottom of one side of the front of the terminal to measure the blood alcohol concentration of a driver whose face recognition has been completed, and a control module 60 that receives and controls information transmitted from the facial recognition module, camera module, and breathalyzer module. It includes, and the control module compares the driver's facial image information transmitted from the facial recognition module with the driver's information stored in the database server and determines that the driver who boarded the vehicle is the same as the driver who received the dispatch. The control module compares and determines whether a person is a person, and the control module compares and determines the driver's face stored in the database server when the face of the driver seated in the driver's seat is photographed and transmitted from the camera module. The presence or absence of a breathalyzer test is determined by comparing the driver's blood alcohol concentration measurement value measured in the breathalyzer module with the allowable breathalyzer test value, and the facial recognition module uses AI algorithm for CNN (Convolutional neural network) or grid. It uses a facial recognition measurement method selected from the deep learning-based YOLO (You Only Look Once) algorithm, which predicts the number of bounding boxes designated in a predefined form centered on the center of the grid and calculates reliability based on this. CNN using AI algorithm collects each image feature detected through a detection unit that detects the entire outline of the driver's face, a facial feature detection unit that detects features on the driver's face, and a facial asymmetry detection unit that detects facial asymmetry of the driver. By collecting and transmitting the information to the control module 60, the control module can accurately compare and determine the transmitted facial image information of the driver with the driver and facial images stored in the database server, and the facial recognition module From the point where the driver starts boarding the dispatched vehicle, the driver's movements are detected and an image of the driver's face is taken, and the camera module measures breath alcohol from the breathalyzer module after the facial recognition module operates. Video recording of the driver continues until this is completed. A remote control module is connected to the control module, and the remote control module can be remotely controlled using the manager's terminal if a malfunction occurs in the terminal. It is characterized by being able to do so.

본 발명은 차량의 내부 운전석 앞쪽에 운전기사의 얼굴을 인식하는 AI 모듈 및 음주 측정을 행할 수 있는 음주 측정모듈을 설치하여 운수업에 종사하는 운전기사가 버스에 탑승하고 나면 AI 안면인식 모듈을 이용하여 운전기사의 얼굴을 인식한 후, 서버에 기 저장되어 있는 차량의 운전기사 정보 데이터와 비교 판단하여 탑승한 운전기사가 동일 인물인지를 판단한 다음, 음주측정기를 이용하여 운전기사의 음주 유무를 측정하고 이상이 없을 시 해당 차량을 운행 하도록 하여 큰 사고를 일으킬 수 있는 운수업 종사자의 음주운행을 미연에 방지할 수 있는 효과를 가진다.The present invention installs an AI module that recognizes the driver's face and a breathalyzer module that can perform a breathalyzer test in front of the driver's seat inside the vehicle, so that the driver engaged in the transportation industry uses the AI facial recognition module after boarding the bus. After recognizing the driver's face, it is compared with the driver information data of the vehicle already stored in the server to determine whether the driver on board is the same person, and then the driver's drinking is measured using a breathalyzer. It has the effect of preventing drunk driving by transportation workers, which can cause serious accidents, by allowing the vehicle to be driven when there is no problem.

특히 운전기사의 얼굴을 인식하여 배차된 운전기사와 동일 인물인지를 판단 하는 AI 알고리즘을 활용한 CNN(Convolutional neural network) 또는 딥러닝 기반의 YOLO(You Only Look Once) 알고리즘중에서 선택된 하나의 안면인식 측정방식을 사용하며 안면 정보를 전송하도록 함으로서 오차없이 정확한 데이터를 전송할 수 있는 효과를 가진다.In particular, a facial recognition measurement selected from CNN (Convolutional neural network) or deep learning-based YOLO (You Only Look Once) algorithm using an AI algorithm that recognizes the driver's face and determines whether the driver is the same person as the dispatched driver. By using this method and transmitting face information, it has the effect of transmitting accurate data without error.

도 1a는 AI 안면인식 기반 음주운전 제로 솔루션이 적용된 운전석의 상태를 도시한 도면.
도 1b는 도 1a의 테블릿 및 음주측정모듈을 도시한 도면.
도 2는 도 1의 구성을 도시한 도면.
도 3은 AI 안면인식 기반 음주운전 제로 솔루션의 동작흐름을 도시한 도면.
도 4는 제어모듈의 구성을 도시한 도면.
도 5는 AI 안면인식 기반 음주운전 제로 솔루션의 동작 흐름을 도시한 순서도.
도 6은 AI 안면인식 기반 음주운전 제로 솔루션에서 관리자의 동작을 순차적으로 도시한 순서도.
Figure 1a is a diagram showing the state of the driver's seat to which the AI facial recognition-based zero drunk driving solution has been applied.
FIG. 1B is a diagram illustrating the tablet and breathalyzer module of FIG. 1A.
Figure 2 is a diagram showing the configuration of Figure 1.
Figure 3 is a diagram showing the operational flow of the AI facial recognition-based drunk driving zero solution.
Figure 4 is a diagram showing the configuration of a control module.
Figure 5 is a flowchart showing the operational flow of the AI facial recognition-based drunk driving zero solution.
Figure 6 is a flowchart sequentially showing the administrator's actions in the AI facial recognition-based drunk driving zero solution.

이하 본 발명의 실시 예를 첨부된 도면을 참조하여 설명하면 다음과 같다. 후술 될 상세한 설명에서는 상술한 기술적 과제를 이루기 위해 본 발명에 있어 대표적인 실시 예를 제시할 것이다. 그리고 본 발명으로 제시될 수 있는 다른 실시 예들은 본 발명의 구성에서 설명으로 대체한다.Hereinafter, embodiments of the present invention will be described with reference to the attached drawings. In the detailed description to be described later, representative embodiments of the present invention will be presented to achieve the above-described technical problem. And other embodiments that can be presented with the present invention are replaced with descriptions in the configuration of the present invention.

본 발명에서는 기존 운수업체가 모든 운전기사의 음주 여부를 측정하고 관련 내용에 대한 음주측정 관리대장을 작성해 보관하는 것이 원칙으로 이를 디지털로 전환하여 운전기사의 음주측정 여부와 측정 시간, 결과, 측정 당시 모습을 웹서버에 실시간 전송, 모니터링을 음주운전 해결에 도움을 줄 수 있도록 하는 데 목적이 있다. 즉, 기존 음주측정시스템은 수기로 이루어지기에 미측정이나 대리측정자까지 발견할 수 없는 어려움이 있으나 본 발명은 얼굴인식을 통한 사용자인증 및 녹화를 통해 언급한 문제점을 해결할 수 있다. 또한 얼굴인식부, 체온측정부 등에 대한 제품 자체 기술개발로써 원감을 절감 및 성능을 업그레이드하여 경제적, 기술적 기대효과를 극대화 할 수 있을 것이라 본다.In the present invention, the existing transportation company measures whether all drivers are drinking and prepares and stores a breathalyzer management ledger with related contents. This is converted to digital to determine whether the driver is drinking alcohol, measurement time, result, and time of measurement. The purpose is to transmit and monitor images to a web server in real time to help solve drunk driving. In other words, since the existing breathalyzer test system is performed manually, there is a difficulty in detecting non-measurements or proxy testers, but the present invention can solve the problems mentioned through user authentication and recording through facial recognition. In addition, through the development of the product's own technology for the face recognition unit and body temperature measurement unit, it is expected that the expected economic and technical effects will be maximized by reducing waste and upgrading performance.

얼굴 인식부는 AI 안면인식을 통한 운전기사를 인식하는 방식인데, 현재 모든 운전기사의 음주 여부를 측정하고 운행하는데 있어서 대리운행 및 대리 측정 관리가 미흡 이를 운전석에 "음주측정시스템"을 부착하여 운행 시작전 안면인식 및 음주측정, 운행시 실시간 안면인식을 통한 대리운전을 해결할 수 있도록 한다. 특히 본 발명은 얼굴인식을 위해 사용되는 안면인식모듈을 안면인식모듈은 AI 알고리즘을 활용한 CNN 또는 그리드에 대한 그리드 중앙을 중심으로 미리 정의된 형태로 지정된 경계박스의 개수를 예측하고 이를 기반으로 신뢰도를 계산하는 딥러닝 기반의 YOLO(You Only Look Once) 알고리즘중에서 선택된 하나의 안면인식 측정방식을 사용하여 촬영중인 운전기사의 안면 인식 정보를 정확하게 측정하여 기 저장되어 있는 운전기사의 정보와 매칭시킬 수 있도록 하였다.The facial recognition unit recognizes the driver through AI facial recognition, but currently, proxy operation and proxy measurement management are insufficient in measuring and driving the drinking of all drivers. To begin operation, attach a "drinking measurement system" to the driver's seat. It allows for proxy driving through facial recognition, breathalyzer testing, and real-time facial recognition during driving. In particular, the present invention predicts the number of bounding boxes designated in a predefined form centered on the center of the grid for a CNN or grid using an AI algorithm and based on this, the facial recognition module is used for face recognition. By using one facial recognition measurement method selected from the deep learning-based YOLO (You Only Look Once) algorithm that calculates It was allowed to happen.

이하, 첨부된 도면들을 참조하여 본 발명의 AI 안면인식 기반 음주운전 제로 솔루션의 구체적인 실시 예를 기술하기로 한다.Hereinafter, specific examples of the AI facial recognition-based drunk driving zero solution of the present invention will be described with reference to the attached drawings.

도 1a는 AI 안면인식 기반 음주운전 제로 솔루션이 적용된 운전석의 상태를 도시한 도면이고, 도 1b는 도 1a의 테블릿 및 음주측정모듈을 도시한 도면이며, 도 2는 도 1의 구성을 도시한 도면이며, 도 3은 음주운전 제로 솔루션의 동작흐름을 도시한 도면이다.FIG. 1A is a diagram showing the state of the driver's seat to which the AI facial recognition-based drunk driving zero solution has been applied, FIG. 1B is a diagram showing the tablet and breathalyzer measurement module of FIG. 1A, and FIG. 2 is a diagram showing the configuration of FIG. 1. It is a drawing, and Figure 3 is a diagram showing the operational flow of the zero drunk driving solution.

도 1 내지 도 3에서 도시하고 있는 바와 같이 AI 안면인식 기반 음주운전 제로 솔루션은 디스플레이(12)가 마련된 테블릿(10), 상기 테블릿(10)에 마련되며 운전기사의 안면을 인식하는 안면인식모듈(20), 카메라모듈(30), 상기 테블릿(10)과 무선 송수신 방식인 블루투스로 연결되며 운전자의 음주유무를 측정하는 음주측정모듈(40), 원격제어모듈(50), 운전기사의 안면을 기 저정된 데이터와 비교 판단하여 운전기사를 확인하며, 또한 음주 측정 수치에 기초하여 음주상태를 판단하는 제어모듈(60), 상기 제어모듈(60)과 연계되며 운수업에 종사하는 운전기사의 안면을 데이터화하여 저장하고, 또한 음주 측정 수치를 데이터화하여 저장하는 데이터베이스서버(70), 운전기사의 상황을 모니터링하는 관리센터(80)로 이루어진다.As shown in Figures 1 to 3, the AI facial recognition-based drunk driving zero solution includes a tablet 10 equipped with a display 12, and a facial recognition system provided on the tablet 10 to recognize the driver's face. The module 20, the camera module 30, and the tablet 10 are connected via Bluetooth, a wireless transmission and reception method, and the breathalyzer module 40, which measures whether the driver has been drinking, the remote control module 50, and the driver's A control module 60 that compares the face with pre-set data to identify the driver and determines the drunk state based on breathalyzer test values, and is linked to the control module 60 to identify drivers engaged in the transportation industry. It consists of a database server (70) that converts and stores the face into data, and also converts and stores breathalyzer test values into data, and a management center (80) that monitors the driver's situation.

상기 테블릿(10)은 차량의 운전석에 장착되어, 운수업 종사자인 운전기사가 차량에 탑승하기 시작하는 시점부터 운전기사가 운전석에 착석 후, 실제 운전이 진행되는 동안 운전기사의 본인 여부 확인 및 운전기사의 음주나 기타 상황을 실시간으로 판단하여 관리센터(80)로 전송하게 된다.The tablet 10 is installed in the driver's seat of the vehicle, and from the time the driver, who is employed in the transportation industry, begins boarding the vehicle, after the driver sits in the driver's seat, and during actual driving, the driver's identity is checked and the driver is driven. The driver's drinking or other situations are determined in real time and transmitted to the management center (80).

상기 테블릿(10)은 차량에 장착되며 운영체제는 안드로이드 10이상, 윈도우 10이상을 사용할 수 있어야 하며 음주측정을 진행하는 장비인 음주측정모듈 역시 따로 차량에 구비한 상태에서 음주측정모듈과 테블릿을 블루투스 형식으로 연결하여 음주 여부의 측정이 차량에서 즉각적으로 가능하도록 한다.The tablet 10 is installed in a vehicle, and the operating system must be Android 10 or higher and Windows 10 or higher. The breathalyzer module, which is a device for performing a breathalyzer test, is also separately installed in the vehicle, and the breathalyzer module and tablet are installed separately in the vehicle. By connecting in Bluetooth format, alcohol consumption can be measured immediately in the vehicle.

상기 안면인식모듈(20)은 상기 테블릿(10)의 전면 일측에 설치되며 출근 후, 차량에 탑승하는 시점부터 운전기사의 움직임을 감지하여 Ai 알고리즘인 CNN이나 혹은 YOLO 알고리즘을 활용하여 운전기사의 안면인식을 동영상으로 촬영한 후, 제어모듈(60)로 전송한다. 제어모듈(60)은 안면인식모듈(20)에서 전송된 운전기사의 안면인식 정보와 데이터베이스서버(70)에 저장되어 있는 운전기사의 안면 정보를 비교판단 한 다음, 안면인식을 진행한 운전기사가 차량을 운행하기 위해 배차를 받은 운전기사와 동일 인물인지 판단한다.The facial recognition module 20 is installed on one side of the front of the tablet 10 and detects the driver's movements from the time of boarding the vehicle after going to work, and uses CNN, an Ai algorithm, or YOLO algorithm to detect the driver's movements. After facial recognition is recorded as a video, it is transmitted to the control module (60). The control module 60 compares and determines the driver's facial recognition information transmitted from the facial recognition module 20 and the driver's facial information stored in the database server 70, and then determines whether the driver who performed facial recognition Determine whether the person is the same as the driver assigned to operate the vehicle.

상기 안면인식모듈(20)은 동영상 촬영 방식으로 진행된다. 바람직하게는 본 발명의 안면인식모듈(20)은 합성곱 신경망(CNN; Convolutional neural network) 모델을 활용할 수 있다.The facial recognition module 20 operates using a video recording method. Preferably, the facial recognition module 20 of the present invention can utilize a convolutional neural network (CNN) model.

통상 얼굴인식 기술은 이미지와 같이 기본적으로 입력 정지영상 또는 비디오 내에 존재하는 얼굴 영역을 검출하고 얼굴영역에서 추출된 랜드마크(Landmarks) 정보를 이용한 얼굴정렬, 광도보정, 그리고 영상 정규화 같은 전처리를 수행한다. 다음으로 전처리된 얼굴 영상으로부터 특징(Feature)을 추출하고, 이 특징을 이용하여 훈련 단계에서는 분류모델을 학습시키고, 검증 단계에서는 이 모델을 이용하여 어떤 사람인지 판별하게 된다. 얼굴인식 기술은 응용에 따라 얼굴검증(Face Verification) 그리고 얼굴식별(Face Identification)기술로 구분된다. Typically, face recognition technology basically detects the face area that exists in an input still image or video like an image and performs preprocessing such as face alignment, luminance correction, and image normalization using landmark information extracted from the face area. . Next, features are extracted from the preprocessed face image, a classification model is learned in the training stage using these features, and this model is used in the verification stage to determine what kind of person the person is. Face recognition technology is divided into face verification and face identification technology depending on application.

얼굴검증은 입력으로 들어오는 두 개의 얼굴 영상이 동일 인물인지 여부를 판단하는 1:1 검증 문제이며, 얼굴식별은 입력으로 들어오는 하나의 얼굴 영상이 사전에 등록된 N명의 인물 중 어떤 인물에 해당하는지를 판단하는 1:N의 문제로 볼 수 있다. Face verification is a 1:1 verification problem that determines whether two input face images are the same person, and face identification determines which of the N pre-registered faces a single input face image corresponds to. It can be seen as a 1:N problem.

보통 얼굴식별 기술은 학습된 모델을 이용하여 검증의 대상이 되는 프로브(Probe) 영상과 사전에 등록된 N명에 대한 갤러리(Gallery) 영상과의 비교를 통해 수행한다. Usually, face identification technology is performed by comparing probe images, which are the subject of verification, using a learned model, and gallery images of N people registered in advance.

기존 전통적인 얼굴인식 기술에서는 주로 얼굴 영상에 대해 분별력 있는 특징을 추출하기 위한 기술(예: Local Binary Patterns, Gabor 특징과 같은 Handcrafted 특징)과 추출된 특징에 대해 어떤 인물인지 판별하기 위한 분류모델이 사용되었다. In existing traditional face recognition technologies, technologies for extracting distinguishable features from face images (e.g., Local Binary Patterns, Handcrafted features such as Gabor features) and classification models to determine what kind of person the extracted features are were used. .

이러한 기존의 컴퓨터 비전 및 패턴인식 기술을 이용한 방법들은 실제 환경에서 얼굴 영상의 다양한 변화가 발생했을 때 학습에 사용된 데이터와 입력된 테스트 영상 사이의 불일치로 인해 성능이 매우 저하되는 것으로 알려져 있다. 대조적으로, 딥러닝 기반 얼굴인식 기술에서는 특징추출과 분류모델 학습을 다양한 환경에서 구축한 대용량의 얼굴 데이터를 이용하여 End-to-End로 학습함에 따라 매우 고차원적인 특징을 스스로 학습하게 된다. 이에 따라 와일드 환경에서의 얼굴인식 성능은 매우 높아지고 있고, 사람의 인지 성능을 뛰어넘는 연구 사례도 나타나고 있다.Methods using these existing computer vision and pattern recognition technologies are known to have very poor performance due to inconsistencies between the data used for learning and the input test images when various changes occur in facial images in a real environment. In contrast, in deep learning-based face recognition technology, feature extraction and classification model learning are performed end-to-end using large amounts of face data constructed in various environments, so very high-dimensional features are learned on their own. Accordingly, face recognition performance in wild environments is greatly improving, and research cases that surpass human recognition performance are also appearing.

본 발명에서 제공되는 안면인식모듈(20)은 AI 알고리즘을 활용한 합성곱 신경망(CNN)을 활용한다.The facial recognition module 20 provided in the present invention utilizes a convolutional neural network (CNN) using an AI algorithm.

AI 알고리즘을 활용한 합성곱 신경망(콘볼루션 신경망, Convolutional neural network, CNN)은 시각적 영상을 분석하는 데 사용되는 다층의 피드-포워드적인 인공신경망의 한 종류이다. 필터링 기법을 인공신경망에 적용하여 이미지를 효과적으로 처리할 수 있는 심층 신경망 기법으로 행렬로 표현된 필터의 각 요소가 데이터 처리에 적합하도록 자동으로 학습되는 과정을 통해 이미지를 분류하는 기법이다.A convolutional neural network (CNN) using AI algorithms is a type of multi-layer feed-forward artificial neural network used to analyze visual images. It is a deep neural network technique that can effectively process images by applying filtering techniques to artificial neural networks. It is a technique that classifies images through a process in which each element of the filter expressed in a matrix is automatically learned to be suitable for data processing.

CNN은 layer들의 연결로 이루어 지는 데, 구체적으로는 Convolution layer와 Pooling layer들이 연결이 되어 있는 것을 알 수 있다. 그렇다고 Convolution layer와 Pooling layer으로만 CNN이 구성되어지지 않는다. CNN은 크게 2가지로 나눠진다. 하나는 특징을 추출하는 feature extraction로 이루어져 있고, 다른 하나는 feature extraction를 통과한 이후에 결과값을 도출해 주는 Classification으로 이루어져있다. 이때 Convolution layer와 Pooling layer가 섞여 있는것이 feature extraction이고, fully-connected layer로 이루어 진것이 Classification이다.CNN is made up of connections between layers. Specifically, you can see that the convolution layer and pooling layers are connected. However, a CNN is not composed of only a convolution layer and a pooling layer. CNN is largely divided into two types. One consists of feature extraction, which extracts features, and the other consists of classification, which derives the result after passing feature extraction. At this time, feature extraction is a mixture of a convolution layer and a pooling layer, and classification is a fully-connected layer.

CNN을 활용하면 운전기사의 안면 이미지 정보를 획득하여 CNN 구조의 스펙에 맞추어 변환시킨 후, 3차원 합성곱 신경망을 이용하여 사전에 설정된 클래스 분류가 가능한 데이터로 변환하고, 각 클라스의 정확도를 계산한 후, 가장 높은 수치를 가진 클래스를 판단하여 학습하고, 학습한 안면 이미지 데이터 정보를 데이터베이스서버에 저장 처리하게 된다.When using CNN, the driver's facial image information is acquired, converted to the specifications of the CNN structure, then converted into data that can be classified into preset classes using a 3D convolutional neural network, and the accuracy of each class is calculated. Afterwards, the class with the highest value is determined and learned, and the learned facial image data information is stored and processed on the database server.

예를 들어 안면인식모듈은 운전기사의 안면 전체 윤곽을 검출하는 검출부, 운전기사의 안면에서 특징을 검출하는 안면 특징 검출부, 운전기사의 안면 비대칭을 검출하는 안면 비대칭 검출부로 구성하여 각 검출부에서 검출된 영상 특징들을 취합하여 운전기사의 안면 정보를 가장 완벽한 형태의 이미지 데이터로 변환한 후, 제어모듈로 전송한다. 그리고 제어모듈은 데이터베이스 서버에 저장되어 있는 운전기사의 정보와 상기 안면인식모듈에서 전송된 운전기사의 안면 인식 정보를 비교 판단하여 동일인물 유무를 확인하게 되는 것이다. 즉, 합성곱 신경망(CNN)을 활용하여 회사에 소속되어 있는 모든 운전기사의 안면 이미지 데이터를 데이터베이스서버에 저장한 후, 배차가 확정된 운전기사가 차량에 탑승하기 시작하면 안면인식모듈은 해당 운전기사의 움직임을 감지하여 운전기사의 안면 특징을 촬영한 후, 취합하여 제어모듈로 실시간으로 전송하고, 제어모듈은 데이터베이스서버에 저장되어 있는 운전기사의 안면 이미지 데이터 정보와 차량에 탑승한 운전기사의 안면 이미지를 비교 판단하여 탑승한 운전기사가 배차된 차량을 운행하는 운전기사와 동일 인물인지를 판단한다.For example, the facial recognition module consists of a detection unit that detects the entire outline of the driver's face, a facial feature detection unit that detects features on the driver's face, and a facial asymmetry detection unit that detects the driver's facial asymmetry. By collecting image features, the driver's facial information is converted into the most complete form of image data and then transmitted to the control module. And the control module compares the driver's information stored in the database server with the driver's facial recognition information transmitted from the facial recognition module to determine whether the driver is the same person. In other words, after using a convolutional neural network (CNN) to store the facial image data of all drivers belonging to the company in the database server, when the driver whose dispatch has been confirmed begins to board the vehicle, the facial recognition module is activated for the corresponding driver. The driver's facial features are captured by detecting the driver's movements, then collected and transmitted in real time to the control module. The control module combines the driver's facial image data information stored in the database server with the driver's facial features stored in the vehicle. By comparing facial images, it is determined whether the driver on board is the same person as the driver driving the assigned vehicle.

또한, 본 발명에서 제공되는 안면인식모듈(20)은 딥러닝 기반의 YOLO(You Only Look Once) 알고리즘을 활용할 수 있다. YOLO 알고리즘은 원본 이미지를 동일한 크기의 그리드로 나눈다. 각 그리드에 대한 그리드 중앙을 중심으로 미리 정의된 형태로 지정된 경계박스의 개수를 예측하고 이를 기반으로 신뢰도를 계산한다. 이미지에 객체가 포함되어 있는지, 또는 배경만 단독으로 있는지에 대한 여부가 포함되며 높은 객체 신뢰도를 가진 위치를 선택해 객체 카테고리를 파악한다.Additionally, the facial recognition module 20 provided in the present invention can utilize the deep learning-based YOLO (You Only Look Once) algorithm. The YOLO algorithm divides the original image into grids of equal size. For each grid, the number of bounding boxes designated in a predefined form centered on the center of the grid is predicted and reliability is calculated based on this. This includes whether the image contains an object or only the background, and identifies the object category by selecting a location with high object confidence.

대부분의 이미지 탐지 모델처럼 YOLO는 백본 모델(backbone model)을 기반으로 한다. 이 모델의 역할은 마지막 계층에서 사용될 의미 있는 특징을 이미지로부터 추출하는 것이다. 이 때문에 백본 모델을 특징 추출기(feature extractor)라고도 부른다.Like most image detection models, YOLO is based on the backbone model. The role of this model is to extract meaningful features from the image to be used in the final layer. For this reason, the backbone model is also called a feature extractor.

즉, YOLO(You Only Look Once) 알고리즘을 활용한 안면인식모듈(20)은 회사에 소속되어 있는 운전기사가 차량에 탑승하기 시작하면 해당 운전기사의 움직임을 감지하여 운전기사의 영상 이미지 정보를 제어모듈(60)로 실시간으로 전송하고, 제어모듈(60)은 데이터베이스서버에 저장되어 있는 운전기사의 안면 이미지 데이터 정보와 차량에 탑승한 운전기사의 안면 이미지를 비교 판단하여 탑승한 운전기사가 배차된 차량을 운행하는 운전기사와 동일 인물인지를 판단한다.In other words, the facial recognition module 20 using the YOLO (You Only Look Once) algorithm detects the driver's movements when a driver belonging to the company begins to board the vehicle and controls the driver's video image information. It is transmitted in real time to the module 60, and the control module 60 compares the facial image data information of the driver stored in the database server with the facial image of the driver riding in the vehicle to determine whether the driver is dispatched. Determine whether the person is the same as the driver operating the vehicle.

상기 카메라모듈(30)은 단말기(10)의 전면 타측에 설치되며, 운전기사를 촬영하고, 촬영된 영상은 제어모듈(60)로 전송한다. 제어모듈(60)은 카메라모듈(30)에서 전송된 영상과 데이터베이스서버(70)에 저장되어 있는 운전기사의 얼굴을 비교 판단하여 운전석에 착석한 운전기사가 배차를 받은 운전기사와 동일 인물인지 판단한다.The camera module 30 is installed on the other front side of the terminal 10, photographs the driver, and transmits the captured image to the control module 60. The control module 60 compares the image transmitted from the camera module 30 and the driver's face stored in the database server 70 to determine whether the driver seated in the driver's seat is the same person as the driver who received the dispatch. do.

특히 상기 카메라모듈(30)은 다른 운전기사가 대신 음주 측정하는 것을 방지할 수 있도록 안면인식모듈(20)이 동작한 이후부터 음주측정모듈(40)에서 음주측정이 완료될때 까지 운전기사에 대해 동영상 촬영이 계속해서 이루어지도록 한다.In particular, the camera module 30 records a video of the driver from the time the facial recognition module 20 operates until the breathalyzer test is completed in the breathalyzer module 40 to prevent other drivers from performing a breathalyzer test on their behalf. Make sure filming continues.

상기 음주측정모듈(40)은 상기 단말기(10)의 전면 일측 하단에 설치되어 상기 안면인식모듈(20)에서 안면 인식이 완료된 운전기사의 혈중알코올농도를 측정하고, 측정된 수치를 제어모듈(60)로 전송한다.The breathalyzer module 40 is installed at the bottom of one front side of the terminal 10, measures the blood alcohol concentration of the driver whose face has been recognized by the face recognition module 20, and sends the measured value to the control module 60. ) and send it to

상기 음주측정모듈(40)은 초정밀 전기화학식 전용 센서 기반 음주 측정기로서, 표시가능범위는 0.000~0.450%BAC이며, 오차범위는 ±0.005%BAC(0.100%BAC측정시)이다. 동작가능온도는 -5~40℃이고, 입력전압은 AA알카라인배터리 3개 또는 USB 5V를 사용한다. 음주측정모듈(40)을 이루는 본체는 방습, 방열 및 정전기 방지가 가능한 합성수지로 성형한다. The breathalyzer module 40 is a high-precision electrochemical sensor-based breathalyzer. The displayable range is 0.000~0.450%BAC, and the error range is ±0.005%BAC (when measuring 0.100%BAC). The operating temperature is -5~40℃, and the input voltage uses 3 AA alkaline batteries or USB 5V. The main body of the breathalyzer module 40 is molded from synthetic resin capable of preventing moisture, heat, and static electricity.

상기 음주측정모듈(40)에는 음주측정모듈 마우스피스가 설치되는데, 음주측정모듈 마우스피스는 음주측정모듈의 전면에 원뿔대(깔때기)형상으로 돌출 형성되도록 한다. A breathalyzer module mouthpiece is installed in the breathalyzer module 40, and the breathalyzer module mouthpiece is formed to protrude in the shape of a truncated cone (funnel) on the front of the breathalyzer module.

상기 음주측정모듈 마우스피스는 음주측정자가 음주측정을 위해 음주측정모듈 본체 내부로 호기를 불어넣도록 형성되는 것으로, 원통형(빨대형)과 같이 일반적으로 입에 물어서 호기를 넣는 마우스피스와 달리 입에 물어서 측정할 필요가 없으므로 위생적인 효과가 있다.The breathalyzer module mouthpiece is formed so that the breathalyzer blows into the main body of the breathalyzer module for a breathalyzer test. Unlike the cylindrical (straw-type) mouthpiece, which is generally put in the mouth and exhaled, it is not placed in the mouth. It has a hygienic effect because there is no need to ask questions to measure it.

또한 음주측정모듈 마우스피스는 탈부착할 수 있도록 마련되어 주기적인 교체가 이루어질 수 있다.Additionally, the breathalyzer module mouthpiece is detachable so that it can be replaced periodically.

상기 음주측정모듈은 테블릿과 블루투스 방식으로 무선으로 연결하여 음주측정데이터를 송수신하도록 한다.The breathalyzer module wirelessly connects to the tablet via Bluetooth to transmit and receive breathalyzer data.

상기 제어모듈(60)에는 운전기사식별부(62), 영상관리부(64), 음주판단부(66), 근태처리부(68), 음주측정관리부(69)가 마련된다. The control module 60 is provided with a driver identification unit 62, an image management unit 64, a drunkenness determination unit 66, an attendance processing unit 68, and a breathalyzer management unit 69.

도 4에서와 같이 운전기사 식별부(62)는 상기 안면인식모듈(20)에서 촬영된 운전기사의 안면인식정보를 전달받아 데이터베이스서버(70)에 기저장되어 있는 운전기사의 안면 인식 정보와 비교하여 전달받아 안면인식정보에 해당하는 운전기사를 식별한다. As shown in FIG. 4, the driver identification unit 62 receives the driver's facial recognition information captured by the facial recognition module 20 and compares it with the driver's facial recognition information previously stored in the database server 70. The facial recognition information is received and the driver corresponding to it is identified.

상기 데이터베이스서버(70)는 운전기사의 사원번호, 소속, 성명, 생년월일, 차량번호 등을 포함하는 사원정보와, 운전기사의 안면 인식 정보를 저장하여 관리한다. The database server 70 stores and manages employee information including the driver's employee number, affiliation, name, date of birth, vehicle number, etc., and the driver's facial recognition information.

영상관리부(64)는 카메라 모듈(30)로부터 촬영한 영상을 전달받아, 데이터베이스에 저장하여 관리한다.The video management unit 64 receives images captured from the camera module 30, stores them in a database, and manages them.

음주판단부(66)는 상기 음주측정모듈(40)로 부터 전달받은 혈중알코올농도 수치가 기설정된 허용혈중알코올농도를 초과하면 음주 상태로 판단하고, 미만인 경우 비음주 상태로 판단하게 된다.The drunkenness determination unit 66 determines that the blood alcohol concentration level received from the breathalyzer measurement module 40 is in a drunk state if it exceeds the preset allowable blood alcohol concentration level, and if it is lower than the preset allowable blood alcohol concentration level, it is judged to be in a non-drinking state.

근태처리부(68)는 상기 음주판단부(66)의 판단 결과에 기초하여, 비음주 상태일 경우에만 해당 운수업 종사자의 출근으로 인정하며, 음주 상태일 경우에는 출근 불인정으로 인식한다.Based on the judgment result of the drunkenness determination unit 66, the attendance processing unit 68 recognizes the relevant transportation worker as attending work only if he or she is not drunk, and recognizes the employee as not attending work if he or she is drunk.

음주측정관리부(69)는 음주 측정한 운전기사의 사원 정보와 측정 정보 등을 테이터베이스 서버(70)에 저장하고 관리하는 역할을 한다.The breathalyzer management unit 69 stores and manages the employee information and measurement information of the driver who was breathalyzed in the database server 70.

상기 측정 정보는 일시, 장소, 측정 결과를 포함하며, 여기서 상기 측정결과는 상기 측정 수치를 의미할 수 있다.The measurement information includes date and time, location, and measurement result, where the measurement result may mean the measurement value.

상기 음수측정관리부(69)는 측정결과가 음주 상태일 경우, 음주 상태인 운수업 종사자의 사원정보와 측정 정보를 별도로 관리하도록 구성될 수 있다.If the measurement result is a drunk state, the drinking water measurement management unit 69 may be configured to separately manage employee information and measurement information of a drunk transportation worker.

상기 원격제어모듈(50)은 이더넷(Ethernet) 통신을 이용하여 원격으로 차랑형 음주측정시스템을 제어한다.The remote control module 50 remotely controls the vehicle breathalyzer system using Ethernet communication.

즉, 관리센터나 관리자 단말기를 이용하여 원격제어모듈을 통해 현장 방문없이 즉시 복구가 가능하도록 이루어질 수 있음을 의미한다. 여기서, 상기 관리센터는 원격지 또는 네트워크 관리 시스템( Network Management System, NFS) 등을 의미할 수 있다.This means that immediate recovery can be achieved without an on-site visit through a remote control module using a management center or administrator terminal. Here, the management center may mean a remote location or a network management system (Network Management System, NFS).

이는, 차량형 음주측정시스템의 테블릿(10)의 장애가 발생할 경우 상기 원격제어모듈(50)을 통해 원격으로 리부팅 가능하도록 하여 즉시 복구가 가능하여, 장애 점검 인력의 현장 출동으로 인한 복구 지연시간 및 비용이 발생하는 문제를 해결할 수 있다. 따라서, 시스템 사용 불가로 인한 민원을 감소시킬 수 있는 효과가 있다.This allows immediate recovery by enabling a remote reboot through the remote control module 50 in the event of a failure of the tablet 10 of the vehicle-type breathalyzer system, thereby reducing recovery delay time due to on-site dispatch of failure inspection personnel and Problems that incur costs can be resolved. Therefore, there is an effect of reducing civil complaints due to unusability of the system.

또한, 상기 원격제어모듈(50)은 리부팅뿐만 아니라 리셋이 가능하도록 구성될 수 있다. 여기서, 리부팅은 컴퓨터 작동중 프로그램 실행에 문제가 있어 전원 버튼을 사용하여 강제로 전원을 완전히 껐다 다시 켜는 것을 의미하며, 리셋은 컴퓨터 작동 중 프로그램 실행에 문제가 있을 때 전원이 들어와 있는 상태에서 스위치의 전기신호를 다시 시작하는 것을 의미한다. 또한, 상기 리셋은 데이터 처리 기구의 전체 또는 일부를 미리 정한 상태로 돌리는 것을 의미할 수 있다.Additionally, the remote control module 50 may be configured to enable not only rebooting but also resetting. Here, rebooting means completely turning the power off and then turning it back on using the power button when there is a problem running a program while the computer is running. Reset means turning the switch off while the computer is turned on when there is a problem running a program while the computer is running. This means restarting the electrical signal. Additionally, the reset may mean returning all or part of the data processing mechanism to a predetermined state.

한편, 관리자의 운행관리는 운행 시작에서부터 운행이 종료될때 까지이며 운전기사의 이상행동(졸음운전 등)을 보일 경우 카메라모듈을 통해 실시간으로 전송받아 소리를 통해 경고를 진행하며 현재 위치 정보는 관리자에게 즉각 전송되도록 한다. 그리고 음주측정을 진행하는 순간부터 모든 화면은 관리자에게 실시간으로 화면이 전송되며 운전자의 이상행동이 발견되면 이를 화면에 표시하여 확인을 할 수 있도록 한다.Meanwhile, the manager's operation management is from the start of the operation until the end of the operation. If the driver exhibits abnormal behavior (such as drowsy driving), it is transmitted in real time through the camera module and a warning is issued through sound, and the current location information is sent to the manager. Make sure it is sent immediately. And from the moment the breathalyzer test is performed, all screens are sent to the manager in real time, and if the driver's abnormal behavior is discovered, it is displayed on the screen for confirmation.

한편 테블릿에는 다양한 기능을 더 구현할 수 있다. 예를 들어 운전기사가 운전을 하는 동안 테블릿의 카메라모듈은 운전기사를 실시간으로 촬영을 하는데, 촬영이 진행되는 동안 운전기사는 계속 근무하고 있는 상태이며, 따라서 운전기사의 근무시간을 자동으로 산정할 수 있다.Meanwhile, various other functions can be implemented in tablets. For example, while the driver is driving, the tablet's camera module takes pictures of the driver in real time. While filming is in progress, the driver is still working, so the driver's working hours are automatically calculated. can do.

그리고 장시간 운전 시 휴식시간을 보장할 수 있도록 테블릿에는 일정시간 마다 알람이 울리도록 하여 운전기사가 정해진 시간마다 휴식을 취할 수 있도록 한다. 예를들어 2시간 운행 시 15분 휴식시간을 보장하거나, 2시간 30분 운행 시 20분의 휴식시간을 보장하도록 한다.And to ensure rest time when driving for long periods of time, the tablet sets off an alarm at certain intervals so that the driver can take a break at set times. For example, a 15-minute break is guaranteed when driving for 2 hours, or a 20-minute break is guaranteed when driving for 2 hours and 30 minutes.

또한 운행중에도 졸음이나 전방주시 소홀 등의 운전기사의 이상행동이 발견되면 관리자에게만 이를 알리는 것이 아니라, 테블릿에서 자체 경보음이 울리도록 하여 운전기사에게 즉각적으로 경고할 수 있도록 한다.In addition, if the driver's abnormal behavior, such as drowsiness or lack of attention to the front, is detected while driving, the driver is notified of this. Instead, the tablet sounds its own alarm sound, allowing the driver to be immediately warned.

이하, 본 발명에 따른 AI 안면인식 기반 음주운전 제로 솔루션을 이용하여 음주측정을 하는 방법과 이를 근거로 근태를 관리하는 방법을 기술한다.Hereinafter, a method of performing a breathalyzer test using the AI facial recognition-based drunk driving zero solution according to the present invention and a method of managing attendance based on this will be described.

본 발명의 AI 안면인식 기반 음주운전 제로 솔루션을 활용한 음주측정 방식은 미음주시와 음주시 근태 관리의 업무를 따로 행한다.The breathalyzer test method using the AI facial recognition-based drunk driving zero solution of the present invention performs the tasks of attendance management when not drinking and when drinking alcohol separately.

미음주시에는 운전기사 차량탑승→운전기사 움직임 감지→얼굴 인식 진행→운전기사 데이터 조회→저장된 데이터와 비교→음주측정→음주결과확인→이상 없을시→출근처리→수집된 데이터 저장 및 전송→운행종료후 측정자료 조회 및 보고서 제출→퇴근처리의 과정으로 이루어진다.When not drinking, the driver gets on the vehicle → Detects the driver's movements → Face recognition → Checks the driver's data → Compares with stored data → Measures alcohol intake → Checks drinking results → If there are no abnormalities → Processing of attendance → Saving and transmitting collected data → End of operation The process consists of checking measurement data and submitting a report → leaving work.

음주시에는 운전기사 차량탑승→운전기사 움직임 감지→얼굴 인식 진행→운전기사 데이터 조회→저장된 데이터와 비교→음주측정→음주결과확인→음주적발→관리자에게 음주적발 알람 전송→차량 하차 지시→해당 종사자 연락 및 보고서 작성→귀가처리의 과정으로 이루어진다.When drinking, the driver gets into the vehicle → Detects the driver's movements → Face recognition → Checks the driver's data → Compares with stored data → Breathe alcohol test → Checks the results of drinking → Detected drunk → Sends a drunk detection alarm to the manager → Instruction to get out of the vehicle → Relevant employee The process consists of contacting and writing a report → returning home.

아래에서는 AI 안면인식 기반 음주운전 제로 솔루션을 이용하여 음주 측정 기반 근태 관리 방법을 보다 구체적으로 기술하기로 한다.Below, we will describe in more detail the breathalyzer-based attendance management method using the AI facial recognition-based drunk driving zero solution.

도 5는 AI 안면인식 기반 음주운전 제로 솔루션의 동작 흐름을 도시한 블럭도이다. 도 5에서와 같이 운수업에 종사하는 운전기사가 출근한 뒤, 배차된 차량에 탑승하면 이 시점부터 차량의 운전석에 설치되어 있는 안면인식모듈이 운전기사의 움직임을 감지하여 운전기사의 안면을 동영상으로 촬영하여 제어모듈로 전송한다(S10). Figure 5 is a block diagram showing the operational flow of the AI facial recognition-based drunk driving zero solution. As shown in Figure 5, when a driver engaged in the transportation industry goes to work and gets on a dispatched vehicle, from this point on, the facial recognition module installed in the driver's seat of the vehicle detects the driver's movements and displays the driver's face as a video. Take a picture and transmit it to the control module (S10).

다음, 제어모듈(60)에서 안면인식모듈(20)로부터 안면인식 정보를 전달받아 데이터베이스 서버(70)에 저장되어 있는 운전기사의 안면 이미지 데이터 정보를 비교하여 차량에 탑승한 운전기사가 배차를 받은 운전기사와 동일 인물인지를 판단한다(S20). Next, the control module 60 receives facial recognition information from the facial recognition module 20, compares the facial image data information of the driver stored in the database server 70, and determines whether the driver in the vehicle receives the dispatched vehicle. Determine whether the driver is the same person (S20).

다음, 동일 인물로 판단되고 나면 카메라모듈(30)이 동작하며 운전석에 탑승한 운전기사에 대해 동영상 촬영을 수행하고, 촬영된 영상은 제어모듈(60)로 전송한다(S30). 제어모듈(60)은 카메라모듈(30)에서 전송된 동영상과 데이터베이스서버(70)에 저장되어 있는 운전기사의 얼굴을 비교 판단하여 운전기사가 배차를 받은 운전기사와 동일 인물인지 판단한다. 또한 상기 카메라모듈(30)은 다른 운전기사가 음주 측정하는 것을 방지할 수 있도록 안면인식모듈(20)이 동작한 이후부터 음주측정모듈(40)에서 음주측정이 완료될때 까지 운전기사에 대해 동영상 촬영이 계속해서 이루어지도록 하여 타인이 대리로 음주측정을 대신 수행하는 것을 방지하도록 한다.Next, once it is determined to be the same person, the camera module 30 operates to capture a video of the driver in the driver's seat, and transmits the captured video to the control module 60 (S30). The control module 60 compares the video transmitted from the camera module 30 with the driver's face stored in the database server 70 to determine whether the driver is the same person as the driver who received the dispatch. In addition, the camera module 30 records a video of the driver from the time the facial recognition module 20 operates until the breathalyzer test is completed by the breathalyzer module 40 to prevent other drivers from performing a breathalyzer test. This must be done continuously to prevent others from performing breathalyzer tests on your behalf.

다음, 운전기사는 운전을 수행하기 전, 차량에 장착되어 있는 음주측정모듈(40)을 이용하여 음주측정을 수행한다(S40).Next, before driving, the driver performs a breathalyzer test using the breathalyzer module 40 mounted on the vehicle (S40).

음주측정모듈(40)에서 측정된 수치는 제어모듈(60)로 전송하게 되는 데, 이때 음주측정 도중 카메라모듈로(30)부터 전송받는 영상정보가 운전기사가 아닌 타인이 감지될 경우에는 음주측정이 즉각 중지된다(S50).The value measured by the breathalyzer module 40 is transmitted to the control module 60. At this time, if the video information transmitted from the camera module 30 during the breathalyzer test detects someone other than the driver, the breathalyzer test is performed. This is stopped immediately (S50).

다음, 제어모듈(60)은 상기 음주측정모듈(40)로 부터 전달받은 혈중알코올농도 수치가 기설정된 허용 혈중알코올농도를 초과하면 음주 상태로 판단하고, 미만인 경우 비음주 상태로 판단한다(S60).Next, the control module 60 determines that the blood alcohol concentration level received from the breathalyzer measurement module 40 is in a drunk state if it exceeds the preset allowable blood alcohol concentration level, and if it is less than the preset allowable blood alcohol concentration level, the control module 60 determines the blood alcohol concentration level in a non-drinking state (S60). .

만일 허용 혈중알코올농도를 초과하여 음주 상태로 판단되면 스피커를 통해 음주 적발 알림이 나오도록 하고, 관리자에게 알림 메세지를 전송한다(S70).If it is determined that the user is drunk by exceeding the permitted blood alcohol concentration, a notification of detection of drinking is displayed through the speaker, and a notification message is sent to the administrator (S70).

또한 허용 혈중알코올농도가 기준치 미만일 경우에는 제어모듈(60)은 측정 결과를 포함하는 측정 정보를 데이터베이스 서버(70)에 저장하고 근태 처리를 수행한다(S80). 즉, 제어모듈(60)은 음주상태인 경우에는 운행이 불가능하다고 판단하여 출근을 인정하지 않도록 하고, 비음주상태인 경우에만 출근을 인정한다.Additionally, if the allowable blood alcohol concentration is below the standard, the control module 60 stores measurement information including the measurement results in the database server 70 and performs attendance processing (S80). In other words, the control module 60 determines that driving is impossible when the driver is drunk and does not allow attendance, and only recognizes attendance when the driver is not drunk.

다음, 관리자는 음주 상태인 운전기사의 음주측정 자료를 조회하여 보고서를 작성하여 출력한다(S90).Next, the manager checks the breathalyzer data of the drunk driver, prepares a report, and prints it out (S90).

첨부된 도 6은 AI 안면인식 기반 음주운전 제로 솔루션에서 관리자가 진행하는 동작 흐름을 도시한 블럭도이다.The attached Figure 6 is a block diagram showing the operation flow performed by the manager in the AI facial recognition-based drunk driving zero solution.

차량에 장착되어 있는 테블릿(10)의 안면인식모듈(20)이 작동하여 운전기사의 안면을 인식하면 관리자의 단말기로 알림이 도착한다(S110).When the facial recognition module 20 of the tablet 10 mounted on the vehicle operates and recognizes the driver's face, a notification arrives at the manager's terminal (S110).

관리자는 알림이 도착한 단말기를 확인한 후(S120), 단말기로 수신된 알림을 확인한다(S130).The manager checks the terminal to which the notification has arrived (S120) and then checks the notification received on the terminal (S130).

그리고 차량에 장착되어 있는 음주측정모듈에서 운전자의 음주측정이 진행되고 나면, 음주측정 결과를 확인한다(S140).After the driver's breathalyzer test is performed on the breathalyzer module installed in the vehicle, the breathalyzer test result is checked (S140).

만일 단말기에서 음주 적발 알림이 울리면(S150), 해당 운전기사 및 관리자에게 통보되며 차량에서 하차하도록 지시한다(S160).If a drunk detection alert sounds on the terminal (S150), the relevant driver and manager are notified and are instructed to get off the vehicle (S160).

반대로, 음주 적발 알림이 울리지 않으면(S150), 정상 운행 진행을 지시하고(S170), 음주 측정 데이터를 데이터베이스 서버에 저장한 후(S180), 측정자료 조회 및 보고서를 출력한다(S190).Conversely, if the drunk detection notification does not sound (S150), normal driving is instructed (S170), the breathalyzer data is stored in the database server (S180), and the measurement data is viewed and a report is output (S190).

10: 테블릿 20: 안면인식모듈
30: 카메라모듈 40: 음주측정모듈
50: 원격제어모듈 60: 제어모듈
70: 데이터베이스서버 80: 관리센터
10: Tablet 20: Facial recognition module
30: Camera module 40: Breathalyzer module
50: remote control module 60: control module
70: Database server 80: Management center

Claims (1)

운수업 사업장에 종사하는 운전기사가 차량에 탑승하였을 때, 운전기사의 음주 유무를 측정하도록 하는 AI 안면인식 기반 음주운전 제로 솔루션에 있어서,
차량의 운전석 앞쪽에 설치되며 디스플레이(12)가 장착된 테블릿(10);
상기 테블릿(10)의 전면 일측 상단에 설치되며 운전기사의 안면 인식 정보를 촬영하는 안면인식모듈(20);
상기 테블릿(10)의 전면 타측에 설치되며 운전석에 착석한 운전기사의 동영상을 촬영하는 카메라 모듈(30);
차량의 운전석에 장착되며 상기 테블릿(10)과 무선으로 송수신하며 안면 인식이 완료된 운전기사의 혈중알코올농도를 측정하는 음주측정모듈(40);
상기 안면인식모듈(20), 카메라모듈(30) 및 음주측정모듈로(40) 부터 전송되는 정보를 입력받아 제어하는 제어모듈(60)을 포함하며;
상기 제어모듈(60)은 상기 안면인식모듈(20)에서 전송되는 운전기사의 안면 이미지 정보와 데이터베이스 서버(70)에 저장되어 있는 운전기사의 정보를 비교 판단하여 차량에 탑승한 운전기사가 배차를 받은 운전기사와 동일 인물인지 비교 판단하며;
상기 제어모듈(60)은 상기 운전석에 착석한 운전기사의 안면을 상기 카메라모듈(30)에서 촬영하여 전송받은 상태에서 데이터베이스서버(70)에 저장되어 있는 운전기사의 얼굴을 비교 판단하며;
상기 제어모듈(60)은 상기 음주측정모듈(40)에서 측정된 운전기사의 혈중 알코올농도 측정 수치와 허용 음주 측정수치를 비교하여 음주 측정 유무를 비교 판단하며;
상기 안면인식모듈(20)은 AI 알고리즘을 활용한 CNN(Convolutional neural network) 또는 그리드에 대한 그리드 중앙을 중심으로 미리 정의된 형태로 지정된 경계박스의 개수를 예측하고 이를 기반으로 신뢰도를 계산하는 딥러닝 기반의 YOLO(You Only Look Once) 알고리즘중에서 선택된 하나의 안면인식 측정방식을 사용하며;
상기 AI 알고리즘을 활용한 CNN은 운전기사의 안면 전체 윤곽을 검출하는 검출부, 운전기사의 안면에서 특징을 검출하는 안면 특징 검출부, 운전기사의 안면 비대칭을 검출하는 안면 비대칭 검출부를 통해 검출된 각 영상 특징들을 취합하여 상기 제어모듈(60)로 전송하도록 하여 상기 제어모듈(60)은 전송된 운전기사의 안면 이미지 정보를 상기 데이터베이스 서버(70)에 저장되어 있는 운전기사와 안면 이미지와 정확하게 비교 판단할 수 있으며;
상기 안면인식모듈(20)은 운전기사가 배차된 차량에 탑승하기 시작하는 지점부터 운전기사의 움직임을 감지하여 운전기사의 안면 이미지를 촬영하도록 하며;
상기 카메라모듈(30)은 상기 안면인식모듈(20)이 동작한 이후부터 상기 음주측정모듈(40)에서 음주측정이 완료될 때까지 운전기사에 대해 동영상 촬영이 계속해서 이루어지도록 하며;
상기 제어모듈(60)에는 원격제어모듈(50)이 연결되며, 상기 원격제어모듈(50)은 상기 테블릿(10)의 장애가 발생할 경우 관리자의 단말기를 이용하여 원격으로 제어할 수 있도록 함을 특징으로 하는 AI 안면인식 기반 음주운전 제로 솔루션.
In the AI facial recognition-based drunk driving zero solution that measures whether a driver working in the transportation industry is drinking when he or she gets on the vehicle,
A tablet (10) installed in front of the driver's seat of the vehicle and equipped with a display (12);
A facial recognition module (20) installed at the top of one front side of the tablet (10) and capturing facial recognition information of the driver;
A camera module 30 is installed on the other front side of the tablet 10 and captures a video of the driver seated in the driver's seat;
A breathalyzer module 40 that is mounted on the driver's seat of the vehicle, transmits and receives wirelessly with the tablet 10, and measures the blood alcohol concentration of the driver whose face has been recognized;
It includes a control module 60 that receives and controls information transmitted from the facial recognition module 20, the camera module 30, and the breathalyzer module 40;
The control module 60 compares and determines the driver's facial image information transmitted from the facial recognition module 20 and the driver's information stored in the database server 70 to determine whether the driver riding in the vehicle will be dispatched. Compare and determine whether the driver you received is the same person;
The control module 60 compares and determines the driver's face stored in the database server 70 with the face of the driver seated in the driver's seat, which is photographed and transmitted from the camera module 30;
The control module 60 compares the driver's blood alcohol level measured by the breathalyzer module 40 with the allowable breathalyzer test value to compare and determine whether a breathalyzer test is present or not;
The face recognition module 20 is a CNN (Convolutional neural network) using an AI algorithm or a deep learning system that predicts the number of bounding boxes specified in a predefined form centered on the center of the grid and calculates reliability based on this. It uses one facial recognition measurement method selected from the YOLO (You Only Look Once)-based algorithm;
CNN using the above AI algorithm detects each image feature through a detection unit that detects the entire outline of the driver's face, a facial feature detection unit that detects features on the driver's face, and a facial asymmetry detection unit that detects facial asymmetry of the driver. By collecting and transmitting the information to the control module 60, the control module 60 can accurately compare and determine the transmitted facial image information of the driver with the driver and facial images stored in the database server 70. There is;
The facial recognition module 20 detects the driver's movements from the point where the driver starts boarding the dispatched vehicle and captures the driver's facial image;
The camera module 30 continues to record video of the driver from the time the facial recognition module 20 operates until the breathalyzer test is completed by the breathalyzer module 40;
A remote control module 50 is connected to the control module 60, and the remote control module 50 allows remote control using the administrator's terminal when a malfunction occurs in the tablet 10. Zero drunk driving solution based on AI facial recognition.
KR1020220083525A 2022-07-07 2022-07-07 DUI zero solution KR102625814B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220083525A KR102625814B1 (en) 2022-07-07 2022-07-07 DUI zero solution

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220083525A KR102625814B1 (en) 2022-07-07 2022-07-07 DUI zero solution

Publications (1)

Publication Number Publication Date
KR102625814B1 true KR102625814B1 (en) 2024-01-17

Family

ID=89713350

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220083525A KR102625814B1 (en) 2022-07-07 2022-07-07 DUI zero solution

Country Status (1)

Country Link
KR (1) KR102625814B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120012666A (en) * 2010-08-02 2012-02-10 홍상대 System and method for protecting drunk driving using face recognition technology
KR102085489B1 (en) 2019-09-09 2020-03-05 주식회사 에스비씨원 Hybrid breath alcohol analyzing management system
KR20210146490A (en) * 2020-05-26 2021-12-06 정상호 Unmanned robot for drinking measurement and control method thereof
KR20220034967A (en) * 2020-09-11 2022-03-21 주식회사 비즈모델라인 Method for Measuring Drinking Based on Non-Face-to-Face
KR20220083944A (en) * 2020-12-11 2022-06-21 이유진 The system of the starting control and face recognition to prevent drunk driving

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120012666A (en) * 2010-08-02 2012-02-10 홍상대 System and method for protecting drunk driving using face recognition technology
KR102085489B1 (en) 2019-09-09 2020-03-05 주식회사 에스비씨원 Hybrid breath alcohol analyzing management system
KR20210146490A (en) * 2020-05-26 2021-12-06 정상호 Unmanned robot for drinking measurement and control method thereof
KR20220034967A (en) * 2020-09-11 2022-03-21 주식회사 비즈모델라인 Method for Measuring Drinking Based on Non-Face-to-Face
KR20220083944A (en) * 2020-12-11 2022-06-21 이유진 The system of the starting control and face recognition to prevent drunk driving

Similar Documents

Publication Publication Date Title
AU2017279806B2 (en) Method and system for abnormality detection
CN109558795A (en) A kind of school bus passenger safety intelligent monitor system
CN109448155A (en) Equipment-patrolling method based on AR technology
CN115311834A (en) Security device inspection
JP2008170395A (en) Alcohol inspection device, alcohol inspection method and program
CN110549982B (en) Student school bus safety monitoring method and system
KR102354510B1 (en) Kiosk system for managing attendance of employee based on drinking measurement and method thereof
CN112289031A (en) Method and device for detecting and alarming abnormal conditions in bus driving process
CN107856536A (en) A kind of fatigue driving monitoring device and monitoring method
CN108846922A (en) Cloud monitoring method, Cloud Server and computer readable storage medium
CN107915098A (en) A kind of elevator operational system based on internet platform
CN208849903U (en) Examination intelligent monitor system and device
CN115511329A (en) Electric power operation compliance monitoring system and method
CN115082861A (en) Personnel identity and safety violation identification method and system
CN114882589A (en) Granary safety operation early warning system and method based on intelligent video analysis
CN205621100U (en) A vehicle monitoring system that is used for driving license examination and trains
KR102625814B1 (en) DUI zero solution
CN116416665A (en) Face recognition method and device based on security system and storage medium
CN111062366A (en) Method and system for detecting postures of personnel in control room
CN114822143B (en) Military training intelligent examination management system and method
US11826146B2 (en) Psychomotor vigilance testing for persons tasked with monitoring autonomous vehicles
CN114897499A (en) Method and device for judging working state of staff in scenic spot
CN109696874A (en) State recognition detection device and remote scheduling system before high-risk on-site personnel hilllock
CN113340390A (en) Anti-cheating weighing system and method
CN110135744B (en) Construction worker safety behavior habit evaluation method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant