KR102045320B1 - Method and System for Preventing Driver Drowsiness Through Interaction with Driver by Based on Driver Status Monitoring - Google Patents

Method and System for Preventing Driver Drowsiness Through Interaction with Driver by Based on Driver Status Monitoring Download PDF

Info

Publication number
KR102045320B1
KR102045320B1 KR1020180043899A KR20180043899A KR102045320B1 KR 102045320 B1 KR102045320 B1 KR 102045320B1 KR 1020180043899 A KR1020180043899 A KR 1020180043899A KR 20180043899 A KR20180043899 A KR 20180043899A KR 102045320 B1 KR102045320 B1 KR 102045320B1
Authority
KR
South Korea
Prior art keywords
driver
drowsiness
vehicle
data
stimulus
Prior art date
Application number
KR1020180043899A
Other languages
Korean (ko)
Other versions
KR20190120561A (en
Inventor
심상현
차민식
Original Assignee
(주) 이즈테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 이즈테크놀로지 filed Critical (주) 이즈테크놀로지
Priority to KR1020180043899A priority Critical patent/KR102045320B1/en
Publication of KR20190120561A publication Critical patent/KR20190120561A/en
Application granted granted Critical
Publication of KR102045320B1 publication Critical patent/KR102045320B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/089Driver voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 방법 및 시스템에 관한 것으로, 본 발명에 따른 방법은, 차량을 운행 중인 운전자를 모니터링한 운전자 모니터링 데이터를 획득하는 단계, 운전자 모니터링 데이터를 미리 정해진 운전자 졸음 예측 모델에 적용하여 운전자 졸음 상태를 예측하는 단계, 그리고 운전자 졸음 상태 예측 결과에 기초하여 운전자와 상호 작용을 위한 자극을 출력하는 단계를 포함한다. 자극에 대한 운전자의 반응을 확인하는 단계, 그리고 운전자의 반응이 부적합하면 미리 정해진 경보를 출력하는 단계를 더 포함할 수 있다. 본 발명에 의하면 운전자 졸음이 예측되면 운전자와 상호 작용을 통해 졸음 운전을 효과적으로 예방할 수 있다.The present invention relates to a method and system for preventing driver drowsiness through interaction with a driver based on driver condition monitoring. The method according to the present invention includes obtaining driver monitoring data for monitoring a driver driving a vehicle, and obtaining driver monitoring data. Applying to a predetermined driver drowsiness prediction model to predict a driver drowsiness state, and outputting a stimulus for interacting with the driver based on the driver drowsiness state prediction result. The method may further include checking a driver's response to the stimulus, and outputting a predetermined alarm if the driver's response is inappropriate. According to the present invention, if the driver's drowsiness is predicted, it is possible to effectively prevent drowsy driving through interaction with the driver.

Description

운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 방법 및 시스템{Method and System for Preventing Driver Drowsiness Through Interaction with Driver by Based on Driver Status Monitoring}Method and System for Preventing Driver Drowsiness Through Interaction with Driver by Based on Driver Status Monitoring}

본 발명은 운전자 졸음 예방 방법 및 시스템에 관한 것으로, 보다 자세하게는 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for preventing driver drowsiness, and more particularly, to a method and system for preventing driver drowsiness through interaction with a driver based on driver condition monitoring.

최근 들어 운전자를 촬영한 영상을 분석하여 운전자 졸음 상태를 인식하고, 운전자에게 경보를 출력하는 운전자 졸음 방지 기술이 상용화되고 있다.Recently, driver drowsiness prevention technology that analyzes the image of the driver to recognize the driver's drowsiness and outputs an alarm to the driver has been commercialized.

한국등록특허 제1,078,466호는 대상자의 얼굴을 촬영하여 눈 깜박임 패턴 등을 분석하여 각성 상태(졸음 정도)를 판정하는 기술이 개시되어 있고, 이를 기초로 대상자가 운전자로 졸음 상태인 경우 큰 소리를 출력시켜 경보하는 기술이 개시되어 있다.Korean Patent No. 1,078,466 discloses a technology for determining awakening state by analyzing eye blink patterns by photographing a subject's face, and outputting a loud sound when the subject is drowsy with a driver based on this. A technique for alerting the user is disclosed.

그리고 한국공개특허 제2016-0104245호는 운전자가 졸음 상태인 경우 차량을 제어하여 차창을 열거나, 깜박이를 켜거나, 차량 오디오에서 큰 소리를 출력하거나 또는 핸들 또는 운전석에 진동을 일으켜서 경보하는 기술이 개시되었다.In addition, Korean Patent Application Publication No. 2016-0104245 discloses a technology for controlling a vehicle when the driver is drowsy to open a car window, turn on a blinking light, output a loud sound from the vehicle audio, or generate a vibration in the steering wheel or the driver's seat. Started.

그러나 이와 같이 운전자에게 일방적인 자극을 인가하는 종래 방식만으로는 운전자 졸음 예방을 하는데 효율적이지 않은 경우가 있었다.However, the conventional method of applying a unilateral stimulus to the driver has not been effective in preventing driver drowsiness.

한국등록특허 제1,078,466호(등록일: 2011.10.25)Korea Patent Registration No. 1,078,466 (Registration Date: 2011.10.25) 한국공개특허 제2016-0104245호(공개일: 2016.09.05)Korean Patent Publication No. 2016-0104245 (Published: 2016.09.05)

따라서 본 발명이 해결하고자 하는 기술적 과제는 운전자 졸음이 예측되면 운전자와 상호 작용을 통해 졸음 운전을 예방할 수 있는 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 방법 및 시스템을 제공하는 것이다.Therefore, the technical problem to be solved by the present invention is to provide a driver drowsiness prevention method and system through interaction with the driver condition monitoring based on the driver condition can prevent drowsy driving through interaction with the driver when the driver drowsiness is predicted.

상기한 기술적 과제를 해결하기 위한 본 발명에 따른 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 방법은, 차량을 운행 중인 운전자를 모니터링한 운전자 모니터링 데이터를 획득하는 단계, 상기 운전자 모니터링 데이터를 미리 정해진 운전자 졸음 예측 모델에 적용하여 운전자 졸음 상태를 예측하는 단계, 그리고 상기 운전자 졸음 상태 예측 결과에 기초하여 상기 운전자와 상호 작용을 위한 자극을 출력하는 단계를 포함한다.
상기 운전자 모니터링 데이터를 분석하여 운전자가 졸음 상태에서 취하는 동작에 따라 각성 레벨이 높아지는 정도를 학습하고, 운전자 졸음 상태에서 가장 각성 레벨이 높아지는 동작을 운전자 졸음 예방 동작으로 선택하며, 상기 선택된 운전자 졸음 예방 동작을 유도하는 자극을 상기 운전자와 상호 작용을 위한 자극으로 출력한다.
According to an aspect of the present invention, a driver drowsiness prevention method through interaction with a driver condition monitoring-based driver according to the present invention may include obtaining driver monitoring data for monitoring a driver driving a vehicle, and previewing the driver monitoring data in advance. Predicting a driver drowsiness state by applying to a predetermined driver drowsiness prediction model, and outputting a stimulus for interacting with the driver based on a result of the driver drowsiness state prediction.
Analyze the driver monitoring data to learn the degree to which the arousal level is increased according to the action taken by the driver in the drowsiness state, select an operation of increasing the arousal level in the drowsiness state as the driver's drowsiness prevention operation, and the selected driver's drowsiness prevention operation Outputs a stimulus for inducing a stimulus for interacting with the driver.

상기 방법은, 상기 자극에 대한 운전자의 반응을 확인하는 단계, 그리고 상기 운전자의 반응이 부적합하면 미리 정해진 경보를 출력하는 단계를 더 포함할 수 있다.The method may further include identifying a driver's response to the stimulus and outputting a predetermined alert if the driver's response is inappropriate.

상기한 기술적 과제를 해결하기 위한 본 발명에 따른 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 시스템은, 차량을 운행 중인 운전자를 모니터링한 운전자 모니터링 데이터를 획득하는 차량 단말, 그리고 상기 운전자 모니터링 데이터를 미리 정해진 운전자 졸음 예측 모델에 적용하여 운전자 졸음 상태를 예측하고, 상기 운전자 졸음 상태 예측 결과에 기초하여 상기 운전자와 상호 작용을 위한 자극을 출력하도록 상기 차량 단말에 요청하는 서비스 서버를 포함한다.
상기 서비스 서버는, 상기 운전자 모니터링 데이터를 분석하여 운전자가 졸음 상태에서 취하는 동작에 따라 각성 레벨이 높아지는 정도를 학습하고, 운전자 졸음 상태에서 가장 각성 레벨이 높아지는 동작을 운전자 졸음 예방 동작으로 선택하며, 상기 선택된 운전자 졸음 예방 동작을 유도하는 자극을 상기 운전자와 상호 작용을 위한 자극으로 상기 차량 단말을 통해 출력시킨다.
Driver drowsiness prevention system through interaction with the driver condition monitoring-based driver according to the present invention for solving the above technical problem, the vehicle terminal for obtaining driver monitoring data for monitoring the driver driving the vehicle, and the driver monitoring data Is applied to a predetermined driver drowsiness prediction model to predict a driver drowsiness state, and a service server for requesting the vehicle terminal to output a stimulus for interacting with the driver based on the driver drowsiness state prediction result.
The service server analyzes the driver monitoring data to learn the degree to which the arousal level increases according to the driver's drowsy state, and selects an operation of raising the most arousal level in the drowsy state as the driver's drowsiness prevention operation. A stimulus for inducing a selected driver drowsiness prevention operation is output through the vehicle terminal as a stimulus for interacting with the driver.

상기 차량 단말은, 상기 자극에 대한 운전자의 반응을 확인하고, 상기 운전자의 반응이 부적합하면 미리 정해진 경보를 출력할 수 있다.The vehicle terminal may identify a driver's response to the stimulus, and output a predetermined alarm if the driver's response is inappropriate.

상기 운전자 졸음 예측 모델은, 운전자 모니터링 데이터, 차량 운행 데이터 및 차량 운행 환경 데이터를 맵핑한 다수의 데이터를 포함하는 빅데이터를 이용하여 학습될 수 있다.The driver drowsiness prediction model may be trained using big data including a plurality of data obtained by mapping driver monitoring data, vehicle driving data, and vehicle driving environment data.

상기 운전자와 상호 작용을 위한 자극은 시각적인 방법 및 청각적인 방법 중 적어도 하나를 통해 출력될 수 있다.The stimulus for interacting with the driver may be output through at least one of a visual method and an auditory method.

상기 운전자의 반응은 영상 센서 및 음성 센서 중 적어도 하나를 통해 획득될 수 있다.The driver's response may be obtained through at least one of an image sensor and a voice sensor.

본 발명에 의하면 운전자 졸음이 예측되면 운전자와 상호 작용을 통해 졸음 운전을 효과적으로 예방할 수 있다.According to the present invention, if the driver's drowsiness is predicted, it is possible to effectively prevent drowsy driving through interaction with the driver.

도 1은 본 발명의 일 실시예에 따른 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 차량 단말의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 시스템의 동작을 설명하기 위한 흐름도이다.
1 is a block diagram of a system for preventing driver drowsiness through interaction with a driver condition monitoring-based driver according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a vehicle terminal according to an embodiment of the present invention.
3 is a flowchart illustrating an operation of a driver drowsiness prevention system through interaction with a driver condition monitoring-based driver according to an embodiment of the present invention.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention.

도 1은 본 발명의 일 실시예에 따른 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 시스템의 구성도이고, 도 2는 본 발명의 일 실시예에 따른 차량 단말의 구성을 나타낸 블록도이다.1 is a block diagram of a driver drowsiness prevention system through interaction with a driver condition monitoring-based driver according to an embodiment of the present invention, Figure 2 is a block diagram showing the configuration of a vehicle terminal according to an embodiment of the present invention .

도 1 및 도 2를 참고하면, 본 발명에 따른 운전자 졸음 예방 시스템은 다수의 차량 단말(100a, 100b, 100c, …, 100n-1, 100n) 및 서비스 서버(200)를 포함할 수 있다.1 and 2, the driver drowsiness prevention system according to the present invention may include a plurality of vehicle terminals 100a, 100b, 100c,..., 100n-1, 100n and a service server 200.

다수의 차량 단말(100a, 100b, 100c, …, 100n-1, 100n) 및 서비스 서버(200)는 통신망(10)을 통해 각종 정보 및 데이터를 교환할 수 있다.The plurality of vehicle terminals 100a, 100b, 100c,..., 100n-1, 100n and the service server 200 may exchange various information and data through the communication network 10.

통신망(10)은 구내 정보 통신망(local area network, LAN), 도시권 통신망(metropolitan area network, MAN), 광역 통신망(wide area network, WAN), 인터넷, 2G, 3G, 4G, LTE 이동 통신망, 블루투스, 와이파이(Wi-Fi), 와이브로(Wibro), 위성 통신망, LoRa, Sigfox 등의 LPWA(Low Power Wide Area) 네트워크 등을 포함할 수 있으며, 통신 방식도 유선, 무선을 가리지 않으며 어떠한 통신 방식이라도 상관없다.The communication network 10 may include a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), the Internet, 2G, 3G, 4G, LTE mobile communication network, Bluetooth, It may include Wi-Fi, Wibro, satellite communication networks, and Low Power Wide Area (LPWA) networks such as LoRa and Sigfox, and the communication method may be wired or wireless and may be any communication method. .

차량 단말(100a, 100b, 100c, …, 100n-1, 100n)은 영상 센서부(110), 음성 센서부(120), 운행 데이터 수집부(130), 제어부(140), 저장부(150), 자극 출력부(160) 및 통신부(170)를 포함할 수 있다.The vehicle terminals 100a, 100b, 100c,..., 100n-1, 100n include the image sensor 110, the voice sensor 120, the driving data collector 130, the controller 140, and the storage 150. It may include a stimulus output unit 160 and the communication unit 170.

차량 단말(100a, 100b, 100c, …, 100n-1, 100n)은 각각에 대응하는 차량(도시하지 않음)에 위치하여, 해당 차량을 운전하는 운전자의 상태를 모니터링한 운전자 모니터링 데이터를 획득할 수 있다.The vehicle terminals 100a, 100b, 100c,..., 100n-1, 100n may be located in a vehicle (not shown) corresponding to each of the vehicle terminals to acquire driver monitoring data that monitors a state of a driver driving the vehicle. have.

운전자 모니터링 데이터는 운전자 모습을 촬영한 운전자 영상 데이터를 포함하고, 실시예에 따라 운전자의 음성을 전기적 신호로 획득한 운전자 음성 데이터를 포함할 수 있다. 여기서 운전자 영상 데이터는 운전자의 얼굴을 포함하며, 운전자의 상반신 등도 포함할 수 있다.The driver monitoring data may include driver image data photographing a driver's figure, and in some embodiments, the driver monitoring data may include driver voice data obtained by obtaining a driver's voice as an electrical signal. The driver's image data may include a driver's face and may also include an upper body of the driver.

영상 센서부(110)는 카메라를 통해 구현할 수 있으며, 운전자 모습을 촬영한 운전자 영상 데이터를 획득할 수 있다.The image sensor 110 may be implemented through a camera, and may acquire driver image data photographing the driver's image.

음성 센서부(120)는 마이크로폰을 통해 구현할 수 있으며, 운전자의 음성을 전기적인 신호로 변환하여 운전자 음성 데이터를 획득할 수 있다. The voice sensor unit 120 may be implemented through a microphone, and may obtain driver voice data by converting the driver voice into an electric signal.

차량 단말(100a, 100b, 100c, …, 100n-1, 100n)은 차량 운행 데이터 및/또는 차량 운행 환경 데이터를 획득할 수 있다.The vehicle terminals 100a, 100b, 100c,..., 100n-1 and 100n may acquire vehicle driving data and / or vehicle driving environment data.

차량 운행 데이터는 차량의 속도, 조향각 제어, 브레이크 조작, 기어 조작 등 차량 운행 중에 수집되는 데이터를 포함할 수 있다. The vehicle driving data may include data collected during vehicle driving, such as vehicle speed, steering angle control, brake operation, and gear operation.

운행 데이터 수집부(130)는 차량 운행 데이터를 차량의 OBD(On-Board Diagnostics) 인터페이스를 통해 획득할 수 있다. 물론 차량 단말(100a, 100b, 100c, …, 100n-1, 100n)에 GNSS 수신 모듈을 구비된 경우, 운행 데이터 수집부(130)는 GNSS 신호를 처리하여 구해지는 차량의 위치 및 속도를 수집할 수도 있다.The driving data collection unit 130 may obtain vehicle driving data through an on-board diagnostics (OBD) interface of the vehicle. Of course, when the vehicle terminals 100a, 100b, 100c, ..., 100n-1, 100n are provided with the GNSS receiving module, the driving data collecting unit 130 may collect the position and speed of the vehicle obtained by processing the GNSS signal. It may be.

차량 운행 환경 데이터는 차량이 운행하는 환경에 관한 데이터로, 예컨대 차량 실내 온도, 차량 실외 온도, 차량 운행 지역의 날씨, 차량 운행 도로의 도로 기하 정보 등을 포함할 수 있다. 또한 차량 운행 환경 데이터는 해당 차량이 운행 중인 도로의 통행량, 도로 통행 속도 등 도로 트래픽 정보도 포함할 수 있다.The vehicle driving environment data is data about an environment in which the vehicle is driven, and may include, for example, a vehicle indoor temperature, a vehicle outdoor temperature, weather in a vehicle driving region, road geometric information of a vehicle driving road, and the like. In addition, the vehicle driving environment data may include road traffic information such as a traffic volume and a road traffic speed of the road on which the vehicle operates.

운행 데이터 수집부(130)는 차량의 실내외에 장착된 온도 센서를 통해 차량 실내 온도, 차량 실외 온도를 수집할 수 있다. 그리고 운행 데이터 수집부(130)는 차량에 장착된 레인 센서, 조도 센서 등을 통해 운행 중인 차량 주변의 강우량이나 조도 등을 수집할 수도 있다.The driving data collection unit 130 may collect the vehicle indoor temperature and the vehicle outdoor temperature through a temperature sensor mounted inside or outside the vehicle. In addition, the driving data collector 130 may collect rainfall or illuminance around the vehicle in operation through a rain sensor or an illumination sensor mounted on the vehicle.

저장부(150)는 차량 단말(100a, 100b, 100c, …, 100n-1, 100n)의 동작과 관련된 각종 정보, 데이터 및 프로그램을 저장할 수 있다. 그리고 저장부(150)는 운전자 모니터링 데이터, 차량 운행 데이터, 차량에서 수집된 차량 운행 환경 데이터 등을 영구 저장 또는 임시 저장할 수 있다.The storage unit 150 may store various information, data, and programs related to the operations of the vehicle terminals 100a, 100b, 100c,..., 100n-1, 100n. The storage unit 150 may permanently store or temporarily store driver monitoring data, vehicle driving data, and vehicle driving environment data collected from the vehicle.

차량 운행 지역의 날씨는 기온, 강우량, 강설량, 풍속, 습도, 일사량, 일조량 등을 포함할 수 있으며, 기상청이나 민간 기상 사업자 등이 운영하는 기상 서버(도시하지 않음)에서 제공하는 날씨 데이터로부터 획득될 수도 있다.The weather in the vehicular region may include temperature, rainfall, snowfall, wind speed, humidity, insolation and sunshine, and can be obtained from weather data provided by a weather server (not shown) operated by the Meteorological Administration or a private meteorological service provider. It may be.

도로 기하 정보는 도로 종단 기울기, 도로 횡단 기울기 및 도로 곡률 등을 포함할 수 있다. 도로 기하 정보는 서비스 서버(200)에 미리 저장되어 있을 수 있다.Road geometry information may include road end slope, road crossing slope, road curvature, and the like. Road geometric information may be stored in advance in the service server 200.

도로 트래픽 정보는 교통 정보 제공 서버(도시하지 않음)로부터 제공받을 수 있다.Road traffic information may be provided from a traffic information providing server (not shown).

차량 단말(100a, 100b, 100c, …, 100n-1, 100n)은 서비스 서버(200)로부터 운전자 졸음 예방을 위한 상호 작용이 요청되면, 운전자와 상호 작용을 위한 자극을 출력하고, 그에 따른 운전자의 반응을 확인할 수 있다.When the vehicle terminal 100a, 100b, 100c, ..., 100n-1, 100n is requested to interact with the driver for preventing driver drowsiness from the service server 200, the vehicle terminals 100a, 100b, 100c, ..., 100n-1, 100n output a stimulus for interacting with the driver. The reaction can be confirmed.

자극 출력부(160)는 운전자와 상호 작용을 위한 자극을 청각적인 방법이나 시각적인 방법으로 출력할 수 있다. 예컨대 자극 출력부(160)는 운전자가 특정한 동작을 하거나 답변을 하도록 유도하는 메시지를 음성으로 출력할 수 있다. 물론 청각 장애인을 위하여 텍스트나 그림 등의 시각적인 방법으로 자극을 출력할 수도 있다. 이를 위해 자극 출력부(160)는 스피커나 디스플레이 모듈으로 구현될 수 있다.The stimulus output unit 160 may output a stimulus for interacting with the driver in an auditory or visual manner. For example, the stimulus output unit 160 may output a voice message inducing the driver to perform a specific action or answer. Of course, the stimulus may be output in a visual way such as text or picture for the hearing impaired. To this end, the stimulus output unit 160 may be implemented as a speaker or a display module.

차량 단말(100a, 100b, 100c, …, 100n-1, 100n)은 운전자의 반응이 부적합하면 미리 정해진 경보를 출력할 수 있다. 경보는 시각, 청각, 촉각 등의 다양한 방법에 의해 이루어질 수 있다.The vehicle terminals 100a, 100b, 100c,..., 100n-1, 100n may output a predetermined alarm when the driver's response is inappropriate. The alert may be made by various methods such as visual, auditory, tactile and the like.

제어부(140)는 차량 단말(100a, 100b, 100c, …, 100n-1, 100n)의 전체적인 동작을 제어한다. 제어부(140)는 서비스 서버(200)로부터 운전자와 상호 작용을 위한 자극 출력이 요청되면, 자극 출력부(160)를 제어하여 운전자에게 상호 작용을 위한 자극이 출력되게 할 수 있다. 그리고 제어부(140)는 영상 센서부(110)나 음성 센서부(120)를 통해 획득되는 운전자의 상호 작용에 대한 반응을 확인한다.The controller 140 controls the overall operation of the vehicle terminals 100a, 100b, 100c,..., 100n-1, 100n. When the stimulus output for interaction with the driver is requested from the service server 200, the controller 140 may control the stimulus output unit 160 to output the stimulus for interaction to the driver. In addition, the controller 140 checks a response to the driver's interaction obtained through the image sensor 110 or the voice sensor 120.

졸음 예방을 위한 운전자와의 상호 작용 방법은 다양한 방법으로 이루어질 수 있다. 예를 들어, 제어부(140)는 '고개를 좌우로 흔드세요', '입을 열었다 닫아 주세요' 등과 같이 운전자가 특정 동작을 하도록 요청하는 메시지를 청각적인 자극 방법이나 시각적인 자극 방법으로 자극 출력부(160)를 통해 출력할 수 있다. 그리고 제어부(140)는 운전자가 미리 정해진 시간 동안 해당 동작을 하는지 영상 센서부(110)를 통해 확인할 수 있다. 미리 정해진 시간 동안 운전자가 해당 동작을 하면, 제어부(140)는 운전자 반응이 적합한 것으로 판단할 수 있다. 반면에 정해진 시간 내에 운전자가 해당 동작을 하지 않거나 다른 동작을 하면, 제어부(140)는 운전자 반응이 부적합한 것으로 판단할 수 있다.How to interact with the driver to prevent drowsiness can be made in a variety of ways. For example, the controller 140 may transmit a message requesting the driver to perform a specific motion, such as 'shake the head from side to side', 'open and close the mouth', or the like. 160). The controller 140 may check whether the driver performs a corresponding operation for a predetermined time through the image sensor 110. When the driver performs the corresponding operation for a predetermined time, the controller 140 may determine that the driver response is appropriate. On the other hand, if the driver does not perform the operation or other operation within a predetermined time, the controller 140 may determine that the driver response is inappropriate.

한편 제어부(140)는 '이름을 말해보세요', 'XXX를 말해 보세요' 등과 같이 운전자가 특정 문구를 말하도록 요청하는 메시지를 청각적인 자극 방법이나 시각적인 자극 방법으로 자극 출력부(160)를 통해 출력할 수 있다. 그리고 제어부(140)는 운전자가 미리 정해진 시간 동안 해당 문구를 말하는지 음성 센서부(120)를 통해 확인할 수 있다. 미리 정해진 시간 동안 운전자가 미리 정해진 문구를 말하면, 제어부(140)는 운전자 반응이 적합한 것으로 판단할 수 있다. 반면에 정해진 시간 내에 운전자가 해당 문구를 말하지 않거나 다른 문구를 말하면, 제어부(140)는 운전자 반응이 부적합한 것으로 판단할 수 있다.Meanwhile, the controller 140 sends a message requesting the driver to say a specific phrase, such as 'tell me a name' or 'tell me XXX' through the stimulus output unit 160 as an audible stimulus method or a visual stimulus method. You can print In addition, the controller 140 may check whether the driver speaks the corresponding phrase for a predetermined time through the voice sensor unit 120. When the driver speaks a predetermined phrase for a predetermined time, the controller 140 may determine that the driver response is appropriate. On the other hand, if the driver does not speak the phrase or the other phrase within a predetermined time, the controller 140 may determine that the driver's response is inappropriate.

한편 제어부(140)는 현재 운전자의 상황에 따른 답변을 요청하는 질문을 청각적인 자극 방법이나 시각적인 자극 방법으로 자극 출력부(160)를 통해 출력할 수 있다. 예컨대 '어디 가시나요?', '지금 낮 인가요 밤 인가요?' 등과 같이 상황에 따라 답변이 달라질 수 있는 질문을 운전자에게 할 수 있다. 이러한 질문은 제어부(140)에 미리 준비되어 있거나, 또는 서비스 서버(200)로부터 차량 단말(100a)에 제공될 수도 있다. 그리고 제어부(140)는 운전자가 미리 정해진 시간 동안 질문에 대해서 적절한 답변(예컨대 '집에 가고 있어(내비게이션 목적지로 집이 설정되어 있거나, 운전자 운행 패턴 분석 결과 목적지가 집으로 판단되면 적절한 답변으로 판단됨)', '지금 낮이야(현재 낮인 경우 적절한 답변으로 판단됨)')을 하면, 운전자 반응이 적합한 것으로 판단할 수 있다. 물론 운전자 답변을 차량 단말(100a)로부터 전달받아, 서비스 서버(200)에서 반응이 적합한지 판단하고 그 결과를 차량 단말(100a)로 피드백하도록 할 수 있다.The controller 140 may output a question requesting an answer according to the current driver's situation through the stimulus output unit 160 using an auditory stimulus method or a visual stimulus method. For example, "Where are you going?", "Is it day or night now?" For example, the driver may ask questions that may vary depending on the situation. Such a question may be prepared in advance in the controller 140 or may be provided to the vehicle terminal 100a from the service server 200. In addition, the controller 140 determines that the driver has a proper answer to the question for a predetermined time (for example, 'going home (home is set as a navigation destination) or if the destination is determined to be home as a result of driver driving pattern analysis). ) "," It's daytime (if it's daytime, it's a good answer) ", you can determine that the driver's response is appropriate. Of course, the driver's answer may be received from the vehicle terminal 100a, and the service server 200 may determine whether the response is appropriate and feed back the result to the vehicle terminal 100a.

제어부(140)는 운전자의 상호 작용에 대한 반응이 부적합하면 자극 출력부(160)를 통해 경보를 출력시킬 수 있다. 물론 제어부(140)는 차량에 구비된 스피커, 경음기, 경고등을 통해 경보를 출력시킬 수도 있다.The controller 140 may output an alarm through the stimulus output unit 160 if the reaction to the driver's interaction is inappropriate. Of course, the controller 140 may output an alarm through a speaker, a horn, and a warning light provided in the vehicle.

제어부(140)는 차량에 구비된 전자제어장치(ECU)와 연동하여 차량의 차창이 열리거나, 차량에 구비된 엔터테인먼트 장치에서 특정한 콘텐츠를 재생시키게 할 수도 있다.The controller 140 may be linked with an electronic control unit (ECU) provided in the vehicle to open a vehicle window or play a specific content in the entertainment apparatus provided in the vehicle.

통신부(170)는 차량 단말(100a, 100b, 100c, …, 100n-1, 100n)이 통신망(10)을 통해 서비스 서버(200)와 각종 정보 및 데이터를 교환할 수 있도록 통신 인터페이스를 제공한다.The communication unit 170 provides a communication interface for allowing the vehicle terminals 100a, 100b, 100c,..., 100n-1, 100n to exchange various information and data with the service server 200 through the communication network 10.

서비스 서버(200)는 다수의 차량 단말(100a, 100b, 100c, …, 100n-1, 100n)로부터 수집되는 운전자 모니터링 데이터 및 차량 운행 데이터를 맵핑한 다수의 데이터를 포함하는 빅데이터를 이용하여 운전자 졸음 예측 모델을 학습할 수 있다. 실시예에 따라서 운전자 모니터링 데이터 및 차량 운행 데이터 뿐만 아니라 차량 운행 환경 데이터까지 맵핑한 다수의 데이터를 포함하는 빅데이터를 이용하여 보다 정교하게 운전자 졸음 예측 모델을 학습할 수도 있다.The service server 200 uses a big data including driver monitoring data collected from a plurality of vehicle terminals 100a, 100b, 100c,..., 100n-1, 100n and a plurality of data mapped to vehicle driving data. Learn a drowsiness prediction model. According to an exemplary embodiment, the driver drowsiness prediction model may be more precisely trained using big data including a plurality of data mapped not only to the driver monitoring data and the vehicle driving data but also to the vehicle driving environment data.

운전자 얼굴 영상을 분석하여 운전자의 졸음 정도를 판정하는 다양한 방법이 이미 알려져 있다. 그리고 운전자의 차량 운행 속도 제어 동작나 조향각 제어 동작 등 차량 운행 데이터를 분석하여 운전자의 졸음 정도를 판정하는 것과 관련해서도 이미 다양한 방법이 알려져 있다. 아울러 차량 운행 중인 도로 기하 구조, 기상 상태, 도로 트래픽 상황 등에 따라 운전자의 졸음 발생 가능성을 예측하는 방법에 대해서도 이미 다양한 방법이 알려져 있다. 따라서 구체적인 운전자 졸음 예측 모델 학습 방법에 대해서는 설명을 생략한다.Various methods of analyzing the driver's face image to determine the driver's drowsiness are already known. In addition, various methods are already known in connection with determining vehicle drowsiness by analyzing vehicle driving data such as a vehicle driving speed control operation or a steering angle control operation. In addition, various methods are already known for predicting a driver's drowsiness according to road geometry, weather conditions, and road traffic conditions. Therefore, a detailed description of the method for learning the driver drowsiness prediction model is omitted.

서비스 서버(200)는 차량 단말(100a, 100b, 100c, …, 100n-1, 100n)로부터 현재 차량을 운행 중인 운전자 상태를 모니터링한 운전자 모니터링 데이터를 제공받으면, 이를 미리 정해진 운전자 졸음 예측 모델에 적용하여 운전자 졸음 상태를 예측할 수 있다.When the service server 200 receives driver monitoring data for monitoring a driver's current state of a vehicle from the vehicle terminals 100a, 100b, 100c,..., 100n-1, 100n, the service server 200 applies the driver monitoring data to a predetermined driver drowsiness prediction model. The driver's drowsiness can be predicted.

여기서 운전자 졸음 상태 예측은 현재 운전자의 졸음 정도뿐만 아니라 시간이 경과함에 따라 운전자가 졸음 상태에 빠질 가능성 등을 예측하는 것도 포함된다.The driver's drowsy state prediction may include not only the current driver's drowsiness but also a prediction of a driver's drowsiness as time passes.

서비스 서버(200)는 특정 운전자에 대한 운전자 졸음 예측 결과에 기초하여 운전자와 상호 작용을 위한 자극을 출력하도록 차량 단말(100a, 100b, 100c, …, 100n-1, 100n)에 요청할 수 있다. 예컨대 차량 단말(100a)이 위치한 차량의 운전자의 졸음 정도가 미리 정해진 기준 이상이거나, 해당 차량에 대해 현재 획득되고 있는 차량 운행 데이터나 차량 운행 환경 데이터까지 반영했을 때 운전자가 졸음 상태에 빠질 가능성이 미리 정해진 기준 이상인 경우 등 졸음 운전 가능성이 미리 정해진 기준 이상인 것으로 운전자 졸음 예측 결과가 나오면, 서비스 서버(200)는 차량 단말(100a)에 운전자 졸음 예방을 위한 상호 작용을 요청할 수 있다. 여기서 해당 차량의 운행 환경 데이터는 차량 단말(100a)로부터 제공되는 차량 위치에 대응하는 날씨 데이터, 도로 기하 구조, 도로 트래픽 상황 등을 이용할 수 있다.The service server 200 may request the vehicle terminals 100a, 100b, 100c,..., 100n-1, 100n to output a stimulus for interacting with the driver based on the driver drowsiness prediction result for the specific driver. For example, when the degree of drowsiness of the driver of the vehicle in which the vehicle terminal 100a is located is greater than or equal to a predetermined criterion, or when the vehicle driving data or vehicle driving environment data currently acquired for the vehicle is reflected, the driver may be in a drowsy state in advance. If the driver drowsiness prediction result indicates that the drowsiness driving possibility is equal to or more than a predetermined criterion, for example, when it is greater than or equal to a predetermined criterion, the service server 200 may request an interaction for preventing driver drowsiness from the vehicle terminal 100a. Here, the driving environment data of the vehicle may use weather data, road geometry, road traffic conditions, etc. corresponding to the vehicle location provided from the vehicle terminal 100a.

한편 인공지능적인 요소를 보다 강화해서, 서비스 서버(200)는 운전자 모니터링 데이터를 기초로 해당 운전자가 졸음 방지를 위해 취하는 효과적인 방법에 대해서 학습할 수도 있다. 가령 서비스 서버(200)는 운전자 모니터링 데이터를 분석하여 운전자가 졸음 상태에서 취하는 특정 동작(예컨대 차창을 여는 동작, 특정 음악을 듣는 동작 등)에 따라 운전자가 졸음 상태에서 벗어나는 정도(각성 레벨이 높아지는 정도)를 학습하여, 가장 효과적으로 운전자 졸음 예방을 할 수 있는 동작을 선택할 수 있다. 서비스 서버(200)는 해당 운전자에 대해 학습된 효과적인 졸음 예방 동작을 유도하는 자극, 예컨대 'xx 음악을 들으시겠어요?', '차창을 잠시 열까요' 등을 선택하여 차량 단말(100a)을 통해 출력시킬 수 있다. 차량 단말(100a)은 해당 질문에 대해 운전자가 긍정적인 답변을 하면 그에 따라 차량에 구비된 엔터테인먼트 장치(도시하지 않음)를 통해 해당 음악을 재생시키거나, 차량의 차창이 열리도록 하는 것도 가능하다.Meanwhile, by reinforcing the artificial intelligence factor, the service server 200 may learn about an effective method that the driver takes to prevent drowsiness based on the driver monitoring data. For example, the service server 200 analyzes the driver monitoring data to determine the degree of the driver's drowsiness (awakening level is increased) according to a specific action (eg, opening a car window or listening to a specific music) that the driver takes in a drowsy state. ), You can choose the action that will most effectively prevent driver drowsiness. The service server 200 selects a stimulus for inducing an effective drowsiness prevention operation learned for the driver, for example, 'Do you want to listen to xx music?', 'Do you want to open the window for a while?' And output through the vehicle terminal 100a. You can. When the driver answers a positive question to the question, the vehicle terminal 100a may play the music through an entertainment device (not shown) provided in the vehicle, or may open the window of the vehicle.

도 3은 본 발명의 일 실시예에 따른 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 시스템의 동작을 설명하기 위한 흐름도이다.3 is a flowchart illustrating an operation of a driver drowsiness prevention system through interaction with a driver condition monitoring-based driver according to an embodiment of the present invention.

도 1 내지 도 3을 참고하면, 먼저 서비스 서버(200)는 다수의 차량 단말(100a, 100b, 100c, …, 100n-1, 100n)로부터 수집되는 운전자 모니터링 데이터 및 차량 운행 데이터를 맵핑한 다수의 데이터, 실시예에 따라서는 차량 운행 환경 데이터까지 맵핑하여 구축되는 빅데이터를 이용하여 운전자 졸음 예측 모델을 학습한다(S310).1 to 3, first, the service server 200 maps a plurality of driver monitoring data and vehicle driving data collected from a plurality of vehicle terminals 100a, 100b, 100c,..., 100n-1, 100n. According to an embodiment, the driver drowsiness prediction model is trained using big data constructed by mapping vehicle driving environment data (S310).

이후 차량 단말(100a)은 차량을 현재 운행 중인 운전자를 모니터링한 운전자 모니터링 데이터를 획득하여 서비스 서버(200)에 실시간으로 전송할 수 있다(S320). 단계(S320)에서 차량 단말(100a)은 차량 운행 데이터를 획득하여 운전자 모니터링 데이터와 함께 실시간으로 서비스 서버(200)에 전송할 수 있다. 또한 실시예에 따라서 차량에서 획득되는 차량 운행 환경 데이터 및 차량 위치 정보도 함께 서비스 서버(200)에 전송될 수 있다.Thereafter, the vehicle terminal 100a may acquire driver monitoring data for monitoring a driver currently driving the vehicle and transmit the driver monitoring data in real time to the service server 200 (S320). In operation S320, the vehicle terminal 100a may acquire vehicle driving data and transmit the vehicle driving data to the service server 200 in real time together with the driver monitoring data. According to an exemplary embodiment, vehicle driving environment data and vehicle location information obtained from a vehicle may also be transmitted to the service server 200.

다음으로 서비스 서버(200)는 차량 단말(100a)에서 실시간으로 전송되는 운전자 모니터링 데이터를 단계(S310)에서 학습된 운전자 졸음 예측 모델에 적용하여 운전자 졸음 상태를 예측할 수 있다(S330). 차량 단말(100a)로부터 차량 위치 정보가 전달된 경우, 서비스 서버(200)는 차량 위치 정보를 이용하여 차량이 운행하는 도로의 도로 기하 구조, 날씨 데이터, 도로 트래픽 정보 등도 운전자 졸음 예측 모델에 적용하여 운전자 졸음 상태를 예측할 수 있다.Next, the service server 200 may predict driver drowsiness state by applying driver monitoring data transmitted in real time from the vehicle terminal 100a to the driver drowsiness prediction model learned in step S310 (S330). When the vehicle location information is transmitted from the vehicle terminal 100a, the service server 200 also applies the road geometry, weather data, road traffic information, etc. of the road on which the vehicle operates using the vehicle location information to the driver drowsiness prediction model. Predict driver drowsiness.

다음으로 서비스 서버(200)는 운전자 졸음 상태 예측 결과, 운전자의 졸음 예방을 위한 상호 작용이 필요하다고 판단되면, 서비스 서버(200)는 차량 단말(100a)에 운전자의 졸음 예방을 위한 상호 작용을 요청할 수 있다(S340-Y).Next, when the service server 200 determines that the driver's drowsy state interaction is necessary as a result of the driver's drowsy state prediction, the service server 200 requests the vehicle terminal 100a to interact with the driver's drowsiness prevention. It may be (S340-Y).

그러면 차량 단말(100a)은 운전자와 상호 작용을 위한 자극을 출력할 수 있다(S350).Then, the vehicle terminal 100a may output a stimulus for interacting with the driver (S350).

이후 차량 단말(100a)은 단계(S350)에서 출력된 자극에 대한 운전자 반응이 부적합한지 확인할 수 있다(S360). 단계(S360)에서 자극에 대해 운전자의 반응이 없으면 부적합한 것으로 판단할 수 있다. 또한 운전자에게 특정한 동작을 취하도록 지시하는 자극을 출력하였는데, 운전자가 해당 동작이 아닌 다른 동작을 취하거나 동작이 없는 경우에도 부적합한 것으로 판단할 수 있다. 또한 운전자에게 답변을 유도하는 질문을 자극을 출력하였는데, 해당 질문에 부적절한 답변을 하는 경우에도 부적합한 것으로 판단할 수 있다. Thereafter, the vehicle terminal 100a may check whether the driver's response to the stimulus output in step S350 is inappropriate (S360). If there is no driver's response to the stimulus in step S360, it may be determined to be inappropriate. In addition, it outputs a stimulus for instructing the driver to take a specific action, it may be determined that the driver is inappropriate even if the driver takes a different action or there is no action. In addition, the stimulus is outputted to the driver to induce an answer to the driver, it can be determined that it is inappropriate even if the question is inappropriately answered.

운전자의 반응이 부적합하면(S360-Y), 차량 단말(100a)은 경보를 출력시킬 수 있다(S370).If the driver's response is inappropriate (S360-Y), the vehicle terminal 100a may output an alarm (S370).

한편 운전자의 반응이 적합하면(S360-Y), 운전자가 차량 운행을 마치거나 동작을 중단시킬 때까지 단계(S320) 내지 단계(S360)를 계속 반복할 수 있다.On the other hand, if the driver's response is appropriate (S360-Y), the steps S320 to S360 may be repeated until the driver finishes driving the vehicle or stops the operation.

본 발명의 실시예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체를 포함한다. 이 매체는 앞서 설명한 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기 매체, CD 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 자기-광 매체, 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Embodiments of the invention include a computer readable medium containing program instructions for performing various computer-implemented operations. This medium records a program for executing the method described above. The media may include, alone or in combination with the program instructions, data files, data structures, and the like. Examples of such media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CDs and DVDs, floppy disks and program commands such as magnetic-optical media, ROM, RAM, flash memory, and the like. Hardware devices configured to store and perform such operations. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the preferred embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

Claims (8)

차량을 운행 중인 운전자를 모니터링한 운전자 모니터링 데이터를 획득하는 단계,
상기 운전자 모니터링 데이터를 미리 정해진 운전자 졸음 예측 모델에 적용하여 운전자 졸음 상태를 예측하는 단계, 그리고
상기 운전자 졸음 상태 예측 결과에 기초하여 상기 운전자와 상호 작용을 위한 자극을 출력하는 단계
를 포함하고,
상기 운전자 모니터링 데이터를 분석하여 운전자가 졸음 상태에서 취하는 동작에 따라 각성 레벨이 높아지는 정도를 학습하고, 운전자 졸음 상태에서 가장 각성 레벨이 높아지는 동작을 운전자 졸음 예방 동작으로 선택하며, 상기 선택된 운전자 졸음 예방 동작을 유도하는 자극을 상기 운전자와 상호 작용을 위한 자극으로 출력하는 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 방법.
Obtaining driver monitoring data monitoring a driver driving a vehicle;
Predicting driver drowsiness by applying the driver monitoring data to a predetermined driver drowsiness prediction model, and
Outputting a stimulus for interacting with the driver based on the driver drowsiness prediction result;
Including,
Analyze the driver monitoring data to learn the degree to which the arousal level is increased according to the action taken by the driver in the drowsiness state, select an operation of increasing the arousal level in the drowsiness state as the driver's drowsiness prevention operation, and the selected driver's drowsiness prevention operation Driver condition monitoring based on the driver condition monitoring to output a stimulus for inducing the driver as a stimulus for interaction with the driver.
제 1 항에서,
상기 자극에 대한 운전자의 반응을 확인하는 단계, 그리고
상기 운전자의 반응이 부적합하면 미리 정해진 경보를 출력하는 단계
를 더 포함하는 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 방법.
In claim 1,
Confirming the driver's response to the stimulus, and
Outputting a predetermined alarm if the driver's response is inappropriate;
Driver drowsiness prevention method through interaction with the driver based on driver condition monitoring further comprising.
제 2 항에서,
상기 운전자 졸음 예측 모델은,
운전자 모니터링 데이터, 차량 운행 데이터 및 차량 운행 환경 데이터를 맵핑한 다수의 데이터를 포함하는 빅데이터를 이용하여 학습되는 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 방법.
In claim 2,
The driver drowsiness prediction model,
A driver drowsiness prevention method through interaction with a driver condition monitoring-based driver trained using big data including a plurality of data mapping driver monitoring data, vehicle driving data, and vehicle driving environment data.
제 3 항에서,
상기 운전자와 상호 작용을 위한 자극은 시각적인 방법 및 청각적인 방법 중 적어도 하나를 통해 출력되고,
상기 운전자의 반응은 영상 센서 및 음성 센서 중 적어도 하나를 통해 획득되는 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 방법.
In claim 3,
The stimulus for interacting with the driver is output through at least one of a visual method and an audio method,
And the driver's response is acquired through at least one of an image sensor and a voice sensor.
차량을 운행 중인 운전자를 모니터링한 운전자 모니터링 데이터를 획득하는 차량 단말, 그리고
상기 운전자 모니터링 데이터를 미리 정해진 운전자 졸음 예측 모델에 적용하여 운전자 졸음 상태를 예측하고, 상기 운전자 졸음 상태 예측 결과에 기초하여 상기 운전자와 상호 작용을 위한 자극을 출력하도록 상기 차량 단말에 요청하는 서비스 서버
를 포함하고,
상기 서비스 서버는,
상기 운전자 모니터링 데이터를 분석하여 운전자가 졸음 상태에서 취하는 동작에 따라 각성 레벨이 높아지는 정도를 학습하고, 운전자 졸음 상태에서 가장 각성 레벨이 높아지는 동작을 운전자 졸음 예방 동작으로 선택하며, 상기 선택된 운전자 졸음 예방 동작을 유도하는 자극을 상기 운전자와 상호 작용을 위한 자극으로 상기 차량 단말을 통해 출력시키는 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 시스템.
A vehicle terminal for obtaining driver monitoring data for monitoring a driver driving a vehicle, and
The service server requesting the vehicle terminal to apply the driver monitoring data to a predetermined driver drowsiness prediction model to predict the driver drowsiness and output a stimulus for interacting with the driver based on the driver drowsiness prediction result.
Including,
The service server,
Analyze the driver monitoring data to learn the degree to which the arousal level is increased according to the action taken by the driver in the drowsiness state, select an operation of increasing the arousal level in the drowsiness state as the driver's drowsiness prevention operation, and the selected driver's drowsiness prevention operation The driver's drowsiness prevention system through interaction with a driver's condition monitoring-based driver that outputs a stimulus for inducing a stimulus for interacting with the driver through the vehicle terminal.
제 5 항에서,
상기 차량 단말은,
상기 자극에 대한 운전자의 반응을 확인하고, 상기 운전자의 반응이 부적합하면 미리 정해진 경보를 출력하는 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 시스템.
In claim 5,
The vehicle terminal,
The driver's drowsiness prevention system by checking the driver's response to the stimulus, and outputting a predetermined alarm if the driver's response is inappropriate.
제 6 항에서,
상기 운전자 졸음 예측 모델은,
운전자 모니터링 데이터, 차량 운행 데이터 및 차량 운행 환경 데이터를 맵핑한 다수의 데이터를 포함하는 빅데이터를 이용하여 학습되는 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 시스템.
In claim 6,
The driver drowsiness prediction model,
Driver drowsiness prevention system through interaction with a driver condition monitoring-based driver learned using big data including a plurality of data mapping driver monitoring data, vehicle driving data and vehicle driving environment data.
제 7 항에서,
상기 운전자와 상호 작용을 위한 자극은 시각적인 방법 및 청각적인 방법 중 적어도 하나를 통해 출력되고,
상기 운전자의 반응은 영상 센서 및 음성 센서 중 적어도 하나를 통해 획득되는 운전자 상태 모니터링 기반 운전자와 상호 작용을 통한 운전자 졸음 예방 시스템.
In claim 7,
The stimulus for interacting with the driver is output through at least one of a visual method and an audio method,
The driver's drowsiness prevention system through interaction with the driver's condition monitoring-based driver is obtained through at least one of the image sensor and the audio sensor.
KR1020180043899A 2018-04-16 2018-04-16 Method and System for Preventing Driver Drowsiness Through Interaction with Driver by Based on Driver Status Monitoring KR102045320B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180043899A KR102045320B1 (en) 2018-04-16 2018-04-16 Method and System for Preventing Driver Drowsiness Through Interaction with Driver by Based on Driver Status Monitoring

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180043899A KR102045320B1 (en) 2018-04-16 2018-04-16 Method and System for Preventing Driver Drowsiness Through Interaction with Driver by Based on Driver Status Monitoring

Publications (2)

Publication Number Publication Date
KR20190120561A KR20190120561A (en) 2019-10-24
KR102045320B1 true KR102045320B1 (en) 2019-11-15

Family

ID=68423397

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180043899A KR102045320B1 (en) 2018-04-16 2018-04-16 Method and System for Preventing Driver Drowsiness Through Interaction with Driver by Based on Driver Status Monitoring

Country Status (1)

Country Link
KR (1) KR102045320B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220083889A (en) 2020-12-11 2022-06-21 박규섭 Driver health monitoring methods and complex accident prevention mechanisms and systems

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102403887B1 (en) * 2020-11-26 2022-05-30 동의대학교 산학협력단 System and method for protecting drowsy driving
KR102613615B1 (en) * 2021-12-23 2023-12-15 한국자동차연구원 Eeg stimulation system and method for autonomous driving car users using binaural beats

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5691967B2 (en) * 2011-09-22 2015-04-01 株式会社デンソー Sleepiness prediction device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008088070A1 (en) 2007-01-19 2008-07-24 Asahi Kasei Kabushiki Kaisha Awake state judging model making device, awake state judging device, and warning device
KR20110076745A (en) * 2009-12-28 2011-07-06 한국과학기술원 Drowsy driving warning apparatus and its method
KR20150066308A (en) * 2013-12-06 2015-06-16 한국전자통신연구원 Apparatus and method for determining driving condition of deiver
KR20160104245A (en) 2015-02-26 2016-09-05 윤재빈 The driver's algorithm to prevent a sleepy drivers

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5691967B2 (en) * 2011-09-22 2015-04-01 株式会社デンソー Sleepiness prediction device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220083889A (en) 2020-12-11 2022-06-21 박규섭 Driver health monitoring methods and complex accident prevention mechanisms and systems

Also Published As

Publication number Publication date
KR20190120561A (en) 2019-10-24

Similar Documents

Publication Publication Date Title
US11597389B2 (en) Driving cues and coaching
KR102045320B1 (en) Method and System for Preventing Driver Drowsiness Through Interaction with Driver by Based on Driver Status Monitoring
CN111402925B (en) Voice adjustment method, device, electronic equipment, vehicle-mounted system and readable medium
US11491994B2 (en) Systems and methods for detecting and dynamically mitigating driver fatigue
EP3675121B1 (en) Computer-implemented interaction with a user
CN109760585A (en) With the onboard system of passenger traffic
US20170200369A1 (en) System and method for coordinating v2x and standard vehicles
WO2016131310A1 (en) Method and apparatus for camera shooting
KR102061320B1 (en) Multichannel Vehicle Communication System and Method based on Machine Learning
US20220041177A1 (en) Auditory assistant module for autonomous vehicles
JP7311648B2 (en) In-vehicle acoustic monitoring system for drivers and passengers
CN105629785A (en) Intelligent automobile driving control method and apparatus
CN110876047A (en) Vehicle exterior projection method, device, equipment and storage medium
EP3646303A1 (en) Lighting system with traffic rerouting functionality
CN113284339A (en) Vehicle information reminding method, storage medium and vehicle information reminding system
CN105243850A (en) Method for managing and controlling vehicle horn through employing new information technology
CN109955850A (en) The recording method of vehicle and its adaptive cruise track, system
CN115273797A (en) Sound-based automobile interaction method and system and storage medium
US10843566B2 (en) Audible passenger announcements for autonomous vehicle services
KR20220159646A (en) Vibration generating device and Vehicle having the same
CN110139205B (en) Method and device for auxiliary information presentation
RU39435U1 (en) INTERACTIVE VIDEO CONTROL SYSTEM FOR CARS
US20230368698A1 (en) Auto Bot Driver Training System, Vehicle, and Method of Use
US20230160710A1 (en) Interactive Voice Navigation
WO2023204076A1 (en) Acoustic control method and acoustic control device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant