KR101276770B1 - Advanced driver assistance system for safety driving using driver adaptive irregular behavior detection - Google Patents

Advanced driver assistance system for safety driving using driver adaptive irregular behavior detection Download PDF

Info

Publication number
KR101276770B1
KR101276770B1 KR1020110078637A KR20110078637A KR101276770B1 KR 101276770 B1 KR101276770 B1 KR 101276770B1 KR 1020110078637 A KR1020110078637 A KR 1020110078637A KR 20110078637 A KR20110078637 A KR 20110078637A KR 101276770 B1 KR101276770 B1 KR 101276770B1
Authority
KR
South Korea
Prior art keywords
behavior
driver
risk
vehicle
data
Prior art date
Application number
KR1020110078637A
Other languages
Korean (ko)
Other versions
KR20130016606A (en
Inventor
유창동
박상혁
윤성락
김성웅
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020110078637A priority Critical patent/KR101276770B1/en
Publication of KR20130016606A publication Critical patent/KR20130016606A/en
Application granted granted Critical
Publication of KR101276770B1 publication Critical patent/KR101276770B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/087Interaction between the driver and the control system where the control system corrects or modifies a request from the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0809Driver authorisation; Driver identity check
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 사용자 적응형 특이행동 검출 기반의 안전운전보조시스템에 관한 것으로, 보다 상세하게는 운전자의 안전운전을 위하여 운전자의 운전패턴과 차량 내외부적인 위험요소들로부터 발생가능한 특이행동을 실시간으로 추적하고 분석함으로써 특이행동 발생여부와 위험도를 추론하여 그에 대처할 수 있는 대응을 출력하여 운전자의 안전운전을 보조하는 사용자 적응형 특이행동 검출기반의 안전운전보조시스템에 관한 것이다.
이러한 목적을 달성하기 위한 본 발명은, 차량의 내부 및 외부의 특이행동여부를 판단하기 위한 데이터를 검출하고, 운전자의 운전패턴에 따른 데이터를 입력받는 입력부; 상기 입력부로부터 입력받은 데이터 및 차량의 내부 및 외부의 특이행동여부를 판단하기 위한 정상행위 기준값을 저장하는 데이터베이스부; 상기 데이터베이스부에 저장된 기준값을 이용하여, 상기 입력부에서 실시간으로 입력받는 데이터에 대한 특이행동인지여부 및 위험도를 분석하는 토픽분석부; 및 상기 토픽분석부에서 분석된 위험도를 이용하여, 위험도 증감여부에 따라 대응방안을 출력하도록 제어하는 위험도판단대응부; 를 포함한다.
The present invention relates to a safe driving assistance system based on user adaptive singular behavior detection, and more specifically, to track a driver's driving pattern and specific behaviors that may occur from external and external risk factors for the driver's safe driving in real time. The present invention relates to a safe driving assistance system of a user adaptive singular behavior detector panel that assists a driver in driving safely by inducing the occurrence of abnormal behavior and the inference of the risk and outputting a response to cope with it.
The present invention for achieving this object, the input unit for detecting data for determining whether the specific behavior of the inside and outside of the vehicle, and receives data according to the driver's driving pattern; A database unit for storing data received from the input unit and normal behavior reference values for determining whether the vehicle has unusual behavior inside and outside the vehicle; A topic analysis unit for analyzing whether or not a specific behavior and risk of data received in real time from the input unit using the reference value stored in the database unit; And a risk determination counter that controls to output a countermeasure according to whether the risk is increased or decreased by using the risk analyzed by the topic analysis unit. .

Description

사용자 적응형 특이행동 검출기반의 안전운전보조시스템{ADVANCED DRIVER ASSISTANCE SYSTEM FOR SAFETY DRIVING USING DRIVER ADAPTIVE IRREGULAR BEHAVIOR DETECTION} Safe Driving Assistance System for User-Adaptive Singular Behavior Detector Panels ADAPTIVE IRREGULAR BEHAVIOR DETECTION

본 발명은 사용자 적응형 특이행동 검출기반의 안전운전보조시스템에 관한 것으로, 보다 상세하게는 운전자의 안전운전을 위하여 운전자의 운전패턴과 차량 내외부적인 위험요소들로부터 발생 가능한 특이행동을 실시간으로 추적하고 분석함으로써 특이행동 발생여부와 위험도를 추론하여 그에 대처할 수 있는 대응을 출력하여 운전자의 안전운전을 보조하는 사용자 적응형 특이행동 검출기반의 안전운전보조시스템에 관한 것이다.The present invention relates to a safe driving assistance system of a user adaptive singular behavior detector panel, and more particularly, to track in real time a specific behavior that may occur from driver's driving pattern and risk factors inside and outside the vehicle for the driver's safe driving. The present invention relates to a safe driving assistance system of a user adaptive singular behavior detector panel that assists a driver in driving safely by inducing the occurrence of abnormal behavior and the inference of the risk and outputting a response to cope with it.

우리나라 교통사고는 연간 약 21만 건이 발생하여, 38만 명의 사상자와 9조원의 교통사고 처리 비용이 발생한다. 우리나라뿐만 아니라 전 세계적으로 많은 사람들이 교통사고로 인해 부상을 당하고 심지어 사망에 까지 이른다. 그 원인으로는 음주운전, 졸음운전, 위험한 운전습관, 과속 그리고 제한적 시야 등 있다. 최근에 국내에서는 차체자세제어장치(Vehicle Dynamic Control, VDC)와 스마트크루즈 컨트롤(Smart Cruise Control, SCC) 등 각종 첨단 전자장치들을 사용하여, 과속을 할 때 또는 다른 차량이 접근할 때에 발생할 수 있는 위험을 감소할 수 있게 되었다. 그리고 호주의 Cohda Wireless는 Wi-Fi를 이용한 communication in-car technology에 의해 자동차들 간의 커뮤니케이션을 수행함으로써, 500피트 내에 움직이는 자동차들의 신호를 감지할 수 있게 되었고, 향후 2012년 정도에는 이 기술이 상용화 될 것으로 보고 있다. 그러나 기존의 이러한 시스템들은, 주로 과속이나 제한적 시야에서 오는 위험만을 줄이는데 초점을 맞추고 있다. 즉, 운전자의 현재 상태, 습관 또는 외부환경에서 오는 위험을 판단하는 지능적인 시스템 개발은 아직까지 미비한 실정이다. In Korea, about 210,000 accidents occur annually, which incurs 380,000 casualties and 9 trillion won in traffic accident handling costs. Many people in the world as well as in Korea are injured and even killed by traffic accidents. Causes include drunk driving, drowsy driving, dangerous driving habits, speeding and limited vision. Recently, in Korea, various high-tech electronic devices such as vehicle dynamic control (VDC) and smart cruise control (SCC) are used, and the danger that may occur when speeding or approaching other vehicles. Can be reduced. And Australia's Cohda Wireless is able to detect signals from cars moving within 500 feet by communicating between cars using communication in-car technology using Wi-Fi, which will be commercialized in 2012. I see it. These existing systems, however, focus primarily on reducing the risks of speeding or limited visibility. In other words, the development of an intelligent system that determines the danger from the driver's current state, habit or external environment is still inadequate.

또한, 공개특허 제10-2010-0028253호 (발명의 명칭: 운전보조장치 및 운전보조 방법)와 관련하여, 운전자를 촬영한 운전자 영상을 이용하여 운전자의 상태를 분석하고, 상기 운전자의 상태정보를 이용하여 운전자의 안전 운전을 보조할 수 있는 운전보조 장치 및 운전보조방법을 제공한다. 다만 이 경우, 역시 운전자의 졸음여부판단으로 위험요소를 판단할 뿐, 차량주변의 상황과 내부 상황을 모두 인식하여 위험요소를 종합적으로 판단하지 못하며, 비전센서만을 이용하기 때문에, 실제 압력, 심박수, 맥박, 체온, 긴장도 등의 다양한 운전자의 생체 신호변화를 감지하기 할 수 없어 보다 정확하게 운전자의 상태를 파악할 수 없는 문제가 있었다.In addition, with respect to Patent Publication No. 10-2010-0028253 (name of the invention: the driving assistance apparatus and the driving assistance method), the driver's state is analyzed using the driver's image photographing the driver, and the driver's state information is The present invention provides a driving assistance apparatus and a driving assistance method that can assist a driver in driving safely. In this case, however, the driver's drowsiness judgment is used to determine the risk factors, and the vehicle's surroundings and internal conditions cannot be judged comprehensively. Therefore, only the vision sensor is used, so the actual pressure, heart rate, There was a problem that it is not possible to detect the driver's state more accurately because it is unable to detect changes in the vital signs of various drivers such as pulse, body temperature, tension.

본 발명은 상기와 같은 문제점을 감안하여 안출된 것으로, 운전자의 현재 상태, 습관 또는 외부환경에서 오는 위험을 판단하는 지능적인 시스템을 제공하여, 운전자의 내부의 문제 뿐 아니라, 외부적인 교통상황을 검출함으로써, 보다 안전한 운전을 할 수 있도록 운전자를 보조하는 사용자 적응형 특이행동 검출기반의 안전운전보조시스템을 제공함에 있다. The present invention has been made in view of the above problems, and provides an intelligent system that determines the danger of the driver's current state, habit or external environment, and detects not only the driver's internal problems but also external traffic conditions. Accordingly, the present invention provides a safe driving assistance system for a user adaptive singular behavior detector panel that assists a driver to drive a safer driving.

그리고, 압력, 심박수, 맥박, 체온, 긴장도 등을 감지하기 위한 다양한 센서나 카메라를 이용하여 직접적으로 차량내외부적인 데이터를 검출하는 것뿐만 아니라, 운전자의 운전패턴을 인지하여, 운전자 각각의 운전패턴에 따라 그에 맞는 대응방법을 출력하는 사용자 적응형 특이행동 검출기반의 안전운전보조시스템을 제공함에 있다. In addition, by using various sensors or cameras to detect pressure, heart rate, pulse rate, body temperature, and tension, the data of the vehicle are not only directly detected, but also the driver's driving pattern is recognized. Accordingly, the present invention provides a safe driving assistance system for a user adaptive singular behavior detector panel that outputs a corresponding method.

이러한 기술적 과제를 달성하기 위한 본 발명은, 차량의 내부 및 외부의 특이행동여부를 판단하기 위한 데이터를 검출하고, 운전자의 운전패턴에 따른 데이터를 입력받는 입력부; 상기 입력부로부터 입력받은 데이터 및 차량의 내부 및 외부의 특이행동여부를 판단하기 위한 정상행위 기준값을 저장하는 데이터베이스부; 상기 데이터베이스부에 저장된 기준값을 이용하여, 상기 입력부에서 실시간으로 입력받는 데이터에 대한 특이행동인지여부 및 위험도를 분석하는 토픽분석부; 및 상기 토픽분석부에서 분석된 위험도를 이용하여, 위험도 증감여부에 따라 대응방안을 출력하도록 제어하는 위험도증감판단모듈(410); 을 포함한다.The present invention for achieving the above technical problem, the input unit for detecting data for determining whether the specific behavior of the interior and exterior of the vehicle, and receives the data according to the driver's driving pattern; A database unit for storing data received from the input unit and normal behavior reference values for determining whether the vehicle has unusual behavior inside and outside the vehicle; A topic analysis unit for analyzing whether or not a specific behavior and risk of data received in real time from the input unit using the reference value stored in the database unit; And a risk increase / determination determining module 410 that controls to output a corresponding method according to whether the risk increases or decreases, using the risk analyzed by the topic analysis unit. .

상기와 같은 본 발명에 따르면, 운전자의 현재 상태, 습관 또는 외부환경에서 오는 위험을 판단하는 지능적인 시스템을 제공하여, 운전자의 내부의 문제 뿐 아니라, 외부적인 교통상황을 검출함으로써, 보다 안전한 운전을 할 수 있도록 운전자를 보조할 수 있다. According to the present invention as described above, by providing an intelligent system that determines the danger of the current state, habits or external environment of the driver, by detecting not only the driver's internal problems, but also the external traffic conditions, safer driving The driver can be assisted to do so.

또한, 다양한 센서나 카메라를 이용하여 직접적으로 차량내외부적인 데이터를 검출하는 것뿐만 아니라, 운전자의 운전패턴을 인지하여, 운전자 각각의 운전패턴에 따라 그에 맞는 대응방법을 출력할 수 있다.In addition, not only the data inside and outside the vehicle may be directly detected using various sensors or cameras, but also the driver's driving pattern may be recognized and a corresponding method may be output according to each driver's driving pattern.

도 1 은 본 발명의 일실시예에 따른 사용자 적응형 특이행동 검출기반의 안전운전보조시스템의 구성도.
도 2 는 본 발명의 일실시예로서 사용하는 Bayesian State Space Model(SSM)의 도식도.
도 3 은 본 발명의 일실시예에 따른 사용자 적응형 특이행동 검출기반의 안전운전보조방법에 관한 흐름도.
1 is a block diagram of a safe driving assistance system of a user adaptive singular behavior detector panel according to an embodiment of the present invention.
2 is a schematic diagram of a Bayesian State Space Model (SSM) for use as an embodiment of the present invention.
3 is a flowchart illustrating a safe driving assistance method of a user adaptive singular behavior detector panel according to an embodiment of the present invention.

본 발명의 구체적 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.Specific features and advantages of the present invention will become more apparent from the following detailed description based on the accompanying drawings. It is to be noted that the detailed description of known functions and constructions related to the present invention is omitted when it is determined that the gist of the present invention may be unnecessarily blurred.

이하, 첨부된 도면을 참조하여 본 발명을 상세하게 설명한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will now be described in detail with reference to the accompanying drawings.

본 발명의 사용자 적응형 특이행동 검출기반의 안전운전보조시스템에 관한 것으로서, 도 1 내지 도 3 을 참조하여 설명하면 다음과 같다.
Regarding the safe driving assistance system of the user adaptive singular behavior detector panel of the present invention, it will be described with reference to FIGS.

도 1 은 본 발명의 일실시예에 따른 사용자 적응형 특이행동 검출기반의 안전운전보조시스템의 구성도이다. 이를 참고하여 설명하면 다음과 같다.1 is a block diagram of a safety driving assistance system for a user adaptive singular behavior detector panel according to an embodiment of the present invention. This will be described with reference to the following.

본 발명의 사용자 적응형 특이행동 검출기반의 안전운전보조시스템은 입력부(100), 데이터베이스부(200), 토픽분석부(300), 위험도판단대응부(400)를 포함한다.The safe driving assistance system of the user adaptive singular behavior detector panel of the present invention includes an input unit 100, a database unit 200, a topic analysis unit 300, and a risk determination counterpart 400.

입력부(100)는 차량의 내부 및 외부의 특이행동여부를 판단하기 위한 데이터를 검출하고, 운전자의 운전패턴에 따른 데이터를 입력받는다. 차량내부행동검출모듈(110), 차량외부행동검출모듈(120) 및 운전자적응형행동입력모듈(130)을 포함한다.The input unit 100 detects data for determining whether the vehicle has a specific behavior inside and outside the vehicle, and receives data according to a driver's driving pattern. The vehicle internal behavior detection module 110, the vehicle exterior behavior detection module 120, and the driver adaptive behavior input module 130 are included.

차량내부행동검출모듈(110)은 차량내부의 특이행동여부를 판단하기 위해 실시간으로 차량내부행동데이터를 검출하는 것으로, 차량에 탑승한 운전자의 얼굴과 행동을 검출한다. 운전자 건강상태정보, 운전자 운전패턴정보, 운전자부주의 정보 등을 포함한다.The in-vehicle behavior detection module 110 detects in-vehicle behavior data in real time in order to determine whether the in-vehicle specific behavior is detected, and detects the face and behavior of the driver in the vehicle. Driver health status information, driver driving pattern information, driver careless information, and the like.

운전자 건강상태정보로는 졸음검출(눈깜박임, 하품, 심장 박동수 등), 운전자 운전패턴정보로는 평균속도, 차량 핸들링정보, 운전자 부주의 정보로는 운전하는 손의 위치, 말소리 등을 포함한다. Driver health state information includes drowsiness detection (blinking, yawning, heart rate, etc.), driver driving pattern information includes average speed, vehicle handling information, and driver careless information including the position of a driving hand, speech sounds, and the like.

차량내부행동검출모듈(110)은 운전자의 운전패턴에 따른 데이터와 생체신호변화에 따른 데이터를 검출하는데, 운전자의 운전패턴에 따른 데이터를 검출을 위한 비디오센서(RGB,적외선카메라) 또는 생체신호변화에 따른 데이터를 검출하기 위한 각종 오디오, 화학, 촉각, 온도, 맥박, 적외선 센서가 사용된다.The vehicle internal motion detection module 110 detects data according to a driver's driving pattern and data according to a biosignal change, and a video sensor (RGB) or a biosignal change for detecting data according to the driver's driving pattern Various audio, chemistry, tactile, temperature, pulse, and infrared sensors are used to detect the data according to this.

운전자의 운전패턴에 따른 데이터는 운전자의 상태에 따른 얼굴의 표정변화 및 눈상태, 해드 제스쳐, 운전행동에 대한 모션정보를 의미하며, 생체신호변화에 따른 데이터는 압력, 심박수, 맥박, 체온, 긴장도 등이 있다. 다만 상술한 검출데이터는 일 예시에 따른 것이며 이에 한정되지 않는다. 차량내부행동은 주로 운전자로부터 발생하는 특이행동에 대한 검출을 의미하며, 안전운전보조를 위해 필요한 데이터라면 무엇이든 검출할 수 있음은 물론이다.
The data according to the driver's driving pattern means the facial expression change and eye state, head gesture, and motion information about the driving behavior according to the driver's condition, and the data according to the biosignal change includes pressure, heart rate, pulse, body temperature, and tension Etc. However, the above-described detection data is an example and the present invention is not limited thereto. In-vehicle behavior mainly refers to detection of unusual behavior generated from the driver, and of course, any data necessary for safe driving assistance can be detected.

차량외부행동검출모듈(120)은 차량외부의 특이행동여부를 판단하기 위해 실시간으로 차량외부행동데이터를 검출하는 것으로, 차량의 주행정보 및 도로환경정보를 검출한다. 차량의 외부 상황 카메라 및 거리 검출 및 물체 탐지센서 등을 통해 차선 및 자동차, 보행자 등의 물체를 검출하고 추적하여 차량 외부 상황으로부터 역주행, 과속, 차선위반 등과 같은 특이 행동을 검출한다. 차량주변의 교통상황에 대한 모니터링을 하는 것으로, 차선검출센서, 전후측방관측센서, 외부상황측정센서를 이용하여 차량의 주행정보(속도검출, 차선검출, 앞뒤차간의 거리검출, 인접 운행 중인 차량의 주행정보, 보행자 검출 등) 및 도로환경정보(도로공사정보, 속도제한이나 일방통행 등의 표시판정보 등) 등을 검출할 수 있다.The vehicle exterior behavior detection module 120 detects vehicle exterior behavior data in real time to determine whether the vehicle exterior behavior is unusual, and detects driving information and road environment information of the vehicle. Detects and tracks objects such as lanes, cars, and pedestrians by using an external situation camera, a distance detection object, and an object detection sensor to detect unusual behaviors such as reverse driving, speeding, and lane violations from the exterior of the vehicle. It monitors the traffic situation around the vehicle, and uses the lane detection sensor, front and rear side observation sensor, and external situation measurement sensor to detect driving information (speed detection, lane detection, distance between front and rear vehicles, Driving information, pedestrian detection, etc.) and road environment information (road construction information, display information on speed limit or one-way, etc.) can be detected.

나아가, 차량외부행동검출모듈(120)은 통신가능 영역 내에 있는 차량들의 운행상태정보를 서로 공유하여 서로의 운행상황정보를 입력받을 수 있는 통신모듈을 포함한다. 각 차량의 운전자들이 서로의 운행 상황 정보를 알 수 있도록 상호간 서로 정보를 전달하고 수집함으로써, 이를 통해 위험 상황에 대해 미리 대처할 수 있는 데이터를 보유한다.
In addition, the vehicle external behavior detection module 120 includes a communication module that can receive driving status information of each other by sharing the driving status information of the vehicles in the communicable area with each other. By transmitting and collecting each other's information so that the drivers of each vehicle can know each other's driving status information, it holds data that can cope with dangerous situations in advance.

운전자적응형행동입력모듈(130)은 선천적 또는 후천적 학습을 통해 운전자의 운전패턴을 인식하여 운전자의 정보를 프로파일로 구축하여 각각의 운전자마다 적응적으로 위험 상황에 대처할 수 있는 데이터를 입력받는다. 즉, 운전자가 자신의 운전패턴에 맞게 데이터베이스부(200)에 저장된 적합한 정상행위 기준을 수정할 수 있다. 운전자 개개인마다 운전패턴이 상이할 수 있으며, 생체신호변화값이 다르기 때문에, 운전자 스스로의 인식을 통해 지속적으로 데이터베이스를 학습시켜 운전자 자신에게 맞는 안전운전보조시스템으로 업데이트 할 수 있다.The driver adaptive action input module 130 recognizes the driver's driving pattern through innate or acquired learning, builds the driver's information into a profile, and receives data that can adaptively deal with a dangerous situation for each driver. That is, the driver may modify the appropriate normal behavior criteria stored in the database unit 200 according to his driving pattern. The driving pattern may be different for each driver, and since the bio signal change value is different, the driver may continuously update the database through the driver's own recognition and update the driver's safety driving system.

일실시예로서, 한 운전자는 평소 눈을 심하게 깜박이는 경우, 일반적으로 5번 깜박이는 것이 정상행위 기준값이라고 정한다면, 이 경우는 10번으로 상향조정을 한다든지, 실제로 위험속도 임계치가 100km/h이지만, 한 운전자는 평소 80km/h가 최고속도로 운전자는 경우라면, 이때는 정상행위 기준값을 80km/h로 하향조정하여 각각의 운전자마다 적응적으로 위험 상황에 대처할 수 있는 데이터를 수정한다.As an example, if a driver normally blinks badly, and the 5 blinks are normally the normal behavior threshold, then the driver may raise it to 10, or the speed threshold is actually 100km / h. However, if one driver is a driver at 80km / h at the highest speed, the driver then lowers the normal behavior reference value to 80km / h so that each driver adapts the data to adapt to the dangerous situation.

이는 처음부터 기준에 관하여 운전자가 인식하고 있는 경우는 선천적으로 정상행위 기준값을 변경하여 입력할 수도 있고, 그렇지 않은 경우라 하더라도 후천적으로 학습을 통해 운전자가 지속적인 운전패턴을 파악하여 기준값을 수정하여 입력할 수 있다. 일종의 사용자 적응형 운전 특이 행동 검출 시스템을 구현할 수 있다.
If the driver is aware of the standard from the beginning, it can be input by changing the normal behavior standard value, or even if it is not, the driver can identify the continuous driving pattern through learning and modify the standard value. Can be. It is possible to implement a kind of user adaptive driving specific behavior detection system.

데이터베이스부(200)는 상기 입력부(100)에서 입력받은 모든 데이터 및 차량의 내부 및 외부의 특이행동여부를 판단하기 위한 정상행위 기준값을 저장한다. 차량내부데이터모듈(210), 차량외부데이터모듈(220) 및 운전자적응형데이터모듈(230)을 포함한다.The database unit 200 stores all data received from the input unit 100 and a normal behavior reference value for determining whether the vehicle exhibits unusual behavior inside and outside the vehicle. The vehicle internal data module 210, the vehicle external data module 220, and the driver adaptive data module 230 are included.

차량내부데이터모듈(210)은 차량내부행동검출모듈(110)에서 검출한 운전자의 운전패턴에 따른 데이터와 생체신호변화에 따른 데이터 및 데이터 각각에 해당하는 정상행위 기준값을 저장한다. 차량내부행동검출모듈(110)에서 실시간으로 검출되는 차량내부행동데이터를 저장하는 것으로, 운전자 건강상태정보, 운전자 운전패턴정보, 운전자부주의 정보 등을 포함한다. 운전자 건강상태정보로는 졸음검출(눈깜박임, 하품, 심장 박동수 등), 운전자 운전패턴정보로는 평균속도, 차량 핸들링정보, 운전자부주의 정보로는 운전하는 손의 위치, 말소리 등을 포함하나, 상술한 내용은 일예시에 불과할 뿐 이에 한정되는 것은 아니다.
The vehicle internal data module 210 stores normal behavior reference values corresponding to data according to a driver's driving pattern detected by the vehicle interior behavior detection module 110 and data and data according to a change in a biosignal. In-vehicle behavior data that is detected in real time by the vehicle interior behavior detection module 110 is stored, and includes driver health status information, driver driving pattern information, and carelessness information. Driver health status information includes drowsiness detection (blinking, yawning, heart rate, etc.), driver driving pattern information including average speed, vehicle handling information, and driver careless information including the location of a driving hand, speech sounds, etc. One content is only an example, but is not limited thereto.

차량외부데이터모듈(220)은 차량외부행동검출모듈(120)에서 검출한 차량의 주행정보와 도로환경정보 및 정보 각각에 해당하는 정상행위 기준값을 저장한다. 차량의 주행정보로는 속도검출, 차선검출, 앞뒤차간의 거리검출, 인접 운행중인 차량의 주행정보, 보행자 검출 등을 포함하며, 도로환경정보로는 도로공사정보, 속도제한이나 일방통행 등의 표시판정보 등을 포함하나, 상술한 내용은 일예시에 불과할 뿐 이에 한정되는 것은 아니다. 특히 차량외부데이터모듈(220)은 이에 포함된 통신모듈에 의해 전송되는 통신가능 영역 내에 있는 차량들의 운행상태정보를 저장한다.The vehicle external data module 220 stores normal driving reference values corresponding to driving information, road environment information, and information of the vehicle detected by the vehicle external behavior detection module 120. The driving information of the vehicle includes speed detection, lane detection, distance detection between front and rear cars, driving information of adjacent vehicles, pedestrian detection, etc., and road environment information includes road construction information, speed limit or one-way display. Information, etc., but the above description is only one example, but is not limited thereto. In particular, the vehicle external data module 220 stores driving state information of vehicles in a communicable area transmitted by the communication module included therein.

운전자적응형데이터모듈(230)은 운전자적응형행동입력모듈(130)로부터 입력받은 운전자의 인식을 통해 운전자의 정보 및 데이터 각각에 해당하는 정상행위 기준값을 저장한다. 처음 디폴트는 일반적인 사람에 맞춰 저장되나, 운전자의 운전패턴을 파악하여 후천적인 학습을 통해 기준값을 변경할 수 있다. 선천적으로 해당 운전자에 맞춰 기준값을 수정하여 저장할 수도 있고, 운전자가 복수명 인 경우, 운전자별로 데이터베이스가 구축될 수 있다. 운전자의 상태(모자, 안경 착용) 등도 지정할 수 있도록 이에 관한 데이터를 저장한다.
The driver adaptive data module 230 stores normal behavior reference values corresponding to the driver's information and data through the driver's recognition received from the driver's adaptive action input module 130. Initially, the default is stored for the general person, but the driver's driving pattern can be grasped and the reference value can be changed through acquired learning. By default, the reference value may be modified and stored according to the driver, or when there are a plurality of drivers, a database may be built for each driver. It also stores data about the driver's status (hat, glasses, etc.).

토픽분석부(300)는 상기 데이터베이스부(200)에 저장된 기준값을 이용하여, 상기 입력부(100)에서 실시간으로 입력받는 차량 내외부적인 데이터를 분석하여, 특이행동인지여부 및 위험도를 분석한다.The topic analysis unit 300 analyzes the internal and external data received in real time from the input unit 100 by using the reference value stored in the database unit 200, and analyzes whether the specific behavior is recognized and the risk level.

각각의 위험요소마다 특이행동인지를 분석하는 부분토픽분석모듈(310)과 전체적으로 해당상황이 안전운행에 위협이 되는 요소에 기여하는지 여부를 분석하는 전체토픽분석모듈(320)을 포함한다.Each of the risk factors includes a partial topic analysis module 310 for analyzing whether the behavior is a specific topic, and an overall topic analysis module 320 for analyzing whether or not the corresponding situation contributes to a threat to safety.

전체적으로 토픽분석부(300)는 토픽모델을 사용한다. 옵티컬 플로우(optical flow)같은 화소 단위의 움직임 패턴을 추출하여 모델링하는 방법을 이용하여 토픽모델링과 같은 unsupervised learning 기법을 이용하여 차량 내외부상황에서 발생하는 특이행동을 분석한다. In general, the topic analysis unit 300 uses a topic model. Using the method of extracting and modeling pixel-like movement patterns such as optical flow, we analyze the singular behavior that occurs in the inside and outside of the vehicle using unsupervised learning techniques such as topic modeling.

토픽모델은 자연어 처리에 주로 사용되는 알고리즘으로 장면 내에서 발생하는 작은 움직임을 단어(word)로 대입하고 영상에서 이러한 단위 움직임들의 집합을 문서(document)로 대입하여 주제(topic)를 찾는 방식이다. 이와 같은 방법으로 분석된 주제(topic)는 검출된 영상화면을 의미 있는 영역으로 분류 될 수 있고, 방대한 입력 데이터에 대한 사전 정보 없이 unsupervised 학습(learning)기법으로 학습이 가능한 장점이 있다. Topic model is an algorithm mainly used for natural language processing and finds a topic by substituting a small movement occurring in a scene into a word and substituting such a set of unit movements into a document. Topics analyzed in this way can be classified into meaningful regions, and can be learned using unsupervised learning techniques without prior information on vast input data.

다만, 본 발명의 일실시예로서 사용되는 토픽모델은 발생행동에 대한 토픽모델 수의 제한을 두지 않고 단어(word)와 문서(document)를 집합화(Co-clustering) 할 수 있는 Hierarchical Dirichlet Processes(HDP) 등을 이용한 Non-Parametric 기법을 이용하여 특이행동을 검출한다. 또한 각각의 행동들은 연속된 프레임에서 mixture 형태로 동시에 발생할 수 있기 때문에 이러한 각 행동들의 Co-Occurrence를 계산하여 Markov Model을 이용하여 각 행동들 간의 시공간적 의존성(Dependency)을 추출한다. 이를 위해서 각 행동의 의미에 해당하는 특정 주제별로 분류한 행동 궤적 정보를 관측열로 보고 이를 Infinite Hidden Markov Model(IHMM)로 학습하여, 학습한 IHMM에 대해 새로운 이동 물체의 행동 궤적이 나타날 확률을 계산하여 이 확률값이 낮은 경우를 특이행동으로 판단한다. However, the topic model used as an embodiment of the present invention is a Hierarchical Dirichlet Processes that can co-cluster words and documents without limiting the number of topic models for occurrence behavior. Singular behaviors are detected using non-parametric techniques using HDP). In addition, since each behavior can occur simultaneously in mixture form in consecutive frames, Co-Occurrence of each of these behaviors is calculated and the Spatio-temporal dependency is extracted using the Markov Model. To do this, the behavior trajectory information categorized by a specific topic corresponding to the meaning of each behavior is viewed as a sequence of observations, which is then learned using the Infinite Hidden Markov Model (IHMM) to calculate the probability of the behavior trajectory of a new moving object for the learned IHMM. If the probability value is low, it is determined as a singular behavior.

다만, 이때 전역적 확률 모델만을 사용하는 경우, 다양한 정상 행동과 더불어 발생하는 지역적인 특이 행동 패턴의 위치를 정확하게 검출하기 어렵다. 따라서 입력된 데이터가 영상데이터인 경우, 본 발명은 입력부(100)에서 검출된 영상데이터를 일정한 블록단위로 분할하여 지역공간적모델과 지역시간적모델을 구성한 후 두 모델에 기반하여 전역적 확률 모델을 구성하는 계층적인 방법을 이용한다. 지역공간모델은 양자화를 거쳐 저장된 움직임 정보들의 위치(블록)를 기준으로 모형화한 모델이고, 지역시간모델은 공간 정보에 특정 객체의 움직임이 추출된 시간 정보를 추가적으로 포함시키고 발생시간정보는 전역확률모델에서 시간적 연관성을 계산하는데 이용한다. 전역확률모델은 일정지역(하나의 영상블록)에서 발생한 움직임만이 아닌 그 관측 시점에서의 영상전체에서 동시에 발생하고 있는 모든 움직임들이 가진 의미를 고려하여 상호 연관성에 따라 정상행동인지 특이(비정상)행동인지를 판단한다.
However, when only the global probabilistic model is used, it is difficult to accurately detect the location of the regional specific behavioral patterns that occur along with various normal behaviors. Therefore, when the input data is image data, the present invention divides the image data detected by the input unit into predetermined block units, constructs a local spatial model and a local temporal model, and then constructs a global probability model based on the two models. Use a hierarchical method. The local spatial model is modeled based on the location (block) of the stored motion information through quantization, and the local temporal model additionally includes the temporal information from which the movement of a specific object is extracted, and the occurrence time information is the global probability model. Is used to calculate the temporal association in. The global probability model considers the meaning of all movements occurring simultaneously in the entire image at the time of observation, not just the movements occurring in a certain area (one image block). Determine the cognition.

본 발명에서는 단어(word)는 입력부(100)에서 검출한 특징정보들(운전자의 눈깜박임, 고개끄덕임, 손동작, 심박수 등의 생체신호, 차량속도, 인접차량의 주행 정보 등의 특징)이고, 문서(document)는 이러한 특징 정보들이 종합적으로 나타나는 단위 시간의 영상클립(1초 혹은 2초 단위)과 센서 정보들이고, 주제(topic)는 안전 운전에 위협이 되는 요소 즉 해당 영상이 정상행동인지 특이(비정상)행동인지 여부가 주제(topic)에 해당한다.In the present invention, the word (word) is the characteristic information detected by the input unit 100 (characteristics such as the driver's eye blink, nodding, hand gestures, heart rate and other biosignals, vehicle speed, driving information of the adjacent vehicle, etc.) (document) is the image clip (1 second or 2 second unit) and sensor information of unit time when these feature information is collectively displayed, and the topic is a threat to safe driving, that is, whether the image is normal behavior or not. Whether the behavior is abnormal is a topic.

이 때 주제(topic)는 부분토픽(local topic)과 전체토픽(global topic)이 있는데, 부분토픽분석모듈(310)에서는 부분토픽(local topic)을 분석하고, 전체토픽분석모듈(320)은 전체토픽(global topic)을 분석한다. 부분토픽(local topic)에 해당하는 주제(topic)는 특정 위치에서 발생하는 역주행, 과속, 차선위반, 사용자의 졸음 유무 등이 되고, 전체토픽(global topic)은 상기 부분토픽(local topic)에서 판단한 주제(topic)를 바탕으로 해당 영상이 안전운행에 위협이 되는 요소인지 아닌지를 판단한다.
At this time, a topic includes a local topic and a global topic. The partial topic analysis module 310 analyzes a local topic, and the whole topic analysis module 320 includes the entire topic. Analyze global topics. A topic corresponding to a local topic may be reverse driving, speeding, lane violations, or the user's drowsiness occurring at a specific location, and a global topic may be determined by the local topic. Based on the topic, determine whether the video is a threat to safe operation.

부분토픽분석모듈(310)은 상기 입력부(100)를 통해 실시간으로 입력받는 해당상황이 특이행동인지 여부를 판단하여 부분토픽을 분석한다. 특정 위치에서 발생하는 역주행, 과속, 차선위반, 사용자의 졸음 유무 등의 각각의 행동에 관한 특이행동인지 여부를 분석한다. 입력부(100)에서 입력되는 다양한 데이터를 가지고 그 해당사항에 맞게 분석한다.The partial topic analysis module 310 analyzes the partial topic by determining whether the corresponding situation received in real time through the input unit 100 is an unusual behavior. It analyzes whether it is a specific behavior about each behavior such as reverse driving, speeding, lane violation, and user's drowsiness occurring at a specific location. Takes various data input from the input unit 100 and analyzes according to the corresponding.

먼저, 차량외부행동검출모듈(120)로부터 차량외부행동에 대한 데이터를 검출하여 이용하는 경우에는, 운행 중인 차량의 안전성을 확보하기 위하여, 전방의 차선 검출 센서와 전후측방 차량 관측 센서로부터 자동차의 운행 중 발생하는 외부 환경에 대한 데이터를 지속적으로 수집하여 특이행동분석 관측데이터로 활용한다. 이를 위하여 차량 외부 상황 측정 센서는 에지 검출 기술과 GPS 기반의 이동 경로 및 속도 분석 과정을 통하여 현재 주행 중인 차선의 방향과 주행 경로 사이의 위치 관계를 분석하여 차선 에지 검출과 도로 템플릿 매칭 등을 통하여 차선과 차량 진행 방향사이의 각도를 파악한다. 이와 같이 파악된 각도 정보를 이용하여 차량의 정상 운행 여부를 판단하여, 급차선 변경과 차선이탈, 과속 운전 등의 위급 상황에 대한 센싱 데이터를 분석하고, 또한 운행 중인 차량의 전후측방에서 이동 중인 근접 차량의 주행 정보 및 보행자의 상황을 관측하고, 각 차량 간 혹은 보행자와의 접근 거리와 위험도를 계산하여 운행 중인 차량과 위험요소로 탐지된 차량과의 실제 거리를 측정하고, 공주 거리와 제동 거리로부터 정지 예상 거리등을 추론하여 외부 요인으로부터 발생하는 위험 요소와 각 검출 데이터들 간의 상관관계를 분석한다.
First, in the case of detecting and using data on the vehicle external behavior from the vehicle external behavior detection module 120, in order to secure the safety of the vehicle in operation, the vehicle is being driven from the front lane detection sensor and the front and rear vehicle observation sensors. Continuously collect data on external environment and use it as observation data for unusual behavior analysis. To this end, the vehicle external situation measurement sensor analyzes the positional relationship between the direction of the currently driving lane and the driving route through edge detection technology and GPS-based moving path and speed analysis process, and then performs lane detection through lane edge detection and road template matching. The angle between the vehicle and the direction of travel. By using the angle information thus determined to determine whether the vehicle is operating normally, it analyzes the sensing data on emergency situation such as change of lane, departure from lane, and overspeed driving, and also the proximity of moving vehicle in front and rear Observe the driving information of the vehicle and the pedestrian situation, calculate the approach distance and the risk between each vehicle or the pedestrian, measure the actual distance between the running vehicle and the vehicle detected as a hazard, and from the princess distance and the braking distance By inferring the predicted stopping distance, we analyze the correlation between the risk factors generated from external factors and each detection data.

차량내부행동검출모듈(110)로부터 차량내부행동에 대한 데이터를 검출하여 이용하는 경우에는, 차량 내부에서 운전하고 있는 운전자의 심박수, 맥박, 체온, 긴장도 등의 건강 상태 정보를 수집하기 위한 촉각 및 적외선 센서 데이터, 운전자의 눈감김, 시선 흩어짐 등의 주의력 정보를 판단할 수 있는 비디오 및 오디오 센서 데이터, 운전자의 음주 여부 등을 판단할 수 있는 후각 센서 데이터 등의 정보를 수집한다. 그리고 안전 운전을 위한 그래프 모델에서의 각 위험 상태에 해당하는 주의력분산, 운전 부주의, 음주, 과속 그리고 신체상의 피해 발생 여부 등의 상황과의 연관성을 분석하여 특이행동인지 여부를 분석한다.
In case of detecting and using the data about the vehicle's internal behavior from the vehicle's internal behavior detection module 110, tactile and infrared sensors for collecting health status information such as heart rate, pulse, body temperature, and tension of the driver who are driving in the vehicle Information such as data, video and audio sensor data for determining attention information such as driver's eyes, and distractions of eyes, and olfactory sensor data for determining whether a driver is drunk are collected. In addition, it analyzes whether it is an unusual behavior by analyzing the relationship with the situation such as attention distraction, driving carelessness, drinking, speeding, and physical injury in the graph model for safe driving.

특히, 비디오 센서를 사용하여 운전자의 얼굴을 검출하고 이를 추적하는 과정을 통해 운전자의 상태에 따른 얼굴의 표정 변화 및 눈 상태, 해드 제스쳐 등의 모션 정보를 검출한 영상데이터를 이용하여 특이행동여부를 판단하는 경우, 운전자의 눈 깜빡임, 시선 분산 등을 인지하기 위해 비디오 데이터로부터 능동외향모델(active shape model)등을 이용하여 특징정보를 추출한다.In particular, through the process of detecting and tracking the driver's face using the video sensor, whether the specific behavior is determined using the image data that detects the facial expression change, the eye state, the head gesture, and the like according to the driver's state. In the case of determining, feature information is extracted from the video data by using an active shape model, etc. in order to recognize a driver's eye blink and gaze dispersion.

능동외향모델은 얼굴의 모양과 모양 변화에 대해 통계적으로 모델링한 후 얼굴 추적 및 눈 과 입 영역을 검출하여, 해당영상의 특징정보를 추출하는 모델링방법으로, 능동외향모델의 학습 과정에서 형태 모델을 만들기 위해서 랜드마크라고 부르는 얼굴의 윤곽 특징 요소들은 얼굴 윤곽 및 눈, 코, 입 등에 대해 라벨링된 N개의 점

Figure 112011061063912-pat00001
을 이용한다. 통계적인 모델링을 위해 M개의 학습 데이터
Figure 112011061063912-pat00002
로부터 Procrustes 알고리즘을 이용하여 정렬한 후 학습 집합을 구성한 후 평균적인 형태 모델과 PCA를 이용하여 형태의 변화를 모델링한다. 이렇게 구성된 형태모델
Figure 112011061063912-pat00003
은 아래 수학식 1과 같이 표현할 수 있다.The active outgoing model is a modeling method that statistically models the shape and shape change of the face and then detects the face tracking and eye and mouth area, and extracts the feature information of the corresponding image. The contour features of the face, called landmarks to create, are the face contours and N points labeled for eyes, nose, mouth, etc.
Figure 112011061063912-pat00001
. M training data for statistical modeling
Figure 112011061063912-pat00002
We then use the Procrustes algorithm to sort and construct the learning set, then model the shape change using the average shape model and PCA. Shape model constructed in this way
Figure 112011061063912-pat00003
May be expressed as Equation 1 below.

[수학식 1][Equation 1]

여기서

Figure 112011061063912-pat00005
은 얼굴 형태이고,
Figure 112011061063912-pat00006
은 평균 형태 벡터이고,
Figure 112011061063912-pat00007
는 형태의 공분산에 대한 고유벡터의 열로 이루어진 행렬,
Figure 112011061063912-pat00008
는 형태 파라미터 벡터이다. here
Figure 112011061063912-pat00005
Is in the form of a face,
Figure 112011061063912-pat00006
Is the average shape vector,
Figure 112011061063912-pat00007
Is a matrix of columns of eigenvectors for the covariance of the form,
Figure 112011061063912-pat00008
Is a type parameter vector.

실제 입력 영상에서의 형태는 모델 좌표 프레임에서 영상 좌표 프레임으로의 변환으로 얻어진 형태 파라미터

Figure 112011061063912-pat00009
에 의해 결정되고, 이때 변환은 영상에서 모델의 위치 이동
Figure 112011061063912-pat00010
과 회전 변환
Figure 112011061063912-pat00011
및 크기변환 s의 파라미터로부터 결정된다. 생성된 형태 모델을 이용하여 입력 영상으로부터 얼굴의 특징점을 추출하는 과정은 형태모델의 특징점과 입력 영상에서의 특징점 각각을 일대일로 매칭하는 방법으로 볼 수 있다. The shape in the actual input image is the shape parameter obtained by the conversion from the model coordinate frame to the image coordinate frame.
Figure 112011061063912-pat00009
Determined by, where the transformation is the movement of the model's position in the image.
Figure 112011061063912-pat00010
And rotation conversion
Figure 112011061063912-pat00011
And a parameter of the size conversion s. Extracting the feature points of the face from the input image using the generated shape model can be seen as a method of matching the feature points of the shape model with the feature points in the input image one-to-one.

우선 형태 파라미터

Figure 112011061063912-pat00012
를 0으로 초기화 한 다음, 형태모델의 모양을 수학식 1의 수식을 통해 구한 다음, 형태모델의 모양
Figure 112011061063912-pat00013
과 입력영상에서의 형태 모양
Figure 112011061063912-pat00014
사이의 관계로부터 파라미터 [
Figure 112011061063912-pat00015
]를 구하고, 이를 역 변환하여 모델 형태 프레임으로
Figure 112011061063912-pat00016
을 투영시킨다. 그리고
Figure 112011061063912-pat00017
에 정합되도록 모델의 형태 파라미터
Figure 112011061063912-pat00018
Figure 112011061063912-pat00019
의 값으로 갱신해 나가면서
Figure 112011061063912-pat00020
의 모든 값들이 제한 조건 범위를 만족할 때까지 모델 투영과 파라미터 값 갱신을 반복한다. 이와 같은 방법을 통하여 입력 영상으로부터 얼굴 영역의 위치뿐 만 아니라 눈, 입의 위치를 정확하게 검출하고 이를 연속적인 프레임에 적용함으로써 효율적인 추적이 가능하다. 이때, 능동외향모델 방법을 이용한 얼굴 특징점 검출 및 정합에서는 형태 모델의 초기 값에 따라 그 성능의 정확도가 좌우되는데, 입력 영상의 첫 번째 프레임에 대해서 Adaboost방법을 이용하여 얼굴 영역의 초기 위치와 크기 정보를 추출하여, 이 정보를 얼굴과 몸통모델의 초기 값으로 이용하면, 성능을 향상시킬 수 있다. Type parameter
Figure 112011061063912-pat00012
Is initialized to 0, and then the shape of the shape model is obtained using the equation (1).
Figure 112011061063912-pat00013
Shape shape in and input image
Figure 112011061063912-pat00014
From the relationship between the parameters [
Figure 112011061063912-pat00015
], And inversely transform it into a model frame
Figure 112011061063912-pat00016
Project the. And
Figure 112011061063912-pat00017
The shape parameters of the model to match
Figure 112011061063912-pat00018
To
Figure 112011061063912-pat00019
While updating to the value of
Figure 112011061063912-pat00020
The model projection and parameter value update are repeated until all of the values in X are within the constraint range. Through this method, it is possible to efficiently track not only the position of the face region but also the position of the eyes and mouth from the input image and apply it to successive frames. In this case, the accuracy of the performance depends on the initial value of the shape model in face feature point detection and matching using the active outward model method. The initial position and size information of the face region using the Adaboost method for the first frame of the input image By extracting and using this information as initial values for face and torso models, performance can be improved.

즉, 입력부(100)에서 입력된 데이터가 비디오영상 데이터의 경우, 현재 입력되는 영상이 정상행동인지 특이행동인지를 판단하기 위해서, 형태파라미터

Figure 112011061063912-pat00021
를 구하여 이용하는데,
Figure 112011061063912-pat00022
를 구하는 방법으로는 상술한 능동외향모델을 사용한다. 이전 영상(
Figure 112011061063912-pat00023
)으로 기준으로 형태파라미터
Figure 112011061063912-pat00024
에 의해 현재 영상(
Figure 112011061063912-pat00025
)을 분석하여, 정상행동인지 특이행동인지를 분석할 수 있다.
That is, when the data input from the input unit 100 is video image data, in order to determine whether the current input image is normal behavior or singular behavior, the shape parameter
Figure 112011061063912-pat00021
To obtain and use
Figure 112011061063912-pat00022
The active outgoing model described above is used as a method of obtaining. Previous video (
Figure 112011061063912-pat00023
Shape parameters as standard
Figure 112011061063912-pat00024
By current video (
Figure 112011061063912-pat00025
), It can be analyzed whether it is normal behavior or unusual behavior.

전체토픽분석모듈(320)은 상기 부분토픽분석모듈(310)에서 분석한 부분토픽을 이용하여 전체적인 위험도를 판단하여 상기 입력부(100)를 통해 실시간으로 입력받는 해당상황이 안전운행에 위협이 되는 요소이지 아닌지를 판단하는 전체토픽을 분석한다.The entire topic analysis module 320 determines the overall risk using the partial topic analyzed by the partial topic analysis module 310 and the corresponding situation that is received in real time through the input unit 100 is a threat to safe operation. Analyze the entire topic to determine if it is or not.

상기 부분토픽분석모듈(310)에서 분석한 하나하나의 결과데이터를 '스테이트(state)' 라고 정의하고, 입력부(100)로부터 입력되는 데이터를 '관찰데이터'라 하면, 각 시간에 따른 스테이트와 관찰 데이터를 정의하고, 이들의 관계를 그래피컬 모델로 모델링한다.
When the result data analyzed by the partial topic analysis module 310 is defined as 'state' and the data input from the input unit 100 is 'observation data', state and observation according to each time Define data and model their relationships as graphical models.

도 2 는 본 발명의 일실시예로서 사용하는 Bayesian State Space Model(SSM)의 도식도로서, Bayesian state space model 확률 그래프 모델을 사용하여, 시간에 따른 관찰데이터와 위험 상황간의 관계를 모델링한다. 2 is a schematic diagram of a Bayesian State Space Model (SSM) used as an embodiment of the present invention. The Bayesian state space model uses a probability graph model to model a relationship between observation data and a risk situation over time.

Figure 112011061063912-pat00026
는 각 시간에서의 관찰 데이터이고, 각 스테이트
Figure 112011061063912-pat00027
는 위험 상황들을 원소로 갖는 벡터로써
Figure 112011061063912-pat00028
와 같이 표현된다. 여기서
Figure 112011061063912-pat00029
들은 각각 졸음, 음주, 심장마비 등의 위험 상황들을 나타내며, 0 또는 1 값을 갖는 이진 변수이다. 하지만 위험 상황이 발생했다고 해서 항상 대처를 해야 하는 것은 아닌데, 예를 들어 운전자가 차를 주차한 상태로 잠깐 졸고 있을 경우, 이는 운전 중이 아니므로 사고가 발생할 가능성은 없다. 따라서 스테이트 안에 추가적으로 현재 상황이 위험한지 그렇지 않은지를 나타내는 이진 변수
Figure 112011061063912-pat00030
를 두어, 위험 상황에 대한 대응(action)이 필요한지 불필요한지를 나타내도록 한다. Emission 확률인
Figure 112011061063912-pat00031
는 훈련 데이터로부터 Gaussian Mixture Model(GMM) 로 모델링 할 수 있다.
Figure 112011061063912-pat00026
Is observation data at each time, and each state
Figure 112011061063912-pat00027
Is a vector of elements with dangerous situations
Figure 112011061063912-pat00028
. here
Figure 112011061063912-pat00029
Are risky situations such as drowsiness, drinking, and heart attack, respectively, and are binary variables with zero or one values. However, a dangerous situation does not always require you to respond, for example, if the driver is asleep while parked in the car, it is not driving and there is no chance of an accident. Thus, additionally a binary variable in the state indicating whether the current situation is dangerous or not
Figure 112011061063912-pat00030
To indicate whether an action is needed or unnecessary. Emission probability
Figure 112011061063912-pat00031
Can be modeled as a Gaussian Mixture Model (GMM) from training data.

한편, 토픽모델은 문서 내에서 단어들의 시간적 순서는 고려하지 않기 때문에 특이 행동을 하는 물체를 지속적으로 검출하고 추적하기 어려운 문제가 있다. 또한 특이 행동은 그 다양함으로 인해 제한된 토픽 모델의 수로 정의하여 예측하기 어렵고, 일반적으로 정상 행동에 비해 발생 빈도가 낮으며, 정상 행동의 발생과 동시에 발생하는 경우 등으로 인하여 검출이 어려운 문제가 있다. 기존의 Unsupervise learning 기법 등에 기반한 Latent Dirichelt allocation(LDA)를 이용하여 이동 궤적들을 단어와 문서로 보고 행동의 의미를 나타내는 주제별로 분류하는 방법은 분류된 행동들에 대한 시간적인 순서가 모델링되지 않기 때문에, 예를 들어 이동하는 객체가 그 영역 내에서 역주행하더라도 특이 행동으로 검출하지 못하고, 학습에 사용되는 행동에 대한 개수를 미리 정의해 주어야 하는 단점으로, 학습하지 못한 행동은 검출하기 어려운 문제점이 있음을 감안하여, 본 발명에서는 발생 행동에 대한 토픽 모델 수의 제한을 두지 않고 단어(word)와 문서(document)를 집합화(Co-clustering) 할 수 있는 Hierarchical Dirichlet Processes(HDP) 등을 이용한 Non-Parametric 기법을 이용을 위한 시스템에 적용함은 이미 상술한바 있다.On the other hand, since the topic model does not consider the temporal order of words in a document, it is difficult to continuously detect and track an object with unusual behavior. In addition, the specific behavior is difficult to predict by defining a limited number of topic models due to its variety, and in general, the occurrence frequency is lower than the normal behavior, and it is difficult to detect due to the occurrence of the normal behavior at the same time. Using the Latent Dirichelt allocation (LDA) based on the existing Unsupervise learning technique, the movement trajectories can be classified into words and documents, and classified according to the subjects representing the meaning of the behavior, since the temporal order of the classified behaviors is not modeled. For example, even if a moving object is reversed in the area, it cannot be detected as an unusual behavior, and the number of behaviors used for learning must be defined in advance. In the present invention, a non-parametric technique using Hierarchical Dirichlet Processes (HDP), etc., capable of co-clustering words and documents without limiting the number of topic models for occurrence behavior. Application to the system for using has already been described above.

본 발명의 일예시로서, 졸음검출에 대한 상기 토픽모델을 이용하여 해당 영상의 주제(topic)을 분석하는 방법을 설명하면 다음과 같다. 부분토픽분석모듈(310)에서 매 프레임에서의 상태가 졸음인지 아닌지 판단하는데, 실제로 해당 프레임으로만으로 판단하기는 어렵기 때문에, 앞서 누적된 몇 프레임 혹은 이전의 정보를 이용하여 Likelihood를 계산하여 현재 졸음인지, 아닌지의 확률 값을 계산하여, 임계값인 θ를 기준으로 이하이면 위험으로 판단한다. 위험인지 아닌지의 판단이 부분토픽분석모듈(310)의 결과데이터이고, 전체토픽분석모듈(320)은 상기 부분토픽분석모듈(310)에서 나온 결과데이터 즉 스테이트가 각 위험 상황의 개수(무한으로 가정)만큼 있고, 각각의 스테이트에서 나온 값이 또 상위 스테이트의 입력 값이 되고, 계층적으로 판단되어, 궁극적으로 현재 상황이 안전운행에 위협이 되는 요소인지 아닌지를 분석한다. As an example of the present invention, a method of analyzing a topic of a corresponding image using the topic model for drowsiness detection is described below. The partial topic analysis module 310 determines whether or not the state in each frame is drowsy, but since it is difficult to judge only by the corresponding frame, the current drowsiness is calculated by using Likelihood by using several previously accumulated information or previous information. The probability value of the recognition or not is calculated, and if it is less than or equal to the threshold value θ, it is determined as a risk. Determination of whether or not the risk is the result data of the partial topic analysis module 310, the whole topic analysis module 320 is the result data from the partial topic analysis module 310, that is, the state is the number of each risk situation (assuming infinite) ), And the value from each state becomes the input value of the higher state and is judged hierarchically, ultimately analyzing whether the current situation is a threat to safe operation.

Markov chain model 과 LR(Likelihood-ratio) 결정규칙은 수학식 2과 같다.The Markov chain model and the decision rule for Likelihood-ratio (LR) are shown in Equation 2.

[수학식 2]&Quot; (2) "

Figure 112011061063912-pat00032
Figure 112011061063912-pat00032

여기서

Figure 112011061063912-pat00033
은,
Figure 112011061063912-pat00034
와 같은 일련의 행동에 대한 스테이트를 의미한다.
here
Figure 112011061063912-pat00033
silver,
Figure 112011061063912-pat00034
State for a series of actions, such as

위험도판단대응부(400)는 상기 토픽분석부(300)에서 분석된 매 스테이트의 위험도를 이용하여 위험도가 증가되는 상황인지, 감소되는 상황인지를 판단하여 각각에 해당하는 경우에 대한 대응방안을 출력한다. 위험도증감판단모듈(410)과 대응표시모듈(420)을 포함한다.The risk determination response unit 400 determines whether the risk is increased or decreased by using the risk of each state analyzed by the topic analysis unit 300 and outputs a countermeasure for each case. do. The risk increase / decrease determination module 410 and the corresponding display module 420 are included.

위험도증감판단모듈(410)은 상기 토픽분석부(300)에서 판단한 전체적인 위험도를 이용하여 상기 입력부(100)에서 검출되는 현재상황이 위험도가 증가하는 상황인지, 감소하는 상황인지를 판단하는 것으로, 상기 전체토픽분석모듈(320)에서 사용하는 GMM모델을 사용한다. GMM 모델에서 maximum a posteriori(MAP)로 각 시간에서의 스테이트

Figure 112011061063912-pat00035
를 추론한다. 더불어 transition 확률
Figure 112011061063912-pat00036
을 이용하여 위험도증감을 판단할 수 있다. 상기 위험도 분석부의 결과데이터인 스테이트간의 transition 확률을 분석한다.
The risk increase / decrease determination module 410 determines whether the current situation detected by the input unit 100 increases or decreases the risk by using the overall risk determined by the topic analyzer 300. The GMM model used in the whole topic analysis module 320 is used. State at each time with maximum a posteriori (MAP) in GMM model
Figure 112011061063912-pat00035
Infer With transition probability
Figure 112011061063912-pat00036
The risk increase can be judged using. Analyze the probability of transition between states, the result data of the risk analysis unit.

대응표시모듈(420)은 상기 위험도증감판단모듈(410)에서 판단한 위험도의 증감여부에 따라 대응방안을 출력하고, 운전자의 반응여부에 따라 이에 대응한 대응방안을 출력한다. 위험도가 증가하는 경우, 경고를 울리고 상황에 따라서 엔진가동을 정지시키는 대응방안을 출력할 수 있고, 위험도가 감소하는 경우, 정상적인 운전이 가능하게 제어할 수 있다. 또한 출력한 대응을 운전자가 수행하는지 여부에 따라서 더 강도 높은 대응방안을 출력할 수도 있고, 강도를 낮춰 대응방안을 출력할 수도 있다. The corresponding display module 420 outputs a corresponding method according to whether the risk increases or decreases determined by the risk increase / decrease determination module 410, and outputs a corresponding method according to the driver's response. When the risk is increased, a warning may be issued and a countermeasure for outputting the engine may be output depending on the situation, and when the risk is reduced, normal operation may be controlled to be possible. In addition, depending on whether the driver performs the output response, a higher intensity response may be output, or the intensity may be reduced to output the response.

대응표시모듈(420)은 MDP(Markov Decision Process)을 이용한다. MDP (Markov Decision Process)는 운전자가 특정 환경에서 어떻게 대처해 나가는지에 관한 모델로서, state set, action set, state transition probability, reward function으로 정의된다. 주변 환경에 따라 스테이트(state)가 정의한다. 상기 토픽분석부(300)에서 분석한 결과데이터가 스테이트가 된다. 운전자에게 출력되는 대응(action)방안은 운전자와 보행자가 위험상황에 처하는 것을 막기 위한 행위들로 구성된다.The correspondence display module 420 uses a Markov Decision Process (MDP). The Markov Decision Process (MDP) is a model of how a driver handles a particular environment. It is defined by state set, action set, state transition probability, and reward function. State is defined according to the surrounding environment. The result data analyzed by the topic analysis unit 300 becomes a state. The action that is output to the driver consists of actions to prevent the driver and pedestrian from being in danger.

상기 MDP를 보완하기 위해 POMDP(Partially Observable Markov Decision Process)를 이용한다. 이는 상태의 정확한 추론이 불가능한 상황일때, MDP에 부분적으로 관측 가능한 데이터를 추가하여 관찰하는 것으로, 스테이트를 정확히 알 수 없고, 대신에 부분적으로 데이터 검출만이 가능할 때, 이용할 수 있다. 수행과정은 MDP와 동일하나, POMDP의 파라미터들은 짧은 시간내에 학습하기 위해서 value iteration 알고리즘을 사용한다.
To complement the MDP, a Partially Observable Markov Decision Process (POMDP) is used. This can be used when it is impossible to infer the correct state of the state, by observing by adding partially observable data to the MDP, when the state is not known accurately, but only partial data detection is possible instead. The process is the same as MDP, but the parameters of POMDP use value iteration algorithm to learn in a short time.

대응방안(action)의 종류에는 다양하고 여러개가 있을 수 있으나, 일예시로서, 경고 알림과 불빛으로 경고하는 대응방안 1(action 1), 사용자 의자와 안전벨트에 직접적인 행동(진동 등)을 취하고 차량 후미 경고등을 컨트롤하여 경고하는 대응방안 2 (action 2), 차량의 주행 속도를 강제적으로 컨트롤하고, 차량 후미 경고등 컨트롤하여 경고하는 대응방안 3(action 3) 및 차량 강제 제동을 실시하고, 차량 후미 경고등 컨트롤하여 경고하는 대응방안 4(action 4) 등이 있을 수 있으나, 이에 한정되는 것은 아니다. 필요한 대응방안(action)이 있는 경우에는 추가할 수 있으며, 필요없는 대응방안(action)이 있는 경우에는 생략할 수 있다.There may be various and various types of actions, but as an example, action 1 warns with a warning notification and a light, takes direct action (vibration, etc.) on the user's chair and seat belt, Measure 2 (action 2) to control the warning of the rear warning light, forcibly control the running speed of the vehicle, and response 3 (action 3) to force the vehicle rear warning light There may be a countermeasure 4 (action 4) for controlling and warning, but the present invention is not limited thereto. If there is a required action, it can be added. If there is no action required, it can be omitted.

state transition probability는 어떤 스테이트에서 운전자가 특정 대응방안(action)을 취했을 때 다음에 어떤 스테이트로 변하는지에 관한 정보를 뜻한다. State transition probability is information about which state changes to the next state when the driver takes a specific action.

Reward는 현재 스테이트와 대응방안(action) 그리고 다음 스테이트의 함수로 표현되는데, 자동차에서는 운전자와 보행자의 안전을 최우선으로 하도록 Reward를 설정한다. 예를 들어, 상기 토픽분석부(300)에서 사용자의 특정행위를 특이행동으로서 운전 부주의(한손으로 핸들을 잡거나 옆사람과 이야기를 하는 경우 등)라고 분석하는 경우, 이러한 결과데이터를 하나의 스테이트로 보고, 이를 운전자에게 대응방안 1 (action 1)을 출력한다. 대응방안 1(action 1)로 바른자세로 운전할 것을 요구하는데, 이때 사용자가 이러한 대응방안 1(action 1)에 반응하지 않고 계속적으로 잘못하는 경우 시스템은 더 강도 높은 대응방안 2(action 2)을 제어한다. 그리고 운전자가 바른 운전자세로 돌아왔을 때는 대응방안 3(action 3)으로 진행하지 않고, 한 단계 낮은 대응방안 1(action 1)을 출력하든지, 대응방안(action) 출력을 중지한다. 대응방안(action)에 따라 다음 대응방안(action)을 출력하는 것을 Reward라 한다.Rewards are expressed as a function of the current state, the action, and the next state. In a car, the reward is set to give the driver and pedestrians priority. For example, when the topic analysis unit 300 analyzes the user's specific behavior as driving carelessness (such as holding a steering wheel with one hand or talking with the person next to him) as a specific behavior, the result data is one state. Report it to the driver and output action 1. It requires driving in the correct posture with Action 1, where the system controls the more intense Action 2 if the user does not respond to this Action 1 and continues to make mistakes. . When the driver returns to the correct driver posture, the driver does not proceed to the response 3, but outputs the lower response 1, or stops outputting the response. The output of the next action according to the action is called Reward.

다른 일예로, 운전자가 평소보다 과속을 하고, 차선을 지키지 않으며, 생체신호도 좋지 않은 경우, 토픽분석부(300)는 이를 특이행동으로 인지하고 운전자에게 대응방안 1(action 1)을 출력한다. 반응이 없는 경우 대응방안 2(action 2)을 취하고, 그럼에도 다른 대응이 없는 경우 대응방안 3,4(action 3,4)로 단계적으로 제어한다. 각각의 대응방안(action)출력 이후에 발생하는 운전자의 반응을 판단하여 운전자가 즉각적인 반응을 보이는 경우 대응은 다시 초기상태로 돌아온다.
As another example, when the driver speeds more than usual, does not follow the lane, and the biological signal is not good, the topic analyzer 300 recognizes this as an unusual action and outputs a response 1 to the driver. If there is no reaction, take action 2 (action 2), and if there is no other action, control step by step 3,4 (action 3, 4). When the driver responds immediately by judging the driver's response that occurs after each action output, the response returns to its initial state.

도 3 은 본 발명의 일실시예에 따른 사용자 적응형 특이행동 검출기반의 안전운전보조방법에 관한 흐름도이다. 이를 참고하여 안전운전보조방법에 대해 설명하면 다음과 같다.3 is a flowchart illustrating a safe driving assistance method of a user adaptive singular behavior detector panel according to an embodiment of the present invention. Referring to this, the safe driving assistance method is as follows.

데이터베이스부(200)가 특이행동여부를 판단하기 위한 각각의 데이터에 대한 정상행위 기준값을 저장한다(S10). 특이행동여부를 판단하는 각각의 데이터는 입력부(100)에 저장된 데이터로서, 운전자 건강상태정보, 운전자 운전패턴정보, 운전자 부주의 정보, 차량의 주행정보와 도로환경정보를 포함한다. 자세한 데이터내용은 상술한 바 있다.The database unit 200 stores the normal behavior reference value for each data for determining whether to behave unusually (S10). Each of the data for determining whether a particular behavior is the data stored in the input unit 100 includes driver health status information, driver driving pattern information, driver careless information, vehicle driving information and road environment information. Detailed data contents have been described above.

이때, 데이터베이스부(200)는 운전자적응형행동입력모듈(130)로부터 운전자의 운전패턴에 따라 정상행위 기준값을 수정하여 저장한다(S20). 후천적인 학습을 통해 운전자의 운전패턴을 수정할 수 있지만, 이미 자신의 운전패턴이 파악된 데이터의 경우는 선천적으로 S10 단계에서 기준값을 저장할 때, 수정하여 저장할 수 있다.At this time, the database unit 200 modifies and stores the normal behavior reference value according to the driver's driving pattern from the driver adaptive behavior input module 130 (S20). Although the driver's driving pattern can be modified through acquired learning, in the case of data whose driving pattern is already known, it can be modified and stored when the reference value is naturally stored in step S10.

입력부(100)가 차량내부 및 외부의 특이행동을 검출한다(S30). 차량내부행동검출모듈(110)은 차량 내부의 특이행동을 추적하기 위해 운전자 건강상태정보, 운전자 운전패턴정보, 운전자부주의 정보를 검출한다(S31). 자세한 데이터내용은 상술한 바 있다. 차량외부행동검출모듈(120)은 차량의 외부 상황의 특이행동을 추적하기 위해 차량외부주변의 정보를 검출한다(S32). 나아가, 통신모듈은 통신가능 영역 내에 있는 차량들의 운행상태정보를 서로 공유하여 서로의 운행상황정보를 입력받는다(S33).The input unit 100 detects singular behavior inside and outside the vehicle (S30). In-vehicle behavior detection module 110 detects driver health status information, driver driving pattern information, driver careless information to track the specific behavior in the vehicle (S31). Detailed data contents have been described above. The vehicle exterior behavior detection module 120 detects information about the exterior of the vehicle to track the unusual behavior of the external situation of the vehicle (S32). Further, the communication module receives the driving status information of each other by sharing the driving status information of the vehicles in the communication area (S33).

토픽분석부(300)는 상기 S30 단계에서 검출된 차량 내외부적인 데이터를 이용하여 특정위치에서 발생하는 역주행, 과속, 차선위반, 사용자의 졸음 유무 등의 각각의 행동에 관하여 부분토픽을 분석한다(S40). 상술한 바와 같이 토픽모델을 사용하며, 부분토픽을 분석하기 위해서는 S10 내지 S20 단계에서 저장된 각각의 데이터에 대한 통상적인 정상행위 기준값을 이용하여 특이행동인지 여부를 판단한다. 그 방법에 대해서는 상술한 바와 같으며, 차량외부행동검출모듈(120)과 차량내부행동검출모듈(110)로부터 입력받은 데이터를 이용하고, 특히 비디오센서를 사용하여 얻은 비디오영상의 경우는 능동외향모델을 사용하여 특징정보를 추출하여 특이행동여부를 판단한다.The topic analysis unit 300 analyzes partial topics about each behavior such as reverse driving, speeding, lane violation, presence or absence of a user's drowsiness, etc. using the internal and external data detected in step S30 (S40). ). As described above, the topic model is used, and in order to analyze the partial topic, it is determined whether it is an unusual behavior by using normal normal behavior reference values for each data stored in steps S10 to S20. The method is the same as described above, and the active outward model is used for the video image obtained by using the data received from the vehicle exterior behavior detection module 120 and the vehicle interior behavior detection module 110, and in particular by using a video sensor. The feature information is extracted using to determine the specific behavior.

토픽분석부(300)는 상기 S40 단계에서 분석된 부분토픽을 이용하여 전체토픽을 분석한다(S50). 전체토픽 역시 토픽모델을 사용하는데, 상기 S40 단계에서 분석한 하나하나의 분석토픽을 '스테이트'라고 정의하고, 이를 이용하여 현재상황이 위험한지 아닌지에 대한 위험도분석을 한다.The topic analysis unit 300 analyzes the entire topic using the partial topic analyzed in step S40 (S50). The whole topic also uses a topic model, which defines one analysis topic analyzed at step S40 as 'state', and uses this to analyze the risk of whether the current situation is dangerous or not.

위험도판단대응부(400)는 상기 S50 단계에서 분석된 위험도를 이용하여, 현재 위험도가 증가되고 있는지 여부를 판단한다(S60). 위험도가 증가된다고 판단되는 경우, 그에 맞는 대응방안(action)이 출력되며(S71), 위험도가 증가되지 않는다고 판단되는 경우, 운전자의 운전패턴을 판단하는 S101 단계로 진입한다(S72). 위험도를 판단하도 대응하는 방법에 대해서는 MDP 내지 POMDP를 사용하는데, 이미 상술한바 있다.The risk determination response unit 400 determines whether the current risk is increased by using the risk analyzed in step S50 (S60). When it is determined that the risk is increased, a corresponding action is output (S71), and when it is determined that the risk is not increased, the process proceeds to step S101 in which the driver's driving pattern is determined (S72). The MDP to the POMDP is used as a method of responding to the risk even after the risk is determined, which has been described above.

위험도판단대응부(400)는 상기 S71 단계에서 출력한 대응방안(action)에 대해서, 운전자의 반응여부를 판단하는데(S80), 이때 운전자가 대응방안(action)에 대해서 반응이 없는 경우, 또 다른 대응방안(action)지시를 하며(S91), 반응이 있는 경우는 다른 대응방안(action)지시를 중단한다(S92).The risk determination response unit 400 determines whether or not the driver responds to the response action output in step S71 (S80). In this case, if the driver does not respond to the response action, another In response to an action instruction (S91), if there is a response, another action instruction is suspended (S92).

입력부(100)는 후천적인 학습을 통해 운전자의 운전패턴을 인지하여 이를 특이행동여부를 판단하는 각각의 데이터에 대한 통상적인 정상행위 기준값에 반영한다(S100). 후천적인 학습을 통해 상기 S20 단계로 절차를 회귀하여 운전자의 인식을 통해 운전자 개개인의 운전패턴에 따라 특이행동여부를 판단하는 각각의 데이터에 대한 통상적인 정상행위 기준값을 수정하여 저장한다(S20).
The input unit 100 recognizes the driver's driving pattern through acquired learning and reflects it to the normal normal behavior reference value for each data for determining whether the driver has a specific behavior (S100). The process returns to the step S20 through acquired learning, and corrects and stores the normal normal behavior reference value for each data for determining whether the driver behaves in accordance with the individual driver's driving pattern through the driver's recognition (S20).

이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.While the present invention has been particularly shown and described with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. It will be appreciated by those skilled in the art that numerous changes and modifications may be made without departing from the invention. And all such modifications and changes as fall within the scope of the present invention are therefore to be regarded as being within the scope of the present invention.

100; 입력부 110; 차량내부행동검출모듈
120; 차량외부행동검출모듈 130; 운전자적응형행동입력모듈
200; 데이터베이스부 210; 차량내부데이터모듈
220; 차량외부데이터모듈 230; 운전자적응형데이터모듈
300; 토픽분석부 310; 부분토픽분석모듈
320; 전체토픽분석모듈 400; 위험도판단대응부
410; 위험도증감판단모듈 420; 대응표시모듈
100; An input unit 110; In-vehicle Behavior Detection Module
120; Vehicle exterior behavior detection module 130; Driver adaptive action input module
200; A database unit 210; In-vehicle data module
220; Vehicle external data module 230; Driver Adaptive Data Module
300; Topic analysis unit 310; Partial Topic Analysis Module
320; All topic analysis module 400; Risk Assessment Response Department
410; Risk increase determination module 420; Correspondence display module

Claims (8)

차량의 내부 및 외부의 특이행동여부를 판단하기 위한 데이터를 검출하고, 운전자의 운전패턴에 따른 데이터를 입력받는 입력부(100);
상기 입력부(100)로부터 입력받은 데이터 및 차량의 내부 및 외부의 특이행동여부를 판단하기 위한 정상행위 기준값을 저장하는 데이터베이스부(200);
상기 데이터베이스부(200)에 저장된 기준값을 이용하여, 상기 입력부(100)에서 입력받는 데이터에 대한 특이행동인지여부 및 위험도를 분석하는 토픽분석부(300); 및
상기 토픽분석부(300)에서 분석된 위험도를 이용하여, 위험도 증감여부에 따라 대응방안을 출력하도록 제어하는 위험도판단대응부(400); 를 포함하되,
상기 토픽분석부(300)는,
상기 입력부(100)를 통해 실시간으로 입력받는 해당상황이 특이행동인지 여부를 판단하여 부분토픽을 분석하는 부분토픽분석모듈(310); 및
상기 부분토픽분석모듈(310)에서 분석한 부분토픽을 이용하여 전체적인 위험도를 판단하여 상기 입력부(100)를 통해 입력받는 해당상황이 안전운행에 위협이 되는 요소인지 아닌지에 관한 전체토픽을 분석하는 전체토픽분석모듈(320); 을 포함하는 사용자 적응형 특이행동 검출기반의 안전운전보조시스템.
An input unit 100 that detects data for determining whether the vehicle is singly behaving inside and outside the vehicle and receives data according to a driver's driving pattern;
A database unit 200 for storing data received from the input unit 100 and a normal behavior reference value for determining whether the vehicle has an unusual behavior inside and outside the vehicle;
A topic analysis unit (300) for analyzing whether or not a specific behavior and risk of the data received from the input unit (100) by using the reference value stored in the database unit (200); And
A risk determination counterpart 400 for controlling the output of a countermeasure according to whether the risk is increased or decreased by using the risk analyzed by the topic analyzer 300; Including but not limited to:
The topic analysis unit 300,
A partial topic analysis module 310 for analyzing a partial topic by determining whether the corresponding situation received in real time through the input unit 100 is an unusual behavior; And
Determining the overall risk using the partial topic analyzed by the partial topic analysis module 310 to analyze the entire topic on whether or not the corresponding situation received through the input unit 100 is a threat to safe operation. Topic analysis module 320; Safe operation assistance system of the user adaptive singular behavior detector panel comprising a.
제 1 항에 있어서,
상기 입력부(100)는,
차량에 탑승한 운전자의 얼굴, 행동, 및 생체신호변화 중 적어도 하나를 검출하는 차량내부행동검출모듈(110); 및
차량의 주행정보 및 도로환경정보 중 적어도 하나를 검출하는 차량외부행동검출모듈(120); 을 포함하는 사용자 적응형 특이행동 검출기반의 안전운전보조시스템.
The method of claim 1,
The input unit (100)
An internal vehicle behavior detection module 110 that detects at least one of a face, an action, and a biosignal change of a driver in the vehicle; And
A vehicle external behavior detection module 120 for detecting at least one of driving information and road environment information of the vehicle; Safe operation assistance system of the user adaptive singular behavior detector panel comprising a.
삭제delete 제 2 항에 있어서,
상기 차량외부행동검출모듈(120)은,
통신가능 영역 내에 있는 차량들의 운행상태정보를 서로 공유하여 서로의 운행상황정보를 입력받을 수 있는 통신모듈; 을 포함하는 사용자 적응형 특이행동 검출기반의 안전운전보조시스템.
3. The method of claim 2,
The vehicle external behavior detection module 120,
A communication module configured to receive driving state information of each other by sharing driving state information of vehicles in a communication area; Safe operation assistance system of the user adaptive singular behavior detector panel comprising a.
제 1 항에 있어서,
상기 토픽분석부(300)는,
상기 입력부(100)에서 입력받은 차량 내외부 행동데이터와 이러한 데이터들의 특징을 종합적으로 조합한 데이터를 집합화(Co-Clustering)하여 상기 입력부(100)를 통해 입력받는 해당상황이 특이행동인지 분석하고, 분석한 데이터를 가지고 상기 해당상황이 안전운행에 위협이 되는 요소인지 아닌지를 판단하는 사용자 적응형 특이행동 검출기반의 안전운전보조시스템.
The method of claim 1,
The topic analysis unit 300,
Analyze whether the corresponding situation received through the input unit 100 is singular behavior by collecting (Co-Clustering) a combination of the internal and external behavior data received from the input unit 100 and data combining the characteristics of these data, A safe driving assistance system for a user adaptive singularity behavior detector panel that uses the analyzed data to determine whether the situation is a threat to safe operation.
삭제delete 제 1 항에 있어서,
상기 부분토픽분석모듈(310)은,
상기 입력부(100)를 통해 입력받는 해당상황이 형태를 포함한 영상데이터인 경우, 통계적 형태모델의 특징점과 입력영상에 포함된 형태의 특징점을 일대일 매칭하여, 매칭된 특징점들 사이의 관계로부터 각각의 형태파라미터를 구하고, 수학식 1을 이용하여 역변환하고, 상기 영상데이터에 포함된 형태의 위치정보를 분석하여, 특이행동인지 여부를 판단하는 부분토픽을 분석하는 사용자 적응형 특이행동 검출기반의 안전운전보조시스템.
[수학식 1]
Figure 112013010922057-pat00037

여기서
Figure 112013010922057-pat00038
은 영상데이터에 포함된 형태,
Figure 112013010922057-pat00039
은 평균 형태 벡터,
Figure 112013010922057-pat00040
는 형태의 공분산에 대한 고유벡터의 열로 이루어진 행렬,
Figure 112013010922057-pat00041
는 형태 파라미터 벡터.
The method of claim 1,
The partial topic analysis module 310,
When the corresponding situation received through the input unit 100 is image data including a shape, the feature points of the statistical shape model and the feature points of the shape included in the input image are matched one-to-one, and each shape is formed from the relationship between the matched feature points. Safe driving assistance of a user adaptive singularity behavior detector panel that obtains parameters, performs inverse transformation using Equation 1, and analyzes a partial topic that determines whether a behavior is abnormal by analyzing position information of a form included in the image data. system.
[Equation 1]
Figure 112013010922057-pat00037

here
Figure 112013010922057-pat00038
Is a form included in the image data,
Figure 112013010922057-pat00039
Is the average form vector,
Figure 112013010922057-pat00040
Is a matrix of columns of eigenvectors for the covariance of the form,
Figure 112013010922057-pat00041
Is a type parameter vector.
제 1 항에 있어서,
상기 위험도판단대응부(400)는,
상기 토픽분석부(300)에서 판단한 전체적인 위험도를 이용하여 위험도의 증감여부를 판단하는 위험도증감판단모듈(410); 및
상기 위험도증감판단모듈(410)에서 판단한 위험도의 증감여부에 따라 대응방안을 출력하고, 운전자의 반응여부에 따라, 대응방안여부를 제어하는 대응표시모듈(420); 을 포함하는 사용자 적응형 특이행동 검출기반의 안전운전보조시스템.

The method of claim 1,
The risk determination counterpart 400 is,
A risk increase / determination module 410 that determines whether the risk is increased or decreased by using the overall risk determined by the topic analysis unit 300; And
A corresponding display module 420 for outputting a countermeasure according to whether the risk increases or decreases determined by the risk increase / decrease determination module 410 and controlling the countermeasure according to the driver's response; Safe operation assistance system of the user adaptive singular behavior detector panel comprising a.

KR1020110078637A 2011-08-08 2011-08-08 Advanced driver assistance system for safety driving using driver adaptive irregular behavior detection KR101276770B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110078637A KR101276770B1 (en) 2011-08-08 2011-08-08 Advanced driver assistance system for safety driving using driver adaptive irregular behavior detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110078637A KR101276770B1 (en) 2011-08-08 2011-08-08 Advanced driver assistance system for safety driving using driver adaptive irregular behavior detection

Publications (2)

Publication Number Publication Date
KR20130016606A KR20130016606A (en) 2013-02-18
KR101276770B1 true KR101276770B1 (en) 2013-06-20

Family

ID=47895922

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110078637A KR101276770B1 (en) 2011-08-08 2011-08-08 Advanced driver assistance system for safety driving using driver adaptive irregular behavior detection

Country Status (1)

Country Link
KR (1) KR101276770B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160134389A (en) 2015-05-15 2016-11-23 휴먼플러스(주) Smart seat belt system and method for driving environment change
US9776644B2 (en) 2014-07-10 2017-10-03 Hyundai Mobis Co., Ltd. On-vehicle situation detection apparatus and method
KR20190027657A (en) * 2017-09-07 2019-03-15 삼성전자주식회사 Apparatus and method for assisting driving of a vehicle
KR20220036870A (en) * 2020-09-15 2022-03-23 독터. 인제니어. 하.체. 에프. 포르쉐 악티엔게젤샤프트 Method, system, and computer program product for determining safety-critical traffic scenarios for driver assistance systems (das) and highly automated driving functions (had)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101698781B1 (en) * 2013-12-16 2017-02-01 엘지전자 주식회사 Driver assistance apparatus and Vehicle including the same
KR102043060B1 (en) * 2015-05-08 2019-11-11 엘지전자 주식회사 Autonomous drive apparatus and vehicle including the same
KR101710007B1 (en) * 2015-06-26 2017-02-24 성균관대학교산학협력단 Methods for linguistically modeling of driver's behavior and recognizing of driver's behavior, and systems for performing the same
KR101996045B1 (en) * 2017-07-27 2019-07-04 주식회사 키즈먼트 Vehicle running reservation trade service system and method thereof
WO2019089949A1 (en) * 2017-11-01 2019-05-09 Praeveni, Sbc Methods and systems for a medical screening system
KR101998703B1 (en) * 2018-01-17 2019-07-11 (주) 블루테크솔루션 A vehicle control system
WO2021006398A1 (en) * 2019-07-11 2021-01-14 엘지전자 주식회사 Vehicle service providing method in autonomous driving system and device therefor
KR20220056734A (en) 2020-10-28 2022-05-06 에스케이텔레콤 주식회사 Apparatus for monitoring driver condition using side-view camera and method therefor
KR102411316B1 (en) * 2021-07-28 2022-06-22 박덕근 Method for providing worker safty analysis service in construction site and server and system for performing the same
CN116091250B (en) * 2023-02-09 2023-12-15 中国人民健康保险股份有限公司深圳分公司 Insurance wind control management method and system
CN117334066A (en) * 2023-09-20 2024-01-02 广州亿胜鑫网络科技有限公司 Risk analysis method, system, terminal and storage medium based on vehicle data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002260146A (en) * 2001-03-02 2002-09-13 Toyota Central Res & Dev Lab Inc Driver risk recognition characteristic storage method, driver risk computing system, driving ability diagnosis and evaluation system, and preventive safety system for vehicle
JP2006205773A (en) * 2005-01-25 2006-08-10 Fujitsu Ten Ltd Driving supporting device
JP2007203913A (en) * 2006-02-02 2007-08-16 Denso Corp Driving assistance device and driving assistance system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002260146A (en) * 2001-03-02 2002-09-13 Toyota Central Res & Dev Lab Inc Driver risk recognition characteristic storage method, driver risk computing system, driving ability diagnosis and evaluation system, and preventive safety system for vehicle
JP2006205773A (en) * 2005-01-25 2006-08-10 Fujitsu Ten Ltd Driving supporting device
JP2007203913A (en) * 2006-02-02 2007-08-16 Denso Corp Driving assistance device and driving assistance system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9776644B2 (en) 2014-07-10 2017-10-03 Hyundai Mobis Co., Ltd. On-vehicle situation detection apparatus and method
KR20160134389A (en) 2015-05-15 2016-11-23 휴먼플러스(주) Smart seat belt system and method for driving environment change
KR20190027657A (en) * 2017-09-07 2019-03-15 삼성전자주식회사 Apparatus and method for assisting driving of a vehicle
KR102452636B1 (en) 2017-09-07 2022-10-11 삼성전자주식회사 Apparatus and method for assisting driving of a vehicle
KR20220036870A (en) * 2020-09-15 2022-03-23 독터. 인제니어. 하.체. 에프. 포르쉐 악티엔게젤샤프트 Method, system, and computer program product for determining safety-critical traffic scenarios for driver assistance systems (das) and highly automated driving functions (had)
KR102658770B1 (en) 2020-09-15 2024-04-22 독터. 인제니어. 하.체. 에프. 포르쉐 악티엔게젤샤프트 Method, system, and computer program product for determining safety-critical traffic scenarios for driver assistance systems (das) and highly automated driving functions (had)

Also Published As

Publication number Publication date
KR20130016606A (en) 2013-02-18

Similar Documents

Publication Publication Date Title
KR101276770B1 (en) Advanced driver assistance system for safety driving using driver adaptive irregular behavior detection
US10246014B2 (en) System and method for driver distraction determination
Alkinani et al. Detecting human driver inattentive and aggressive driving behavior using deep learning: Recent advances, requirements and open challenges
Kaplan et al. Driver behavior analysis for safe driving: A survey
US20200207358A1 (en) Contextual driver monitoring system
US9592828B2 (en) Long term driving danger prediction system
Rezaei et al. Simultaneous analysis of driver behaviour and road condition for driver distraction detection
Zinebi et al. Driver behavior analysis methods: Applications oriented study
Guria et al. Iot-enabled driver drowsiness detection using machine learning
Yazdi et al. Driver drowsiness detection by identification of yawning and eye closure
Rani et al. Development of an Automated Tool for Driver Drowsiness Detection
JP7269694B2 (en) LEARNING DATA GENERATION METHOD/PROGRAM, LEARNING MODEL AND EVENT OCCURRENCE ESTIMATING DEVICE FOR EVENT OCCURRENCE ESTIMATION
KR102401607B1 (en) Method for analyzing driving concentration level of driver
Lin et al. Innovative Framework for Distracted-Driving Alert System Based on Deep Learning
Rendon-Velez et al. Progress with situation assessment and risk prediction in advanced driver assistance systems: A survey
RU2703341C1 (en) Method for determining hazardous conditions on public roads based on monitoring the situation in the cabin of a vehicle
Chitra et al. A Novel Approach for Fatigue Driver Prediction using Deep Learning Model
WO2021262166A1 (en) Operator evaluation and vehicle control based on eyewear data
Srilakshmi et al. Automated Driver Drowsiness Detection System using Computer Vision and Machine Learning
Fasanmade et al. Context-Aware Quantitative Risk Assessment Machine Learning Model for Drivers Distraction
KASHEVNIK et al. PERSONALIZED DANGEROUS SITUATION DETECTION IN VEHICLE CABINS USING SMARTPHONE SENSORS
Pandey et al. Using Machine Learning to Determine the Motorist Somnolence
Malathi et al. A Comprehensive Evaluation of Driver Drowsiness Identification System using Camera based Improved Deep Learning Methodology
Tahoor et al. Driver Drowsiness Detection for Safety Assistance
JP2024525153A (en) DEVICE AND METHOD FOR PREDICTING COLLASONS, PREDICTING INTERSECTION VIOLATIONS AND/OR DETERMINING AREAS OF INTEREST FOR OBJECT DETECTION IN CAMERA IMAGES - Patent application

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160526

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180525

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190603

Year of fee payment: 7