KR20200055171A - Apparatus and method for supporting safe driving - Google Patents

Apparatus and method for supporting safe driving Download PDF

Info

Publication number
KR20200055171A
KR20200055171A KR1020180135690A KR20180135690A KR20200055171A KR 20200055171 A KR20200055171 A KR 20200055171A KR 1020180135690 A KR1020180135690 A KR 1020180135690A KR 20180135690 A KR20180135690 A KR 20180135690A KR 20200055171 A KR20200055171 A KR 20200055171A
Authority
KR
South Korea
Prior art keywords
index
driver
driving
vehicle
passenger
Prior art date
Application number
KR1020180135690A
Other languages
Korean (ko)
Other versions
KR102546441B1 (en
Inventor
전병환
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020180135690A priority Critical patent/KR102546441B1/en
Publication of KR20200055171A publication Critical patent/KR20200055171A/en
Application granted granted Critical
Publication of KR102546441B1 publication Critical patent/KR102546441B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60JWINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
    • B60J3/00Antiglare equipment associated with windows or windscreens; Sun visors for vehicles
    • B60J3/04Antiglare equipment associated with windows or windscreens; Sun visors for vehicles adjustable in transparency
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K26/00Arrangements or mounting of propulsion unit control devices in vehicles
    • B60K26/02Arrangements or mounting of propulsion unit control devices in vehicles of initiating means or elements
    • B60K26/021Arrangements or mounting of propulsion unit control devices in vehicles of initiating means or elements with means for providing feel, e.g. by changing pedal force characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/02Brake-action initiating means for personal initiation
    • B60T7/04Brake-action initiating means for personal initiation foot actuated
    • B60T7/042Brake-action initiating means for personal initiation foot actuated by electrical means, e.g. using travel or force sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2220/00Monitoring, detecting driver behaviour; Signalling thereof; Counteracting thereof
    • B60T2220/04Pedal travel sensor, stroke sensor; Sensing brake request
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/089Driver voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/12Brake pedal position

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)

Abstract

Disclosed are an apparatus and a method of supporting safe driving. The apparatus for supporting safe driving comprises: an emotional index detection unit which detects the emotional index of a driver and passengers by using at least one of a vision index in accordance with the movements of eyes, facial expressions, and dazzling of eyes of each of the driver and passengers, voice index in accordance with characteristics of voice signals, and behavior index in accordance with movements; a driver danger index detection unit which detects the driver danger index by using driving information of the driver′s own vehicle and surrounding environment information; a driving difficulty detection unit which detects the driving difficulty in accordance with the driving position of the driver′s own vehicle; a vehicle driving unit which controls the autonomous driving of the driver′s own vehicle; and a control unit which allows the driver′s own vehicle to drive into a safe region by controlling the vehicle driving unit in accordance with whether the emotional index, the driver danger index, and the driving difficulty are included in a preset safe area or not.

Description

안전운전 지원 장치 및 방법{APPARATUS AND METHOD FOR SUPPORTING SAFE DRIVING}Safe driving support device and method {APPARATUS AND METHOD FOR SUPPORTING SAFE DRIVING}

본 발명은 안전운전 지원 장치 및 방법에 관한 것으로서, 보다 상세하게는 운전자와 동승자의 감정지수, 운전자 위험지수 및 운전 난이도를 종합적으로 고려하여 현재 운전 중인 자동차의 안전성 여부를 판단하고 판단 결과에 따라 차량의 조향 및 제동 제어를 통해 차량을 안전지역으로 이동시켜 사고를 미연에 방지할 뿐 아니라 운전자와 동승자의 감정상태가 개선되도록 하여 주행 안전성을 높일 수 있도록 하는 안전운전 지원 장치 및 방법에 관한 것이다.The present invention relates to a safe driving support device and method, and more specifically, to determine whether the vehicle is currently driving safely by considering the driver's and passenger's emotional index, driver's risk index, and driving difficulty in general, and to determine whether the vehicle is safe. It relates to a safe driving support device and method for moving a vehicle to a safe area through steering and braking control to prevent accidents in advance, and to improve driving feelings by improving the emotional state of drivers and passengers.

일반적으로, 도로에서 차량 수의 증가, 제한된 도로 용량, 및 현대 생활과 연관된 스트레스 원인과 같은 다양한 요인은 로드 레이지 및/또는 다른 스트레스 유발 사고를 초래할 수 있는 높은 스트레스 상태를 악화시키는 경향이 있다. In general, various factors, such as increased number of vehicles on the road, limited road capacity, and causes of stress associated with modern life, tend to exacerbate high stress conditions that can lead to road rage and / or other stress-causing accidents.

종래의 도로 안전에 대한 접근법은 이들 유형의 사고를 완화하지 못하는 실정이다. Conventional approaches to road safety do not mitigate these types of accidents.

최근 들어 자율주행 제어 시스템은 운전자의 감성 특성을 반영하여 자율 주행 차량을 제어하는 기술이 일부 개시되었으나, 운전 상황이나 외부 상황 등을 종합적으로 고려하여 안전운전을 유도하기에는 미흡한 실정이다. Recently, the autonomous driving control system has partially disclosed a technology for controlling an autonomous vehicle by reflecting the driver's emotional characteristics, but it is insufficient to induce safe driving by comprehensively considering driving conditions or external situations.

본 발명의 배경기술은 대한민국 공개특허공보 10-2017-0109758호(2017.10.10)의 '차량 음성 인터페이스 장치'에 개시되어 있다.Background art of the present invention is disclosed in 'Vehicle Voice Interface Device' of Korean Patent Publication No. 10-2017-0109758 (October 10, 2017).

본 발명은 전술한 문제점을 개선하기 위해 창안된 것으로서, 본 발명의 일 측면에 따른 목적은 운전자와 동승자의 감정지수, 운전자 위험지수 및 운전 난이도를 종합적으로 고려하여 현재 운전 중인 자동차의 안전성 여부를 판단하고 판단 결과에 따라 차량의 조향 및 제동 제어를 통해 차량을 안전지역으로 이동시켜 사고를 미연에 방지할 뿐만 아니라 운전자와 동승자의 감정상태가 개선되도록 하여 주행 안전성을 높일 수 있도록 하는 안전운전 지원 장치 및 방법을 제공하는 것이다. The present invention was devised to improve the above-mentioned problems, and the purpose according to one aspect of the present invention is to determine whether the vehicle is currently safe by considering the driver's and passenger's emotional index, driver's risk index, and driving difficulty in a comprehensive manner. According to the judgment result, the vehicle can be moved to a safe area through steering and braking control of the vehicle to prevent accidents in advance, as well as to improve the driver's and passengers' emotional state, thereby improving driving safety. Is to provide a way.

본 발명의 일 측면에 따른 안전운전 지원 장치는, 운전자 및 동승자 각각의 시선의 움직임, 얼굴 표정 및 눈부심에 따른 시각지수와, 음성신호의 특성에 따른 음성지수, 움직임에 따른 행동지수 중 적어도 하나를 이용하여 운전자 및 동승자의 감정지수를 검출하는 감정지수 검출부; 자차의 자차 주행 정보와 주변환경 정보를 이용하여 운전자 위험지수를 검출하는 운전자 위험지수 검출부; 자차의 주행 위치에 따른 운전난이도를 검출하는 운전난이도 검출부; 자차의 자율주행을 제어하는 차량 주행부; 및 감정지수, 운전자 위험지수, 및 운전난이도가 설정된 안전영역에 포함되는지 여부에 따라 차량 주행부를 제어하여 자차가 안전지역으로 주행하도록 하는 제어부를 포함하는 것을 특징으로 한다.The apparatus for supporting safe driving according to an aspect of the present invention includes at least one of a visual index according to the movement of the gaze of each driver and a passenger, a facial expression and glare, a speech index according to the characteristics of a voice signal, and a behavior index depending on the movement. An emotion index detection unit for detecting an emotion index of a driver and a passenger by using it; A driver risk index detecting unit for detecting a driver risk index using the own vehicle driving information and surrounding environment information of the host vehicle; A driving difficulty detecting unit detecting a driving difficulty according to a driving position of the host vehicle; A vehicle driving unit that controls autonomous driving of the host vehicle; And a control unit for controlling the vehicle driving unit according to whether the emotion index, the driver's risk index, and the driving difficulty are set in the set safety zone, so that the host vehicle travels to the safety zone.

본 발명의 감정지수 검출부는, 운전자 및 동승자의 음성신호의 특성값을 검출하고 검출된 특성값에 따라 음성지수를 검출하는 제1 감정 인식부; 운전자 및 동승자를 촬영하고 주변을 촬영한 영상을 분석하여 운전자 및 동승자의 시각지수를 검출하는 제2 감정 인식부; 엑셀 페달 또는 브레이크 페달의 위치를 감지하여 엑셀 페달 또는 브레이크 페달의 발진 형태, 운전자의 크락션 작동빈도, 및 동승자의 움직임에 따라 행동지수를 검출하는 제3 감정 인식부; 및 음성지수, 시각지수 및 행동지수를 이용하여 감정지수를 산출하는 감정지수 산출부를 포함하는 것을 특징으로 한다.The emotion index detection unit of the present invention includes: a first emotion recognition unit that detects a characteristic value of a voice signal of a driver and a passenger and detects a voice index according to the detected characteristic value; A second emotion recognition unit that detects a driver and a passenger's visual index by photographing a driver and a passenger and analyzing an image taken around the driver; A third emotion recognition unit detecting a position of the accelerator or brake pedal to detect an oscillation type of the accelerator pedal or brake pedal, a driver's operating frequency, and an action index according to the movement of a passenger; And it characterized in that it comprises an emotional index calculating unit for calculating the emotional index using the voice index, visual index and behavioral index.

본 발명의 제1 감정 인식부는, 운전자 및 동승자의 음성신호를 감지하는 음성신호 감지부; 및 음성신호 감지부에 의해 감지된 음성신호의 특성값을 검출하고 검출된 특성값에 대응되는 음성지수를 검출하는 음성지수 검출부를 포함하는 것을 특징으로 한다.The first emotion recognition unit of the present invention, a voice signal detection unit for detecting the voice signal of the driver and passengers; And a voice index detection unit that detects a characteristic value of the voice signal detected by the voice signal detection unit and detects a voice index corresponding to the detected characteristic value.

본 발명의 제2 감정 인식부는, 운전자의 눈 또는 얼굴을 촬영하는 운전자 얼굴 촬영부; 동승자의 눈 또는 얼굴을 촬영하는 동승자 얼굴 촬영부; 자차의 주변을 촬영하는 스테레오 카메라; 및 운전자 얼굴 촬영부에 의해 촬영된 영상에서 운전자의 눈 위치를 기반으로 시선 및 얼굴을 검출하고, 동승자 얼굴 촬영부에 의해 촬영된 영상에서 동승자의 눈 위치를 기반으로 시선 및 얼굴을 검출하며, 스테레오 카메라에서 촬영된 영상에서 광원의 위치를 검출하는 한 후, 검출된 운전자와 동승자 각각의 시선의 움직임, 얼굴 표정, 및 광원의 위치와 눈의 위치에 의한 운전자의 눈부심에 따라 시각지수를 검출하는 시각지수 검출부를 포함하는 것을 특징으로 한다.The second emotion recognition unit of the present invention includes: a driver face photographing unit for photographing a driver's eye or face; A passenger face photographing unit for photographing a passenger's eye or face; A stereo camera photographing the surroundings of the host vehicle; And detecting a gaze and a face based on the driver's eye position in an image photographed by the driver's face photographing unit, and detecting a gaze and a face based on the passenger's eye location in the image photographed by the passenger's face photographing unit, stereo The time to detect the position of the light source from the image captured by the camera, and then to detect the visual index according to the driver's and passenger's gaze movements, facial expressions, and the driver's glare by the position of the light source and the position of the eyes Characterized in that it comprises an index detection unit.

본 발명의 제3 감정 인식부는 엑셀 페달 또는 브레이크 페달의 발진형태를 감지하는 발진형태 감지부; 동승자의 팔 모션 크기 및 움직임 반경, 동승자의 움직임 빈도수 중 적어도 하나를 이용하여 동승자 움직임 지수를 검출하는 동승자 움직임 지수 검출부; 운전자의 크락션 작동빈도에 따른 크락션 작동지수를 검출하는 크락션 빈도 검출부; 및 발진형태 감지부에 의해 각각 감지된 엑셀 페달 또는 브레이크 페달의 발진형태에 대응되는 발진지수, 크락션 빈도 검출부에서 검출된 크락션 작동지수. 및 동승자 움직임 지수 검출부에 의해 검출된 동승자 움직임 지수를 이용하여 운전자와 동승자의 행동지수를 검출하는 행동지수 검출부를 포함하는 것을 특징으로 한다.The third emotion recognition unit of the present invention includes an oscillation type detection unit that detects an oscillation type of an Excel pedal or a brake pedal; A passenger motion index detector configured to detect a passenger motion index using at least one of a passenger's arm motion size, a motion radius, and a passenger's motion frequency; A collision frequency detection unit that detects a collision operation index according to a driver's operation frequency; And an oscillation index corresponding to the oscillation type of the Excel pedal or the brake pedal, respectively detected by the oscillation type detection unit, and the cushion operation index detected by the collision frequency detection unit. And it characterized in that it comprises a behavior index detection unit for detecting the behavior index of the driver and the passenger by using the passenger motion index detected by the passenger motion index detection unit.

본 발명은 운전자 및 동승자의 감정상태가 평정 상태가 되도록 운전자 및 동승자의 감정 상태를 조절하는 감정상태 조절부를 더 포함하는 것을 특징으로 한다.The present invention is characterized in that it further comprises an emotional state control unit for adjusting the emotional state of the driver and the passenger so that the emotional state of the driver and the passenger becomes a steady state.

본 발명의 제어부는 음성지수, 시각지수 및 행동지수를 학습기반의 감정맵에 적용하여 감정지수가 기 설정된 안정영역에 포함되지 않으면 감정상태 조절부를 제어하는 것을 특징으로 한다. The control unit of the present invention is characterized by controlling the emotion state control unit if the emotion index is not included in the predetermined stable region by applying the voice index, the visual index, and the behavior index to the learning-based emotion map.

본 발명의 학습기반의 감정맵은, 음성지수, 시각지수 및 행동지수 각각에 따라 운전자의 감정상태가 안정 영역 또는 위험 영역으로 구분되는 것을 특징으로 한다. The learning-based emotion map of the present invention is characterized in that the emotional state of the driver is divided into a stable region or a dangerous region according to each of the voice index, the visual index, and the behavior index.

본 발명의 제어부는, 감정지수 검출부에서 검출된 시각지수에 따라 감정상태 조절부에 포함된 윌드실드 투과율 조정부를 제어하는 것을 특징으로 한다. The control unit of the present invention is characterized in that it controls the windshield transmittance adjustment unit included in the emotional state control unit according to the visual index detected by the emotion index detection unit.

본 발명의 운전자 위험지수 검출부는, 자차의 주행 상황을 감지하는 내부 센서로부터 입력받은 자차 주행 정보를 이용하여 자차 주행 궤적을 생성하는 자차 주행 궤적 생성부; 자차의 주변 상황을 감지하는 외부 센서로부터 입력받은 주변환경 정보를 이용하여 주위 차량 궤적을 생성하는 주위 차량 궤적 생성부; 주위 차량 궤적과 자차 주행 궤적 간의 차이인 궤적 거리와 기 설정된 임계값 간의 비교 결과를 나타내는 궤적 부하량을 계산하는 궤적 부하량 계산부; 및 계산된 궤적 부하량에 상응하는 운전자 위험지수를 생성하는 위험지수 관리부를 포함하는 것을 특징으로 한다.The driver's risk index detection unit of the present invention includes: a self-driving travel trajectory generation unit generating a self-driving travel trajectory using self-driving travel information received from an internal sensor that senses a traveling situation of the own vehicle; A surrounding vehicle trajectory generation unit that generates a surrounding vehicle trajectory using the surrounding environment information received from an external sensor that detects a surrounding situation of the host vehicle; A trajectory load calculation unit that calculates a trajectory load indicating a comparison result between a trajectory distance, which is a difference between a surrounding vehicle trajectory and a self-driving trajectory, and a preset threshold; And it characterized in that it comprises a risk index management unit for generating a driver risk index corresponding to the calculated trajectory load.

본 발명의 운전난이도 검출부는, 각 구역별로 운전난이도를 정의 및 수치화하여 자차의 현재 위치에 따라 운전난이도를 검출하는 것을 특징으로 한다.The driving difficulty detection unit of the present invention is characterized in that it detects the driving difficulty according to the current position of the host vehicle by defining and digitizing the driving difficulty for each zone.

본 발명의 제어부는, 감정지수, 운전자 위험지수 및 운전난이도가 안전영역에 포함되지 않으면 차량 주행부를 제어하여 자차를 안전지역으로 주행하도록 하는 것을 특징으로 한다.The control unit of the present invention is characterized in that, when the emotion index, the driver's risk index, and the driving difficulty are not included in the safety zone, the vehicle driving unit is controlled to drive the host vehicle to the safety zone.

본 발명의 다른 측면에 따른 안전운전 지원 방법은, 감정지수 검출부가 운전자 및 동승자 각각의 시선의 움직임, 얼굴 표정 및 눈부심에 따른 시각지수와, 음성신호의 특성에 따른 음성지수, 움직임에 따른 행동지수 중 적어도 하나를 이용하여 운전자 및 동승자의 감정지수를 검출하는 단계; 운전자 위험지수 검출부가 자차의 자차 주행 정보와 주변환경 정보를 이용하여 운전자 위험지수를 검출하는 단계; 운전난이도 검출부가 자차의 주행 위치에 따른 운전난이도를 검출하는 단계; 및 제어부가 감정지수, 운전자 위험지수 및 운전난이도가 기 설정된 안전영역에 포함되는지 여부를 판단하여 판단 결과에 따라 차량 주행부를 제어하여 자차가 안전지역으로 주행하도록 하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, a safe driving support method includes: an emotion index detection unit, a visual index according to the gaze movements, facial expressions, and glare of each driver and a passenger, a voice index depending on characteristics of a voice signal, and a behavior index according to movement. Detecting an emotion index of a driver and a passenger using at least one of the following; A driver risk index detecting unit detecting a driver risk index using the own vehicle driving information and the surrounding environment information; A driving difficulty detecting unit detecting a driving difficulty according to a driving position of the host vehicle; And a step in which the control unit determines whether the emotion index, the driver's risk index, and the driving difficulty are included in the predetermined safety area, and controls the vehicle driving unit according to the determination result to drive the host vehicle to the safe area.

본 발명의 감정지수를 검출하는 단계는, 운전자 및 동승자의 음성신호의 특성값을 검출하고 검출된 특성값에 따라 음성지수를 검출하고, 운전자 및 동승자를 촬영하고 주변을 촬영한 영상을 분석하여 운전자와 동승자 각각의 시선의 움직임, 얼굴 표정, 및 광원의 위치와 눈의 위치에 의한 운전자의 눈부심에 따라 시각지수를 검출하며, 엑셀 페달 또는 브레이크 페달의 위치를 감지하여 엑셀 페달 또는 브레이크 페달의 발진 형태, 운전자의 크락션 작동빈도, 및 동승자의 움직임에 따라 행동지수를 검출한 후, 음성지수, 시각지수 및 행동지수를 이용하여 감정지수를 산출하는 것을 특징으로 한다.In the step of detecting the emotional index of the present invention, a driver and a passenger's voice signal characteristic values are detected, a voice index is detected according to the detected characteristic values, a driver and a passenger are photographed, and an image photographed around the driver is analyzed. The visual index is detected according to the driver's glare by the position of the light source and the position of the light source and the position of the light source and the eyes of each passenger and the passenger, and detects the position of the accelerator or brake pedal to detect the position of the accelerator or brake pedal. , After detecting the behavioral index according to the driver's frequency of operation of the driver and the movement of the passenger, the emotion index is calculated using the voice index, the visual index, and the behavioral index.

본 발명의 제어부가 감정지수가 기 설정된 안정영역에 포함되는지 여부에 따라 감정상태 조절부를 제어하여 운전자 및 동승자의 감정상태가 평정 상태가 되도록 운전자 및 동승자의 감정 상태를 조절하는 단계를 더 포함하는 특징으로 한다.The control unit of the present invention further includes the step of controlling the emotional state of the driver and the passenger so that the emotional state of the driver and the passenger becomes a steady state by controlling the emotional state adjusting unit according to whether the emotional index is included in the predetermined stable region. Is done.

본 발명에서 운전자 및 동승자의 감정상태를 조절하는 단계는, 제어부가 감정지수 검출부에서 검출된 시각지수에 따라 감정상태 조절부에 포함된 윌드실드 투과율 조정부를 제어하는 단계를 포함하는 것을 특징으로 한다. In the present invention, the step of adjusting the emotional state of the driver and the passenger is characterized in that the control unit includes controlling the windshield transmittance adjustment unit included in the emotional state adjusting unit according to the visual index detected by the emotional index detecting unit.

본 발명의 운전자 위험지수를 검출하는 단계는, 자차의 주행 상황을 감지하는 내부 센서로부터 입력받은 자차 주행 정보를 이용하여 자차 주행 궤적을 생성하는 단계; 자차의 주변 상황을 감지하는 외부 센서로부터 입력받은 주변환경 정보를 이용하여 자차의 주위 차량 궤적을 생성하는 단계; 주위 차량 궤적과 자차 주행 궤적 간의 차이인 궤적 거리와 기 설정된 임계값 간의 비교 결과를 나타내는 궤적 부하량을 계산하는 단계; 및 계산된 궤적 부하량에 상응하는 운전자 위험지수를 생성하는 단계를 포함하는 것을 특징으로 한다.The step of detecting the driver's risk index of the present invention includes: generating a vehicle driving trajectory using the vehicle driving information received from an internal sensor that detects a driving situation of the vehicle; Generating surrounding vehicle trajectories of the own vehicle by using the surrounding environment information input from an external sensor detecting the surrounding situation of the own vehicle; Calculating a trajectory load amount representing a comparison result between a trajectory distance, which is a difference between a surrounding vehicle trajectory and a self-driving trajectory, and a preset threshold; And generating a driver risk index corresponding to the calculated trajectory load.

본 발명의 운전난이도를 검출하는 단계는, 각 구역별로 운전난이도를 정의 및 수치화하여 자차의 현재 위치에 따라 운전난이도를 검출하는 것을 특징으로 한다.The step of detecting the driving difficulty of the present invention is characterized in that, by defining and digitizing the driving difficulty for each zone, the driving difficulty is detected according to the current position of the host vehicle.

본 발명의 자차가 안전지역으로 주행하도록 하는 단계는, 음성지수, 시각지수 및 행동지수를 학습기반의 감정맵에 적용하여 감정지수가 기 설정된 안정영역에 포함되는지 여부를 판단하는 것을 특징으로 한다.The step of driving the host vehicle of the present invention to a safe area is characterized by determining whether the emotion index is included in a predetermined stable region by applying a voice index, a visual index, and a behavior index to a learning-based emotion map.

본 발명의 학습기반의 감정맵은, 음성지수, 시각지수 및 행동지수 각각에 따라 운전자의 감정상태가 안정 영역 또는 위험 영역으로 구분되는 것을 특징으로 한다.The learning-based emotion map of the present invention is characterized in that the emotional state of the driver is divided into a stable region or a dangerous region according to each of the voice index, the visual index, and the behavior index.

본 발명의 일 측면에 따른 안전운전 지원 장치 및 방법은 운전자와 동승자의 감정지수, 운전자 위험지수 및 운전난이도를 종합적으로 고려하여 현재 운전중인 자동차의 안전성 여부를 판단하고 판단 결과에 따라 차량의 조향 및 제동 제어를 통해 차량을 안전지역으로 이동시켜 사고를 미연에 방지한다. The safe driving support apparatus and method according to an aspect of the present invention comprehensively considers the driver's and passenger's emotion index, the driver's risk index, and the driving difficulty to determine whether the vehicle is currently driving and to steer the vehicle according to the determination result. The vehicle is moved to a safe area through braking control to prevent accidents.

도 1 은 본 발명의 일 실시예에 따른 안전운전 지원 장치의 블럭 구성도이다.
도 2 는 본 발명의 일 실시예에 따른 감정상태 검출부의 블럭 구성도이다.
도 3 은 본 발명의 일 실시예에 따른 감정지수의 안정 영역을 나타낸 감정맵을 나타낸 도면이다.
도 4 는 본 발명의 일 실시예에 따른 운전자 위험지수 검출부의 블럭 구성도이다.
도 5 는 도 4 의 주변환경 인식부의 블럭 구성도이다.
도 6 은 도 5 에 도시된 주위차량 부하량 계산부에서 TTC 기반으로 구분한 3가지의 위험 영역을 도식적으로 나타낸 도면이다.
도 7 은 도 6 에 도시된 각 위험 영역별로 존재하는 주위 차량을 탐지하기 위한 센서 구성도를 보여주는 도면이다.
도 8 은 도 7 에 도시된 센서 구성을 통해 주위 차량을 탐지한 예를 보여주는 도면이다.
도 9 는 본 발명의 일 실시예에 따른 감정지수와 운전자 위험지수 및 운전난이도의 안전영역을 나타낸 도면이다.
도 10 은 본 발명의 일 실시예에 따른 감정상태 조절부의 블럭 구성도이다.
도 11 은 본 발명의 일 실시예에 따른 차량 주행부의 블럭 구성도이다.
도 12 는 본 발명의 일 실시예에 따른 안전운전 지원 방법의 순서도이다.
도 13 은 본 발명의 일 실시예에 따른 운전자 위험지수 검출 과정을 도시한 순서도이다.
1 is a block diagram of a safe driving support apparatus according to an embodiment of the present invention.
2 is a block diagram of an emotional state detection unit according to an embodiment of the present invention.
3 is a view showing an emotion map showing a stable region of an emotion index according to an embodiment of the present invention.
4 is a block diagram of a driver risk index detection unit according to an embodiment of the present invention.
5 is a block diagram of a surrounding environment recognition unit of FIG. 4.
FIG. 6 is a diagram schematically showing three dangerous areas classified based on TTC in the vehicle load calculation unit shown in FIG. 5.
FIG. 7 is a diagram illustrating a configuration diagram of a sensor for detecting surrounding vehicles present in each of the dangerous areas illustrated in FIG. 6.
8 is a view showing an example of detecting a surrounding vehicle through the sensor configuration shown in FIG. 7.
9 is a view showing a safety region of an emotional index, a driver's risk index, and driving difficulty according to an embodiment of the present invention.
10 is a block diagram of an emotional state control unit according to an embodiment of the present invention.
11 is a block diagram of a vehicle driving unit according to an embodiment of the present invention.
12 is a flowchart of a method for supporting safe driving according to an embodiment of the present invention.
13 is a flowchart illustrating a driver risk index detection process according to an embodiment of the present invention.

이하에서는 본 발명의 일 실시예에 따른 안전운전 지원 장치 및 방법을 첨부된 도면들을 참조하여 상세하게 설명한다. 이러한 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 이용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Hereinafter, a safe driving support apparatus and method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In this process, the thickness of the lines or the size of components shown in the drawings may be exaggerated for clarity and convenience. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to a user's or operator's intention or practice. Therefore, the definition of these terms should be made based on the contents throughout the present specification.

도 1 은 본 발명의 일 실시예에 따른 안전운전 지원 장치의 블럭 구성도이고, 도 2 는 본 발명의 일 실시예에 따른 감정상태 검출부의 블럭 구성도이며, 도 3 은 본 발명의 일 실시예에 따른 감정지수의 안정 영역을 나타낸 감정맵을 나타낸 도면이며, 도 4 는 본 발명의 일 실시예에 따른 운전자 위험지수 검출부의 블럭 구성도이며, 도 5 는 도 4 의 주변환경 인식부의 블럭 구성도이며, 도 6 은 도 5 에 도시된 주위차량 부하량 계산부에서 TTC 기반으로 구분한 3가지의 위험 영역을 도식적으로 나타낸 도면이며, 도 7 은 도 6 에 도시된 각 위험 영역별로 존재하는 주위 차량을 탐지하기 위한 센서 구성도를 보여주는 도면이며, 도 8 은 도 7 에 도시된 센서 구성을 통해 주위 차량을 탐지한 예를 보여주는 도면이며, 도 9 는 본 발명의 일 실시예에 따른 감정지수와 운전자 위험지수 및 운전난이도의 안전영역을 나타낸 도면이며, 도 10 은 본 발명의 일 실시예에 따른 감정상태 조절부의 블럭 구성도이며, 도 11 은 본 발명의 일 실시예에 따른 차량 주행부의 블럭 구성도이다.1 is a block diagram of a safe driving support apparatus according to an embodiment of the present invention, FIG. 2 is a block diagram of an emotional state detection unit according to an embodiment of the present invention, and FIG. 3 is an embodiment of the present invention FIG. 4 is a block diagram of a driver's risk index detection unit according to an embodiment of the present invention, and FIG. 5 is a block diagram of a surrounding environment recognition unit of FIG. 4. 6 is a diagram schematically showing three dangerous areas divided based on TTC by the surrounding vehicle load calculation unit illustrated in FIG. 5, and FIG. 7 is a view of surrounding vehicles present for each dangerous area illustrated in FIG. 6. 8 is a view showing a sensor configuration for detecting, FIG. 8 is a view showing an example of detecting a surrounding vehicle through the sensor configuration shown in FIG. 7, and FIG. 9 is an emotional index and driver risk according to an embodiment of the present invention FIG. 10 is a block diagram of an emotional state control unit according to an embodiment of the present invention, and FIG. 11 is a block diagram of a vehicle driving unit according to an embodiment of the present invention. .

도 1 을 참조하면, 본 발명의 일 실시예에 따른 안전운전 지원 장치는 감정지수 검출부(10), 운전자 위험지수 검출부(20), 운전난이도 검출부, 제어부(40), 감정상태 조절부(50) 및 차량 주행부(60)를 포함한다. Referring to Figure 1, the safe driving support apparatus according to an embodiment of the present invention the emotion index detection unit 10, the driver risk index detection unit 20, the driving difficulty detection unit, the control unit 40, the emotional state control unit 50 And a vehicle driving unit 60.

감정지수 검출부(10)는 운전자 및 동승자 각각의 시선의 움직임, 얼굴 표정 및 눈부심에 따른 시각지수와, 음성신호의 특성에 따른 음성지수, 움직임에 따른 행동지수 중 적어도 하나를 이용하여 운전자 및 동승자의 감정지수를 검출한다. The emotion index detection unit 10 uses the driver's and passenger's eyesight, at least one of a visual index according to facial expression and glare, a voice index according to the characteristics of the voice signal, and an action index according to the movement. Emotional index is detected.

도 2 를 참조하면, 감정지수 검출부(10)는 제1 감정 인식부(11), 제2 감정 인식부(12), 제3 감정 인식부(13) 및 감정지수 산출부(14)를 포함한다. Referring to FIG. 2, the emotion index detection unit 10 includes a first emotion recognition unit 11, a second emotion recognition unit 12, a third emotion recognition unit 13, and an emotion index calculation unit 14. .

제1 감정 인식부(11)는 운전자 또는 동승자의 음성신호를 이용하여 운전자 또는 동승자의 감정상태를 나타내는 음성지수를 검출하는 것으로써, 운전자 또는 동승자의 음성신호의 특성값을 검출하고 검출된 특성값에 따라 음성지수를 검출한다.The first emotion recognition unit 11 detects a characteristic value of the voice signal of the driver or passenger and detects the characteristic value by detecting the voice index indicating the emotional state of the driver or passenger using the voice signal of the driver or passenger Voice index is detected in accordance with.

음성지수는 음성기반으로 운전자 또는 동승자의 감정 상태를 검출하고 검출된 감정 상태를 수치화한 것이며, 운전자나 동승자의 발화음의 특성값 각각에 설정될 수 있다. The voice index is a voice-based detection of the emotional state of the driver or passenger and the detected emotional state is numerical, and may be set to each of the characteristic values of the driver's or passenger's speech sounds.

제1 감정 인식부(11)는 음성신호 감지부(111) 및 음성지수 검출부(112)를 포함한다. The first emotion recognition unit 11 includes a voice signal detection unit 111 and a voice index detection unit 112.

음성신호 감지부(111)는 운전자 또는 동승자의 음성신호를 감지하는 것으로써, 운전자 또는 동승자의 발화음을 전기적인 음성 신호로 변환한다. The voice signal detection unit 111 detects the voice signal of the driver or passenger, and converts the utterance sound of the driver or passenger into an electrical voice signal.

이러한 음성신호 감지부(111)로는 마이크 등이 채용될 수 있다. A microphone or the like may be employed as the voice signal detection unit 111.

음성지수 검출부(112)는 음성신호 감지부(111)에 의해 감지된 음성신호를 신호 처리하여 특성값, 예를 들어 운전자나 동승자의 톤(Tone)이나 피치(Pitch) 등을 검출하고, 검출된 운전자나 동승자의 톤이나 피치에 대응되는 음성지수를 검출한다. The voice index detection unit 112 processes the voice signal detected by the voice signal detection unit 111 to detect a characteristic value, for example, a tone or pitch of a driver or a passenger, and detects the detected voice signal. The voice index corresponding to the tone or pitch of the driver or passenger is detected.

제2 감정 인식부(12)는 운전자 또는 동승자의 눈 또는 얼굴을 촬영하고 촬영된 영상을 분석하여 운전자 또는 동승자의 시각지수를 검출한다. The second emotion recognition unit 12 photographs the eyes or faces of the driver or passenger and analyzes the captured image to detect the visual index of the driver or passenger.

시각지수는 시각기반으로 운전자 또는 동승자의 감정 상태를 검출하고 검출된 감정 상태를 수치화한 것이며 운전자의 시선이나 얼굴 표정 및 눈부심 등에 설정될 수 있다.The visual index detects the emotional state of the driver or passenger on a visual basis and quantifies the detected emotional state, and may be set to the driver's gaze, facial expression, and glare.

제2 감정 인식부(12)는 운전자 얼굴 촬영부(121), 동승자 얼굴 촬영부(123), 스테레오 카메라(124) 및 시각지수 검출부(122)를 포함한다.The second emotion recognition unit 12 includes a driver face photographing unit 121, a passenger face photographing unit 123, a stereo camera 124, and a visual index detection unit 122.

운전자 얼굴 촬영부(121)는 운전자의 눈 또는 얼굴을 촬영한다. 운전자 얼굴 촬영부(121)의 설치 위치는 특별히 한정되는 것은 아니며, 운전자의 눈이나 얼굴을 촬영할 수 있는 위치라면 자차 내 다양한 위치에 설치될 수 있다. The driver's face photographing unit 121 photographs the driver's eyes or face. The installation location of the driver's face photographing unit 121 is not particularly limited, and may be installed at various locations in the host vehicle as long as it can photograph the driver's eyes or face.

동승자 얼굴 촬영부(123)는 동승자의 눈 또는 얼굴을 촬영한다. 동승자 얼굴 촬영부(121)의 설치 위치는 특별히 한정되는 것은 아니며, 동승자의 눈이나 얼굴을 촬영할 수 있는 위치라면 자차 내 다양한 위치에 설치될 수 있다. The passenger's face photographing unit 123 photographs the passenger's eyes or face. The installation position of the passenger's face photographing unit 121 is not particularly limited, and may be installed at various positions in the host vehicle as long as it can photograph the passenger's eyes or face.

스테레오 카메라(124)는 자차의 주변을 촬영하여 자차 외부에 있는 광원의 위치를 검출할 수 있도록 한다. The stereo camera 124 photographs the surroundings of the host vehicle to detect the location of the light source outside the host vehicle.

시각지수 검출부(122)는 운전자 얼굴 촬영부(121), 동승자 얼굴 촬영부(123) 및 스테레오 카메라(124)에 의해 촬영된 영상에서 운전자와 동승자의 시선 및 얼굴을 각각 검출하고 검출된 운전자와 동승자의 시선의 움직임 또는 얼굴 표정에 따라 시각지수를 검출할 뿐만 아니라 스테레오 카메라(124)에서 촬영된 영상에서 광원의 3D 좌표를 검출하고, 운전자 얼굴 촬영부(121)에서 촬영된 영상에서 운전자의 눈 위치를 3D 좌표로 검출하여 눈부심에 따라 시각지수를 검출할 수 있다. The visual index detection unit 122 detects the driver's and passenger's gazes and faces from the images captured by the driver's face photographing unit 121, the passenger's face photographing unit 123, and the stereo camera 124, respectively, and the detected driver and passenger In addition to detecting the visual index according to the movement or facial expression of the eye, the 3D coordinates of the light source are detected from the image captured by the stereo camera 124, and the position of the driver's eyes in the image captured by the driver's face photographing unit 121 Can be detected in 3D coordinates to detect the visual index according to glare.

시각지수 검출부(122)는 운전자와 동승자의 감정상태가 흥분 상태일때 나타나는 시선 또는 얼굴 표정 및 눈부심 각각에 대응되는 시각지수를 검출하는데, 시선의 움직임이나 방향 등을 추적하거나 얼굴 표정의 변화 등을 검출하고, 광원에 의한 눈부심을 검출한 후, 이들 시선의 움직이나 방향 및 얼굴 표정의 변화와 눈부심에 대응되는 운전자의 시각지수를 검출한다. The visual index detection unit 122 detects a visual index corresponding to each of the gaze or facial expression and glare that appears when the driver and the passenger's emotional state are in an excited state, tracking movement or direction of the gaze, or detecting a change in facial expression Then, after the glare detected by the light source is detected, the movement or direction of these gazes and changes in facial expressions and the driver's visual index corresponding to the glare are detected.

제3 감정 인식부(13)는 운전자와 동승자의 감정상태에 따른 행동지수를 검출한다.The third emotion recognition unit 13 detects the behavioral index according to the emotional state of the driver and the passenger.

행동지수는 행동기반으로 운전자 또는 동승자의 감정 상태를 검출하고 검출된 감정 상태를 수치화한 것이며, 운전자가 크락션을 작동시키거나, 엑셀 페달이나 브레이크 페달을 밟을 때의 발진형태 또는 동승자의 움직임 등에 각각 설정된다. The behavior index is based on the behavior and detects the driver's or passenger's emotional state and quantifies the detected emotional state, and is set to the type of oscillation or the movement of the passenger when the driver activates the cushion or presses the excel pedal or brake pedal. do.

제3 감정 인식부(13)는 발진형태 감지부(131), 동승자 움직임 지수 검출부(133), 크락션 빈도 검출부(134) 및 행동지수 검출부(132)를 포함한다.The third emotion recognition unit 13 includes an oscillation type detection unit 131, a passenger motion index detection unit 133, a crash frequency detection unit 134, and a behavior index detection unit 132.

발진형태 감지부(131)는 엑셀 페달 또는 브레이크 페달의 위치를 통해 엑셀 페달 또는 브레이크 페달의 발진 형태를 감지한다. The oscillation type detection unit 131 detects the oscillation type of the excel pedal or brake pedal through the position of the excel pedal or brake pedal.

동승자 움직임 지수 검출부(133)는 동승자의 움직임에 따른 동승자 움직임 지수를 검출한다. 즉, 동승자 움직임 지수 검출부(133)는 동승자를 촬영하고, 촬영된 영상에서 동승자의 움직임, 예를 들어 동승자의 팔 모션 크기 및 움직임 반경, 동승자의 움직임 빈도수 중 적어도 하나를 이용하여 동승자 움직임 지수를 검출한다. 여기서, 동승자의 움직임은 내부의 동승자를 촬영하는 별도의 카메라를 통해 촬영될 수 있다. The passenger motion index detection unit 133 detects the passenger motion index according to the motion of the passenger. That is, the passenger motion index detection unit 133 photographs the passenger and detects the passenger motion index using at least one of the motion of the passenger, for example, the size and radius of the arm motion of the passenger and the frequency of motion of the passenger in the captured image. do. Here, the movement of the passenger may be photographed through a separate camera that photographs the passenger inside.

즉, 동승자 움직임 지수 검출부(133)는 동승자의 움직임에 대응되는 동승자 움직임 지수를 사전에 저장하고, 촬영된 영상에서 동승자의 팔 모션 크기 및 움직임 반경, 동승자의 움직임 빈도수 중 어느 하나를 검출한 후, 검출된 움직임에 대응되는 동승자 움직임 지수를 검출한다. That is, the passenger motion index detecting unit 133 pre-stores the passenger motion index corresponding to the motion of the passenger, and after detecting any one of the arm motion size and motion radius of the passenger and the frequency of the motion of the passenger in the captured image, A passenger motion index corresponding to the detected motion is detected.

클락션 빈도 검출부(134)는 운전자의 클락션 작동 빈도에 따라 운전자의 크락션 작동지수를 검출한다. The collection frequency detection unit 134 detects the operation coefficient of the driver according to the operation frequency of the driver.

행동지수 검출부(132)는 발진형태 감지부(131)에 의해 감지된 엑셀 페달 또는 브레이크 페달의 발진형태에 대응되는 발진지수, 크락션 빈도 감지부(134)에 의해 감지된 운전자의 크락션 작동지수 및 동승자 움직임 지수 검출부(133)에 의해 검출된 동승자 움직임 지수를 이용하여 운전자 및 동승자의 행동지수를 검출한다.The behavior index detection unit 132 includes an oscillation index corresponding to the oscillation type of the excel pedal or brake pedal sensed by the oscillation type detection unit 131, the driver's collision operation index and the passenger sensed by the collision frequency detection unit 134. The driver's and passenger's action index is detected using the passenger's motion index detected by the motion index detector 133.

여기서, 행동지수는 발진지수, 크락션 작동지수 및 동승자 움직임 지수 중 어느 하나이거나, 또는 발진지수, 크락션 작동지수 및 동승자 움직임 지수를 모두 이용한 값이 채용될 수 있다.Here, the behavior index may be any one of an oscillation index, a friction operation index, and a passenger motion index, or a value using both an oscillation index, a friction operation index, and a passenger motion index may be employed.

예를 들어, 행동지수가 발진지수, 크락션 작동지수 및 동승자 움직임 지수일 경우에는 이들 중 그 값이 상대적으로 큰 값일 수 있다. For example, if the action index is the oscillation index, the kinking action index, and the passenger motion index, the value of these may be a relatively large value.

또한, 행동지수가 발진지수, 크락션 작동지수 및 동승자 움직임 지수를 모두 이용하는 경우에는, 행동지수가 발진지수, 크락션 작동지수 및 동승자 움직임 지수의 평균값이거나, 또는 이들 각각에 가중치가 반영되어 산출될 수 있다.In addition, when the behavioral index uses both the oscillation index, the kinetic operation index, and the passenger motion index, the behavioral index may be an average value of the oscillation index, the kinetic operation index, and the passenger motion index, or may be calculated by reflecting weights in each of them. .

감정지수 산출부(14)는 상기한 음성지수, 시각지수 및 행동지수를 학습기반의 감정맵에 적용하여 감정지수를 산출한다.The emotion index calculating unit 14 calculates the emotion index by applying the above-described voice index, visual index, and behavior index to the learning-based emotion map.

학습기반의 감정맵은 음성지수, 시각지수 및 행동지수를 이용한 3차원 감정맵으로써, 이들 음성지수, 시각지수 및 행동지수 각각에 따라 운전자의 감정상태가 안정 영역(Stable) 또는 위험 영역인지 여부를 판단할 수 있도록 한다. 즉, 학습기반의 감정맵은 음성지수, 시각지수 및 행동지수 각각에 따라 운전자의 감정상태가 안정 영역 또는 위험 영역으로 구분된다. The learning-based emotion map is a three-dimensional emotion map using a voice index, a visual index, and a behavioral index, and whether the driver's emotional state is stable or dangerous according to each of the voice index, the visual index, and the behavioral index. Make it possible to judge. That is, in the learning-based emotion map, the emotional state of the driver is divided into a stable area or a dangerous area according to each of the voice index, the visual index, and the behavior index.

또한, 감정지수 산출부(14)는 도 3 에 도시된 바와 같이 음성지수, 시각지수 및 행동지수를 이용하여 감정지수를 검출한다. In addition, the emotion index calculator 14 detects the emotion index by using a voice index, a visual index, and an action index as shown in FIG. 3.

음성지수, 시각지수 및 행동지수를 학습기반의 감정맵에 적용하여 감정지수가 기 설정된 안정영역에 포함되지 않으면 감정상태 조절부(50)가 동작하여 운전자의 감정상태가 평정 상태로 유지되도록 한다. 이에 대해서는 후술한다. When the emotional index is not included in the predetermined stable region by applying the voice index, the visual index, and the action index to the learning-based emotion map, the emotional state control unit 50 operates to maintain the driver's emotional state in a steady state. This will be described later.

운전자 위험지수 검출부(20)는 운전성향을 분석하여 그에 상응하는 운전자 위험지수(또는 주위 위험지수)를 계산한다. 계산된 결과는 다양한 형태의 정보로 운전자에게 제공되어, 운전자에게 운전 위험 상황을 알린다. The driver's risk index detection unit 20 analyzes the driving tendency and calculates a driver's risk index (or surrounding risk index) corresponding thereto. The calculated result is provided to the driver in various types of information, informing the driver of the danger of driving.

이러한 운전자 위험지수 검출부(20)는 차량 내의 각종 센서를 통해 현재의 자차의 주행 상황과 자차 주변의 주행 상황을 실시간으로 감지하고, 감지된 결과가 반영된 차량의 운전 위험 상황을 판단한다. The driver risk index detection unit 20 detects the current driving state of the host vehicle and the driving situation around the host vehicle in real time through various sensors in the vehicle, and determines the driving risk situation of the vehicle reflecting the detected result.

도 4 를 참조하면, 운전자 위험지수 검출부(20)는 내부 센서(21), 외부 센서(22) 및 주변환경 인식부(23)를 포함한다.Referring to FIG. 4, the driver risk index detection unit 20 includes an internal sensor 21, an external sensor 22, and a surrounding environment recognition unit 23.

내부 센서(21)는 자차(24)의 주행 상황을 감지하여, 자차 주행 정보를 생성한다. 여기서, 자차 주행 정보에는 차속 정보, 요레이트 정보, 조향각 정보, 가속도 정보 및 휠 스피드 정보 등이 포함될 수 있다. The internal sensor 21 detects the driving situation of the host vehicle 24 and generates the own vehicle driving information. Here, the vehicle driving information may include vehicle speed information, yaw rate information, steering angle information, acceleration information, and wheel speed information.

따라서, 내부 센서(21)는 차속 정보를 획득하는 차속 센서(211), 요레이트 정보를 획득하는 요레이트 센서(212), 조향각 정보를 획득하는 조향각 센서(213), 차량의 가속도와 방향을 감지하는 G 센서(214), 및 휠스피드 정보를 획득하는 휠 스피드 센서(215) 등을 포함할 수 있다.Accordingly, the internal sensor 21 detects vehicle speed sensor 211 for obtaining vehicle speed information, yaw rate sensor 212 for obtaining yaw rate information, steering angle sensor 213 for obtaining steering angle information, and acceleration and direction of the vehicle It may include a G sensor 214, and a wheel speed sensor 215 for obtaining the wheel speed information.

외부 센서(22)는 자차(24)의 주변 상황을 감지하여 주변환경 정보를 생성한다. 여기서, 주변환경 정보는 전/후방 레이더 정보, 전/후방 영상 정보, 측방 초음파 정보, AVM(Around View Monitoring) 영상 정보, 및 내비게이션 정보 등을 포함할 수 있다.The external sensor 22 detects the surrounding situation of the host vehicle 24 and generates surrounding environment information. Here, the surrounding environment information may include front / rear radar information, front / rear image information, lateral ultrasound information, AVM (Around View Monitoring) image information, and navigation information.

따라서, 외부 센서(22)는 전/후방 레이더 정보를 획득하는 전/후방 레이더(221), 전/후방 영상 정보를 획득하는 전/후방 카메라(222), 측방 초음파 정보를 획득하는 측방 초음파 센서(223), AVM 영상 정보를 획득하는 AVM용 카메라(224) 및 내비게이션 정보를 획득하는 내비게이션(225)을 포함할 수 있다. Therefore, the external sensor 22 includes a front / rear radar 221 for acquiring front / rear radar information, a front / rear camera 222 for acquiring front / rear image information, and a lateral ultrasound sensor for acquiring lateral ultrasound information ( 223), an AVM camera 224 for acquiring AVM image information, and a navigation 225 for acquiring navigation information.

주변환경 인식부(23)는 내부 센서(21)로부터 제공받은 자차 주행 정보와 외부 센서(22)로부터 제공받은 주변환경 정보를 이용하여 궤적 부하량을 계산하고, 이를 통하여 운전자 위험지수(또는 주위 위험지수)를 관리한다. 이에 대한 구체적인 설명은 아래의 도 5를 참조하여 상세히 설명한다.The surrounding environment recognition unit 23 calculates the trajectory load amount using the own vehicle driving information provided from the internal sensor 21 and the surrounding environment information provided from the external sensor 22, and through this, the driver's risk index (or surrounding risk index) ). This will be described in detail with reference to FIG. 5 below.

도 5 를 참조하면, 주변환경 인식부(23)는 내부 센서(21)로부터 제공받은 자차 주행 정보와 외부 센서(22)로부터 제공받은 주변환경 정보를 이용하여 궤적 부하량을 계산하고, 이를 통하여 운전자 위험지수(또는 주위 위험지수)를 관리한다. 보다 정확한 운전자 위험지수 관리를 위해, 주변환경 인식부(23)는 궤적 부하량 외에 주위차량 부하량 및 도로 부하량을 더 고려하여 운전자 위험지수를 관리할 수 있다. 따라서, 시스템 부하와 운전자 위험지수 간의 트레이드 오프를 고려하여 궤적 부하량만을 고려하는 경우, 궤적 부하량과 주위차량 부하량만을 고려하는 경우, 궤적 부하량과 도로 부하량만을 고려하는 경우로 구분하여 운전자 위험지수를 수행하는 다양한 시스템 설계가 가능하다.Referring to FIG. 5, the surrounding environment recognition unit 23 calculates the trajectory load amount using the own vehicle driving information provided from the internal sensor 21 and the surrounding environment information provided from the external sensor 22, thereby driving the driver. Manage the index (or surrounding risk index). For more accurate driver risk index management, the surrounding environment recognition unit 23 may manage the driver risk index in consideration of the surrounding vehicle load and the road load in addition to the trajectory load. Therefore, considering the trade-off between the system load and the driver's risk index, only the trajectory load is considered, the case where only the trajectory load and the surrounding vehicle load are considered, and the case where only the trajectory load and the road load are considered are performed to perform the driver's risk index. Various system designs are possible.

도 5 에서, 궤적 부하량, 주위차량 부하량 및 도로 부하량을 모두 고려한 운전자 위험지수 관리를 수행한 예시도일 뿐, 본 발명이 이에 한정되는 것은 아님을 유의해야 한다.In FIG. 5, it should be noted that the driver risk index management considering all of the trajectory load, the surrounding vehicle load, and the road load is an exemplary view, and the present invention is not limited thereto.

주변환경 인식부(23)는 자차 주행 궤적 생성부(231), 주위 차량 궤적 생성부(232), 궤적 부하량 계산부(233), 주위차량 부하량 계산부(234), 도로 부하량 계산부(235) 및 운전자 위험지수 관리부(236)를 포함한다. The surrounding environment recognition unit 23 includes a host vehicle driving trajectory generation unit 231, a surrounding vehicle trajectory generation unit 232, a trajectory load calculation unit 233, a surrounding vehicle load calculation unit 234, and a road load calculation unit 235. And a driver risk index management unit 236.

자차 주행 궤적 생성부(231)는 내부 센서(21)로부터의 자차 주행 정보에 포함된 차속 정보, 조향각 정보, 가감속 정보 및 요레이트 정보를 이용하여 자차 주행 궤적을 예측(획득 또는 생성)한다. 추가적으로, 자차 주행 궤적 생성부(231)는 외부 센서(22)로부터의 주변환경 정보에 포함된 내비게이션 정보 예컨대, 주행 도로 정보를 통해 예측된 자차 주행 궤적을 보정한다. The vehicle driving trajectory generation unit 231 predicts (acquires or generates) the vehicle driving trajectory using vehicle speed information, steering angle information, acceleration / deceleration information, and yaw rate information included in the vehicle driving information from the internal sensor 21. Additionally, the own vehicle driving trajectory generation unit 231 corrects the own vehicle driving trajectory predicted through the navigation information included in the surrounding environment information from the external sensor 22, for example, driving road information.

주위 차량 궤적 생성부(232)은 외부 센서(22)로부터의 주변환경 정보에 포함된 전/후방 레이더 정보, 영상 정보 및 측방 초음파 정보를 이용하여 주위 차량 주행 궤적을 예측(획득 또는 생성)한다.The surrounding vehicle trajectory generation unit 232 predicts (acquires or generates) the surrounding vehicle driving trajectory using front / rear radar information, image information, and lateral ultrasound information included in the surrounding environment information from the external sensor 22.

전/후방 레이더 정보를 획득하기 위한 전/후방 레이더(221)는 물체 판별 정확성은 다소 떨어지나 정확한 거리 정보(종방향)를 얻을 수 있다. The front / rear radar 221 for acquiring front / rear radar information may obtain accurate distance information (longitudinal) although the object discrimination accuracy is somewhat inferior.

이에 비해 상기 영상 정보를 획득하기 위한 카메라(222,224)는 단안 영상을 획득하기 때문에 거리 정보(종방향)의 정확성은 떨어지나 높은 물체 판별 및 정확한 횡방향 정보를 얻을 수 있는 장점이 있다.On the other hand, since the cameras 222 and 224 for acquiring the image information acquire a monocular image, the accuracy of the distance information (longitudinal) decreases, but there is an advantage of obtaining high object identification and accurate lateral information.

따라서 주위 차량 궤적을 얻기 위해 타겟 차량 모델식에서 종방향의 거리 정보는 전/후방 레이더(221)를 이용해 획득하고, 횡방향 거리정보는 전/후방 카메라(222), AVM 카메라 및 측방 초음파 센서(223)를 이용해 획득한다.Therefore, in order to obtain the surrounding vehicle trajectory, the longitudinal distance information in the target vehicle model formula is obtained using the front / rear radar 221, and the lateral distance information is the front / rear camera 222, the AVM camera, and the lateral ultrasound sensor 223. ).

아래의 수학식 1은 주위 차량 궤적을 예측하기 위해, 주위 차량 궤적 생성부(232)에서 이용하는 차량 모델식을 나타낸 것이다.Equation 1 below shows a vehicle model equation used by the surrounding vehicle trajectory generation unit 232 to predict the surrounding vehicle trajectory.

Figure pat00001
Figure pat00001

여기서, x, Vx, y, Vy는 타겟 차량의 상태 변수이고, x, y는 타겟 차량의 위치이고, 영상 카메라로부터 측정된다. Vx, Vy는 타겟 차량의 속도이다. A는 차량 모델식, H는 측청치 모델식이고, 상태변수는 x축 방향으로 거리, 속도, y축 방향으로 거리, 속도를 나타낸다. 시스템 노이즈 및 측정치 노이즈는 화이트 가우시안으로 가정한다. Here, x, Vx, y, Vy are the state variables of the target vehicle, x, y are the position of the target vehicle, and are measured from the video camera. Vx and Vy are target vehicle speeds. A is the vehicle model formula, H is the lateral tooth model model, and the state variables represent the distance, velocity, and y-axis distance and velocity in the x-axis direction. System noise and measured noise are assumed to be white Gaussian.

궤적 부하량 계산부(233)는 주위 차량 궤적과 자차 주행 궤적 간의 차이인 궤적 거리와 기 설정된 임계값 간의 비교 결과를 나타내는 궤적 부하량(WTrj)을 계산한다. The trajectory load calculation unit 233 calculates a trajectory load amount W Trj indicating a comparison result between a trajectory distance, which is a difference between a surrounding vehicle trajectory and a self-driving trajectory, and a preset threshold.

자차 주행 궤적과 주위 차량 궤적을 예측하여 충돌 위험이 있는 경우, 이는 운전자에게 높은 주의를 요구하므로 이를 궤적 부하량(WTrj)으로 나타낼 수 있다. When there is a risk of collision by predicting the own vehicle trajectory and the surrounding vehicle trajectory, this may be expressed as a trajectory load (W Trj ) because it requires high attention from the driver.

따라서 궤적 부하량(WTrj)은 자차 주행 궤적(13-1) 및 주위 차량 궤적(13-3)을 이용하여 아래의 수학식 2와 같이 계산한다. Therefore, the trajectory load amount W Trj is calculated by using Equation 2 below using the host vehicle travel trajectory 13-1 and the surrounding vehicle trajectory 13-3.

Figure pat00002
Figure pat00002

여기서, DTrj는 자차 궤적이고, TTrj는 주위 차량 궤적이다 그리고, i는 탐지된 주위 차량으로 1,2,…,n 이다.Here, D Trj is the own vehicle trajectory, T Trj is the surrounding vehicle trajectory, and i is the detected surrounding vehicle 1,2, ... , n.

위의 수학식 2에 따르면, 궤적 부하량(WTrj)은 탐지된 주위 차량의 궤적들과 자차의 궤적을 비교하여 궤적 거리가 임계값(Threshold)보다 낮은 경우 1, 높은 경우 0으로 설정된다. According to Equation 2 above, the trajectory load amount W Trj is set to 1 when the trajectory distance is lower than the threshold value and 0 when the trajectory distance is compared by comparing the detected trajectories of the surrounding vehicle with the trajectory of the host vehicle.

주위차량 부하량 계산부(234)는 주변환경 정보로부터 전/후/측방의 차량 개수와 차선 변경 유무를 파악하고, 이를 통해 주위 차량 부하량(WS)을 계산한다. 운전 중에 자차 주변에 차량이 있고, 이 차량들의 궤적의 변화가 심하다면 이것은 운전자에게 주의를 요하는 부하량으로 작용할 수 있다. The surrounding vehicle load amount calculating unit 234 determines the number of vehicles in the front / rear / side and whether there is a lane change from the surrounding environment information, and calculates the surrounding vehicle load W S through this. If there are vehicles around the host vehicle while driving, and the trajectories of these vehicles are severe, this can act as a load that requires attention from the driver.

주위차량 부하량 계산부(234)에 의한 수행되는 주위 차량 부하량 계산은 충돌 소요 시간(Time to Collision: TTC) 기반으로 자차(24)를 중심으로 도 6 에 도시된 바와 같이 3개의 위험 영역들(SECTION ①, SECTION ② 및 SECTION ③)으로 구분한다. 여기서, TTC는 대상 차량의 접근속도(closing speed)가 일정할 때 대상 차량이 목표 차량에 부딪히기까지 소용되는 시간으로 정의된다. 이러한 TTC는 내부 센서(21)의 차속 센서(211) 및 조향각 센서(213)로부터 각각 획득된 차속 정보와 조향각 정보를 이용해 구할 수 있다.The calculation of the surrounding vehicle load performed by the surrounding vehicle load calculation unit 234 is based on the time to collision (TTC), based on the host vehicle 24, as shown in FIG. 6, three danger areas (SECTION) ①, SECTION ② and SECTION ③). Here, the TTC is defined as the time spent until the target vehicle hits the target vehicle when the closing speed of the target vehicle is constant. The TTC may be obtained by using vehicle speed information and steering angle information obtained from the vehicle speed sensor 211 and the steering angle sensor 213 of the internal sensor 21, respectively.

예컨대, 도 7 및 도 8 에 도시된 바와 같이, 전/후방 레이더(221)에 의한 탐지 영역(262,263)과 전/후방 카메라(222)에 의한 탐지 영역(261), 측방 초음파 센서(223)에 의해 탐지된 탐지 영역(45)에서 각각 탐지된 자차(24)의 주위 차량(271,272,273,274)들을 인식하고, TTC 값으로 탐지된 차량과의 상대 거리에서 상대 속도 값을 나눈 시간을 계산함으로써 위험 영역(SECTION ①, ② 및 ③)을 구할 수 있다.For example, as shown in FIGS. 7 and 8, the detection areas 262 and 263 by the front / rear radar 221, the detection areas 261 by the front / rear camera 222, and the side ultrasound sensor 223 By detecting the surrounding vehicles 271,272,273,274 of the own vehicle 24 detected in the detection region 45 detected by each, and calculating the time divided by the relative speed value at the relative distance from the vehicle detected by the TTC value, the danger region (SECTION ①, ② and ③) are available.

3개의 위험 영역들(SECTION ①, ② 및 ③)이 구분되면, 주위차량 부하량 계산부(234)는 구분된 각 영역에서 탐지된 차량의 개수와 차선 변경 유무를 판단하여 주위 차량 부하량(Ws)을 계산하다. When the three danger areas (SECTION ①, ②, and ③) are classified, the surrounding vehicle load calculation unit 234 determines the number of vehicles detected in each divided region and the presence or absence of lane change to determine the surrounding vehicle load Ws. Calculate.

계산된 주위 차량 부하량(Ws)은 SECTION ①에 탐지된 차량이 많을수록, 차선 변경이 많을수록 증가한다. The calculated surrounding vehicle load (Ws) increases as the number of vehicles detected in SECTION ① increases and the number of lane changes increases.

반대로, 주위에 탐지된 차량이 거의 없거나 있더라도 SECTION ③에 있는 경우, 그리고 주위 차량의 궤적 변화가 심하지 않은 경우, 주위차량 부하량(Ws)은 감소한다. Conversely, if there is little or no vehicle detected in the vicinity, if the vehicle is in SECTION ③, and the trajectory of the surrounding vehicle is not severe, the surrounding vehicle load Ws decreases.

이러한 주위차량 부하량(Ws)은 아래의 수학식 3으로 나타낼 수 있다.The surrounding vehicle load Ws may be represented by Equation 3 below.

Figure pat00003
Figure pat00003

여기서, α, β는 weighting Factor이고, S는 탐지된 차량의 위치(SECTION ①, ② 및 ③)이고, L은 탐지된 주위 차량의 차선 변경 유무이다. 여기서, 변경이 있는 경우 1, 없는 경우 0으로 한다. 탐지된 차량은 1부터 n까지로 표시한다.Here, α and β are weighting factors, S is the position of the detected vehicle (SECTION ①, ② and ③), and L is the presence or absence of the lane change of the detected surrounding vehicle. Here, it is set to 1 when there is a change and 0 when there is no change. The detected vehicles are marked with 1 to n.

도로 부하량 계산부(235)는 상기 주변환경 정보에 포함된 도로 형태, 도로 노면 상태 및 교통량 상태를 이용해 도로 부하량을 계산한다. 직선로보다는 곡선로가, 일반로보다는 교차로 부분에서 그리고 전방 교통상황이 나쁠수록 운전자의 주의가 요구되므로, 이러한 도로 부하량에 대한 계산이 필요하다.The road load calculation unit 235 calculates a road load using a road shape, a road surface state, and a traffic state included in the surrounding environment information. It is necessary to calculate these road loads because the curved roads rather than straight roads, the intersections rather than the regular roads, and the worse the traffic ahead, require the driver's attention.

도로 부하량 계산부(235)는 차량내의 네비게이션(225)으로부터 획득된 내비게이션 정보를 이용하여 주행할 전방 도로의 형태를 파악하고, 전/후방카메라로부터 획득된 도로 노면 상태 정보를 반영한다(포장도로, 비포장도로) 계산은 아래의 수학식 4로 나타낼 수 있다. The road load calculation unit 235 uses the navigation information obtained from the navigation 225 in the vehicle to grasp the shape of the road ahead to be driven, and reflects the road surface state information obtained from the front / rear cameras (paved road, The unpaved road) can be calculated by Equation 4 below.

Figure pat00004
Figure pat00004

여기서, A는 도로 상태를 나타내는 값이다. 예컨대, A는 전방 도로의 곡률값이 클수록 큰 값을 가지며, 신호등 변화, 보행자, 속도 제한, 어린이 보호구역일 경우 큰 값을 갖게 된다. B는 도로 노면 상태값으로 포장도로, 비포장을 반영하며, C는 전방 도로의 교통량으로 교통량이 많을수록 큰 값을 갖는다. 이러한 A, B, C는 모두 0 ~ 5 범위로 정규화될 수 있다.Here, A is a value indicating the road condition. For example, A has a larger value as the curvature value of the road ahead increases, and has a large value in the case of traffic light changes, pedestrians, speed limit, and child protection zones. B reflects the pavement and unpaved as the road surface condition value, and C is the traffic volume of the road ahead, which has a larger value as the traffic volume increases. All of these A, B, and C can be normalized in the range of 0-5.

운전자 위험지수 관리부(236)는 각 단계에서 계산된 부하량(WTrj, WS, WR)을 통합한 운전자 위험지수(주위 위험지수)를 운전자에게 제공한다. 예컨대, 운전자 위험지수 관리부(236)는 궤적 부하량(WTrj)과, 주위 차량 부하량(WS) 및 도로 부하량(WR)을 합산하고, 합산된 결과값을 운전자 위험지수로서 생성한다. The driver risk index management unit 236 calculates the loads (W Trj , W S , W R ) is provided to the driver with an integrated driver risk index (around risk index). For example, the driver risk index management unit 236 sums the trajectory load W Trj , the surrounding vehicle load W S and the road load W R , and generates the summed result value as the driver risk index.

운전자 위험지수는 아래의 수학식 5로 나타낼 수 있다.The driver risk index can be expressed by Equation 5 below.

Figure pat00005
Figure pat00005

운전난이도 검출부(30)는 자차(24)의 주행 위치에 따른 운전난이도를 검출한다. 즉, 운전난이도 검출부(30)는 각 지역별로 운전난이도가 사전에 정의 및 수치화하여 자차(24)의 현재 위치가 상기한 지역 중 어디에 포함되는지 여부를 확인한 후, 자차(24)의 현재 위치에 대응되는 운전난이도를 검출한다. The driving difficulty detection unit 30 detects the driving difficulty according to the driving position of the host vehicle 24. That is, the driving difficulty detection unit 30 determines and determines whether the current location of the host vehicle 24 is included in the above-mentioned region by defining and digitizing the driving difficulty in each region in advance, and then responding to the current location of the host vehicle 24 Detects the driving difficulty.

여기서, 자차(24)의 현재 위치가 사고가 자주 발생하는 지역이거나, 터널, 산길 등과 같이 상대적으로 운전이 어렵거나 실제 사고나 발생하는 지적에는 운전난이도가 상대적으로 높게 설정된다. Here, the current location of the host vehicle 24 is a region where an accident frequently occurs, or a driving difficulty is set relatively high in a point where it is relatively difficult to drive, such as a tunnel or a mountain road, or an actual accident or an occurrence.

제어부(40)는 감정지수, 운전자 위험지수 및 운전난이도가 기 설정된 안전영역에 포함되는지 여부에 따라 차량 주행부(60)를 제어하여 자차(24)가 안전지역으로 주행하도록 한다.The control unit 40 controls the vehicle driving unit 60 according to whether the emotion index, the driver's risk index, and the driving difficulty are included in the predetermined safety area, so that the host vehicle 24 travels to the safety area.

즉, 제어부(40)는 도 9 에 도시된 바와 같이 감정지수, 운전자 위험지수 및 운전난이도 각각을 분석하여 기 설정된 안전 영역에 포함되는지 여부를 판단하고, 판단 결과 안전 영역에 포함되지 않으면, 차량 주행부(60)를 제어하여 자차(24)가 안전지역으로 주행할 수 있도록 제어한다. 또한, 제어부(40)는 감정지수, 운전자 위험지수 및 운전난이도 각각이 안전 영역에 포함되지 않음을 경고하거나, 기 설정된 전화번호, 예를 들어 운전자나 동승자의 지인의 전화번호로 위험을 경고한다. That is, the control unit 40 analyzes each of the emotion index, the driver's risk index, and the driving difficulty as shown in FIG. 9 to determine whether or not it is included in the preset safe area. The control unit 60 is controlled so that the host vehicle 24 can travel to a safe area. In addition, the control unit 40 warns that each of the emotional index, the driver's risk index, and the driving difficulty is not included in the safe area, or warns the user of the danger with a preset telephone number, for example, a telephone number of a driver or acquaintance.

또한, 제어부(40)는 음성지수, 시각지수 및 행동지수를 학습기반의 감정맵에 적용하여 감정지수가 기 설정된 안정영역에 포함되지 않으면 감정상태 조절부(50)를 제어하여 운전자 또는 동승자의 감정상태가 평정 상태가 되도록 운전자 또는 동승자의 감정 상태를 조절한다. In addition, the control unit 40 applies the voice index, the visual index and the behavior index to the learning-based emotion map, and if the emotion index is not included in the predetermined stable region, the emotion state control unit 50 is controlled to control the emotion of the driver or passenger. The emotional state of the driver or passenger is adjusted so that the state becomes a calm state.

감정상태 조절부(50)는 운전자 또는 동승자의 감정상태가 평정 상태가 되도록 운전자 또는 동승자의 감정 상태를 조절한다. The emotional state adjusting unit 50 adjusts the emotional state of the driver or the passenger so that the emotional state of the driver or the passenger becomes a steady state.

도 10 을 참조하면, 감정상태 조절부(50)는 영상 출력부(51), 음성 출력부(52), 공조기(53), 향기 출력부(54), 안마기(55), 엠비언트 라이트(56) 및 윈드실드 투과율 조정부(57)가 포함될 수 있다. Referring to FIG. 10, the emotional state control unit 50 includes an image output unit 51, an audio output unit 52, an air conditioner 53, a fragrance output unit 54, a massager 55, and ambient light 56. And a windshield transmittance adjustment unit 57 may be included.

여기서 윈드실드 투과율 조정부(57)는 제어부(40)가 시각지수 검출부(122)에서 검출된 눈부심에 따라 투과율을 조정할 수 있다. Here, the windshield transmittance adjustment unit 57 may control the transmittance of the control unit 40 according to the glare detected by the visual index detection unit 122.

즉, 제어부(40)는 시각지수 검출부(122)에서 검출한 광원의 3D 좌표와 운전자의 눈 위치의 3D 좌표를 기반으로 광원의 빛이 운전자의 눈에 도달할 때 통과되는 윈드실드의 좌표를 역산하여 윈드실드 투과율 조정부(57)를 제어하여 윈드실드 좌표 주변의 윈드실드 투과율을 낮춤으로써, 운전자의 눈부심을 방지할 수 있다. That is, the control unit 40 inverts the coordinates of the windshield that passes when the light of the light source reaches the driver's eye based on the 3D coordinates of the light source and the driver's eye position detected by the visual index detector 122. By controlling the windshield transmittance adjusting unit 57 to lower the windshield transmittance around the windshield coordinates, it is possible to prevent glare from the driver.

참고로, 본 실시예에서 감정상태 조절부(50)는 상기한 실시예에 한정되는 것은 아니며, 운전자의 감성을 조절할 수 있는 다양한 장치가 모두 포함될 수 있다.For reference, in this embodiment, the emotional state control unit 50 is not limited to the above-described embodiment, and various devices capable of adjusting the driver's emotion may be included.

차량 주행부(60)는 자율 주행 방식을 통해 차량을 안전지역으로 주행시킨다. The vehicle driving unit 60 drives the vehicle to a safe area through an autonomous driving method.

도 11 을 참조하면, 차량 주행부(60)는 자차(24)의 엔진을 제어하는 엔진 제어모듈(61), 자차(24)의 제동을 제어하는 제동 제어모듈(62), 자차(24)의 조향을 제어하는 조향 제어모듈(63) 및 상기한 엔진 제어모듈(61), 제동 제어모듈(62) 및 조향 제어모듈(63)을 제어하여 차량이 안전지역으로 이동할 수 있도록 제어하는 차량 제어모듈(64)을 포함한다. Referring to FIG. 11, the vehicle driving unit 60 includes an engine control module 61 that controls the engine of the host vehicle 24, a braking control module 62 that controls braking of the host vehicle 24, and a host vehicle 24. A vehicle control module controlling the steering control module 63 for controlling steering and the engine control module 61, the braking control module 62, and the steering control module 63 to control the vehicle to move to a safe area ( 64).

이하 본 발명의 일 실시예에 따른 안전운전 지원 방법을 도 12 및 도 13 을 참조하여 상세하게 설명한다.Hereinafter, a method for supporting safe driving according to an embodiment of the present invention will be described in detail with reference to FIGS. 12 and 13.

도 12 는 본 발명의 일 실시예에 따른 안전운전 지원 방법의 순서도이고, 도 13 은 본 발명의 일 실시예에 따른 운전자 위험지수 검출 과정을 도시한 순서도이다.12 is a flowchart of a method for supporting safe driving according to an embodiment of the present invention, and FIG. 13 is a flowchart illustrating a process of detecting a driver's risk index according to an embodiment of the present invention.

도 12 를 참조하면, 먼저, 감정지수 검출부(10)는 운전자 또는 동승자의 시각과 음성 및 행동 중 적어도 하나를 이용하여 운전자 또는 동승자의 감정지수를 검출한다(S10). Referring to FIG. 12, first, the emotion index detecting unit 10 detects an emotion index of a driver or a passenger using at least one of a driver's or a passenger's time, voice, and behavior (S10).

이 경우, 제1 감정 인식부(11)는 운전자 및 동승자의 음성신호의 특성값을 검출하고 검출된 특성값에 따라 음성지수를 검출한다. 제2 감정 인식부(12)는 운전자 및 동승자 각각의 눈 또는 얼굴을 촬영하고 촬영된 영상에서 운전자의 시선 및 얼굴을 검출한 후, 검출된 운전자 및 동승자 각각의 시선의 움직임, 얼굴 표정 및 눈부심에 따른 시각지수를 검출한다. 제3 감정 인식부(13)는 발진형태 감지부(131)에 의해 감지된 엑셀 페달 또는 브레이크 페달의 위치 변화에 따른 발진형태를 검출한 후, 이러한 발진형태에 대응되는 발진지수를 검출하고, 크락션 빈도 감지부(134)에 의해 감지된 운전자의 크락션 작동지수 및 동승자 움직임 지수 검출부(133)에 의해 검출된 동승자 움직임 지수를 검출한 후, 검출된 발진지수, 크락션 작동지수 및 동승자 움직임 지수를 이용하여 운전자 및 동승자의 행동지수를 검출한다.In this case, the first emotion recognition unit 11 detects a characteristic value of a voice signal of a driver and a passenger and a voice index according to the detected characteristic value. The second emotion recognition unit 12 photographs the eyes or faces of the driver and passengers, detects the driver's gaze and face in the captured image, and then detects the movements, facial expressions, and glare of each of the detected drivers and passengers' gazes. It detects the time index. The third emotion recognition unit 13 detects an oscillation type according to a change in the position of an Excel pedal or a brake pedal sensed by the oscillation type detection unit 131, and then detects an oscillation index corresponding to the oscillation type, and applies a collision. After detecting the driver's kinetic operation index and the passenger motion index detected by the frequency detecting unit 134, the passenger's motion index detected by the driver 133, and then using the detected oscillation index, the friction operation index, and the passenger motion index Detects driver and passenger behavior index.

이와 같이, 상기한 제1 감정 인식부(11), 제2 감정 인식부(12) 및 제3 감정 인식부(13)에 의해 음성지수, 시각지수 및 행동지수가 검출됨에 따라, 감정지수 산출부(14)는 이들 음성지수, 시각지수 및 행동지수를 학습기반의 감정맵에 적용하여 감정지수를 산출한다.As described above, as the voice index, the visual index, and the behavior index are detected by the first emotion recognition unit 11, the second emotion recognition unit 12, and the third emotion recognition unit 13, the emotion index calculation unit (14) calculates the emotional index by applying these voice index, visual index and behavioral index to the learning-based emotion map.

또한, 운전자 위험지수 검출부(20)는 운전성향을 분석하여 그 상응하는 운전자 위험지수(또는 주위 위험지수)를 검출한다(S20). In addition, the driver risk index detection unit 20 analyzes the driving propensity to detect the corresponding driver risk index (or surrounding risk index) (S20).

도 13 을 참조하면, 주변환경 인식부(23)가 자차(24) 주행 궤적을 생성(S210)하고, 생성된 자차 주행 궤적을 통해 자차(24)의 위치를 예측한다(S220). 이러한 자차 주행 궤적은 차속 정보, 조향각 정보 가감속 정보 및 요레이트 정보를 이용하여 생성될 수 있다. Referring to FIG. 13, the surrounding environment recognition unit 23 generates a driving trajectory for the host vehicle 24 (S210), and predicts the position of the host vehicle 24 through the generated vehicle driving trajectory (S220). Such a vehicle driving trajectory may be generated using vehicle speed information, steering angle information acceleration / deceleration information, and yaw rate information.

이어, 주변환경 인식부(23)는 주위 차량 궤적을 생성하고(S230), 주위차량의 위치를 예측한다(S240). 이러한 주위 차량 궤적은 레이더(221)로부터 획득된 종방향 거리 정보와 카메라 및 초음파 발생기를 통해 획득된 횡방향 거리 정보를 이용하여 생성될 수 있다. 여기서, 종방향 거리 정보는 자차(24)에 대한 주위 차량의 종방향 거리 정보이고, 횡방향 거리 정보는 자차(24)에 대한 주위 차량의 횡방향 거리 정보이다.Subsequently, the surrounding environment recognition unit 23 generates a surrounding vehicle trajectory (S230) and predicts the location of the surrounding vehicle (S240). The surrounding vehicle trajectory may be generated using longitudinal distance information obtained from the radar 221 and transverse distance information obtained through a camera and an ultrasonic generator. Here, the longitudinal distance information is the longitudinal distance information of the surrounding vehicle with respect to the host vehicle 24, and the lateral distance information is the transverse distance information of the surrounding vehicle with respect to the host vehicle 24.

이어, 주변환경 인식부(23)는 궤적 부하량을 계산한다(S250). 궤적 부하량은 자차 주행궤적과 주위 차량 주행 궤적을 이용해 계산될 수 있다. 예컨대, 탐지된 주위 차량의 주행 궤적들과 자차 주행 궤적을 비교하여 이들 간의 차이인 궤적 거리가 임계값보다 낮은 경우, 1, 임계값보다 높은 경우, 0으로 설정된다.Subsequently, the surrounding environment recognition unit 23 calculates the trajectory load (S250). The trajectory load amount can be calculated using the own vehicle driving trajectory and the surrounding vehicle driving trajectory. For example, by comparing the detected driving trajectories of the surrounding vehicles with the own vehicle driving trajectories, a difference between them is 1 when the trajectory distance is lower than the threshold value and 1 when the trajectory distance is lower than the threshold value.

궤적 부하량이 계산되면, 주변환경 인식부(23)는 주위 차량 부하량을 계산한다(S260). 주위 차량 부하량은 TTC을 기반으로 자차(24)를 중심으로 구획된 다수의 위험 영역별 차량 개수와 차선 변경 유무를 고려하여 계산된다. 다수의 위험 영역은 레이더(221)와 카메라, 초음파를 이용하여 주위 차량을 인식하고, TTC 값으로 탐지된 차량과의 상대 거리에서 상대 속도 값을 나눈 시간을 계산하여 다수의 위험 영역을 구할 수 있다. When the trajectory load amount is calculated, the surrounding environment recognition unit 23 calculates the surrounding vehicle load amount (S260). The surrounding vehicle load is calculated in consideration of the number of vehicles for each of the dangerous areas partitioned around the host vehicle 24 based on the TTC and the presence or absence of a lane change. A plurality of danger areas can be obtained by recognizing surrounding vehicles using a radar 221, a camera, and ultrasound, and calculating a time obtained by dividing a relative speed value from a relative distance from the vehicle detected by the TTC value. .

이어, 주변환경 인식부(23)는 도로 부하량을 계산한다(S270). 도로 부하량은 내비게이션 정보, 도로 노면 상태 정보, 교통 정보 등을 통해 계산될 수 있다.Subsequently, the surrounding environment recognition unit 23 calculates the road load (S270). Road loads may be calculated through navigation information, road surface condition information, traffic information, and the like.

이어, 주변환경 인식부(23)는 운전자 위험 지수를 계산한다(S280). 운전 위험 지수는 궤적 부하량, 주위 차량 부하량 및 도로 부하량의 합산을 통해 계산될 수 있다. Subsequently, the surrounding environment recognition unit 23 calculates a driver risk index (S280). The driving risk index can be calculated by adding up the trajectory load, the surrounding vehicle load, and the road load.

한편, 운전난이도 검출부(30)는 각 지역별로 운전난이도를 사전에 정의 및 수치화하여 자차(24)의 현재 위치가 상기한 지역 중 어디에 포함되는지 여부를 확인한 후, 자차(24)의 현재 위치에 대응되는 운전난이도를 검출한다(S30). On the other hand, the driving difficulty detection unit 30 defines and quantifies the driving difficulty for each region in advance, confirms whether the current location of the host vehicle 24 is included in any of the above regions, and then responds to the current location of the host vehicle 24 The detected driving difficulty is detected (S30).

자차(24)의 현재 위치가 사고가 자주 발생하는 지역이거나, 터널, 산길 등과 같이 상대적으로 운전이 어렵거나 실제 사고나 발생하는 지적에는 운전난이도가 상대적으로 높게 설정된다. The current location of the host vehicle 24 is a region where an accident frequently occurs, or a driving difficulty is relatively high in a point where it is relatively difficult to drive, such as a tunnel or a mountain road, or an actual accident or an indication.

상기한 바와 같이 감정지수, 운전자 위험지수 및 운전난이도가 검출됨에 따라, 제어부(40)는 감정지수, 운전자 위험지수 및 운전난이도가 기 설정된 안전영역에 포함되는지 여부를 판단하고(S40), 판단 결과 감정지수, 운전자 위험지수 및 운전난이도가 기 설정된 안전영역에 포함되는지 여부에 따라 운전자 또는 가족 등에 경고하거나, 차량 주행부(60)를 제어하여 자차(24)가 안전지역으로 주행하도록 한다(S50). As described above, as the emotional index, the driver's risk index, and the driving difficulty are detected, the control unit 40 determines whether the emotional index, the driver's risk index, and the driving difficulty are included in a predetermined safety area (S40), and the determination result Depending on whether the emotion index, the driver's risk index, and the driving difficulty are included in the predetermined safety area, the driver or the family is warned, or the vehicle driving unit 60 is controlled to allow the host vehicle 24 to drive to the safe area (S50). .

이 경우, 차량 주행부(60)는 감정지수, 운전자 위험지수 및 운전난이도가 안전 영역에 포함되지 않으면, 자차(24)가 안전지역으로 주행할 수 있도록 하고, 제어부(40)는 감정지수, 운전자 위험지수 및 운전난이도 각각이 안전 영역에 포함되지 않음을 경고하거나, 기 설정된 전화번호, 예를 들어 운전자나 동승자의 지인의 전화번호로 위험을 경고한다. In this case, the vehicle driving unit 60 allows the host vehicle 24 to travel to the safe area when the emotion index, the driver's risk index, and the driving difficulty are not included in the safe area, and the control unit 40 controls the emotion index, the driver It warns that each of the risk index and the difficulty of driving is not included in the safety zone, or warns of danger with a preset telephone number, for example, the telephone number of a driver or acquaintance.

한편, 제어부(40)는 음성지수, 시각지수 및 행동지수를 학습기반의 감정맵에 적용하여 감정지수가 기 설정된 안정영역에 포함되지 않으면 감정상태 조절부(50)를 제어하여 운전자 또는 동승자의 감정상태가 평정 상태가 되도록 운전자 또는 동승자의 감정 상태를 조절할 수도 있다. On the other hand, the control unit 40 applies the voice index, the visual index, and the behavioral index to the learning-based emotion map, and if the emotion index is not included in the predetermined stable region, the emotion state control unit 50 is controlled to control the emotion of the driver or passenger. The emotional state of the driver or passenger may be adjusted so that the state becomes a calm state.

이때 제어부(40)는 시각지수 검출부(122)에서 검출된 눈부심에 따라 감정상태 조절부(50)에 포함된 윌드실드 투과율 조정부(50)를 제어할 수 있다. At this time, the control unit 40 may control the windshield transmittance adjustment unit 50 included in the emotional state control unit 50 according to the glare detected by the visual index detection unit 122.

즉, 제어부(40)는 시각지수 검출부(122)에서 검출한 광원의 3D 좌표와 운전자의 눈 위치의 3D 좌표를 기반으로 광원의 빛이 운전자의 눈에 도달할 때 통과되는 윈드실드의 좌표를 역산하여 윈드실드 투과율 조정부(57)를 제어하여 윈드실드 좌표 주변의 윈드실드 투과율을 낮춤으로써, 운전자의 눈부심을 방지할 수 있다. That is, the control unit 40 inverts the coordinates of the windshield that passes when the light of the light source reaches the driver's eye based on the 3D coordinates of the light source and the driver's eye position detected by the visual index detector 122. By controlling the windshield transmittance adjustment unit 57 to lower the windshield transmittance around the windshield coordinates, it is possible to prevent glare from the driver.

이와 같이, 본 발명의 일 실시예에 따른 안전운전 지원 장치 및 방법은 운전자와 동승자의 감정지수, 운전자 위험지수 및 운전난이도를 종합적으로 고려하여 현재 운전중인 자동차의 안전성 여부를 판단하고 판단 결과에 따라 차량의 조향 및 제동 제어를 통해 차량을 안전지역으로 이동시켜 사고를 미연에 방지한다. As described above, the safe driving support apparatus and method according to an embodiment of the present invention comprehensively considers the driver's and passenger's emotion index, the driver's risk index, and the driving difficulty to determine whether the vehicle is currently driving and to determine whether the vehicle is safe. The vehicle is moved to a safe area through steering and braking control of the vehicle to prevent accidents.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those skilled in the art to which the technology pertains are capable of various modifications and other equivalent embodiments. Will understand. Therefore, the true technical protection scope of the present invention should be defined by the claims below.

10: 감정지수 검출부 11: 제1 감정 인식부
111: 음성신호 감지부 112: 음성지수 검출부
12: 제2 감정 인식부 121: 운전자 얼굴 촬영부
122: 시각지수 검출부 123: 동승자 얼굴 촬영부
124 : 스테레오 카메라 13: 제3 감정 인식부
131: 발진형태 감지부 132: 행동지수 검출부
133: 동승자 움직임 지수 검출부 134 : 크락션 빈도 검출부
14: 감정지수 산출부 20: 운전자 위험지수 검출부
21: 내부 센서 211: 차속 센서
212: 요레이트 센서 213: 조향각 센서
214: G 센서 215: 휠 스피드 센서
22: 외부 센서 221: 전/후방 레이더
222: 전/후방 카메라 223: 측방 초음파 센서
224: AVM용 카메라 23: 주변환경 인식부
231: 자차 주행 궤적 생성부 232: 주위 차량 궤적 생성부
233: 궤적 부하량 계산부 234: 주위차량 부하량 계산부
235: 도로 부하량 계산부 236: 운전자 위험지수 관리부
30: 운전난이도 검출부 40: 제어부
50: 감정상태 조절부 51: 영상 출력부
52: 음성 출력부 53: 공조기
54: 향기 출력부 55: 안마기
56: 엠비언트 라이트 57 : 윈드실드 투과율 조정부
60: 차량 주행부 61: 엔진 제어모듈
62: 제동 제어모듈 63: 조향 제어모듈
64: 차량 제어모듈
10: emotion index detection unit 11: first emotion recognition unit
111: voice signal detection unit 112: voice index detection unit
12: second emotion recognition unit 121: driver face photographing unit
122: visual index detection unit 123: passenger face photographing unit
124: stereo camera 13: third emotion recognition unit
131: oscillation type detection unit 132: behavioral index detection unit
133: passenger motion index detection unit 134: crack frequency detection unit
14: emotional index calculation unit 20: driver risk index detection unit
21: internal sensor 211: vehicle speed sensor
212: yaw rate sensor 213: steering angle sensor
214: G sensor 215: Wheel speed sensor
22: external sensor 221: front / rear radar
222: front / rear camera 223: side ultrasonic sensor
224: AVM camera 23: surroundings recognition unit
231: own vehicle driving trajectory generating unit 232: surrounding vehicle trajectory generating unit
233: trajectory load calculation unit 234: surrounding vehicle load calculation unit
235: Road load calculation unit 236: Driver risk index management unit
30: driving difficulty detection unit 40: control unit
50: emotional state control unit 51: video output unit
52: audio output unit 53: air conditioner
54: fragrance output section 55: massager
56: ambient light 57: windshield transmittance adjustment unit
60: vehicle driving unit 61: engine control module
62: brake control module 63: steering control module
64: vehicle control module

Claims (20)

운전자 및 동승자 각각의 시선의 움직임, 얼굴 표정 및 눈부심에 따른 시각지수와, 음성신호의 특성에 따른 음성지수, 움직임에 따른 행동지수 중 적어도 하나를 이용하여 운전자 및 동승자의 감정지수를 검출하는 감정지수 검출부;
자차의 자차 주행 정보와 주변환경 정보를 이용하여 운전자 위험지수를 검출하는 운전자 위험지수 검출부;
자차의 주행 위치에 따른 운전난이도를 검출하는 운전난이도 검출부;
자차의 자율주행을 제어하는 차량 주행부; 및
상기 감정지수, 상기 운전자 위험지수 및 상기 운전난이도가 기 설정된 안전영역에 포함되는지 여부에 따라 상기 차량 주행부를 제어하여 자차가 안전지역으로 주행하도록 하는 제어부를 포함하는 안전운전 지원 장치.
Emotion index that detects the driver's and passenger's emotion index using at least one of the driver's and passenger's gaze movement, facial expression and glare visual index, the voice signal's characteristics, and the movement's behavior index. Detection unit;
A driver risk index detecting unit for detecting a driver risk index using the own vehicle driving information and surrounding environment information of the host vehicle;
A driving difficulty detecting unit detecting a driving difficulty according to a driving position of the host vehicle;
A vehicle driving unit that controls autonomous driving of the host vehicle; And
Safe driving support device including a control unit to control the vehicle driving unit according to whether the emotion index, the driver's risk index and the driving difficulty is included in a predetermined safety area to drive the vehicle to a safe area.
제 1 항에 있어서, 상기 감정지수 검출부는,
운전자 및 동승자의 음성신호의 특성값을 검출하고 검출된 특성값에 따라 음성지수를 검출하는 제1 감정 인식부;
운전자 및 동승자를 촬영하고 주변을 촬영한 영상을 분석하여 운전자 및 동승자의 시각지수를 검출하는 제2 감정 인식부;
엑셀 페달 또는 브레이크 페달의 위치를 감지하여 엑셀 페달 또는 브레이크 페달의 발진 형태, 및 동승자의 움직임에 따라 행동지수를 검출하는 제3 감정 인식부; 및
상기 음성지수, 상기 시각지수 및 상기 행동지수를 이용하여 상기 감정지수를 산출하는 감정지수 산출부를 포함하는 것을 특징으로 하는 안전운전 지원 장치.
The method of claim 1, wherein the emotion index detection unit,
A first emotion recognition unit that detects a characteristic value of a driver and a passenger's voice signal and detects a voice index according to the detected characteristic value;
A second emotion recognition unit that detects a driver and a passenger's visual index by photographing a driver and a passenger and analyzing an image taken around the driver;
A third emotion recognition unit detecting a position of the accelerator or brake pedal to detect an oscillation type of the accelerator pedal or brake pedal, and an action index according to the movement of a passenger; And
And an emotional index calculator configured to calculate the emotional index using the voice index, the visual index, and the action index.
제 2 항에 있어서, 상기 제1 감정 인식부는,
운전자 및 동승자의 음성신호를 감지하는 음성신호 감지부; 및
상기 음성신호 감지부에 의해 감지된 음성신호의 특성값을 검출하고 검출된 특성값에 대응되는 음성지수를 검출하는 음성지수 검출부를 포함하는 것을 특징으로 하는 안전운전 지원 장치.
The method of claim 2, wherein the first emotion recognition unit,
A voice signal detection unit for detecting a voice signal of a driver and a passenger; And
And a voice index detection unit detecting a characteristic value of the voice signal detected by the voice signal detection unit and detecting a voice index corresponding to the detected characteristic value.
제 2 항에 있어서, 상기 제2 감정 인식부는,
운전자의 눈 또는 얼굴을 촬영하는 운전자 얼굴 촬영부;
동승자의 눈 또는 얼굴을 촬영하는 동승자 얼굴 촬영부;
자차의 주변을 촬영하는 스테레오 카메라; 및
상기 운전자 얼굴 촬영부에 의해 촬영된 영상에서 운전자의 눈 위치를 기반으로 시선 및 얼굴을 검출하고, 상기 동승자 얼굴 촬영부에 의해 촬영된 영상에서 동승자의 눈 위치를 기반으로 시선 및 얼굴을 검출하며, 상기 스테레오 카메라에서 촬영된 영상에서 광원의 위치를 검출한 후, 검출된 운전자와 동승자 각각의 시선의 움직임, 얼굴 표정, 및 광원의 위치와 눈의 위치에 의한 운전자의 눈부심에 따라 시각지수를 검출하는 시각지수 검출부를 포함하는 것을 특징으로 하는 안전운전 지원 장치.
The method of claim 2, wherein the second emotion recognition unit,
A driver's face photographing unit that photographs a driver's eye or face;
A passenger face photographing unit for photographing a passenger's eye or face;
A stereo camera photographing the surroundings of the host vehicle; And
The gaze and the face are detected based on the driver's eye position in the image photographed by the driver's face photographing unit, and the gaze and the face are detected based on the occupant's eye location in the image photographed by the passenger's face photographing unit, After detecting the position of the light source in the image photographed by the stereo camera, the visual index is detected according to the driver's and passenger's gaze movements, facial expressions, and the driver's glare by the position of the light source and the position of the eyes. Safe driving support device comprising a time index detection unit.
제 2 항에 있어서, 상기 제3 감정 인식부는,
엑셀 페달 또는 브레이크 페달의 발진형태를 감지하는 발진형태 감지부;
동승자의 팔 모션 크기 및 움직임 반경, 동승자의 움직임 빈도수 중 적어도 하나를 이용하여 동승자 움직임 지수를 검출하는 동승자 움직임 지수 검출부;
운전자의 크락션 작동빈도에 따른 크락션 작동지수를 검출하는 크락션 빈도 검출부; 및
상기 발진형태 감지부에 의해 각각 감지된 엑셀 페달 또는 브레이크 페달의 발진형태에 대응되는 발진지수, 상기 크락션 빈도 검출부에서 검출된 크락션 작동지수. 및 상기 동승자 움직임 지수 검출부에 의해 검출된 동승자 움직임 지수를 이용하여 운전자와 동승자의 행동지수를 검출하는 행동지수 검출부를 포함하는 것을 특징으로 하는 안전운전 지원 장치.
The method of claim 2, wherein the third emotion recognition unit,
An oscillation type detection unit that detects an oscillation type of an Excel pedal or a brake pedal;
A passenger motion index detector configured to detect a passenger motion index using at least one of a passenger's arm motion size, a motion radius, and a passenger's motion frequency;
A collision frequency detection unit that detects a collision operation index according to a driver's operation frequency; And
The oscillation index corresponding to the oscillation type of each of the excel pedal or brake pedal sensed by the oscillation type detection unit, and the ignition operation index detected by the crush frequency detection unit. And a behavior index detection unit configured to detect a behavior index of a driver and a passenger by using the occupant motion index detected by the occupant motion index detection unit.
제 2 항에 있어서, 운전자 및 동승자의 감정상태가 평정 상태가 되도록 운전자 및 동승자의 감정 상태를 조절하는 감정상태 조절부를 더 포함하는 것을 특징으로 하는 안전운전 지원 장치.
The safe driving support apparatus according to claim 2, further comprising an emotional state control unit that adjusts the emotional state of the driver and the passenger so that the emotional state of the driver and the passenger becomes a steady state.
제 6 항에 있어서, 상기 제어부는, 상기 음성지수, 상기 시각지수 및 상기 행동지수를 학습기반의 감정맵에 적용하여 상기 감정지수가 기 설정된 안정영역에 포함되지 않으면 상기 감정상태 조절부를 제어하는 것을 특징으로 하는 안전운전 지원 장치.
The method according to claim 6, wherein the control unit controls the emotion state control unit if the emotion index is not included in a predetermined stable region by applying the voice index, the visual index, and the behavior index to a learning-based emotion map. Features a safe driving support device.
제 7 항에 있어서, 상기 학습기반의 감정맵은, 상기 음성지수, 상기 시각지수 및 상기 행동지수 각각에 따라 운전자의 감정상태가 안정 영역 또는 위험 영역으로 구분되는 것을 특징으로 하는 안전운전 지원 장치.
The safe driving support apparatus according to claim 7, wherein the learning-based emotion map is divided into a stable area or a dangerous area according to the voice index, the visual index, and the behavior index.
제 6 항에 있어서, 상기 제어부는, 상기 감정지수 검출부에서 검출된 시각지수에 따라 상기 감정상태 조절부에 포함된 윌드실드 투과율 조정부를 제어하는 것을 특징으로 하는 안전운전 지원 장치.
The safe driving support apparatus according to claim 6, wherein the control unit controls a windshield transmittance adjustment unit included in the emotional state adjustment unit according to the visual index detected by the emotional index detection unit.
제 1 항에 있어서, 상기 운전자 위험지수 검출부는,
자차의 주행 상황을 감지하는 내부 센서로부터 입력받은 자차 주행 정보를 이용하여 자차 주행 궤적을 생성하는 자차 주행 궤적 생성부;
상기 자차의 주변 상황을 감지하는 외부 센서로부터 입력받은 주변환경 정보를 이용하여 주위 차량 궤적을 생성하는 주위 차량 궤적 생성부;
상기 주위 차량 궤적과 상기 자차 주행 궤적 간의 차이인 궤적 거리와 기 설정된 임계값 간의 비교 결과를 나타내는 궤적 부하량을 계산하는 궤적 부하량 계산부; 및
상기 계산된 궤적 부하량에 상응하는 운전자 위험지수를 생성하는 위험지수 관리부를 포함하는 것을 특징으로 하는 안전운전 지원 장치.
According to claim 1, wherein the driver risk index detection unit,
A vehicle driving trajectory generating unit generating a vehicle driving trajectory using the vehicle driving information received from an internal sensor that detects a driving situation of the vehicle;
A surrounding vehicle trajectory generation unit that generates a surrounding vehicle trajectory using ambient environment information input from an external sensor that senses the surrounding situation of the host vehicle;
A trajectory load calculation unit that calculates a trajectory load indicating a comparison result between a trajectory distance which is a difference between the surrounding vehicle trajectory and the own vehicle travel trajectory and a preset threshold; And
And a risk index management unit generating a driver risk index corresponding to the calculated trajectory load.
제 1 항에 있어서, 상기 운전난이도 검출부는, 각 구역별로 상기 운전난이도를 정의 및 수치화하여 자차의 현재 위치에 따라 상기 운전난이도를 검출하는 것을 특징으로 하는 안전운전 지원 장치.
The safe driving support apparatus according to claim 1, wherein the driving difficulty detection unit detects the driving difficulty according to a current position of the host vehicle by defining and digitizing the driving difficulty for each zone.
제 1 항에 있어서, 상기 제어부는, 상기 감정지수, 상기 운전자 위험지수 및 상기 운전난이도가 상기 안전영역에 포함되지 않으면 상기 차량 주행부를 제어하여 자차를 안전지역으로 주행하도록 하는 것을 특징으로 하는 안전운전 지원 장치.
The safe driving of claim 1, wherein the control unit controls the vehicle driving unit to drive the host vehicle to a safe area when the emotion index, the driver risk index, and the driving difficulty are not included in the safe area. Supported devices.
감정지수 검출부가 운전자 및 동승자 각각의 시선의 움직임, 얼굴 표정 및 눈부심에 따른 시각지수와, 음성신호의 특성에 따른 음성지수, 움직임에 따른 행동지수 중 적어도 하나를 이용하여 운전자 및 동승자의 감정지수를 검출하는 단계;
운전자 위험지수 검출부가 자차의 자차 주행 정보와 주변환경 정보를 이용하여 운전자 위험지수를 검출하는 단계;
운전난이도 검출부가 자차의 주행 위치에 따른 운전난이도를 검출하는 단계; 및
제어부가 상기 감정지수, 상기 운전자 위험지수 및 상기 운전난이도가 기 설정된 안전영역에 포함되는지 여부를 판단하여 판단 결과에 따라 차량 주행부를 제어하여 자차가 안전지역으로 주행하도록 하는 단계를 포함하는 안전운전 지원 방법.
The emotional index detection unit uses the driver's and passenger's emotional index to determine the driver's and passenger's emotional index using at least one of the visual index according to the movement, facial expression and glare of each driver, the voice index according to the characteristics of the voice signal, and the behavioral index according to the movement. Detecting;
A driver risk index detecting unit detecting a driver risk index using the own vehicle driving information and the surrounding environment information;
A driving difficulty detecting unit detecting a driving difficulty according to a driving position of the host vehicle; And
Safe driving support comprising the step of controlling the vehicle driving unit according to the determination result by determining whether the control unit includes the emotion index, the driver's risk index, and the driving difficulty in a predetermined safety area, and thereby driving the vehicle to a safe area Way.
제 13 항에 있어서, 상기 감정지수를 검출하는 단계는,
운전자 및 동승자의 음성신호의 특성값을 검출하고 검출된 특성값에 따라 음성지수를 검출하고, 운전자 및 동승자를 촬영하고 주변을 촬영한 영상을 분석하여 운전자와 동승자 각각의 시선의 움직임, 얼굴 표정, 및 광원의 위치와 눈의 위치에 의한 운전자의 눈부심에 따라 시각지수를 검출하며, 엑셀 페달 또는 브레이크 페달의 위치를 감지하여 엑셀 페달 또는 브레이크 페달의 발진 형태, 운전자의 크락션 작동빈도 및 동승자의 움직임에 따라 행동지수를 검출한 후, 상기 음성지수, 상기 시각지수 및 상기 행동지수를 이용하여 상기 감정지수를 산출하는 것을 특징으로 하는 안전운전 지원 방법.
The method of claim 13, wherein the step of detecting the emotional index,
Detects the characteristic values of the driver's and passenger's voice signals, detects the voice index according to the detected characteristic values, analyzes the image of the driver and the passenger and the surroundings, and analyzes the movements, facial expressions of each driver's and passenger's gaze, And detects the visual index according to the glare of the driver by the position of the light source and the position of the eye, and detects the position of the accelerator or brake pedal to detect the oscillation type of the accelerator or brake pedal, the driver's frequency of operation and the movement of the passenger A method of supporting safe driving, after detecting the behavioral index, and calculating the emotional index using the voice index, the visual index, and the behavioral index.
제 13 항에 있어서, 상기 제어부가 상기 감정지수가 기 설정된 안정영역에 포함되는지 여부에 따라 감정상태 조절부를 제어하여 운전자 및 동승자의 감정상태가 평정 상태가 되도록 운전자 및 동승자의 감정 상태를 조절하는 단계를 더 포함하는 특징으로 하는 안전운전 지원 방법.
14. The method of claim 13, wherein the control unit controls the emotional state control unit according to whether the emotional index is included in the predetermined stable region to adjust the emotional state of the driver and the passenger so that the emotional state of the driver and the passenger is steady. Safe driving support method further comprising a.
제 15 항에 있어서, 운전자 및 동승자의 감정상태를 조절하는 단계는, 상기 제어부가 상기 감정지수 검출부에서 검출된 시각지수에 따라 상기 감정상태 조절부에 포함된 윌드실드 투과율 조정부를 제어하는 단계를 포함하는 것을 특징으로 하는 안전운전 지원 방법.
16. The method of claim 15, wherein the step of adjusting the emotional state of the driver and the passenger includes controlling the windshield transmittance adjusting unit included in the emotional state adjusting unit according to the visual index detected by the emotional index detecting unit. Safe driving support method, characterized in that.
제 13 항에 있어서, 상기 운전자 위험지수를 검출하는 단계는,
자차의 주행 상황을 감지하는 내부 센서로부터 입력받은 자차 주행 정보를 이용하여 자차 주행 궤적을 생성하는 단계;
상기 자차의 주변 상황을 감지하는 외부 센서로부터 입력받은 주변환경 정보를 이용하여 상기 자차의 주위 차량 궤적을 생성하는 단계;
상기 주위 차량 궤적과 상기 자차 주행 궤적 간의 차이인 궤적 거리와 기 설정된 임계값 간의 비교 결과를 나타내는 궤적 부하량을 계산하는 단계; 및
상기 계산된 궤적 부하량에 상응하는 운전자 위험지수를 생성하는 단계를 포함하는 것을 특징으로 하는 안전운전 지원 방법.
The method of claim 13, wherein the step of detecting the driver's risk index,
Generating a own vehicle driving trajectory using the own vehicle driving information received from an internal sensor that detects the driving situation of the own vehicle;
Generating a surrounding vehicle trajectory of the own vehicle using the surrounding environment information received from an external sensor detecting the surrounding situation of the own vehicle;
Calculating a trajectory load amount indicating a comparison result between a trajectory distance which is a difference between the surrounding vehicle trajectory and the host vehicle trajectory and a preset threshold; And
And generating a driver risk index corresponding to the calculated trajectory load.
제 13 항에 있어서, 상기 운전난이도를 검출하는 단계는, 각 구역별로 상기 운전난이도를 정의 및 수치화하여 자차의 현재 위치에 따라 상기 운전난이도를 검출하는 것을 특징으로 하는 안전운전 지원 방법.
14. The method of claim 13, wherein detecting the driving difficulty comprises detecting and driving the driving difficulty according to the current location of the host vehicle by defining and digitizing the driving difficulty for each zone.
제 13 항에 있어서, 상기 자차가 안전지역으로 주행하도록 하는 단계는, 상기 음성지수, 상기 시각지수 및 상기 행동지수를 학습기반의 감정맵에 적용하여 상기 감정지수가 기 설정된 안정영역에 포함되는지 여부를 판단하는 것을 특징으로 하는 안전운전 지원 방법.
The method of claim 13, wherein the step of causing the host vehicle to travel to a safe area includes whether the emotion index is included in a predetermined stable area by applying the voice index, the visual index, and the behavior index to a learning-based emotion map. Safe driving support method, characterized in that to determine.
제 19 항에 있어서, 상기 학습기반의 감정맵은, 상기 음성지수, 상기 시각지수 및 상기 행동지수 각각에 따라 운전자의 감정상태가 안정 영역 또는 위험 영역으로 구분되는 것을 특징으로 하는 안전운전 지원 방법.The method of claim 19, wherein the learning-based emotion map is characterized in that the driver's emotional state is divided into a stable area or a dangerous area according to each of the voice index, the visual index, and the action index.
KR1020180135690A 2018-11-07 2018-11-07 Apparatus and method for supporting safe driving KR102546441B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180135690A KR102546441B1 (en) 2018-11-07 2018-11-07 Apparatus and method for supporting safe driving

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180135690A KR102546441B1 (en) 2018-11-07 2018-11-07 Apparatus and method for supporting safe driving

Publications (2)

Publication Number Publication Date
KR20200055171A true KR20200055171A (en) 2020-05-21
KR102546441B1 KR102546441B1 (en) 2023-06-26

Family

ID=70910296

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180135690A KR102546441B1 (en) 2018-11-07 2018-11-07 Apparatus and method for supporting safe driving

Country Status (1)

Country Link
KR (1) KR102546441B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113781278A (en) * 2021-09-10 2021-12-10 未鲲(上海)科技服务有限公司 Event prompting method, device, equipment and storage medium based on feature recognition
GB2606018A (en) * 2021-04-23 2022-10-26 Daimler Ag Emotion recognition for artificially-intelligent system
CN115257665A (en) * 2022-04-13 2022-11-01 长城汽车股份有限公司 Vehicle braking method and device, vehicle and storage medium
WO2023192385A1 (en) * 2022-03-31 2023-10-05 Volta Charging, Llc Customizing electric vehicle charging station service based on sentiment analysis

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007233587A (en) * 2006-02-28 2007-09-13 Toyota Motor Corp Driver's mentality assessment device
JP2008132961A (en) * 2006-10-30 2008-06-12 Quality Kk Vehicle control device and vehicle control program
WO2009107210A1 (en) * 2008-02-28 2009-09-03 パイオニア株式会社 Operational evaluation device of vehicle, method, and computer program
JP4337131B2 (en) * 1999-06-10 2009-09-30 マツダ株式会社 Mobile control device
KR20130023535A (en) * 2011-08-29 2013-03-08 한국전자통신연구원 System of safe driving car emotion cognitive-based and method for controlling the same
KR101555444B1 (en) * 2014-07-10 2015-10-06 현대모비스 주식회사 An apparatus mounted in vehicle for situational awareness and a method thereof
JP2015231828A (en) * 2014-05-16 2015-12-24 株式会社リコー Display device and movable body
KR20170018696A (en) * 2015-08-10 2017-02-20 현대모비스 주식회사 Apparatus, system and method for recognizing emotion and controlling vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4337131B2 (en) * 1999-06-10 2009-09-30 マツダ株式会社 Mobile control device
JP2007233587A (en) * 2006-02-28 2007-09-13 Toyota Motor Corp Driver's mentality assessment device
JP2008132961A (en) * 2006-10-30 2008-06-12 Quality Kk Vehicle control device and vehicle control program
WO2009107210A1 (en) * 2008-02-28 2009-09-03 パイオニア株式会社 Operational evaluation device of vehicle, method, and computer program
KR20130023535A (en) * 2011-08-29 2013-03-08 한국전자통신연구원 System of safe driving car emotion cognitive-based and method for controlling the same
JP2015231828A (en) * 2014-05-16 2015-12-24 株式会社リコー Display device and movable body
KR101555444B1 (en) * 2014-07-10 2015-10-06 현대모비스 주식회사 An apparatus mounted in vehicle for situational awareness and a method thereof
KR20170018696A (en) * 2015-08-10 2017-02-20 현대모비스 주식회사 Apparatus, system and method for recognizing emotion and controlling vehicle

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2606018A (en) * 2021-04-23 2022-10-26 Daimler Ag Emotion recognition for artificially-intelligent system
CN113781278A (en) * 2021-09-10 2021-12-10 未鲲(上海)科技服务有限公司 Event prompting method, device, equipment and storage medium based on feature recognition
WO2023192385A1 (en) * 2022-03-31 2023-10-05 Volta Charging, Llc Customizing electric vehicle charging station service based on sentiment analysis
CN115257665A (en) * 2022-04-13 2022-11-01 长城汽车股份有限公司 Vehicle braking method and device, vehicle and storage medium

Also Published As

Publication number Publication date
KR102546441B1 (en) 2023-06-26

Similar Documents

Publication Publication Date Title
KR102321100B1 (en) Apparatus and method for supporting safe driving
KR102546441B1 (en) Apparatus and method for supporting safe driving
US9963149B2 (en) Vehicle control device
CN111361552B (en) Automatic driving system
US7403124B2 (en) Driving support equipment for vehicles
US9031774B2 (en) Apparatus and method for preventing collision of vehicle
JP6838479B2 (en) Driving support device and driving support program
JP5954901B2 (en) Vehicle control device
US11685390B2 (en) Assistance method and assistance system and assistance device using assistance method that execute processing relating to a behavior model
JP2005250755A (en) Vehicle operation auxiliary device and vehicle equipped with the same device
KR20170042961A (en) Vehicle control apparatus and method for driving safety
JP6817166B2 (en) Self-driving policy generators and vehicles
KR101994304B1 (en) Vehicle control apparatus and method for driving safety
KR20150051548A (en) Driver assistance systems and controlling method for the same corresponding to dirver's predisposition
KR20150051550A (en) Performance enhanced driver assistance systems and controlling method for the same
CN112644483A (en) Vehicle speed control method, readable storage medium, vehicle speed control device and vehicle
KR102267097B1 (en) Apparatus for detecting driving stability of vehicle and control method thereof
KR101511860B1 (en) Driver assistance systems and controlling method for the same
JP2020032786A (en) Vehicle stop support apparatus
US11403948B2 (en) Warning device of vehicle and warning method thereof
JP7459446B2 (en) Driver status detection device
JP6687551B2 (en) Driver assistant system
JP2023526797A (en) A Driver Assistance Method Using Virtual Targets for Adaptive Cruise Control
KR20230133994A (en) Method and Vehicle for recognizing traffic sign
JP2024068440A (en) Driving Support Devices

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant