KR102608299B1 - driver assistance apparatus and CONTROL METHOD - Google Patents

driver assistance apparatus and CONTROL METHOD Download PDF

Info

Publication number
KR102608299B1
KR102608299B1 KR1020190051751A KR20190051751A KR102608299B1 KR 102608299 B1 KR102608299 B1 KR 102608299B1 KR 1020190051751 A KR1020190051751 A KR 1020190051751A KR 20190051751 A KR20190051751 A KR 20190051751A KR 102608299 B1 KR102608299 B1 KR 102608299B1
Authority
KR
South Korea
Prior art keywords
driver
vehicle
data
sensor
assistance system
Prior art date
Application number
KR1020190051751A
Other languages
Korean (ko)
Other versions
KR20200128282A (en
Inventor
씨 다사르 요겐드라
암바지 말라구디 바갈락스미
카비타 티
Original Assignee
에이치엘만도 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이치엘만도 주식회사 filed Critical 에이치엘만도 주식회사
Priority to KR1020190051751A priority Critical patent/KR102608299B1/en
Publication of KR20200128282A publication Critical patent/KR20200128282A/en
Application granted granted Critical
Publication of KR102608299B1 publication Critical patent/KR102608299B1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/52Radar, Lidar

Abstract

개시된 발명의 일 실시예에 따르면, 스티어링 휠; 차량에 설치되어, 상기 차량의 전방 시야를 가지며, 전방 영상 데이터를 획득하는 전방 영상 센서; 레이더 센서와 라이다 센서로 구성된 그룹에서 선택되어, 상기 차량에 설치되며, 상기 차량의 전방의 감지 시야를 가지고, 전방 감지 데이터를 획득하는 전방 비-영상 센서; 레이더 센서와 라이다 센서로 구성된 그룹에서 선택되어, 상기 차량에 설치되며, 상기 차량의 측방의 감지 시야를 가지고, 측방 감지 데이터를 획득하는 코너 비-영상 센서; 상기 스티어링 휠에 마련되고, 운전자의 심전도, 운전자의 신경활동 또는 운전자의 말초신경으로부터 측정된 뇌파 중 어느 하나 이상의 생체신호 데이터를 측정하는 센서부; 상기 전방 영상 데이터와 상기 전방 감지 데이터와 상기 측방 감지 데이터 및 상기 생체신호 데이터를 처리하는 프로세서를 포함하는 제어부; 를 포함하고, 상기 제어부는, 상기 생체신호 데이터와 상기 영상 데이터와 상기 전방 감지 데이터 및 상기 측방 감지 데이터를 처리한 것에 응답하여, 상기 차량의 전방에 위치하는 전방 객체와 상기 차량의 측방에 위치하는 측방 객체를 감지하고, 상기 제어부는 상기 운전자에게 경고하는 운전자 보조 시스템을 제공한다.According to one embodiment of the disclosed invention, a steering wheel; A front image sensor installed in a vehicle, having a front view of the vehicle, and acquiring front image data; a front non-image sensor selected from the group consisting of a radar sensor and a lidar sensor, installed in the vehicle, having a detection field of view in front of the vehicle, and acquiring front detection data; A corner non-image sensor selected from the group consisting of a radar sensor and a LiDAR sensor, installed in the vehicle, having a detection field of view on the side of the vehicle, and acquiring side detection data; a sensor unit provided on the steering wheel and measuring biosignal data of one or more of the driver's electrocardiogram, the driver's neural activity, or brain waves measured from the driver's peripheral nerves; a control unit including a processor that processes the front image data, the front sense data, the side sense data, and the bio-signal data; It includes a front object located in front of the vehicle and a front object located on a side of the vehicle in response to processing the bio-signal data, the image data, the front sensing data, and the side sensing data. Detecting side objects, the control unit provides a driver assistance system that warns the driver.

Description

운전자 보조 시스템 및 그 제어 방법{driver assistance apparatus and CONTROL METHOD}Driver assistance system and control method thereof {driver assistance apparatus and CONTROL METHOD}

본 발명은 운전자 보조 시스템에 관한 것이다.The present invention relates to driver assistance systems.

최근에 운전자의 부담을 경감시켜주고 편의를 증진시켜주기 위하여 차량 상태, 운전자 상태 및 주변 환경에 대한 정보를 능동적으로 제공하는 첨단 운전자 보조 시스템(Advanced Driver Assist System; ADAS)이 탑재된 차량에 대한 연구가 활발히 진행되고 있다.Recently, research has been conducted on vehicles equipped with an advanced driver assist system (ADAS) that actively provides information on vehicle status, driver status, and surrounding environment to reduce the burden on the driver and improve convenience. is actively underway.

차량에 탑재되는 첨단 운전자 보조 시스템의 일 예로, 전방 충돌 회피 시스템(Forward Collision Avoidance; FCA), 긴급 제동 시스템(Autonomous Emergency Brake; AEB), 운전자 주의 경고 시스템(Driver Attention Warning, DAW) 등이 있다. 종래에는 상기와 같은 운전자 보조 시스템은 차량의 주변 환경을 감지하고 이를 기초로 구동 되는 것이 일반적이었다. 그러나, 운전환경은 반드시 주변환경에 의해서만 결정되는 것이 아니므로, 차량의 운전 주체인 운전자의 상태를 감지하여 운전자 보조 시스템을 구동시킬 필요성이 있다.Examples of advanced driver assistance systems mounted on vehicles include Forward Collision Avoidance (FCA), Autonomous Emergency Brake (AEB), and Driver Attention Warning (DAW). In the past, driver assistance systems such as the above generally sensed the vehicle's surrounding environment and operated based on this. However, since the driving environment is not necessarily determined only by the surrounding environment, there is a need to detect the state of the driver, who is driving the vehicle, and operate the driver assistance system.

이러한 문제점에 착안하여, 운전자의 두뇌 활동을 감지하는 시스템이 개발되었다. 종래 운전자의 두뇌 활동은 운전자의 머리주변의 피부에 뇌파감지센서(Electroencephalogram, EEG 센서)를 설치하여 운전자의 머리 주변 피부에서 검출이 가능한 미세전류 신호를 통해 직접 감지 하거나, 운전자의 전방에 안구운동 감지센서(Electrooculogram, EOG 센서)를 설치하여 운전자의 안구운동을 기초로 운전자의 두뇌활동을 감지하는 방식을 주로 사용하였다.With this problem in mind, a system that detects the driver's brain activity was developed. Conventionally, the driver's brain activity is directly detected through microcurrent signals that can be detected from the skin around the driver's head by installing an electroencephalogram (EEG sensor) on the skin around the driver's head, or by detecting eye movements in front of the driver. The main method used was to install a sensor (Electrooculogram, EOG sensor) to detect the driver's brain activity based on the driver's eye movements.

또한, 졸음운전 등을 방지 하기 위하여 운전자의 얼굴 상태 변화를 감지하는 방식도 사용되었는데, 운전자의 상태 변화에 대한 정확도가 떨어지고, 사람마다 얼굴 상태변화 특징이 상이하여 변화하는 얼굴에 대한 접근법이 잘 알려져 있지 않다. 이러한 운전자 상태 감지 기술들에도 불구하고, 졸음운전으로 인한 치명적인 교통사고가 전체 교통사고에서 차지하는 비율은 15~20%인 것으로 나타났다.In addition, a method of detecting changes in the driver's facial state was used to prevent drowsy driving, etc., but the accuracy of the driver's state change is low and the characteristics of the facial state change are different for each person, so the approach to the changing face is well known. There is not. Despite these driver state detection technologies, fatal traffic accidents caused by drowsy driving were found to account for 15-20% of all traffic accidents.

상기와 같은 종래의 운전자의 두뇌 활동을 감지하는 시스템 또는 운전자의 얼굴 상태 변화를 감지하는 방식은 운전자의 피부에 따로 전극을 연결하여 운전자의 생체 신호를 감지하는 방식이어서 현실적으로 운전자가 활용하기 어렵고, 정확도가 떨어지는 문제점이 존재한다.The conventional system for detecting the driver's brain activity or detecting changes in the driver's facial condition as described above is a method of detecting the driver's biological signals by separately connecting electrodes to the driver's skin, so it is difficult for the driver to use it realistically, and the accuracy There is a problem with falling.

따라서, 운전자에게 별도의 전극이나 장치의 부착 없이, 운전자의 상태를 정확히 감지하여 운전자의 운전을 보조할 수 있는 기술개발이 필요한 실정이다.Therefore, there is a need to develop technology that can accurately detect the driver's condition and assist the driver's driving without attaching a separate electrode or device to the driver.

상기와 같은 문제점을 해결하기 위하여, 개시된 발명의 일 측면은 스티어링 휠을 기반으로 하여 운전자의 말초신경 신호를 기초로 운전자의 뇌파를 측정하고, 운전자의 상태를 감지하는 것에 관한 운전자 보조 시스템 및 그 제어 방법을 제공한다.In order to solve the above problems, one aspect of the disclosed invention is a driver assistance system and its control for measuring the driver's brain waves based on the driver's peripheral nerve signals based on the steering wheel and detecting the driver's state. Provides a method.

개시된 운전자 보조 시스템 및/또는 제어 방법은 스티어링 휠; 차량에 설치되어, 상기 차량의 전방 시야를 가지며, 전방 영상 데이터를 획득하는 전방 영상 센서; 레이더 센서와 라이다 센서로 구성된 그룹에서 선택되어, 상기 차량에 설치되며, 상기 차량의 전방의 감지 시야를 가지고, 전방 감지 데이터를 획득하는 전방 비-영상 센서; 레이더 센서와 라이다 센서로 구성된 그룹에서 선택되어, 상기 차량에 설치되며, 상기 차량의 측방의 감지 시야를 가지고, 측방 감지 데이터를 획득하는 코너 비-영상 센서; 상기 스티어링 휠에 마련되고, 운전자의 심전도, 운전자의 신경활동 또는 운전자의 말초신경으로부터 측정된 뇌파 중 어느 하나 이상의 생체신호 데이터를 측정하는 센서부; 및 상기 전방 영상 데이터, 상기 전방 감지 데이터, 상기 측방 감지 데이터 및 상기 생체신호 데이터를 처리하는 프로세서를 포함하는 제어부;를 포함하고, 상기 제어부는, 상기 생체신호 데이터에 포함된 상기 뇌파를 기초하여 상기 운전자의 졸린 상태를 판단한다.The disclosed driver assistance system and/or control method includes a steering wheel; A front image sensor installed in a vehicle, having a front view of the vehicle, and acquiring front image data; a front non-image sensor selected from the group consisting of a radar sensor and a lidar sensor, installed in the vehicle, having a detection field of view in front of the vehicle, and acquiring front detection data; A corner non-image sensor selected from the group consisting of a radar sensor and a LiDAR sensor, installed in the vehicle, having a detection field of view on the side of the vehicle, and acquiring side detection data; a sensor unit provided on the steering wheel and measuring biosignal data of one or more of the driver's electrocardiogram, the driver's neural activity, or brain waves measured from the driver's peripheral nerves; and a control unit including a processor that processes the front image data, the front sense data, the side sense data, and the bio-signal data, wherein the control unit is configured to: Determine the drowsiness of the driver.

개시된 운전자 보조 시스템 및/또는 제어 방법의 제어부는, 상기 생체신호 데이터에서 상기 뇌파의 진폭이 급변하는 주파수 대역을 기초로 임계치를 산정할 수 있다.The controller of the disclosed driver assistance system and/or control method may calculate a threshold based on a frequency band in which the amplitude of the brain wave changes rapidly in the bio-signal data.

개시된 운전자 보조 시스템 및/또는 제어 방법의 제어부는, 상기 생체신호 데이터에서 측정된 상기 뇌파의 진폭을 상기 산정된 임계치와 비교할 수 있다.The controller of the disclosed driver assistance system and/or control method may compare the amplitude of the brain wave measured from the bio-signal data with the calculated threshold.

개시된 운전자 보조 시스템 및/또는 제어 방법은 소리 또는 진동을 출력하는 경고부;를 더 포함할 수 있고, 제어부는, 상기 판단 결과에 기초하여 상기 경고부를 제어할 수 있다.The disclosed driver assistance system and/or control method may further include a warning unit that outputs sound or vibration, and the control unit may control the warning unit based on the determination result.

개시된 운전자 보조 시스템 및/또는 제어 방법의 제어부는, 운전자의 졸음 여부를 판단한 후, 전방 영상 데이터, 전방 감지 데이터 또는 측방 감지 데이터 중 적어도 하나에 기초하여 전방 객체 및 측방 객체와의 충돌 여부를 판단하고, 상기 충돌 여부에 대한 판단 결과에 기초하여 조향 장치를 제어할 수 있다.The control unit of the disclosed driver assistance system and/or control method determines whether the driver is drowsy and then determines whether there is a collision with a front object and a side object based on at least one of front image data, front detection data, and side detection data; , the steering device can be controlled based on the determination result of the collision.

개시된 운전자 보조 시스템 및/또는 제어 방법은 차량에 설치되어 상기 차량의 전방 시야를 가지는 카메라에 의하여, 상기 차량의 전방 영상 데이터를 획득하고; 상기 차량에 설치되어 상기 차량의 전방 감지 시야를 가지는 전방 레이더에 의하여, 상기 차량의 전방 레이더 데이터를 획득하고; 상기 차량에 설치되어 상기 차량의 측방 감지 시야를 가지는 코너 레이더에 의하여, 상기 차량의 측방 레이더 데이터를 획득하고; 상기 전방 영상 데이터와 상기 전방 레이더 데이터와 상기 측방 레이더 데이터를 처리한 것에 응답하여, 상기 차량의 전방에 위치하는 전방 객체와 상기 차량의 측방에 위치하는 측방 객체를 감지하고; 스티어링 휠에 마련된 센서부를 통해 운전자의 심장 박동수, 운전자의 신경활동 또는 운전자의 말초신경으로부터 측정된 뇌파 중 적어도 하나 이상의 생체신호 데이터를 측정하고; 상기 생체신호 데이터에 포함된 상기 뇌파를 기초하여 상기 운전자의 졸린 상태를 판단하는 것이다.The disclosed driver assistance system and/or control method includes acquiring front image data of the vehicle by a camera installed in the vehicle and having a front view of the vehicle; Obtaining front radar data of the vehicle by a front radar installed in the vehicle and having a front detection field of view of the vehicle; Obtaining side radar data of the vehicle using a corner radar installed in the vehicle and having a side detection field of view of the vehicle; In response to processing the front image data, the front radar data, and the side radar data, detect a front object located in front of the vehicle and a side object located on a side of the vehicle; Measures at least one biosignal data of the driver's heart rate, the driver's neural activity, or brain waves measured from the driver's peripheral nerves through a sensor unit provided on the steering wheel; The driver's drowsy state is determined based on the brain waves included in the bio-signal data.

개시된 운전자 보조 시스템 및/또는 제어 방법에서 상기 판단하는 것은,상기 생체신호 데이터에서 상기 뇌파의 진폭이 급변하는 주파수 대역을 기초로 임계치를 산정하는 것을 포함할 수 있다.In the disclosed driver assistance system and/or control method, the determination may include calculating a threshold based on a frequency band in which the amplitude of the brain wave rapidly changes in the bio-signal data.

개시된 운전자 보조 시스템 및/또는 제어 방법은 상기 생체신호 데이터에서 측정된 상기 뇌파의 진폭을 상기 산정된 임계치와 비교하는 것을 포함할 수 있다.The disclosed driver assistance system and/or control method may include comparing the amplitude of the brain wave measured from the biosignal data with the calculated threshold.

개시된 운전자 보조 시스템 및/또는 제어 방법은 경고부에 의해서 소리 또는 진동을 출력하는 것을 더 포함하고, 상기 판단 결과에 기초하여 상기 경고부를 제어하는 것일 수 있다.The disclosed driver assistance system and/or control method may further include outputting sound or vibration by a warning unit, and controlling the warning unit based on the determination result.

개시된 운전자 보조 시스템 및/또는 제어 방법은 상기 운전자의 졸음 여부를 판단한 후, 상기 전방 영상 데이터, 상기 전방 레이더 데이터 또는 상기 측방 레이더 데이터 중 적어도 하나에 기초하여 전방 객체 및 측방 객체와의 충돌 여부를 판단하고, 상기 충돌 여부에 대한 판단 결과에 기초하여 조향 장치를 제어하는 것일 수 있다.The disclosed driver assistance system and/or control method determines whether the driver is drowsy and then determines whether there is a collision with a front object and a side object based on at least one of the front image data, the front radar data, and the side radar data. And, the steering device may be controlled based on the result of determining whether there is a collision.

개시된 발명의 일 측면에 따르면, 스티어링 휠에 마련되고, 운전자의 말초신경으로부터 생체 신호를 측정하는 센서부 및 상기 센서부가 측정하는 신호에 기초하여 운전자의 졸음 여부를 판단하는 제어부를 포함하는 운전자 보조 시스템으로서, 말초신경신호를 통하여 뇌파를 측정하고, 이를 통해 운전자의 상태를 감지하고, 운전자에게 경고하여 안전한 운전을 도모할 수 있다.According to one aspect of the disclosed invention, a driver assistance system is provided on a steering wheel and includes a sensor unit that measures biosignals from the driver's peripheral nerves and a control unit that determines whether the driver is drowsy based on the signals measured by the sensor unit. As a result, it is possible to measure brain waves through peripheral nerve signals, detect the driver's condition through this, and warn the driver to promote safe driving.

개시된 발명의 다른 측면에 따르면, 본 발명은 운전자 상태를 감지하고, 차량의 주변 환경을 감지하여, 감지된 운전자의 상태와 감지된 주변환경 정보를 기초로 운전자에게 경고하거나 조향 장치 및/또는 제동장치를 제어할 수 있다. According to another aspect of the disclosed invention, the present invention detects the driver's state, detects the surrounding environment of the vehicle, and warns the driver based on the detected driver's state and the sensed surrounding environment information, or provides a steering and/or braking device. can be controlled.

도 1은 일 실시예에 의한 차량의 구성을 도시한다.
도 2은 일 실시예에 의한 운전자 보조 시스템의 구성을 도시한다.
도 3은 일 실시예에 의한 운전자 보조 시스템에 포함된 카메라 및 레이더를 도시한다.
도 4는 일 실시예에 의한 본 발명이 설치된 차량내부를 도시한다.
도 5는 일 실시예에 의한 본 발명의 제어부가 제동장치 및/또는 조향 장치를 제어하는 경우와 경고부가 경보음이나 스티어링 휠을 진동하는 방식에 의해서 경고하는 경우의 제어 블록도이다.
도 6은 운전자의가 졸린 상태에 있는 경우 운전자의 뇌파 스펙트럼 분류도 이다.
도 7은 운전자의 상태에 따른 뇌파 스펙트럼의 비교도이다.
1 shows the configuration of a vehicle according to one embodiment.
Figure 2 shows the configuration of a driver assistance system according to one embodiment.
Figure 3 shows a camera and radar included in a driver assistance system according to one embodiment.
Figure 4 shows the interior of a vehicle in which the present invention is installed according to one embodiment.
Figure 5 is a control block diagram of a case where the control unit of the present invention controls a braking device and/or a steering device according to an embodiment, and a case where the warning unit warns by making an alarm sound or vibrating the steering wheel.
Figure 6 is a diagram showing the driver's brain wave spectrum classification when the driver is in a drowsy state.
Figure 7 is a comparison diagram of brain wave spectra according to the driver's condition.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 개시된 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는‘부, 모듈, 부재, 블록’이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.Like reference numerals refer to like elements throughout the specification. This specification does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the disclosed invention pertains is omitted. The term 'part, module, member, block' used in the specification may be implemented as software or hardware, and depending on the embodiment, a plurality of 'part, module, member, block' may be implemented as a single component, or It is also possible for one 'part, module, member, or block' to include multiple components.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be “connected” to another part, this includes not only direct connection but also indirect connection, and indirect connection includes connection through a wireless communication network. do.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when a member is said to be located “on” another member, this includes not only cases where a member is in contact with another member, but also cases where another member exists between the two members.

제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다. Terms such as first and second are used to distinguish one component from another component, and the components are not limited by the above-mentioned terms.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly makes an exception.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.The identification code for each step is used for convenience of explanation. The identification code does not explain the order of each step, and each step may be performed differently from the specified order unless a specific order is clearly stated in the context. there is.

이하 첨부된 도면들을 참고하여 개시된 발명의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the operating principle and embodiments of the disclosed invention will be described with reference to the attached drawings.

도 1은 일 실시예에 의한 차량의 구성을 도시한다.1 shows the configuration of a vehicle according to one embodiment.

도 1에 도시된 바와 같이, 차량(1)은 엔진(10)과, 변속기(20)와, 제동 장치(30)와, 조향 장치(40)를 포함한다. 엔진(10)은 실린더와 피스톤을 포함하며, 차량(1)이 주행하기 위한 동력을 생성할 수 있다. 변속기(20)는 복수의 기어들을 포함하며, 엔진(10)에 의하여 생성된 동력을 차륜까지 전달할 수 있다. 제동 장치(30)는 차륜과의 마찰을 통하여 차량(1)을 감속시키거나 차량(1)을 정지시킬 수 있다. 조향 장치(40)는 차량(1)의 주행 방향을 변경시킬 수 있다.As shown in FIG. 1, the vehicle 1 includes an engine 10, a transmission 20, a braking device 30, and a steering device 40. The engine 10 includes a cylinder and a piston and can generate power for the vehicle 1 to run. The transmission 20 includes a plurality of gears and can transmit power generated by the engine 10 to the wheels. The braking device 30 can slow down the vehicle 1 or stop the vehicle 1 through friction with the wheels. The steering device 40 can change the driving direction of the vehicle 1.

차량(1)은 복수의 전장 부품들을 포함할 수 있다. 예를 들어, 차량(1)은 엔진 관리 시스템(Engine Management System, EMS) (11)과, 변속기 제어 유닛(Transmission Control Unit, TCU) (21)과, 전자식 제동 제어 모듈(Electronic Brake Control Module) (31)과, 전자식 조향 장치(Electronic Power Steering, EPS) (41)과, 바디 컨트롤 모듈(Body Control Module, BCM)과, 운전자 보조 시스템(Driver Assistance System, DAS)을 더 포함한다.The vehicle 1 may include a plurality of electrical components. For example, vehicle 1 includes an Engine Management System (EMS) (11), a Transmission Control Unit (TCU) (21), and an Electronic Brake Control Module ( 31), Electronic Power Steering (EPS) 41, Body Control Module (BCM), and Driver Assistance System (DAS).

엔진 관리 시스템(11)은 가속 페달을 통한 운전자의 가속 의지 또는 운전자 보조 시스템(100)의 요청에 응답하여 엔진(10)을 제어할 수 있다. 예를 들어, 엔진 관리 시스템(11)은 엔진(10)의 토크를 제어할 수 있다.The engine management system 11 may control the engine 10 in response to the driver's intention to accelerate through the accelerator pedal or a request from the driver assistance system 100. For example, engine management system 11 may control the torque of engine 10.

변속기 제어 유닛(21)은 변속 레버를 통한 운전자의 변속 명령 및/또는 차량(1)의 주행 속도에 응답하여 변속기(20)를 제어할 수 있다. 예를 들어, 변속기 제어 유닛(21)은 엔진(10)으로부터 차륜까지의 변속 비율을 조절할 수 있다.The transmission control unit 21 may control the transmission 20 in response to the driver's shift command through the shift lever and/or the driving speed of the vehicle 1. For example, the transmission control unit 21 can adjust the shift ratio from the engine 10 to the wheels.

전자식 제동 제어 모듈(31)은 제동 페달을 통한 운전자의 제동 의지 및/또는 차륜들의 슬립(slip)에 응답하여 제동 장치(30)를 제어할 수 있다. 예를 들어, 전자식 제동 제어 모듈(31)은 차량(1)의 제동 시에 감지되는 차륜의 슬립에 응답하여 차륜의 제동을 일시적으로 해제할 수 있다(Anti-lock Braking Systems, ABS). 전자식 제동 제어 모듈(31)은 차량(1)의 조향 시에 감지되는 오버스티어링(oversteering) 및/또는 언더스티어링(understeering)에 응답하여 차륜의 제동을 선택적으로 해제할 수 있다(Electronic stability control, ESC). 또한, 전자식 제동 제어 모듈(31)은 차량(1)의 구동 시에 감지되는 차륜의 슬립에 응답하여 차륜을 일시적으로 제동할 수 있다(Traction Control System, TCS).The electronic brake control module 31 may control the braking device 30 in response to the driver's intention to brake through the brake pedal and/or slip of the wheels. For example, the electronic brake control module 31 may temporarily release the brakes on the wheels in response to wheel slip detected when braking the vehicle 1 (Anti-lock Braking Systems, ABS). The electronic brake control module 31 can selectively release the brakes on the wheels in response to oversteering and/or understeering detected when steering the vehicle 1 (electronic stability control, ESC). ). Additionally, the electronic braking control module 31 can temporarily brake the wheels in response to wheel slip detected when driving the vehicle 1 (Traction Control System, TCS).

전자식 조향 장치(41)는 스티어링 휠(50)을 통한 운전자의 조향 의지에 응답하여 운전자가 쉽게 스티어링 휠(50)을 조작할 수 있도록 조향 장치(40)의 동작을 보조할 수 있다. 예를 들어, 전자식 조향 장치(41)는 저속 주행 또는 주차 시에는 조향력을 감소시키고 고속 주행 시에는 조향력을 증가시키도록 조향 장치(40)의 동작을 보조할 수 있다.The electronic steering device 41 can assist the operation of the steering device 40 so that the driver can easily operate the steering wheel 50 in response to the driver's steering intention through the steering wheel 50. For example, the electronic steering device 41 may assist the operation of the steering device 40 to reduce steering force when driving at low speeds or parking and increase steering force when driving at high speeds.

바디 컨트롤 모듈(51)은 운전자에게 편의를 제공하거나 운전자의 안전을 보장하는 전장 부품들의 동작을 제어할 수 있다. 예를 들어, 바디 컨트롤 모듈(51)은 헤드 램프, 와이퍼, 클러스터, 다기능 스위치 및 방향 지시 램프 등을 제어할 수 있다.The body control module 51 can control the operation of electrical components that provide convenience to the driver or ensure the driver's safety. For example, the body control module 51 can control headlamps, wipers, clusters, multi-function switches, and turn signal lamps.

운전자 보조 시스템(100)은 센서부(103)을 통하여 운전자의 상태를 감지하고 운전자가 차량(1)을 조작(구동, 제동, 조향)하는 것을 보조할 수 있다. 예를 들어, 운전자 보조 시스템(100)은 차량(1) 주변의 환경(예를 들어, 다른 차량, 보행자, 사이클리스트(cyclist), 차선, 도로 표지판 등)을 감지하고, 운전자의 상태를 감지하여 감지된 환경 및 감지된 운전자의 상태에 대한 응답으로 차량(1)의 구동 및/또는 제동 및/또는 조향을 제어할 수 있다.The driver assistance system 100 can detect the driver's condition through the sensor unit 103 and assist the driver in operating (driving, braking, and steering) the vehicle 1. For example, the driver assistance system 100 detects the environment around the vehicle 1 (e.g., other vehicles, pedestrians, cyclists, lanes, road signs, etc.) and detects the driver's condition. Driving and/or braking and/or steering of the vehicle 1 may be controlled in response to the environment and the detected driver's state.

운전자 보조 시스템(100)은 운전자에게 다양한 기능을 제공할 수 있다. 예를 들어, 운전자 보조 시스템(100)은 차선 이탈 경고(Lane Departure Warning, LDW)와, 차선 유지 보조(Lane Keeping Assist, LKA)와, 상향등 보조(High Beam Assist, HBA)와, 자동 긴급 제동(Autonomous Emergency Braking, AEB)과, 교통 표지판 인식(Traffic Sign Recognition, TSR)과, 스마트 크루즈 컨트롤(Smart Cruise Control, SCC)과, 사각지대 감지(Blind Spot Detection, BSD) 등을 제공할 수 있다.The driver assistance system 100 can provide various functions to the driver. For example, the driver assistance system 100 includes Lane Departure Warning (LDW), Lane Keeping Assist (LKA), High Beam Assist (HBA), and Automatic Emergency Braking ( It can provide Autonomous Emergency Braking (AEB), Traffic Sign Recognition (TSR), Smart Cruise Control (SCC), and Blind Spot Detection (BSD).

운전자 보조 시스템(100)은 차량(1) 주변의 영상 데이터를 획득하는 카메라 모듈(101)과, 차량(1) 주변의 객체 데이터를 획득하는 레이더 모듈(102) 및 운전자의 상태를 감지하는 센서부(103)를 포함한다. The driver assistance system 100 includes a camera module 101 that acquires image data around the vehicle 1, a radar module 102 that acquires object data around the vehicle 1, and a sensor unit that detects the driver's condition. Includes (103).

카메라 모듈(101)은 카메라(101a)와 제어기(Electronic Control Unit, ECU) (101b)를 포함하며, 차량(1)의 전방을 촬영하고 다른 차량, 보행자, 사이클리스트, 차선, 도로 표지판 등을 인식할 수 있다. The camera module 101 includes a camera 101a and a controller (Electronic Control Unit, ECU) 101b, and is capable of photographing the front of the vehicle 1 and recognizing other vehicles, pedestrians, cyclists, lanes, road signs, etc. You can.

레이더 모듈(102)은 레이더(102a)와 제어기(102b)를 포함하며, 차량(1) 주변의 객체(예를 들어, 다른 차량, 보행자, 사이클리스트 등)의 상대 위치, 상대 속도 등을 획득할 수 있다.The radar module 102 includes a radar 102a and a controller 102b, and is capable of acquiring the relative position, relative speed, etc. of objects (e.g., other vehicles, pedestrians, cyclists, etc.) around the vehicle 1. there is.

센서부(103)는 운전자의 뇌파를 특정하는 제1 센서(103a)와, 운전자의 심전도를 측정하는 제2 센서(103b)와 운전자의 교감신경 및 부교감신경의 상호작용에 의한 신경활동을 측정하는 제3 센서(103c)를 포함할 수 있다.The sensor unit 103 measures neural activity by the interaction between the first sensor 103a that specifies the driver's brain waves, the second sensor 103b that measures the driver's electrocardiogram, and the driver's sympathetic and parasympathetic nerves. It may include a third sensor 103c.

한편, 운전자 보조 시스템(100)은 도 1에 도시된 바에 한정되지 아니하며, 차량(1) 주변을 스캔하며 객체를 감지하는 라이다(lidar)를 더 포함할 수 있다.Meanwhile, the driver assistance system 100 is not limited to what is shown in FIG. 1 and may further include a lidar that scans the surroundings of the vehicle 1 and detects objects.

이상의 전자 부품들은 차량용 통신 네트워크(NT)를 통하여 서로 통신할 수 있다. 예를 들어, 전장 부품들은 이더넷(Ethernet), 모스트(MOST, Media Oriented Systems Transport), 플렉스레이(Flexray), 캔(CAN, Controller Area Network), 린(LIN, Local Interconnect Network) 등을 통하여 데이터를 주고 받을 수 있다. 예를 들어, 운전자 보조 시스템(100)은 엔진 관리 시스템(11), 전자식 제동 제어 모듈(31) 및 전자식 조향 장치(41)에 각각 차량용 통신 네트워크(NT)를 통하여 구동 제어 신호, 제동 신호 및 조향 신호를 전송할 수 있다.The above electronic components can communicate with each other through a vehicle communication network (NT). For example, electronic components transmit data through Ethernet, MOST (Media Oriented Systems Transport), Flexray, CAN (Controller Area Network), LIN (Local Interconnect Network), etc. You can give and receive. For example, the driver assistance system 100 provides drive control signals, braking signals, and steering signals to the engine management system 11, the electronic brake control module 31, and the electronic steering device 41, respectively, through the vehicle communication network (NT). Signals can be transmitted.

도 2은 일 실시예에 의한 운전자 보조 시스템의 구체적인 구성을 도시한다. Figure 2 shows a specific configuration of a driver assistance system according to an embodiment.

도 2에 도시된 바와 같이, 차량(1)은 제동 시스템(32)과, 조향 시스템(42)과, 운전자 보조 시스템(100) 및 경고부(52)를 포함할 수 있다.As shown in FIG. 2 , the vehicle 1 may include a braking system 32, a steering system 42, a driver assistance system 100, and a warning unit 52.

제동 시스템(32)은 도 1과 함께 설명된 전자식 제동 제어 모듈(31, 도 1 참조)과 제동 장치(30, 도 1 참조)를 포함하며, 조향 시스템(42)은 전자식 조향 장치(41, 도 1 참조)와 조향 장치(40, 도 1 참조)를 포함할 수 있다.The braking system 32 includes the electronic braking control module 31 (see FIG. 1) and the braking device 30 (see FIG. 1) described in conjunction with FIG. 1, and the steering system 42 includes the electronic steering device 41 (see FIG. 1). 1) and a steering device 40 (see FIG. 1).

운전자 보조 시스템(100)은 센서부(103)와, 전방 카메라(110)와, 전방 레이더(120)와, 복수의 코너 레이더들(130)과 제어부(140)를 포함할 수 있다.The driver assistance system 100 may include a sensor unit 103, a front camera 110, a front radar 120, a plurality of corner radars 130, and a control unit 140.

센서부(103)의 제1 센서(103a)는 운전자의 손의 말초신경 신호를 감지하고, 이를 기초로 운전자의 뇌파를 측정한다. 제1 센서(103a)가 감지하는 운전자의 말초신경 신호는 전기적 신호이므로 제1 센서(103a)는 전도성 중합체(Conductive polymer)나 그래핀(Grephene)을 재료로 할 수 있다. The first sensor 103a of the sensor unit 103 detects peripheral nerve signals from the driver's hand and measures the driver's brain waves based on this. Since the driver's peripheral nerve signal detected by the first sensor 103a is an electrical signal, the first sensor 103a may be made of conductive polymer or graphene.

개시된 제1 센서(103a)의 일 예로, 제1 센서(103a)는 습식전극이 아닌 건식전극을 사용할 수 있다. 제1 센서(103a)의 전극으로 습식전극을 사용하는 경우 겔(Gel)타입의 액체를 운전자의 두피에 바르고 전극을 부착하여야 하므로 운전자가 운전시 불편하다. 그러나, 제1 센서(103a)의 전극으로 건식전극을 사용하는 경우 겔(Gel)타입의 액체를 피부에 바를 필요가 없고, 운전자의 두피가 아닌 손에서 감지되는 운전자의 말초신경 신호를 감지할 수 있어 운전자가 운전시 편리하다. As an example of the disclosed first sensor 103a, the first sensor 103a may use a dry electrode rather than a wet electrode. When using a wet electrode as the electrode of the first sensor 103a, a gel-type liquid must be applied to the driver's scalp and the electrode must be attached, which is inconvenient for the driver while driving. However, when a dry electrode is used as the electrode of the first sensor 103a, there is no need to apply gel-type liquid to the skin, and the driver's peripheral nerve signals detected from the driver's hands, not the driver's scalp, can be detected. It is convenient for the driver while driving.

센서부(103)의 제2 센서(103b)는 운전자의 심전도를 측정할 수 있다. 제2 센서(103b)가 감지하는 운전자의 심전도 또한 운전자의 말초신경 신호와 같은 전기적 신호이므로 제2 센서(103b)는 전도성 중합체(Conductive polymer)나 그래핀(Grephene)을 재료로 할 수 있다. The second sensor 103b of the sensor unit 103 can measure the driver's electrocardiogram. Since the driver's electrocardiogram detected by the second sensor 103b is also an electrical signal similar to the driver's peripheral nerve signal, the second sensor 103b may be made of conductive polymer or graphene.

센서부(103)의 제3 센서(103c)는 운전자의 말초신경 신호를 감지하고, 운전자의 말초신경 신호를 기초로 운전자의 부교감 신경 활동과 교감 심경 활동의 변화를 감지한다. 제3 센서(103c)가 감지하는 운전자의 신경활동 신호 또한 전기적 신호이므로 제3 센서(103c)는 전도성 중합체(Conductive polymer)나 그래핀(Grephene)을 재료로 할 수 있다. The third sensor 103c of the sensor unit 103 detects the driver's peripheral nerve signals and detects changes in the driver's parasympathetic nerve activity and sympathetic nerve activity based on the driver's peripheral nerve signal. Since the driver's neural activity signal detected by the third sensor 103c is also an electrical signal, the third sensor 103c may be made of conductive polymer or graphene.

제어부(140)는 프로세서(141)와 메모리(142)를 포함한다. 제어부(140)는 카메라 모듈(101, 도 1 참조)의 제어기(101b, 도 1 참조) 및/또는 레이더 모듈(102, 도 1 참조)의 제어기(102b, 도 1 참조) 및/또는 별도의 통합 제어기를 포함할 수 있다.The control unit 140 includes a processor 141 and a memory 142. The control unit 140 is a separate integrated controller (101b, see FIG. 1) of the camera module (101, see FIG. 1) and/or a controller (102b, see FIG. 1) of the radar module (102, see FIG. 1). May include a controller.

프로세서(141)는 센서부(103)에 의해 측정된 운전자의 생체 신호를 수집하고, 수집된 생체 신호를 기반으로 뇌파 스펙트럼 데이터 베이스(Database)를 생성한다. The processor 141 collects the driver's bio-signals measured by the sensor unit 103 and creates an EEG spectrum database based on the collected bio-signals.

또한 프로세서(141)는 전방카메라(110)의 전방 영상 데이터와 전방 레이더(120)의 전방 레이더 데이터와 복수의 코너 레이더들(130)의 코너 레이더 데이터를 처리하고, 제동 시스템(32) 및 조향 시스템(42)을 제어하기 위한 제동 신호 및 조향 신호를 생성할 수 있다. In addition, the processor 141 processes the front image data of the front camera 110, the front radar data of the front radar 120, and the corner radar data of the plurality of corner radars 130, and operates the braking system 32 and the steering system. Braking signals and steering signals for controlling (42) can be generated.

프로세서(141)는 전방 카메라(110)의 전방 영상 데이터를 처리하는 이미지 프로세서 및/또는 레이더들(120, 130)의 레이더 데이터를 처리하는 디지털 시그널 프로세서 및/또는 제동 신호와 조향 신호를 생성하고, 운전자의 생체신호를 처리하는 마이크로 컨트롤 유닛(Micro Control Unit, MCU)을 포함할 수 있다.The processor 141 is an image processor that processes front image data from the front camera 110 and/or a digital signal processor that processes radar data from the radars 120 and 130, and/or generates braking signals and steering signals, It may include a micro control unit (MCU) that processes the driver's biological signals.

프로세서(141)는 전방 객체와의 충돌이 예측되는지 여부에 기초하여 제동 신호를 제동 시스템(32)으로 전송할 수 있다. 측방 객체가 존재하지 아니하거나 측방 객체와의 충돌이 예측되지 않으면 프로세서(141)는 전방 객체와의 충돌을 회피하기 위하여 조향 신호를 조향 시스템(42)으로 전송할 수 있다. 조향 이후 측방 객체와의 충돌이 예측되면 프로세서(141)는 조향 신호를 조향 시스템(42)으로 전송하지 아니할 수 있다.Processor 141 may transmit a braking signal to braking system 32 based on whether a collision with a front object is predicted. If there is no lateral object or a collision with the lateral object is not predicted, the processor 141 may transmit a steering signal to the steering system 42 to avoid collision with the front object. If a collision with a side object is predicted after steering, the processor 141 may not transmit the steering signal to the steering system 42.

프로세서(141)는 운전자의 생체신호와 차량(1)의 측방 객체들의 위치(거리 및 방향) 및 상대 속도에 기초하여 조향 신호를 조향 시스템(42)으로 전송할 수 있다.The processor 141 may transmit a steering signal to the steering system 42 based on the driver's biological signals and the positions (distance and direction) and relative speeds of objects on the side of the vehicle 1.

프로세서(141)는 운전자의 생체신호와 전방 객체들의 상대 속도에 기초하여 충돌까지의 거리(Distance to Collision, DTC)를 산출하고, 충돌까지의 거리와 전방 객체들까지의 거리 사이의 비교에 기초하여 운전자에게 충돌을 경고하거나 제동 신호를 제동 시스템(32)으로 전송할 수 있다.The processor 141 calculates the Distance to Collision (DTC) based on the driver's biological signals and the relative speed of the objects ahead, and calculates the Distance to Collision (DTC) based on the comparison between the distance to the collision and the distance to the objects ahead. It is possible to warn the driver of a collision or transmit a braking signal to the braking system 32.

프로세서(141)는 운전자의 생체신호와 차량(1)의 측방 객체들의 위치(거리 및 방향) 및 상대 속도에 기초하여 차량(1)의 주행 방향을 변경함으로써 전방 객체와의 충돌을 회피할지 여부를 판단할 수 있다. 예를 들어, 운전자의 뇌파가 졸린 상태의 뇌파로 판단되고, 차량(1)의 측방에 위치하는 객체가 없으면, 제어부(140)는 전방 객체와의 충돌을 회피하기 위하여 조향 신호를 조향 시스템(42)으로 전송할 수 있다. The processor 141 determines whether to avoid a collision with a front object by changing the driving direction of the vehicle 1 based on the driver's biological signals and the positions (distance and direction) and relative speed of objects on the side of the vehicle 1. You can judge. For example, if the driver's brain waves are determined to be those of a sleepy state, and there is no object located on the side of the vehicle 1, the control unit 140 sends a steering signal to the steering system 42 to avoid collision with the front object. ) can be transmitted.

프로세서(141)의 동작에 관한 구체적인 설명은 이하의 다른 도면을 통해 후술한다.A detailed description of the operation of the processor 141 will be described later with reference to other drawings below.

메모리(142)는 프로세서(141)가 운전자의 생체신호 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 영상 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 레이더 데이터를 처리하기 위한 프로그램 및/또는 데이터와, 프로세서(141)가 제동 신호 및/또는 조향 신호를 생성하기 위한 프로그램 및/또는 데이터를 저장할 수 있다.The memory 142 provides the processor 141 with programs and/or data for processing the driver's biosignal data, programs and/or data for processing image data, and programs and/or data for processing radar data. And, the processor 141 may store programs and/or data for generating braking signals and/or steering signals.

메모리(142)는 전방 카메라(110)로부터 수신된 영상 데이터 및/또는 레이더들(120, 130)로부터 수신된 레이더 데이터를 임시로 기억하고, 프로세서(141)의 영상 데이터 및/또는 레이더 데이터의 처리 결과를 임시로 기억할 수 있다.The memory 142 temporarily stores image data received from the front camera 110 and/or radar data received from the radars 120 and 130, and processes the image data and/or radar data by the processor 141. Results can be temporarily remembered.

메모리(142)는 S램(S-RAM), D램(D-RAM) 등의 휘발성 메모리뿐만 아니라 플래시 메모리, 롬(Read Only Memory, ROM), 이피롬(Erasable Programmable Read Only Memory: EPROM) 등의 비휘발성 메모리를 포함할 수 있다.The memory 142 includes not only volatile memories such as S-RAM and D-RAM, but also flash memory, Read Only Memory (ROM), Erasable Programmable Read Only Memory (EPROM), etc. It may include non-volatile memory.

한편, 제어부(140)를 구성하는 제어칩은 도트 매트릭스 디스플레이, 온칩 디버깅 에뮬레이터(On-chip Debugging Emulator)가 포함되어 있으며, 아날로그 기능이 지원되는'르네사스 프로모션 보드'가 될 수 있다. 또한, 측정된 뇌파 스펙트럼은 차량 운전자마다 모두 상이할 수 있으므로 제어부(140)를 구동하는 소프트웨어에는 사용자 정의가 포함될 수 있다. 소프트웨어는 C++언어로 개발된 소프트웨어일 수 있다.Meanwhile, the control chip constituting the control unit 140 includes a dot matrix display and an on-chip debugging emulator, and can be a 'Renesas promotion board' that supports analog functions. Additionally, since the measured brain wave spectrum may be different for each vehicle driver, the software that drives the control unit 140 may include customization. The software may be software developed in the C++ language.

경고부(52)는 졸음 상태라고 판단된 사용자에게 소리 또는 진동을 발생시킨다. The warning unit 52 generates a sound or vibration to a user determined to be drowsy.

구체적으로 경고부(52)는 차량(1)에 마련된 스피커 또는 내비게이션 등을 제어함으로써, 소리를 출력할 수 있다. 경고부(52)는 사용자에게 특정 알람 신호를 출력할 수 있다. Specifically, the warning unit 52 can output a sound by controlling a speaker or navigation system provided in the vehicle 1. The warning unit 52 may output a specific alarm signal to the user.

경고부(52)는 스티어링 휠(50)에 마련된 진동 장치를 제어할 수 있다. 경고부(52)는 진동 장치를 통해 운전자에게 진동을 전달할 수 있다.The warning unit 52 can control a vibration device provided on the steering wheel 50. The warning unit 52 may transmit vibration to the driver through a vibration device.

운전자 보조 시스템(100)은 도 2에 도시된 바에 한정되지 아니하며, 차량(1) 주변을 스캔하며 객체를 감지하는 라이다(lidar)를 더 포함할 수 있다.The driver assistance system 100 is not limited to what is shown in FIG. 2 and may further include a lidar that scans the surroundings of the vehicle 1 and detects objects.

도 3은 일 실시예에 의한 운전자 보조 시스템에 포함된 카메라 및 레이더를 도시한다.Figure 3 shows a camera and radar included in a driver assistance system according to one embodiment.

전방 카메라(110)는 도 3에 도시된 바와 같이 차량(1)의 전방을 향하는 시야(field of view) (110a)를 가질 수 있다. 전방 카메라(110)는 예를 들어 차량(1)의 프론트 윈드 쉴드에 설치될 수 있다.The front camera 110 may have a field of view 110a facing the front of the vehicle 1 as shown in FIG. 3 . The front camera 110 may be installed on the front windshield of the vehicle 1, for example.

전방 카메라(110)는 차량(1)의 전방을 촬영하고, 차량(1) 전방의 영상 데이터를 획득할 수 있다. 차량(1) 전방의 영상 데이터는 차량(1) 전방에 위치하는 다른 차량 또는 보행자 또는 사이클리스트 또는 차선에 관한 위치를 포함할 수 있다.The front camera 110 can photograph the front of the vehicle 1 and acquire image data of the front of the vehicle 1. The image data in front of the vehicle 1 may include the position of other vehicles or pedestrians or cyclists located in front of the vehicle 1 or the lane.

전방 카메라(110)는 복수의 렌즈들 및 이미지 센서를 포함할 수 있다. 이미지 센서는 광을 전기 신호로 변환하는 복수의 포토 다이오드들을 포함할 수 있으며, 복수의 포토 다이오드들이 2차원 매트릭스로 배치될 수 있다.The front camera 110 may include a plurality of lenses and an image sensor. The image sensor may include a plurality of photo diodes that convert light into an electrical signal, and the plurality of photo diodes may be arranged in a two-dimensional matrix.

전방 카메라(110)는 제어부(140)와 전기적으로 연결될 수 있다. 예를 들어, 전방 카메라(110)는 차량용 통신 네트워크(NT)를 통하여 제어부(140)와 연결되거나, 하드 와이어(hard wire)를 통하여 제어부(140)와 연결되거나, 인쇄 회로 기판(Printed Circuit Board, PCB)을 통하여 제어부(140)와 연결될 수 있다.The front camera 110 may be electrically connected to the control unit 140. For example, the front camera 110 is connected to the control unit 140 through a vehicle communication network (NT), connected to the control unit 140 through a hard wire, or a printed circuit board (Printed Circuit Board, It can be connected to the control unit 140 through a PCB).

전방 카메라(110)는 차량(1) 전방의 영상 데이터를 제어부(140)로 전달할 수 있다.The front camera 110 can transmit image data from the front of the vehicle 1 to the control unit 140.

전방 레이더(120)는 도 3에 도시된 바와 같이 차량(1)의 전방을 향하는 감지 시야(field of sensing) (120a)을 가질 수 있다. 전방 레이더(120)는 예를 들어 차량(1)의 그릴(grille) 또는 범퍼(bumper)에 설치될 수 있다.The front radar 120 may have a field of sensing 120a pointing toward the front of the vehicle 1 as shown in FIG. 3 . The front radar 120 may be installed, for example, on the grille or bumper of the vehicle 1.

전방 레이더(120)는 차량(1)의 전방을 향하여 송신 전파를 방사하는 송신 안테나(또는 송신 안테나 어레이)와, 객체에 반사된 반사 전파를 수신하는 수신 안테나(또는 수신 안테나 어레이)를 포함할 수 있다. 전방 레이더(120)는 송신 안테나에 의한 송신된 송신 전파와 수신 안테나에 의하여 수신된 반사 전파로부터 전방 레이더 데이터를 획득할 수 있다. 전방 레이더 데이터는 차량(1) 전방에 위치하는 다른 차량 또는 보행자 또는 사이클리스트에 관한 거리 정보 및 속도 정도를 포함할 수 있다. 전방 레이더(120)는 송신 전파와 반사 전파 사이의 위상 차이(또는 시간 차이)에 기초하여 객체까지의 상태 거리를 산출하고, 송신 전파와 반사 전파 사이의 주파수 차이에 기초하여 객체의 상대 속도를 산출할 수 있다.The front radar 120 may include a transmitting antenna (or transmitting antenna array) that radiates transmitted radio waves toward the front of the vehicle 1, and a receiving antenna (or receiving antenna array) that receives reflected radio waves reflected by an object. there is. The front radar 120 can acquire front radar data from a transmitted radio wave transmitted by a transmitting antenna and a reflected radio wave received by a receiving antenna. Forward radar data may include distance information and speed information regarding other vehicles or pedestrians or cyclists located in front of the vehicle 1. The front radar 120 calculates the state distance to the object based on the phase difference (or time difference) between the transmitted radio wave and the reflected radio wave, and calculates the relative speed of the object based on the frequency difference between the transmitted radio wave and the reflected radio wave. can do.

전방 레이더(120)는 예를 들어 차량용 통신 네트워크(NT) 또는 하드 와이어 또는 인쇄 회로 기판을 통하여 제어부(140)와 연결될 수 있다. 전방 레이더(120)는 전방 레이더 데이터를 제어부(140)로 전달할 수 있다.The front radar 120 may be connected to the control unit 140, for example, through a vehicle communication network (NT) or a hard wire or printed circuit board. The front radar 120 may transmit front radar data to the control unit 140.

복수의 코너 레이더들(130)은 차량(1)의 전방 우측에 설치되는 제1 코너 레이더(131)와, 차량(1)의 전방 좌측에 설치되는 제2 코너 레이더(132)와, 차량(1)의 후방 우측에 설치되는 제3 코너 레이더(133)와, 차량(1)의 후방 좌측에 설치되는 제4 코너 레이더(134)를 포함한다.The plurality of corner radars 130 include a first corner radar 131 installed on the front right side of the vehicle 1, a second corner radar 132 installed on the front left side of the vehicle 1, and a second corner radar 132 installed on the front left side of the vehicle 1. ) includes a third corner radar 133 installed on the rear right side of the vehicle (1) and a fourth corner radar 134 installed on the rear left side of the vehicle (1).

제1 코너 레이더(131)는 도 3에 도시된 바와 같이 차량(1)의 전방 우측을 향하는 감지 시야(131a)를 가질 수 있다. 전방 레이더(120)는 예를 들어 차량(1)의 전방 범퍼의 우측에 설치될 수 있다. 제2 코너 레이더(132)는 차량(1)의 전방 좌측을 향하는 감지 시야(132a)를 가질 수 있으며, 예를 들어 차량(1)의 전방 범퍼의 좌측에 설치될 수 있다. 제3 코너 레이더(133)는 차량(1)의 후방 우측을 향하는 감지 시야(133a)를 가질 수 있으며, 예를 들어 차량(1)의 후방 범퍼의 우측에 설치될 수 있다. 제4 코너 레이더(134)는 차량(1)의 후방 좌측을 향하는 감지 시야(134a)를 가질 수 있으며, 예를 들어 차량(1)의 후방 범퍼의 좌측에 설치될 수 있다.The first corner radar 131 may have a detection field of view 131a facing the front right side of the vehicle 1 as shown in FIG. 3 . The front radar 120 may be installed, for example, on the right side of the front bumper of the vehicle 1. The second corner radar 132 may have a detection field of view 132a facing the front left side of the vehicle 1, and may be installed, for example, on the left side of the front bumper of the vehicle 1. The third corner radar 133 may have a detection field of view 133a facing the rear right side of the vehicle 1, and may be installed, for example, on the right side of the rear bumper of the vehicle 1. The fourth corner radar 134 may have a detection field of view 134a facing toward the rear left side of the vehicle 1, and may be installed, for example, on the left side of the rear bumper of the vehicle 1.

제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134) 각각은 송신 안테나와 수신 안테나를 포함할 수 있다. 제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134)은 각각 제1 코너 레이더 데이터와 제2 코너 레이더 데이터와 제3 코너 레이더 데이터와 제4 코너 레이더 데이터를 획득할 수 있다. 제1 코너 레이더 데이터는 차량(1) 전방 우측에 위치하는 다른 차량 또는 보행자 또는 사이클리스트(이하 "객체"라 한다)에 관한 거리 정보 및 속도 정도를 포함할 수 있다. 제2 코너 레이더 데이터는 차량(1) 전방 좌측에 위치하는 객체의 거리 정보 및 속도 정도를 포함할 수 있다. 제3 및 제4 코너 레이더 데이터는 차량(1) 후방 우측 및 차량(1) 후방 좌측에 위치하는 객체의 거리 정보 및 상대 속도를 포함할 수 있다.Each of the first, second, third, and fourth corner radars 131, 132, 133, and 134 may include a transmitting antenna and a receiving antenna. The first, second, third, and fourth corner radars 131, 132, 133, and 134 acquire first corner radar data, second corner radar data, third corner radar data, and fourth corner radar data, respectively. can do. The first corner radar data may include distance information and speed information about other vehicles, pedestrians, or cyclists (hereinafter referred to as “objects”) located on the right front of the vehicle 1. The second corner radar data may include distance information and speed of an object located on the front left of the vehicle 1. The third and fourth corner radar data may include distance information and relative speed of objects located on the rear right side of the vehicle 1 and the rear left side of the vehicle 1.

제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134) 각각은 예를 들어 차량용 통신 네트워크(NT) 또는 하드 와이어 또는 인쇄 회로 기판을 통하여 제어부(140)와 연결될 수 있다. 제1, 제2, 제3 및 제4 코너 레이더들(131, 132, 133, 134)은 각각 제1, 제2, 제3 및 제4 코너 레이더 데이터를 제어부(140)로 전달할 수 있다.Each of the first, second, third and fourth corner radars 131, 132, 133, and 134 may be connected to the control unit 140, for example, through a vehicle communication network (NT) or a hard wire or printed circuit board. there is. The first, second, third, and fourth corner radars 131, 132, 133, and 134 may transmit first, second, third, and fourth corner radar data to the control unit 140, respectively.

도 4는 일 실시예에 따른 차량의 내부를 도시한 것이다. 도4에 도시된 바와 같이 차량(1)은 스티어링 휠(50), 센서부(103)를 포함한다. Figure 4 shows the interior of a vehicle according to one embodiment. As shown in Figure 4, the vehicle 1 includes a steering wheel 50 and a sensor unit 103.

센서부(103)는 사용자의 뇌파를 측정하는 제 1센서(103a)와, 사용자의 심전도를 측정하는 제 2센서(103b)와, 사용자의 교감신경 또는 부교감신경의 신경활동을 측정하는 제 3센서(103c)를 포함할 수 있다.The sensor unit 103 includes a first sensor 103a that measures the user's brain waves, a second sensor 103b that measures the user's electrocardiogram, and a third sensor that measures the neural activity of the user's sympathetic or parasympathetic nerves. (103c).

여기서 센서부(103)는 스티어링 휠(50)상에 위치할 수 있으며, 반드시 도4와 같은 위치로 한정되는 것은 아니다. 또한, 제 1센서(103a), 제 2센서(103b), 제 3센서(103c)는 반드시 같은 위치에 존재하는 것은 아니고, 서로 다른 위치에 구비될 수 있다.Here, the sensor unit 103 may be located on the steering wheel 50, and is not necessarily limited to the position shown in FIG. 4. Additionally, the first sensor 103a, the second sensor 103b, and the third sensor 103c are not necessarily located at the same location and may be provided at different locations.

도 5는 일 실시예에 의한 운전자 보조 시스템의 경고시스템 및 일 실시예에 의한 운전자 보조 시스템의 긴급 조향 및/또는 긴급 제동 방법의 일 예를 도시한다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있다.Figure 5 shows an example of a warning system of a driver assistance system according to an embodiment and an emergency steering and/or emergency braking method of a driver assistance system according to an embodiment. However, this is only a preferred embodiment for achieving the purpose of the present invention, and some steps may be added or deleted as needed.

센서부(103)는 운전자의 생체 신호를 측정한다(211). The sensor unit 103 measures the driver's biological signals (211).

생체 신호는 상술한 바와 같이 운전자의 말초신경으로부터 측정된 뇌파, 심전도, 교감 또는 부교감신경활동 중 적어도 하나를 포함할 수 있다. As described above, the biosignal may include at least one of brain waves, electrocardiogram, and sympathetic or parasympathetic nerve activity measured from the driver's peripheral nerves.

제어부(140)는 측정된 운전자의 생체 신호를 기반으로 실시간으로 운전자의 생체 정보를 데이터 베이스를 구축한다(212). The control unit 140 builds a database of the driver's biometric information in real time based on the driver's measured biometric signals (212).

여기서, 데이터 베이스는 측정된 운전자에 따른 모든 생체 신호를 포함한다. Here, the database includes all measured biometric signals of the driver.

구체적으로, 구축된 데이터 베이스는 운전자의 뇌파 정보를 포함할 수 있다. 운전자의 뇌파는 전기적 신호로 측정되므로, 뇌파 정보는 주파수 대역을 기준으로 파형을 형성할 수 있고, 형성된 파형을 기초로 뇌파 스펙트럼 데이터 베이스가 구축될 수 있다.Specifically, the constructed database may include the driver's brain wave information. Since the driver's brain waves are measured as electrical signals, the brain wave information can form a waveform based on the frequency band, and an brain wave spectrum database can be built based on the formed waveform.

제어부(140)는 운전자의 뇌파 스펙트럼을 분류하고, 졸린 상태에 해당하는 뇌파 진폭의 임계치를 산정한다(213). The control unit 140 classifies the driver's brain wave spectrum and calculates a threshold value of the brain wave amplitude corresponding to a sleepy state (213).

구체적으로, 제어부(140)는 생성된 뇌파 스펙트럼 데이터 베이스에서 운전자의 졸린 상태의 뇌파를 정량적으로 분류한다. 이러한 정량적인 측정을 위해서, FFT(Fast Fourier Transform)방식이 적용될 수 있다. 운전자의 뇌파는 졸린 상태에서 진폭이 급증하는 파형을 보이므로, 제어부(140)는 운전자의 뇌파의 진폭이 증가되는 특정 주파수 대역을 임계치로 산정할 수 있다. Specifically, the control unit 140 quantitatively classifies the driver's drowsy brain waves from the generated brain wave spectrum database. For such quantitative measurement, the FFT (Fast Fourier Transform) method can be applied. Since the driver's brain waves show a waveform in which the amplitude rapidly increases in a drowsy state, the control unit 140 may calculate a specific frequency band in which the amplitude of the driver's brain waves increases as the threshold.

임계치가 산정된 후 제어부(140)는 다음 시점에서 측정된 생체 신호를 상정된 임계치와 비교한다(214).After the threshold is calculated, the control unit 140 compares the biological signal measured at the next time point with the assumed threshold (214).

만약, 측정된 생체 신호가 임계치 미만이면, 제어부는 다시 생체 신호를측정한다(아니오)If the measured biosignal is less than the threshold, the control unit measures the biosignal again (No)

만약, 측정된 신호가 임계치보다 크면 제어부(140)는 경고부(52)에 명령 값을 발생시키고(215), 제동장치 및/또는 조향 장치를 제어한다(225).If the measured signal is greater than the threshold, the control unit 140 generates a command value to the warning unit 52 (215) and controls the braking device and/or the steering device (225).

즉, 제어부(140)는 운전자의 뇌파 데이터 베이스 분석결과 운전자의 뇌파가 졸린 상태의 뇌파로 판단되면 경고부(52)로 신호를 전송할 수 있다. 또한, 제어부(140)는 운전자가 졸린 상태에 있는 것으로 판단한 경우, 조향 장치 및/또는 제동장치를 제어하여 차량의 갓길주차를 유도할 수도 있다.한편, 경고부(52)가 경고하는 방식은 운전자에게 경보음을 울리는 방식이 될 수 있다. 경고부(52)가 경고하는 방식은 스티어링 휠(50)을 진동시키는 방식이 될 수도 있다. 다만, 개시된 발명이 경고하는 방식은 이에 한정되는 것은 아니며, 다른 경고방식이 포함될 수 있다.That is, if the control unit 140 determines that the driver's brain waves are in a drowsy state as a result of analyzing the driver's brain wave database, it can transmit a signal to the warning unit 52. Additionally, if the control unit 140 determines that the driver is drowsy, it may control the steering and/or braking system to induce the vehicle to park on the shoulder. Meanwhile, the warning unit 52 issues a warning to the driver. This could be a way to sound an alarm. The warning unit 52 may use a method of vibrating the steering wheel 50. However, the warning method of the disclosed invention is not limited to this, and other warning methods may be included.

개시된 발명의 다른 예로, 운전자의 뇌파가 졸린 상태의 뇌파로 판단되고, 충돌까지의 시간 또는 충돌까지의 거리에 기초하여 전방 객체와의 충돌이 판단되면, 제어부(140)는 전방 객체와의 충돌을 회피하기 위하여 조향 신호를 조향 시스템(42)으로 전송할 수 있다.As another example of the disclosed invention, if the driver's brain waves are determined to be those of a drowsy state and a collision with the front object is determined based on the time until the collision or the distance until the collision, the control unit 140 detects the collision with the front object. To avoid this, a steering signal can be transmitted to the steering system 42.

도 6은 일 실시예에 따른 본 발명의 센서부(103)에 의해 측정된 생체 신호를 기초로 제어부(140)에서 생성된 운전자의 뇌파도이다. 단, 이는 본 발명의 운전자의 일 실시예일 뿐이며, 운전자에 따라 뇌파도가 상이할 수 있음은 물론이다.Figure 6 is a driver's electroencephalogram generated by the control unit 140 based on bio-signals measured by the sensor unit 103 of the present invention according to one embodiment. However, this is only an example of the driver of the present invention, and of course, the electroencephalogram may be different depending on the driver.

도 6의 X축은 운전자의 뇌파의 주파수 대역을 나타낸 것이고, Y축은 FFT(Fast Fourier Transform) 과정을 거친 운전자의 뇌파의 진폭이다.The X-axis in FIG. 6 represents the frequency band of the driver's brain waves, and the Y-axis represents the amplitude of the driver's brain waves that have gone through an FFT (Fast Fourier Transform) process.

도 6에 도시된 바와 같이, 운전자의 뇌파는 졸음 상태에서 특정 주파수 대역의 진폭이 활성화 되는 경향을 지니므로, 제어부(140)는 도 6과 같이 다양한 형태로 측정될 수 있는 생체 신호에 대해 데이터 베이스를 구축하고, 구축된 데이터 베이스에서 임계치를 다양하게 설정할 수 있다.As shown in FIG. 6, the driver's brain waves tend to be activated in the amplitude of a specific frequency band in a drowsy state, so the control unit 140 creates a database for biological signals that can be measured in various forms as shown in FIG. 6. , and various threshold values can be set in the constructed database.

도 7은 운전자가 정상상태인 경우와 졸음 상태 등 비정상 상태인 경우의 뇌파 비교도이다. Figure 7 is a comparison diagram of brain waves when the driver is in a normal state and when the driver is in an abnormal state such as drowsiness.

도 7의 X축은 5초당 운전자의 뇌파의 주기를 나타낸 것이고, Y축은 운전자 뇌파의 주파수 대역에 따른 뇌파의 진폭을 나타낸 것이다. The X-axis of FIG. 7 shows the cycle of the driver's brain waves per 5 seconds, and the Y-axis shows the amplitude of the brain waves according to the frequency band of the driver's brain waves.

운전자가 졸음 상태 등 비정상 상태인 경우, 운전자의 뇌파의 주기와 진폭이 정상상태의 뇌파의 주기와 진폭보다 길어지거나 짧아지는 경향을 가진다. 따라서, 제어부(140)는 구축된 데이터 베이스에서 도 7에 도시된 바와 같은 뇌파의 주기와 진폭의 변화가 감지되면, 현재 운전자가 비정상적인 상태인 것으로 판단하고, 사용자에게 경고하거나, 조향 장치 및 제동 장치를 제어할 수 있다.When the driver is in an abnormal state, such as drowsy, the period and amplitude of the driver's brain waves tend to be longer or shorter than the period and amplitude of the brain waves in the normal state. Therefore, when a change in the period and amplitude of the brain wave as shown in FIG. 7 is detected in the built database, the control unit 140 determines that the current driver is in an abnormal state and warns the user or controls the steering and braking devices. can be controlled.

이를 통해서 개시된 시스템 및 방법은, 스티어링 휠(50)에 마련되고, 운전자의 말초신경으로부터 신호를 측정하는 센서부(103) 및 센서부(103)가 측정하는 신호에 기초하여 운전자의 졸음 여부를 판단하는 제어부(140)를 포함하는 운전자 보조 시스템으로서, 말초신경신호를 통하여 뇌파를 측정하고, 이를 통해 운전자의 상태를 감지할 수 있다.The system and method disclosed through this are provided in the steering wheel 50 and determine whether the driver is drowsy based on the sensor unit 103 that measures signals from the driver's peripheral nerves and the signals measured by the sensor unit 103. It is a driver assistance system including a control unit 140 that measures brain waves through peripheral nerve signals and can detect the driver's condition through this.

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium that stores instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may create program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. Computer-readable recording media include all types of recording media storing instructions that can be decoded by a computer. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, and optical data storage devices.

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the attached drawings. A person skilled in the art to which the present invention pertains will understand that the present invention can be practiced in forms different from the disclosed embodiments without changing the technical idea or essential features of the present invention. The disclosed embodiments are illustrative and should not be construed as limiting.

1: 차량 50: 스티어링 휠
100: 운전자 보조 시스템 103: 센서부
110: 전방 카메라 120: 전방 레이더
130: 복수의 코너 레이더들 131: 제1 코너 레이더
132: 제2 코너 레이더 133: 제3 코너 레이더
134: 제4 코너 레이더 140: 제어부
1: Vehicle 50: Steering wheel
100: Driver assistance system 103: Sensor unit
110: front camera 120: front radar
130: Multiple corner raiders 131: First corner raider
132: 2nd corner radar 133: 3rd corner radar
134: fourth corner radar 140: control unit

Claims (10)

스티어링 휠;
차량에 설치되어, 상기 차량의 전방 시야를 가지며, 전방 영상 데이터를 획득하는 전방 영상 센서;
레이더 센서와 라이다 센서로 구성된 센서 그룹에서 선택되어, 상기 차량에 설치되며, 상기 차량의 전방의 감지 시야를 가지고, 전방 감지 데이터를 획득하는 전방 비-영상 센서;
레이더 센서와 라이다 센서로 구성된 센서 그룹에서 선택되어, 상기 차량에 설치되며, 상기 차량의 측방의 감지 시야를 가지고, 측방 감지 데이터를 획득하는 측방 비-영상 센서;
상기 스티어링 휠에 마련되고, 운전자의 심전도, 운전자의 신경활동 또는 운전자의 말초신경으로부터 측정된 적어도 하나 이상의 뇌파를 포함하는 생체신호 데이터를 측정하는 센서부; 및
상기 전방 영상 데이터, 상기 전방 감지 데이터, 상기 측방 감지 데이터 및 상기 생체신호 데이터를 처리하는 프로세서를 포함하는 제어부;를 포함하고,
상기 제어부는,
상기 생체신호 데이터에 포함된 상기 뇌파를 기초하여 상기 운전자의 졸린 상태를 판단하는 운전자 보조 시스템.
steering wheel;
A front image sensor installed in a vehicle, having a front view of the vehicle, and acquiring front image data;
a front non-image sensor selected from a sensor group consisting of a radar sensor and a lidar sensor, installed in the vehicle, having a detection field of view in front of the vehicle, and acquiring front detection data;
A lateral non-image sensor selected from a sensor group consisting of a radar sensor and a LiDAR sensor, installed in the vehicle, having a detection field of view on the side of the vehicle, and acquiring side detection data;
a sensor unit provided on the steering wheel and measuring bio-signal data including the driver's electrocardiogram, the driver's neural activity, or at least one brain wave measured from the driver's peripheral nerves; and
A control unit including a processor that processes the front image data, the front sense data, the side sense data, and the bio-signal data,
The control unit,
A driver assistance system that determines the driver's drowsy state based on the brain waves included in the bio-signal data.
제 1항에 있어서,
상기 제어부는,
상기 생체신호 데이터에서 상기 뇌파의 진폭이 급변하는 주파수 대역을 기초로 임계치를 산정하는 운전자 보조 시스템.
According to clause 1,
The control unit,
A driver assistance system that calculates a threshold based on a frequency band in which the amplitude of the brain wave changes rapidly in the bio-signal data.
제 2항에 있어서,
상기 제어부는,
상기 생체신호 데이터에서 측정된 상기 뇌파의 진폭을 상기 산정된 임계치와 비교하는 운전자 보조 시스템.
According to clause 2,
The control unit,
A driver assistance system that compares the amplitude of the brain wave measured from the bio-signal data with the calculated threshold.
제 1항에 있어서,
소리 또는 진동을 출력하는 경고부;를 더 포함하고,
상기 제어부는,
상기 판단 결과에 기초하여 상기 경고부를 제어하는 운전자 보조 시스템.
According to clause 1,
It further includes a warning unit that outputs sound or vibration,
The control unit,
A driver assistance system that controls the warning unit based on the judgment result.
제 1항에 있어서,
상기 제어부는,
상기 운전자의 졸음 여부를 판단한 후, 상기 전방 영상 데이터, 상기 전방 감지 데이터 또는 상기 측방 감지 데이터 중 적어도 하나에 기초하여 전방 객체 및 측방 객체와 충돌 여부를 판단하고,
상기 충돌 여부에 대한 판단 결과에 기초하여 조향 장치를 제어하는 운전자 보조 시스템.
According to clause 1,
The control unit,
After determining whether the driver is drowsy, determining whether there is a collision with a front object and a side object based on at least one of the front image data, the front detection data, and the side detection data,
A driver assistance system that controls a steering device based on the determination result of the collision.
차량에 설치되어 상기 차량의 전방 시야를 가지는 카메라에 의하여, 상기 차량의 전방 영상 데이터를 획득하고;
상기 차량에 설치되어 상기 차량의 전방 감지 시야를 가지는 전방 레이더 센서 혹은 라이다 센서에 의하여, 상기 차량의 전방 감지 데이터를 획득하고;
상기 차량에 설치되어 상기 차량의 측방 감지 시야를 가지는 측방 레이더 센서 혹은 라이다 센서에 의하여, 상기 차량의 측방 감지 데이터를 획득하고;
상기 전방 영상 데이터와 상기 전방 감지 데이터와 상기 측방 감지 데이터를 처리한 것에 응답하여, 상기 차량의 전방에 위치하는 전방 객체와 상기 차량의 측방에 위치하는 측방 객체를 감지하고;
스티어링 휠에 마련된 센서부를 통해 운전자의 심장 박동수, 운전자의 신경활동 또는 운전자의 말초신경으로부터 측정된 적어도 하나 이상의 뇌파를 포함하는 생체신호 데이터를 측정하고; 및
상기 생체신호 데이터에 포함된 상기 뇌파에 기초하여 상기 운전자의 졸린 상태를 판단하는 것;을 포함하는 운전자 보조 시스템의 제어 방법.
Obtaining front image data of the vehicle using a camera installed in the vehicle and having a front view of the vehicle;
Obtaining front detection data of the vehicle by a front radar sensor or LiDAR sensor installed in the vehicle and having a front detection field of view of the vehicle;
Obtaining side detection data of the vehicle by a side radar sensor or LiDAR sensor installed in the vehicle and having a side detection field of view of the vehicle;
In response to processing the front image data, the front detection data, and the side detection data, detect a front object located in front of the vehicle and a side object located on a side of the vehicle;
Measure bio-signal data including the driver's heart rate, the driver's neural activity, or at least one brain wave measured from the driver's peripheral nerves through a sensor unit provided on the steering wheel; and
A control method of a driver assistance system comprising: determining a drowsy state of the driver based on the brain waves included in the bio-signal data.
제 6항에 있어서,
상기 판단하는 것은,
상기 생체신호 데이터에서 상기 뇌파의 진폭이 급변하는 주파수 대역을 기초로 임계치를 산정하는 것;을 포함하는 운전자 보조 시스템의 제어 방법.
According to clause 6,
The above judgment is,
A control method for a driver assistance system comprising: calculating a threshold based on a frequency band in which the amplitude of the brain wave rapidly changes in the bio-signal data.
제 7항에 있어서,
상기 생체신호 데이터에서 측정된 상기 뇌파의 진폭을 상기 산정된 임계치와 비교하는 운전자 보조 시스템의 제어 방법.
According to clause 7,
A control method of a driver assistance system that compares the amplitude of the brain wave measured from the bio-signal data with the calculated threshold.
제 6항에 있어서,
경고부에 의해서 소리 또는 진동을 출력하는 것을 더 포함하고,
상기 판단 결과에 기초하여 상기 경고부를 제어하는 운전자 보조 시스템의 제어 방법.
According to clause 6,
It further includes outputting a sound or vibration by a warning unit,
A control method of a driver assistance system that controls the warning unit based on the determination result.
제 6항에 있어서,
상기 운전자의 졸음 여부를 판단한 후, 상기 전방 영상 데이터, 상기 전방 레이더 데이터 또는 상기 측방 레이더 데이터 중 적어도 하나에 기초하여 전방 객체 및 측방 객체와의 충돌 여부를 판단하고,
상기 충돌 여부에 대한 판단 결과에 기초하여 조향 장치를 제어하는 운전자 보조 시스템의 제어 방법.
According to clause 6,
After determining whether the driver is drowsy, determining whether there is a collision with a front object and a side object based on at least one of the front image data, the front radar data, and the side radar data,
A control method of a driver assistance system that controls a steering device based on the determination result of the collision.
KR1020190051751A 2019-05-02 2019-05-02 driver assistance apparatus and CONTROL METHOD KR102608299B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190051751A KR102608299B1 (en) 2019-05-02 2019-05-02 driver assistance apparatus and CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190051751A KR102608299B1 (en) 2019-05-02 2019-05-02 driver assistance apparatus and CONTROL METHOD

Publications (2)

Publication Number Publication Date
KR20200128282A KR20200128282A (en) 2020-11-12
KR102608299B1 true KR102608299B1 (en) 2023-12-01

Family

ID=73398754

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190051751A KR102608299B1 (en) 2019-05-02 2019-05-02 driver assistance apparatus and CONTROL METHOD

Country Status (1)

Country Link
KR (1) KR102608299B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114103998B (en) * 2021-12-03 2024-03-19 智己汽车科技有限公司 Intelligent driving vehicle control method, system and device based on driver sight line
KR20230127386A (en) 2022-02-24 2023-09-01 케이지모빌리티 주식회사 Safe stop assist system and method when driver is drowsy
CN114620050B (en) * 2022-03-28 2023-01-03 徐州华宝能源科技有限公司 Fatigue driving detection method and system based on big data and cloud computing

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101536348B1 (en) * 2014-03-31 2015-07-14 주식회사 바이브라시스템 method and apparatus for detecting drowsiness by physiological signal by using video

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102048186B1 (en) * 2013-06-19 2019-11-25 현대모비스 주식회사 Apparatus and method for judging drowsiness drive using driving pattern of vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101536348B1 (en) * 2014-03-31 2015-07-14 주식회사 바이브라시스템 method and apparatus for detecting drowsiness by physiological signal by using video

Also Published As

Publication number Publication date
KR20200128282A (en) 2020-11-12

Similar Documents

Publication Publication Date Title
US11584340B2 (en) Sensor integration based pedestrian detection and pedestrian collision prevention apparatus and method
US10821946B2 (en) Sensor integration based pedestrian detection and pedestrian collision prevention apparatus and method
US20130093603A1 (en) Vehicle system and method for assessing and communicating a condition of a driver
KR102608299B1 (en) driver assistance apparatus and CONTROL METHOD
WO2020010822A1 (en) Adaptive driver monitoring for advanced driver-assistance systems
US20130135092A1 (en) Driving behavior analysis and warning system and method thereof
US11518373B2 (en) Vehicle and control method thereof
KR102053794B1 (en) Apparatus and method for delivering driver's movement intention based on bio-signals
JP4182131B2 (en) Arousal level determination device and arousal level determination method
EP3561720A1 (en) Providing location and driving behavior based alerts
US11332131B2 (en) Driver assistance system and control method thereof
JP2007122578A (en) Virtual lane display apparatus
KR102440255B1 (en) Driver assistance system and method thereof
KR20210031128A (en) Driver assistance apparatus and method thereof
US20210323550A1 (en) Driver assistance apparatus
US10745029B2 (en) Providing relevant alerts to a driver of a vehicle
KR20210123626A (en) Driver assistance apparatus
KR20200094629A (en) Driver assistance system, and control method for the same
CN112758089A (en) Voice reminding method, advanced driving assistance system and computer storage medium
KR20220036870A (en) Method, system, and computer program product for determining safety-critical traffic scenarios for driver assistance systems (das) and highly automated driving functions (had)
JP2021122655A (en) Abnormality detection system, abnormality detection device, and abnormality detection method
KR20210129913A (en) Driver assistance apparatus
EP4344635A1 (en) Driver abnormality sign detection apparatus
JP7176582B2 (en) State determination device
EP4344636A1 (en) Driver state determination apparatus

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant