KR20240036241A - Method and System for Human-Machine Interaction in Driving Assistant System for Semi-Autonomous Driving Vehicles - Google Patents

Method and System for Human-Machine Interaction in Driving Assistant System for Semi-Autonomous Driving Vehicles Download PDF

Info

Publication number
KR20240036241A
KR20240036241A KR1020220114772A KR20220114772A KR20240036241A KR 20240036241 A KR20240036241 A KR 20240036241A KR 1020220114772 A KR1020220114772 A KR 1020220114772A KR 20220114772 A KR20220114772 A KR 20220114772A KR 20240036241 A KR20240036241 A KR 20240036241A
Authority
KR
South Korea
Prior art keywords
semi
data
autonomous driving
carla
driver
Prior art date
Application number
KR1020220114772A
Other languages
Korean (ko)
Inventor
김덕환
이흥구
강동현
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020220114772A priority Critical patent/KR20240036241A/en
Publication of KR20240036241A publication Critical patent/KR20240036241A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • B60W2050/0029Mathematical model of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload

Abstract

반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 방법 및 시스템이 제시된다. 본 발명에서 제안하는 반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 시스템은 운전자의 생체신호 기반 CNN 모델을 이용하여 운전자의 감정 및 상황을 분류하고, 상황인식 결과 데이터를 ECU 보드로 전송하는 HMI(Human machine interface), 수신 받은 HMI 결과데이터를 이용하여 반자율 주행 가상환경에 관한 복수의 시나리오를 생성하는 ECU(Electronic Control Unit) 보드, CARLA(Car Learning to Act) 시뮬레이터를 통해 반자율 주행을 실행하기 위한 반자율 주행 가상환경에 관한 차량정보 및 센서데이터를 관리하는 ROS(Robot operating system) 및 상기 차량정보 및 센서데이터를 이용하여 상기 반자율 주행 가상환경에 관한 복수의 시나리오에 따라 CARLA 클라이언트의 반자율 주행을 실행하는 CARLA 서버를 포함한다.A human-machine interaction method and system for a driving assistance system in a semi-autonomous vehicle is presented. The human-machine interaction system for the driving assistance system of a semi-autonomous car proposed in the present invention uses a CNN model based on the driver's biosignals to classify the driver's emotions and situations and transmits the situation recognition result data to the ECU board. Semi-autonomous driving is possible through HMI (Human machine interface), ECU (Electronic Control Unit) board that generates multiple scenarios related to the semi-autonomous driving virtual environment using received HMI result data, and CARLA (Car Learning to Act) simulator. ROS (Robot operating system), which manages vehicle information and sensor data related to the semi-autonomous driving virtual environment for execution, and the CARLA client according to a plurality of scenarios related to the semi-autonomous driving virtual environment using the vehicle information and sensor data. Includes CARLA server that runs semi-autonomous driving.

Description

반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 방법 및 시스템{Method and System for Human-Machine Interaction in Driving Assistant System for Semi-Autonomous Driving Vehicles}{Method and System for Human-Machine Interaction in Driving Assistant System for Semi-Autonomous Driving Vehicles}

본 발명은 반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 방법 및 시스템에 관한 것이다. The present invention relates to a human-machine interaction method and system for a driver assistance system in a semi-autonomous vehicle.

최근 인간-기계 상호작용 기술은 자율주행 차량에도 적용하는 연구가 진행되고 있다. ADAS(Advanced Driver Assistance Systems)는 다양한 방법으로 운전자의 운전에 도움을 주는 시스템이지만, 차량 내부의 운전자 상황, 감정을 이용한 차량 제어 시스템 간의 상호작용 연구는 소수이다. 현재까지 운전자의 감정 변화가 차량 주행 및 제어 능력에 영향을 미치는 연구와 자율 주행 및 운전자의 보조 시스템의 설계를 위한 운전 상황, 감정을 분석함으로써 새로운 측면으로 차량 제어 시스템을 설계할 수 있으며, 운전자와 차량 간의 상호작용이 필요하다는 것을 알 수 있다.Recently, research is being conducted to apply human-machine interaction technology to autonomous vehicles. ADAS (Advanced Driver Assistance Systems) is a system that helps drivers drive in various ways, but there is little research on the interaction between the driver's situation inside the vehicle and the vehicle control system using emotions. To date, by analyzing the driving situation and emotions for the design of autonomous driving and driver assistance systems, as well as research on how changes in the driver's emotions affect vehicle driving and control abilities, it is possible to design a vehicle control system with new aspects, and to design a vehicle control system with new aspects. It can be seen that interaction between vehicles is necessary.

실제 차량으로 자율주행 연구 진행 시 인명사고에 대한 다수 위험성 및 실험 장비, 비용에 필요한 등의 문제가 있다. 이러한 문제를 해결하기 위하여 가상환경의 시뮬레이터를 자주 사용한다. 3D 가상 시뮬레이터는 객체, 날씨, 공간 및 실험비용 등 제한에 영향이 없으며, 다양한 시나리오 데이터 수집을 통한 연구에 필요한 상황 설정이 용이하다. 특히 가상 엔진(Unreal Engine) 및 단일성(Unity) 등의 3D게임엔진 기반의 가상 자율 주행 시뮬레이터를 사용하여 다양한 연구분야에서 적용 중이다. 주행 시뮬레이터 종류로는 가상 엔진 기반 CARLA, Sim4CV, AirSim과 단일 엔진(Unity Engine) 기반 LGSVL(LG Silicon Valley Lab)이 개발되었다. 차량 주행에 있어 물리적인 시간 및 장소의 제약의 대해서 자유로운 CARLA(Car Learning to Act) 시뮬레이터가 주로 사용된다. ROS(Robot Operating System)는 오픈 소스기반의 메타운영체제로 미들웨어이며 이기종 디바이스에 유리한 조건이다. 시뮬레이터로 개발한 환경에서 실제 환경에 적용하는데 최적화되어 있으며, ROS를 사용한 자율 주행 연구가 활발히 진행되고 있다. 앞서 언급한 내용처럼 자율 주행 모듈 개발 시 시뮬레이터 기반으로 개발한 모듈은 실제 차량에 즉시 적용이 가능한 이점이 있다. 차량에 장착되는 ECU(Electronic Control Unit) 모듈을 개발 시 HILS(Hardware-in-the-Loop) 기반으로 한 시뮬레이터 연구가 많이 진행이 되고 있다. HILS를 사용하여 테스트를 진행하게 되면 안전 위험 및 공간제약 등 여러 문제가 발생하지 않는다. ECU는 차량에 장착되는 차량 전자 제어 마이크로 컨트롤러로써 엔진 및 주변장치를 제어하는 보드이다. ADAS (Advanced Driver Assistance Systems)는 차량 자율주행 기술의 발전으로 차량 내에 70개가 넘는 ECU보드가 장착되고 있다. 시뮬레이션을 사용하여 ECU 모듈 개발 시에 차량 특정 객체 모델을 ECU가 대체하게 된다. 따라서 실험 시 완성된 차량이 없이도 시뮬레이터상 제어 모듈을 쉽게 개발할 수 있고, 재사용이 가능한 이점이 있다. 차량 내에 전기 장치들은 CAN(Controller Area Network) 통신 프로토콜에 의해 제어와 모니터링이 가능하게 된다. When conducting autonomous driving research with actual vehicles, there are problems such as the risk of fatal accidents and the need for experimental equipment and costs. To solve these problems, simulators in virtual environments are often used. The 3D virtual simulator is not affected by limitations such as objects, weather, space, and experiment costs, and it is easy to set up the situations necessary for research by collecting various scenario data. In particular, virtual autonomous driving simulators based on 3D game engines such as Unreal Engine and Unity are being used in various research fields. Driving simulator types include virtual engine-based CARLA, Sim4CV, and AirSim, and single engine (Unity Engine)-based LGSVL (LG Silicon Valley Lab) were developed. CARLA (Car Learning to Act) simulator, which is free from physical time and location constraints when driving a vehicle, is mainly used. ROS (Robot Operating System) is an open source-based meta operating system that is middleware and is advantageous for heterogeneous devices. It is optimized for application to the real environment in an environment developed using a simulator, and autonomous driving research using ROS is actively underway. As mentioned earlier, when developing autonomous driving modules, modules developed based on a simulator have the advantage of being able to be immediately applied to actual vehicles. When developing ECU (Electronic Control Unit) modules mounted on vehicles, much research is being conducted on simulators based on HILS (Hardware-in-the-Loop). When testing is conducted using HILS, various problems such as safety risks and space constraints do not occur. ECU is a vehicle electronic control microcontroller mounted on a vehicle and is a board that controls the engine and peripheral devices. ADAS (Advanced Driver Assistance Systems) is a development of autonomous vehicle technology, with more than 70 ECU boards installed in vehicles. When developing an ECU module using simulation, the ECU replaces the vehicle-specific object model. Therefore, there is an advantage that the control module on the simulator can be easily developed and reused even without a completed vehicle during the experiment. Electrical devices within a vehicle can be controlled and monitored using the CAN (Controller Area Network) communication protocol.

[1] Sini, Jacopo, Antonio Costantino Marceddu, and Massimo Violante. "Automatic emotion recognition for the calibration of autonomous driving functions." Electronics 9.3 (2020): 518.[1] Sini, Jacopo, Antonio Costantino Marceddu, and Massimo Violante. “Automatic emotion recognition for the calibration of autonomous driving functions.” Electronics 9.3 (2020): 518. [2] Alian, A.A.; Kirk, H.S. Photoplethysmography. Best Pract. Res. Clin. Anaesthesiol. 2014, 28, 395-406.[2] Alian, A.A.; Kirk, H.S. Photoplethysmography. Best Practice. Res. Clin. Anaesthesiol. 2014, 28, 395-406. [3] Jacobs, K.W.; Frank, E.H., Jr. Effects of four psychological primary colors on GSR, heart rate and respiration rate. Percept. Mot. Ski.1974, 38, 763-766.[3] Jacobs, K.W.; Frank, E.H., Jr. Effects of four psychological primary colors on GSR, heart rate and respiration rate. Percept. Mot. Ski.1974, 38, 763-766. [4] Maeng, Jun-Ho, Dong-Hyun Kang, and Deok-Hwan Kim. "Deep Learning Method for Selecting Effective Models and Feature Groups in Emotion Recognition Using an Asian Multimodal Database." Electronics 9.12 (2020): 1988.[4] Maeng, Jun-Ho, Dong-Hyun Kang, and Deok-Hwan Kim. “Deep Learning Method for Selecting Effective Models and Feature Groups in Emotion Recognition Using an Asian Multimodal Database.” Electronics 9.12 (2020): 1988.

본 발명이 이루고자 하는 기술적 과제는 탑승자의 상황, 감정을 이용한 운전자 보조 주행 제어하기 위해 가상환경 CARLA 시뮬레이터를 사용하는 생체신호 데이터 기반 상황인지를 탑재한 반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 방법 및 시스템을 제공하는데 있다.The technical problem to be achieved by the present invention is human-machine interaction for a driving assistance system for a semi-autonomous vehicle equipped with situational awareness based on bio-signal data using a virtual environment CARLA simulator to control driver-assisted driving using the situation and emotions of the occupants. The purpose is to provide an operation method and system.

일 측면에 있어서, 본 발명에서 제안하는 반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 시스템은 운전자의 생체신호 기반 CNN 모델을 이용하여 운전자의 감정 및 상황을 분류하고, 상황인식 결과 데이터를 ECU 보드로 전송하는 HMI(Human machine interface), 수신 받은 HMI 결과데이터를 이용하여 반자율 주행 가상환경에 관한 복수의 시나리오를 생성하는 ECU(Electronic Control Unit) 보드, CARLA(Car Learning to Act) 시뮬레이터를 통해 반자율 주행을 실행하기 위한 반자율 주행 가상환경에 관한 차량정보 및 센서데이터를 관리하는 ROS(Robot operating system) 및 상기 차량정보 및 센서데이터를 이용하여 상기 반자율 주행 가상환경에 관한 복수의 시나리오에 따라 CARLA 클라이언트의 반자율 주행을 실행하는 CARLA 서버를 포함한다. In one aspect, the human-machine interaction system for a driving assistance system for a semi-autonomous car proposed in the present invention classifies the driver's emotions and situations using a CNN model based on the driver's biosignals, and provides situational recognition result data. HMI (Human machine interface) transmitted to the ECU board, ECU (Electronic Control Unit) board that generates multiple scenarios related to the semi-autonomous driving virtual environment using the received HMI result data, and CARLA (Car Learning to Act) simulator. ROS (Robot operating system) that manages vehicle information and sensor data related to the semi-autonomous driving virtual environment to execute semi-autonomous driving through a plurality of scenarios related to the semi-autonomous driving virtual environment using the vehicle information and sensor data It includes a CARLA server that executes semi-autonomous driving of CARLA clients.

상기 HMI는 상기 운전자의 생체신호 기반의 CNN 모델을 이용하기 위해 PPG 신호 및 GSR 신호를 사용하고, 원시 데이터를 학습데이터 및 실시간 감정인식을 위한 데이터로 바로 사용하기 위해 상기 원시 데이터의 저주파 성분 제거를 위한 버터워스 필터(Butterworth Filter)를 적용하고, 고차다항식, 이동평균 필터를 사용하여, 기저선 변동 및 동적잡음을 감소시키며, 전처리된 생체신호를 파형단위로 분할 후 1D CNN 모델을 통해 데이터의 학습을 진행한다. The HMI uses PPG signals and GSR signals to use a CNN model based on the driver's biosignals, and removes low-frequency components of the raw data to directly use the raw data as training data and data for real-time emotion recognition. Butterworth Filter is applied to reduce baseline fluctuations and dynamic noise by using high-order polynomial and moving average filters, and the preprocessed biosignals are divided into waveform units and data is learned through a 1D CNN model. Proceed.

상기 ROS는 ROS 브리지(Bridge)를 통해 CARLA 시뮬레이터와 ECU보드의 데이터를 연동하고, 상기 수신 받은 차량정보 및 센서데이터는 각 ROS 노드(Node)에서 반자율 주행 제어를 위해 처리되어, 반자율 주행을 위한 ROS의 API(Application Programming Interface)로 전송된 ROS 메시지(Message) 데이터를 사용하여 CARLA 서버가 반자율 주행을 실행하도록 차량정보 및 센서데이터를 관리한다. The ROS links data from the CARLA simulator and the ECU board through the ROS Bridge, and the received vehicle information and sensor data are processed for semi-autonomous driving control at each ROS node, enabling semi-autonomous driving. CARLA server manages vehicle information and sensor data to execute semi-autonomous driving using ROS message data transmitted through ROS's API (Application Programming Interface).

상기 CARLA 서버는 가상차량에 데이터인 상기 차량정보 및 센서데이터를 전송하기 위해 CAN 데이터로 변환하고, 상기 HMI결과 데이터와 상기 차량정보 및 센서데이터를 이용하여 반자율 주행 모드에서 상기 ECU 보드에서 생성된 운전자의 감정 및 상황에 따른 복수의 시나리오에 따라 드라이버 제어 또는 자율 제어를 실행하도록 CARLA 클라이언트의 가상차량을 제어한다. The CARLA server converts the vehicle information and sensor data into CAN data to transmit the data to the virtual vehicle, and uses the HMI result data and the vehicle information and sensor data to generate data generated by the ECU board in semi-autonomous driving mode. CARLA client's virtual vehicle is controlled to execute driver control or autonomous control according to multiple scenarios depending on the driver's emotions and situation.

또 다른 일 측면에 있어서, 본 발명에서 제안하는 반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 방법은 HMI(Human machine interface)가 운전자의 생체신호 기반 CNN 모델을 이용하여 운전자의 감정 및 상황을 분류하고, 상황인식 결과 데이터를 ECU 보드로 전송하는 단계, ECU(Electronic Control Unit) 보드가 수신 받은 HMI 결과데이터를 이용하여 반자율 주행 가상환경에 관한 복수의 시나리오를 생성하는 단계, ROS(Robot operating system)가 CARLA(Car Learning to Act) 시뮬레이터를 통해 반자율 주행을 실행하기 위한 반자율 주행 가상환경에 관한 차량정보 및 센서데이터를 관리하는 단계 및 CARLA 서버가 상기 차량정보 및 센서데이터를 이용하여 상기 반자율 주행 가상환경에 관한 복수의 시나리오에 따라 CARLA 클라이언트의 반자율 주행을 실행하는 단계를 포함한다.In another aspect, the human-machine interaction method for the driving assistance system of a semi-autonomous car proposed in the present invention is a human machine interface (HMI) that uses a CNN model based on the driver's biosignals to determine the driver's emotions and situation. Classifying and transmitting the situation awareness result data to the ECU board, generating multiple scenarios for the semi-autonomous driving virtual environment using the HMI result data received by the ECU (Electronic Control Unit) board, and ROS (Robot A step in which the operating system) manages vehicle information and sensor data related to the semi-autonomous driving virtual environment to execute semi-autonomous driving through the CARLA (Car Learning to Act) simulator, and the CARLA server uses the vehicle information and sensor data to It includes executing semi-autonomous driving of the CARLA client according to a plurality of scenarios related to the semi-autonomous driving virtual environment.

본 발명의 실시예들에 따르면 탑승자의 상황, 감정을 이용한 운전자 보조 주행 제어하기 위해 가상환경 CARLA 시뮬레이터를 사용하는 생체신호 데이터 기반 상황인지를 탑재한 반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 방법 및 시스템을 제공한다.According to embodiments of the present invention, human-machine interaction for a driving assistance system for a semi-autonomous vehicle equipped with situational awareness based on bio-signal data using a virtual environment CARLA simulator to control driver-assisted driving using the passenger's situation and emotions Methods and systems of operation are provided.

도 1은 본 발명의 일 실시예에 따른 반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 시스템의 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 반자율 제어를 위한 ROS 차량제어 Rqt그래프를 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 반자율 주행 제어 과정을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 DAS 통신 프레임을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 DAS를 위한 구성도이다.
도 7은 본 발명의 일 실시예에 따른 운전자의 상황을 기반으로 차량을 제어하기 위해 2차원 영역을 4가지로 나눈 도면이다.
도 8은 본 발명의 일 실시예에 따른 운전자의 상황 및 감정인식을 위한 제안한 1D CNN 모델을 나타내는 도면이다.
1 is a diagram showing the configuration of a human-machine interaction system for a driving assistance system for a semi-autonomous vehicle according to an embodiment of the present invention.
Figure 2 is a flowchart illustrating a human-machine interaction method for a driving assistance system for a semi-autonomous vehicle according to an embodiment of the present invention.
Figure 3 is a diagram showing a ROS vehicle control Rqt graph for semi-autonomous control according to an embodiment of the present invention.
Figure 4 is a flowchart for explaining a semi-autonomous driving control process according to an embodiment of the present invention.
Figure 5 is a diagram for explaining a DAS communication frame according to an embodiment of the present invention.
Figure 6 is a configuration diagram for DAS according to an embodiment of the present invention.
Figure 7 is a diagram dividing a two-dimensional area into four areas to control a vehicle based on the driver's situation according to an embodiment of the present invention.
Figure 8 is a diagram showing the proposed 1D CNN model for driver's situation and emotion recognition according to an embodiment of the present invention.

현재 차량 중심의 반자율(Semi-Autonomous) 모듈은 운전자의 상황 및 감정을 고려하지 않는다. 자율 주행 환경에서 수동 주행으로 변경하는 시점에서는 차량운전을 보조하기 위해 HMI(Human-Machine Interface), ADAS(Advanced Driver Assistance Systems)가 필수적으로 요구된다. Current vehicle-centric semi-autonomous modules do not take into account the driver's situation and emotions. When changing from autonomous driving to manual driving, HMI (Human-Machine Interface) and ADAS (Advanced Driver Assistance Systems) are essential to assist vehicle driving.

본 발명에서는 운전자의 상황 및 감정 인식을 통해 차량 속도제어 및 정보를 모니터링을 하게 되고, 총 4가지 상황을 분류하여 차량 주행 시나리오의 가능성을 확인하였다. 실험 결과로 멀티모달 생체신호 기반 1D CNN(1D Convolutional Neural Networks)모델을 적용하여 반자율 자동차(Semi-Autonomous Vehicle)에 적용하였다. 주행 시뮬레이터와 HILS(Hardware-in-the-Loop Simulation)장비를 사용한 가상환경에서의 실제차량과 유사한 환경으로 진행하였다. 새로운 운전자 보조 시스템은 운전자의 각 상황 및 감정, 상황에서 제어 가능성을 확인하였고, 4개의 생체신호 데이터 상황과 8가지의 감정인식을 통해 운전자 보조 시스템 반응속도는 351.75ms되어 적용 가능함을 확인하였다. In the present invention, vehicle speed control and information are monitored through driver's situation and emotion recognition, and a total of four situations are classified to confirm the possibility of vehicle driving scenarios. As a result of the experiment, a multi-modal biosignal-based 1D CNN (1D Convolutional Neural Networks) model was applied to a semi-autonomous vehicle. The study was conducted in a virtual environment similar to a real vehicle using a driving simulator and HILS (Hardware-in-the-Loop Simulation) equipment. The controllability of the new driver assistance system was confirmed in each situation, emotion, and situation of the driver, and the response speed of the driver assistance system was 351.75 ms through 4 bio-signal data situations and 8 emotion recognition, confirming that it was applicable.

본 발명에서 탑승자의 상황, 감정을 이용한 운전자 보조 주행 제어하기 위해 가상환경 CARLA 시뮬레이터를 사용하는 생체신호 데이터 기반 상황인지를 탑재한 반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 방법 및 시스템은 상황, 감정인식을 위해 간단한 데이터 처리와 1D CNN(1D Convolutional Neural Networks) 감정인식을 수행한다. 실제환경 차량과 유사한 구성으로 게임 엔진기반 오픈 소스 플랫폼인 주행 시뮬레이터 기반 차량 및 도시 등 객체를 구성하고, ROS을 이용한 차량의 데이터 모니터링 및 제어하였다. In the present invention, a human-machine interaction method and system for a driving assistance system of a semi-autonomous vehicle equipped with situational awareness based on biosignal data using a virtual environment CARLA simulator to control driver assistance driving using the occupant's situation and emotions is provided. For situation and emotion recognition, simple data processing and 1D CNN (1D Convolutional Neural Networks) emotion recognition are performed. Objects such as vehicles and cities were constructed based on a driving simulator, which is a game engine-based open source platform, with a configuration similar to a real environment vehicle, and data of the vehicle was monitored and controlled using ROS.

최근 운전자와 기계 상호작용 연구는 다양한 생체신호를 적용하였다. 종래기술에 따르면, 수동 운전에서 자율주행으로 원활한 전환을 위해 얼굴 표정 기반 생체신호를 사용하였다. 탑승객의 의도와 감정을 시스템에 전달함으로써, 탑승객 의도와 가장 가까운 결정으로 주행에 대한 편안함을 제공하였다. 또 다른 종래기술은 운전자의 음성 기반 생체신호를 사용하여, 사고 예방을 위한 경고 시스템을 제안하였다. 제안된 시스템 적용으로 다양한 운전자 행동 상태(Driver Behavior States; DBS)을 비교 결과 기존 차량 제어 시스템의 개선이 가능하다는 것을 확인하였다. 하지만 반자율 주행에서의 차량 제어권 전환에 어려움이 많이 발생한다. Recently, driver-machine interaction research has applied various biosignals. According to the prior art, biometric signals based on facial expressions were used to smoothly transition from manual driving to autonomous driving. By conveying the passengers' intentions and emotions to the system, comfort during driving was provided through decisions that were closest to the passengers' intentions. Another prior art proposed a warning system to prevent accidents using the driver's voice-based biometric signals. As a result of comparing various driver behavior states (DBS) by applying the proposed system, it was confirmed that improvement of the existing vehicle control system is possible. However, there are many difficulties in switching vehicle control during semi-autonomous driving.

또 다른 종래기술은 반자율 주행에서 운전자의 감정에 따라 차량 제어권 전환 시간을 측정하여, 수동 운전과 운전자의 감정, 상황에 대한 연구를 진행하였다. 수동 운전 성능에 대하여 운전자의 정서적 상태가 높고, 낮음에 따른 영향 연구도 진행되었다. 운전자의 감정이 긍정적인 상태일 때 운전시 집중도는 높았지만, 반응속도는 늦어졌다. 부정적인 감정 상태는 낮은 집중도, 높은 반응속도를 보였다. 그리고 운전자에게 행복한 음악과 슬픈 음악을 청취하였을 때, 주행 속도는 행복한 음악이 슬픈 음악에 비해 큰 변속과 스티어링 제어 저하를 보였다. AAA 교통 안전 재단의 설문 조사 응답 결과에 따르면 80%의 운전자가 차량 주행 시 분노 및 공격성을 보였다. 운전자 주행 데이터의 분석을 통해 분노, 슬픔, 울음 및 정서적 불안함을 포함한 감정 상태는 차량 충돌 가능성이 9.8배 증가하고, 감정이 분노 상태 일 때 과속 및 교통 규칙 위반을 하고 위험한 공격적인 운전을 한다. 차량 주행 중 운전자가 감정을 조절하지 못하여, 사고 발생하는 경우가 확인되어 왔지만, 감정인식에 대한 정확도와 차량 제어 시스템 접근에 대한 어려움으로 적용하지 못하였다. 최근 다양한 인간의 생체신호 기반 감정인식에 대한 높은 정확도를 추출하는 방법과 세분화된 차량 제어 시스템으로 최근 자율주행 자동차 기술은 활발히 연구되고 있다. 탑승자의 감정을 이용하여 사고 예방 및 감소 방법에 대한 연구는 반자율주행 차량의 인간-기계 상호작용에서 운전자의 행동 및 감정 인식이 완벽한 지능형 차량의 제어를 달성하기 위한 새로운 방법으로 사용되고 있다. 앞서 언급된 연구는 운전자 기반 차량 주행 관련 연구 시 가상환경 시뮬레이터 실험을 진행하는 경우가 많다. 운전 시뮬레이터에서는 신뢰할 수 있는 연구 데이터 취득에 용이하며, 주변환경에 영향을 많이 받는 생체신호는 이러한 이점을 이용하여 상황에 따른 운전자 상태에 대한 연구에 유리하다. 미들웨어인 ROS와 게임엔진을 연동한 자율주행 연구에서 실제차량이 없는 실험이 활발히 진행되어 왔다. 이하, 본 발명의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다. Another prior art measured the vehicle control transition time according to the driver's emotions in semi-autonomous driving, and conducted research on manual driving and the driver's emotions and situations. A study was also conducted on the effects of high and low driver emotional states on manual driving performance. When the driver's emotions were positive, concentration during driving was high, but reaction speed was slow. Negative emotional states showed low concentration and high reaction speed. And when drivers listened to happy music and sad music, the driving speed showed greater changes in shifting and steering control for the happy music compared to the sad music. According to survey responses from the AAA Foundation for Traffic Safety, 80% of drivers reported anger and aggression while driving. Analysis of driver driving data showed that emotional states, including anger, sadness, crying and emotional instability, increase the likelihood of a vehicle crash by 9.8 times, and when emotions are in a state of anger, speeding, violating traffic rules and driving dangerously aggressively. There have been confirmed cases of accidents occurring due to drivers' inability to control their emotions while driving a vehicle, but this has not been applied due to difficulties in accuracy of emotion recognition and access to the vehicle control system. Recently, self-driving car technology has been actively researched with methods for extracting high accuracy for emotional recognition based on various human biosignals and detailed vehicle control systems. Research on how to prevent and reduce accidents using the emotions of passengers is being used as a new method to achieve complete control of intelligent vehicles in which driver's behavior and emotion recognition is in the human-machine interaction of semi-autonomous vehicles. The studies mentioned above often conduct virtual environment simulator experiments when conducting research on driver-based vehicle driving. It is easy to obtain reliable research data in a driving simulator, and biosignals that are greatly influenced by the surrounding environment take advantage of this advantage to study the driver's condition depending on the situation. In autonomous driving research linking middleware ROS and game engines, experiments without actual vehicles have been actively conducted. Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 시스템의 구성을 나타내는 도면이다. 1 is a diagram showing the configuration of a human-machine interaction system for a driving assistance system for a semi-autonomous vehicle according to an embodiment of the present invention.

본 발명에서는 반자율 주행 시 운전자의 상황, 감정에 따라 동작하는 HMI(Human machine interface)(111)를 포함하는 운전자 지원(Driver Assistance) 모듈(110)을 제안한다. The present invention proposes a driver assistance module 110 that includes a human machine interface (HMI) 111 that operates according to the driver's situation and emotions during semi-autonomous driving.

제안하는 반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 시스템은 운전자 지원(Driver Assistance) 모듈(110)의 HMI(Human machine interface)(111), ECU(Electronic Control Unit) 보드(112), 주행 시뮬레이터(Driving Simulator) 모듈(120)의 ROS(Robot operating system)(121), CARLA 서버(122) 및 CARLA 클라이언트(123)를 포함한다. The proposed human-machine interaction system for the driving assistance system of a semi-autonomous car includes a human machine interface (HMI) 111 of the driver assistance module 110, an electronic control unit (ECU) board 112, It includes ROS (Robot operating system) 121, CARLA server 122, and CARLA client 123 of the driving simulator module 120.

HMI(111)는 운전자의 생체신호 기반 1D CNN(1D Convolutional Neural Networks) 모델을 통해 운전자의 감정 및 상황을 분류하고, 상황인식 결과 데이터를 시리얼 통신을 사용하여 ECU(Electronic Control Unit) 보드(112)로 전송하게 된다. The HMI (111) classifies the driver's emotions and situations through a 1D CNN (1D Convolutional Neural Networks) model based on the driver's biometric signals, and sends the situation recognition result data to the ECU (Electronic Control Unit) board (112) using serial communication. will be transmitted to.

HMI(111)는 상기 운전자의 생체신호 기반의 1D CNN 모델을 이용하기 위해 PPG 신호 및 GSR 신호를 사용할 수 있다. 원시 데이터를 학습데이터 및 실시간 감정인식을 위한 데이터로 바로 사용하기 위해 상기 원시 데이터의 저주파 성분 제거를 위한 버터워스 필터(Butterworth Filter)를 적용하고, 고차다항식, 이동평균 필터를 사용하여, 기저선 변동 및 동적잡음을 감소시킬 수 있다. 이와 같이 전처리된 생체신호를 파형단위로 분할 후 1D CNN 모델을 통해 데이터의 학습을 진행한다. The HMI 111 may use the PPG signal and the GSR signal to use a 1D CNN model based on the driver's biometric signals. In order to directly use raw data as training data and data for real-time emotion recognition, Butterworth Filter is applied to remove low-frequency components of the raw data, and high-order polynomial and moving average filters are used to determine baseline fluctuation and Dynamic noise can be reduced. In this way, the preprocessed biosignals are divided into waveform units, and then data learning is performed through a 1D CNN model.

ECU 보드(112)는 수신 받은 HMI 결과 데이터를 이용하여 주행 시뮬레이터(Driving Simulator) 모듈(120)인 CARLA(Car Learning to Act) 시뮬레이터에서 반자율 주행 가상환경에 관한 4개의 시나리오 구성한다. The ECU board 112 uses the received HMI result data to configure four scenarios regarding the semi-autonomous driving virtual environment in the CARLA (Car Learning to Act) simulator, which is the driving simulator module 120.

ROS(121)는 CARLA(Car Learning to Act) 시뮬레이터를 통해 반자율 주행을 실행하기 위한 반자율 주행 가상환경에 관한 차량정보 및 센서데이터를 관리한다. ROS (121) manages vehicle information and sensor data about the semi-autonomous driving virtual environment to execute semi-autonomous driving through CARLA (Car Learning to Act) simulator.

ROS(121)는 전송 받은 데이터를 이용하여 구성된 주행 시나리오 차량의 스로틀(Throttle) 및 브레이크(Breake) 값을 CARLA 서버(122)에 입력하여 CARLA 클라이언트(123)의 가상 차량 속도를 제어하도록 한다. 이때 가상 차량에 보내지는 스로틀 및 브레이크 데이터는 ROS TOPIC 메시지로 변환하여 차량에 사용하게 된다. HMI 결과 데이터가 없을 경우 ECU 보드(112)는 데이터를 전송하지 않는다. 따라서 차량은 수동 운전으로 전환되어, 스로틀 및 브레이크 값으로 차량 속도를 제어하게 된다. The ROS 121 inputs the throttle and brake values of the driving scenario vehicle configured using the received data to the CARLA server 122 to control the speed of the virtual vehicle of the CARLA client 123. At this time, the throttle and brake data sent to the virtual vehicle are converted into ROS TOPIC messages and used in the vehicle. If there is no HMI result data, the ECU board 112 does not transmit data. Therefore, the vehicle switches to manual driving, and the vehicle speed is controlled using the throttle and brake values.

ROS(121)는 ROS 브리지(Bridge)를 통해 CARLA 시뮬레이터와 ECU보드(112)의 데이터를 연동하고, 상기 수신 받은 차량정보 및 센서데이터는 각 ROS 노드(Node)에서 반자율 주행 제어를 위해 처리되어, 반자율 주행을 위한 ROS의 API(Application Programming Interface)로 전송된 ROS 메시지(Message) 데이터를 사용하여 CARLA 서버(122)가 반자율 주행을 실행하도록 차량정보 및 센서데이터를 관리한다. ROS 121 links data from the CARLA simulator and the ECU board 112 through the ROS Bridge, and the received vehicle information and sensor data are processed for semi-autonomous driving control at each ROS node. , CARLA server 122 manages vehicle information and sensor data to execute semi-autonomous driving using ROS message data transmitted through ROS' API (Application Programming Interface) for semi-autonomous driving.

CARLA 서버(122)는 상기 차량정보 및 센서데이터를 이용하여 상기 반자율 주행 가상환경에 관한 복수의 시나리오에 따라 CARLA 클라이언트(123)의 반자율 주행을 실행한다. The CARLA server 122 uses the vehicle information and sensor data to execute semi-autonomous driving of the CARLA client 123 according to a plurality of scenarios related to the semi-autonomous driving virtual environment.

CARLA 서버(122)는 가상차량에 데이터인 상기 차량정보 및 센서데이터를 전송하기 위해 CAN 데이터로 변환한다. 이후, 상기 HMI 결과 데이터와 상기 차량정보 및 센서데이터를 이용하여 반자율 주행 모드에서 상기 ECU 보드(112)에서 생성된 운전자의 감정 및 상황에 따른 복수의 시나리오에 따라 드라이버 제어 또는 자율 제어를 실행하도록 CARLA 클라이언트(123)의 가상차량을 제어할 수 있다. The CARLA server 122 converts the vehicle information and sensor data into CAN data to transmit it to the virtual vehicle. Thereafter, the HMI result data, vehicle information, and sensor data are used to execute driver control or autonomous control according to a plurality of scenarios according to the driver's emotions and situations generated by the ECU board 112 in semi-autonomous driving mode. The virtual vehicle of the CARLA client 123 can be controlled.

도 2는 본 발명의 일 실시예에 따른 반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 방법을 설명하기 위한 흐름도이다. Figure 2 is a flowchart illustrating a human-machine interaction method for a driving assistance system for a semi-autonomous vehicle according to an embodiment of the present invention.

제안하는 반자율 자동차의 운전 보조 시스템을 위한 인간-기계 상호작용 방법은 HMI(Human machine interface)가 운전자의 생체신호 기반 CNN 모델을 이용하여 운전자의 감정 및 상황을 분류하고, 상황인식 결과 데이터를 ECU 보드로 전송하는 단계(210), ECU(Electronic Control Unit) 보드가 수신 받은 HMI 결과데이터를 이용하여 반자율 주행 가상환경에 관한 복수의 시나리오를 생성하는 단계(220), ROS(Robot operating system)가 CARLA(Car Learning to Act) 시뮬레이터를 통해 반자율 주행을 실행하기 위한 반자율 주행 가상환경에 관한 차량정보 및 센서데이터를 관리하는 단계(230) 및 CARLA 서버가 상기 차량정보 및 센서데이터를 이용하여 상기 반자율 주행 가상환경에 관한 복수의 시나리오에 따라 CARLA 클라이언트의 반자율 주행을 실행하는 단계(240)를 포함한다. The proposed human-machine interaction method for the driving assistance system of a semi-autonomous car is that HMI (Human Machine Interface) classifies the driver's emotions and situations using a CNN model based on the driver's biosignals, and sends the situation recognition result data to the ECU. A step of transmitting to the board (210), a step of generating a plurality of scenarios regarding the semi-autonomous driving virtual environment using the HMI result data received by the ECU (Electronic Control Unit) board (220), and the Robot operating system (ROS) A step (230) of managing vehicle information and sensor data regarding a semi-autonomous driving virtual environment for executing semi-autonomous driving through a CARLA (Car Learning to Act) simulator, and the CARLA server uses the vehicle information and sensor data to It includes a step (240) of executing semi-autonomous driving of the CARLA client according to a plurality of scenarios regarding the semi-autonomous driving virtual environment.

단계(210)에서, HMI는 운전자의 생체신호 기반 1D CNN(1D Convolutional Neural Networks) 모델을 통해 운전자의 감정 및 상황을 분류하고, 상황인식 결과 데이터를 시리얼 통신을 사용하여 ECU(Electronic Control Unit) 보드로 전송하게 된다. In step 210, the HMI classifies the driver's emotions and situations through a 1D Convolutional Neural Networks (1D CNN) model based on the driver's biosignals, and sends the situation recognition result data to the ECU (Electronic Control Unit) board using serial communication. will be transmitted to.

HMI는 상기 운전자의 생체신호 기반의 1D CNN 모델을 이용하기 위해 PPG 신호 및 GSR 신호를 사용할 수 있다. 원시 데이터를 학습데이터 및 실시간 감정인식을 위한 데이터로 바로 사용하기 위해 상기 원시 데이터의 저주파 성분 제거를 위한 버터워스 필터(Butterworth Filter)를 적용하고, 고차다항식, 이동평균 필터를 사용하여, 기저선 변동 및 동적잡음을 감소시킬 수 있다. 이와 같이 전처리된 생체신호를 파형단위로 분할 후 1D CNN 모델을 통해 데이터의 학습을 진행한다. The HMI can use the PPG signal and GSR signal to use a 1D CNN model based on the driver's biometric signals. In order to directly use raw data as training data and data for real-time emotion recognition, Butterworth Filter is applied to remove low-frequency components of the raw data, and high-order polynomial and moving average filters are used to determine baseline fluctuation and Dynamic noise can be reduced. In this way, the preprocessed biosignals are divided into waveform units, and then data learning is performed through a 1D CNN model.

단계(220)에서, ECU 보드는 수신 받은 HMI 결과 데이터를 이용하여 주행 시뮬레이터(Driving Simulator) 모듈인 CARLA(Car Learning to Act) 시뮬레이터에서 반자율 주행 가상환경에 관한 4개의 시나리오 구성한다. In step 220, the ECU board uses the received HMI result data to configure four scenarios regarding the semi-autonomous driving virtual environment in CARLA (Car Learning to Act) simulator, a driving simulator module.

단계(230)에서, ROS는 CARLA 시뮬레이터를 통해 반자율 주행을 실행하기 위한 반자율 주행 가상환경에 관한 차량정보 및 센서데이터를 관리한다. In step 230, ROS manages vehicle information and sensor data regarding the semi-autonomous driving virtual environment for executing semi-autonomous driving through the CARLA simulator.

ROS는 전송 받은 데이터를 이용하여 구성된 주행 시나리오 차량의 스로틀(Throttle) 및 브레이크(Breake) 값을 CARLA 서버에 입력하여 CARLA 클라이언트의 가상 차량 속도를 제어하도록 한다. 이때 가상 차량에 보내지는 스로틀 및 브레이크 데이터는 ROS TOPIC 메시지로 변환하여 차량에 사용하게 된다. HMI 결과 데이터가 없을 경우 ECU 보드는 데이터를 전송하지 않는다. 따라서 차량은 수동 운전으로 전환되어, 스로틀 및 브레이크 값으로 차량 속도를 제어하게 된다. ROS inputs the throttle and brake values of the driving scenario vehicle configured using the transmitted data to the CARLA server to control the speed of the CARLA client's virtual vehicle. At this time, the throttle and brake data sent to the virtual vehicle are converted into ROS TOPIC messages and used in the vehicle. If there is no HMI result data, the ECU board does not transmit data. Therefore, the vehicle switches to manual driving, and the vehicle speed is controlled using the throttle and brake values.

ROS는 ROS 브리지(Bridge)를 통해 CARLA 시뮬레이터와 ECU보드의 데이터를 연동하고, 상기 수신 받은 차량정보 및 센서데이터는 각 ROS 노드(Node)에서 반자율 주행 제어를 위해 처리되어, 반자율 주행을 위한 ROS의 API(Application Programming Interface)로 전송된 ROS 메시지(Message) 데이터를 사용하여 CARLA 서버가 반자율 주행을 실행하도록 차량정보 및 센서데이터를 관리한다. ROS links data from the CARLA simulator and the ECU board through the ROS Bridge, and the received vehicle information and sensor data are processed for semi-autonomous driving control at each ROS node. Using ROS message data sent to ROS' API (Application Programming Interface), CARLA server manages vehicle information and sensor data to enable semi-autonomous driving.

단계(240)에서, CARLA 서버가 상기 차량정보 및 센서데이터를 이용하여 상기 반자율 주행 가상환경에 관한 복수의 시나리오에 따라 CARLA 클라이언트의 반자율 주행을 실행한다. In step 240, the CARLA server executes semi-autonomous driving of the CARLA client according to a plurality of scenarios regarding the semi-autonomous driving virtual environment using the vehicle information and sensor data.

CARLA 서버는 상기 차량정보 및 센서데이터를 이용하여 상기 반자율 주행 가상환경에 관한 복수의 시나리오에 따라 CARLA 클라이언트의 반자율 주행을 실행한다. The CARLA server uses the vehicle information and sensor data to execute semi-autonomous driving of the CARLA client according to a plurality of scenarios related to the semi-autonomous driving virtual environment.

CARLA 서버는 가상차량에 데이터인 상기 차량정보 및 센서데이터를 전송하기 위해 CAN 데이터로 변환한다. 이후, 상기 HMI 결과 데이터와 상기 차량정보 및 센서데이터를 이용하여 반자율 주행 모드에서 상기 ECU 보드에서 생성된 운전자의 감정 및 상황에 따른 복수의 시나리오에 따라 드라이버 제어 또는 자율 제어를 실행하도록 CARLA 클라이언트의 가상차량을 제어할 수 있다. The CARLA server converts the vehicle information and sensor data into CAN data to transmit it to the virtual vehicle. Afterwards, the CARLA client uses the HMI result data, vehicle information, and sensor data to execute driver control or autonomous control according to a plurality of scenarios according to the driver's emotions and situations generated by the ECU board in semi-autonomous driving mode. You can control a virtual vehicle.

도 3은 본 발명의 일 실시예에 따른 반자율 제어를 위한 ROS 차량제어 RQT 그래프를 나타내는 도면이다. Figure 3 is a diagram showing a ROS vehicle control RQT graph for semi-autonomous control according to an embodiment of the present invention.

본 발명의 실시예에 따른 차량정보 및 센서데이터는 ROS를 사용하여 관리된다. CARLA 시뮬레이터와 ECU의 데이터를 연동하기 위하여 ROS Bridge를 이용한다. CARLA 시뮬레이터에서 생성된 데이터는 CARLA ROS bridge(310)를 통해 데이터를 전송하게 되고, 수신 받은 차량정보 및 센서데이터(320)는 각 ROS NODE에서 자율 주행을 위한 여러API처럼 처리된다. 반자율 주행을 위한 모듈 단의 API로 전송된 ROS MSG(ROS Message) 데이터를 사용하여, 반자율 주행을 실행하게 된다. Vehicle information and sensor data according to an embodiment of the present invention are managed using ROS. ROS Bridge is used to link CARLA simulator and ECU data. Data generated from the CARLA simulator is transmitted through the CARLA ROS bridge (310), and the received vehicle information and sensor data (320) are processed like several APIs for autonomous driving in each ROS NODE. Semi-autonomous driving is performed using ROS MSG (ROS Message) data sent to the API of the module for semi-autonomous driving.

도 3은 수동주행 및 반자율 주행 제어가 처리되는 과정을 나타내는 ROS 지원하는 RQT 그래프로서 타원은 ROS NODE, 사각형은 ROS MSG로 표현된다. CARLA 시뮬레이터 서버 상에서 CARLA 클라이언트 객체들의 제어 및 정보 확인은 ROS CARLA Message를 사용하여 관리된다. 이때 Make_node(330)는 수동주행 및 반자율 주행(Semi-Autonomous driving)이 제어되는 ROS NODE로 차량 제어관련 API 모듈단이다. 수동주행 차량을 제어 시 vehicle_control_cmd Message(340)를 사용되고, 해당 메시지 값들로 스로틀(Throttle), 브레이크(Brake), 스티어링(Steering) 값을 입력하여 제어할 수 있다. 각 데이터에 값은 0~100까지 실수 값을 가진다. 스로틀 값은 물리적 엑셀 수치를 전달받아 스로틀에 전달하여, 차량 속도제어를 하게 된다. 반자율 주행(Semi-Autonomous driving)은 운전자의 감정 및 상황을 분류하여 상황에 맞는 주행 시나리오를 실행하게 된다. 제어 메시지로는 akermann_cmd(350)을 사용하여, 설정값(Steering_angle, Steering_angle_velocity, Speed, Acceleration, Jerk)에 의하여 스로틀(Throttle), 브레이크(Brake), 스티어링(Steering) 값에 대하여 carla_akemann_control_ego_vehicle ROS node(360)에서 vehicle_control_cmd을 PID제어한다. 처리된 값은 ROS Message로 CARLA 시뮬레이터 상의 가상차량에 전송된다. Figure 3 is an RQT graph supporting ROS showing the process of manual driving and semi-autonomous driving control, where the ellipse is expressed as ROS NODE and the square is expressed as ROS MSG. Control and information confirmation of CARLA client objects on the CARLA simulator server are managed using ROS CARLA Message. At this time, Make_node (330) is a ROS NODE that controls manual driving and semi-autonomous driving and is an API module related to vehicle control. When controlling a manual driving vehicle, vehicle_control_cmd Message (340) is used, and control can be made by entering the throttle, brake, and steering values using the corresponding message values. Each data value has a real number from 0 to 100. The throttle value receives the physical accelerator value and transmits it to the throttle to control the vehicle speed. Semi-autonomous driving classifies the driver's emotions and situations and executes a driving scenario appropriate to the situation. As a control message, use akermann_cmd (350) and carla_akemann_control_ego_vehicle ROS node (360) for throttle, brake, and steering values by settings (Steering_angle, Steering_angle_velocity, Speed, Acceleration, Jerk). PID control vehicle_control_cmd. The processed value is sent to the virtual vehicle on the CARLA simulator as a ROS Message.

도 4는 본 발명의 일 실시예에 따른 반자율 주행 제어 과정을 설명하기 위한 흐름도이다. Figure 4 is a flowchart for explaining a semi-autonomous driving control process according to an embodiment of the present invention.

본 발명의 실시예에 따른 DAS(Driver Assistance Systems)는 HLIS기반으로 구성하였다[1]. ECU을 통하여 가상 엔진 및 차량을 제어하기 위한 역할로 HMI결과 데이터(410)를 수신 받는다. 이후, 가상차량에 데이터(421)를 전송하기 위해 CAN 데이터(420)로 변환한다. CAN 데이터(420)는 HMI결과 데이터(410)와 가상차량에 데이터인 ECU 엑셀 및 브레이크 값(421)을 가진다. 반자율주행 모드에서 드라이버 제어와 자율 제어로 나누어지게 된다(430). DAS (Driver Assistance Systems) according to an embodiment of the present invention is configured based on HLIS [1]. It receives HMI result data (410) to control the virtual engine and vehicle through the ECU. Afterwards, the data 421 is converted into CAN data 420 to be transmitted to the virtual vehicle. CAN data 420 includes HMI result data 410 and ECU accelerator and brake values 421, which are data for the virtual vehicle. In semi-autonomous driving mode, it is divided into driver control and autonomous control (430).

드라이버 제어 시 하드웨어로 구성된 물리적 엑셀 및 브레이크 값을 ADC데이터로 수신 받는다(441). 이때 수신된 데이터는 가상차량의 스로틀 및 브레이크 값을 제어(442)하는 역할을 한다. When controlling the driver, the physical accelerator and brake values configured by hardware are received as ADC data (441). At this time, the received data serves to control (442) the throttle and brake values of the virtual vehicle.

자율 제어 일 때 상황 데이터 기반으로 상황 1,2,3의 경우(453)에 부합한 시나리오에 따라 자율 주행(454)을 실행하게 되고, 상황4의 경우(452)는 정상 주행가능 능력으로 드라이버 제어(442)로 실행하게 된다. In autonomous control, autonomous driving (454) is executed according to the scenario that matches situations 1, 2, and 3 (453) based on situation data, and in situation 4 (452), the driver is controlled with normal driving ability. It is executed with (442).

도 5는 본 발명의 일 실시예에 따른 DAS 통신 프레임을 설명하기 위한 도면이다. Figure 5 is a diagram for explaining a DAS communication frame according to an embodiment of the present invention.

본 발명의 실시예에 따른 차량 제어를 위해 사용되는 하드웨어간 통신은 시리얼(Serial)(510)과 CAN(520)이 사용된다. HMI에서 전송되는 시리얼 통신에 프레임은 총 3byte로 구성된다. Communication between hardware used for vehicle control according to an embodiment of the present invention uses serial (510) and CAN (520). A frame in serial communication transmitted from HMI consists of a total of 3 bytes.

시리얼(Serial)(510)의 0 index는 0xFF값으로 동기 신호이고, 1 index는 HMI결과데이터 값이며, 2 index는 Data End값으로 LF(Line Feed)를 사용하였다. The 0 index of Serial (510) is the 0xFF value and is a synchronization signal, the 1 index is the HMI result data value, and the 2 index is the data end value using LF (Line Feed).

CAN 데이터 프레임(520)은 총 3Byte로 사용하게 되고, 각 1Byte씩 다른 정보를 포함하게 된다. 0 index 데이터는 HMI결과데이터 값을 가지고 있으며, CAN 1,2 index값은 엑셀 Throttle값과 brake 가지고 있어, 드라이버 제어 시 1.2 index에 포함한 값에 기준으로 데이터가 사용된다.The CAN data frame 520 uses a total of 3 bytes, and each 1 byte contains different information. The 0 index data has the HMI result data value, and the CAN 1 and 2 index values have the Excel Throttle value and brake, so when controlling the driver, the data is used based on the value included in the 1.2 index.

도 6은 본 발명의 일 실시예에 따른 DAS를 위한 구성도이다.Figure 6 is a configuration diagram for DAS according to an embodiment of the present invention.

본 발명의 실시예에 따르면, 실제 차량환경에서 사용중인 CAN 통신 환경을 위해 ECU 보드를 통하여 구성하였다. HMI와 시뮬레이터 차량간 통신 방법을 구현하기 위해서, 도 6과 같이 환경 구성을 하였다. ECU보드(620)는 HMI환경에서 결과데이터(610)를 시리얼 통신으로 수신된 데이터 값과 하드웨어로 구성한 Accel, Brake값을 CAN데이터로 변환하여 주행 시뮬레이터(Driving Simulator)로 전송하게 된다. 수신 받는 주행 시뮬레이터 PC는 리눅스 운영체제 기반을 사용하였다. 리눅스 커널 오픈소스인 소켓 CAN을 통하여, 주행 시뮬레이터 PC에서도 CAN데이터를 수신 받을 수 있게 된다. 주행 시뮬레이터 PC는 ROS(630)를 통해 반자율 주행(Semi-Autonomous Driving) API를 사용하여 수신 받은 CAN로 제어단을 처리 과정을 진행하고 ROS topic메시지로 제어 명령어를 CARLA 시뮬레이터에서의 차량(640)에 전송한다. According to an embodiment of the present invention, the CAN communication environment used in an actual vehicle environment is configured through an ECU board. In order to implement the communication method between the HMI and the simulator vehicle, the environment was configured as shown in Figure 6. In the HMI environment, the ECU board 620 converts the result data 610 received through serial communication and the Accel and Brake values configured by hardware into CAN data and transmits it to the driving simulator. The receiving driving simulator PC was based on the Linux operating system. Through Socket CAN, an open source Linux kernel, CAN data can be received from a driving simulator PC. The driving simulator PC processes the control stage with the CAN received using the Semi-Autonomous Driving API through ROS (630) and sends control commands as ROS topic messages to the vehicle (640) in the CARLA simulator. send to

도 7은 본 발명의 일 실시예에 따른 운전자의 상황을 기반으로 차량을 제어하기 위해 2차원 영역을 4가지로 나눈 도면이다. Figure 7 is a diagram dividing a two-dimensional area into four areas to control a vehicle based on the driver's situation according to an embodiment of the present invention.

본 발명에서는 수동 운전 및 자율주행 전환 시 운전자의 상황을 인식하여, 추가적인 교통 규칙 위반, 사고를 예방하는 시스템을 설계하였다. 앞서 언급한 연구 사례와 같이 감정 상태에 따라 운전자의 주행 능력에 큰 영향을 미치는 경우가 많다. 또한 운전자의 감정은 주변 상황에 상관관계를 가지며, 좌절감, 화남을 느꼈을 때 스스로 진정시키는 능력이 부족하다. 따라서 일정 감정과 같이 운전자의 상황을 기반으로 차량을 제어하기 위해 2차원 영역을 4가지로 나누었다.In the present invention, we designed a system that recognizes the driver's situation when switching between manual driving and autonomous driving and prevents additional traffic rule violations and accidents. As in the study case mentioned above, emotional state often has a significant impact on a driver's driving ability. Additionally, drivers' emotions are correlated with surrounding situations, and they lack the ability to calm themselves down when they feel frustrated or angry. Therefore, in order to control the vehicle based on the driver's situation, such as certain emotions, the two-dimensional area was divided into four areas.

도 7(a)의 영역은 운전자가 무리한 가속으로 인해 발생하는 차량 교통사고를 예방하고자 운전자의 속도 인지 능력을 인식하게 된다. 차량 주행 중 운전자가 과도한 행복 상태에서는 운전 능력에 부정적인 영향을 미칠 수 있으며, 속도계와 속도 제어에 집중하지 못하는 상태로 보다 높은 속도로 주행하게 된다. 정확한 비교를 위해서 실험자들에게 신나는 음악과 잔잔한 음악을 청취하면서 주행하도록 하였다. 차량의 평균속도와 TCL(Traction Control System)등을 측정 결과 행복한 음악과 신나는 음악을 청취한 주행은 운전자가 산만하고 집중력이 약화됨을 확인하였다.The area in Figure 7(a) recognizes the driver's speed perception ability to prevent vehicle traffic accidents caused by excessive acceleration. If the driver is in a state of excessive happiness while driving the vehicle, it can have a negative impact on driving ability and causes the driver to drive at higher speeds without being able to concentrate on the speedometer and speed control. For accurate comparison, the experimenters were asked to drive while listening to exciting music and calm music. As a result of measuring the vehicle's average speed and TCL (Traction Control System), it was confirmed that while driving while listening to happy and exciting music, drivers were distracted and their concentration was weakened.

도 7(b)의 영역은 주행 중 돌발 상황이 발생할 경우 운전자의 인지 및 대처 능력을 인식하게 된다. 차량 외부 환경(예를 들어, 교통체증, 다른 운전자의 시비 등)에서 발생하는 분노, 화남의 감정은 운전자의 공격성과 위험한 행동, 충돌까지 걸리는 시간이 증가하는 것을 확인할 수 있다. 또한, 운전 중 분노와 관련된 원인 및 요인이 운전자의 행동에 영향을 미칠 수 있는지 조사하였고, 실험결과 운전자의 감정(예를 들어, 분노, 화남)은 사회적 일탈 및 운전 위반 행동에 연관성 및 구체적인 연결점을 구성하였다.The area in Figure 7(b) recognizes the driver's perception and response ability when an unexpected situation occurs while driving. Anger and feelings of anger that arise from the environment outside the vehicle (e.g., traffic jams, other drivers' arguments, etc.) can be seen to increase the driver's aggressiveness, dangerous behavior, and the time it takes to crash. In addition, we investigated whether the causes and factors related to anger while driving can affect driver behavior, and the results of the experiment showed that driver emotions (e.g., anger, anger) were related and specific to social deviance and driving violation behavior. It was composed.

도 7(c)의 영역은 운전자가 주행 중 차량 상황 및 운전 부주의에 대한 상황 판단력 인지 능력에 대한 인식이다. 차량 주행에서 피곤함, 졸림에 대한 문제점은 현재까지의 주요한 연구 분야로써 다양한 조사와 실험이 진행되었다. 또한, 주행 중 발생되는 졸음을 EEG 신호 기반 운전자 졸음을 분석하였으며, 실시간 모니터링을 통해 운전자의 상태와 주행 성능에 대한 영향을 도출함으로써 졸음에 대한 생체신호와 물리적인 신호를 포함하여 분석한 결과 운전 부주의 범주를 산만함과 지루함으로 분류하였다.The area in Figure 7(c) is the driver's awareness of situational judgment and recognition ability regarding vehicle situations and driving inattention while driving. The problem of fatigue and drowsiness while driving a vehicle is a major research area to date, and various investigations and experiments have been conducted. In addition, driver drowsiness that occurs while driving was analyzed based on EEG signals, and the impact on the driver's condition and driving performance was derived through real-time monitoring, resulting in inattentive driving as a result of analysis including biometric and physical signals for drowsiness. The categories were divided into distraction and boredom.

도 7(d)의 영역은 운전자가 어떠한 감정도 영향을 받지 않는 정상적인 상태로 주행 능력 인식이다. 정상적으로 수동 운전으로 전환되면서, 운전자가 직접 엑셀을 제어하는 스로틀 값을 변화시키키면서 차량을 주행하게 된다. 이때 제어 방식이 전환 시 운전자의 상황이 정상적으로 차량제어에 반영될 수 있기 때문에 안정적인 운전이 가능해진다.The region in Figure 7(d) is the recognition of driving ability in a normal state in which the driver is not affected by any emotions. When switching to manual driving normally, the driver drives the vehicle while changing the throttle value to directly control the accelerator. At this time, stable driving is possible because the driver's situation can be normally reflected in vehicle control when the control method is switched.

도 8은 본 발명의 일 실시예에 따른 운전자의 상황 및 감정인식을 위한 제안한 1D CNN 모델을 나타내는 도면이다. Figure 8 is a diagram showing the proposed 1D CNN model for driver's situation and emotion recognition according to an embodiment of the present invention.

운전자의 상황 및 감정을 주행 시 인식하기 위해서는 빠른 생체신호 기반 감정인식이 필요로 한다. 하지만 인간이 제어하지 못하는 자율신경계신호는 감정 변화에 따른 특징적인 변화가 적으며, 규칙성이 없는 신호가 많다. 따라서 기존 연구는 원시 생체신호에서 특징을 추출하는 방법으로 감정인식을 진행하였다. 종래기술에서는 생체신호를 파워 스펙트럼(Power Spectrum Density; PSD)을 사용하여 특징을 추출하였으며, 또 다른 종래기술에서는 Topography를 사용하였다. 하지만 특징을 추출하는 과정에서 소요되는 시간과 성능으로 인해 실시간 감정인식에 적용하기 어렵다. In order to recognize the driver's situation and emotions while driving, fast emotional recognition based on biometric signals is required. However, autonomic nervous system signals that humans cannot control have few characteristic changes due to emotional changes, and many signals lack regularity. Therefore, existing research conducted emotion recognition by extracting features from raw biosignals. In the prior art, features were extracted from biosignals using power spectrum density (PSD), and in another prior art, topography was used. However, it is difficult to apply it to real-time emotion recognition due to the time and performance required in the feature extraction process.

본 발명에서 사용된 생체신호는 취득이 쉽고, 특정한 규칙성을 가지는 PPG[2]와 GSR[3] 신호를 사용하였다. 또한, 빠른 데이터 전처리 및 연산을 위해 신호의 특징을 추출하는 방법을 사용하지 않았다. 원시 데이터는 학습데이터 및 실시간 감정인식을 위한 데이터로 바로 사용하기 어렵기 때문에 데이터의 저주파 성분 제거를 위해 버터워스 필터(Butterworth Filter)를 적용하고, 고차다항식, 이동평균 필터를 사용하여, 기저선 변동과 동적잡음을 줄였다. 전처리된 생체신호를 짧은 길이의 1.1초 파형단위로 분할 후 1D CNN 모델을 통해 데이터의 특징 및 학습을 진행하였다.The biosignals used in the present invention are PPG[2] and GSR[3] signals that are easy to acquire and have certain regularities. Additionally, a method to extract signal features was not used for fast data preprocessing and calculation. Since raw data is difficult to use directly as training data and data for real-time emotion recognition, a Butterworth Filter is applied to remove low-frequency components of the data, and a high-order polynomial and moving average filter are used to determine baseline fluctuation and Dynamic noise was reduced. The preprocessed biosignals were divided into short 1.1-second waveform units, and data characteristics and learning were performed through a 1D CNN model.

인공 신경망(ANN)은 입력, 은닉 및 출력 레이어의 세가지로 구성된다. 하지만 기존의 인공 신경망은 파라미터의 최적 값을 찾기 어려우며, 이동 및 변화에 대한 왜곡에 취약하다. 개선된 모델인 1D CNN은 ANN과 동일하게 이전 계층의 가중치와 편향을 기반하지만 데이터의 특징을 추출하여 규칙을 파악하는 구조로 이루어져 있다. 따라서 최근 연구에서는 다양한 음성 및 생체신호를 1D CNN 모델을 사용하여 신호의 특징을 추출 및 분류하는 방법을 적용하고 있다[4]. 본 발명에서 사용된 멀티모달 1차원 합성 곱 신경망의 구성도는 도 8과 같다. An artificial neural network (ANN) consists of three layers: input, hidden, and output layers. However, existing artificial neural networks have difficulty finding optimal values for parameters and are vulnerable to distortion due to movement and change. 1D CNN, an improved model, is based on the weights and biases of the previous layer, just like ANN, but has a structure that extracts data features and identifies rules. Therefore, recent research is applying a method to extract and classify signal features using a 1D CNN model for various voice and bio signals [4]. The configuration diagram of the multimodal one-dimensional convolutional neural network used in the present invention is shown in Figure 8.

멀티모달 생체신호 기반 1D CNN 모델의 결과데이터로, 운전자가 차량 주행 시 운전 보조 제어 모듈에 대한 연구를 시뮬레이터 상에서 진행하였다. 자율주행에서도 사람에 감정을 통해 자율 주행 시스템이 개발이 가능하며, 차량을 수동 제어와 모드 전환 시 운전자와 차량 간의 상호작용이 필요하다는 것을 알 수 있다. 실험 결과에서 운전자의 상황인식을 통한 실시간 차량 제어에 대한 가능성을 확인하였지만, 사람의 감정은 로봇과 다르게 급변하지 않는 특성을 가지고 있다. 따라서 정확한 시뮬레이터에서의 차량제어를 위해 저장되어 있는 생체신호 데이터를 사용했다. 추후 다양한 자율주행 센서와 함께 사용하여 상황별로 시스템을 연구한다면, 다양한 주행 보조시스템 및 자율주행 시스템에서 개발과 연구가 진행될 것이다. 본 발명에서 제안한 새로운 운전자의 상황 및 감정 인식을 탑재한 모듈은 차량 중심의 기존 자율주행 시스템 모듈이 아닌 탑승자와 차량 상호작용 중심으로써 접근함으로써 다양한 분야와 자율주행연구의 융합이 가능한 것을 확인할 수 있다. With the result data of the multimodal biosignal-based 1D CNN model, a study on the driving assistance control module when the driver drives the vehicle was conducted on a simulator. Even in autonomous driving, it is possible to develop an autonomous driving system through human emotions, and it can be seen that interaction between the driver and the vehicle is necessary when manually controlling the vehicle and switching modes. The experimental results confirmed the possibility of real-time vehicle control through the driver's situational awareness, but unlike robots, human emotions have the characteristic of not changing rapidly. Therefore, stored bio-signal data was used for accurate vehicle control in the simulator. If the system is studied for each situation by using it with various autonomous driving sensors in the future, development and research will be conducted on various driving assistance systems and autonomous driving systems. It can be confirmed that the new module equipped with the driver's situation and emotion recognition proposed in the present invention is possible to converge various fields and autonomous driving research by approaching it as a center of interaction between passengers and vehicles rather than a vehicle-centered existing autonomous driving system module.

본 발명에서는 멀티모달 생체신호 기반의 차량 주행 속도 제어에 대한 모듈의 가능성을 확인하였다. 운전자의 감정을 분석하기 위해 1.1초의 짧은 단위의 입력데이터와 별도의 특징 추출 없이 1D CNN 모델을 사용하여, 차량 속도 제어와 운전 보조 시스템 모듈을 제안하였다. 실제 차량과 유사한 환경 구성을 위해 CARLA시뮬레이터 서버에서 가상 도시 및 차량 환경을 구성하였고, 실제 차량과 동일한 통신 시스템을 구성을 위해 ECU보드를 사용하였다. 또한 차량 내 통신으로 많이 쓰이고 있는 CAN통신과 상황시나리오 및 엑셀 데이터를 가상 환경 차량에 전송하였다. 미들웨어 ROS로 관리되는 데이터를 실시간으로 모니터링하여 측정값과 목표값을 비교한 결과, 목표한 그래프와 실험결과로 도출한 그래프에 모양이 일치하는 모습을 확인할 수 있다. 또한 자율주행 차량을 제어하는데 반응 시간은 평균 830ms로 상용화 및 실제 적용하는 부분에서 안정적인 분포를 가진다. 실험결과에서 평균 반응속도는 평균 351.75ms로 차량 제어 시 사용 가능성을 확인하였다.In the present invention, the possibility of a module for vehicle driving speed control based on multimodal biosignals was confirmed. To analyze the driver's emotions, a vehicle speed control and driving assistance system module was proposed using input data as short as 1.1 seconds and a 1D CNN model without separate feature extraction. To create an environment similar to a real vehicle, a virtual city and vehicle environment was configured on the CARLA simulator server, and an ECU board was used to configure the same communication system as the actual vehicle. In addition, CAN communication, which is widely used for in-vehicle communication, situation scenarios, and Excel data were transmitted to the virtual environment vehicle. As a result of real-time monitoring of data managed by middleware ROS and comparison of measured values and target values, it is possible to see that the shape of the target graph and the graph derived from the experimental results match. In addition, the average reaction time for controlling autonomous vehicles is 830ms, which has a stable distribution in commercialization and actual application. In the experimental results, the average reaction speed was 351.75ms, confirming the possibility of use when controlling a vehicle.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.  또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.  이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다.  예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다.  또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), etc. , may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.  소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다.  소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. It can be embodied in . Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.  The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (8)

운전자의 생체신호 기반 CNN 모델을 이용하여 운전자의 감정 및 상황을 분류하고, 상황인식 결과 데이터를 ECU 보드로 전송하는 HMI(Human machine interface);
수신 받은 HMI 결과데이터를 이용하여 반자율 주행 가상환경에 관한 복수의 시나리오를 생성하는 ECU(Electronic Control Unit) 보드;
CARLA(Car Learning to Act) 시뮬레이터를 통해 반자율 주행을 실행하기 위한 반자율 주행 가상환경에 관한 차량정보 및 센서데이터를 관리하는 ROS(Robot operating system); 및
상기 차량정보 및 센서데이터를 이용하여 상기 반자율 주행 가상환경에 관한 복수의 시나리오에 따라 CARLA 클라이언트의 반자율 주행을 실행하는 CARLA 서버
를 포함하는 인간-기계 상호작용 시스템.
HMI (Human Machine Interface) that classifies the driver's emotions and situations using a CNN model based on the driver's biometric signals and transmits the situation recognition result data to the ECU board;
An ECU (Electronic Control Unit) board that generates multiple scenarios regarding a semi-autonomous driving virtual environment using the received HMI result data;
ROS (Robot operating system), which manages vehicle information and sensor data about the semi-autonomous driving virtual environment to execute semi-autonomous driving through CARLA (Car Learning to Act) simulator; and
CARLA server that executes semi-autonomous driving of the CARLA client according to a plurality of scenarios related to the semi-autonomous driving virtual environment using the vehicle information and sensor data
A human-machine interaction system including.
제1항에 있어서,
상기 HMI는,
상기 운전자의 생체신호 기반의 CNN 모델을 이용하기 위해 PPG 신호 및 GSR 신호를 사용하고, 원시 데이터를 학습데이터 및 실시간 감정인식을 위한 데이터로 바로 사용하기 위해 상기 원시 데이터의 저주파 성분 제거를 위한 버터워스 필터(Butterworth Filter)를 적용하고, 고차다항식, 이동평균 필터를 사용하여, 기저선 변동 및 동적잡음을 감소시키며, 전처리된 생체신호를 파형단위로 분할 후 1D CNN 모델을 통해 데이터의 학습을 진행하는
인간-기계 상호작용 시스템.
According to paragraph 1,
The HMI is,
Butterworth uses PPG signals and GSR signals to use the CNN model based on the driver's biometric signals, and removes low-frequency components of the raw data to directly use the raw data as training data and data for real-time emotion recognition. By applying a filter (Butterworth Filter) and using a high-order polynomial and moving average filter, baseline fluctuations and dynamic noise are reduced, and the preprocessed biosignals are divided into waveform units and data is learned through a 1D CNN model.
Human-machine interaction systems.
제1항에 있어서,
상기 ROS는,
ROS 브리지(Bridge)를 통해 CARLA 시뮬레이터와 ECU보드의 데이터를 연동하고, 상기 수신 받은 차량정보 및 센서데이터는 각 ROS 노드(Node)에서 반자율 주행 제어를 위해 처리되어, 반자율 주행을 위한 ROS의 API(Application Programming Interface)로 전송된 ROS 메시지(Message) 데이터를 사용하여 CARLA 서버가 반자율 주행을 실행하도록 차량정보 및 센서데이터를 관리하는
인간-기계 상호작용 시스템.
According to paragraph 1,
The ROS is,
Data from the CARLA simulator and ECU board are linked through the ROS Bridge, and the received vehicle information and sensor data are processed for semi-autonomous driving control at each ROS node, CARLA server manages vehicle information and sensor data to execute semi-autonomous driving using ROS message data sent through API (Application Programming Interface).
Human-machine interaction systems.
제1항에 있어서,
상기 CARLA 서버는,
가상차량에 데이터인 상기 차량정보 및 센서데이터를 전송하기 위해 CAN 데이터로 변환하고, 상기 HMI결과 데이터와 상기 차량정보 및 센서데이터를 이용하여 반자율 주행 모드에서 상기 ECU 보드에서 생성된 운전자의 감정 및 상황에 따른 복수의 시나리오에 따라 드라이버 제어 또는 자율 제어를 실행하도록 CARLA 클라이언트의 가상차량을 제어하는
인간-기계 상호작용 시스템.
According to paragraph 1,
The CARLA server is,
In order to transmit the vehicle information and sensor data as data to the virtual vehicle, it is converted into CAN data, and the HMI result data and the vehicle information and sensor data are used to generate driver's emotions and Controls the CARLA client's virtual vehicle to execute driver control or autonomous control according to multiple scenarios depending on the situation.
Human-machine interaction systems.
HMI(Human machine interface)가 운전자의 생체신호 기반 CNN 모델을 이용하여 운전자의 감정 및 상황을 분류하고, 상황인식 결과 데이터를 ECU 보드로 전송하는 단계;
ECU(Electronic Control Unit) 보드가 수신 받은 HMI 결과데이터를 이용하여 반자율 주행 가상환경에 관한 복수의 시나리오를 생성하는 단계;
ROS(Robot operating system)가 CARLA(Car Learning to Act) 시뮬레이터를 통해 반자율 주행을 실행하기 위한 반자율 주행 가상환경에 관한 차량정보 및 센서데이터를 관리하는 단계; 및
CARLA 서버가 상기 차량정보 및 센서데이터를 이용하여 상기 반자율 주행 가상환경에 관한 복수의 시나리오에 따라 CARLA 클라이언트의 반자율 주행을 실행하는 단계
를 포함하는 인간-기계 상호작용 방법.
A human machine interface (HMI) classifies the driver's emotions and situations using a CNN model based on the driver's biosignals and transmits the situation recognition result data to the ECU board;
Generating a plurality of scenarios related to a semi-autonomous driving virtual environment using HMI result data received by an Electronic Control Unit (ECU) board;
A step in which ROS (Robot operating system) manages vehicle information and sensor data regarding a semi-autonomous driving virtual environment to execute semi-autonomous driving through a CARLA (Car Learning to Act) simulator; and
A CARLA server executing semi-autonomous driving of the CARLA client according to a plurality of scenarios related to the semi-autonomous driving virtual environment using the vehicle information and sensor data.
A human-machine interaction method including.
제5항에 있어서,
상기 HMI가 운전자의 생체신호 기반 CNN 모델을 이용하여 운전자의 감정 및 상황을 분류하고, 상황인식 결과 데이터를 ECU 보드로 전송하는 단계는,
상기 운전자의 생체신호 기반의 CNN 모델을 이용하기 위해 PPG 신호 및 GSR 신호를 사용하고, 원시 데이터를 학습데이터 및 실시간 감정인식을 위한 데이터로 바로 사용하기 위해 상기 원시 데이터의 저주파 성분 제거를 위한 버터워스 필터(Butterworth Filter)를 적용하고, 고차다항식, 이동평균 필터를 사용하여, 기저선 변동 및 동적잡음을 감소시키며, 전처리된 생체신호를 파형단위로 분할 후 1D CNN 모델을 통해 데이터의 학습을 진행하는
인간-기계 상호작용 방법.
According to clause 5,
The step where the HMI classifies the driver's emotions and situations using a CNN model based on the driver's biometric signals and transmits the situation recognition result data to the ECU board,
Butterworth uses PPG signals and GSR signals to use the CNN model based on the driver's biometric signals, and removes low-frequency components of the raw data to directly use the raw data as training data and data for real-time emotion recognition. By applying a filter (Butterworth Filter) and using a high-order polynomial and moving average filter, baseline fluctuations and dynamic noise are reduced, and the preprocessed biosignals are divided into waveform units and data is learned through a 1D CNN model.
Human-machine interaction methods.
제5항에 있어서,
상기 ROS가 CARLA(Car Learning to Act) 시뮬레이터를 통해 반자율 주행을 실행하기 위한 반자율 주행 가상환경에 관한 차량정보 및 센서데이터를 관리하는 단계는,
ROS 브리지(Bridge)를 통해 CARLA 시뮬레이터와 ECU보드의 데이터를 연동하고, 상기 수신 받은 차량정보 및 센서데이터는 각 ROS 노드(Node)에서 반자율 주행 제어를 위해 처리되어, 반자율 주행을 위한 ROS의 API(Application Programming Interface)로 전송된 ROS 메시지(Message) 데이터를 사용하여 CARLA 서버가 반자율 주행을 실행하도록 차량정보 및 센서데이터를 관리하는
인간-기계 상호작용 방법.
According to clause 5,
The step in which the ROS manages vehicle information and sensor data about the semi-autonomous driving virtual environment to execute semi-autonomous driving through the CARLA (Car Learning to Act) simulator is,
Data from the CARLA simulator and ECU board are linked through the ROS Bridge, and the received vehicle information and sensor data are processed for semi-autonomous driving control at each ROS node, CARLA server manages vehicle information and sensor data to execute semi-autonomous driving using ROS message data sent through API (Application Programming Interface).
Human-machine interaction methods.
제5항에 있어서,
상기 CARLA 서버가 상기 차량정보 및 센서데이터를 이용하여 상기 반자율 주행 가상환경에 관한 복수의 시나리오에 따라 CARLA 클라이언트의 반자율 주행을 실행하는 단계는,
가상차량에 데이터인 상기 차량정보 및 센서데이터를 전송하기 위해 CAN 데이터로 변환하고, 상기 HMI결과 데이터와 상기 차량정보 및 센서데이터를 이용하여 반자율 주행 모드에서 상기 ECU 보드에서 생성된 운전자의 감정 및 상황에 따른 복수의 시나리오에 따라 드라이버 제어 또는 자율 제어를 실행하도록 CARLA 클라이언트의 가상차량을 제어하는
인간-기계 상호작용 방법.
According to clause 5,
The step of the CARLA server executing semi-autonomous driving of the CARLA client according to a plurality of scenarios related to the semi-autonomous driving virtual environment using the vehicle information and sensor data,
In order to transmit the vehicle information and sensor data as data to the virtual vehicle, the vehicle information and sensor data are converted into CAN data, and the HMI result data and the vehicle information and sensor data are used to generate the driver's emotions and Controls the CARLA client's virtual vehicle to execute driver control or autonomous control according to multiple scenarios depending on the situation.
Human-machine interaction methods.
KR1020220114772A 2022-09-13 2022-09-13 Method and System for Human-Machine Interaction in Driving Assistant System for Semi-Autonomous Driving Vehicles KR20240036241A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220114772A KR20240036241A (en) 2022-09-13 2022-09-13 Method and System for Human-Machine Interaction in Driving Assistant System for Semi-Autonomous Driving Vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220114772A KR20240036241A (en) 2022-09-13 2022-09-13 Method and System for Human-Machine Interaction in Driving Assistant System for Semi-Autonomous Driving Vehicles

Publications (1)

Publication Number Publication Date
KR20240036241A true KR20240036241A (en) 2024-03-20

Family

ID=90483308

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220114772A KR20240036241A (en) 2022-09-13 2022-09-13 Method and System for Human-Machine Interaction in Driving Assistant System for Semi-Autonomous Driving Vehicles

Country Status (1)

Country Link
KR (1) KR20240036241A (en)

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
[1] Sini, Jacopo, Antonio Costantino Marceddu, and Massimo Violante. "Automatic emotion recognition for the calibration of autonomous driving functions." Electronics 9.3 (2020): 518.
[2] Alian, A.A.; Kirk, H.S. Photoplethysmography. Best Pract. Res. Clin. Anaesthesiol. 2014, 28, 395-406.
[3] Jacobs, K.W.; Frank, E.H., Jr. Effects of four psychological primary colors on GSR, heart rate and respiration rate. Percept. Mot. Ski.1974, 38, 763-766.
[4] Maeng, Jun-Ho, Dong-Hyun Kang, and Deok-Hwan Kim. "Deep Learning Method for Selecting Effective Models and Feature Groups in Emotion Recognition Using an Asian Multimodal Database." Electronics 9.12 (2020): 1988.

Similar Documents

Publication Publication Date Title
US11249544B2 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
CN112277955B (en) Driving assistance method, device, equipment and storage medium
Wang et al. Driving style analysis using primitive driving patterns with Bayesian nonparametric approaches
WO2019190655A1 (en) Safety enhanced computer assisted driving method and apparatus
KR20200083310A (en) Two-way in-vehicle virtual personal assistant
Alamri et al. An effective bio-signal-based driver behavior monitoring system using a generalized deep learning approach
JP2017105453A (en) Method for validating drive assistance function of motor vehicle
CN107364446B (en) Method for operating a motor vehicle
Vasey et al. In-vehicle affect detection system: Identification of emotional arousal by monitoring the driver and driving style
CN113449952A (en) Automatic estimation of driver skill level and confidence level
WO2021067380A1 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
Ko et al. Modeling the effects of auditory display takeover requests on drivers' behavior in autonomous vehicles
Negash et al. Driver behavior modeling towards autonomous vehicles: Comprehensive review
Wan et al. Driving anger states detection based on incremental association markov blanket and least square support vector machine
Mathis et al. Creating informed public acceptance by a user-centered human-machine interface for all automated transport modes
Jami et al. Augmented driver behavior models for high‐fidelity simulation study of crash detection algorithms
Qiu et al. Incorporating gaze behavior using joint embedding with scene context for driver takeover detection
EP3892511A1 (en) Method and system for modifying a self-driving model
Riener Driver-vehicle confluence or how to control your car in future?
Xing et al. Advanced driver intention inference: Theory and design
KR20240036241A (en) Method and System for Human-Machine Interaction in Driving Assistant System for Semi-Autonomous Driving Vehicles
CN115743137A (en) Driving situation understanding method based on man-machine enhanced perception
Zheng et al. Detection of perceived discomfort in sae l2 automated vehicles through driver takeovers and physiological spikes
Bylykbashi et al. Effect of vehicle technical condition on real-time driving risk management in Internet of Vehicles: Design and performance evaluation of an integrated fuzzy-based system
Alvarez et al. The SKYNIVI experience: evoking startle and frustration in dyads and single drivers