KR102270011B1 - Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof - Google Patents

Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof Download PDF

Info

Publication number
KR102270011B1
KR102270011B1 KR1020190158157A KR20190158157A KR102270011B1 KR 102270011 B1 KR102270011 B1 KR 102270011B1 KR 1020190158157 A KR1020190158157 A KR 1020190158157A KR 20190158157 A KR20190158157 A KR 20190158157A KR 102270011 B1 KR102270011 B1 KR 102270011B1
Authority
KR
South Korea
Prior art keywords
vehicle
information
data
visualization
information object
Prior art date
Application number
KR1020190158157A
Other languages
Korean (ko)
Other versions
KR20210068761A (en
Inventor
이병관
정이나
손수락
Original Assignee
가톨릭관동대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭관동대학교산학협력단 filed Critical 가톨릭관동대학교산학협력단
Priority to KR1020190158157A priority Critical patent/KR102270011B1/en
Publication of KR20210068761A publication Critical patent/KR20210068761A/en
Application granted granted Critical
Publication of KR102270011B1 publication Critical patent/KR102270011B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control

Abstract

시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템을 개시한다. 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템은 저시력 시각장애인의 시력 특성에 따라 인지 가능한 시각화 객체로 차량에서 수집된 정보를 변환하여 제공함으로써, 저시력 시각장애인들도 자율주행 차량을 거부감 없이 이용할 수 있도록 한다. 또한, 차량주행정보를 정보의 종류에 따라 시각화 데이터와 청각화 데이터 또는 시청각 데이터로 분류하여 출력함으로써, 차량에서 수집된 출력 정보를 차량 탑승자가 더욱 직관적이고 쉽게 인식할 수 있도록 하고, 탑승자의 반응속도에 따라 차량 상태정보의 최적 출력 형태를 파악하게 되어, 정보 출력 및 전달 효율을 향상 시킬 수 있다. Initiating a deep learning-based autonomous vehicle visualization system for the visually impaired. The deep learning-based autonomous driving vehicle visualization system for the blind according to the embodiment converts the information collected from the vehicle into a recognizable visualization object according to the visual characteristics of the low-vision blind person and provides it, so that even the low-vision visually impaired can use the autonomous driving vehicle. Make it available without hesitation. In addition, by classifying and outputting the vehicle driving information into visualization data, auditory data or audiovisual data according to the type of information, the output information collected from the vehicle can be recognized more intuitively and easily by the vehicle occupant, and the reaction speed of the occupant Accordingly, the optimal output form of vehicle state information can be identified, and information output and transmission efficiency can be improved.

Description

시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템 및 방법 {DEEP LEARNING-BASED AUTONOMOUS VEHICLE VISUALIZE SYSTEM FOR THE VISUALLY IMPAIRED AND METHOD THEREOF}{DEEP LEARNING-BASED AUTONOMOUS VEHICLE VISUALIZE SYSTEM FOR THE VISUALLY IMPAIRED AND METHOD THEREOF}

자율주행 차량의 시각화 시스템 및 방법에 관한 것으로 구체적으로, 자율주행 차량의 다양한 주행 정보를 시각장애인이 인식 가능한 시각 정보로 변환하여 제공하는 딥러닝(deep learning)기반 시각화 시스템 및 방법에 관한 것이다.The present invention relates to a visualization system and method for an autonomous vehicle, and more particularly, to a deep learning-based visualization system and method for converting various driving information of an autonomous vehicle into visual information recognizable by a visually impaired person.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the material described in this section is not prior art to the claims of this application, and inclusion in this section is not an admission that it is prior art.

자율주행차(self-driving car)는 운전자가 핸들과 가속페달, 브레이크 등을 조작하지 않아도 정밀한 지도, 위성항법시스템(GPS) 등 차량의 각종 센서로 상황을 파악해 스스로 목적지까지 찾아가는 자동차를 말한다. 엄밀한 의미에서 사람이 타지 않은 상태에서 움직이는 무인자동차(driverless cars)와 다르지만 실제론 혼용되고 있다. 자율주행 자동차가 실현되기 위해선 수십 가지의 기술이 필요하다. 예를 들어, 차간 거리를 자동으로 유지해 주는 HDA 기술, 차선이탈 경보 시스템(LDWS), 차선유지 지원 시스템(LKAS), 후측방 경보 시스템(BSD), 어드밴스드 스마트 크루즈 컨트롤(ASCC), 자동 긴급제동 시스템(AEB) 등이 자율주행 차량에 필수적인 시스템이다. 자율주행 차량의 기술단계는 자동브레이크, 자동속도조절 등 운전 보조기능을 지원하는 1단계에서 완전 자율주행, 사람이 타지 않고도 움직이는 무인 주행차의 5단계로 나누어진다. A self-driving car refers to a car that detects the situation with various sensors of the vehicle, such as precise maps and GPS, and finds a destination by itself, without the driver operating the steering wheel, accelerator pedal, or brake. In a strict sense, it is different from driverless cars that move without a human being, but in reality, they are used interchangeably. Dozens of technologies are needed to make autonomous vehicles a reality. For example, HDA technology that automatically maintains the distance between vehicles, Lane Departure Warning System (LDWS), Lane Keeping Assist System (LKAS), Blind Spot Warning System (BSD), Advanced Smart Cruise Control (ASCC), Automatic Emergency Braking System (AEB) is an essential system for autonomous vehicles. The technological stage of autonomous vehicles is divided into five stages: from stage 1, which supports driving assistance functions such as automatic braking and automatic speed control, to fully autonomous driving and unmanned driving vehicles that move without a human being.

완전한 자율주행 차량의 탑승자는 직접 운전을 하지 않기 때문에, 차량 사고 전후의 상황을 인식하기 어렵고, 차량의 세부적인 상태정보도 인식하기 어려워 차량 점검을 소홀히 할 가능성도 있다. 자율주행 차량에서는 탑승자에게 차량 상태정보와 주행정보를 더욱 자세하고 자주 알려줘야 할 필요가 있다. 종래 자율주행 차량은 차량의 주행 정보, 세부 상태정보 및 자가진단 데이터를 시각 데이터로 전환하여 운전자에게 제공한다. Since the occupant of a fully autonomous vehicle does not drive directly, it is difficult to recognize the situation before and after a vehicle accident, and it is difficult to recognize detailed state information of the vehicle, so there is a possibility of neglecting the vehicle inspection. In an autonomous vehicle, it is necessary to inform the occupants of vehicle status information and driving information in more detail and frequently. A conventional autonomous vehicle converts driving information, detailed state information, and self-diagnosis data of the vehicle into visual data and provides it to the driver.

하지만, 종래 자율주행 차량의 시각화 정보는 시각장애인이나 시력이 약한 사용자가 쉽게 확인 하기 어려운 형태가 대부분이다. 이는 시각장애인이나 시력이 약한 노약자 등이 자율주행 차량을 적극적으로 이용할 수 없게 하는 결정적인 요인으로 작용할 수 있다. However, most of the visualization information of the conventional autonomous vehicle is difficult to check easily for the visually impaired or a user with low vision. This can act as a decisive factor preventing the blind or the elderly with low vision from actively using autonomous vehicles.

1. 한국 공개특허공보 제10-2018-0066618호(2018.06.19)1. Korean Patent Publication No. 10-2018-0066618 (2018.06.19) 2. 한국 공개특허공보 제10-2019-0117419호(2019.10.16)2. Korean Patent Publication No. 10-2019-0117419 (2019.10.16)

실시예에 따른 자율주행 차량의 시각화 시스템 및 방법은 차량의 센서 데이터와 자가진단 데이터를 차량 내부에 저장하고, 자율주행 차량의 주행 정보 및 차량 상태정보를 시각장애인이나 시력이 약한 사용자도 인식 가능한 시각화 객체로 출력하여 시각장애인 또한 완전하게 자율주행 차량을 이용할 수 있도록 한다.A visualization system and method for an autonomous vehicle according to an embodiment stores sensor data and self-diagnosis data of the vehicle inside the vehicle, and visualizes driving information and vehicle state information of the autonomous vehicle to be recognized by a blind or low-vision user By outputting it as an object, even the visually impaired can use the fully autonomous vehicle.

아울러, 차량의 주행정보나 상태정보 중 청각적 정보로 변환할 데이터와 시각화 정보로 변환할 데이터를 구분하여 차량 정보와 주행상황 및 탑승자의 신체 정보에 따라 출력함으로써, 시각 또는 청각에 장애가 있는 사용자도 자율주행 차량을 이용할 수 있도록 한다. In addition, data to be converted into audible information and data to be converted into visualization information among the vehicle driving information or status information are divided and output according to the vehicle information, the driving situation and the body information of the occupant, so that users with visual or hearing impairments Make autonomous vehicles available.

실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템은 자율주행 차량에 탑승한 저시력 시각장애인의 시력 특성을 파악하여, 시력특성정보에 따라 자율주행 차량의 조도 및 색, 크기, 명암을 포함하는 시각화 정보객체의 세부정보를 설정하는 설정모듈; 연료와 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지하는 센서모듈; 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지 및 진단된 차량 상태 및 변환될 정보객체의 포맷을 저장하는 데이터 저장관리모듈; 및 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 저시력 시각장애인이 인지 가능한 시각화 정보객체로 변환하여 자율주행 시각화 정보를 생성하는 정보객체 생성모듈; 을 포함한다.The deep learning-based autonomous driving vehicle visualization system for the visually impaired according to the embodiment grasps the visual characteristics of the low-vision blind person riding in the autonomous driving vehicle, and adjusts the illuminance, color, size, and contrast of the autonomous driving vehicle according to the vision characteristic information. a setting module for setting detailed information of a visualization information object including; A sensor that senses vehicle status information including fuel and battery remaining amount, self-diagnosis data of each autonomous vehicle operation system including vehicle internal communication system and driving system, and detects driving data including RPM, speed, and speed change amount module; The vehicle status information detected by the sensor module, self-diagnosis data of the vehicle, and driving data are collected and stored, and a message received from a communication object including an external server that communicates with the vehicle, the diagnosed vehicle status, and the format of the information object to be converted a data storage management module for storing; and an information object generating module for generating autonomous driving visualization information by converting vehicle state information, vehicle self-diagnosis data, and driving data into a visualization information object recognizable by the visually impaired. includes

다른 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템의 정보 생성 방법은 설정모듈은 자율주행 차량에 탑승한 저시력 시각장애인의 시력 특성을 파악하여, 시력특성정보에 따라 자율주행 차량의 조도 및 색, 크기, 명암을 포함하는 시각화 정보객체의 세부정보를 설정하는 제1단계; 센서모듈은 연료와 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지하는 제2단계; 데이터 저장관리모듈은 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지 및 진단된 차량 상태 및 변환될 정보객체의 포맷을 저장하는 제3단계; 및 정보객체 생성모듈은 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 저시력 시각장애인이 인지 가능한 시각화 정보객체로 변환하여 자율주행 시각화 정보를 생성하는 제4단계; 를 포함한다. In the information generation method of the deep learning-based autonomous driving vehicle visualization system for the visually impaired according to another embodiment, the setting module grasps the vision characteristics of the low-vision blind person riding in the autonomous driving vehicle, and according to the vision characteristic information, A first step of setting detailed information of the visualization information object including illumination, color, size, and contrast; The sensor module senses vehicle status information including fuel and battery remaining amount and self-diagnosis data of each autonomous vehicle operation system including the vehicle internal communication system and driving system, and receives driving data including RPM, speed, and speed change. a second step of sensing; The data storage management module collects and stores vehicle status information detected by the sensor module, self-diagnosis data of the vehicle, and driving data, and messages received from a communication object including an external server that communicates with the vehicle and the diagnosed vehicle status and conversion a third step of storing the format of the information object to be used; and a fourth step of generating the autonomous driving visualization information by converting the information object generation module into a visualization information object recognizable by the low-vision blind person from vehicle state information, vehicle self-diagnosis data, and driving data; includes

이상에서와 같은 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템은 저시력 시각장애인의 시력 특성에 따라 인지 가능한 시각화 객체로 차량에서 수집된 정보를 변환하여 제공함으로써, 저시력 시각장애인들도 자율주행 차량을 거부감 없이 이용할 수 있도록 한다. 또한, 차량주행정보를 정보의 종류에 따라 시각화 데이터와 청각화 데이터 또는 시청각 데이터로 분류하여 출력함으로써, 차량에서 수집된 출력 정보를 차량 탑승자가 더욱 직관적이고 쉽게 인식할 수 있도록 하고, 탑승자의 반응속도에 따라 차량 상태정보의 최적 출력 형태를 파악하게 되어, 정보 출력 및 전달 효율을 향상 시킬 수 있다. The deep learning-based autonomous vehicle visualization system for the blind as described above converts the information collected from the vehicle into a recognizable visualization object according to the visual characteristics of the low-vision blind person and provides it, so that even the low-vision visually impaired can use the autonomous driving vehicle. Make it available without hesitation. In addition, by classifying and outputting the vehicle driving information into visualization data, auditory data or audiovisual data according to the type of information, the output information collected from the vehicle can be recognized more intuitively and easily by the vehicle occupant, and the reaction speed of the occupant Accordingly, the optimal output form of vehicle state information can be identified, and information output and transmission efficiency can be improved.

아울러, 실시예에서는 시각화된 정보객체와 청각화된 정보객체를 모두 제공 가능하기 때문에, 시력이 약한 사용자 또는 청력이 약한 사용자가 자신이 주로 이용하는 출력정보의 형태를 설정하고 설정된 정보 형태로 출력되는 비중을 높여 청력이나 시력이 약한 노약자 등도 자율주행 차량을 적극적으로 이용할 수 있도록 한다. In addition, since it is possible to provide both a visualized information object and an auralized information object in the embodiment, a user with weak eyesight or a weak hearing sets the form of output information that he or she mainly uses and the proportion of output in the set information form This will allow the elderly and the weak with low hearing or vision to actively use autonomous vehicles.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.It should be understood that the effects of the present invention are not limited to the above-described effects, and include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템의 데이터 처리 구성을 나타낸 도면
도 2는 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템 시각화 객체의 예
도 3은 실시예에 따른 판단모듈(400)의 데이터 처리구성
도 4는 실시예에 따른 정보객체 생성모듈(500)의 데이터 처리 블록
도 5는 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템의 데이터 처리과정을 나타낸 도면
1 is a diagram showing a data processing configuration of a deep learning-based autonomous vehicle visualization system for the visually impaired according to an embodiment;
2 is an example of a visualization object of a deep learning-based autonomous driving vehicle visualization system for the visually impaired according to the embodiment;
3 is a data processing configuration of the determination module 400 according to the embodiment.
4 is a data processing block of the information object generating module 500 according to the embodiment.
5 is a diagram illustrating a data processing process of a deep learning-based autonomous driving vehicle visualization system for the visually impaired according to an embodiment;

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains. It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.

도 1은 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템의 데이터 처리 구성을 나타낸 도면이다.1 is a diagram illustrating a data processing configuration of a deep learning-based autonomous driving vehicle visualization system for the visually impaired according to an embodiment.

도 1을 참조하면, 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템은 설정모듈(100), 센서모듈(200), 저장관리모듈(300), 판단모듈(400) 및 정보객체 생성모듈(500)을 포함하여 구성될 수 있다. 본 명세서에서 사용되는 '모듈' 이라는 용어는 용어가 사용된 문맥에 따라서, 소프트웨어, 하드웨어 또는 그 조합을 포함할 수 있는 것으로 해석되어야 한다. 예를 들어, 소프트웨어는 기계어, 펌웨어(firmware), 임베디드코드(embedded code), 및 애플리케이션 소프트웨어일 수 있다. 또 다른 예로, 하드웨어는 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어, 센서, 멤스(MEMS; Micro-Electro-Mechanical System), 수동 디바이스, 또는 그 조합일 수 있다.Referring to FIG. 1 , a deep learning-based autonomous driving vehicle visualization system for the visually impaired according to an embodiment includes a setting module 100 , a sensor module 200 , a storage management module 300 , a determination module 400 , and an information object. It may be configured to include a generating module 500 . As used herein, the term 'module' should be construed to include software, hardware, or a combination thereof, depending on the context in which the term is used. For example, the software may be machine language, firmware, embedded code, and application software. As another example, the hardware may be a circuit, a processor, a computer, an integrated circuit, an integrated circuit core, a sensor, a Micro-Electro-Mechanical System (MEMS), a passive device, or a combination thereof.

설정모듈(100)은 자율주행 차량에 탑승한 저시력 시각장애인을 포함하는 시각장애인의 시력 특성을 파악하여, 시력 정보에 따라 자율주행 차량의 조도 및 색, 크기, 명암, 을 포함하는 정보객체의 세부정보를 설정한다. The setting module 100 identifies the visual characteristics of the visually impaired, including the low-vision visually impaired, riding in the autonomous driving vehicle, and according to the vision information, the illuminance and color of the autonomous vehicle, the size, the contrast, and the details of the information object including Set the information.

시각장애인은 전맹 시각장애인과 저시력 시각장애인으로 구분되고, 저시력 시각장애인은 전체 시각장애인 중 80% 정도를 차지한다. 저시력 시각장애인들은 전맹이 아니기 때문에, 시각을 통해 사물의 대략적인 윤곽과 객체 존재 여부를 인지 할 수 있다. 다만, 저시력 시각장애인들은 개인의 시력 특성에 따라 인지 가능한 시각화 객체의 종류가 다르다. 구체적으로, 색맹도 저시력 시각장애에 포함되고, 저시력 장애의 특성에 따라 조도에 의해 객체의 시각화 인식률이 달라지는 경우도 있다. 구체적으로, 조도가 높은 경우에만 시각화 객체를 인지 할 수 있는 시각장애인이 있는가 하면, 조도가 낮은 경우에만 시각화 객체를 인지 할 수 있는 시각장애인도 있다. Blind people are divided into blind and low-vision blind people, and low-vision blind people account for about 80% of the total blind people. Because low-vision blind people are not blind, they can recognize the rough outline of objects and the presence or absence of objects through sight. However, low-vision blind people have different types of recognizable visualization objects according to individual visual characteristics. Specifically, color blindness is also included in the low-vision visual impairment, and depending on the characteristics of the low-vision impairment, there are cases in which the visualization recognition rate of an object varies depending on the illuminance. Specifically, some visually impaired people can recognize a visualization object only when the illuminance is high, and there are also visually impaired people who can recognize a visualization object only when the illuminance is low.

설정모듈(100)은 전술한 바와 같이 자율주행 차량에 탑승한 시각장애인 각각의 시력특성을 파악하고, 시각 특성에 따라 시각장애인이 인지 가능한 시각화 객체의 종류를 설정한다. 예컨대, 실시예에 따른 시각화 객체 예를 나타낸 도 2에 도시된 바와 같이, 시각장애인이 모든 객체를 흑백으로만 인식 가능한 경우, 실시예에서는 자율주행 차량에서 생성하는 시각화 객체의 대비율을 매우 높게 설정하거나, 흑백 처리된 시각화 정보객체를 생성하여 탑승자에게 제공한다. 또한, 설정 모듈(100)은 출력되는 시각화 정보객체 및 청각적 정보객체의 크기, 색, 포맷 등을 탑승자의 시력특성을 포함하는 생체정보를 기반으로 설정한다. As described above, the setting module 100 identifies the visual characteristics of each of the visually impaired riding in the autonomous driving vehicle, and sets the type of visualization object that the visually impaired can recognize according to the visual characteristics. For example, as shown in FIG. 2 showing an example of a visualization object according to the embodiment, when the visually impaired can recognize all objects only in black and white, in the embodiment, the contrast ratio of the visualization object generated by the autonomous vehicle is set to be very high Alternatively, a black-and-white processed visualization information object is created and provided to the passenger. In addition, the setting module 100 sets the size, color, format, etc. of the output visualization information object and the auditory information object based on the biometric information including the visual characteristics of the passenger.

센서모듈(200)은 연료, 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지한다.The sensor module 200 senses vehicle state information including fuel and battery remaining amount, and self-diagnosis data of each autonomous vehicle operating system including the vehicle internal communication system and driving system, and includes RPM, speed, and speed change. Detect driving data.

저장관리모듈(300)은 센서모듈(200)에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지, 차량 상태 및 변환될 정보객체의 포맷을 저장한다. 실시예에 따른 시각화 정보 객체는 시각장애인의 시력특성에 따라 파악 가능한 시각화 객체로서 다양한 포맷으로 생성될 수 있다. 예컨대, 저시력 시각장애인이 인지 가능한 흑백과 경계선으로 구성된 제1정보객체, 시각장애인이 인지 가능한 색으로만 구성된 제2정보객체; 및 빛의 세기와 밝기를 영역별로 다르게 구성하는 제3정보객체; 등을 포함할 수 있다. 또한, 흰색, 회색, 검정색의 명도 차이로만 시각화하는 정보 객체 및 3차원 정보 객체도 포함될 수 있다. The storage management module 300 collects and stores vehicle state information detected by the sensor module 200, self-diagnosis data and driving data of the vehicle, and a message received from a communication object including an external server that communicates with the vehicle, the vehicle It stores the state and format of the information object to be converted. The visualization information object according to the embodiment may be generated in various formats as a visualization object that can be grasped according to the visual characteristics of the visually impaired. For example, a first information object composed of black and white and border lines perceptible by the visually impaired, a second information object composed only of colors perceptible by the visually impaired; and a third information object configured to configure light intensity and brightness differently for each area. and the like. In addition, information objects and three-dimensional information objects that are visualized only by differences in brightness between white, gray, and black may be included.

판단모듈(400)은 차량 상태정보, 자가진단데이터 및 주행데이터 중 시각화 정보 객체로 변환할 데이터와, 청각적 정보 객체로 변환할 데이터 및 시청각 정보 객체로 변환할 데이터를 분리한다. 예컨대, 판단모듈(400)은 주행정보나 차량 상태정보를 자율주행 차량 탑승자에게 쉽게 인식시키기 위해, 수집된 정보의 종류에 따른 최적 정보 객체 포맷을 판단한다. The determination module 400 separates data to be converted into a visualization information object among vehicle state information, self-diagnosis data, and driving data, data to be converted into an auditory information object, and data to be converted into an audiovisual information object. For example, the determination module 400 determines an optimal information object format according to the type of collected information in order to easily recognize driving information or vehicle state information to an autonomous vehicle occupant.

구체적으로, 판단모듈(400)은 차량 상태정보, 자가진단데이터 및 주행데이터 중 차량의 위험상태를 나타내는 위험상태 알림 정보는 시청각 데이터로 변환할 수 있다. 또한, 문 열림, 방향지시등 켜짐 등의 차량 상태 정보는 청각적 데이터로 전환되는 것이 사용자가 정보를 인식하기에 용이하고, 차량 주변에 존재하는 객체정보는 시각화 데이터로 전환하는 것이 사용자가 정보를 인식하는데 더욱 도움이 되므로, 판단모듈(400)은 차량으로부터 수집된 정보의 종류와 출력 포맷의 인지 용이성에 대한 연관관계를 기반으로 수집된 차량 정보의 변환 포맷을 판단할 수 있다. Specifically, the determination module 400 may convert the dangerous state notification information indicating the dangerous state of the vehicle among the vehicle state information, self-diagnosis data, and driving data into audio-visual data. In addition, it is easy for the user to recognize the vehicle status information, such as door open and turn signal on, into audible data, and converting object information existing around the vehicle into visualization data allows the user to recognize the information. Since it is more helpful, the determination module 400 may determine the conversion format of the collected vehicle information based on the correlation between the type of information collected from the vehicle and the ease of recognition of the output format.

정보객체 생성모듈(500)은 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 저시력 시각장애인이 인지 가능한 정보 객체로 변환하여 자율주행 시각화 정보를 생성한다. 또한, 실시예에서 정보객체 생성모듈(500)은 주행데이터를 포함하는 차량정보가 시청각 정보 객체 또는 청각적 정보객체로 변환하도록 판단되는 경우, 이에 대응하는 시청각 정보 객체 및 청각적 정보객체를 생성하여 출력한다. The information object generation module 500 generates autonomous driving visualization information by converting vehicle state information, vehicle self-diagnosis data, and driving data into information objects recognizable by the visually impaired with low vision. In addition, in an embodiment, the information object generation module 500 generates an audiovisual information object and an audio information object corresponding thereto when it is determined that vehicle information including driving data is converted into an audiovisual information object or an audiovisual information object. print out

도 3은 실시예에 따른 판단모듈(400)의 데이터 처리구성을 나타낸 도면이다.3 is a diagram showing the data processing configuration of the determination module 400 according to the embodiment.

도 3을 참조하면, 실시예에 따른 판단모듈(400)은 주행상황 분석부(410), 분류부(430) 및 시각화 정보객체 포맷 매칭부(450)를 포함하여 구성될 수 있다.Referring to FIG. 3 , the determination module 400 according to the embodiment may include a driving situation analysis unit 410 , a classification unit 430 , and a visualization information object format matching unit 450 .

주행상황 분석부(410)는 자율주행 차량의 위치 정보와 주변 객체 정보에 따라 주행상황을 분석한다. 예컨대, 주행상황 분석부(410)는 차량이 정체된 도로의 정체 정도와 차량 주변 장애물의 밀도, 개수 등을 파악할 수 있다.The driving situation analysis unit 410 analyzes the driving situation according to the location information of the autonomous vehicle and the surrounding object information. For example, the driving situation analysis unit 410 may determine the degree of congestion on the road on which the vehicle is congested and the density and number of obstacles around the vehicle.

분류부(450)는 수집된 차량 상태정보와 주행정보 중 출력 해야 할 정보를 파악하고, 출력해야 할 정보 중 시각화할 데이터, 청각화할 데이터 및 시청각화할 데이터를 분류한다. 예컨대, 분류부(450)는 연료 및 배터리가 일정 수준 미만이 되거나, 차량 주변에 이동물체가 갑자기 나타난 경우 등의 위험상황 메시지는 시청각화할 데이터로 분류할 수 있고, 문 열림, 창문 열림 등의 차량 상태 정보는 청각화 해야 할 정보로 분류 할 수 있다. The classification unit 450 identifies information to be output among the collected vehicle state information and driving information, and classifies data to be visualized, data to be auralized, and data to be audiovised among the information to be output. For example, the classification unit 450 may classify a dangerous situation message such as when the fuel and battery are below a certain level or when a moving object suddenly appears around the vehicle as data to be audio-visualized, and the vehicle such as door open, window open, etc. State information can be classified as information to be auralized.

실시예에서 분류부(430)은 딥러닝을 통해 차량정보 출력 포맷 분류 이후, 시각화 또는 청각화된 정보가 출력되었을 때 사용자 반응 속도 및 인지 속도를 파악하여 차량에서 수집된 정보의 최적 출력 형태를 피드백 할 수 있다. 예컨대, 갑자기 차량주변으로 나타난 이동물체에 대한 출력정보를 시청각 정보객체로 제공한 경우, 차량 탑승자의 반응속도나 제어 속도가 더 빠른 것으로 산출되면, 차량 주변 객체에 대한 출력 정보는 시청각화 정보로 변환하여 출력하도록 피드백 할 수 있다. In an embodiment, the classification unit 430 feeds back the optimal output form of information collected from the vehicle by identifying the user reaction speed and recognition speed when visualized or auralized information is output after classifying the vehicle information output format through deep learning. can do. For example, if output information about a moving object suddenly appearing around the vehicle is provided as an audiovisual information object, if it is calculated that the vehicle occupant's reaction speed or control speed is faster, the output information about the object around the vehicle is converted into audiovisual information You can give feedback for output.

시각화 정보객체 포맷 매칭부(450)는 분석된 주행상황과 차량 상태정보에 따라 시각화할 정보를 추출하고, 추출된 정보객체가 변환될 시각화 포맷을 파악한다. 예컨대, 시각화 정보객체 포맷 매칭부(430)는 차량에 탑승한 시각장애인의 시력 특성 정보를 고려하여 시각화 정보객체 포맷을 출력해야 하는 정보에 매칭한다. 구체적으로, 차량에 탑승한 시각장애인이 적록색맹인 경우, 흑백으로 구성된 시각화 정보객체 포맷을 매칭하고, 특정 시각장애인이 3차원 객체만 인지 가능한 경우, 시각화로 출력 해야 할 정보에 3차원 정보객체 포맷을 매칭한다. The visualization information object format matching unit 450 extracts information to be visualized according to the analyzed driving situation and vehicle state information, and identifies a visualization format into which the extracted information object is to be converted. For example, the visualization information object format matching unit 430 matches the information to be output in the format of the visualization information object in consideration of the visual characteristics information of the blind person riding in the vehicle. Specifically, when a visually impaired person riding in a vehicle is red-green color blind, a black-and-white visualization information object format is matched, and when a specific visually impaired person can recognize only a three-dimensional object, the three-dimensional information object format is added to the information to be output as a visualization. match

도 4는 실시예에 따른 정보객체 생성모듈(500)의 데이터 처리 블록을 나타낸다.4 shows a data processing block of the information object generating module 500 according to an embodiment.

도 4를 참조하면, 실시예에 따른 시각화 정보객체 생성부(510)는 차량에 탑승한 시각 장애인의 시력특성에 따라 매칭된 시각화 정보객체 포맷에 따라 시각화 정보객체를 생성한다. 예컨대, 시각화 정보 객체 생성부(510)는 차량에 탑승한 저시력 시각장애인이 인지 가능한 시각화 객체로 차량에서 수집된 정보를 변환하여 출력한다. 실시예에서는 흑백 정보객체, 3차원 정보객체, 특정 색으로만 구성된 정보 객체 등의 다양한 포맷으로 시각화 정보객체를 생성할 수 있다. Referring to FIG. 4 , the visualization information object generation unit 510 according to the embodiment creates a visualization information object according to a format of a visualization information object matched according to the visual characteristics of a visually impaired person riding in a vehicle. For example, the visualization information object generating unit 510 converts the information collected from the vehicle into a visualization object recognizable by a low-vision blind person riding in the vehicle and outputs it. In an embodiment, a visualization information object may be created in various formats, such as a black-and-white information object, a three-dimensional information object, and an information object composed of only a specific color.

시청각 정보객체 생성부(520)는 차량에서 수집된 정보를 시청각 정보 객체로 변환하여 출력하도록 한다. 실시예에서 시청각 정보객체는 시각화된 출력정보와 청각화된 출력정보를 동시에 출력하거나, 두 정보를 시간차를 두고 출력하여 차량에 탑승한 사용자가 차량에서 수집된 정보를 더욱 직관적을 인지할 수 있도록 한다. 실시예에서 시청각 정보객체 생성부(250)는 청각장애인이 탑승한 경우에는 시각화 정보의 출력 비중을 높게 조정하고, 청력에 주로 의존하는 탑승객이 승차한 경우에는 청각화 정보의 출력 비중을 높게 조정하여 시청각 정보 객체를 생성하고 이를 출력할 수 있다. 또한, 시각화 정보객체와 청각화 정보 객체의 최적 출력 시점을 차량정보에 따라 다르게 산출하여 정보를 출력할 수 있다. The audiovisual information object generation unit 520 converts the information collected from the vehicle into an audiovisual information object and outputs it. In an embodiment, the audiovisual information object outputs the visualized output information and the auditory output information at the same time, or outputs the two information with a time difference so that the user in the vehicle can more intuitively recognize the information collected from the vehicle. . In an embodiment, the audiovisual information object generation unit 250 adjusts the output weight of the visualization information to a high level when the hearing impaired rides, and adjusts the output weight of the audiovisual information to a high level when the passenger, who is mainly dependent on hearing, rides. You can create an audiovisual information object and output it. In addition, the optimal output timing of the visualization information object and the auditory information object may be calculated differently according to vehicle information and information may be output.

이하에서는 방법에 대해서 차례로 설명한다. 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템의 작용(기능)은 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 방법의 기능과 본질적으로 같은 것이므로 도 1 내지 도 4와 중복되는 설명은 생략하도록 한다.Hereinafter, the method will be described in turn. The operation (function) of the deep learning-based autonomous driving vehicle visualization system for the visually impaired according to the embodiment is essentially the same as the function of the deep learning-based autonomous driving vehicle visualization method for the visually impaired, so the description overlaps with FIGS. 1 to 4 should be omitted.

도 5는 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템의 데이터 처리과정을 나타낸 도면이다.5 is a diagram illustrating a data processing process of a deep learning-based autonomous driving vehicle visualization system for the visually impaired according to an embodiment.

도 5를 참조하면, S510 단계에서는 설정모듈에서 자율주행 차량에 탑승한 저시력 시각장애인을 포함하는 시각장애인의 시력 특성을 파악하여, 시력 정보에 따라 자율주행 차량의 조도 및 색, 크기, 명암, 을 포함하는 정보객체의 세부정보를 설정한다.Referring to FIG. 5 , in step S510, the setting module identifies the visual characteristics of the visually impaired, including the low-vision blind, who ride the autonomous driving vehicle, and adjusts the illuminance, color, size, contrast, and brightness of the autonomous driving vehicle according to the vision information. Set detailed information of the included information object.

S520 단계에서는 센서모듈에서 연료, 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지한다.In step S520, the sensor module senses vehicle status information including fuel and battery remaining amount, and self-diagnosis data of each autonomous driving vehicle operation system including the vehicle internal communication system and driving system, and includes RPM, speed, and speed change. Detect driving data.

S530 단계에서는 데이터 저장관리모듈에서 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지 및 진단된 차량 상태 및 변환될 정보객체의 포맷을 저장한다. In step S530, the data storage management module collects and stores vehicle state information detected by the sensor module, self-diagnosis data of the vehicle, and driving data, and a message received from a communication object including an external server that communicates with the vehicle and the diagnosed vehicle It stores the state and format of the information object to be converted.

S540 단계에서는 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 저시력 시각장애인이 인지 가능한 정보 객체로 변환하여 자율주행 시각화 정보를 생성하고, S550 단계에서는 생성된 객체를 출력한다. In step S540, the autonomous driving visualization information is generated by converting the vehicle state information, vehicle self-diagnosis data, and driving data into an information object recognizable by the visually impaired with low vision, and in step S550, the generated object is output.

이상에서와 같은 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템은 저시력 시각장애인의 시력 특성에 따라 인지 가능한 시각화 객체로 차량에서 수집된 정보를 변환하여 제공함으로써, 저시력 시각장애인들도 자율주행 차량을 거부감 없이 이용할 수 있도록 한다. 또한, 차량주행정보를 정보의 종류에 따라 시각화 데이터와 청각화 데이터 또는 시청각 데이터로 분류하여 출력함으로써, 출력 정보를 차량 탑승자가 더욱 직관적이고 쉽게 인식할 수 있도록 하고, 탑승자의 반응속도에 따라 차량 상태정보의 최적 출력 형태를 파악하게 되어, 정보 출력 효율을 향상 시킬 수 있다. The deep learning-based autonomous vehicle visualization system for the blind as described above converts the information collected from the vehicle into a recognizable visualization object according to the visual characteristics of the low-vision blind person and provides it, so that even the low-vision visually impaired can use the autonomous driving vehicle. Make it available without hesitation. In addition, by classifying and outputting the vehicle driving information into visualization data, auditory data or audiovisual data according to the type of information, the output information is more intuitively and easily recognized by the vehicle occupant, and the vehicle state according to the occupant's reaction speed By understanding the optimal output form of information, information output efficiency can be improved.

아울러, 실시예에서는 시각화된 정보객체와 청각화된 정보객체를 모두 제공 가능하기 때문에, 시력이 약한 사용자 또는 청력이 약한 사용자가 자신이 주로 이용하는 출력정보의 형태를 설정하고 설정된 정보 형태로 출력되는 비중을 높여 청력이나 시력이 약한 노약자 등도 자율주행 차량을 적극적으로 이용할 수 있도록 한다. In addition, since it is possible to provide both a visualized information object and an auralized information object in the embodiment, a user with weak eyesight or a weak hearing sets the form of output information that he or she mainly uses and the proportion of output in the set information form This will allow the elderly and the weak with low hearing or vision to actively use autonomous vehicles.

개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시예에 한정되지 않는다.The disclosed content is merely an example, and can be variously changed and implemented by those of ordinary skill in the art without departing from the gist of the claims claimed in the claims, so the protection scope of the disclosed content is limited to the specific It is not limited to an Example.

Claims (10)

시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템에 있어서,
자율주행 차량에 탑승한 저시력 시각장애인의 시력 특성을 파악하여, 상기 시력특성정보에 따라 자율주행 차량의 조도 및 색, 크기, 명암을 포함하는 시각화 정보객체의 세부정보를 설정하는 설정모듈;
연료와 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지하는 센서모듈;
상기 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지 및 진단된 차량 상태 및 변환될 정보객체의 포맷을 저장하는 데이터 저장관리모듈; 및
차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 저시력 시각장애인이 인지 가능한 시각화 정보객체로 변환하여 자율주행 시각화 정보를 생성하는 정보객체 생성모듈; 을 포함하고,
상기 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템은
차량 상태정보, 자가진단데이터 및 주행데이터 중 시각화 정보 객체로 변환할 데이터와, 청각적 정보 객체로 변환할 데이터 및 시청각 정보 객체로 변환할 데이터를 분리하는 판단모듈을 더 포함하고,
상기 판단모듈은;
상기 시각화 정보객체와 청각적 정보객체 및 시청각 정보객체의 출력시점과 탑승자의 반응속도에 따라 차량에서 수집된 정보의 최적 출력 정보 객체 포맷을 설정하는 것을 특징으로 하는 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템.
In a deep learning-based autonomous vehicle visualization system for the visually impaired,
a setting module for identifying the visual characteristics of the low-vision blind person riding in the autonomous driving vehicle, and setting detailed information of the visualization information object including illuminance, color, size, and contrast of the autonomous driving vehicle according to the visual characteristic information;
A sensor that senses vehicle status information including fuel and battery remaining amount, self-diagnosis data of each autonomous vehicle operation system including vehicle internal communication system and driving system, and detects driving data including RPM, speed, and speed change amount module;
The vehicle status information detected by the sensor module, self-diagnosis data of the vehicle, and driving data are collected and stored, and messages received from a communication object including an external server that communicates with the vehicle and the diagnosed vehicle status and information object to be converted. a data storage management module for storing the format; and
an information object generating module that converts vehicle state information, vehicle self-diagnosis data, and driving data into a visualization information object recognizable by a low-vision blind person to generate autonomous driving visualization information; including,
The deep learning-based autonomous vehicle visualization system for the visually impaired is
Further comprising a determination module for separating data to be converted into a visualization information object from among vehicle state information, self-diagnosis data, and driving data, data to be converted into an auditory information object, and data to be converted into an audiovisual information object,
The determination module;
Deep learning-based autonomous driving for the visually impaired, characterized in that the optimal output information object format of the information collected from the vehicle is set according to the output timing of the visual information object, the auditory information object, and the audiovisual information object and the reaction speed of the occupant Vehicle visualization system.
제 1항에 있어서, 상기 시각화 정보객체는
상기 시각장애인의 시력특성에 따라 파악 가능한 시각화 객체로서, 흑백과 경계선으로 구성된 제1정보객체,
차량에 탑승한 시각장애인이 인지 가능한 색으로만 구성된 제2정보객체; 및
빛의 세기와 밝기를 영역별로 다르게 구성하는 제3정보객체; 를 포함하는 것을 특징으로 하는 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템.
According to claim 1, wherein the visualization information object
As a visualization object that can be grasped according to the visual characteristics of the visually impaired, a first information object consisting of black and white and a boundary line;
a second information object composed only of colors perceptible to the visually impaired riding in the vehicle; and
a third information object configured to differently configure light intensity and brightness for each area; Deep learning-based autonomous vehicle visualization system for the visually impaired, characterized in that it comprises a.
삭제delete 제 1항에 있어서, 상기 판단모듈; 은
차량 상태정보, 자가진단데이터 및 주행데이터 중 차량의 위험상태를 나타내는 위험상태 알림 정보는 시청각 데이터로 변환하는 것을 특징으로 하는 딥러닝 기반 자율주행차량 시각화 시스템.
The method of claim 1, further comprising: the determination module; silver
A deep learning-based autonomous vehicle visualization system, characterized in that the dangerous state notification information indicating the dangerous state of the vehicle among the vehicle state information, self-diagnosis data, and driving data is converted into audiovisual data.
제 4항에 있어서, 상기 시청각데이터는
차량 상태정보, 자가진단데이터 및 주행데이터 중 차량의 위험상태를 나타내는 위험상태 알림 정보를 자율주행 차량에 탑승한 시각장애인이 인지 가능한 시각화 정보객체와 위험상태 알림 정보를 소리로 알리는 청각적 정보객체를 포함하고, 상기 시청각 데이터에 포함되는 시각화 정보객체와 청각적 정보객체가 시간차를 두고 출력되거나 동시에 출력되는 것을 특징으로 하는 딥러닝 기반 자율주행차량 시각화 시스템.
The method of claim 4, wherein the audiovisual data is
Among the vehicle status information, self-diagnosis data, and driving data, there is a visualization information object that can recognize dangerous state notification information indicating the dangerous state of the vehicle, and an audible information object that notifies the dangerous state notification information by sound. A deep learning-based autonomous vehicle visualization system, characterized in that the visualization information object and the audio information object included in the audiovisual data are output with a time difference or output simultaneously.
시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템의 정보 생성 방법에 있어서,
설정모듈은 자율주행 차량에 탑승한 저시력 시각장애인의 시력 특성을 파악하여, 상기 시력특성정보에 따라 자율주행 차량의 조도 및 색, 크기, 명암을 포함하는 시각화 정보객체의 세부정보를 설정하는 제1단계;
센서모듈은 연료와 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지하는 제2단계;
데이터 저장관리모듈은 상기 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지 및 진단된 차량 상태 및 변환될 정보객체의 포맷을 저장하는 제3단계; 및
정보객체 생성모듈은 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 저시력 시각장애인이 인지 가능한 시각화 정보객체로 변환하여 자율주행 시각화 정보를 생성하는 제4단계; 을 포함하고,
상기 제4단계; 는
판단모듈에서 차량 상태정보, 자가진단데이터 및 주행데이터 중 시각화 정보 객체로 변환할 데이터와, 청각적 정보 객체로 변환할 데이터 및 시청각 정보 객체로 변환할 데이터를 분리하는 4-1 단계를 포함하고,
상기 제 4-1단계; 는
상기 시각화 정보객체와 청각적 정보객체 및 시청각 정보객체의 출력시점과 탑승자의 반응속도에 따라 차량에서 수집된 정보의 최적 출력 정보 객체 포맷을 설정하는 것을 특징으로 하는 정보 생성 방법.
In an information generation method of a deep learning-based autonomous vehicle visualization system for the visually impaired,
The setting module determines the visual characteristics of the low-vision blind person riding in the autonomous driving vehicle, and sets detailed information of the visualization information object including the illuminance, color, size, and contrast of the autonomous driving vehicle according to the visual characteristic information. step;
The sensor module senses vehicle status information including fuel and battery remaining amount and self-diagnosis data of each autonomous vehicle operation system including the vehicle internal communication system and driving system, and receives driving data including RPM, speed, and speed change. a second step of sensing;
The data storage management module collects and stores vehicle state information detected by the sensor module, self-diagnosis data of the vehicle, and driving data, and a message received from a communication object including an external server that communicates with the vehicle and the diagnosed vehicle state and a third step of storing the format of the information object to be converted; and
The information object generating module includes: a fourth step of converting vehicle state information, vehicle self-diagnosis data, and driving data into a visualization information object recognizable by a low-vision blind person to generate autonomous driving visualization information; including,
the fourth step; is
4-1 step of separating the data to be converted into a visualization information object from among the vehicle state information, self-diagnosis data, and driving data in the determination module, data to be converted into an auditory information object, and data to be converted into an audiovisual information object,
the step 4-1; is
An information generating method, characterized in that the optimal output information object format of the information collected from the vehicle is set according to the output timing of the visual information object, the auditory information object, and the audiovisual information object and the reaction speed of the occupant.
삭제delete 삭제delete 제 6항에 있어서, 상기 제4-1단계;는
자율주행 차량 탑승자의 시력 특성 및 청력 특성에 따라 시청각 출력 데이터에 포함되는 시각화 데이터와 청각화 데이터의 비율을 조정하는 것을 특징으로 하는 정보 생성 방법.
The method of claim 6, wherein the step 4-1;
An information generating method, characterized in that the ratio of the visualization data and the auditory data included in the audiovisual output data is adjusted according to the visual characteristics and the hearing characteristics of the autonomous vehicle occupant.
제 6항에 있어서, 상기 4-1 단계; 는
생성된 시청각 정보 객체를 출력하는 경우, 수집된 차량정보의 종류와 주행정보에 따라 시각화 정보객체의 출력 시점과 청각적 정보객체의 출력 시점을 산출하는 것을 특징으로 하는 정보 생성 방법.
The method of claim 6, wherein the step 4-1; is
When outputting the generated audiovisual information object, the information generating method, characterized in that for calculating the output time of the visual information object and the output time of the auditory information object according to the type and driving information of the collected vehicle information.
KR1020190158157A 2019-12-02 2019-12-02 Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof KR102270011B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190158157A KR102270011B1 (en) 2019-12-02 2019-12-02 Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190158157A KR102270011B1 (en) 2019-12-02 2019-12-02 Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof

Publications (2)

Publication Number Publication Date
KR20210068761A KR20210068761A (en) 2021-06-10
KR102270011B1 true KR102270011B1 (en) 2021-06-28

Family

ID=76378018

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190158157A KR102270011B1 (en) 2019-12-02 2019-12-02 Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof

Country Status (1)

Country Link
KR (1) KR102270011B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11492005B1 (en) * 2021-08-24 2022-11-08 GM Global Technology Operations LLC Systems and methods for communicating with vision and hearing impaired vehicle occupants

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019021306A (en) * 2017-07-18 2019-02-07 トヨタ自動車株式会社 Augmented reality vehicle support for color blind person

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101800178B1 (en) * 2016-04-20 2017-12-20 가천대학교 산학협력단 Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device Interacting with User
KR20180026243A (en) * 2016-09-02 2018-03-12 엘지전자 주식회사 Autonomous vehicle and control method thereof
KR20180051977A (en) * 2016-11-09 2018-05-17 엘지전자 주식회사 User Interface Apparatus for vehicle and method
KR102336017B1 (en) * 2016-11-09 2021-12-07 한국전자통신연구원 Interaction method between user and autonomous driving system in fully autonomous driving
KR102056147B1 (en) 2016-12-09 2019-12-17 (주)엠아이테크 Registration method of distance data and 3D scan data for autonomous vehicle and method thereof
KR20190117419A (en) 2019-09-27 2019-10-16 엘지전자 주식회사 Method for providing contents of autonomous vehicle and apparatus for same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019021306A (en) * 2017-07-18 2019-02-07 トヨタ自動車株式会社 Augmented reality vehicle support for color blind person

Also Published As

Publication number Publication date
KR20210068761A (en) 2021-06-10

Similar Documents

Publication Publication Date Title
US10365648B2 (en) Methods of customizing self-driving motor vehicles
KR102368812B1 (en) Method for vehicle driver assistance and Vehicle
CN108028015B (en) Information processing apparatus, information processing method, and storage medium
EP3675121B1 (en) Computer-implemented interaction with a user
EP3470276A1 (en) Vehicle control device and vehicle comprising the same
US9650056B2 (en) Method for controlling a driver assistance system
KR102227489B1 (en) Apparatus and method for visualizing sound source
US20180307967A1 (en) Detecting dangerous driving situations by parsing a scene graph of radar detections
KR20170016174A (en) Driver assistance apparatus and control method for the same
US20170355379A1 (en) Driving support device
EP4163157A1 (en) Information transmission method implemented in vehicle and information transmission system for motorcycle
US20180348751A1 (en) Partially Autonomous Vehicle Passenger Control in Difficult Scenario
JP6075577B2 (en) Driving assistance device
JP2018151911A (en) Driving state determination device, driving state determination method, and program for determining driving state
JP2017097846A (en) Method and system for improving attention level of traffic participant
JP2021163345A (en) Driving support device and data collection system
KR102270011B1 (en) Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof
KR20190133358A (en) Warning system for hearing-impaired person of vehicle and control method of the same
US11492005B1 (en) Systems and methods for communicating with vision and hearing impaired vehicle occupants
US20230067615A1 (en) Systems and methods for communicating with vision and hearing impaired vehicle occupants
WO2021241260A1 (en) Information processing device, information processing method, information processing system, and program
KR102331882B1 (en) Method and apparatus for controlling an vehicle based on voice recognition
KR101850857B1 (en) Display Apparatus and Vehicle Having The Same
JP7116540B2 (en) Driving advice device and driving advice method
JP7390329B2 (en) Recognition index setting device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant