KR102270011B1 - Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof - Google Patents
Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof Download PDFInfo
- Publication number
- KR102270011B1 KR102270011B1 KR1020190158157A KR20190158157A KR102270011B1 KR 102270011 B1 KR102270011 B1 KR 102270011B1 KR 1020190158157 A KR1020190158157 A KR 1020190158157A KR 20190158157 A KR20190158157 A KR 20190158157A KR 102270011 B1 KR102270011 B1 KR 102270011B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- information
- data
- visualization
- information object
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0043—Signal treatments, identification of variables or parameters, parameter estimation or state estimation
- B60W2050/0057—Frequency analysis, spectral techniques or transforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/08—Predicting or avoiding probable or impending collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/14—Cruise control
Abstract
시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템을 개시한다. 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템은 저시력 시각장애인의 시력 특성에 따라 인지 가능한 시각화 객체로 차량에서 수집된 정보를 변환하여 제공함으로써, 저시력 시각장애인들도 자율주행 차량을 거부감 없이 이용할 수 있도록 한다. 또한, 차량주행정보를 정보의 종류에 따라 시각화 데이터와 청각화 데이터 또는 시청각 데이터로 분류하여 출력함으로써, 차량에서 수집된 출력 정보를 차량 탑승자가 더욱 직관적이고 쉽게 인식할 수 있도록 하고, 탑승자의 반응속도에 따라 차량 상태정보의 최적 출력 형태를 파악하게 되어, 정보 출력 및 전달 효율을 향상 시킬 수 있다. Initiating a deep learning-based autonomous vehicle visualization system for the visually impaired. The deep learning-based autonomous driving vehicle visualization system for the blind according to the embodiment converts the information collected from the vehicle into a recognizable visualization object according to the visual characteristics of the low-vision blind person and provides it, so that even the low-vision visually impaired can use the autonomous driving vehicle. Make it available without hesitation. In addition, by classifying and outputting the vehicle driving information into visualization data, auditory data or audiovisual data according to the type of information, the output information collected from the vehicle can be recognized more intuitively and easily by the vehicle occupant, and the reaction speed of the occupant Accordingly, the optimal output form of vehicle state information can be identified, and information output and transmission efficiency can be improved.
Description
자율주행 차량의 시각화 시스템 및 방법에 관한 것으로 구체적으로, 자율주행 차량의 다양한 주행 정보를 시각장애인이 인식 가능한 시각 정보로 변환하여 제공하는 딥러닝(deep learning)기반 시각화 시스템 및 방법에 관한 것이다.The present invention relates to a visualization system and method for an autonomous vehicle, and more particularly, to a deep learning-based visualization system and method for converting various driving information of an autonomous vehicle into visual information recognizable by a visually impaired person.
본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the material described in this section is not prior art to the claims of this application, and inclusion in this section is not an admission that it is prior art.
자율주행차(self-driving car)는 운전자가 핸들과 가속페달, 브레이크 등을 조작하지 않아도 정밀한 지도, 위성항법시스템(GPS) 등 차량의 각종 센서로 상황을 파악해 스스로 목적지까지 찾아가는 자동차를 말한다. 엄밀한 의미에서 사람이 타지 않은 상태에서 움직이는 무인자동차(driverless cars)와 다르지만 실제론 혼용되고 있다. 자율주행 자동차가 실현되기 위해선 수십 가지의 기술이 필요하다. 예를 들어, 차간 거리를 자동으로 유지해 주는 HDA 기술, 차선이탈 경보 시스템(LDWS), 차선유지 지원 시스템(LKAS), 후측방 경보 시스템(BSD), 어드밴스드 스마트 크루즈 컨트롤(ASCC), 자동 긴급제동 시스템(AEB) 등이 자율주행 차량에 필수적인 시스템이다. 자율주행 차량의 기술단계는 자동브레이크, 자동속도조절 등 운전 보조기능을 지원하는 1단계에서 완전 자율주행, 사람이 타지 않고도 움직이는 무인 주행차의 5단계로 나누어진다. A self-driving car refers to a car that detects the situation with various sensors of the vehicle, such as precise maps and GPS, and finds a destination by itself, without the driver operating the steering wheel, accelerator pedal, or brake. In a strict sense, it is different from driverless cars that move without a human being, but in reality, they are used interchangeably. Dozens of technologies are needed to make autonomous vehicles a reality. For example, HDA technology that automatically maintains the distance between vehicles, Lane Departure Warning System (LDWS), Lane Keeping Assist System (LKAS), Blind Spot Warning System (BSD), Advanced Smart Cruise Control (ASCC), Automatic Emergency Braking System (AEB) is an essential system for autonomous vehicles. The technological stage of autonomous vehicles is divided into five stages: from stage 1, which supports driving assistance functions such as automatic braking and automatic speed control, to fully autonomous driving and unmanned driving vehicles that move without a human being.
완전한 자율주행 차량의 탑승자는 직접 운전을 하지 않기 때문에, 차량 사고 전후의 상황을 인식하기 어렵고, 차량의 세부적인 상태정보도 인식하기 어려워 차량 점검을 소홀히 할 가능성도 있다. 자율주행 차량에서는 탑승자에게 차량 상태정보와 주행정보를 더욱 자세하고 자주 알려줘야 할 필요가 있다. 종래 자율주행 차량은 차량의 주행 정보, 세부 상태정보 및 자가진단 데이터를 시각 데이터로 전환하여 운전자에게 제공한다. Since the occupant of a fully autonomous vehicle does not drive directly, it is difficult to recognize the situation before and after a vehicle accident, and it is difficult to recognize detailed state information of the vehicle, so there is a possibility of neglecting the vehicle inspection. In an autonomous vehicle, it is necessary to inform the occupants of vehicle status information and driving information in more detail and frequently. A conventional autonomous vehicle converts driving information, detailed state information, and self-diagnosis data of the vehicle into visual data and provides it to the driver.
하지만, 종래 자율주행 차량의 시각화 정보는 시각장애인이나 시력이 약한 사용자가 쉽게 확인 하기 어려운 형태가 대부분이다. 이는 시각장애인이나 시력이 약한 노약자 등이 자율주행 차량을 적극적으로 이용할 수 없게 하는 결정적인 요인으로 작용할 수 있다. However, most of the visualization information of the conventional autonomous vehicle is difficult to check easily for the visually impaired or a user with low vision. This can act as a decisive factor preventing the blind or the elderly with low vision from actively using autonomous vehicles.
실시예에 따른 자율주행 차량의 시각화 시스템 및 방법은 차량의 센서 데이터와 자가진단 데이터를 차량 내부에 저장하고, 자율주행 차량의 주행 정보 및 차량 상태정보를 시각장애인이나 시력이 약한 사용자도 인식 가능한 시각화 객체로 출력하여 시각장애인 또한 완전하게 자율주행 차량을 이용할 수 있도록 한다.A visualization system and method for an autonomous vehicle according to an embodiment stores sensor data and self-diagnosis data of the vehicle inside the vehicle, and visualizes driving information and vehicle state information of the autonomous vehicle to be recognized by a blind or low-vision user By outputting it as an object, even the visually impaired can use the fully autonomous vehicle.
아울러, 차량의 주행정보나 상태정보 중 청각적 정보로 변환할 데이터와 시각화 정보로 변환할 데이터를 구분하여 차량 정보와 주행상황 및 탑승자의 신체 정보에 따라 출력함으로써, 시각 또는 청각에 장애가 있는 사용자도 자율주행 차량을 이용할 수 있도록 한다. In addition, data to be converted into audible information and data to be converted into visualization information among the vehicle driving information or status information are divided and output according to the vehicle information, the driving situation and the body information of the occupant, so that users with visual or hearing impairments Make autonomous vehicles available.
실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템은 자율주행 차량에 탑승한 저시력 시각장애인의 시력 특성을 파악하여, 시력특성정보에 따라 자율주행 차량의 조도 및 색, 크기, 명암을 포함하는 시각화 정보객체의 세부정보를 설정하는 설정모듈; 연료와 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지하는 센서모듈; 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지 및 진단된 차량 상태 및 변환될 정보객체의 포맷을 저장하는 데이터 저장관리모듈; 및 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 저시력 시각장애인이 인지 가능한 시각화 정보객체로 변환하여 자율주행 시각화 정보를 생성하는 정보객체 생성모듈; 을 포함한다.The deep learning-based autonomous driving vehicle visualization system for the visually impaired according to the embodiment grasps the visual characteristics of the low-vision blind person riding in the autonomous driving vehicle, and adjusts the illuminance, color, size, and contrast of the autonomous driving vehicle according to the vision characteristic information. a setting module for setting detailed information of a visualization information object including; A sensor that senses vehicle status information including fuel and battery remaining amount, self-diagnosis data of each autonomous vehicle operation system including vehicle internal communication system and driving system, and detects driving data including RPM, speed, and speed change amount module; The vehicle status information detected by the sensor module, self-diagnosis data of the vehicle, and driving data are collected and stored, and a message received from a communication object including an external server that communicates with the vehicle, the diagnosed vehicle status, and the format of the information object to be converted a data storage management module for storing; and an information object generating module for generating autonomous driving visualization information by converting vehicle state information, vehicle self-diagnosis data, and driving data into a visualization information object recognizable by the visually impaired. includes
다른 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템의 정보 생성 방법은 설정모듈은 자율주행 차량에 탑승한 저시력 시각장애인의 시력 특성을 파악하여, 시력특성정보에 따라 자율주행 차량의 조도 및 색, 크기, 명암을 포함하는 시각화 정보객체의 세부정보를 설정하는 제1단계; 센서모듈은 연료와 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지하는 제2단계; 데이터 저장관리모듈은 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지 및 진단된 차량 상태 및 변환될 정보객체의 포맷을 저장하는 제3단계; 및 정보객체 생성모듈은 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 저시력 시각장애인이 인지 가능한 시각화 정보객체로 변환하여 자율주행 시각화 정보를 생성하는 제4단계; 를 포함한다. In the information generation method of the deep learning-based autonomous driving vehicle visualization system for the visually impaired according to another embodiment, the setting module grasps the vision characteristics of the low-vision blind person riding in the autonomous driving vehicle, and according to the vision characteristic information, A first step of setting detailed information of the visualization information object including illumination, color, size, and contrast; The sensor module senses vehicle status information including fuel and battery remaining amount and self-diagnosis data of each autonomous vehicle operation system including the vehicle internal communication system and driving system, and receives driving data including RPM, speed, and speed change. a second step of sensing; The data storage management module collects and stores vehicle status information detected by the sensor module, self-diagnosis data of the vehicle, and driving data, and messages received from a communication object including an external server that communicates with the vehicle and the diagnosed vehicle status and conversion a third step of storing the format of the information object to be used; and a fourth step of generating the autonomous driving visualization information by converting the information object generation module into a visualization information object recognizable by the low-vision blind person from vehicle state information, vehicle self-diagnosis data, and driving data; includes
이상에서와 같은 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템은 저시력 시각장애인의 시력 특성에 따라 인지 가능한 시각화 객체로 차량에서 수집된 정보를 변환하여 제공함으로써, 저시력 시각장애인들도 자율주행 차량을 거부감 없이 이용할 수 있도록 한다. 또한, 차량주행정보를 정보의 종류에 따라 시각화 데이터와 청각화 데이터 또는 시청각 데이터로 분류하여 출력함으로써, 차량에서 수집된 출력 정보를 차량 탑승자가 더욱 직관적이고 쉽게 인식할 수 있도록 하고, 탑승자의 반응속도에 따라 차량 상태정보의 최적 출력 형태를 파악하게 되어, 정보 출력 및 전달 효율을 향상 시킬 수 있다. The deep learning-based autonomous vehicle visualization system for the blind as described above converts the information collected from the vehicle into a recognizable visualization object according to the visual characteristics of the low-vision blind person and provides it, so that even the low-vision visually impaired can use the autonomous driving vehicle. Make it available without hesitation. In addition, by classifying and outputting the vehicle driving information into visualization data, auditory data or audiovisual data according to the type of information, the output information collected from the vehicle can be recognized more intuitively and easily by the vehicle occupant, and the reaction speed of the occupant Accordingly, the optimal output form of vehicle state information can be identified, and information output and transmission efficiency can be improved.
아울러, 실시예에서는 시각화된 정보객체와 청각화된 정보객체를 모두 제공 가능하기 때문에, 시력이 약한 사용자 또는 청력이 약한 사용자가 자신이 주로 이용하는 출력정보의 형태를 설정하고 설정된 정보 형태로 출력되는 비중을 높여 청력이나 시력이 약한 노약자 등도 자율주행 차량을 적극적으로 이용할 수 있도록 한다. In addition, since it is possible to provide both a visualized information object and an auralized information object in the embodiment, a user with weak eyesight or a weak hearing sets the form of output information that he or she mainly uses and the proportion of output in the set information form This will allow the elderly and the weak with low hearing or vision to actively use autonomous vehicles.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.It should be understood that the effects of the present invention are not limited to the above-described effects, and include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.
도 1은 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템의 데이터 처리 구성을 나타낸 도면
도 2는 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템 시각화 객체의 예
도 3은 실시예에 따른 판단모듈(400)의 데이터 처리구성
도 4는 실시예에 따른 정보객체 생성모듈(500)의 데이터 처리 블록
도 5는 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템의 데이터 처리과정을 나타낸 도면1 is a diagram showing a data processing configuration of a deep learning-based autonomous vehicle visualization system for the visually impaired according to an embodiment;
2 is an example of a visualization object of a deep learning-based autonomous driving vehicle visualization system for the visually impaired according to the embodiment;
3 is a data processing configuration of the
4 is a data processing block of the information object generating module 500 according to the embodiment.
5 is a diagram illustrating a data processing process of a deep learning-based autonomous driving vehicle visualization system for the visually impaired according to an embodiment;
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains. It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.
도 1은 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템의 데이터 처리 구성을 나타낸 도면이다.1 is a diagram illustrating a data processing configuration of a deep learning-based autonomous driving vehicle visualization system for the visually impaired according to an embodiment.
도 1을 참조하면, 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템은 설정모듈(100), 센서모듈(200), 저장관리모듈(300), 판단모듈(400) 및 정보객체 생성모듈(500)을 포함하여 구성될 수 있다. 본 명세서에서 사용되는 '모듈' 이라는 용어는 용어가 사용된 문맥에 따라서, 소프트웨어, 하드웨어 또는 그 조합을 포함할 수 있는 것으로 해석되어야 한다. 예를 들어, 소프트웨어는 기계어, 펌웨어(firmware), 임베디드코드(embedded code), 및 애플리케이션 소프트웨어일 수 있다. 또 다른 예로, 하드웨어는 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어, 센서, 멤스(MEMS; Micro-Electro-Mechanical System), 수동 디바이스, 또는 그 조합일 수 있다.Referring to FIG. 1 , a deep learning-based autonomous driving vehicle visualization system for the visually impaired according to an embodiment includes a
설정모듈(100)은 자율주행 차량에 탑승한 저시력 시각장애인을 포함하는 시각장애인의 시력 특성을 파악하여, 시력 정보에 따라 자율주행 차량의 조도 및 색, 크기, 명암, 을 포함하는 정보객체의 세부정보를 설정한다. The
시각장애인은 전맹 시각장애인과 저시력 시각장애인으로 구분되고, 저시력 시각장애인은 전체 시각장애인 중 80% 정도를 차지한다. 저시력 시각장애인들은 전맹이 아니기 때문에, 시각을 통해 사물의 대략적인 윤곽과 객체 존재 여부를 인지 할 수 있다. 다만, 저시력 시각장애인들은 개인의 시력 특성에 따라 인지 가능한 시각화 객체의 종류가 다르다. 구체적으로, 색맹도 저시력 시각장애에 포함되고, 저시력 장애의 특성에 따라 조도에 의해 객체의 시각화 인식률이 달라지는 경우도 있다. 구체적으로, 조도가 높은 경우에만 시각화 객체를 인지 할 수 있는 시각장애인이 있는가 하면, 조도가 낮은 경우에만 시각화 객체를 인지 할 수 있는 시각장애인도 있다. Blind people are divided into blind and low-vision blind people, and low-vision blind people account for about 80% of the total blind people. Because low-vision blind people are not blind, they can recognize the rough outline of objects and the presence or absence of objects through sight. However, low-vision blind people have different types of recognizable visualization objects according to individual visual characteristics. Specifically, color blindness is also included in the low-vision visual impairment, and depending on the characteristics of the low-vision impairment, there are cases in which the visualization recognition rate of an object varies depending on the illuminance. Specifically, some visually impaired people can recognize a visualization object only when the illuminance is high, and there are also visually impaired people who can recognize a visualization object only when the illuminance is low.
설정모듈(100)은 전술한 바와 같이 자율주행 차량에 탑승한 시각장애인 각각의 시력특성을 파악하고, 시각 특성에 따라 시각장애인이 인지 가능한 시각화 객체의 종류를 설정한다. 예컨대, 실시예에 따른 시각화 객체 예를 나타낸 도 2에 도시된 바와 같이, 시각장애인이 모든 객체를 흑백으로만 인식 가능한 경우, 실시예에서는 자율주행 차량에서 생성하는 시각화 객체의 대비율을 매우 높게 설정하거나, 흑백 처리된 시각화 정보객체를 생성하여 탑승자에게 제공한다. 또한, 설정 모듈(100)은 출력되는 시각화 정보객체 및 청각적 정보객체의 크기, 색, 포맷 등을 탑승자의 시력특성을 포함하는 생체정보를 기반으로 설정한다. As described above, the
센서모듈(200)은 연료, 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지한다.The sensor module 200 senses vehicle state information including fuel and battery remaining amount, and self-diagnosis data of each autonomous vehicle operating system including the vehicle internal communication system and driving system, and includes RPM, speed, and speed change. Detect driving data.
저장관리모듈(300)은 센서모듈(200)에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지, 차량 상태 및 변환될 정보객체의 포맷을 저장한다. 실시예에 따른 시각화 정보 객체는 시각장애인의 시력특성에 따라 파악 가능한 시각화 객체로서 다양한 포맷으로 생성될 수 있다. 예컨대, 저시력 시각장애인이 인지 가능한 흑백과 경계선으로 구성된 제1정보객체, 시각장애인이 인지 가능한 색으로만 구성된 제2정보객체; 및 빛의 세기와 밝기를 영역별로 다르게 구성하는 제3정보객체; 등을 포함할 수 있다. 또한, 흰색, 회색, 검정색의 명도 차이로만 시각화하는 정보 객체 및 3차원 정보 객체도 포함될 수 있다. The
판단모듈(400)은 차량 상태정보, 자가진단데이터 및 주행데이터 중 시각화 정보 객체로 변환할 데이터와, 청각적 정보 객체로 변환할 데이터 및 시청각 정보 객체로 변환할 데이터를 분리한다. 예컨대, 판단모듈(400)은 주행정보나 차량 상태정보를 자율주행 차량 탑승자에게 쉽게 인식시키기 위해, 수집된 정보의 종류에 따른 최적 정보 객체 포맷을 판단한다. The
구체적으로, 판단모듈(400)은 차량 상태정보, 자가진단데이터 및 주행데이터 중 차량의 위험상태를 나타내는 위험상태 알림 정보는 시청각 데이터로 변환할 수 있다. 또한, 문 열림, 방향지시등 켜짐 등의 차량 상태 정보는 청각적 데이터로 전환되는 것이 사용자가 정보를 인식하기에 용이하고, 차량 주변에 존재하는 객체정보는 시각화 데이터로 전환하는 것이 사용자가 정보를 인식하는데 더욱 도움이 되므로, 판단모듈(400)은 차량으로부터 수집된 정보의 종류와 출력 포맷의 인지 용이성에 대한 연관관계를 기반으로 수집된 차량 정보의 변환 포맷을 판단할 수 있다. Specifically, the
정보객체 생성모듈(500)은 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 저시력 시각장애인이 인지 가능한 정보 객체로 변환하여 자율주행 시각화 정보를 생성한다. 또한, 실시예에서 정보객체 생성모듈(500)은 주행데이터를 포함하는 차량정보가 시청각 정보 객체 또는 청각적 정보객체로 변환하도록 판단되는 경우, 이에 대응하는 시청각 정보 객체 및 청각적 정보객체를 생성하여 출력한다. The information object generation module 500 generates autonomous driving visualization information by converting vehicle state information, vehicle self-diagnosis data, and driving data into information objects recognizable by the visually impaired with low vision. In addition, in an embodiment, the information object generation module 500 generates an audiovisual information object and an audio information object corresponding thereto when it is determined that vehicle information including driving data is converted into an audiovisual information object or an audiovisual information object. print out
도 3은 실시예에 따른 판단모듈(400)의 데이터 처리구성을 나타낸 도면이다.3 is a diagram showing the data processing configuration of the
도 3을 참조하면, 실시예에 따른 판단모듈(400)은 주행상황 분석부(410), 분류부(430) 및 시각화 정보객체 포맷 매칭부(450)를 포함하여 구성될 수 있다.Referring to FIG. 3 , the
주행상황 분석부(410)는 자율주행 차량의 위치 정보와 주변 객체 정보에 따라 주행상황을 분석한다. 예컨대, 주행상황 분석부(410)는 차량이 정체된 도로의 정체 정도와 차량 주변 장애물의 밀도, 개수 등을 파악할 수 있다.The driving
분류부(450)는 수집된 차량 상태정보와 주행정보 중 출력 해야 할 정보를 파악하고, 출력해야 할 정보 중 시각화할 데이터, 청각화할 데이터 및 시청각화할 데이터를 분류한다. 예컨대, 분류부(450)는 연료 및 배터리가 일정 수준 미만이 되거나, 차량 주변에 이동물체가 갑자기 나타난 경우 등의 위험상황 메시지는 시청각화할 데이터로 분류할 수 있고, 문 열림, 창문 열림 등의 차량 상태 정보는 청각화 해야 할 정보로 분류 할 수 있다. The classification unit 450 identifies information to be output among the collected vehicle state information and driving information, and classifies data to be visualized, data to be auralized, and data to be audiovised among the information to be output. For example, the classification unit 450 may classify a dangerous situation message such as when the fuel and battery are below a certain level or when a moving object suddenly appears around the vehicle as data to be audio-visualized, and the vehicle such as door open, window open, etc. State information can be classified as information to be auralized.
실시예에서 분류부(430)은 딥러닝을 통해 차량정보 출력 포맷 분류 이후, 시각화 또는 청각화된 정보가 출력되었을 때 사용자 반응 속도 및 인지 속도를 파악하여 차량에서 수집된 정보의 최적 출력 형태를 피드백 할 수 있다. 예컨대, 갑자기 차량주변으로 나타난 이동물체에 대한 출력정보를 시청각 정보객체로 제공한 경우, 차량 탑승자의 반응속도나 제어 속도가 더 빠른 것으로 산출되면, 차량 주변 객체에 대한 출력 정보는 시청각화 정보로 변환하여 출력하도록 피드백 할 수 있다. In an embodiment, the
시각화 정보객체 포맷 매칭부(450)는 분석된 주행상황과 차량 상태정보에 따라 시각화할 정보를 추출하고, 추출된 정보객체가 변환될 시각화 포맷을 파악한다. 예컨대, 시각화 정보객체 포맷 매칭부(430)는 차량에 탑승한 시각장애인의 시력 특성 정보를 고려하여 시각화 정보객체 포맷을 출력해야 하는 정보에 매칭한다. 구체적으로, 차량에 탑승한 시각장애인이 적록색맹인 경우, 흑백으로 구성된 시각화 정보객체 포맷을 매칭하고, 특정 시각장애인이 3차원 객체만 인지 가능한 경우, 시각화로 출력 해야 할 정보에 3차원 정보객체 포맷을 매칭한다. The visualization information object format matching unit 450 extracts information to be visualized according to the analyzed driving situation and vehicle state information, and identifies a visualization format into which the extracted information object is to be converted. For example, the visualization information object
도 4는 실시예에 따른 정보객체 생성모듈(500)의 데이터 처리 블록을 나타낸다.4 shows a data processing block of the information object generating module 500 according to an embodiment.
도 4를 참조하면, 실시예에 따른 시각화 정보객체 생성부(510)는 차량에 탑승한 시각 장애인의 시력특성에 따라 매칭된 시각화 정보객체 포맷에 따라 시각화 정보객체를 생성한다. 예컨대, 시각화 정보 객체 생성부(510)는 차량에 탑승한 저시력 시각장애인이 인지 가능한 시각화 객체로 차량에서 수집된 정보를 변환하여 출력한다. 실시예에서는 흑백 정보객체, 3차원 정보객체, 특정 색으로만 구성된 정보 객체 등의 다양한 포맷으로 시각화 정보객체를 생성할 수 있다. Referring to FIG. 4 , the visualization information object generation unit 510 according to the embodiment creates a visualization information object according to a format of a visualization information object matched according to the visual characteristics of a visually impaired person riding in a vehicle. For example, the visualization information object generating unit 510 converts the information collected from the vehicle into a visualization object recognizable by a low-vision blind person riding in the vehicle and outputs it. In an embodiment, a visualization information object may be created in various formats, such as a black-and-white information object, a three-dimensional information object, and an information object composed of only a specific color.
시청각 정보객체 생성부(520)는 차량에서 수집된 정보를 시청각 정보 객체로 변환하여 출력하도록 한다. 실시예에서 시청각 정보객체는 시각화된 출력정보와 청각화된 출력정보를 동시에 출력하거나, 두 정보를 시간차를 두고 출력하여 차량에 탑승한 사용자가 차량에서 수집된 정보를 더욱 직관적을 인지할 수 있도록 한다. 실시예에서 시청각 정보객체 생성부(250)는 청각장애인이 탑승한 경우에는 시각화 정보의 출력 비중을 높게 조정하고, 청력에 주로 의존하는 탑승객이 승차한 경우에는 청각화 정보의 출력 비중을 높게 조정하여 시청각 정보 객체를 생성하고 이를 출력할 수 있다. 또한, 시각화 정보객체와 청각화 정보 객체의 최적 출력 시점을 차량정보에 따라 다르게 산출하여 정보를 출력할 수 있다. The audiovisual information object generation unit 520 converts the information collected from the vehicle into an audiovisual information object and outputs it. In an embodiment, the audiovisual information object outputs the visualized output information and the auditory output information at the same time, or outputs the two information with a time difference so that the user in the vehicle can more intuitively recognize the information collected from the vehicle. . In an embodiment, the audiovisual information object generation unit 250 adjusts the output weight of the visualization information to a high level when the hearing impaired rides, and adjusts the output weight of the audiovisual information to a high level when the passenger, who is mainly dependent on hearing, rides. You can create an audiovisual information object and output it. In addition, the optimal output timing of the visualization information object and the auditory information object may be calculated differently according to vehicle information and information may be output.
이하에서는 방법에 대해서 차례로 설명한다. 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템의 작용(기능)은 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 방법의 기능과 본질적으로 같은 것이므로 도 1 내지 도 4와 중복되는 설명은 생략하도록 한다.Hereinafter, the method will be described in turn. The operation (function) of the deep learning-based autonomous driving vehicle visualization system for the visually impaired according to the embodiment is essentially the same as the function of the deep learning-based autonomous driving vehicle visualization method for the visually impaired, so the description overlaps with FIGS. 1 to 4 should be omitted.
도 5는 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템의 데이터 처리과정을 나타낸 도면이다.5 is a diagram illustrating a data processing process of a deep learning-based autonomous driving vehicle visualization system for the visually impaired according to an embodiment.
도 5를 참조하면, S510 단계에서는 설정모듈에서 자율주행 차량에 탑승한 저시력 시각장애인을 포함하는 시각장애인의 시력 특성을 파악하여, 시력 정보에 따라 자율주행 차량의 조도 및 색, 크기, 명암, 을 포함하는 정보객체의 세부정보를 설정한다.Referring to FIG. 5 , in step S510, the setting module identifies the visual characteristics of the visually impaired, including the low-vision blind, who ride the autonomous driving vehicle, and adjusts the illuminance, color, size, contrast, and brightness of the autonomous driving vehicle according to the vision information. Set detailed information of the included information object.
S520 단계에서는 센서모듈에서 연료, 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지한다.In step S520, the sensor module senses vehicle status information including fuel and battery remaining amount, and self-diagnosis data of each autonomous driving vehicle operation system including the vehicle internal communication system and driving system, and includes RPM, speed, and speed change. Detect driving data.
S530 단계에서는 데이터 저장관리모듈에서 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지 및 진단된 차량 상태 및 변환될 정보객체의 포맷을 저장한다. In step S530, the data storage management module collects and stores vehicle state information detected by the sensor module, self-diagnosis data of the vehicle, and driving data, and a message received from a communication object including an external server that communicates with the vehicle and the diagnosed vehicle It stores the state and format of the information object to be converted.
S540 단계에서는 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 저시력 시각장애인이 인지 가능한 정보 객체로 변환하여 자율주행 시각화 정보를 생성하고, S550 단계에서는 생성된 객체를 출력한다. In step S540, the autonomous driving visualization information is generated by converting the vehicle state information, vehicle self-diagnosis data, and driving data into an information object recognizable by the visually impaired with low vision, and in step S550, the generated object is output.
이상에서와 같은 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템은 저시력 시각장애인의 시력 특성에 따라 인지 가능한 시각화 객체로 차량에서 수집된 정보를 변환하여 제공함으로써, 저시력 시각장애인들도 자율주행 차량을 거부감 없이 이용할 수 있도록 한다. 또한, 차량주행정보를 정보의 종류에 따라 시각화 데이터와 청각화 데이터 또는 시청각 데이터로 분류하여 출력함으로써, 출력 정보를 차량 탑승자가 더욱 직관적이고 쉽게 인식할 수 있도록 하고, 탑승자의 반응속도에 따라 차량 상태정보의 최적 출력 형태를 파악하게 되어, 정보 출력 효율을 향상 시킬 수 있다. The deep learning-based autonomous vehicle visualization system for the blind as described above converts the information collected from the vehicle into a recognizable visualization object according to the visual characteristics of the low-vision blind person and provides it, so that even the low-vision visually impaired can use the autonomous driving vehicle. Make it available without hesitation. In addition, by classifying and outputting the vehicle driving information into visualization data, auditory data or audiovisual data according to the type of information, the output information is more intuitively and easily recognized by the vehicle occupant, and the vehicle state according to the occupant's reaction speed By understanding the optimal output form of information, information output efficiency can be improved.
아울러, 실시예에서는 시각화된 정보객체와 청각화된 정보객체를 모두 제공 가능하기 때문에, 시력이 약한 사용자 또는 청력이 약한 사용자가 자신이 주로 이용하는 출력정보의 형태를 설정하고 설정된 정보 형태로 출력되는 비중을 높여 청력이나 시력이 약한 노약자 등도 자율주행 차량을 적극적으로 이용할 수 있도록 한다. In addition, since it is possible to provide both a visualized information object and an auralized information object in the embodiment, a user with weak eyesight or a weak hearing sets the form of output information that he or she mainly uses and the proportion of output in the set information form This will allow the elderly and the weak with low hearing or vision to actively use autonomous vehicles.
개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시예에 한정되지 않는다.The disclosed content is merely an example, and can be variously changed and implemented by those of ordinary skill in the art without departing from the gist of the claims claimed in the claims, so the protection scope of the disclosed content is limited to the specific It is not limited to an Example.
Claims (10)
자율주행 차량에 탑승한 저시력 시각장애인의 시력 특성을 파악하여, 상기 시력특성정보에 따라 자율주행 차량의 조도 및 색, 크기, 명암을 포함하는 시각화 정보객체의 세부정보를 설정하는 설정모듈;
연료와 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지하는 센서모듈;
상기 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지 및 진단된 차량 상태 및 변환될 정보객체의 포맷을 저장하는 데이터 저장관리모듈; 및
차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 저시력 시각장애인이 인지 가능한 시각화 정보객체로 변환하여 자율주행 시각화 정보를 생성하는 정보객체 생성모듈; 을 포함하고,
상기 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템은
차량 상태정보, 자가진단데이터 및 주행데이터 중 시각화 정보 객체로 변환할 데이터와, 청각적 정보 객체로 변환할 데이터 및 시청각 정보 객체로 변환할 데이터를 분리하는 판단모듈을 더 포함하고,
상기 판단모듈은;
상기 시각화 정보객체와 청각적 정보객체 및 시청각 정보객체의 출력시점과 탑승자의 반응속도에 따라 차량에서 수집된 정보의 최적 출력 정보 객체 포맷을 설정하는 것을 특징으로 하는 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템.
In a deep learning-based autonomous vehicle visualization system for the visually impaired,
a setting module for identifying the visual characteristics of the low-vision blind person riding in the autonomous driving vehicle, and setting detailed information of the visualization information object including illuminance, color, size, and contrast of the autonomous driving vehicle according to the visual characteristic information;
A sensor that senses vehicle status information including fuel and battery remaining amount, self-diagnosis data of each autonomous vehicle operation system including vehicle internal communication system and driving system, and detects driving data including RPM, speed, and speed change amount module;
The vehicle status information detected by the sensor module, self-diagnosis data of the vehicle, and driving data are collected and stored, and messages received from a communication object including an external server that communicates with the vehicle and the diagnosed vehicle status and information object to be converted. a data storage management module for storing the format; and
an information object generating module that converts vehicle state information, vehicle self-diagnosis data, and driving data into a visualization information object recognizable by a low-vision blind person to generate autonomous driving visualization information; including,
The deep learning-based autonomous vehicle visualization system for the visually impaired is
Further comprising a determination module for separating data to be converted into a visualization information object from among vehicle state information, self-diagnosis data, and driving data, data to be converted into an auditory information object, and data to be converted into an audiovisual information object,
The determination module;
Deep learning-based autonomous driving for the visually impaired, characterized in that the optimal output information object format of the information collected from the vehicle is set according to the output timing of the visual information object, the auditory information object, and the audiovisual information object and the reaction speed of the occupant Vehicle visualization system.
상기 시각장애인의 시력특성에 따라 파악 가능한 시각화 객체로서, 흑백과 경계선으로 구성된 제1정보객체,
차량에 탑승한 시각장애인이 인지 가능한 색으로만 구성된 제2정보객체; 및
빛의 세기와 밝기를 영역별로 다르게 구성하는 제3정보객체; 를 포함하는 것을 특징으로 하는 시각장애인을 위한 딥러닝 기반 자율주행차량 시각화 시스템.
According to claim 1, wherein the visualization information object
As a visualization object that can be grasped according to the visual characteristics of the visually impaired, a first information object consisting of black and white and a boundary line;
a second information object composed only of colors perceptible to the visually impaired riding in the vehicle; and
a third information object configured to differently configure light intensity and brightness for each area; Deep learning-based autonomous vehicle visualization system for the visually impaired, characterized in that it comprises a.
차량 상태정보, 자가진단데이터 및 주행데이터 중 차량의 위험상태를 나타내는 위험상태 알림 정보는 시청각 데이터로 변환하는 것을 특징으로 하는 딥러닝 기반 자율주행차량 시각화 시스템.
The method of claim 1, further comprising: the determination module; silver
A deep learning-based autonomous vehicle visualization system, characterized in that the dangerous state notification information indicating the dangerous state of the vehicle among the vehicle state information, self-diagnosis data, and driving data is converted into audiovisual data.
차량 상태정보, 자가진단데이터 및 주행데이터 중 차량의 위험상태를 나타내는 위험상태 알림 정보를 자율주행 차량에 탑승한 시각장애인이 인지 가능한 시각화 정보객체와 위험상태 알림 정보를 소리로 알리는 청각적 정보객체를 포함하고, 상기 시청각 데이터에 포함되는 시각화 정보객체와 청각적 정보객체가 시간차를 두고 출력되거나 동시에 출력되는 것을 특징으로 하는 딥러닝 기반 자율주행차량 시각화 시스템.
The method of claim 4, wherein the audiovisual data is
Among the vehicle status information, self-diagnosis data, and driving data, there is a visualization information object that can recognize dangerous state notification information indicating the dangerous state of the vehicle, and an audible information object that notifies the dangerous state notification information by sound. A deep learning-based autonomous vehicle visualization system, characterized in that the visualization information object and the audio information object included in the audiovisual data are output with a time difference or output simultaneously.
설정모듈은 자율주행 차량에 탑승한 저시력 시각장애인의 시력 특성을 파악하여, 상기 시력특성정보에 따라 자율주행 차량의 조도 및 색, 크기, 명암을 포함하는 시각화 정보객체의 세부정보를 설정하는 제1단계;
센서모듈은 연료와 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지하는 제2단계;
데이터 저장관리모듈은 상기 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지 및 진단된 차량 상태 및 변환될 정보객체의 포맷을 저장하는 제3단계; 및
정보객체 생성모듈은 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 저시력 시각장애인이 인지 가능한 시각화 정보객체로 변환하여 자율주행 시각화 정보를 생성하는 제4단계; 을 포함하고,
상기 제4단계; 는
판단모듈에서 차량 상태정보, 자가진단데이터 및 주행데이터 중 시각화 정보 객체로 변환할 데이터와, 청각적 정보 객체로 변환할 데이터 및 시청각 정보 객체로 변환할 데이터를 분리하는 4-1 단계를 포함하고,
상기 제 4-1단계; 는
상기 시각화 정보객체와 청각적 정보객체 및 시청각 정보객체의 출력시점과 탑승자의 반응속도에 따라 차량에서 수집된 정보의 최적 출력 정보 객체 포맷을 설정하는 것을 특징으로 하는 정보 생성 방법.
In an information generation method of a deep learning-based autonomous vehicle visualization system for the visually impaired,
The setting module determines the visual characteristics of the low-vision blind person riding in the autonomous driving vehicle, and sets detailed information of the visualization information object including the illuminance, color, size, and contrast of the autonomous driving vehicle according to the visual characteristic information. step;
The sensor module senses vehicle status information including fuel and battery remaining amount and self-diagnosis data of each autonomous vehicle operation system including the vehicle internal communication system and driving system, and receives driving data including RPM, speed, and speed change. a second step of sensing;
The data storage management module collects and stores vehicle state information detected by the sensor module, self-diagnosis data of the vehicle, and driving data, and a message received from a communication object including an external server that communicates with the vehicle and the diagnosed vehicle state and a third step of storing the format of the information object to be converted; and
The information object generating module includes: a fourth step of converting vehicle state information, vehicle self-diagnosis data, and driving data into a visualization information object recognizable by a low-vision blind person to generate autonomous driving visualization information; including,
the fourth step; is
4-1 step of separating the data to be converted into a visualization information object from among the vehicle state information, self-diagnosis data, and driving data in the determination module, data to be converted into an auditory information object, and data to be converted into an audiovisual information object,
the step 4-1; is
An information generating method, characterized in that the optimal output information object format of the information collected from the vehicle is set according to the output timing of the visual information object, the auditory information object, and the audiovisual information object and the reaction speed of the occupant.
자율주행 차량 탑승자의 시력 특성 및 청력 특성에 따라 시청각 출력 데이터에 포함되는 시각화 데이터와 청각화 데이터의 비율을 조정하는 것을 특징으로 하는 정보 생성 방법.
The method of claim 6, wherein the step 4-1;
An information generating method, characterized in that the ratio of the visualization data and the auditory data included in the audiovisual output data is adjusted according to the visual characteristics and the hearing characteristics of the autonomous vehicle occupant.
생성된 시청각 정보 객체를 출력하는 경우, 수집된 차량정보의 종류와 주행정보에 따라 시각화 정보객체의 출력 시점과 청각적 정보객체의 출력 시점을 산출하는 것을 특징으로 하는 정보 생성 방법.
The method of claim 6, wherein the step 4-1; is
When outputting the generated audiovisual information object, the information generating method, characterized in that for calculating the output time of the visual information object and the output time of the auditory information object according to the type and driving information of the collected vehicle information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190158157A KR102270011B1 (en) | 2019-12-02 | 2019-12-02 | Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190158157A KR102270011B1 (en) | 2019-12-02 | 2019-12-02 | Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210068761A KR20210068761A (en) | 2021-06-10 |
KR102270011B1 true KR102270011B1 (en) | 2021-06-28 |
Family
ID=76378018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190158157A KR102270011B1 (en) | 2019-12-02 | 2019-12-02 | Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102270011B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11492005B1 (en) * | 2021-08-24 | 2022-11-08 | GM Global Technology Operations LLC | Systems and methods for communicating with vision and hearing impaired vehicle occupants |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019021306A (en) * | 2017-07-18 | 2019-02-07 | トヨタ自動車株式会社 | Augmented reality vehicle support for color blind person |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101800178B1 (en) * | 2016-04-20 | 2017-12-20 | 가천대학교 산학협력단 | Method, Device, and Computer-Readable Medium for Controlling Tactile Interface Device Interacting with User |
KR20180026243A (en) * | 2016-09-02 | 2018-03-12 | 엘지전자 주식회사 | Autonomous vehicle and control method thereof |
KR20180051977A (en) * | 2016-11-09 | 2018-05-17 | 엘지전자 주식회사 | User Interface Apparatus for vehicle and method |
KR102336017B1 (en) * | 2016-11-09 | 2021-12-07 | 한국전자통신연구원 | Interaction method between user and autonomous driving system in fully autonomous driving |
KR102056147B1 (en) | 2016-12-09 | 2019-12-17 | (주)엠아이테크 | Registration method of distance data and 3D scan data for autonomous vehicle and method thereof |
KR20190117419A (en) | 2019-09-27 | 2019-10-16 | 엘지전자 주식회사 | Method for providing contents of autonomous vehicle and apparatus for same |
-
2019
- 2019-12-02 KR KR1020190158157A patent/KR102270011B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019021306A (en) * | 2017-07-18 | 2019-02-07 | トヨタ自動車株式会社 | Augmented reality vehicle support for color blind person |
Also Published As
Publication number | Publication date |
---|---|
KR20210068761A (en) | 2021-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10365648B2 (en) | Methods of customizing self-driving motor vehicles | |
KR102368812B1 (en) | Method for vehicle driver assistance and Vehicle | |
CN108028015B (en) | Information processing apparatus, information processing method, and storage medium | |
EP3675121B1 (en) | Computer-implemented interaction with a user | |
EP3470276A1 (en) | Vehicle control device and vehicle comprising the same | |
US9650056B2 (en) | Method for controlling a driver assistance system | |
KR102227489B1 (en) | Apparatus and method for visualizing sound source | |
US20180307967A1 (en) | Detecting dangerous driving situations by parsing a scene graph of radar detections | |
KR20170016174A (en) | Driver assistance apparatus and control method for the same | |
US20170355379A1 (en) | Driving support device | |
EP4163157A1 (en) | Information transmission method implemented in vehicle and information transmission system for motorcycle | |
US20180348751A1 (en) | Partially Autonomous Vehicle Passenger Control in Difficult Scenario | |
JP6075577B2 (en) | Driving assistance device | |
JP2018151911A (en) | Driving state determination device, driving state determination method, and program for determining driving state | |
JP2017097846A (en) | Method and system for improving attention level of traffic participant | |
JP2021163345A (en) | Driving support device and data collection system | |
KR102270011B1 (en) | Deep learning-based autonomous vehicle visualize system for the visually impaired and method thereof | |
KR20190133358A (en) | Warning system for hearing-impaired person of vehicle and control method of the same | |
US11492005B1 (en) | Systems and methods for communicating with vision and hearing impaired vehicle occupants | |
US20230067615A1 (en) | Systems and methods for communicating with vision and hearing impaired vehicle occupants | |
WO2021241260A1 (en) | Information processing device, information processing method, information processing system, and program | |
KR102331882B1 (en) | Method and apparatus for controlling an vehicle based on voice recognition | |
KR101850857B1 (en) | Display Apparatus and Vehicle Having The Same | |
JP7116540B2 (en) | Driving advice device and driving advice method | |
JP7390329B2 (en) | Recognition index setting device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |