KR102260574B1 - Deep learning-based autonomous vehicle auditory system for the visually impaired and method thereof - Google Patents

Deep learning-based autonomous vehicle auditory system for the visually impaired and method thereof Download PDF

Info

Publication number
KR102260574B1
KR102260574B1 KR1020190142330A KR20190142330A KR102260574B1 KR 102260574 B1 KR102260574 B1 KR 102260574B1 KR 1020190142330 A KR1020190142330 A KR 1020190142330A KR 20190142330 A KR20190142330 A KR 20190142330A KR 102260574 B1 KR102260574 B1 KR 102260574B1
Authority
KR
South Korea
Prior art keywords
vehicle
data
information
driving
self
Prior art date
Application number
KR1020190142330A
Other languages
Korean (ko)
Other versions
KR20210056465A (en
Inventor
이병관
정이나
손수락
Original Assignee
가톨릭관동대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭관동대학교산학협력단 filed Critical 가톨릭관동대학교산학협력단
Priority to KR1020190142330A priority Critical patent/KR102260574B1/en
Publication of KR20210056465A publication Critical patent/KR20210056465A/en
Application granted granted Critical
Publication of KR102260574B1 publication Critical patent/KR102260574B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/02Registering or indicating driving, working, idle, or waiting time only
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control

Abstract

실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 청각화 시스템 및 방법은 시각장애인이 자율주행 차량을 이용할 수 있도록 하고, 일반 사용자들에게는 자율주행 차량 주행정보 및 상태정보를 청각 신호로도 직관적으로 인식할 수 있도록 하여 운전자에게 정보를 전달하는 속도, 정보 인식 속도 및 운전자 반응속도를 향상시킬 수 있도록 한다. 또한, 시각적 피로도 없이 자율주행 차량을 이용하고, 차량 상태정보를 청각 신호만으로 인식 할 수 있도록 한다. 종래 계기판(Cluster) 시스템의 실시간성을 해치지 않으면서 종래 계기판보다 다양한 정보를 탑승자에게 알릴 수 있다. 차량의 상태, 사고상황 등 시각적으로 확인해야 하는 상황을 청각화 하여 시각장애인에게 신속히 알림으로써, 시각장애인의 자율주행차량 접근성을 높인다. 종래 계기판은 운전 중 빠른 접근을 위해 설계되었으나, 실시예에서 제시하는 시스템은 완전 자율차량의 탑승객을 대상으로 설계되어 자율주행 차량 사용자 편의를 향상시킬 수 있다. The deep learning-based autonomous driving vehicle auditory system and method for the visually impaired according to the embodiment enable the visually impaired to use the autonomous driving vehicle, and intuitively provide the autonomous driving vehicle driving information and state information as an auditory signal to general users. to improve the speed of delivering information to the driver, information recognition speed, and driver reaction speed. In addition, the autonomous vehicle can be used without visual fatigue, and vehicle state information can be recognized only with an auditory signal. It is possible to inform the occupants of various information than the conventional instrument panel without compromising the real-time of the conventional cluster system. It enhances the accessibility of autonomous vehicles for the visually impaired by promptly alerting the visually impaired by visualizing situations that need to be confirmed visually, such as vehicle status and accident conditions. Although the conventional instrument panel is designed for quick access while driving, the system presented in the embodiment is designed for passengers of a fully autonomous vehicle, thereby improving user convenience of the autonomous vehicle.

Description

시각장애인을 위한 딥러닝 기반 자율주행차량 청각화 시스템 및 방법{DEEP LEARNING-BASED AUTONOMOUS VEHICLE AUDITORY SYSTEM FOR THE VISUALLY IMPAIRED AND METHOD THEREOF}DEEP LEARNING-BASED AUTONOMOUS VEHICLE AUDITORY SYSTEM FOR THE VISUALLY IMPAIRED AND METHOD THEREOF

자율주행 차량의 청각화 시스템 및 방법에 관한 것으로 구체적으로 시각장애인을 위해 자율주행 차량의 다양한 주행 정보를 청각 정보로 변환하여 제공하는 딥러닝(deep learning)기반 청각화 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for auralization of an autonomous driving vehicle, and more specifically, to a deep learning-based auditory system and method for converting various driving information of an autonomous driving vehicle into auditory information for the visually impaired.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the material described in this section is not prior art to the claims of this application, and inclusion in this section is not an admission that it is prior art.

구글, 테슬라, 벤츠 등 많은 글로벌기업들이 자율주행 차량의 연구 개발을 활발하게 진행하고 있다. 하지만, 구글은 자율주행 차량은 버스와 충돌 사고를 일으켰고, 테슬라의 자율주행차량은 자전거에 충돌하고, 화재 사고를 발생 시켰다. 자율주행 차량의 테스트 단계에서 사고가 발생하여 현재까지 자율주행 차량의 주행 안전성이 완벽하지 않은 상태이다. 특히 완전한 자율주행 차량의 탑승자는 직접 운전을 하지 않기 때문에, 차량 사고 전후의 상황을 인식하기 어렵고, 차량의 세부적인 상태정보도 인식하기 어려워 차량 점검을 소홀히 할 가능성도 있다. 자율주행 차량에서는 탑승자에게 차량 상태정보와 주행정보를 더욱 자세하고 자주 알려줘야 할 필요가 있다. 종래 자율주행 차량은 차량의 주행 정보, 세부 상태정보 및 자가진단 데이터를 대부분 시각 데이터로 전환하여 운전자에게 제공한다. Many global companies such as Google, Tesla, and Mercedes-Benz are actively conducting research and development of autonomous vehicles. However, Google's self-driving car crashed into a bus, Tesla's self-driving car crashed into a bicycle, and caused a fire. An accident occurred during the test stage of the autonomous vehicle, and thus far, the driving safety of the autonomous vehicle is not perfect. In particular, since the occupant of a fully autonomous vehicle does not drive directly, it is difficult to recognize the situation before and after a vehicle accident, and it is difficult to recognize detailed state information of the vehicle, so there is a possibility of neglecting vehicle inspection. In an autonomous vehicle, it is necessary to inform the occupants of vehicle status information and driving information in more detail and frequently. The conventional autonomous vehicle converts most driving information, detailed state information, and self-diagnosis data of the vehicle into visual data and provides it to the driver.

하지만, 차량에서 수집되는 모든 정보가 시각적 데이터로 변환되고 전송된다면, 시각적 정보 복잡도가 극대화 되어 데이터 식별에 문제가 발생할 수 있다. 또한, 시각장애인이 완전 자율주행 차량에 탑승할 경우 시각정보만 제공한다면, 직관적이고 정확한 차량 정보를 사용자가 인식할 수 없으므로 시각장애인들의 차량 이용에 제한을 주게 된다. 종래 자율주행 차량의 정보는 대부분 시각적 정보로 변환되어 제공되기 때문에, 시각장애인들은 자율 주행 차량이용을 활발히 할 수 없다. 또한, 일반 사용자들도 대부분의 차량 세부정보를 시각정보로 파악해야 하기 때문에, 주행 후 시각적 피로도가 상승하게 되는 문제가 있다. However, if all information collected from the vehicle is converted into visual data and transmitted, the complexity of visual information is maximized, which may cause problems in data identification. In addition, if only visual information is provided when a blind person rides a fully autonomous vehicle, the user cannot recognize intuitive and accurate vehicle information, thereby limiting the use of the vehicle by the visually impaired. Since most of the information of the conventional autonomous driving vehicle is converted into visual information and provided, the visually impaired cannot actively use the autonomous driving vehicle. In addition, there is a problem in that visual fatigue increases after driving because general users also need to understand most of the detailed vehicle information as visual information.

1. 한국 등록특허공보 제10-1933150호(2018.12.20)1. Korean Patent Publication No. 10-1933150 (2018.12.20) 2. 한국 등록특허공보 제10-1702612호(2017.01.26)2. Korean Patent Publication No. 10-1702612 (2017.01.26)

실시예에 따른 자율주행 차량의 청각화 시스템 및 방법은 차량의 센서 데이터와 자가진단 데이터를 차량 내부에 저장하고, 시각장애인으로부터 음성 명령 신호를 입력 받아 차량의 텍스트로 정보를 변환한 후 청각화 하여 시각장애인이 완전하게 자율주행 차량을 이용할 수 있도록 한다. The system and method for auralization of an autonomous vehicle according to an embodiment stores sensor data and self-diagnosis data of the vehicle inside the vehicle, receives a voice command signal from the visually impaired, converts the information into text of the vehicle, and then auralizes it. Make fully autonomous vehicles accessible to the visually impaired.

아울러, 차량의 주행정보 및 연료부족, 충전량 알림, 비상 상황 등의 차량 상태 정보를 청각적 신호로 변환하여 자율주행 차량에 탑승한 사용자가 차량 주행 정보 및 상태정보를 청각 신호를 통해 직관적으로 인식 할 수 있도록 한다. In addition, by converting vehicle driving information and vehicle status information such as fuel shortage, charging amount notification, and emergency situations into audible signals, users in autonomous vehicles can intuitively recognize vehicle driving information and status information through auditory signals. make it possible

실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 청각화 시스템은 연료, 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지하는 센서모듈; 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지 및 진단된 차량 상태를 저장하는 데이터 저장관리모듈; 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 텍스트로 변환하여 자율주행 시각화 정보를 생성하는 제 1변환모듈; 및 제 1변환모듈에서 생성된 자율주행 시각화 정보를 음성정보로 변환하여 자율주행 청각화 정보를 생성하는 제 2변환모듈; 을 포함한다.The deep learning-based autonomous driving vehicle auditory system for the visually impaired according to the embodiment collects vehicle status information including fuel and battery remaining amount, and self-diagnosis data of each autonomous driving vehicle operation system including the vehicle internal communication system and driving system. a sensor module for sensing and detecting driving data including RPM, speed, and speed change amount; A data storage management module that collects and stores vehicle status information detected by the sensor module, self-diagnosis data of the vehicle, and driving data, and stores a message received from a communication object including an external server that communicates with the vehicle and the diagnosed vehicle status ; a first conversion module that converts vehicle state information, vehicle self-diagnosis data, and driving data into text to generate autonomous driving visualization information; and a second conversion module that converts the autonomous driving visualization information generated in the first conversion module into voice information to generate autonomous driving audio information; includes

다른 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 청각화 시스템의 청각정보 생성방법은 센서모듈은 연료, 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 차량의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지하는 제 1단계; 데이터저장관리모듈은 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버로부터 수신한 메시지 및 진단된 차량 상태를 저장하는 제2단계; 제1변환모듈은 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 텍스트로 변환하여 자율주행 시각화 정보를 생성하는 제3단계; 및 제2변환모듈은 제1변환모듈에서 생성된 자율주행 시각화 정보를 음성정보로 변환하여 자율주행 청각화 정보를 생성하는 제4단계; 를 포함한다.In the method for generating auditory information of a deep learning-based autonomous driving vehicle auditory system for the visually impaired according to another embodiment, the sensor module includes vehicle state information including fuel and battery remaining amount, and vehicle internal communication system and vehicle including a driving system. A first step of sensing self-diagnosis data and sensing driving data including RPM, speed, and speed change amount; The data storage management module includes: a second step of collecting and storing vehicle state information detected by the sensor module, self-diagnosis data of the vehicle, and driving data, and storing a message received from an external server communicating with the vehicle and the diagnosed vehicle state; The first conversion module includes: a third step of converting vehicle state information, vehicle self-diagnosis data, and driving data into text to generate autonomous driving visualization information; And the second conversion module converts the autonomous driving visualization information generated in the first conversion module into voice information a fourth step of generating autonomous driving audio information; includes

실시예에 따른, 시각장애인을 위한 딥러닝 기반 자율주행차량 청각화 시스템 및 방법은 시각장애인이 자율주행 차량을 이용할 수 있도록 하고, 일반 사용자들에게는 자율주행 차량 주행정보 및 상태정보를 청각 신호로도 직관적으로 인식할 수 있도록 하여 운전자에게 정보를 전달하는 속도, 정보 인식 속도 및 운전자 반응속도를 향상시킬 수 있도록 한다. 또한, 시각적 피로도 없이 자율주행 차량을 이용하고, 차량 상태정보를 청각 신호만으로 인식 할 수 있도록 한다.The deep learning-based autonomous driving vehicle auditory system and method for the visually impaired according to the embodiment enable the visually impaired to use the autonomous driving vehicle, and provide the autonomous driving vehicle driving information and state information as an auditory signal to general users. By enabling intuitive recognition, the speed of delivering information to the driver, information recognition speed, and driver reaction speed can be improved. In addition, it is possible to use an autonomous vehicle without visual fatigue and to recognize vehicle state information only with an auditory signal.

종래 계기판(Cluster) 시스템의 실시간성을 해치지 않으면서 종래 계기판보다 다양한 정보를 탑승자에게 알릴 수 있다. 차량의 상태, 사고상황 등 시각적으로 확인해야 하는 상황을 청각화 하여 시각장애인에게 신속히 알림으로써, 시각장애인의 자율주행차량 접근성을 높인다. 종래 계기판은 운전 중 빠른 접근을 위해 설계되었으나, 실시예에서 제시하는 시스템은 완전 자율차량의 탑승객을 대상으로 설계되어 자율주행 차량 사용자 편의를 향상시킬 수 있다. It is possible to inform the occupants of various information than the conventional instrument panel without compromising the real-time of the conventional cluster system. It enhances the accessibility of autonomous vehicles for the visually impaired by promptly alerting the visually impaired by visualizing situations that need to be checked visually, such as vehicle status and accident situations. Although the conventional instrument panel is designed for quick access while driving, the system presented in the embodiment is designed for passengers of a fully autonomous vehicle, thereby improving user convenience of an autonomous vehicle.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.It should be understood that the effects of the present invention are not limited to the above-described effects, and include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 청각화 시스템을 나타낸 도면
도 2a는 실시예에 따른 데이터 저장관리모듈의 구성을 나타낸 도면
도 2b는 데이터 저장관리모듈에서의 데이터 처리 흐름을 설명하기 위한 도면
도 3a는 실시예에 따른 제1변환모듈의 데이터 처리 구성을 나타낸 도면
도 3b는 실시예에 따른 제1변환모듈에서 이용하는 HMM(hidden Markov Model)구성도를 나타낸 도면
도 4a는 실시예에 따른 제2변환모듈(TWM, Text to Wave Module400)을 나타낸 도면
도 4b는 실시예에 따른 청각화 정보 생성을 위한 제2변환모듈의 데이터 처리 흐름을 나타낸 도면
도 5는 실시예에 따른 자율주행 차량 청각화 시스템의 데이터 처리흐름을 나타낸 도면
1 is a view showing a deep learning-based self-driving vehicle auditory system for the visually impaired according to an embodiment;
2A is a diagram showing the configuration of a data storage management module according to an embodiment;
2B is a diagram for explaining a data processing flow in the data storage management module;
Figure 3a is a view showing the data processing configuration of the first conversion module according to the embodiment
Figure 3b is a diagram showing a configuration diagram of HMM (hidden Markov Model) used in the first conversion module according to the embodiment;
Figure 4a is a view showing a second conversion module (TWM, Text to Wave Module400) according to the embodiment
Figure 4b is a view showing a data processing flow of the second conversion module for generating auditory information according to an embodiment;
5 is a diagram illustrating a data processing flow of an autonomous driving vehicle auditory system according to an embodiment;

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.

도 1은 실시예에 따른 시각장애인을 위한 딥러닝 기반 자율주행차량 청각화 시스템을 나타낸 도면이다.1 is a diagram illustrating a deep learning-based self-driving vehicle auditory system for the visually impaired according to an embodiment.

도 1을 참조하면, 실시예에 따른 자율주행차량 청각화 시스템은 센서모듈(100), 데이터저장관리모듈(200), 제1변환모듈(300) 및 제2변환모듈(400)을 포함하여 구성될 수 있다. 본 명세서에서 사용되는 '모듈' 이라는 용어는 용어가 사용된 문맥에 따라서, 소프트웨어, 하드웨어 또는 그 조합을 포함할 수 있는 것으로 해석되어야 한다. 예를 들어, 소프트웨어는 기계어, 펌웨어(firmware), 임베디드코드(embedded code), 및 애플리케이션 소프트웨어일 수 있다. 또 다른 예로, 하드웨어는 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어, 센서, 멤스(MEMS; Micro-Electro-Mechanical System), 수동 디바이스, 또는 그 조합일 수 있다.Referring to FIG. 1 , the autonomous driving vehicle auditory system according to the embodiment is configured to include a sensor module 100 , a data storage management module 200 , a first conversion module 300 and a second conversion module 400 . can be As used herein, the term 'module' should be construed to include software, hardware, or a combination thereof, depending on the context in which the term is used. For example, the software may be machine language, firmware, embedded code, and application software. As another example, the hardware may be a circuit, a processor, a computer, an integrated circuit, an integrated circuit core, a sensor, a Micro-Electro-Mechanical System (MEMS), a passive device, or a combination thereof.

센서모듈 (Sensor Module, 100)은 차량의 상태정보 및 주행데이터를 감지한다. 실시예에서 차량 상태정보에는 배터리, 워셔액 잔량, 창문, 도어 오픈 상태 등 차량의 안전 주행을 위해 탑승자가 인지해야 하는 차량상태정보이다. 차량의 자가 진단 데이터는 차량 내부에 설치된 CAN 통신 시스템, 휠, 브레이크, 모터, 배터리, 액셀 제어 장치를 포함하는 주행 시스템 및 차량 정보를 표시하는 클러스터 시스템 등 차량 주행 및 구동을 위해 설치된 하드웨어와 소프트웨어 시스템의 이상 여부를 진단한 데이터이다. The sensor module (Sensor Module, 100) detects vehicle state information and driving data. In the embodiment, the vehicle state information includes vehicle state information that a passenger should recognize for safe driving of the vehicle, such as a battery, a remaining amount of washer fluid, a window, and a door open state. The self-diagnosis data of the vehicle is a hardware and software system installed for driving and driving the vehicle, such as a CAN communication system installed inside the vehicle, a driving system including wheels, brakes, motors, batteries, and accelerator control devices, and a cluster system that displays vehicle information. It is the data that diagnoses the abnormality of

주행데이터는 차량의 주행정보를 나타내는 데이터로서, RMP, 기어상태, 이동방향, 속도변화량 등을 포함할 수 있다. The driving data is data representing driving information of the vehicle, and may include RMP, gear state, moving direction, speed change, and the like.

데이터 저장관리 모듈(DCMM, Data Collection and Management Module, 200)은 차량에서 수집되는 모든 센서 데이터, 자가진단 데이터와 그래픽 라이브러리를 차량 내부 공간에 저장하고 관리한다. 예컨대, 데이터 저장관리 모듈(200)은 센서모듈(100)에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버로부터 수신한 메시지 및 진단된 차량 상태를 저장한다.The data storage and management module (DCMM, Data Collection and Management Module, 200) stores and manages all sensor data, self-diagnosis data, and graphic library collected from the vehicle in the interior space of the vehicle. For example, the data storage management module 200 collects and stores vehicle state information detected by the sensor module 100, self-diagnosis data of the vehicle, and driving data, and a message received from an external server communicating with the vehicle and the diagnosed vehicle save the state

제1변환모듈(STM, Speech to Text module, 300)은 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 텍스트로 변환하여 자율주행 시각화 정보를 생성한다. 또한, 실시예에서 제 1 변환모듈(300)은 사용자가 음성신호를 입력하는 경우, 사용자의 음성신호를 텍스트 신호로 변환하여 차량 제어 신호로 이용할 수 있도록 한다. 또한, 제1변환모듈(300)은 차량의 진단 정보 및 제어 신호 등 사용자 제어 또는 자동 제어에 따른 차량 데이터를 시각화 하고, 출력해야 할 정보의 시각적 라이브러리를 추출하고, 차량의 디스플레이에 맞게 적응적으로 배치하여 차량의 상태를 알릴 수 있다. The first conversion module (STM, Speech to Text module, 300) converts vehicle state information, vehicle self-diagnosis data, and driving data into text to generate autonomous driving visualization information. In addition, in the embodiment, when the user inputs a voice signal, the first conversion module 300 converts the user's voice signal into a text signal to be used as a vehicle control signal. In addition, the first conversion module 300 visualizes vehicle data according to user control or automatic control such as diagnostic information and control signals of the vehicle, extracts a visual library of information to be output, and adaptively suits the display of the vehicle. It can be placed to inform the status of the vehicle.

제2변환모듈(TWM, Text to wave Module, 400)은 제1변환모듈(300)에서 생성된 자율주행 시각화 정보를 음성정보로 변환하여 자율주행 청각화 정보를 생성한다. 실시예에서 제2변환모듈(400)은 차량 상태정보, 자가진단데이터 및 주행데이터 중 차량의 위험상태를 나타내는 위험상태 알림 정보를 추출하고, 추출된 위험상태 알림 정보를 음성정보로 변환하여 자율주행 청각화 정보를 생성한다. 실시예에서 위험상태 알림 정보에는 차량 근방의 위험객체 존재여부, 제한속도유지여부, 교통상황 등 사고 예방을 위해 센싱된 차량 주변 환경 및 객체데이터와 차량의 주행상태 정보가 포함될 수 있다. 또한, 제2 변환모듈(400)은 시각장애인을 포함하는 사용자의 음성 데이터를 입력 받아 차량의 상태정보를 음성 또는 청각 신호로 출력할 수 있도록 한다. The second conversion module (TWM, Text to wave Module, 400) converts the autonomous driving visualization information generated by the first conversion module 300 into voice information to generate autonomous driving audio information. In an embodiment, the second conversion module 400 extracts dangerous state notification information indicating a dangerous state of the vehicle from among vehicle state information, self-diagnosis data, and driving data, and converts the extracted dangerous state notification information into voice information for autonomous driving Generates auditory information. In an embodiment, the dangerous state notification information may include information about the vehicle's surrounding environment and object data and driving state information sensed to prevent accidents, such as whether a dangerous object exists near the vehicle, whether a speed limit is maintained, and a traffic situation. In addition, the second conversion module 400 receives the user's voice data including the visually impaired to output the vehicle's state information as a voice or an auditory signal.

도 2a는 실시예에 따른 데이터 저장관리모듈의 구성을 나타낸 도면이고, 도 2b는 데이터 저장관리모듈에서의 데이터 처리 흐름을 설명하기 위한 도면 이다.2A is a diagram showing the configuration of a data storage management module according to an embodiment, and FIG. 2B is a diagram for explaining a data processing flow in the data storage management module.

도 2a를 참조하면, 실시예에 따른 데이터저장관리모듈(200)은 센서 데이터 저장부(210), 데이터 시각화 라이브러리(230) 및 웨이브 포맷 라이브러리(250)을 포함하여 구성될 수 있다. Referring to FIG. 2A , the data storage management module 200 according to the embodiment may include a sensor data storage unit 210 , a data visualization library 230 , and a wave format library 250 .

저장부(210)는 차량에서 수집하는 차량상태정보, 차량 자가진단 데이터, 주행데이터 및 다른 통신객체에서 차량으로 전송된 메시지 정보를 저장한다. 데이터 시각화 라이브러리(230)는 저장된 정보를 시각화 하기 위한 그래픽, 이미지, 텍스트를 저장한다. 웨이브 포멧 라이브러리(230)는 차량에서 수집하는 차량상태정보, 차량 자가진단 데이터, 주행데이터 및 텍스트 정보를 청각화 하는 웨이브 포멧을 저장한다.The storage unit 210 stores vehicle state information collected from the vehicle, vehicle self-diagnosis data, driving data, and message information transmitted from other communication objects to the vehicle. The data visualization library 230 stores graphics, images, and texts for visualizing the stored information. The wave format library 230 stores a wave format that auralizes vehicle state information, vehicle self-diagnosis data, driving data, and text information collected from the vehicle.

도 2b를 참조하여 실시예에 따른 데이터저장관리모듈(200)의 기능에 대해 보다 자세히 설명한다. 실시예에 따른 데이터저장관리모듈(200)은 차량 내부의 센서 메시지를 수신하는 수신기를 더 포함할 수 있고, 센서데이터 저장부(210)는 수신된 메시지들을 저장한다. 수신기는 CAN 통신에 의한 메시지를 수신하고, MOST 메시지, FLEXRAY 메시지, LIN 메시지 등을 수신한다. 실시예에서 수신기로 수신된 각각의 메시지들은 테이블 형식으로 저장부에 저장된다. 수신기는 센서 데이터 메시지 종류에 따라 데이터를 다르게 변환하여 센서데이터 저장부에 분류하여 저장할 수 있다. 실시예에서 데이터저장관리 모듈은 청각화할 데이터 또는 시각화할 데이터를 입력 받는 경우, 센서 데이터 저장부, 데이터 시각화 라이브러리 또는 웨이브 포멧 라이브러리에서 청각화 또는 시각화를 수행할 데이터를 추출하여 제1변환모듈(300) 또는 제2변환모듈(400)로 전송할 수 있다. The function of the data storage management module 200 according to the embodiment will be described in more detail with reference to FIG. 2B . The data storage management module 200 according to the embodiment may further include a receiver for receiving sensor messages inside the vehicle, and the sensor data storage unit 210 stores the received messages. The receiver receives a message by CAN communication, and receives a MOST message, a FLEXRAY message, a LIN message, and the like. In an embodiment, each message received by the receiver is stored in a storage unit in a table format. The receiver may convert data differently according to the type of the sensor data message, classify it in the sensor data storage unit, and store it. In the embodiment, when the data storage management module receives the data to be auralized or the data to be visualized, the first conversion module 300 ) or it can be transmitted to the second conversion module 400 .

또한, 실시예에 따른 데이터 저장관리 모듈(200)은 차량의 자가진단 시스템을 이용하여 진단된 차량의 상태를 저장하고, 저장된 차량 상태 정보를 제1변환모듈 또는 제2변환모듈로 전달하여 차량의 자가진단결과가 시각화 또는 청각화 되도록 한다. In addition, the data storage management module 200 according to the embodiment stores the state of the vehicle diagnosed by using the self-diagnosis system of the vehicle, and transmits the stored vehicle state information to the first conversion module or the second conversion module to Make sure that the self-diagnosis results are visualized or auralized.

도 3a는 실시예에 따른 제1변환모듈의 데이터 처리 구성을 나타낸 도면이고 도 3b는 실시예에 따른 제1변환모듈에서 이용하는 HMM(hidden Markov Model)구성도를 나타낸 도면이다.Figure 3a is a diagram showing the data processing configuration of the first transformation module according to the embodiment, Figure 3b is a diagram showing the configuration diagram of the HMM (hidden Markov Model) used in the first transformation module according to the embodiment.

도 3a를 참조하면, 실시예에 따른 제1변환모듈(300)은 학습부(310), 연산부(330) 및 변환부(350)를 포함하여 구성될 수 있다. 실시예에서 제1변환모듈(300)은 다양한 정보와 데이터를 시각화 하거나 텍스트로 변환한다.Referring to FIG. 3A , the first conversion module 300 according to the embodiment may include a learning unit 310 , an operation unit 330 , and a conversion unit 350 . In an embodiment, the first conversion module 300 visualizes various information and data or converts them into text.

학습부(310)는 차량에서 센싱된 차량상태정보, 차량 자가진단 데이터 및 주행데이터에 따라 나타나는 차량 상태를 딥러닝을 통해 학습한다. 실시예에 따른 학습부(310)는 점대점 학습 방식과 NVIDIA DRIVER PX2를 사용하여 클라우드 독립적으로 HMM(Hidden Markov Model)을 학습 시키고, 차량의 마이크에서 음성을 입력 받아 음성신호에 상응하는 결과기 출력되도록 한다. 이를 위해 차량 내부의 SSD (Solid State Drive)는 학습부(310)로 학습 데이터를 전송한다.The learning unit 310 learns the vehicle state displayed according to the vehicle state information sensed by the vehicle, the vehicle self-diagnosis data, and the driving data through deep learning. The learning unit 310 according to the embodiment learns the HMM (Hidden Markov Model) independently of the cloud using the point-to-point learning method and NVIDIA DRIVER PX2, receives the voice from the vehicle's microphone, and outputs a result corresponding to the voice signal make it possible To this end, a solid state drive (SSD) inside the vehicle transmits learning data to the learning unit 310 .

연산부(330)는 차량에서 센싱된 차량상태정보, 차량 자가진단 데이터 및 주행데이터를 산출하여 산출 결과에 따라 차량 상태 각각에 대한 확률을 연산한다. 예컨대, 연산부(330)는 시각화할 데이터 및 음성을 짧은 단어 단위로 인식하므로, 마코브 체인을 이용해 입력과 출력이 주어진 상태에서 결과값을 산출할 수 있다. 실시예에서는 사용자의 입력값 만으로 결과값을 산출해야 하므로, HMM은 결과값이 은닉되었다고 가정하고 마코프 체인을 사용하여 확률 연산을 수행한다. 일반적으로 HMM은 도 3b와 같은 그래프의 형태로 나타난다. 표 1에서 HMM의 구성요소와 의미를 설명한다.The calculating unit 330 calculates vehicle state information, vehicle self-diagnosis data, and driving data sensed by the vehicle, and calculates a probability for each vehicle state according to the calculation result. For example, since the operation unit 330 recognizes data and voice to be visualized in units of short words, it is possible to calculate a result value in a state in which an input and an output are given using the Markov chain. In the embodiment, since the result should be calculated only from the user's input value, the HMM assumes that the result is hidden and performs a probability operation using the Markov chain. In general, the HMM appears in the form of a graph as shown in FIG. 3B. Table 1 describes the components and meanings of the HMM.

HMM 의 구성요소Components of HMM 집합명collective name 집합내용Set contents 의미meaning
Q

Q

{q1, q2 , q3…. qN}

{q 1 , q 2 , q 3 … . q N }

은닉된 상태(state)들의 집합

set of hidden states

Y

Y

{y1 ,y2 ……… yM}

{y 1 , y 2 … … … y M }

은닉된 상태에서 발생할 수 있는 관측 들의 모임

A collection of observations that can occur in a hidden state

Figure 112019114694593-pat00001


Figure 112019114694593-pat00001


{
Figure 112019114694593-pat00002
,
Figure 112019114694593-pat00003
……..
Figure 112019114694593-pat00004
| RN }

{
Figure 112019114694593-pat00002
,
Figure 112019114694593-pat00003
… … ..
Figure 112019114694593-pat00004
| R N }

초기 상태가 qi일 확률을 나타내는 초기 확률p(qi)들의 집합

A set of initial probabilities p(qi) representing the probability that the initial state is qi

T

T

{T12,T21………TNM,TMN| RNxN

{T 12 , T 21 … … … T NM, T MN | R NxN

qi 에서 qj 로 이동할 확률을 나타내는 전이확률 p(qiqj)들의 집합

A set of transition probabilities p(qiqj) representing the probability of moving from qi to qj

E

E

{E11,E12 ….. ENM| RNxM }

{E 11 , E 12 … .. E NM | R NxM }

qi에서 yj가 발생할 확률을 나타내는 emission probability

emission probability representing the probability that yj occurs in qi

Figure 112019114694593-pat00005


Figure 112019114694593-pat00005


{
Figure 112019114694593-pat00006
, T ,E}

{
Figure 112019114694593-pat00006
, T ,E}

HMM 의 파라미터

HMM parameters

실시예에서 연산부(330)는 HMM의

Figure 112019114694593-pat00007
가 주어졌을 때 다이나믹 프로그래밍(dynamic programming) 기반의 포워드 알고리즘(forward algorithm)을 사용하여 주어진 관측 값이 나타난 확률을 계산하고 알고리즘(예컨대, Viterbi algorithm)을 이용하여 그 확률이 가장 높은 상태의 나열을 획득한다. 상태의 나열이 계산되면 학습부는 이용한 알고리즘(Viterbi algorithm)을 산출하고 바움 웰치 알고리즘(Baum-Welch algorithm)과 학습데이터를 이용하여 HMM의
Figure 112019114694593-pat00008
를 학습 시킨다. 즉, 연산부는 초기
Figure 112019114694593-pat00009
를 지정하여 관측 값들이 나타날 확률과 상태나열을 계산하고 학습부는 산출된 상태나열 값을 기반으로 HMM을 학습한다. In the embodiment, the operation unit 330 is the HMM
Figure 112019114694593-pat00007
Given a dynamic programming-based forward algorithm, calculate the probability that a given observation value appears, and use the algorithm (e.g., Viterbi algorithm) to obtain a list of states with the highest probability do. When the list of states is calculated, the learning unit calculates the algorithm used (Viterbi algorithm), and uses the Baum-Welch algorithm and learning data to
Figure 112019114694593-pat00008
to learn That is, the arithmetic unit is initially
Figure 112019114694593-pat00009
By designating , it calculates the probability that the observed values appear and the state sequence, and the learning unit learns the HMM based on the calculated state sequence value.

변환부(350)는 연산된 확률 중 가장 높은 확률을 나타내는 차량 상태를 텍스트 정보로 변환한다.The conversion unit 350 converts the vehicle state representing the highest probability among the calculated probabilities into text information.

도 4a는 실시예에 따른 제2변환모듈(TWM, Text to Wave Module400)을 나타낸 도면이고 도 4b는 실시예에 따른 청각화 정보 생성을 위한 제2변환모듈의 데이터 처리 흐름을 나타낸 도면이다.Figure 4a is a view showing a second conversion module (TWM, Text to Wave Module 400) according to the embodiment, Figure 4b is a view showing the data processing flow of the second conversion module for generating auditory information according to the embodiment.

도 4a를 참조하면, 실시예에 따른 제2변환모듈(400)은 데이터입력부(410), 추출부(430), 판단부(450) 및 변환부(470)를 포함하여 구성될 수 있다. 데이터 입력부(410)는 차량 상태 정보, 차량 자가진단 데이터, 주행데이터 및 변환된 텍스트를 입력 받는다. 추출부(430)는 입력된 데이터 중 웨이브 폼으로 변환할 중요 데이터 및 텍스트 특징을 추출한다. 판단부(450)는 추출된 중요 데이터에서 부분별 중요도 및 복잡도를 판단한다. 변환부(470)는 판단 결과에 따라 입력된 텍스트와 차량상태정보, 차량 자가진단 데이터, 주행데이터를 청각신호로 변환한다.Referring to FIG. 4A , the second conversion module 400 according to the embodiment may include a data input unit 410 , an extraction unit 430 , a determination unit 450 , and a conversion unit 470 . The data input unit 410 receives vehicle state information, vehicle self-diagnosis data, driving data, and converted text. The extraction unit 430 extracts important data and text features to be converted into a waveform from among the input data. The determination unit 450 determines the importance and complexity of each part from the extracted important data. The conversion unit 470 converts the input text, vehicle state information, vehicle self-diagnosis data, and driving data into an auditory signal according to the determination result.

도 4b를 참조하면, 실시예에 따른 제2변환모듈(TWM, Text to Wave Module 400)은 음성으로 입력 받은 데이터 및 제 1변환모듈(STM, Speech to Text module 300)으로 입력된 데이터를 청각화 한다. 실시예에서 제 2변환모듈은 특정 변환 알고리즘(예컨대, 구글 Tacotron 2)를 사용하여 TTS(Text to Speech)를 수행함으로써, 텍스트를 청각화 한다. 제 2 변환모듈에서 이용되는 Tacotron 2는 RNN 인코더-디코더 모델을 기반으로 동작하기 때문에, 실시예에서는 스피치 데이터베이스를 이용하여 Tacotron 2를 학습 시키고, 차량의 센서 데이터 상태를 정확하게 음성으로 출력하는지 실험한다.Referring to Figure 4b, the second conversion module (TWM, Text to Wave Module 400) according to the embodiment is the audio input data and the first conversion module (STM, Speech to Text module 300) of data input by voice do. In an embodiment, the second conversion module auralizes text by performing TTS (Text to Speech) using a specific conversion algorithm (eg, Google Tacotron 2). Since Tacotron 2 used in the second conversion module operates based on the RNN encoder-decoder model, in the embodiment, Tacotron 2 is learned using a speech database, and the sensor data state of the vehicle is accurately output as voice.

실시예에 따른 제2 변환모듈(TWM, 400)은 문장을 입력 받아 단어 단위로 구분하여 구분된 단위를 인코더(encoder)에 입력한다. 단어 단위의 벡터가 인코더에 입력하면 변환 알고리즘의 프리-넷(pre-net)은 단어를 인코딩(one hot encoding)한다. 이때, 수행되는 인코딩(one hot encoding)은 인코더가 인식하기 쉽게 텍스트 벡터를 0과 1의 배열로 변환하는 과정이다. 프리-넷이 텍스트 벡터를 인코딩(one hot encoding)하면, 제2변환모듈(TWM, 400)은 인코딩 결과를 변환알고리즘(예컨대, Tacontron)의 CBHG네트워크로 전송한다. CBHG는 컨볼루션 뱅크(convolution bank), 하이웨이 넷(highway net)과 양방향 게이트 순환 유닛 (Bidirectional GRU, Gated Recurrent Unit)으로 구성된 신경망 모델이다. 컨볼루션 뱅크는 텍스트의 특징을 추출하고, 하이웨이 넷은 신경망 모델을 깊게 생성하고, 양방향 게이트 순환 유닛은 프리-넷 처리된 벡터의 이전, 이후 정보를 고려하여 텍스트 임베딩(Text Embedding)을 생성한다. 생성된 텍스트 임베딩(embedding)은 주의 모델(Attention Model)로 전송된다. 주의 모델은 주의 RNN을 사용하여 전송된 텍스트 임베딩에서 어떤 부분이 더 복잡하고 어떤 부분이 더 중요한지 판단한다. 이 주의 모델은 Tacotron 을 종단간(end to end) 학습할 수 있게 하고, 학습되지 않은 텍스트 벡터를 스피치로 변환한다. The second transformation module (TWM, 400) according to the embodiment receives a sentence, divides it into word units, and inputs the divided units to an encoder. When a vector of word units is input to the encoder, the pre-net of the transformation algorithm one hot encodes the word. At this time, the performed encoding (one hot encoding) is a process of converting a text vector into an array of 0 and 1 for easy recognition by the encoder. When the pre-net encodes the text vector (one hot encoding), the second transformation module (TWM, 400) transmits the encoding result to the CBHG network of the transformation algorithm (eg, Tacontron). CBHG is a neural network model consisting of a convolution bank, a highway net, and a bidirectional GRU (Gated Recurrent Unit). The convolution bank extracts text features, the highway net creates a deep neural network model, and the bidirectional gate circulation unit creates text embeddings by considering the pre-netted vector before and after information. The generated text embedding is sent to the Attention Model. The attention model uses the attention RNN to determine which parts are more complex and which parts are more important in the transmitted text embedding. This week's model allows the Tacotron to be trained end-to-end, transforming the untrained text vector into speech.

이하에서는 자율주행차량 청각화 방법에 대해서 차례로 설명한다. 실시예에 따른 자율주행차량 청각화 방법의 작용(기능)은 자율주행 차량 청각화 시스템상의 기능과 본질적으로 같은 것이므로 도 1 내지 도 4b와 중복되는 설명은 생략하도록 한다.Hereinafter, a method for making an autonomous vehicle auditory will be described in turn. Since the operation (function) of the autonomous driving vehicle auditory method according to the embodiment is essentially the same as the function on the autonomous driving vehicle auditory system, the description overlapping with FIGS. 1 to 4B will be omitted.

도 5는 실시예에 따른 자율주행 차량 청각화 시스템의 데이터 처리흐름을 나타낸 도면이다.5 is a diagram illustrating a data processing flow of an autonomous driving vehicle auditory system according to an embodiment.

S10 단계에서는 센서모듈에서 연료, 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 차량의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지한다.In step S10, the sensor module senses vehicle status information including fuel and battery remaining amount and self-diagnosis data of the vehicle including the vehicle internal communication system and driving system, and detects driving data including RPM, speed, and speed change amount. .

S20 단계에서는 데이터저장관리모듈에서 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버로부터 수신한 메시지 및 진단된 차량 상태를 저장한다. S20 단계에서는 차량에서 수집하는 차량상태정보, 차량 자가진단 데이터, 주행데이터 및 차량으로 전송된 메시지 정보를 저장하고, 저장된 정보를 시각화 하기 위한 그래픽, 이미지, 텍스트를 저장한다. 또한, 차량에서 수집하는 차량상태정보, 차량 자가진단 데이터, 주행데이터 및 텍스트 정보를 청각화 하는 웨이브 포멧을 저장한다.In step S20, the data storage management module collects and stores vehicle state information detected by the sensor module, self-diagnosis data of the vehicle, and driving data, and stores a message received from an external server communicating with the vehicle and the diagnosed vehicle state. In step S20, vehicle state information collected from the vehicle, vehicle self-diagnosis data, driving data, and message information transmitted to the vehicle are stored, and graphics, images, and texts for visualizing the stored information are stored. In addition, it stores the vehicle state information, vehicle self-diagnosis data, driving data, and a wave format that auralizes text information collected from the vehicle.

S30 단계에서는 데이터저장관리모듈에서 자가진단데이터 및 주행데이터 중 청각화 신호 또는 시각화 신호로 출력될 데이터를 추출한다.In step S30, data to be output as an audio signal or a visualization signal among self-diagnosis data and driving data is extracted from the data storage management module.

S40 단계에서는 제 1변환모듈에서 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 텍스트로 변환하여 자율주행 시각화 정보를 생성한다. S40 단계에서는 차량에서 센싱된 차량상태정보, 차량 자가진단 데이터 및 주행데이터에 따라 나타나는 차량 상태를 딥러닝을 통해 학습하고, 차량에서 센싱된 차량상태정보, 차량 자가진단 데이터 및 주행데이터를 산출하여 산출 결과에 따라 차량 상태 각각에 대한 확률을 연산한다. 이후, 연산된 확률 중 가장 높은 확률을 나타내는 차량 상태를 텍스트 정보로 변환한다.In step S40, the first conversion module converts vehicle state information, vehicle self-diagnosis data, and driving data into text to generate autonomous driving visualization information. In step S40, the vehicle state information, vehicle self-diagnosis data, and driving data sensed by the vehicle are learned through deep learning, and the vehicle state information sensed by the vehicle, vehicle self-diagnosis data, and driving data are calculated and calculated. According to the result, a probability for each vehicle state is calculated. Thereafter, the vehicle state representing the highest probability among the calculated probabilities is converted into text information.

S50 단계에서는 제2 변환모듈(400)에서 제 1변환모듈(300)에서 생성된 자율주행 시각화 정보를 음성정보로 변환하여 자율주행 청각화 정보를 생성한다.In step S50, the second conversion module 400 converts the autonomous driving visualization information generated by the first conversion module 300 into voice information to generate autonomous driving audio information.

실시예에서 S50 단계에서는 제 2변환모듈(400)에서 차량 상태정보, 자가진단데이터 및 주행데이터 중 차량의 위험상태를 나타내는 위험상태인식 정보를 추출하고, 추출된 위험상태인식정보를 음성정보로 변환하여 자율주행 청각화 정보를 생성한다.In the embodiment, in step S50, the second conversion module 400 extracts dangerous state recognition information indicating the dangerous state of the vehicle among the vehicle state information, self-diagnosis data, and driving data, and converts the extracted dangerous state recognition information into voice information. to generate autonomous driving audio information.

또한, S50 단계에서는 자율주행 차량의 청각화 정보 생성을 위해 차량상태정보, 차량 자가진단 데이터, 주행데이터 및 변환된 텍스트를 입력받고, 입력된 데이터 중 웨이브 폼으로 변환할 중요 데이터 및 텍스트 특징을 추출한다. 이후, 추출된 중요 데이터에서 부분별 중요도 및 복잡도를 판단하고, 판단 결과에 따라 입력된 텍스트와 차량상태정보, 차량 자가진단 데이터, 주행데이터를 청각신호로 변환한다.In addition, in step S50, vehicle state information, vehicle self-diagnosis data, driving data, and converted text are input to generate audio information of the autonomous vehicle, and important data and text features to be converted into a waveform are extracted from the input data. do. Thereafter, the importance and complexity of each part are determined from the extracted important data, and the input text, vehicle state information, vehicle self-diagnosis data, and driving data are converted into an auditory signal according to the determination result.

S60 단계에서는 청각화된 정보를 자율주행 차량에서 출력한다. In step S60, the auditory information is output from the autonomous vehicle.

실시예에 따른, 시각장애인을 위한 딥러닝 기반 자율주행차량 청각화 시스템 및 방법은 시각장애인이 자율주행 차량을 이용할 수 있도록 하고, 일반 사용자들에게는 자율주행 차량 주행정보 및 상태정보를 청각 신호로도 직관적으로 인식할 수 있도록 하여 운전자에게 정보를 전달하는 속도, 정보 인식 속도 및 운전자 반응속도를 향상시킬 수 있도록 한다. 또한, 시각적 피로도 없이 자율주행 차량을 이용하고, 차량 상태정보를 청각 신호만으로 인식 할 수 있도록 한다.The deep learning-based autonomous driving vehicle auditory system and method for the visually impaired according to the embodiment enable the visually impaired to use the autonomous driving vehicle, and provide the autonomous driving vehicle driving information and state information as an auditory signal to general users. By enabling intuitive recognition, the speed of delivering information to the driver, information recognition speed, and driver reaction speed can be improved. In addition, it is possible to use an autonomous vehicle without visual fatigue and to recognize vehicle state information only with an auditory signal.

또한, 종래 계기판(Cluster) 시스템의 실시간성을 해치지 않으면서 종래 계기판보다 다양한 정보를 탑승자에게 알릴 수 있다. 차량의 상태, 사고상황 등 시각적으로 확인해야 하는 상황을 청각화 하여 시각장애인에게 신속히 알림으로써, 시각장애인의 자율주행차량 접근성을 높인다. 종래 계기판은 운전 중 빠른 접근을 위해 설계되었으나, 실시예에서 제시하는 시스템은 완전 자율차량의 탑승객을 대상으로 설계되어 자율주행 차량 사용자 편의를 향상시킬 수 있다.In addition, it is possible to inform the passenger of more information than the conventional instrument panel without impairing the real-time of the conventional cluster system. It enhances the accessibility of autonomous vehicles for the visually impaired by promptly alerting the visually impaired by visualizing situations that need to be checked visually, such as vehicle status and accident situations. Although the conventional instrument panel is designed for quick access while driving, the system presented in the embodiment is designed for passengers of a fully autonomous vehicle, thereby improving user convenience of an autonomous vehicle.

개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시예에 한정되지 않는다.The disclosed content is merely an example, and can be variously changed and implemented by those skilled in the art without departing from the gist of the claims claimed in the claims, so the protection scope of the disclosed content is limited to the specific It is not limited to an Example.

Claims (10)

시각장애인을 위한 딥러닝 기반 자율주행차량 청각화 시스템에 있어서,
연료, 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 자율주행차량 운용 시스템 각각의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지하는 센서모듈;
상기 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버를 포함하는 통신 객체로부터 수신한 메시지 및 진단된 차량 상태를 저장하는 데이터 저장관리모듈;
차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 텍스트로 변환하여 자율주행 시각화 정보를 생성하는 제 1변환모듈;
상기 제 1변환모듈에서 생성된 자율주행 시각화 정보를 음성정보로 변환하여 자율주행 청각화 정보를 생성하는 제 2변환모듈; 을 포함하고,
상기 제1 변환모듈; 은
상기 차량에서 센싱된 차량상태정보, 차량 자가진단 데이터 및 주행데이터에 따라 나타나는 차량 상태를 딥러닝을 통해 학습하는 학습부;
상기 차량에서 센싱된 차량상태정보, 차량 자가진단 데이터 및 주행데이터를 산출하여 산출 결과에 따라 차량 상태 각각에 대한 확률을 연산하는 연산부;
상기 연산된 확률 중 가장 높은 확률을 나타내는 차량 상태를 텍스트 정보로 변환하는 변환부; 를 포함하고
상기 제 2 변환모듈; 은
차량상태정보, 차량 자가진단 데이터, 주행데이터 및 변환된 텍스트를 입력받는 데이터 입력부;
입력된 데이터 중 웨이브 폼으로 변환할 중요 데이터 및 텍스트 특징을 추출하는 추출부;
추출된 중요 데이터에서 부분별 중요도 및 복잡도를 판단하는 판단부; 및
판단 결과에 따라 입력된 텍스트와 차량상태정보, 차량 자가진단 데이터, 주행데이터를 청각신호로 변환하는 변환부; 를 포함하는 것을 특징으로 하는 자율주행차량 청각화 시스템.
In a deep learning-based self-driving vehicle auditory system for the visually impaired,
A sensor that senses vehicle status information including fuel and battery remaining amount and self-diagnostic data of each autonomous vehicle operating system including the vehicle internal communication system and driving system, and detects driving data including RPM, speed, and speed change amount module;
Data storage management that collects and stores vehicle state information detected by the sensor module, self-diagnosis data of the vehicle, and driving data, and stores a message received from a communication object including an external server that communicates with the vehicle and the diagnosed vehicle state module;
a first conversion module that converts vehicle state information, vehicle self-diagnosis data, and driving data into text to generate autonomous driving visualization information;
a second conversion module that converts the autonomous driving visualization information generated by the first conversion module into voice information to generate autonomous driving audio information; including,
the first conversion module; silver
a learning unit for learning through deep learning the vehicle state displayed according to the vehicle state information sensed by the vehicle, the vehicle self-diagnosis data, and the driving data;
a calculation unit for calculating vehicle state information, vehicle self-diagnosis data, and driving data sensed by the vehicle and calculating a probability for each vehicle state according to the calculation result;
a conversion unit converting a vehicle state representing the highest probability among the calculated probabilities into text information; includes
the second conversion module; silver
a data input unit for receiving vehicle state information, vehicle self-diagnosis data, driving data, and converted text;
an extraction unit for extracting important data and text features to be converted into a waveform from among the input data;
a determination unit for determining the importance and complexity of each part from the extracted important data; and
a conversion unit that converts the input text, vehicle state information, vehicle self-diagnosis data, and driving data into an auditory signal according to the determination result; A self-driving vehicle auditory system comprising a.
제 1항에 있어서, 상기 제 2변환모듈; 은
차량 상태정보, 자가진단데이터 및 주행데이터 중 차량의 위험상태를 나타내는 위험상태 알림 정보를 추출하여 상기 추출된 위험상태 알림 정보를 음성정보로 변환하여 자율주행 청각화 정보를 생성하는 것을 특징으로 하는 자율주행차량 청각화 시스템.
According to claim 1, wherein the second conversion module; silver
Autonomy, characterized in that by extracting dangerous state notification information indicating the dangerous state of the vehicle from among vehicle state information, self-diagnosis data, and driving data, and converting the extracted dangerous state notification information into voice information to generate autonomous driving audio information Driving Vehicle Hearing System.
삭제delete 제 1항에 있어서, 상기 데이터저장관리모듈; 은
차량에서 수집하는 차량상태정보, 차량 자가진단 데이터, 주행데이터 및 차량으로 전송된 메시지 정보를 저장하는 저장부;
상기 저장된 정보를 시각화 하기 위한 그래픽, 이미지, 텍스트를 저장하는 데이터 시각화 라이브러리;
상기 차량에서 수집하는 차량상태정보, 차량자가진단데이터, 주행데이터 및 텍스트 정보를 청각화 하는 웨이브 포멧을 저장하는 웨이브 포멧(Wave Format) 라이브러리; 를 포함하는 것을 특징으로 하는 자율주행차량 청각화 시스템.
According to claim 1, wherein the data storage management module; silver
a storage unit for storing vehicle state information collected from the vehicle, vehicle self-diagnosis data, driving data, and message information transmitted to the vehicle;
a data visualization library for storing graphics, images, and texts for visualizing the stored information;
a wave format library for storing a wave format for auralizing vehicle state information, vehicle self-diagnosis data, driving data, and text information collected from the vehicle; A self-driving vehicle auditory system comprising a.
삭제delete 시각장애인을 위한 딥러닝 기반 자율주행차량 청각화 시스템의 청각정보 생성방법에 있어서,
센서모듈은 연료, 배터리 잔량을 포함하는 차량상태정보 및 차량 내부통신시스템, 주행시스템을 포함하는 차량의 자가 진단 데이터를 센싱하고, RPM, 속도, 속도변화량을 포함하는 주행데이터를 감지하는 제 1단계;
데이터저장관리모듈은 상기 센서모듈에서 감지된 차량 상태정보, 차량의 자가진단 데이터 및 주행데이터를 수집하여 저장하고, 차량과 통신하는 외부 서버로부터 수신한 메시지 및 진단된 차량 상태를 저장하는 제2단계;
제1변환모듈은 차량 상태정보, 차량 자가진단 데이터 및 주행데이터를 텍스트로 변환하여 자율주행 시각화 정보를 생성하는 제3단계; 및
제2변환모듈은 상기 제1변환모듈에서 생성된 자율주행 시각화 정보를 음성정보로 변환하여 자율주행 청각화 정보를 생성하는 제4단계; 를 포함하고,
상기 제 3단계; 는
상기 차량에서 센싱된 차량상태정보, 차량 자가진단 데이터 및 주행데이터에 따라 나타나는 차량 상태를 딥러닝을 통해 학습하는 단계;
상기 차량에서 센싱된 차량상태정보, 차량 자가진단 데이터 및 주행데이터를 산출하여 산출 결과에 따라 차량 상태 각각에 대한 확률을 연산하는 단계;
상기 연산된 확률 중 가장 높은 확률을 나타내는 차량 상태를 텍스트 정보로 변환하는 단계; 를 포함하고,
상기 제 4단계; 는
차량상태정보, 차량 자가진단 데이터, 주행데이터 및 변환된 텍스트를 입력받는 단계;
입력된 데이터 중 웨이브 폼으로 변환할 중요 데이터 및 텍스트 특징을 추출하는 단계;
추출된 중요 데이터에서 부분별 중요도 및 복잡도를 판단하는 단계; 및
판단 결과에 따라 입력된 텍스트와 차량상태정보, 차량 자가진단 데이터, 주행데이터를 청각신호로 변환하는 단계;를 포함하는 것을 특징으로 하는 청각정보 생성방법.
In a method for generating auditory information of a deep learning-based autonomous driving vehicle auditory system for the visually impaired,
The sensor module senses vehicle state information including fuel and battery remaining amount and self-diagnosis data of the vehicle including the vehicle internal communication system and the driving system, and the first step of detecting driving data including RPM, speed, and speed change amount ;
The data storage management module collects and stores the vehicle state information detected by the sensor module, self-diagnosis data of the vehicle, and driving data, and stores a message received from an external server communicating with the vehicle and the diagnosed vehicle state. ;
The first conversion module includes: a third step of converting vehicle state information, vehicle self-diagnosis data, and driving data into text to generate autonomous driving visualization information; and
The second conversion module converts the autonomous driving visualization information generated by the first conversion module into voice information to generate autonomous driving audio information; including,
the third step; is
learning the vehicle state displayed according to the vehicle state information sensed by the vehicle, the vehicle self-diagnosis data, and the driving data through deep learning;
calculating vehicle state information, vehicle self-diagnosis data, and driving data sensed by the vehicle, and calculating a probability for each vehicle state according to the calculation result;
converting a vehicle state representing the highest probability among the calculated probabilities into text information; including,
the fourth step; is
receiving vehicle state information, vehicle self-diagnosis data, driving data, and converted text;
extracting important data and text features to be converted into a waveform from among the input data;
determining the importance and complexity of each part from the extracted important data; and
and converting the input text, vehicle state information, vehicle self-diagnosis data, and driving data into an auditory signal according to the determination result.
제 6항에 있어서, 상기 제 3단계; 는
차량 상태정보, 자가진단데이터 및 주행데이터 중 차량의 위험상태를 나타내는 위험상태 알림 정보를 추출하는 단계; 및
상기 추출된 위험상태 알림 정보를 음성정보로 변환하여 자율주행 청각화 정보를 생성하는 단계; 를 포함하는 것을 특징으로 하는 청각정보 생성방법.
7. The method of claim 6, further comprising: the third step; is
extracting dangerous state notification information indicating a dangerous state of the vehicle from among vehicle state information, self-diagnosis data, and driving data; and
generating autonomous driving audio information by converting the extracted dangerous state notification information into voice information; A method for generating auditory information, comprising:
삭제delete 제 6항에 있어서, 상기 제2단계;는
차량에서 수집하는 차량상태정보, 차량 자가진단 데이터, 주행데이터 및 차량으로 전송된 메시지 정보를 저장하는 단계;
상기 저장된 정보를 시각화 하기 위한 그래픽, 이미지, 텍스트를 저장하는 단계;
상기 차량에서 수집하는 차량상태정보, 차량 자가진단 데이터, 주행데이터 및 텍스트 정보를 청각화 하는 웨이브 포멧을 저장하는 단계;를 포함하는 것을 특징으로 하는 청각정보 생성방법.





The method of claim 6, wherein the second step;
storing the vehicle state information collected from the vehicle, vehicle self-diagnosis data, driving data, and message information transmitted to the vehicle;
storing graphics, images, and texts for visualizing the stored information;
and storing the vehicle state information, vehicle self-diagnosis data, driving data, and text information collected from the vehicle in a wave format for auditory information.





삭제delete
KR1020190142330A 2019-11-08 2019-11-08 Deep learning-based autonomous vehicle auditory system for the visually impaired and method thereof KR102260574B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190142330A KR102260574B1 (en) 2019-11-08 2019-11-08 Deep learning-based autonomous vehicle auditory system for the visually impaired and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190142330A KR102260574B1 (en) 2019-11-08 2019-11-08 Deep learning-based autonomous vehicle auditory system for the visually impaired and method thereof

Publications (2)

Publication Number Publication Date
KR20210056465A KR20210056465A (en) 2021-05-20
KR102260574B1 true KR102260574B1 (en) 2021-06-07

Family

ID=76142687

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190142330A KR102260574B1 (en) 2019-11-08 2019-11-08 Deep learning-based autonomous vehicle auditory system for the visually impaired and method thereof

Country Status (1)

Country Link
KR (1) KR102260574B1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101702612B1 (en) 2015-04-21 2017-02-13 손석영 vehicle-safety assistance system for auditory disabled
KR20180026243A (en) * 2016-09-02 2018-03-12 엘지전자 주식회사 Autonomous vehicle and control method thereof
KR102336017B1 (en) * 2016-11-09 2021-12-07 한국전자통신연구원 Interaction method between user and autonomous driving system in fully autonomous driving
KR20180055643A (en) * 2016-11-16 2018-05-25 삼성전자주식회사 Method and device for generating information regarding driving assistance
KR101933150B1 (en) 2018-04-10 2018-12-27 주식회사 이큐포올 Command/information input system and method
KR20190100085A (en) * 2019-08-05 2019-08-28 엘지전자 주식회사 Robor being capable of detecting danger situation using artificial intelligence and operating method thereof
KR20190101333A (en) * 2019-08-12 2019-08-30 엘지전자 주식회사 Voice recognition device and voice recognition method

Also Published As

Publication number Publication date
KR20210056465A (en) 2021-05-20

Similar Documents

Publication Publication Date Title
CN108885836A (en) Driving assistance method and drive assistance device, automatic Pilot control device, vehicle, driving assistance system and the program for utilizing the driving assistance method
US20210225094A1 (en) Method and system for vehicular collision reconstruction
CN104123936A (en) Method for automatic training of a dialogue system, dialogue system, and control device for vehicle
KR20200006739A (en) Dialogue processing apparatus, vehicle having the same and dialogue processing method
KR20200083310A (en) Two-way in-vehicle virtual personal assistant
CN104603871B (en) Method and apparatus for running the information system of for motor vehicle voice control
CN112071309B (en) Network appointment vehicle safety monitoring device and system
CN112734985B (en) Vehicle door control method, device, equipment, terminal and readable storage medium
CN110458604A (en) A kind of net about driver's evaluation method, device, equipment and storage medium
EP3864602A1 (en) Contextual autonomous vehicle support through written interaction
CN112009494A (en) Vehicle abnormity processing method and device, control equipment and storage medium
CN111051171A (en) Detection of anomalies within an autonomous vehicle
US10207584B2 (en) Information providing apparatus for vehicle
KR102260574B1 (en) Deep learning-based autonomous vehicle auditory system for the visually impaired and method thereof
CN110072726B (en) Autonomous vehicle computer
JP2017072493A (en) Vehicle diagnosing system and method
CN113022578A (en) Passenger reminding method and system based on vehicle motion information, vehicle and storage medium
CN112083804A (en) Guidance interaction method and device for vehicle-mounted key, vehicle and storage medium
JP2021123133A (en) Information processing device, information processing method, and information processing program
US20220198151A1 (en) Dialogue system, a vehicle having the same, and a method of controlling a dialogue system
US20210193129A1 (en) Agent device, agent system, and computer-readable storage medium
JP6607592B2 (en) On-vehicle device, information processing method, and information processing program
CN113961114A (en) Theme replacement method and device, electronic equipment and storage medium
CN116588015B (en) Vehicle control method, vehicle control system, and storage medium
US20220289214A1 (en) Information exchange device provided with chat display part

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant