KR102368427B1 - 인공지능 알고리즘을 이용한 자율주행 동적운행 위험도 분석 및 평가 방법과, 이를 이용한 자율주행 평가시스템 - Google Patents
인공지능 알고리즘을 이용한 자율주행 동적운행 위험도 분석 및 평가 방법과, 이를 이용한 자율주행 평가시스템 Download PDFInfo
- Publication number
- KR102368427B1 KR102368427B1 KR1020200107854A KR20200107854A KR102368427B1 KR 102368427 B1 KR102368427 B1 KR 102368427B1 KR 1020200107854 A KR1020200107854 A KR 1020200107854A KR 20200107854 A KR20200107854 A KR 20200107854A KR 102368427 B1 KR102368427 B1 KR 102368427B1
- Authority
- KR
- South Korea
- Prior art keywords
- event information
- event
- module
- driving
- evaluation
- Prior art date
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 201
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 13
- 230000004044 response Effects 0.000 claims abstract description 32
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 26
- 230000008859 change Effects 0.000 claims abstract description 26
- 238000006243 chemical reaction Methods 0.000 claims abstract description 9
- 230000033001 locomotion Effects 0.000 claims description 63
- 238000004458 analytical method Methods 0.000 claims description 34
- 238000012360 testing method Methods 0.000 claims description 31
- 238000001514 detection method Methods 0.000 claims description 22
- 238000000605 extraction Methods 0.000 claims description 21
- 230000010485 coping Effects 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 17
- 239000000284 extract Substances 0.000 claims description 10
- 238000005259 measurement Methods 0.000 claims description 3
- 230000007257 malfunction Effects 0.000 abstract 1
- 238000007689 inspection Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 11
- 230000009471 action Effects 0.000 description 5
- 238000012795 verification Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 2
- 238000012502 risk assessment Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0059—Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0055—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0028—Mathematical models, e.g. for simulation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
-
- G05D2201/0213—
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Transportation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Game Theory and Decision Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Medical Informatics (AREA)
- Business, Economics & Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 VR 영상의 타임라인에 따른 각 인접차량의 속도 및 방향정보와 ECU로부터 입력된 자율주행차량의 속도 및 방향정보를 입력값으로 하여 동적운행 위험도를 검출하는 인공지능(AI) 알고리즘을 이용하여 자율주행 평가 시, 동적운행 위험도인 제1 평가점수를 산출하도록 구성됨으로써 자율주행차량 및 주변 인접차량의 속도 및 방향 전환에 따른 다양한 변수를 감안하여 동적운행 위험도에 대한 검출이 가능하여 자율주행차량의 안전운전능력을 극대화시킴과 동시에 자율주행차량의 안전운전능력 평가의 신뢰도 및 안전성을 높일 수 있고, VR 영상 개발 시, 자율주행차량의 돌발 상황 등에 대한 대처를 평가하기 위한 이벤트인 제1 이벤트정보, 고장 및 장애에 대한 대처를 평가하기 위한 제2 이벤트정보 및 주행모드전환에 대한 대처를 평가하기 위한 제3 이벤트정보가 타임라인에 매칭되도록 VR 영상을 개발하도록 구성됨으로써 실제 도로에서 발생할 수 있는 다양한 이벤트를 자율주행차량에게 제공할 수 있는 인공지능 알고리즘을 이용한 자율주행 동적운행 위험도 분석 및 평가 방법과, 이를 이용한 자율주행 평가시스템에 관한 것이다.
Description
본 발명은 인공지능 알고리즘을 이용한 자율주행 동적운행 위험도 분석 및 평가 방법과, 이를 이용한 자율주행 평가시스템에 관한 것으로서, 상세하게로는 인공지능 알고리즘(Artificial Intelligence Neural Network Algorithm)을 이용하여 자율주행 운전능력 테스트 결과인 속도 및 방향 로그데이터를 분석하여 자율주행 동적운행 위험도를 분석하고 안전운전능력을 평가함과 동시에 실제 주행 시, 발생할 수 있는 다양한 시뮬레이션, 이벤트 및 돌발 상황 등을 가상으로 발생시켜 이에 대한 자율주행차량의 대응을 점수(등급)로 산출함으로써 자율주행차량의 안전성 및 신뢰도를 철저히 검증 및 평가할 수 있는 인공지능 알고리즘을 이용한 자율주행 동적운행 위험도 분석 및 평가 방법과, 이를 이용한 자율주행 평가시스템에 관한 것이다.
자율주행차량(Autonomous Vehicle, 무인자동차)은 각종 카메라 및 센서들을 이용하여 스스로 외부정보 및 도로 상황을 인식 및 파악하여 주행 상황을 판단하여 운전자의 개입 없이 차량을 제어함으로써 스스로 설정된 목적지까지 자율주행 할 수 있는 차량을 의미한다.
이러한 자율주행차량을 시장에 안전하기 안착시키기 위해서는 사회적 수용성을 고려해야 하며, 기술적으로 실현가능한 안전보증 방법론 및 합리적인 기준이 설정되어야 한다. 즉 자율주행차량은 안전성이 확보되지 못하는 경우, 대형 인명사고로 이어질 수 있기 때문에 다양한 돌발 상황, 이벤트 등에 대해 얼마나 신속하고 정확하게 이를 인지 및 대처하는지에 대한 평가 및 테스트가 필수적으로 요구되고 있다.
그러나 국내외에 아직 자율주행 시스템을 평가대상으로 하는 안전보증 프로세스는 미흡한 상황이고, 이러한 자율주행차량의 도로교통법 차원에서 안전성을 입증하기 위해서는 가상환경 기반 시험 평가, PG 및 공도로상 검증이 필수적으로 이루어져야 한다.
도 1은 국내등록특허 제10-1943422호(발명의 명칭 : 자율주행차량 안전성 검사시스템 및 안전성 검사방법)에 개시된 자율주행차량 안전성 검사방법을 나타내는 도면이다.
도 1의 자율주행차량 안전성 검사방법(이하 종래기술이라고 함)(900)은 정보입력장치를 통해 상기 테스트센서 값을 입력하는 테스트센서 값 입력단계(330)와, 테스트센서 값 입력단계(330)에서 입력한 테스트센서 값에 대응하여 동작하는 자율주행차량의 동작 특성을 검사하는 제1 검사단계(340)와, 제1 검사단계에서의 검사결과와 테스트센서 값을 비교하는 제1 비교단계(350)와, 제1 비교단계(350)에서의 판단결과 제1 검사단계(340)에서의 검사결과와 테스트센서 값으로부터 예상할 수 있는 대응결과가 미리 설정한 범위 내에서 동일하지 않다고 판단한 경우에 수행하며 전자제어장치에 저장된 동작제어 테이블의 특정 값을 변경하는 조치단계(360)와, 조치단계에서 수정한 동작제어 테이블에 따라 자율주행차량을 운행하면서 상기 자율주행차량의 동작 특성을 검사하는 제2 검사단계(370)와, 제2 검사단계(370)에서의 검사결과와 테스트센서 값을 비교하며 비교결과 제2 검사단계(370)에서의 검사 결과와 테스트 센서의 값으로부터 예상할 수 있는 대응결과가 미리 설정한 범위 내에서 일치하지 않는다고 판단한 때에는 조치단계를 재수행하도록 하는 제2 비교단계(380)와, 제1 비교단계(350)에서의 판단결과 제1 검사단계(340)에서의 검사결과와 테스트센서 값으로부터 예상할 수 있는 대응결과가 미리 설정한 범위 내에서 동일하다고 판단한 경우 및 제2 비교단계(380)에서의 판단결과 제2 검사단계(370)에서의 검사결과와 테스트센서 값으로부터 예상할 수 있는 대응결과가 미리 설정한 범위 내에서 동일하다고 판단한 경우에 수행되며 자율주행차량에 설치된 복수의 센서와 전자제어장치 사이의 정보의 송수신을 활성화하는 안전성 검사 종료단계(390)로 이루어진다.
이와 같이 구성되는 종래기술(300)은 자율주행 차량에 설치된 각종 센서에서 감지한 센서 값에 대응하는 테스트 센서 값을 이용하여 자율주행 차량이 동작하는 형태를 검사하고, 검사 결과를 이용하여 자율주행 차량의 안전성을 검사하며, 필요에 따라서는 자율주행 차량에 설정되어 있는 동작제어 테이블의 설정 값을 수정하도록 하여 차량이 안전하게 운행할 수 있는 장점을 갖는다.
일반적으로 실제 도로에는, 자율주행차량의 현재 속도 및 방향과, 인접 차량의 속도 및 방향 등의 방대한 변수에 안전주행이 이루어져야 하고, 이에 따라 인공지능(AI)를 이용하여 자율주행차량 및 인접차량의 속도 및 방향 등의 방대한 변수에 따른 안전성을 검증하도록 하는 기술이 필요하다.
그러나 종래기술(300)은 인공지능(AI)이 도입되지 않음에 따라, 다양한 변수에 대한 안전성 검증의 정확성 및 신뢰도가 현저히 떨어짐으로써 실제 도로체계에 적용될 수 없는 구조적 한계를 갖는다.
통상적으로 자율주행 차량은 차체에 설치된 카메라 및 센서들을 이용하여 주변 객체 및 상황을 인지하도록 구성되었고, 실제 도로에는 각종 다양한 이벤트, 돌발 상황 등이 발생하게 되나, 종래기술(300)은 단순히 테스트 센서 값을 입력하는 것만으로 안전성을 검증하도록 구성되었기 때문에 카메라의 촬영에 의해 획득된 영상 분석을 통한 인지상황을 검증하지 못하는 구조적 한계를 갖는다.
또한 실제 도로에서 발생하는 돌발 상황은 획일화되지 않고 매우 다양한 변수를 갖기 때문에 서로 다른 난이도를 갖게 되는데, 종래기술(300)은 이러한 난이도를 전혀 감안하지 않아 검증의 정확성 및 신뢰도가 떨어지는 단점을 갖는다.
또한 종래기술(300)은 실제 돌발 상황을 가상으로 발생시키는 것이 아니라, 테스트 센서 값만을 이용하여 검증을 수행하기 때문에 검증의 정확성 및 신뢰도가 떨어지는 단점을 갖는다. 예를 들어 종래기술(300)은 단순히 거리 센서의 테스트 센서 값을 입력하는 방식으로 테스트를 운영하기 때문에, 감지영역 내에서의 실제 거리 센서의 객체검출이 정확하게 이루어지는지에 대한 검증은 수행할 수 없는 구조적 한계를 갖는다.
본 발명은 이러한 문제를 해결하기 위한 것으로, 본 발명의 해결과제는 VR 영상의 타임라인에 따른 각 인접차량의 속도 및 방향정보와 ECU로부터 입력된 자율주행차량의 속도 및 방향정보를 입력값으로 하여 동적운행 위험도를 검출하는 인공지능(AI) 알고리즘을 이용하여 자율주행 평가 시, 동적운행 위험도인 제1 평가점수를 산출하도록 구성됨으로써 자율주행차량 및 주변 인접차량의 속도 및 방향 전환에 따른 다양한 변수를 감안하여 동적운행 위험도에 대한 검출이 가능하여 자율주행차량의 안전운전능력을 극대화시킴과 동시에 자율주행차량의 안전운전능력 평가의 신뢰도 및 안전성을 높일 수 있는 인공지능 알고리즘을 이용한 자율주행 동적운행 위험도 분석 및 평가 방법과, 이를 이용한 자율주행 평가시스템을 제공하기 위한 것이다.
또한 본 발명의 다른 해결과제는 VR 영상 개발 시, 자율주행차량의 돌발 상황 등에 대한 대처를 평가하기 위한 이벤트인 제1 이벤트정보, 고장 및 장애에 대한 대처를 평가하기 위한 제2 이벤트정보 및 주행모드전환에 대한 대처를 평가하기 위한 제3 이벤트정보가 타임라인에 매칭되도록 VR 영상을 개발하도록 구성됨으로써 실제 도로에서 발생할 수 있는 다양한 이벤트를 자율주행차량에게 제공할 수 있는 인공지능 알고리즘을 이용한 자율주행 동적운행 위험도 분석 및 평가 방법과, 이를 이용한 자율주행 평가시스템을 제공하기 위한 것이다.
또한 본 발명의 또 다른 해결과제는 자율주행 평가 시, 해당 VR 영상의 타임라인에 따른 제2, 3, 4 이벤트들 각각에 대한 센서별 가상측정값을 검출한 후, 해당 자율주행차량의 ECU로 출력함과 동시에 ECU로부터 입력된 움직임벡터를 분석하여 자율주행차량의 대처에 대한 평가점수(등급)를 산출함으로써 평가의 신뢰도 및 정확성을 극대화시킬 수 있는 알고리즘을 이용한 자율주행 동적운행 위험도 분석 및 평가 방법과, 이를 이용한 자율주행 평가시스템을 제공하기 위한 것이다.
상기 과제를 해결하기 위한 본 발명의 해결수단은 ECU(Electronic Control Unit), 카메라 및 센서들을 포함하는 자율주행차량의 안전운전능력을 평가하기 위한 자율주행 안전운전능력 평가시스템에 있어서: 상기 자율주행 안전운전능력 평가시스템은 실제 주행에 대응되는 가상영상과, 상기 가상영상의 타임라인에 따른 각 인접차량의 속도 및 방향, 현시체계정보를 포함하는 제1 이벤트정보가 매칭된 영상인 VR 영상을 입력받아 등록하는 VR 영상 등록부; 자율주행차량의 속도 및 방향정보, 각 인접차량의 속도 및 방향정보, 현시체계정보를 입력값으로 하여, 자율주행차량의 동적운행 위험도인 제1 평가점수를 출력값으로 하는 기 설정된 인공지능 알고리즘과, 상기 VR 영상 등록부에 의해 등록된 VR 영상과, 상기 VR 영상에 포함된 제1 이벤트 정보들의 이벤트 값 및 내용이 저장되는 메모리; 사용자로부터 테스트 요청 시 실행되어 상기 VR 영상을 전시하는 전시모듈과, 상기 전시모듈에 의해 전시되는 VR 영상의 타임라인에 따른 제1 이벤트정보들을 추출하는 이벤트정보 추출모듈과, 상기 이벤트정보 추출모듈에 의해 추출된 제1 이벤트정보를 출력하는 이벤트정보 파싱모듈을 포함하는 VR 영상 전시부; 상기 ECU로부터 전송받은 대처주행에 따른 자율주행차량의 현재 속도 및 방향정보를 포함하는 움직임벡터를 입력받으며, 상기 인공지능 알고리즘을 이용하여 자율주행차량의 속도 및 방향, 각 인접차량의 속도 및 방향, 현시체계정보에 따른 동적운행 위험도인 제1 평가점수를 산출하는 제1 평가부를 포함하고, 상기 자율주행 평가시스템은 제2 평가부를 더 포함하고, 상기 VR 영상에는 돌발 상황에 대응되는 제2 이벤트정보가 타임라인에 매칭되고, 상기 이벤트정보 추출모듈은 상기 전시모듈에 의해 전시되는 VR 영상의 타임라인에 따른 제2 이벤트정보들을 추출하고, 상기 이벤트정보 파싱모듈은 상기 이벤트정보 추출모듈에 의해 추출된 제2 이벤트정보를 상기 제2 평가부로 입력하고, 상기 제2 평가부는 상기 VR 영상 전시부로부터 제2 이벤트정보를 입력받는 제2 이벤트정보 입력모듈; 입력된 제2 이벤트정보와, 자율주행차량의 기 설정된 센서별 위치 및 식별정보를 활용하여 상기 입력된 제2 이벤트정보에 따른 자율주행차량(C)의 센서별 가상측정값을 검출하는 센서별 가상측정값 검출모듈; 상기 센서별 가상측정값 검출모듈에 의해 검출된 센서별 가상측정값을 상기 ECU로 출력하는 출력모듈; 상기 ECU로부터 움직임벡터를 입력받는 움직임벡터 입력모듈; 기 설정된 돌발상황 대처 평가알고리즘을 이용하여 상기 움직임벡터 입력모듈에 의해 입력된 움직임벡터 정보 및 제2 이벤트정보를 분석하여 제2 이벤트에 대응하는 자율주행차량(C)의 대처주행을 분석하는 분석모듈; 상기 분석모듈에 의해 검출된 분석데이터와, 기 설정된 해당 제2 이벤트의 난이도를 활용하여 제2 이벤트에 대한 자율주행차량(C)의 돌발 상황 대처 평가점수인 제2 평가점수를 산출하는 제2 평가점수 산출모듈을 포함하는 것이다.
또한 본 발명에서 상기 자율주행 평가시스템은 기 설정된 주기(T) 마다 실행되어 상기 인공지능 알고리즘을 학습시키는 학습부를 더 포함하는 것이 바람직하다.
삭제
또한 본 발명에서 상기 자율주행 평가시스템은 제3 평가부를 더 포함하고, 상기 VR 영상에는 장애에 대응되는 제3 이벤트정보가 타임라인에 매칭되고, 상기 이벤트정보 추출모듈은 상기 전시모듈에 의해 전시되는 VR 영상의 타임라인에 따른 제3 이벤트정보들을 추출하고, 상기 이벤트정보 파싱모듈은 상기 이벤트정보 추출모듈에 의해 추출된 제3 이벤트정보를 상기 제3 평가부로 입력하고, 상기 제3 평가부는 상기 VR 영상 전시부로부터 제3 이벤트정보를 입력받는 제3 이벤트정보 입력모듈; 입력된 제3 이벤트정보와, 자율주행차량의 기 설정된 센서별 위치 및 식별정보를 활용하여 상기 입력된 제3 이벤트정보에 따른 자율주행차량(C)의 센서별 장애 이벤트-값을 검출하는 센서별 장애 이벤트-값 검출모듈; 상기 센서별 장애 이벤트-값 검출모듈에 의해 검출된 센서별 장애 이벤트-값을 상기 ECU로 출력하는 제3 출력모듈; 상기 ECU로부터 움직임벡터를 입력받는 제3 움직임벡터 입력모듈; 기 설정된 장애 평가 알고리즘을 이용하여 상기 제3 움직임벡터 입력모듈에 의해 입력된 움직임벡터 정보 및 제3 이벤트정보를 분석하여 제3 이벤트에 대응하는 자율주행차량(C)의 대처주행을 분석하는 제3 분석모듈; 상기 제3 분석모듈에 의해 검출된 분석데이터와, 기 설정된 해당 제3 이벤트의 난이도를 활용하여 제3 이벤트에 대한 자율주행차량(C)의 장애 대처 평가점수인 제2 평가점수를 산출하는 제3 평가점수 산출모듈을 포함하는 것이 바람직하다.
또한 본 발명에서 상기 자율주행 평가시스템은 제4 평가부를 더 포함하고, 상기 VR 영상에는 주행모드전환에 대응되는 제4 이벤트정보가 타임라인에 매칭되고, 상기 이벤트정보 추출모듈은 상기 전시모듈에 의해 전시되는 VR 영상의 타임라인에 따른 제4 이벤트정보들을 추출하고, 상기 이벤트정보 파싱모듈은 상기 이벤트정보 추출모듈에 의해 추출된 제4 이벤트정보를 상기 제4 평가부로 입력하고, 상기 제4 평가부는 상기 VR 영상 전시부로부터 제4 이벤트정보를 입력받는 제4 이벤트정보 입력모듈; 상기 제3 이벤트정보 입력모듈을 통해 제3 이벤트정보가 입력되면, 주행모드전환을 나타내는 주행모드전환 이벤트-값을 생성하여 상기 ECU로 출력하는 주행모드전환 이벤트-값 출력모듈; 상기 ECU로부터 움직임벡터를 입력받는 제4 움직임벡터 입력모듈; 기 설정된 주행모드전환 평가 알고리즘을 이용하여 상기 제4 움직임벡터 입력모듈에 의해 입력된 움직임벡터 정보 및 제4 이벤트정보를 분석하여 제4 이벤트에 대응하는 자율주행차량(C)의 대처주행을 분석하는 제4 분석모듈; 상기 제4 분석모듈에 의해 검출된 분석데이터와, 기 설정된 해당 제4 이벤트의 난이도를 활용하여 제4 이벤트에 대한 자율주행차량(C)의 주행모드전환 평가점수인 제4 평가점수를 산출하는 제4 평가점수 산출모듈을 더 포함하는 것이 바람직하다.
상기 과제와 해결수단을 갖는 본 발명에 따르면 VR 영상의 타임라인에 따른 각 인접차량의 속도 및 방향정보와 ECU로부터 입력된 자율주행차량의 속도 및 방향정보를 입력값으로 하여 동적운행 위험도를 검출하는 인공지능(AI) 알고리즘을 이용하여 자율주행 평가 시, 동적운행 위험도인 제1 평가점수를 산출하도록 구성됨으로써 자율주행차량 및 주변 인접차량의 속도 및 방향 전환에 따른 다양한 변수를 감안하여 동적운행 위험도에 대한 검출이 가능하여 자율주행차량의 안전운전능력을 극대화시킴과 동시에 자율주행차량의 안전운전능력 평가의 신뢰도 및 안전성을 높일 수 있다.
또한 본 발명에 의하면 VR 영상 개발 시, 자율주행차량의 돌발 상황 등에 대한 대처를 평가하기 위한 이벤트인 제1 이벤트정보, 고장 및 장애에 대한 대처를 평가하기 위한 제2 이벤트정보 및 주행모드전환에 대한 대처를 평가하기 위한 제3 이벤트정보가 타임라인에 매칭되도록 VR 영상을 개발하도록 구성됨으로써 실제 도로에서 발생할 수 있는 다양한 이벤트를 자율주행차량에게 제공할 수 있게 된다.
또한 본 발명에 의하면 자율주행 평가 시, 해당 VR 영상의 타임라인에 따른 제2, 3, 4 이벤트들 각각에 대한 센서별 가상측정값을 검출한 후, 해당 자율주행차량의 ECU로 출력함과 동시에 ECU로부터 입력된 움직임벡터를 분석하여 자율주행차량의 대처에 대한 평가점수(등급)를 산출함으로써 평가의 신뢰도 및 정확성을 극대화시킬 수 있다.
도 1은 국내등록특허 제10-1943422호(발명의 명칭 : 자율주행차량 안전성 검사시스템 및 안전성 검사방법)에 개시된 자율주행차량 안전성 검사방법을 나타내는 도면이다.
도 2는 본 발명의 일실시예인 자율주행 평가시스템을 나타내는 구성도이다.
도 3은 도 2의 VR 영상 전시부를 나타내는 블록도이다.
도 4는 도 2의 제1 평가부에 활용되는 자율주행 속도 및 방향의 파라미터 범위를 설명하기 위한 예시도이다.
도 5는 도 2의 제1 평가부에 활용되는 인공지능 알고리즘의 학습과정을 나타내는 설명도이다.
도 6은 도 2의 제2 평가부를 나타내는 블록도이다.
도 7은 도 2의 제3 평가부를 나타내는 블록도이다.
도 8은 도 7의 제3 평가부를 설명하기 위한 예시도이다.
도 9는 도 2의 제4 평가부를 나타내는 블록도이다.
도 2는 본 발명의 일실시예인 자율주행 평가시스템을 나타내는 구성도이다.
도 3은 도 2의 VR 영상 전시부를 나타내는 블록도이다.
도 4는 도 2의 제1 평가부에 활용되는 자율주행 속도 및 방향의 파라미터 범위를 설명하기 위한 예시도이다.
도 5는 도 2의 제1 평가부에 활용되는 인공지능 알고리즘의 학습과정을 나타내는 설명도이다.
도 6은 도 2의 제2 평가부를 나타내는 블록도이다.
도 7은 도 2의 제3 평가부를 나타내는 블록도이다.
도 8은 도 7의 제3 평가부를 설명하기 위한 예시도이다.
도 9는 도 2의 제4 평가부를 나타내는 블록도이다.
이하, 첨부된 도면을 참조하여 본 발명의 일실시예를 설명한다.
도 2는 본 발명의 일실시예인 자율주행 평가시스템을 나타내는 구성도이다.
본 발명의 일실시예인 자율주행 평가시스템(1)은 인공지능 알고리즘(Artificial Intelligence Neural Network Algorithm)을 이용하여 자율주행 운전능력 테스트 결과인 속도 및 방향 로그데이터를 분석하여 자율주행 동적운행 위험도를 분석하고 안전운전능력을 평가함과 동시에 실제 주행 시, 발생할 수 있는 다양한 시뮬레이션, 이벤트 및 돌발 상황 등을 가상으로 발생시켜 이에 대한 자율주행차량의 대응을 점수(등급)로 산출함으로써 자율주행차량의 안전성 및 신뢰도를 철저히 검증 및 평가하기 위한 것이다.
또한 자율주행 평가시스템(1)은 도 2에 도시된 바와 같이, 제어부(30)와, 메모리(31), 데이터송수신부(32), 학습부(33), VR 영상 등록부(34), VR 영상 전시부(35), 제1 평가부(36), 제2 평가부(37), 제3 평가부(38), 제4 평가부(39), 최종 평가점수 산출부(40), 부가서비스부(41)로 이루어진다.
이러한 자율주행 안전운전능력 평가시스템(1)은 자율주행차량(C)의 ECU(Electronic Control Unit)와 연결되어 데이터를 송수신한다.
제어부(30)는 자율주행 평가시스템(1)의 O.S(Operating System)이며, 제어대상(31), (32), (33), (34), (35), (36), (37), (38), (39), (40), (41)들을 관리 및 제어한다.
또한 제어부(30)는 사용자로부터 VR 영상 등록을 요청받으면, VR 영상 등록부(34)를 실행시킨다.
또한 제어부(30)는 기 설정된 주기(T) 마다 학습부(33)를 실행시켜 학습부(33)에 의해 인공지능 알고리즘의 학습이 이루어지도록 함으로써 인공지능 알고리즘이 활용되는 제1 평가부(36)의 평가의 정확성 및 신뢰도를 높이도록 한다.
메모리(31)에는 VR 영상 등록부(34)에 의해 등록된 VR 영상들이 저장된다. 이때 VR 영상은 실제 도로, 건물, 신호체계 등을 포함하는 기본영상에, 차량, 보행자 및 구조물 등이 맵핑됨과 동시에 기 설정된 제1, 2, 3, 4 이벤트 정보들이 발생되는 이벤트 영상이 합성된 3D영상을 의미한다.
이때 제1 이벤트 정보는 자율주행차량(C)의 동적운행 위험도를 평가하기 위한 각 인접차량의 속도 및 방향정보, 현시체계정보로 이루어지는 이벤트 값 및 내용을 포함하고, 제2 이벤트 정보는 자율주행차량(C)의 돌발 상황에 대한 대처를 평가하기 위한 각 돌발 상황의 이벤트 값 및 내용으로 이루어지고, 제3 이벤트 정보는 자율주행차량(C)의 장애에 대한 대처를 평가하기 위한 각 장애의 이벤트 값 및 내용으로 이루어지고, 제4 이벤트 정보는 주행모드 전환에 대한 대처를 평가하기 위한 각 주행모드의 이벤트 값 및 내용으로 이루어진다. 즉 VR 영상은 타임라인에 따라 제1, 2, 3 이벤트들 중 적어도 하나 이상이 발생되는 이벤트 영상이 전시된다.
또한 메모리(31)에는 각 VR 영상의 제1, 2, 3, 4 이벤트 정보들이 저장된다.
또한 메모리(31)에는 자율주행차량(C)의 각 센서의 식별정보 및 위치정보가 매칭된 센서 기준테이블이 기 설정되어 저장된다.
또한 메모리(31)에는 데이터송수신부(32)를 통해 자율주행차량(C)의 ECU(Electronic Control Unit)로부터 주행움직임 벡터가 저장된다.
또한 메모리(31)에는 학습부(33)에 의해 학습된 인공지능 알고리즘이 저장된다. 이때 인공지능 알고리즘은 자율주행에 따른 자율주행차량(C)의 ECU로부터 전송받은 주행움직임 벡터(자율주행차량의 속도 및 방향)와, 제1 이벤트 정보에 포함된 각 인접차량의 속도 및 방향, 현시체계정보를 입력값으로 하되, 입력값에 대한 해당 자율주행차량의 동적운행 위험도(제1 평가점수)를 출력하기 위한 알고리즘이다.
또한 메모리(31)에는 제2 이벤트 발생에 따른 자율주행차량(C)의 ECU로부터 전송받은 주행움직임 벡터를 입력값으로 하되, 주행움직임 벡터에 대한 평가점수(등급)를 출력값으로 하는 기 설정된 돌발 상황 평가 알고리즘이 저장된다. 즉 돌발 상황 평가 알고리즘은 제2 이벤트 발생에 따른 주행움직임 벡터를 분석하여 자율주행의 제2 평가점수(등급)를 검출하기 위한 알고리즘이다.
또한 메모리(31)에는 제3 이벤트 발생에 따른 자율주행차량(C)의 ECU로부터 전송받은 주행움직임 벡터를 입력값으로 하되, 주행움직임 벡터에 대한 평가점수(등급)를 출력값으로 하는 기 설정된 장애 평가 알고리즘이 저장된다. 즉 장애 평가 알고리즘은 제3 이벤트 발생에 따른 주행움직임 벡터를 분석하여 장애에 대한 제3 평가점수(등급)를 검출하기 위한 알고리즘이다.
또한 메모리(31)에는 제4 이벤트 발생에 따른 자율주행차량(C)의 ECU로부터 전송받은 주행움직임 벡터를 입력값으로 하되, 주행움직임 벡터에 대한 평가점수(등급)를 출력값으로 하는 기 설정된 주행모드전환 평가 알고리즘이 저장된다. 즉 주행모드전환 평가 알고리즘은 제4 이벤트 발생에 따른 주행움직임 벡터를 분석하여 주행모드 전환에 대한 제4 평가점수(등급)를 검출하기 위한 알고리즘이다.
데이터송수신부(32)는 제어부(30)의 제어에 따라 자율주행차량(C)의 ECU와 데이터를 송수신한다.
학습부(33)는 제1 평가부(36)에 활용되어 자율주행차량의 동적운행 위험도(제1 평가점수)를 검출하는 인공지능 알고리즘의 학습이 이루어진다.
VR 영상 등록부(34)는 사용자(User)의 요청에 따라, 기 제작된 VR 영상을 등록함과 동시에 메모리(31)에 저장한다.
이때 VR 영상은 실제 도로, 건물, 신호체계 등을 포함하는 기본영상을 포함하며, 타임라인에 따라 제1, 2, 3, 4 이벤트 중 어느 하나인 이벤트 영상이 합성된 3D영상을 의미하고, 제1 이벤트 정보는 단순히 VR 영상의 타임라인에 따른 각 인접차량의 속도 및 방향, 현시체계정보를 포함한다.
즉 VR 영상은 실제 도로에서 발생할 수 있는 다양한 돌발 상황인 제2 이벤트들과, 실제 주행 시 발생할 수 있는 장애인 제3 이벤트들과, 실제 주행 시 발생할 수 있는 주행모드전환인 제4 이벤트들이 타임라인에 따라 발생함과 동시에 제1 이벤트 정보를 통해 자율주행 평가시스템(1)의 제1 평가부(36)에 의해 동적운행 위험도(제1 평가점수)가 산출되도록 한다.
또한 VR 영상 등록부(34)는 등록 요청된 VR 영상의 식별정보와, 해당 VR 영상에 포함된 제1, 2, 3, 4 이벤트 정보들을 메모리(31)에 저장한다.
이때 제1 이벤트 정보는 자율주행차량(C)의 동적운행 위험도를 평가하기 위한 각 인접차량의 속도 및 방향, 현시체계정보로 이루어지는 이벤트 값 및 내용을 포함하고, 제2 이벤트 정보는 자율주행차량(C)의 돌발 상황에 대한 대처를 평가하기 위한 각 돌발 상황의 이벤트 값 및 내용으로 이루어지고, 제3 이벤트 정보는 자율주행차량(C)의 장애에 대한 대처를 평가하기 위한 각 장애의 이벤트 값 및 내용으로 이루어지고, 제4 이벤트 정보는 주행모드 전환에 대한 대처를 평가하기 위한 각 주행모드의 이벤트 값 및 내용으로 이루어진다.
VR 영상 전시부(35)는 관리자(User)로부터 자율주행 평가 테스트를 요청받을 때 제어부(30)의 제어에 따라 실행된다. 이때 제어부(30)는 자율주행 평가 테스트를 요청받으면, VR 영상 전시부(35) 및 제1, 2, 3, 4, 평가부(36), (37), (38), (39)를 실행시킨다.
도 3은 도 2의 VR 영상 전시부를 나타내는 블록도이다.
도 3의 VR 영상 전시부(35)는 사용자로부터 자율주행 평가 테스트를 요청받을 때, 제어부(30)의 제어에 따라 실행된다.
또한 VR 영상 전시부(35)는 도 3에 도시된 바와 같이, 전시모듈(351)과, 이벤트정보 추출모듈(353), 이벤트정보 파싱모듈(355)로 이루어진다.
전시모듈(351)은 VR 영상 등록부(34)에 의해 등록된 VR 영상을 전시한다.
이벤트정보 추출모듈(353)은 전시모듈(351)에 의해 전시되는 VR 영상의 타임라인에 따라 현재 발생된 이벤트정보들을 추출한다.
이벤트정보 파싱모듈(355)은 이벤트정보 추출모듈(353)에 의해 추출된 이벤트정보의 식별정보를 통해 해당 이벤트가 제1, 2, 3, 4 이벤트 중 어디에 속하는지를 검출한다.
또한 이벤트정보 파싱모듈(355)은 검출된 이벤트의 종류가 제1 이벤트인 경우, 제1 평가부(36)로 이벤트정보를 입력한다.
또한 이벤트정보 파싱모듈(355)은 검출된 이벤트의 종류가 제2 이벤트인 경우, 제2 평가부(37)로 이벤트정보를 입력한다.
또한 이벤트정보 파싱모듈(334)은 검출된 이벤트의 종류가 제3 이벤트인 경우, 제3 평가부(38)로 이벤트정보를 입력한다.
또한 이벤트정보 파싱모듈(334)은 검출된 이벤트의 종류가 제4 이벤트인 경우, 제4 평가부(39)로 이벤트정보를 입력한다.
즉 본 발명의 자율주행 안전운전능력 평가시스템(3)은 테스트가 수행되면, VR 영상 전시부(35)에 의해 VR 영상이 전시됨과 동시에 제1 평가부(36)가 메모리(31)에 저장된 해당 제1 이벤트정보를 활용하여 해당 자율주행차량의 동적운행 위험도(제1 평가점수)를 산출하며, VR 영상 전시부(35)로부터 입력된 제2, 3, 4 이벤트정보를 활용하여 제2, 3, 4 이벤트 발생 시, 제2, 3, 4 평가부(37), (38), (39)들이 각각 실행됨으로써 제1, 2, 3 이벤트 발생에 따른 자율주행차량(C)의 움직임벡터의 분석을 통해 동적운행 위험도에 대한 평가점수, 돌발 상황 대처에 대한 평가점수, 장애 대처에 대한 평가점수, 주행모드전환 대처에 대한 평가점수가 산출될 수 있게 된다.
도 4는 도 2의 제1 평가부에 활용되는 자율주행 속도 및 방향의 파라미터 범위를 설명하기 위한 예시도이고, 도 5는 도 2의 제1 평가부에 활용되는 인공지능 알고리즘의 학습과정을 나타내는 설명도이다.
제1 평가부(36)는 VR 영상 전시부(35)로부터 제1 이벤트정보를 입력받는다. 이때 제1 이벤트정보는 현재 전시되고 있는 VR 영상의 타임라인에 따른 각 인접차량의 속도 및 방향정보와, 현시체계정보를 포함한다.
또한 제1 평가부(36)는 데이터송수신부(32)를 통해 자율주행차량(C)의 ECU로부터 전송받은 움직임벡터(자율주행차량의 속도 및 방향정보)를 입력받는다.
또한 제1 평가부(36)는 메모리(31)에 저장된 인공지능 알고리즘을 이용하여 입력된 현재차량의 속도 및 방향정보, 각 인접차량의 속도 및 방향정보, 현시체계정보를 분석하여 자율주행차량의 동적운행 위험도(제1 평가점수)를 산출한다.
즉 제1 평가부(36)는 특정 이벤트가 발생될 때에만 실행되는 것이 아니라, 자율주행 평가 테스트 진행부터 완료될 때까지 지속적으로 실행됨으로써 자율주행차량의 동적운행 위험도를 산출하게 된다.
이때 인공지능 알고리즘은 도 4와 5에 도시된 바와 같이, 자율주행차량의 속도 및 방향에 대한 로그데이터를 기반으로 동적운행 위험도를 분석 및 평가한다.
도 6은 도 2의 제2 평가부를 나타내는 블록도이다.
제2 평가부(37)는 도 6에 도시된 바와 같이, 제2 이벤트정보 입력모듈(371)과, 센서별 가상측정값 검출모듈(372), 출력모듈(373), 움직임벡터 입력모듈(374), 분석모듈(375), 제3 평가점수 산출모듈(376)로 이루어진다.
제2 이벤트정보 입력모듈(371)은 VR 영상 전시부(35)로부터 제2 이벤트정보를 입력받을 때 실행된다. 이때 제2 이벤트정보는 돌발 상황 대처를 평가하기 위한 시나리오의 이벤트 값 및 내용으로 이루어지며, 상세하게로는 해당 이벤트의 종류를 식별하기 위한 식별정보, 이벤트 값 및 내용으로 이루어진다.
즉 제2 이벤트정보는 현재 전시되고 있는 VR 영상에서 제2 이벤트가 발생될 때, VR 영상 전시부(35)에 의해 검출되어 제2 이벤트정보 입력모듈(371)로 입력된다.
센서별 가상측정값 검출모듈(372)은 제2 이벤트정보 입력모듈(371)을 통해 입력된 제2 이벤트정보와, 메모리(31)에 저장된 센서 기준테이블을 참조하여 제2 이벤트에 따른 자율주행차량(C)의 센서별 가상측정값을 추출한다.
이때 가상측정값은 제2 이벤트가 발생될 때, 제2 이벤트에 대응되는 자율주행차량(C)의 각 센서에서 측정되는 측정값으로 정의된다.
출력모듈(373)은 센서별 가상측정값 검출모듈(372)에 의해 검출된 센서별 가상측정값을 데이터송수신부(31)를 ㅌ오해 자율주행차량(C)의 ECU로 출력한다.
즉 자율주행차량(C)은 구비된 카메라가 감시영상을 촬영하여 획득된 영상분석을 통해 제2 이벤트 발생을 감지하도록 구성되되, 각 센서는 출력모듈(373)을 통해 입력된 센서별 가상측정값을 통해 제2 이벤트 발생을 감지하도록 구성됨으로써 제2 이벤트에 대한 대처주행을 수행하게 된다.
이때 자율주행차량(C)의 ECU는 제2 이벤트에 대한 대처주행이 이루어지면, 대처주행에 대응되는 움직임벡터 정보를 자율주행 안전운전능력 평가시스템(3)으로 출력한다.
움직임벡터 입력모듈(374)은 데이터송수신부(32)를 통해 자율주행차량(C)의 ECU로부터 전송받은 움직임벡터를 입력받는다.
분석모듈(375)은 기 설정된 돌발 상황 평가 알고리즘을 이용하여 움직임벡터 입력모듈(374)에 의해 입력된 움직임벡터 정보 및 제2 이벤트정보 입력모듈(371)을 통해 입력된 제2 이벤트정보를 분석하여 해당 제2 이벤트에 대응하는 자율주행차량(C)의 대처주행을 분석한다.
제3 평가점수 산출모듈(376)은 분석모듈(375)에 의해 검출된 분석데이터와, 해당 제2 이벤트의 난이도를 활용하여 해당 제2 이벤트에 대한 자율주행차량(C)의 자율주행 평가점수(제1 평가점수)를 산출한다.
도 7은 도 2의 제3 평가부를 나타내는 블록도이다.
제3 평가부(38)는 도 7에 도시된 바와 같이, 제3 이벤트정보 입력모듈(381)과, 센서별 장애 이벤트-값 검출모듈(392), 제4 출력모듈(393), 제4 움직임벡터 입력모듈(394), 제4 분석모듈(395), 제4 평가점수 산출모듈(396)로 이루어진다.
제3 이벤트정보 입력모듈(381)은 VR 영상 전시부(35)로부터 제3 이벤트정보를 입력받는다. 이때 제3 이벤트정보는 고장 및 장애에 대한 대처를 평가하기 위한 시나리오의 이벤트 값 및 내용으로 이루어지며, 상세하게로는 해당 이벤트의 종류를 식별하기 위한 식별정보, 이벤트 값 및 내용으로 이루어진다.
즉 제3 이벤트정보는 각 센서 중 적어도 하나 이상에서 장애가 발생될 때, VR 영상 전시부(35)에 의해 제3 평가부(38)로 입력된다.
센서별 장애 이벤트-값 검출모듈(382)은 제3 이벤트정보 입력모듈(381)을 통해 입력된 제3 이벤트정보와, 메모리(31)에 저장된 센서 기준테이블을 참조하여 제3 이벤트에 따른 자율주행차량(C)의 센서별 장애 이벤트-값을 검출한다.
이때 장애 이벤트-값은 자율주행차량(C)의 센서들 중 적어도 하나 이상에서 장애로 판단할 수 있는 값으로 정의된다.
제4 출력모듈(393)은 센서별 장애 이벤트-값 검출모듈(382)에 의해 검출된 센서별 장애 이벤트값을 데이터송수신부(31)를 통해 자율주행차량(C)의 ECU로 출력한다.
이때 자율주행차량(C)의 ECU는 제4 출력모듈(393)을 통해 센서별 장애 이벤트-값을 입력받으면, 입력된 센서별 장애 이벤트-값에 따른 장애에 대한 대처주행을 수행하고, 제3 이벤트에 대한 대처주행이 이루어지면, 대처주행에 대응되는 움직임벡터 정보를 자율주행 안전운전능력 평가시스템(3)으로 출력한다.
제3 움직임벡터 입력모듈(384)은 데이터송수신부(32)를 통해 자율주행차량(C)의 ECU로부터 전송받은 움직임벡터를 입력받는다.
제4 분석모듈(395)은 기 설정된 장애 평가 알고리즘을 이용하여 제3 움직임벡터 입력모듈(384)에 의해 입력된 움직임벡터 정보 및 제3 이벤트정보 입력모듈(381)을 통해 입력된 제3 이벤트정보를 분석하여 해당 제3 이벤트에 대응하는 자율주행차량(C)의 대처주행을 분석한다.
도 8은 도 7의 제3 평가부를 설명하기 위한 예시도이다.
제3 평가부(38)는 도 8에 도시된 바와 같이, 제3 이벤트, 즉 장애의 등급을 저속주행모드(910), 수동운전모드(920) 및 비상정지모드(930)로 분류한다.
예를 들어, 저속주행모드(910)는 자율주행에 큰 영향을 미치지 않는 장애 시 주행모드를 의미하며 충분히 안전성을 확보하면서 자율주행이 이루어지는 주행모드로 정의되고, 수동운전모드(920)는 저속주행모드(920) 보다 심한 장애 시 주행모드를 의미하며 사전에 허가 받은 운전자에게 제어권이 이양되는 주행모드로 정의되고, 비상정지모드(930)는 자율주행에 매우 큰 영향을 미치는 장애 시 주행모드를 의미하며 수동운전모드로 전환 상황에서 수동운전이 불가능한 운전자가 운전석에 있을 경우 안전지대로 비상 정차 후 비상정지를 알리는 주행모드로 정의된다.
즉 제3 평가부(38)의 제4 분석모듈(395)은 제3 이벤트의 장애 난이도에 따라 주행모드를 분석하여 발생된 장애에 따른 정확한 주행모드가 이루어졌는지를 분석할 수 있다.
제4 평가점수 산출모듈(396)은 제4 분석모듈(395)에 의해 검출된 분석데이터와, 해당 제3 이벤트의 난이도를 활용하여 해당 제3 이벤트에 대한 자율주행차량(C)의 장애 대처 평가점수(제3 평가점수)를 산출한다.
도 9는 도 2의 제4 평가부를 나타내는 블록도이다.
제4 평가부(39)는 도 9에 도시된 바와 같이, 제4 이벤트정보 입력모듈(391)과, 주행모드전환 이벤트-값 검출모듈(392), 제4 출력모듈(393), 제4 움직임벡터 입력모듈(394), 제4 분석모듈(395), 제4 평가점수 산출모듈(396)로 이루어진다.
제4 이벤트정보 입력모듈(391)은 VR 영상 전시부(35)로부터 제4 이벤트정보를 입력받는다. 이때 제4 이벤트정보는 주행모드 전환을 알리는 이벤트-값 및 내용으로 이루어지며, 상세하게로는 해당 이벤트의 종류를 식별하기 위한 식별정보, 이벤트 값 및 내용으로 이루어진다.
즉 제4 이벤트정보는 주행모드에서 수동모드로 또는 수동모드에서 주행모드로 전환이 필요할 때, VR 영상 전시부(35)에 의해 제4 평가부(39)로 입력된다.
주행모드전환 이벤트-값 검출모듈(392)은 제4 이벤트정보 입력모듈(391)을 통해 제4 이벤트정보가 입력되면, 주행모드전환을 나타내는 주행모드전환 이벤트-값을 검출한다.
제4 출력모듈(393)은 주행모드전환 이벤트-값 검출모듈(392)에 의해 검출된 주행모드전환 이벤트-값이 ECU로 출력되도록 데이터송수신부(32)를 제어한다.
이때 자율주행차량(C)의 ECU는 제4 출력모듈(393)을 통해 주행모드전환 이벤트-값을 입력받으면, 입력된 주행모드전환 이벤트-값에 따른 주행모드전환을 수행하고, 이에 대한 움직임벡터 정보를 자율주행 안전운전능력 평가시스템(3)으로 출력한다.
제4 움직임벡터 입력모듈(394)은 데이터송수신부(32)를 통해 자율주행차량(C)의 ECU로부터 전송받은 움직임벡터를 입력받는다.
제4 분석모듈(395)은 기 설정된 주행모드전환 평가 알고리즘을 이용하여 제4 움직임벡터 입력모듈(394)에 의해 입력된 움직임벡터 정보 및 제4 이벤트정보 입력모듈(391)을 통해 입력된 제4 이벤트정보를 분석하여 해당 제4 이벤트에 대응하는 자율주행차량(C)의 대처주행을 분석한다.
예를 들어, 제4 분석모듈(395)은 수동운전모드로 전환 시 운전자가 제어권을 넘겨받아 운전하였는지, 해당 운전자가 사전 교육 및 면허(허가)가 있는 운전자인지, 면허가 없는 운전자일 경우, 자율주행 상태를 유지하거나 비상정지를 하였는지를 분석하며, 자율운전모드로 전환 시, 제어권 이양이 정확하게 이루어졌는지를 분석하도록 구성될 수 있다.
다시 도 2로 돌아가서 최종 평가점수 산출부(40)를 살펴보면, 최종 평가점수 산출부(40)는 제1 평가부(36), 제2 평가부(37), 제3 평가부(38) 및 제4 평가부(39)에 의해 산출된 평가점수들을 합산 및 가공하여 최종적으로 해당 자율주행차량(C)의 평가점수를 산출한다.
이때 최종 평가점수 산출부(40)는 기 설정된 임계점수와 산출된 최종 평가점수를 비교하여 합겹/불합격을 판별하도록 구성될 수 있다.
부가 서비스부(41)는 자율주행차량(C)의 테스트에 필요한 공지된 다양한 기타 서비스를 수행한다.
이와 같이 본 발명의 일실시예인 자율주행 평가시스템(1)은 VR 영상의 타임라인에 따른 각 인접차량의 속도 및 방향정보와 ECU로부터 입력된 자율주행차량의 속도 및 방향정보를 입력값으로 하여 동적운행 위험도를 검출하는 인공지능(AI) 알고리즘을 이용하여 자율주행 평가 시, 동적운행 위험도인 제1 평가점수를 산출하도록 구성됨으로써 자율주행차량 및 주변 인접차량의 속도 및 방향 전환에 따른 다양한 변수를 감안하여 동적운행 위험도에 대한 검출이 가능하여 자율주행차량의 안전운전능력을 극대화시킴과 동시에 자율주행차량의 안전운전능력 평가의 신뢰도 및 안전성을 높일 수 있다.
또한 본 발명의 자율주행 평가시스템(1)은 VR 영상 개발 시, 자율주행차량의 돌발 상황 등에 대한 대처를 평가하기 위한 이벤트인 제1 이벤트정보, 고장 및 장애에 대한 대처를 평가하기 위한 제2 이벤트정보 및 주행모드전환에 대한 대처를 평가하기 위한 제3 이벤트정보가 타임라인에 매칭되도록 VR 영상을 개발하도록 구성됨으로써 실제 도로에서 발생할 수 있는 다양한 이벤트를 자율주행차량에게 제공할 수 있게 된다.
또한 본 발명의 자율주행 평가시스템(1)은 자율주행 평가 시, 해당 VR 영상의 타임라인에 따른 제2, 3, 4 이벤트들 각각에 대한 센서별 가상측정값을 검출한 후, 해당 자율주행차량의 ECU로 출력함과 동시에 ECU로부터 입력된 움직임벡터를 분석하여 자율주행차량의 대처에 대한 평가점수(등급)를 산출함으로써 평가의 신뢰도 및 정확성을 극대화시킬 수 있다.
1:자율주행 평가시스템 30:제어부 31:메모리
32:데이터 송수신부 33:학습부 34:VR 영상 등록부
35:VR 영상 전시부 36:제1 평가부 37:제2 평가부
38:제3 평가부 39:제4 평가부 40:최종 평가점수 산출부
41:부가 서비스부 351:전시모듈 353:이벤트정보 추출모듈
355:이벤트정보 파싱모듈 371:제2 이벤트정보 입력모듈
372:센서별 가상측정값 검출모듈 373:출력모듈
374:움직임벡터 입력모듈 375:분석모듈
376:제2 평가점수 산출모듈 381:제3 이벤트정보 입력모듈
382:센서별 장애이벤트-값 검출모듈 383:제3 출력모듈
384:제3 움직임벡터 입력모듈 385:제3 분석모듈
386:제3 평가점수 산출모듈 391:제4 이벤트정보 입력모듈
392:주행모드전환 이벤트-값 검출모듈
393:제4 출력모듈 394:제4 움직임벡터 입력모듈
395:제4 분석모듈 396:제4 평가점수 산출모듈
32:데이터 송수신부 33:학습부 34:VR 영상 등록부
35:VR 영상 전시부 36:제1 평가부 37:제2 평가부
38:제3 평가부 39:제4 평가부 40:최종 평가점수 산출부
41:부가 서비스부 351:전시모듈 353:이벤트정보 추출모듈
355:이벤트정보 파싱모듈 371:제2 이벤트정보 입력모듈
372:센서별 가상측정값 검출모듈 373:출력모듈
374:움직임벡터 입력모듈 375:분석모듈
376:제2 평가점수 산출모듈 381:제3 이벤트정보 입력모듈
382:센서별 장애이벤트-값 검출모듈 383:제3 출력모듈
384:제3 움직임벡터 입력모듈 385:제3 분석모듈
386:제3 평가점수 산출모듈 391:제4 이벤트정보 입력모듈
392:주행모드전환 이벤트-값 검출모듈
393:제4 출력모듈 394:제4 움직임벡터 입력모듈
395:제4 분석모듈 396:제4 평가점수 산출모듈
Claims (5)
- ECU(Electronic Control Unit), 카메라 및 센서들을 포함하는 자율주행차량의 안전운전능력을 평가하기 위한 자율주행 안전운전능력 평가시스템에 있어서:
상기 자율주행 안전운전능력 평가시스템은
실제 주행에 대응되는 가상영상과, 상기 가상영상의 타임라인에 따른 각 인접차량의 속도 및 방향, 현시체계정보를 포함하는 제1 이벤트정보가 매칭된 영상인 VR 영상을 입력받아 등록하는 VR 영상 등록부;
자율주행차량의 속도 및 방향정보, 각 인접차량의 속도 및 방향정보, 현시체계정보를 입력값으로 하여, 자율주행차량의 동적운행 위험도인 제1 평가점수를 출력값으로 하는 기 설정된 인공지능 알고리즘과, 상기 VR 영상 등록부에 의해 등록된 VR 영상과, 상기 VR 영상에 포함된 제1 이벤트 정보들의 이벤트 값 및 내용이 저장되는 메모리;
사용자로부터 테스트 요청 시 실행되어 상기 VR 영상을 전시하는 전시모듈과, 상기 전시모듈에 의해 전시되는 VR 영상의 타임라인에 따른 제1 이벤트정보들을 추출하는 이벤트정보 추출모듈과, 상기 이벤트정보 추출모듈에 의해 추출된 제1 이벤트정보를 출력하는 이벤트정보 파싱모듈을 포함하는 VR 영상 전시부;
상기 ECU로부터 전송받은 대처주행에 따른 자율주행차량의 현재 속도 및 방향정보를 포함하는 움직임벡터를 입력받으며, 상기 인공지능 알고리즘을 이용하여 자율주행차량의 속도 및 방향, 각 인접차량의 속도 및 방향, 현시체계정보에 따른 동적운행 위험도인 제1 평가점수를 산출하는 제1 평가부를 포함하고,
자율주행 평가시스템은 제2 평가부를 더 포함하고,
상기 VR 영상에는 돌발 상황에 대응되는 제2 이벤트정보가 타임라인에 매칭되고,
상기 이벤트정보 추출모듈은 상기 전시모듈에 의해 전시되는 VR 영상의 타임라인에 따른 제2 이벤트정보들을 추출하고,
상기 이벤트정보 파싱모듈은 상기 이벤트정보 추출모듈에 의해 추출된 제2 이벤트정보를 상기 제2 평가부로 입력하고,
상기 제2 평가부는
상기 VR 영상 전시부로부터 제2 이벤트정보를 입력받는 제2 이벤트정보 입력모듈;
입력된 제2 이벤트정보와, 자율주행차량의 기 설정된 센서별 위치 및 식별정보를 활용하여 상기 입력된 제2 이벤트정보에 따른 자율주행차량(C)의 센서별 가상측정값을 검출하는 센서별 가상측정값 검출모듈;
상기 센서별 가상측정값 검출모듈에 의해 검출된 센서별 가상측정값을 상기 ECU로 출력하는 출력모듈;
상기 ECU로부터 움직임벡터를 입력받는 움직임벡터 입력모듈;
기 설정된 돌발상황 대처 평가알고리즘을 이용하여 상기 움직임벡터 입력모듈에 의해 입력된 움직임벡터 정보 및 제2 이벤트정보를 분석하여 제2 이벤트에 대응하는 자율주행차량(C)의 대처주행을 분석하는 분석모듈;
상기 분석모듈에 의해 검출된 분석데이터와, 기 설정된 해당 제2 이벤트의 난이도를 활용하여 제2 이벤트에 대한 자율주행차량(C)의 돌발 상황 대처 평가점수인 제2 평가점수를 산출하는 제2 평가점수 산출모듈을 포함하는 것을 특징으로 하는 자율주행 평가시스템. - 제1항에 있어서, 상기 자율주행 평가시스템은 기 설정된 주기(T) 마다 실행되어 상기 인공지능 알고리즘을 학습시키는 학습부를 더 포함하는 것을 특징으로 하는 자율주행 평가시스템.
- 삭제
- 제2항에 있어서, 상기 자율주행 평가시스템은 제3 평가부를 더 포함하고,
상기 VR 영상에는 장애에 대응되는 제3 이벤트정보가 타임라인에 매칭되고,
상기 이벤트정보 추출모듈은 상기 전시모듈에 의해 전시되는 VR 영상의 타임라인에 따른 제3 이벤트정보들을 추출하고,
상기 이벤트정보 파싱모듈은 상기 이벤트정보 추출모듈에 의해 추출된 제3 이벤트정보를 상기 제3 평가부로 입력하고,
상기 제3 평가부는
상기 VR 영상 전시부로부터 제3 이벤트정보를 입력받는 제3 이벤트정보 입력모듈;
입력된 제3 이벤트정보와, 자율주행차량의 기 설정된 센서별 위치 및 식별정보를 활용하여 상기 입력된 제3 이벤트정보에 따른 자율주행차량(C)의 센서별 장애 이벤트-값을 검출하는 센서별 장애 이벤트-값 검출모듈;
상기 센서별 장애 이벤트-값 검출모듈에 의해 검출된 센서별 장애 이벤트-값을 상기 ECU로 출력하는 제3 출력모듈;
상기 ECU로부터 움직임벡터를 입력받는 제3 움직임벡터 입력모듈;
기 설정된 장애 평가 알고리즘을 이용하여 상기 제3 움직임벡터 입력모듈에 의해 입력된 움직임벡터 정보 및 제3 이벤트정보를 분석하여 제3 이벤트에 대응하는 자율주행차량(C)의 대처주행을 분석하는 제3 분석모듈;
상기 제3 분석모듈에 의해 검출된 분석데이터와, 기 설정된 해당 제3 이벤트의 난이도를 활용하여 제3 이벤트에 대한 자율주행차량(C)의 장애 대처 평가점수인 제2 평가점수를 산출하는 제3 평가점수 산출모듈을 포함하는 것을 특징으로 하는 자율주행 평가시스템. - 제4항에 있어서, 상기 자율주행 평가시스템은 제4 평가부를 더 포함하고,
상기 VR 영상에는 주행모드전환에 대응되는 제4 이벤트정보가 타임라인에 매칭되고,
상기 이벤트정보 추출모듈은 상기 전시모듈에 의해 전시되는 VR 영상의 타임라인에 따른 제4 이벤트정보들을 추출하고,
상기 이벤트정보 파싱모듈은 상기 이벤트정보 추출모듈에 의해 추출된 제4 이벤트정보를 상기 제4 평가부로 입력하고,
상기 제4 평가부는
상기 VR 영상 전시부로부터 제4 이벤트정보를 입력받는 제4 이벤트정보 입력모듈;
상기 제3 이벤트정보 입력모듈을 통해 제3 이벤트정보가 입력되면, 주행모드전환을 나타내는 주행모드전환 이벤트-값을 생성하여 상기 ECU로 출력하는 주행모드전환 이벤트-값 출력모듈;
상기 ECU로부터 움직임벡터를 입력받는 제4 움직임벡터 입력모듈;
기 설정된 주행모드전환 평가 알고리즘을 이용하여 상기 제4 움직임벡터 입력모듈에 의해 입력된 움직임벡터 정보 및 제4 이벤트정보를 분석하여 제4 이벤트에 대응하는 자율주행차량(C)의 대처주행을 분석하는 제4 분석모듈;
상기 제4 분석모듈에 의해 검출된 분석데이터와, 기 설정된 해당 제4 이벤트의 난이도를 활용하여 제4 이벤트에 대한 자율주행차량(C)의 주행모드전환 평가점수인 제4 평가점수를 산출하는 제4 평가점수 산출모듈을 더 포함하는 것을 특징으로 하는 자율주행 평가시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200107854A KR102368427B1 (ko) | 2020-08-26 | 2020-08-26 | 인공지능 알고리즘을 이용한 자율주행 동적운행 위험도 분석 및 평가 방법과, 이를 이용한 자율주행 평가시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200107854A KR102368427B1 (ko) | 2020-08-26 | 2020-08-26 | 인공지능 알고리즘을 이용한 자율주행 동적운행 위험도 분석 및 평가 방법과, 이를 이용한 자율주행 평가시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102368427B1 true KR102368427B1 (ko) | 2022-03-02 |
Family
ID=80815088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200107854A KR102368427B1 (ko) | 2020-08-26 | 2020-08-26 | 인공지능 알고리즘을 이용한 자율주행 동적운행 위험도 분석 및 평가 방법과, 이를 이용한 자율주행 평가시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102368427B1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115923813A (zh) * | 2023-03-13 | 2023-04-07 | 北京安录国际技术有限公司 | 一种基于速度急变特征的驾驶行为分析方法及系统 |
KR102579590B1 (ko) | 2022-12-28 | 2023-09-18 | 도로교통공단 | 도로교통법 기반 자율주행차 운전능력 평가시나리오 생성 시스템 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012069915A2 (en) * | 2010-11-26 | 2012-05-31 | Toyota Jidosha Kabushiki Kaisha | Driving operation evaluation apparatus and driving operation evaluation method |
KR20130072172A (ko) * | 2011-12-21 | 2013-07-01 | 하만 베커 오토모티브 시스템즈 게엠베하 | 차량의 디스플레이를 이용한 증강 현실 발생 방법 및 시스템 |
JP2017204261A (ja) * | 2016-05-11 | 2017-11-16 | バイドゥ ユーエスエー エルエルシーBaidu USA LLC | 自律走行車において拡張仮想現実コンテンツを提供するシステム及び方法 |
US20180033221A1 (en) * | 2016-07-27 | 2018-02-01 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for testing operation of unmanned vehicle |
KR20190100896A (ko) * | 2019-06-05 | 2019-08-29 | 엘지전자 주식회사 | 자율 주행 차량 제어 방법 |
KR20190103079A (ko) * | 2019-08-14 | 2019-09-04 | 엘지전자 주식회사 | 증강현실을 이용한 차량 외부 영상 정보 출력 방법 및 이를 위한 장치 |
US20190382027A1 (en) * | 2018-06-13 | 2019-12-19 | Toyota Jidosha Kabushiki Kaisha | Driving evaluation device, driving evaluation method, and non-transitory readable recording medium storing driving evaluation program |
-
2020
- 2020-08-26 KR KR1020200107854A patent/KR102368427B1/ko active IP Right Grant
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012069915A2 (en) * | 2010-11-26 | 2012-05-31 | Toyota Jidosha Kabushiki Kaisha | Driving operation evaluation apparatus and driving operation evaluation method |
KR20130072172A (ko) * | 2011-12-21 | 2013-07-01 | 하만 베커 오토모티브 시스템즈 게엠베하 | 차량의 디스플레이를 이용한 증강 현실 발생 방법 및 시스템 |
JP2017204261A (ja) * | 2016-05-11 | 2017-11-16 | バイドゥ ユーエスエー エルエルシーBaidu USA LLC | 自律走行車において拡張仮想現実コンテンツを提供するシステム及び方法 |
US20180033221A1 (en) * | 2016-07-27 | 2018-02-01 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for testing operation of unmanned vehicle |
US20190382027A1 (en) * | 2018-06-13 | 2019-12-19 | Toyota Jidosha Kabushiki Kaisha | Driving evaluation device, driving evaluation method, and non-transitory readable recording medium storing driving evaluation program |
KR20190100896A (ko) * | 2019-06-05 | 2019-08-29 | 엘지전자 주식회사 | 자율 주행 차량 제어 방법 |
KR20190103079A (ko) * | 2019-08-14 | 2019-09-04 | 엘지전자 주식회사 | 증강현실을 이용한 차량 외부 영상 정보 출력 방법 및 이를 위한 장치 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102579590B1 (ko) | 2022-12-28 | 2023-09-18 | 도로교통공단 | 도로교통법 기반 자율주행차 운전능력 평가시나리오 생성 시스템 |
CN115923813A (zh) * | 2023-03-13 | 2023-04-07 | 北京安录国际技术有限公司 | 一种基于速度急变特征的驾驶行为分析方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102158497B1 (ko) | 자율주행 평가시스템 | |
KR102324978B1 (ko) | 신뢰도를 높인 자율주행 평가용 vr 영상 개발 방법 및 이를 이용한 자율주행 안전운전능력 평가시스템 | |
KR101967339B1 (ko) | 심층학습 기반의 adas 센서 고장 진단 및 백업을 위한 장치 및 방법 | |
JP2644844B2 (ja) | 分散型画像認識システム | |
KR102368427B1 (ko) | 인공지능 알고리즘을 이용한 자율주행 동적운행 위험도 분석 및 평가 방법과, 이를 이용한 자율주행 평가시스템 | |
CN112542055B (zh) | 用于辅助机动车的方法 | |
WO2021006262A1 (ja) | 外界認識センサのセンシング性能評価診断システム、および、センシング性能評価診断方法 | |
CN108482427A (zh) | 一种非接触式轨道车辆障碍物检测系统和安全控制方法 | |
JP6962604B2 (ja) | 極限状況でフォールトトレランス及びフラクチュエーションロバスト性のある、自動車間通信基盤の協業的なブラインドスポット警報方法及び装置 | |
CN104108395A (zh) | 用于修改机动车辆的驾驶辅助系统的配置的方法和装置 | |
CN111830942A (zh) | 一种安全自动驾驶方法及系统 | |
US20230211805A1 (en) | Concept For Supporting a Motor Vehicle Being Guided in at Least Partially Automated Manner | |
Peng et al. | Intelligent method for identifying driving risk based on V2V multisource big data | |
JP7461399B2 (ja) | 原動機付き車両の走行動作を補助する方法及びアシスト装置並びに原動機付き車両 | |
Harper et al. | Safety Validation of Autonomous Vehicles using Assertion Checking | |
CN109195849B (zh) | 摄像装置 | |
Chelouati et al. | A framework for risk-awareness and dynamic risk assessment for autonomous trains | |
CN117688970A (zh) | 检查神经网络对预测任务的执行的方法 | |
JP6678706B2 (ja) | 種別判定プログラム、種別判定装置及び種別判定方法 | |
KR102678060B1 (ko) | 운전면허등급 평가 및 표출 시스템 | |
US20220402512A1 (en) | Method and system for operating an at least partially automated vehicle | |
JP6961041B1 (ja) | 異常通知システム及び異常通知方法 | |
Helsch et al. | Qualitative monitors based on the connected dependability cage approach | |
KR20220110894A (ko) | 안전사고 방지를 위한 에지컴퓨팅 기반 지능형 영상분석 시스템 | |
CN113954826A (zh) | 一种车辆盲区的车辆控制方法及其系统、车辆 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |