KR20200095355A - 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위해 자율 주행 안전 확인을 위한 rnn의 학습 방법 및 학습 장치, 그리고 테스트 방법 및 테스트 장치 - Google Patents

자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위해 자율 주행 안전 확인을 위한 rnn의 학습 방법 및 학습 장치, 그리고 테스트 방법 및 테스트 장치 Download PDF

Info

Publication number
KR20200095355A
KR20200095355A KR1020200001714A KR20200001714A KR20200095355A KR 20200095355 A KR20200095355 A KR 20200095355A KR 1020200001714 A KR1020200001714 A KR 1020200001714A KR 20200001714 A KR20200001714 A KR 20200001714A KR 20200095355 A KR20200095355 A KR 20200095355A
Authority
KR
South Korea
Prior art keywords
learning
test
training
image
feature vector
Prior art date
Application number
KR1020200001714A
Other languages
English (en)
Other versions
KR102396267B1 (ko
Inventor
김계현
김용중
김학경
남운현
부석훈
성명철
신동수
여동훈
유우주
이명춘
이형수
장태웅
정경중
제홍모
조호진
Original Assignee
주식회사 스트라드비젼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스트라드비젼 filed Critical 주식회사 스트라드비젼
Publication of KR20200095355A publication Critical patent/KR20200095355A/ko
Application granted granted Critical
Publication of KR102396267B1 publication Critical patent/KR102396267B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/082Selecting or switching between different modes of propelling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0061Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2115Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0026Lookup tables or parameter maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/005Sampling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/08Predicting or avoiding probable or impending collision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 자율 주행 자동차의 주행 모드를 변경하기 위해 사용되는, 자율 주행 안전을 확인하는 RNN(Recurrent Neural Network)의 학습 방법에 관한 것으로, 학습 장치는, (a) 자율 주행 자동차의 전방 및 후방 카메라에 대응되는 트레이닝 이미지가 획득되면, 트레이닝 이미지의 각각의 페어를 대응되는 CNN에 입력하여, 트레이닝 이미지를 컨캐터네이팅하고 학습용 특징 맵을 생성하는 단계, (b) 학습용 특징 맵을 포워드 RNN의 시퀀스에 대응되는 LSTM(Long Short-Term Memory) 모델과 백워드 RNN의 시퀀스에 대응되는 LSTM에 입력하여, 학습용 업데이트 특징 맵(Updated Feature Map)을 생성하고, 학습용 특징 벡터(Feature Vector)를 어텐션 레이어(Attention Layer)에 입력하여 학습용 자율 주행 모드 값을 생성하는 단계, 및 (c) 로스 레이어로 하여금 로스를 산출하도록 하고 LSTM 모델을 학습하도록 하는 단계를 포함하는 것을 특징으로 하는 방법을 제공한다.

Description

자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위해 자율 주행 안전 확인을 위한 RNN의 학습 방법 및 학습 장치, 그리고 테스트 방법 및 테스트 장치{LEARNING METHOD AND LEARNING DEVICE OF RECURRENT NEURAL NETWORK FOR AUTONOMOUS DRIVING SAFETY CHECK FOR CHANGING DRIVING MODE BETWEEN AUTONOMOUS DRIVING MODE AND MANUAL DRIVING MODE, AND TESTING METHOD AND TESTING DEVICE USING THEM}
본 발명은 자율 주행 모드와 수동 주행 모드 사이의 모드 변경을 위한 RNN(Recurrent Neural Network)을 학습하는 방법 및 장치, 그리고, 이를 이용하여 테스트하는 방법 및 장치에 관한 것으로, 보다 상세하게는, 통합된 다수의 카메라 정보를 이용하여 자율 주행 자동차의 위험 상황을 인식하여 자율 주행 모드와 수동 주행 모드 사이의 주행 모드를 변경하기 위해 적어도 하나의 자율 주행 안전을 확인하는 RNN을 학습하는 방법 및 장치, 그리고, 이를 이용하여 테스트하는 방법 및 장치에 관한 것이다.
자율 주행 자동차는 한 곳에서 다른 곳으로 승객들을 수송하는데 도움을 주는 다양한 컴퓨팅 시스템을 사용한다. 일부 자율 주행 자동차는 파일럿, 운전자 또는 승객과 같은 운영자로부터 일부의 초기 입력 또는 연속 입력을 획득할 수 있다. 다른 시스템들, 예를 들어 오토 파일럿 시스템은, 운영자가 수동 주행 모드로부터 자율 주행 모드로 변경할 수 있도록 할 수 있다.
특히, 미국등록특허 US8818608호에는, 특정 조건 하에서 자율 주행 모드를 수동 주행 모드로 변경하는 방법이 개시되어 있다.
하지만, 종래의 자율 주행 자동차에서 주행 모드를 변경하려면 다양한 주행 정보가 필요하다. 이를 위해 다양한 센서들이 종래의 자율 주행 자동차에 설치되어야 하므로 종래의 자율 주행 자동차의 제조 비용을 증가시키는 문제점이 있다.
또한, 종래의 자율 주행 자동차에서는 주행 모드 변경을 위하여 다양한 센서로부터 대량의 센서 정보를 처리하여야 하므로, 막대한 컴퓨팅 소스(Computing Source)가 필요하다.
본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.
본 발명은 자율 주행 자동차의 제조 비용을 증가시키지 않으며 주행 모드 변경을 위한 자율 주행 안전을 확인할 수 있도록 하는 것을 다른 목적으로 한다.
본 발명은 자율 주행 자동차의 주행 모드 변경을 위한 주행 정보를 획득할 수 있는 센서의 수를 종래 방법에 비하여 최소화할 수 있도록 하는 것을 또 다른 목적으로 한다.
본 발명은 자율 주행 자동차의 주행 모드 변경을 위한 주행 정보를 획득하기 위해 센서 정보 처리를 더 적은 컴퓨팅 소스(Computing Source)로 가능하도록 하는 것을 또 다른 목적으로 한다.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한, 본 발명의 특징적인 구성은 하기와 같다.
본 발명의 일 태양에 따르면, 자율 주행 자동차의 주행 모드 변경을 위해 사용되는, 자율 주행 안정성을 확인하는 RNN(Recurrent Neural Network)을 학습하는 방법에 있어서, (a) 학습용 자율 주행 자동차의 학습용 전방 카메라와 학습용 후방 카메라에 각각 대응되는 시퀀스 이미지인 제1_1 트레이닝 이미지 내지 제1_n 트레이닝 이미지와 제2_1 트레이닝 이미지 내지 제2_n 트레이닝 이미지가 획득되면, 학습 장치가, 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지 - 상기 k는 정수이며, 시퀀스는 n으로부터 1로 진행됨 -로 구성된 페어(Pair) 각각을, 상기 페어 각각의 시퀀스에 대응되는 제1 CNN(Convolutional Neural Network) 내지 제n CNN으로 각각 입력하여, 제k CNN으로 하여금, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지를 컨캐터네이팅(Concatenating)하도록 한 다음, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 학습용 제1 특징 맵(Feature Map) 내지 학습용 제n 특징 맵을 생성하도록 하는 단계; (b) 상기 학습 장치가, (i) 상기 학습용 제1 특징 맵 내지 상기 학습용 제n 특징 맵을 포워드 RNN(Forward RNN)의 각각의 시퀀스에 대응되는 제1_1 LSTM(Long Short-Term Memory) 모델 내지 제1_n LSTM 모델 각각에 입력하고 백워드 RNN(Backward RNN)의 각각의 시퀀스에 대응되는 제2_1 LSTM 모델 내지 제2_n LSTM 모델 각각에 입력하여, (i-1) 제1_k LSTM 모델로 하여금, (i-1-a) 제1_(k+1) LSTM 모델에서 출력되는 학습용 제1_(k+1) 업데이트 특징 맵(Updated Feature Map)과 상기 제k CNN에서 출력되는 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제1_k 업데이트 특징 맵을 생성하도록 하며, (i-1-b) 상기 학습용 제1_k 업데이트 특징 맵에 대하여 FC 연산(Fully Connected Operation)을 적용한 결과인 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터를 생성하도록 하며, (i-2) 제2_k LSTM 모델로 하여금, (i-2-a) 제2_(k-1) LSTM 모델에서 출력되는 학습용 제2_(k-1) 업데이트 특징 맵과 상기 제k CNN에서 출력되는 상기 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제2_k 업데이트 특징 맵을 생성하도록 하며, (i-2-b) 상기 학습용 제2_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스, 및 (ii) 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 어텐션 레이어(Attention Layer)로 입력하여, 상기 어텐션 레이어로 하여금, 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 참조하여, 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지와 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지의 모든 시퀀스에서의 학습용 자율주행 모드 값(Autonomous-Driving Mode Value)을 생성하도록 하는 프로세스를 수행하는 단계; 및 (c) 상기 학습 장치가, 로스 레이어(Loss Layer)로 하여금 상기 학습용 자율주행 모드 값과 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 로스를 산출하도록 하는 프로세스, 및 상기 로스를 이용한 백프로퍼게이션을 통해 상기 로스를 최소화하도록 상기 제1_1 LSTM 모델 내지 상기 제1_n LSTM 모델과 상기 제2_1 LSTM 모델 내지 상기 제2_n LSTM 모델을 학습하는 프로세스를 수행하는 단계;를 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 (b) 단계에서, 상기 학습 장치는, 상기 어텐션 레이어로 하여금, (i) 학습용 제1_k 특징 벡터와 학습용 제2_k 특징 벡터를 컨캐터네이팅하도록 하여, 학습용 제1 컨캐터네이팅된 특징 벡터 내지 학습용 제n 컨캐터네이팅된 특징 벡터를 생성하도록 하며, (ii) 상기 학습용 제1 컨캐터네이팅된 특징 벡터 내지 상기 학습용 제n 컨캐터네이팅된 특징 벡터에 대하여 가중 평균(Weighted Average)하도록 하여, 상기 학습용 자율주행 모드 값을 생성하도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 (a) 단계에서, 상기 학습 장치는, 상기 제1 CNN 내지 상기 제n CNN 각각으로 하여금, (i) 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지를 각각 컨캐터네이팅하도록 하여 제k 컨캐터네이팅된 트레이닝 이미지를 생성하도록 하고, (ii) 상기 제k 컨캐터네이팅된 트레이닝 이미지에 대하여 컨벌루션 연산을 적용하도록 하여 상기 학습용 제1 특징 맵 내지 상기 학습용 제n 특징 맵을 생성하도록 한다.
일 실시예에서, 상기 (b) 단계에서, 상기 학습 장치는, (i) 상기 제1_k LSTM 모델로 하여금, 상기 학습용 제1_(k+1) 업데이트 특징 맵과 상기 학습용 제1_k 특징 맵을 참조하여, 학습용 주행 환경이 위험 상황(Hazard Situation)인지를 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터를 생성하도록 하는 프로세스, 및 (ii) 상기 제2_k LSTM 모델로 하여금, 상기 학습용 제2_(k-1) 업데이트 특징 맵과 상기 학습용 제2_k 특징 맵을 참조하여, 상기 학습용 주행 환경이 위험 상황인지를 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스를 수행하는 것을 특징으로 한다.
일 실시예에서, 상기 (c) 단계에서, 상기 학습 장치는, 상기 로스 레이어로 하여금 소프트맥스(Softmax) 알고리즘을 이용하여 상기 학습용 자율주행 모드 값을 정규화(Normalize)하는 프로세스, 및 정규화된 상기 학습용 자율주행 모드 값과 상기 GT를 참조하여 상기 로스를 산출하는 프로세스를 수행하는 것을 특징으로 한다.
일 실시예에서, 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지와 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지는, (i) (i-1) 상기 학습용 자율 주행 자동차의 상기 학습용 전방 카메라로부터 촬영되는 영상을 기설정된 시간 간격으로 샘플링하여 제1 시퀀스 이미지를 추출하는 프로세스, 및 (i-2) 추출된 상기 제1 시퀀스 이미지 각각에 대하여 자율주행 가능 여부를 라벨링하는 프로세스, 및 (ii) (ii-1) 상기 학습용 자율 주행 자동차의 상기 학습용 후방 카메라로부터 촬영되는 영상을 상기 기설정된 시간 간격으로 샘플링하여 제2 시퀀스 이미지를 추출하는 프로세스, 및 (ii-2) 샘플링된 상기 제2 시퀀스 이미지 각각에 대하여 자율주행 가능 여부를 라벨링하는 프로세스를 수행하여 생성되는 것을 특징으로 한다.
일 실시예에서, 상기 (c) 단계에서, 상기 GT는, 상기 시퀀스 이미지 중 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지의 다음 시퀀스에 대응되는 제1 다음 시퀀스 이미지(Next Sequence Image)와, 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지의 상기 다음 시퀀스에 대응되는 제2 다음 시퀀스 이미지로부터 획득되는 것을 특징으로 한다.
본 발명의 다른 태양에 따르면, 자율 주행 자동차의 주행 모드 변경을 위해 사용되는, 자율 주행 안정성을 확인하는 RNN(Recurrent Neural Network)을 테스트하는 방법에 있어서, (a) 학습용 자율 주행 자동차의 학습용 전방 카메라와 학습용 후방 카메라에 각각 대응되는 시퀀스 이미지인 제1_1 트레이닝 이미지 내지 제1_n 트레이닝 이미지와 제2_1 트레이닝 이미지 내지 제2_n 트레이닝 이미지가 획득되면, 학습 장치가, (i) 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지 - 상기 k는 정수이며, 시퀀스는 n으로부터 1로 진행됨 - 로 구성된 페어(Pair) 각각을, 상기 페어 각각의 시퀀스에 대응되는 제1 CNN(Convolutional Neural Network) 내지 제n CNN으로 각각 입력하여, 제k CNN으로 하여금, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지를 컨캐터네이팅(Concatenating)하도록 한 다음, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 학습용 제1 특징 맵(Feature Map) 내지 학습용 제n 특징 맵을 생성하도록 하는 프로세스, (ii) 상기 학습용 제1 특징 맵 내지 상기 학습용 제n 특징 맵을 포워드 RNN(Forward RNN)의 각각의 시퀀스에 대응되는 제1_1 LSTM(Long Short-Term Memory) 모델 내지 제1_n LSTM 모델 각각에 입력하고 백워드 RNN(Backward RNN)의 각각의 시퀀스에 대응되는 제2_1 LSTM 모델 내지 제2_n LSTM 모델 각각에 입력하여, (ii-1) 제1_k LSTM 모델로 하여금, (ii-1-a) 제1_(k+1) LSTM 모델에서 출력되는 학습용 제1_(k+1) 업데이트 특징 맵(Updated Feature Map)과 상기 제k CNN에서 출력되는 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제1_k 업데이트 특징 맵을 생성하도록 하며, (ii-1-b) 상기 학습용 제1_k 업데이트 특징 맵에 대하여 FC 연산(Fully Connected Operation)을 적용한 결과인 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터를 생성하도록 하며, (ii-2) 제2_k LSTM 모델로 하여금, (ii-2-a) 제2_(k-1) LSTM 모델에서 출력되는 학습용 제2_(k-1) 업데이트 특징 맵과 상기 제k CNN에서 출력되는 상기 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제2_k 업데이트 특징 맵을 생성하도록 하며, (ii-2-b) 상기 학습용 제2_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스, 및 (iii) 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 어텐션 레이어(Attention Layer)로 입력하여, 상기 어텐션 레이어로 하여금, 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 참조하여, 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지와 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지의 모든 시퀀스에서의 학습용 자율주행 모드 값(Autonomous-Driving Mode Value)을 생성하도록 하는 프로세스, (iv) 로스 레이어(Loss Layer)로 하여금 상기 학습용 자율주행 모드 값과 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 로스를 산출하도록 하는 프로세스, 및 상기 로스를 이용한 백프로퍼게이션을 통해 상기 로스를 최소화하도록 상기 제1_1 LSTM 모델 내지 상기 제1_n LSTM 모델과 상기 제2_1 LSTM 모델 내지 상기 제2_n LSTM 모델을 학습하는 프로세스를 수행한 상태에서, 주행 중인 테스트용 자율 주행 자동차의 테스트용 전방 카메라와 테스트용 후방 카메라로부터 상기 테스트용 자율 주행 자동차의 테스트용 전방 영상과 테스트용 후방 영상이 획득되면, 테스트 장치가, 상기 테스트용 전방 영상의 현재 프레임에 대응되는 제1 테스트 이미지와 상기 테스트용 후방 영상의 상기 현재 프레임에 대응되는 제2 테스트 이미지를 상기 제1 CNN에 입력하여, 상기 제1 CNN으로 하여금 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 테스트용 제1 특징 맵을 생성하도록 하는 단계; 및 (b) 상기 테스트 장치가, (i) 상기 테스트용 제1 특징 맵 내지 상기 테스트용 제n 특징 맵을 상기 포워드 RNN의 각각의 시퀀스에 대응되는 상기 제1_1 LSTM 모델 내지 상기 제1_n LSTM 모델 각각에 입력하고 상기 백워드 RNN의 각각의 시퀀스에 대응되는 상기 제2_1 LSTM 모델 내지 상기 제2_n LSTM 모델 각각에 입력하여, (i-1) 상기 제1_k LSTM 모델로 하여금, (i-1-a) 상기 제1_(k+1) LSTM 모델에서 출력되는 테스트용 제1_(k+1) 업데이트 특징 맵(Updated Feature Map)과 상기 제k CNN에서 출력되는 테스트용 제k 특징 맵을 모두 참조하여 상기 테스트용 제k 특징 맵을 업데이트한 결과인 테스트용 제1_k 업데이트 특징 맵을 생성하도록 하며, (i-1-b) 상기 테스트용 제1_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 테스트용 제1_1 특징 벡터 내지 테스트용 제1_n 특징 벡터를 생성하도록 하며, (i-2) 상기 제2_k LSTM 모델로 하여금, (i-2-a) 상기 제2_(k-1) LSTM 모델에서 출력되는 테스트용 제2_(k-1) 업데이트 특징 맵과 상기 제k CNN에서 출력되는 상기 테스트용 제k 특징 맵을 모두 참조하여 상기 테스트용 제k 특징 맵을 업데이트한 결과인 테스트용 제2_k 업데이트 특징 맵을 생성하도록 하며, (i-2-b) 상기 테스트용 제2_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 테스트용 제2_1 특징 벡터 내지 테스트용 제2_n 특징 벡터를 생성하도록 하는 프로세스, 및 (ii) 상기 테스트용 제1_1 특징 벡터 내지 상기 테스트용 제1_n 특징 벡터와 상기 테스트용 제2_1 특징 벡터 내지 상기 테스트용 제2_n 특징 벡터를 상기 어텐션 레이어로 입력하여, 상기 어텐션 레이어로 하여금, 상기 테스트용 제1_1 특징 벡터 내지 상기 테스트용 제1_n 특징 벡터와 상기 테스트용 제2_1 특징 벡터 내지 상기 테스트용 제2_n 특징 벡터를 참조하여 상기 제1_1 테스트 이미지 내지 상기 제1_n 테스트 이미지와 상기 제2_1 테스트 이미지 내지 상기 제2_n 테스트 이미지의 모든 시퀀스에서의 테스트용 자율주행 모드 값을 생성하도록 하는 단계;를 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 (b) 단계에서, 상기 테스트 장치는, 상기 어텐션 레이어로 하여금, (i) 테스트용 제1_k 특징 벡터와 테스트용 제2_k 특징 벡터를 컨캐터네이팅하도록 하여, 테스트용 제1 컨캐터네이팅된 특징 벡터 내지 테스트용 제n 컨캐터네이팅된 특징 벡터를 생성하도록 하며, (ii) 상기 테스트용 제1 컨캐터네이팅된 특징 벡터 내지 상기 테스트용 제n 컨캐터네이팅된 특징 벡터에 대하여 가중 평균(Weighted Average)하도록 하여, 상기 테스트용 자율주행 모드 값을 생성하도록 하는 프로세스를 수행하는 것을 특징으로 한다.
일 실시예에서, 상기 (a) 단계에서, 상기 테스트 장치는, 상기 제1 CNN으로 하여금, (i) 상기 제1 테스트 이미지와 상기 제2 테스트 이미지를 컨캐터네이팅하도록 하여 제1 컨캐터네이팅된 테스트 이미지를 생성하도록 하고, (ii) 상기 제1 컨캐터네이팅된 테스트 이미지에 대하여 컨벌루션 연산을 적용하도록 하여 상기 테스트용 제1 특징 맵을 생성하도록 하는 프로세스를 수행하는 것을 특징으로 한다.
일 실시예에서, 상기 (b) 단계에서, 상기 테스트 장치는, (i) 상기 제1_1 LSTM 모델로 하여금, 상기 테스트용 제1_2 업데이트 특징 맵과 상기 테스트용 제1 특징 맵을 참조하여, 테스트용 주행 환경이 위험 상황(Hazard Situation)인지를 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 테스트용 제1_1 특징 벡터를 생성하도록 하는 프로세스, (ii) 상기 제2_1 LSTM 모델로 하여금, 상기 테스트용 제2_1 업데이트 특징 맵을 참조하여, 상기 테스트용 주행 환경이 위험 상황인지를 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 테스트용 제2_1 특징 벡터를 생성하도록 하는 프로세스, 및 (iii) 상기 제2_m LSTM 모델로 하여금, 상기 테스트용 제2_(m-1) 업데이트 특징 맵과 상기 테스트용 제m 특징 맵을 참조하여, 상기 테스트용 주행 환경이 위험 상황인지를 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 테스트용 제2_2 특징 벡터 내지 상기 테스트용 제2_n 특징 벡터를 생성하도록 하는 프로세스를 수행하는 하는 것을 특징으로 한다.
본 발명의 또 다른 태양에 따르면, 자율 주행 자동차의 주행 모드 변경을 위해 사용되는, 자율 주행 안정성을 확인하는 RNN(Recurrent Neural Network)을 학습하는 학습 장치에 있어서, 인스트럭션을 저장하는 적어도 하나의 메모리; 및 (I) 학습용 자율 주행 자동차의 학습용 전방 카메라와 학습용 후방 카메라에 각각 대응되는 시퀀스 이미지인 제1_1 트레이닝 이미지 내지 제1_n 트레이닝 이미지와 제2_1 트레이닝 이미지 내지 제2_n 트레이닝 이미지가 획득되면, 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지 - 상기 k는 정수이며, 시퀀스는 n으로부터 1로 진행됨 - 로 구성된 페어(Pair) 각각을, 상기 페어 각각의 시퀀스에 대응되는 제1 CNN(Convolutional Neural Network) 내지 제n CNN으로 각각 입력하여, 제k CNN으로 하여금, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지를 컨캐터네이팅(Concatenating)하도록 한 다음, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 학습용 제1 특징 맵(Feature Map) 내지 학습용 제n 특징 맵을 생성하도록 하는 프로세스, (II) (i) 상기 학습용 제1 특징 맵 내지 상기 학습용 제n 특징 맵을 포워드 RNN(Forward RNN)의 각각의 시퀀스에 대응되는 제1_1 LSTM(Long Short-Term Memory) 모델 내지 제1_n LSTM 모델 각각에 입력하고 백워드 RNN(Backward RNN)의 각각의 시퀀스에 대응되는 제2_1 LSTM 모델 내지 제2_n LSTM 모델 각각에 입력하여, (i-1) 제1_k LSTM 모델로 하여금, (i-1-a) 제1_(k+1) LSTM 모델에서 출력되는 학습용 제1_(k+1) 업데이트 특징 맵(Updated Feature Map)과 상기 제k CNN에서 출력되는 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제1_k 업데이트 특징 맵을 생성하도록 하며, (i-1-b) 상기 학습용 제1_k 업데이트 특징 맵에 대하여 FC 연산(Fully Connected Operation)을 적용한 결과인 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터를 생성하도록 하며, (i-2) 제2_k LSTM 모델로 하여금, (i-2-a) 제2_(k-1) LSTM 모델에서 출력되는 학습용 제2_(k-1) 업데이트 특징 맵과 상기 제k CNN에서 출력되는 상기 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제2_k 업데이트 특징 맵을 생성하도록 하며, (i-2-b) 상기 학습용 제2_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스, 및 (ii) 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 어텐션 레이어(Attention Layer)로 입력하여, 상기 어텐션 레이어로 하여금, 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 참조하여, 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지와 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지의 모든 시퀀스에서의 학습용 자율주행 모드 값(Autonomous-Driving Mode Value)을 생성하도록 하는 프로세스, 및 (III) 로스 레이어(Loss Layer)로 하여금 상기 학습용 자율주행 모드 값과 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 로스를 산출하도록 하는 프로세스, 및 상기 로스를 이용한 백프로퍼게이션을 통해 상기 로스를 최소화하도록 상기 제1_1 LSTM 모델 내지 상기 제1_n LSTM 모델과 상기 제2_1 LSTM 모델 내지 상기 제2_n LSTM 모델을 학습하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;를 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 (II) 프로세스에서, 상기 프로세서는, 상기 어텐션 레이어로 하여금, (i) 학습용 제1_k 특징 벡터와 학습용 제2_k 특징 벡터를 컨캐터네이팅하도록 하여, 학습용 제1 컨캐터네이팅된 특징 벡터 내지 학습용 제n 컨캐터네이팅된 특징 벡터를 생성하도록 하며, (ii) 상기 학습용 제1 컨캐터네이팅된 특징 벡터 내지 상기 학습용 제n 컨캐터네이팅된 특징 벡터에 대하여 가중 평균(Weighted Average)하도록 하여, 상기 학습용 자율주행 모드 값을 생성하도록 하는 것을 특징으로 한다.
일 실시예에서, 상기 (I) 프로세스에서, 상기 프로세서는, 상기 제1 CNN 내지 상기 제n CNN 각각으로 하여금, (i) 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지를 각각 컨캐터네이팅하도록 하여 제k 컨캐터네이팅된 트레이닝 이미지를 생성하도록 하고, (ii) 상기 제k 컨캐터네이팅된 트레이닝 이미지에 대하여 컨벌루션 연산을 적용하도록 하여 상기 학습용 제1 특징 맵 내지 상기 학습용 제n 특징 맵을 생성하도록 한다.
일 실시예에서, 상기 (II) 프로세스에서, 상기 프로세서는, (i) 상기 제1_k LSTM 모델로 하여금, 상기 학습용 제1_(k+1) 업데이트 특징 맵과 상기 학습용 제1_k 특징 맵을 참조하여, 학습용 주행 환경이 위험 상황(Hazard Situation)인지를 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터를 생성하도록 하는 프로세스, 및 (ii) 상기 제2_k LSTM 모델로 하여금, 상기 학습용 제2_(k-1) 업데이트 특징 맵과 상기 학습용 제2_k 특징 맵을 참조하여, 상기 학습용 주행 환경이 위험 상황인지를 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스를 수행하는 것을 특징으로 한다.
일 실시예에서, 상기 (III) 프로세스에서, 상기 프로세서는, 상기 로스 레이어로 하여금 소프트맥스(Softmax) 알고리즘을 이용하여 상기 학습용 자율주행 모드 값을 정규화(Normalize)하는 프로세스, 및 정규화된 상기 학습용 자율주행 모드 값과 상기 GT를 참조하여 상기 로스를 산출하는 프로세스를 수행하는 것을 특징으로 한다.
일 실시예에서, 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지와 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지는, (i) (i-1) 상기 학습용 자율 주행 자동차의 상기 학습용 전방 카메라로부터 촬영되는 영상을 기설정된 시간 간격으로 샘플링하여 제1 시퀀스 이미지를 추출하는 프로세스, 및 (i-2) 추출된 상기 제1 시퀀스 이미지 각각에 대하여 자율주행 가능 여부를 라벨링하는 프로세스, 및 (ii) (ii-1) 상기 학습용 자율 주행 자동차의 상기 학습용 후방 카메라로부터 촬영되는 영상을 상기 기설정된 시간 간격으로 샘플링하여 제2 시퀀스 이미지를 추출하는 프로세스, 및 (ii-2) 샘플링된 상기 제2 시퀀스 이미지 각각에 대하여 자율주행 가능 여부를 라벨링하는 프로세스를 수행하여 생성되는 것을 특징으로 한다.
일 실시예에서, 상기 (III) 프로세스에서, 상기 GT는, 상기 시퀀스 이미지 중 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지의 다음 시퀀스에 대응되는 제1 다음 시퀀스 이미지(Next Sequence Image)와, 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지의 상기 다음 시퀀스에 대응되는 제2 다음 시퀀스 이미지로부터 획득되는 것을 특징으로 한다.
본 발명의 또 다른 태양에 따르면, 자율 주행 자동차의 주행 모드 변경을 위해 사용되는, 자율 주행 안정성을 확인하는 RNN(Recurrent Neural Network)을 테스트하는 테스트 장치에 있어서, 인스트럭션을 저장하는 적어도 하나의 메모리; 및 (I) 학습용 자율 주행 자동차의 학습용 전방 카메라와 학습용 후방 카메라에 각각 대응되는 시퀀스 이미지인 제1_1 트레이닝 이미지 내지 제1_n 트레이닝 이미지와 제2_1 트레이닝 이미지 내지 제2_n 트레이닝 이미지가 획득되면, 학습 장치가, (i) 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지 - 상기 k는 정수이며, 시퀀스는 n으로부터 1로 진행됨 - 로 구성된 페어(Pair) 각각을, 상기 페어 각각의 시퀀스에 대응되는 제1 CNN(Convolutional Neural Network) 내지 제n CNN으로 각각 입력하여, 제k CNN으로 하여금, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지를 컨캐터네이팅(Concatenating)하도록 한 다음, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 학습용 제1 특징 맵(Feature Map) 내지 학습용 제n 특징 맵을 생성하도록 하는 프로세스, (ii) 상기 학습용 제1 특징 맵 내지 상기 학습용 제n 특징 맵을 포워드 RNN(Forward RNN)의 각각의 시퀀스에 대응되는 제1_1 LSTM(Long Short-Term Memory) 모델 내지 제1_n LSTM 모델 각각에 입력하고 백워드 RNN(Backward RNN)의 각각의 시퀀스에 대응되는 제2_1 LSTM 모델 내지 제2_n LSTM 모델 각각에 입력하여, (ii-1) 제1_k LSTM 모델로 하여금, (ii-1-a) 제1_(k+1) LSTM 모델에서 출력되는 학습용 제1_(k+1) 업데이트 특징 맵(Updated Feature Map)과 상기 제k CNN에서 출력되는 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제1_k 업데이트 특징 맵을 생성하도록 하며, (ii-1-b) 상기 학습용 제1_k 업데이트 특징 맵에 대하여 FC 연산(Fully Connected Operation)을 적용한 결과인 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터를 생성하도록 하며, (ii-2) 제2_k LSTM 모델로 하여금, (ii-2-a) 제2_(k-1) LSTM 모델에서 출력되는 학습용 제2_(k-1) 업데이트 특징 맵과 상기 제k CNN에서 출력되는 상기 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제2_k 업데이트 특징 맵을 생성하도록 하며, (ii-2-b) 상기 학습용 제2_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스, 및 (iii) 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 어텐션 레이어(Attention Layer)로 입력하여, 상기 어텐션 레이어로 하여금, 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 참조하여, 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지와 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지의 모든 시퀀스에서의 학습용 자율주행 모드 값(Autonomous-Driving Mode Value)을 생성하도록 하는 프로세스, (iv) 로스 레이어(Loss Layer)로 하여금 상기 학습용 자율주행 모드 값과 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 로스를 산출하도록 하는 프로세스, 및 상기 로스를 이용한 백프로퍼게이션을 통해 상기 로스를 최소화하도록 상기 제1_1 LSTM 모델 내지 상기 제1_n LSTM 모델과 상기 제2_1 LSTM 모델 내지 상기 제2_n LSTM 모델을 학습하는 프로세스를 수행한 상태에서, 주행 중인 테스트용 자율 주행 자동차의 테스트용 전방 카메라와 테스트용 후방 카메라로부터 상기 테스트용 자율 주행 자동차의 테스트용 전방 영상과 테스트용 후방 영상이 획득되면, 상기 테스트용 전방 영상의 현재 프레임에 대응되는 제1 테스트 이미지와 상기 테스트용 후방 영상의 상기 현재 프레임에 대응되는 제2 테스트 이미지를 상기 제1 CNN에 입력하여, 상기 제1 CNN으로 하여금 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 테스트용 제1 특징 맵을 생성하도록 하는 프로세스, 및 (II) (i) 상기 테스트용 제1 특징 맵 내지 상기 테스트용 제n 특징 맵을 상기 포워드 RNN의 각각의 시퀀스에 대응되는 상기 제1_1 LSTM 모델 내지 상기 제1_n LSTM 모델 각각에 입력하고 상기 백워드 RNN의 각각의 시퀀스에 대응되는 상기 제2_1 LSTM 모델 내지 상기 제2_n LSTM 모델 각각에 입력하여, (i-1) 상기 제1_k LSTM 모델로 하여금, (i-1-a) 상기 제1_(k+1) LSTM 모델에서 출력되는 테스트용 제1_(k+1) 업데이트 특징 맵(Updated Feature Map)과 상기 제k CNN에서 출력되는 테스트용 제k 특징 맵을 모두 참조하여 상기 테스트용 제k 특징 맵을 업데이트한 결과인 테스트용 제1_k 업데이트 특징 맵을 생성하도록 하며, (i-1-b) 상기 테스트용 제1_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 테스트용 제1_1 특징 벡터 내지 테스트용 제1_n 특징 벡터를 생성하도록 하며, (i-2) 상기 제2_k LSTM 모델로 하여금, (i-2-a) 상기 제2_(k-1) LSTM 모델에서 출력되는 테스트용 제2_(k-1) 업데이트 특징 맵과 상기 제k CNN에서 출력되는 상기 테스트용 제k 특징 맵을 모두 참조하여 상기 테스트용 제k 특징 맵을 업데이트한 결과인 테스트용 제2_k 업데이트 특징 맵을 생성하도록 하며, (i-2-b) 상기 테스트용 제2_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 테스트용 제2_1 특징 벡터 내지 테스트용 제2_n 특징 벡터를 생성하도록 하는 프로세스, 및 (ii) 상기 테스트용 제1_1 특징 벡터 내지 상기 테스트용 제1_n 특징 벡터와 상기 테스트용 제2_1 특징 벡터 내지 상기 테스트용 제2_n 특징 벡터를 상기 어텐션 레이어로 입력하여, 상기 어텐션 레이어로 하여금, 상기 테스트용 제1_1 특징 벡터 내지 상기 테스트용 제1_n 특징 벡터와 상기 테스트용 제2_1 특징 벡터 내지 상기 테스트용 제2_n 특징 벡터를 참조하여 상기 제1_1 테스트 이미지 내지 상기 제1_n 테스트 이미지와 상기 제2_1 테스트 이미지 내지 상기 제2_n 테스트 이미지의 모든 시퀀스에서의 테스트용 자율주행 모드 값을 생성하도록 하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;를 포함하는 것을 특징으로 한다.
일 실시예에서, 상기 (II) 프로세스에서, 상기 프로세서는, 상기 어텐션 레이어로 하여금, (i) 테스트용 제1_k 특징 벡터와 테스트용 제2_k 특징 벡터를 컨캐터네이팅하도록 하여, 테스트용 제1 컨캐터네이팅된 특징 벡터 내지 테스트용 제n 컨캐터네이팅된 특징 벡터를 생성하도록 하며, (ii) 상기 테스트용 제1 컨캐터네이팅된 특징 벡터 내지 상기 테스트용 제n 컨캐터네이팅된 특징 벡터에 대하여 가중 평균(Weighted Average)하도록 하여, 상기 테스트용 자율주행 모드 값을 생성하도록 하는 프로세스를 수행하는 것을 특징으로 한다.
일 실시예에서, 상기 (I) 프로세스에서, 상기 프로세서는, 상기 제1 CNN으로 하여금, (i) 상기 제1 테스트 이미지와 상기 제2 테스트 이미지를 컨캐터네이팅하도록 하여 제1 컨캐터네이팅된 테스트 이미지를 생성하도록 하고, (ii) 상기 제1 컨캐터네이팅된 테스트 이미지에 대하여 컨벌루션 연산을 적용하도록 하여 상기 테스트용 제1 특징 맵을 생성하도록 하는 프로세스를 수행하는 것을 특징으로 한다.
일 실시예에서, 상기 (II) 프로세스에서, 상기 프로세서는, (i) 상기 제1_1 LSTM 모델로 하여금, 상기 테스트용 제1_2 업데이트 특징 맵과 상기 테스트용 제1 특징 맵을 참조하여, 테스트용 주행 환경이 위험 상황(Hazard Situation)인지를 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 테스트용 제1_1 특징 벡터를 생성하도록 하는 프로세스, (ii) 상기 제2_1 LSTM 모델로 하여금, 상기 테스트용 제2_1 업데이트 특징 맵을 참조하여, 상기 테스트용 주행 환경이 위험 상황인지를 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 테스트용 제2_1 특징 벡터를 생성하도록 하는 프로세스, 및 (iii) 상기 제2_m LSTM 모델로 하여금, 상기 테스트용 제2_(m-1) 업데이트 특징 맵과 상기 테스트용 제m 특징 맵을 참조하여, 상기 테스트용 주행 환경이 위험 상황인지를 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 테스트용 제2_2 특징 벡터 내지 상기 테스트용 제2_n 특징 벡터를 생성하도록 하는 프로세스를 수행하는 하는 것을 특징으로 한다.
이 외에도, 본 발명의 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
본 발명은 RNN(Recurrent Neural Network)을 이용해, 다수의 통합 카메라 정보를 분석하고 위험 상황(Hazardous Situation)을 인지하며 자율 주행 안전성을 확인하여 자율 주행 자동차의 자율 주행 모드와 수동 주행 모드 사이의 주행 모드를 변경함으로써, 종래의 다양한 센서들을 이용하는 것과는 달리, 자율 주행 자동차의 제조 비용 증가를 막는 효과가 있다.
본 발명은 RNN을 이용해, 다수의 통합 카메라 정보를 분석하고 위험 상황을 인지하며 자율 주행 안전성을 확인하여 자율 주행 자동차의 자율 주행 모드와 수동 주행 모드 사이의 주행 모드를 변경함으로써 종래 방법에 비하여, 센서의 개수를 최소할 수 있는 다른 효과가 있다.
본 발명은 RNN을 이용해, 다수의 통합 카메라 정보를 분석하고 위험 상황을 인지하며 자율 주행 안전성을 확인하여 자율 주행 자동차의 자율 주행 모드와 수동 주행 모드 사이의 주행 모드를 변경함으로써, 다수의 통합 카메라 정보가 처리되기 때문에, 종래 방법에 비하여, 더 적은 컴퓨팅 소스(Computing Source)로 자율 주행 자동차의 주행 모드를 변경할 수 있는 또 다른 효과가 있다.
본 발명의 실시예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자(이하 "통상의 기술자")에게 있어서는 발명적 작업이 이루어짐 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명의 일 실시예에 따라 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위한 자율 주행 안전성을 확인하기 위해 사용되는 RNN(Recurrent Neural Network)을 학습하는 학습 장치를 개략적으로 도시한 것이고,
도 2는 본 발명의 일 실시예에 따라 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위한 자율 주행 안정성을 확인하기 위해 사용되는 RNN을 학습하는 방법을 개략적으로 도시한 것이고,
도 3은 본 발명의 일 실시예에 따라 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위한 자율 주행 안정성을 확인하기 위해 사용되는 RNN을 학습하기 위한 트레이닝 데이터를 생성하는 프로세스를 개략적으로 도시한 것이고,
도 4는 본 발명의 일 실시예에 따라 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위한 자율 주행 안정성을 확인하기 위해 사용되는 RNN을 테스트하는 테스트 장치를 개략적으로 도시한 것이고,
도 5는 본 발명의 일 실시예에 따라 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위한 자율 주행 안정성을 확인하기 위해 사용되는 RNN을 적용한 자율 주행 자동차의 주행 상태를 개략적으로 도시한 것이고,
도 6은 본 발명의 일 실시예에 따라 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위한 자율 주행 안정성을 확인하기 위해 사용되는 RNN을 위한 테스트 방법을 개략적으로 도시한 것이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.
또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐, "포함하다"라는 단어 및 그것의 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다.
더욱이 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
본 발명에서 언급하는 각종 이미지는 포장 또는 비포장 도로 관련 이미지를 포함할 수 있으며, 이 경우 도로 환경에서 등장할 수 있는 물체(가령, 자동차, 사람, 동물, 식물, 물건, 건물, 비행기나 드론과 같은 비행체, 기타 장애물)를 상정할 수 있을 것이나, 반드시 이에 한정되는 것은 아니며, 본 발명에서 언급하는 각종 이미지는 도로와 상관 없는 이미지(가령, 비포장도로, 골목길, 공터, 바다, 호수, 강, 산, 숲, 사막, 하늘, 실내와 관련된 이미지)일 수도 있으며, 이 경우, 비포장도로, 골목길, 공터, 바다, 호수, 강, 산, 숲, 사막, 하늘, 실내 환경에서 등장할 수 있는 물체(가령, 자동차, 사람, 동물, 식물, 물건, 건물, 비행기나 드론과 같은 비행체, 기타 장애물)를 상정할 수 있을 것이나, 반드시 이에 한정되는 것은 아니다.
이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따라 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위한 자율 주행 안전성을 확인하기 위해 사용되는 RNN(Recurrent Neural Network)을 학습하는 학습 장치를 개략적으로 도시한 것이다. 도 1을 참조하면, 학습 장치(100)는 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위한 자율 주행 안정성을 확인하기 위해 사용되는 RNN을 학습하기 위한 인스트럭션(Instruction)을 저장하는 메모리(110)와 메모리(110)에 저장된 인스트럭션에 대응하여 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위한 자율 주행 안정성을 확인하기 위해 사용되는 RNN을 학습하는 프로세서(120)를 포함할 수 있다.
구체적으로, 학습 장치(100)는 전형적으로 적어도 하나의 컴퓨팅 장치(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소를 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS) 및 스토리지 영역 네트워크(SAN)와 같은 전자 정보 스토리지 시스템)와 적어도 하나의 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 인스트럭션)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.
또한, 컴퓨팅 장치의 프로세서는 MPU(Micro Processing Unit) 또는 CPU(Central Processing Unit), 캐쉬 메모리(Cache Memory), 데이터 버스(Data Bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 컴퓨팅 장치는 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.
그러나, 컴퓨팅 장치가 본 발명을 실시하기 위한 프로세서, 메모리 미디엄 또는 기타 컴퓨팅 구성요소의 어떠한 조합을 포함하는 통합 프로세서(Integrated Processor)를 배제하는 것은 아니다.
이와 같이 구성된 본 발명의 일 실시예에 따른 학습 장치(100)를 이용하여 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위한 자율 주행 안정성을 확인하기 위한 RNN을 학습하는 방법을 도 2를 참조하여 설명하면 다음과 같다.
먼저, 학습 장치(100)는 학습용 자율 주행 자동차 상의 적어도 하나의 학습용 전방 카메라와 적어도 하나의 학습용 후방 카메라에 대응되는 학습용 시퀀스 이미지를 포함하는 트레이닝 데이터를 획득할 수 있다. 본 발명 전반에 걸쳐, "시퀀스(Sequence)" 또는 "시퀀스들(Sequences)"은 그 다음에 명사가 나오지 않고 단독으로 쓰이는 경우에 "타임 시퀀스(Sequence In Time)" 또는 "타임 시퀀스들(Sequences In Time)"을 나타낸다. 즉, "시퀀스 이미지(Sequence Image)" 등에 사용된 "시퀀스"는 시간의 개념을 나타내지 않을 수 있다.
이때, 도 3을 참조하면, 트레이닝 데이터는 학습용 자율 주행 자동차 상의 학습용 전방 카메라에 대응되는 학습용 시퀀스 이미지인 1_1 트레이닝 이미지 내지 제1_n 트레이닝 이미지와, 학습용 자율 주행 자동차 상의 학습용 후방 카메라에 대응되는 학습용 시퀀스 이미지인 제2_1 트레이닝 이미지 내지 제2_n 트레이닝 이미지를 포함할 수 있다. 이때, n은 정수이며, 시퀀스는 n으로부터 1로 진행될 수 있다.
일 예로, 트레이닝 데이터를 생성하기 위하여, 학습용 자율 주행 자동차 상의 학습용 전방 카메라로부터 촬영되는 영상을 기설정된 시간 간격으로(일 예로, 1초마다) 샘플링하여 학습용 시퀀스 이미지를 생성하고, 각각의 학습용 시퀀스 이미지에 대하여 자율 주행 가능 여부를 라벨링하여 제1_1 이미지 내지 제1_n 이미지를 생성할 수 있다. 그리고, 학습용 자율 주행 자동차 상의 학습용 후방 카메라로부터 촬영되는 영상을 기설정된 시간 간격으로 샘플링하여 학습용 시퀀스 이미지를 생성하고, 각각의 학습용 시퀀스 이미지에 대하여 자율 주행 가능 여부를 라벨링하여 제2_1 이미지 내지 제2_n 이미지를 생성한다. 그리고, k를 1 이상이며, n 이하인 정수라 할 경우, 시퀀스에 대응하는 제1_k 이미지와 제2_k 이미지로 구성된 각각의 페어(Pair)를 포함하는 적어도 하나의 트레이닝 데이터를 생성할 수 있다. 그리고, 위와 같은 방법에 의해 학습에 필요한 충분한 트레이닝 데이터를 생성할 수 있다.
이때, 트레이닝 데이터에 포함되는 제1_k 이미지와 제2_k 이미지의 페어의 개수는 RNN에서의 LSTM(Long Short-Term Memory Network)의 개수에 대응되도록 설정할 수 있다.
한편, 자율 주행이 불가능한 상황은, 자율 주행 자동차를 계속 자율 주행 모드로 주행할 경우 사고나 오작동이 발생할 가능성이 있는 주행 환경일 수 있으며, 일 예로, 터널 안 주행, 폭우, 폭설, 조도가 낮은 경우, 카메라 렌즈에 이물질이 묻은 경우 등과 같이 자율 주행을 위해 필요한 정보의 검출이 어려운 주행 환경과, 도로 상에서 사고가 발생한 경우, 과속 자동차가 접근하는 경우, 비정상 주행을 하는 인근 자동차가 있는 경우 등과 같은 위험 상황일 수 있다. 하지만, 본 발명이 이에 한정되는 것은 아니다.
따라서, 자율 주행이 가능한 상황에 대응하는 시퀀스 이미지와 자율 주행이 불가능한 상황에 대응하는 시퀀스 이미지를 수집하여 트레이닝 데이터를 생성할 수 있다.
다음으로, 학습 장치(100)는, 트레이닝 데이터 상의 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지의 각각의 페어를 각각의 시퀀스에 대응하는 제1 CNN(Convolutional Neural Network) 내지 제n CNN에 입력하여, k가 1부터 n까지일 때, 제k CNN, 즉, 제1 CNN 내지 제n CNN 각각으로 하여금, 자신의 시퀀스에 대응하는 페어 상의 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지를 컨캐터네이팅(Concatenating)하도록 한 다음, 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 학습용 제1 특징 맵 내지 학습용 제n 특징 맵을 생성하도록 할 수 있다. 이때, 학습 장치(100)는 제1 CNN 내지 제n CNN 각각으로 하여금, (i) 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지를 각각 컨캐터네이팅하도록 하여 제k 컨캐터네이팅된 트레이닝 이미지를 생성하도록 하고, (ii) 제k 컨캐터네이팅된 트레이닝 이미지에 대하여 컨벌루션 연산을 적용하여 학습용 제1 특징 맵 내지 학습용 제n 특징 맵을 생성하도록 할 수 있다. 즉, 제1 CNN 내지 제n CNN은 다수의 카메라 정보를 각각 융합하여 하나의 정보로 출력할 수 있다. 이때, 제1 CNN 내지 제n CNN은 미리 학습된 상태일 수 있다.
다음으로, 학습 장치(100)는 학습용 제1 특징 맵 내지 학습용 제n 특징 맵을 포워드(Forward) RNN의 각각의 시퀀스에 대응되는 제1_1 LSTM 모델 내지 제1_n LSTM 모델에 입력하여, 제1_k LSTM 모델로 하여금, (i) 제1_(k+1) LSTM 모델에서 출력되는 학습용 제1_(k+1) 업데이트 특징 맵(Updated Feature Map)과 제k CNN에서 출력되는 학습용 제k 특징 맵을 모두 참조하여 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제1_k 업데이트 특징 맵을 생성하도록 하며, (ii) 제1_k 업데이트 특징 맵에 대하여 FC 연산(Fully Connected Operation)을 적용하여 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터를 생성하도록 하는 프로세스를 수행할 수 있다.
즉, 학습 장치(100)는, 제1_k LSTM 모델로 하여금, 학습용 제1_(k+1) 업데이트 특징 맵과 학습용 제1_k 특징 맵을 참조하여, 학습용 주행 환경이 위험 상황(Hazard Situation)인지를 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지의 페어를 참조해 확인하는데 사용되는 특징에 대응되는 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터를 생성하도록 하는 프로세스를 수행할 수 있다.
또한, 학습 장치(100)는, 학습용 제1 특징 맵 내지 학습용 제n 특징 맵을 백워드(Backward) RNN의 각각의 시퀀스에 대응되는 제2_1 LSTM 모델 내지 제2_n LSTM 모델에 입력하여, 제2_k LSTM 모델로 하여금, (i) (i-1) 제2_(k-1) LSTM 모델에서 출력되는 학습용 제2_(k-1) 업데이트 특징 맵과 (i-2) 제k CNN에서 출력되는 학습용 제k 특징 맵을 모두 참조하여 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제2_k 업데이트 특징 맵을 생성하도록 하며, (ii) 제2_k 업데이트 특징 맵에 대하여 FC 연산(Fully Connected Operation)을 적용하여 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스를 수행할 수 있다.
즉, 학습 장치(100)는, 제2_k LSTM 모델로 하여금, 학습용 제2_(k-1) 업데이트 특징 맵과 학습용 제2_k 특징 맵을 참조하여, 학습용 주행 환경이 위험 상황인지를 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지의 페어를 참조해 확인하는데 사용되는 특징에 대응되는 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스를 수행할 수 있다.
다음으로, 학습 장치(100)는, 학습용 제1_1 특징 벡터 내지 학습용 1_n 특징 벡터와 학습용 2_1 특징 벡터 내지 학습용 2_n 특징 벡터를 어텐션 레이어(Attention Layer)로 입력하여, 어텐션 레이어로 하여금, 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터와 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 참조하여 학습용 제1_1 이미지 내지 학습용 제1_n 이미지와 학습용 제2_1 이미지 내지 학습용 제2_n 이미지의 전체 시퀀스에서의 학습용 자율주행 모드 값(Autonomous-Driving Mode Value)을 생성하도록 할 수 있다.
즉, 학습 장치(100)는 제1_k LSTM과 제2_k LSTM으로부터 각각 출력되는 자율 주행이 가능한 학습용 주행 환경인지를 나타내는 학습용 특징 벡터를 컨캐터네이팅하고, 학습용 특징 벡터의 컨캐터네이팅 결과를 가중 평균(Weighed Average)하여, 학습용 제1_1 이미지 내지 학습용 제1_n 이미지와 학습용 제2_1 이미지 내지 학습용 제2_n 이미지의 각각의 페어에 대한 일정 시간 동안의 주행 정보를 참조하여 학습용 자율 주행 자동차가 현재 시점에서 자율 주행이 가능한지 여부를 나타내는 학습용 자율주행 모드 값을 출력하도록 할 수 있다.
다음으로, 학습 장치(100)는, 적어도 하나의 로스 레이어로 하여금, (i) 어텐션 레이어로부터 출력되는, 자율 주행 가능 여부에 대한 학습용 자율주행 모드 값과 (ii) 이에 대응되는 GT를 참조하여 적어도 하나의 로스를 산출하도록 함으로써, 로스를 이용한 백프로퍼게이션을 통해 로스가 최소화되도록 백워드 RNN의 제2_1 LSTM 내지 제2_n LSTM 및 포워드 RNN의 제1_1 LSTM 내지 제1_n LSTM의 적어도 하나의 파라미터의 적어도 일부를 학습할 수 있다.
이때, 학습 장치(100)는 로스 레이어로 하여금 어텐션 레이어로부터 출력되는 학습용 자율주행 모드 값을 소프트맥스(Softmax) 알고리즘을 이용하여 정규화하는 프로세스, 및 정규화된 학습용 자율주행 모드 값과 이에 대응되는 GT를 참조하여 로스를 산출하는 프로세스를 수행할 수 있다. 그리고, 학습용 자율주행 모드 값에 대응되는 GT는 제1_1 트레이닝 이미지 내지 제1_n 트레이닝 이미지의 다음 시퀀스에 대응되는 제1 다음 시퀀스 이미지(Next Sequence Image)와 제2_1 트레이닝 이미지 내지 제2_n 트레이닝 이미지의 다음 시퀀스에 대응되는 제2 다음 시퀀스 이미지로부터 획득될 수 있다.
도 4는 본 발명의 일 실시예에 따라 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위한 자율 주행 안정성을 확인하기 위해 사용되는 RNN을 테스트하는 테스트 장치를 개략적으로 도시한 것이다. 도 4를 참조하면, 테스트 장치(200)는 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위해 자율 주행 안정성을 확인하기 위한 RNN을 테스트하기 위한 인스트럭션을 저장하는 메모리(210)와 메모리(210)에 저장된 인스트럭션에 대응하여 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위해 자율 주행 안정성을 확인하기 위한 RNN을 테스트하는 프로세서(220)를 포함할 수 있다.
구체적으로, 테스트 장치(200)는 전형적으로 적어도 하나의 컴퓨팅 장치(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS) 및 스토리지 영역 네트워크(SAN)와 같은 전자 정보 스토리지 시스템)와 적어도 하나의 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 인스트럭션)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.
또한, 컴퓨팅 장치의 프로세서는 MPU(Micro Processing Unit) 또는 CPU(Central Processing Unit), 캐쉬 메모리(Cache Memory), 데이터 버스(Data Bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 컴퓨팅 장치는 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.
그러나, 컴퓨팅 장치가 본 발명을 실시하기 위한 프로세서, 메모리, 미디엄 또는 기타 컴퓨팅 구성요소의 어떠한 조합을 포함하는 통합 프로세서(Integrated Device)를 배제하는 것은 아니다.
이와 같이 구성된 본 발명의 일 실시예에 따른 테스트 장치(200)를 이용하여 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위한 자율 주행 안정성을 확인하는데 사용되는 RNN을 테스트하는 방법을 도 5와 도6을 참조하여 설명하면 다음과 같다.
도 5를 참조하면, 도 2를 참조하여 설명한 학습 방법에 의해 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위한 자율 주행 안정성을 확인하는데 사용되는 RNN이 학습된 상태일 수 있다.
즉, 학습용 자율 주행 자동차의 학습용 전방 카메라와 학습용 후방 카메라에 각각 대응되는 시퀀스 이미지인 제1_1 트레이닝 이미지 내지 제1_n 트레이닝 이미지와 제2_1 트레이닝 이미지 내지 제2_n 트레이닝 이미지가 획득되면, 학습 장치는, 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지로 구성된 각각의 페어를 각각의 페어의 시퀀스에 대응되는 제1 CNN 내지 제n CNN으로 각각 입력하여, 제k CNN로 하여금 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지를 컨캐터네이팅하도록 한 다음, 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 학습용 제1 특징 맵 내지 학습용 제n 특징 맵을 생성하도록 하는 프로세스를 수행할 수 있다. 그리고, 학습 장치는, 학습용 제1 특징 맵 내지 학습용 제n 특징 맵을 포워드 RNN의 각각의 시퀀스에 대응되는 제1_1 LSTM 모델 내지 제1_n LSTM 모델에 입력하고 백워드 RNN의 각각의 시퀀스에 대응되는 제2_1 LSTM 모델 내지 제2_n LSTM 모델 각각에 입력하여, (i) 제1_k LSTM 모델로 하여금, (i-1) 제1_(k+1) LSTM 모델에서 출력되는 학습용 제1_(k+1) 업데이트 특징 맵과 제1_k CNN에서 출력되는 학습용 제1_k 특징 맵을 모두 참조하여 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제1_k 업데이트 특징 맵을 생성하도록 하며, (i-2) 제1_k 업데이트 특징 맵에 대하여 FC 연산을 적용하여 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터를 생성하도록 하고, (ii) 제2_k LSTM 모델로 하여금, (ii-1) 제2_(k-1) LSTM 모델에서 출력되는 학습용 제2_(k-1) 업데이트 특징 맵과 제2_k CNN에서 출력되는 학습용 제2_k 특징 맵을 모두 참조하여 학습용 제2_k 특징 맵을 업데이트한 결과인 학습용 제2_k 업데이트 특징 맵을 생성하도록 하며, (ii-2) 제2_k 업데이트 특징 맵에 대하여 FC 연산을 적용하여 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스를 수행할 수 있다. 이후, 학습 장치는 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터와 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 어텐션 레이어로 입력하여, 어텐션 레이어로 하여금 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터와 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 참조하여 제1_1 트레이닝 이미지 내지 제1_n 트레이닝 이미지와 제2_1 트레이닝 이미지 내지 제2_n 트레이닝 이미지의 모든 시퀀스에서의 학습용 자율주행 모드 값을 생성하도록 하는 프로세스, 로스 레이어로 하여금 학습용 자율주행 모드 값과 이에 대응되는 GT를 참조하여 적어도 하나의 로스를 산출하도록 하는 프로세스, 및 로스를 이용한 백프로퍼게이션을 통해 로스를 최소화하도록 제1_1 LSTM 모델 내지 제1_n LSTM 모델과 제2_1 LSTM 모델 내지 제2_n LSTM 모델을 학습하는 프로세스를 수행한 상태일 수 있다.
이와 같이 RNN이 학습된 상태에서, 테스트용 자율 주행 자동차가 주행하는 동안, 테스트용 자율 주행 자동차의 테스트용 전방 카메라로부터 테스트용 전방 영상이 획득되고 테스트용 자율 주행 자동차의 테스트용 후방 카메라로부터 테스트용 후방 영상이 획득되면, 테스트 장치(200)는, 테스트용 전방 영상의 현재 프레임에 대응되는 제1 테스트 이미지와 테스트용 후방 영상의 현재 프레임에 대응되는 제2 테스트 이미지를 획득할 수 있다. 이때, 제1 테스트 이미지와 제2 테스트 이미지는 테스트용 자율 주행 자동차의 테스트용 전방 카메라와 테스트용 후방 카메라에 의해 촬영되는 각각의 영상을 기설정된 시간 간격으로(예를 들면, 1초마다 1장씩) 샘플링하여 생성된 현재 시점에서의 테스트 이미지일 수 있다.
다음으로, 도 6을 참조하면, 테스트 장치(200)는, 제1 테스트 이미지와 제2 테스트 이미지의 페어를 제1 CNN으로 입력하여, 제1 CNN으로 하여금 제1 테스트 이미지와 제2 테스트 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 적어도 하나의 테스트용 제1 특징 맵을 출력하도록 할 수 있다.
이때, 도 2에서의 학습 방법에서는 제1 CNN 내지 제n CNN을 사용하였으나, 테스트 프로세스에서는 이전 프레임, 즉, 제1 이미지와 제2 이미지에 대응되는 이전 샘플링 이미지를 이용하여 생성된 테스트용 이전 특징 맵, 즉, 테스트용 제2 특징 맵 내지 테스트용 제n 특징 맵이 저장되어 있으므로, 테스트 프로세스는 현재 시점에 대응되는 하나의 CNN을 이용해 수행될 수 있다.
또한, 테스트 장치(200)는, 제1 CNN으로 하여금, (i) 제1 테스트 이미지와 제2 테스트 이미지를 컨캐터네이팅하도록 하여 제1 컨캐터네이팅된 테스트 이미지를 생성하도록 하고, (ii) 제1 컨캐터네이팅된 테스트 이미지에 대하여 컨벌루션 연산을 적용하도록 하여 테스트용 제1 특징 맵을 생성하도록 할 수 있다.
다음으로, 테스트 장치(200)는 테스트용 제1 특징 맵을 제1_1 LSTM 모델에 입력하여, 제1_1 LSTM 모델로 하여금, (i) 이전 프레임에서 생성된 테스트용 제1_2 업데이트 특징 맵과 (ii) 테스트용 제1 특징 맵을 모두 참조하여 상기 테스트용 제1 특징 맵을 업데이트한 결과인 테스트용 제1_1 업데이트 특징 맵을 생성하도록 하며, 테스트용 제1_1 업데이트 특징 맵에 대하여 FC 연산을 적용하여 테스트용 제1_1 특징 벡터를 생성하도록 하는 프로세스를 수행할 수 있다.
즉, 테스트 장치(200)는, 제1_1 LSTM 모델로 하여금, 테스트용 제1_2 업데이트 특징 맵과 테스트용 제1 특징 맵을 참조하여, 테스트용 주행 환경이 위험 상황(Hazard Situation)인지를 제1 테스트 이미지와 제2 테스트 이미지의 페어를 참조해 확인하는데 사용되는 테스트용 제1_1 특징 벡터를 생성하도록 할 수 있다.
또한, 테스트 장치(200)는, 테스트용 제1 특징 맵을 제2_1 LSTM 모델에 입력하여, 제2_1 LSTM 모델로 하여금, 제1 CNN에서 출력되는 테스트용 제1 특징 맵을 참조하여, 테스트용 제1 특징 맵을 업데이트한 결과인 테스트용 제2_1 업데이트 특징 맵을 생성하도록 한 후, 테스트용 제2_1 업데이트 특징 맵에 대하여 FC 연산을 적용하여 테스트용 제2_1 특징 벡터를 출력하도록 하며, 제2_m LSTM 모델로 하여금, 제2_(m-1) LSTM 모델에서 생성된 테스트용 제2_(m-1) 업데이트 특징 맵과 이전 프레임에서 제1 CNN에 의해 생성된 테스트용 제m 특징 맵을 모두 참조하여, 테스트용 제m 특징 맵을 업데이트한 결과인 테스트용 제2_m 업데이트 특징 맵을 생성하도록 한 후, 테스트용 제2_m 업데이트 특징 맵에 대하여 FC 연산을 적용하여 테스트용 제2_2 특징 벡터 내지 테스트용 제2_n 특징 벡터를 출력하도록 할 수 있다. 이때, m은 2 이상이며 n 이하인 정수일 수 있다.
즉, 테스트 장치(200)는, (i) 제2_1 LSTM 모델로 하여금, 테스트용 제2_1 업데이트 특징 맵을 참조하여, 테스트용 주행 환경이 위험 상황인지를 제1 테스트 이미지와 제2 테스트 이미지의 페어를 참조해 확인하는데 사용되는 특징에 대응되는 테스트용 제2_1 특징 벡터를 생성하도록 하는 프로세스, 및 (ii) 제2_m LSTM 모델로 하여금, 테스트용 제2_(m-1) 업데이트 특징 맵과 테스트용 제m 특징 맵을 참조하여, 테스트용 주행 환경이 위험 상황인지를 제1 테스트 이미지와 제2 테스트 이미지의 페어를 참조해 확인하는데 사용되는 특징에 대응되는 테스트용 제2_2 특징 벡터 내지 상기 테스트용 제2_n 특징 벡터를 생성하도록 하는 프로세스를 수행할 수 있다.
이때, 도 2에서의 학습 방법에서는 제1_1 LSTM 내지 제1_n LSTM을 사용하였으나, 테스트 프로세스에서는 이전 프레임, 즉, 이전 테스트용 특징 벡터를 이용한 제1_1 LSTM에 의해 생성된 이전 테스트용 특징 벡터가 저장되어 있으므로, 테스트 프로세스는 현재 시점에 대응되는 하나의 제1_1 LSTM를 이용해 수행될 수 있다.
다음으로, 테스트 장치(200)는, (i) 테스트용 제1_1 특징 벡터 및 (ii) 이전 프레임으로부터 나온 제1_1 LSTM 모델에 의해 출력된 테스트용 제1_2 특징 벡터 내지 테스트용 제1_n 특징 벡터와 테스트용 제2_1 특징 벡터 내지 테스트용 제2_m 특징 벡터를, 어텐션 레이어로 입력하여, 어텐션 레이어로 하여금, 테스트용 제1_1 특징 벡터 내지 테스트용 제1_n 특징 벡터와 테스트용 제2_1 특징 벡터 내지 테스트용 제2_n 특징 벡터를 참조하여, 제1 테스트 이미지와 제2 테스트 이미지에 대한 테스트용 자율주행 모드 값, 즉, 자율주행 모드로 자율 주행 자동차를 주행할 것인지 수동주행 모드로 자율 주행 자동차를 주행할 것인지에 대해 확인하는 값을 출력하도록 할 수 있다.
이때, 테스트 장치(200)는, 어텐션 레이어로 하여금, (i) 테스트용 제1_k 특징 벡터와 테스트용 제2_k 특징 벡터를 컨캐터네이팅하도록 하여, 테스트용 제1 컨캐터네이팅된 특징 벡터 내지 테스트용 제n 컨캐터네이팅된 특징 벡터를 생성하도록 하며, (ii) 테스트용 제1 컨캐터네이팅된 특징 벡터 내지 테스트용 제n 컨캐터네이팅된 특징 벡터를 가중 평균하도록 하여, 테스트용 자율주행 모드 값을 생성하도록 하는 프로세스를 수행할 수 있다.
상기에서 설명한 바와 같이, 본 발명은 자율 주행 자동차의 전방 카메라와 후방 카메라부터 획득되는 다중 시점 정보를 융합하기 위한 방법에 관한 것으로, RNN으로 하여금, 주행 환경이 위험 상황인지를 판단하여 자율 주행 안전성을 확인하도록 하여, 그에 따라 자율 주행 자동차의 주행 모드 변경을 수행하도록 하는 것이다.
또한, 이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
100: 학습 장치,
110: 메모리,
120: 프로세서,
200: 테스트 장치,
210: 메모리,
220: 프로세서

Claims (22)

  1. 자율 주행 자동차의 주행 모드 변경을 위해 사용되는, 자율 주행 안정성을 확인하는 RNN(Recurrent Neural Network)을 학습하는 방법에 있어서,
    (a) 학습용 자율 주행 자동차의 학습용 전방 카메라와 학습용 후방 카메라에 각각 대응되는 시퀀스 이미지인 제1_1 트레이닝 이미지 내지 제1_n 트레이닝 이미지와 제2_1 트레이닝 이미지 내지 제2_n 트레이닝 이미지가 획득되면, 학습 장치가, 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지 - 상기 k는 정수이며, 시퀀스는 n으로부터 1로 진행됨 - 로 구성된 페어(Pair) 각각을, 상기 페어 각각의 시퀀스에 대응되는 제1 CNN(Convolutional Neural Network) 내지 제n CNN으로 각각 입력하여, 제k CNN으로 하여금, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지를 컨캐터네이팅(Concatenating)하도록 한 다음, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 학습용 제1 특징 맵(Feature Map) 내지 학습용 제n 특징 맵을 생성하도록 하는 단계;
    (b) 상기 학습 장치가, (i) 상기 학습용 제1 특징 맵 내지 상기 학습용 제n 특징 맵을 포워드 RNN(Forward RNN)의 각각의 시퀀스에 대응되는 제1_1 LSTM(Long Short-Term Memory) 모델 내지 제1_n LSTM 모델 각각에 입력하고 백워드 RNN(Backward RNN)의 각각의 시퀀스에 대응되는 제2_1 LSTM 모델 내지 제2_n LSTM 모델 각각에 입력하여, (i-1) 제1_k LSTM 모델로 하여금, (i-1-a) 제1_(k+1) LSTM 모델에서 출력되는 학습용 제1_(k+1) 업데이트 특징 맵(Updated Feature Map)과 상기 제k CNN에서 출력되는 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제1_k 업데이트 특징 맵을 생성하도록 하며, (i-1-b) 상기 학습용 제1_k 업데이트 특징 맵에 대하여 FC 연산(Fully Connected Operation)을 적용한 결과인 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터를 생성하도록 하며, (i-2) 제2_k LSTM 모델로 하여금, (i-2-a) 제2_(k-1) LSTM 모델에서 출력되는 학습용 제2_(k-1) 업데이트 특징 맵과 상기 제k CNN에서 출력되는 상기 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제2_k 업데이트 특징 맵을 생성하도록 하며, (i-2-b) 상기 학습용 제2_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스, 및 (ii) 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 어텐션 레이어(Attention Layer)로 입력하여, 상기 어텐션 레이어로 하여금, 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 참조하여, 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지와 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지의 모든 시퀀스에서의 학습용 자율주행 모드 값(Autonomous-Driving Mode Value)을 생성하도록 하는 프로세스를 수행하는 단계; 및
    (c) 상기 학습 장치가, 로스 레이어(Loss Layer)로 하여금 상기 학습용 자율주행 모드 값과 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 로스를 산출하도록 하는 프로세스, 및 상기 로스를 이용한 백프로퍼게이션을 통해 상기 로스를 최소화하도록 상기 제1_1 LSTM 모델 내지 상기 제1_n LSTM 모델과 상기 제2_1 LSTM 모델 내지 상기 제2_n LSTM 모델을 학습하는 프로세스를 수행하는 단계;
    를 포함하는 것을 특징으로 하는 방법.
  2. 제 1 항에 있어서,
    상기 (b) 단계에서,
    상기 학습 장치는, 상기 어텐션 레이어로 하여금, (i) 학습용 제1_k 특징 벡터와 학습용 제2_k 특징 벡터를 컨캐터네이팅하도록 하여, 학습용 제1 컨캐터네이팅된 특징 벡터 내지 학습용 제n 컨캐터네이팅된 특징 벡터를 생성하도록 하며, (ii) 상기 학습용 제1 컨캐터네이팅된 특징 벡터 내지 상기 학습용 제n 컨캐터네이팅된 특징 벡터에 대하여 가중 평균(Weighted Average)하도록 하여, 상기 학습용 자율주행 모드 값을 생성하도록 하는 것을 특징으로 하는 방법.
  3. 제 1 항에 있어서,
    상기 (a) 단계에서,
    상기 학습 장치는, 상기 제1 CNN 내지 상기 제n CNN 각각으로 하여금, (i) 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지를 각각 컨캐터네이팅하도록 하여 제k 컨캐터네이팅된 트레이닝 이미지를 생성하도록 하고, (ii) 상기 제k 컨캐터네이팅된 트레이닝 이미지에 대하여 컨벌루션 연산을 적용하도록 하여 상기 학습용 제1 특징 맵 내지 상기 학습용 제n 특징 맵을 생성하도록 하는 방법.
  4. 제 1 항에 있어서,
    상기 (b) 단계에서,
    상기 학습 장치는, (i) 상기 제1_k LSTM 모델로 하여금, 상기 학습용 제1_(k+1) 업데이트 특징 맵과 상기 학습용 제1_k 특징 맵을 참조하여, 학습용 주행 환경이 위험 상황(Hazard Situation)인지를 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터를 생성하도록 하는 프로세스, 및 (ii) 상기 제2_k LSTM 모델로 하여금, 상기 학습용 제2_(k-1) 업데이트 특징 맵과 상기 학습용 제2_k 특징 맵을 참조하여, 상기 학습용 주행 환경이 위험 상황인지를 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스를 수행하는 것을 특징으로 하는 방법.
  5. 제 1 항에 있어서,
    상기 (c) 단계에서,
    상기 학습 장치는, 상기 로스 레이어로 하여금 소프트맥스(Softmax) 알고리즘을 이용하여 상기 학습용 자율주행 모드 값을 정규화(Normalize)하는 프로세스, 및 정규화된 상기 학습용 자율주행 모드 값과 상기 GT를 참조하여 상기 로스를 산출하는 프로세스를 수행하는 것을 특징으로 하는 방법.
  6. 제 1 항에 있어서,
    상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지와 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지는, (i) (i-1) 상기 학습용 자율 주행 자동차의 상기 학습용 전방 카메라로부터 촬영되는 영상을 기설정된 시간 간격으로 샘플링하여 제1 시퀀스 이미지를 추출하는 프로세스, 및 (i-2) 추출된 상기 제1 시퀀스 이미지 각각에 대하여 자율주행 가능 여부를 라벨링하는 프로세스, 및 (ii) (ii-1) 상기 학습용 자율 주행 자동차의 상기 학습용 후방 카메라로부터 촬영되는 영상을 상기 기설정된 시간 간격으로 샘플링하여 제2 시퀀스 이미지를 추출하는 프로세스, 및 (ii-2) 샘플링된 상기 제2 시퀀스 이미지 각각에 대하여 자율주행 가능 여부를 라벨링하는 프로세스를 수행하여 생성되는 것을 특징으로 하는 방법.
  7. 제 1 항에 있어서,
    상기 (c) 단계에서,
    상기 GT는, 상기 시퀀스 이미지 중 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지의 다음 시퀀스에 대응되는 제1 다음 시퀀스 이미지(Next Sequence Image)와, 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지의 상기 다음 시퀀스에 대응되는 제2 다음 시퀀스 이미지로부터 획득되는 것을 특징으로 하는 방법.
  8. 자율 주행 자동차의 주행 모드 변경을 위해 사용되는, 자율 주행 안정성을 확인하는 RNN(Recurrent Neural Network)을 테스트하는 방법에 있어서,
    (a) 학습용 자율 주행 자동차의 학습용 전방 카메라와 학습용 후방 카메라에 각각 대응되는 시퀀스 이미지인 제1_1 트레이닝 이미지 내지 제1_n 트레이닝 이미지와 제2_1 트레이닝 이미지 내지 제2_n 트레이닝 이미지가 획득되면, 학습 장치가, (i) 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지 - 상기 k는 정수이며, 시퀀스는 n으로부터 1로 진행됨 - 로 구성된 페어(Pair) 각각을, 상기 페어 각각의 시퀀스에 대응되는 제1 CNN(Convolutional Neural Network) 내지 제n CNN으로 각각 입력하여, 제k CNN으로 하여금, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지를 컨캐터네이팅(Concatenating)하도록 한 다음, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 학습용 제1 특징 맵(Feature Map) 내지 학습용 제n 특징 맵을 생성하도록 하는 프로세스, (ii) 상기 학습용 제1 특징 맵 내지 상기 학습용 제n 특징 맵을 포워드 RNN(Forward RNN)의 각각의 시퀀스에 대응되는 제1_1 LSTM(Long Short-Term Memory) 모델 내지 제1_n LSTM 모델 각각에 입력하고 백워드 RNN(Backward RNN)의 각각의 시퀀스에 대응되는 제2_1 LSTM 모델 내지 제2_n LSTM 모델 각각에 입력하여, (ii-1) 제1_k LSTM 모델로 하여금, (ii-1-a) 제1_(k+1) LSTM 모델에서 출력되는 학습용 제1_(k+1) 업데이트 특징 맵(Updated Feature Map)과 상기 제k CNN에서 출력되는 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제1_k 업데이트 특징 맵을 생성하도록 하며, (ii-1-b) 상기 학습용 제1_k 업데이트 특징 맵에 대하여 FC 연산(Fully Connected Operation)을 적용한 결과인 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터를 생성하도록 하며, (ii-2) 제2_k LSTM 모델로 하여금, (ii-2-a) 제2_(k-1) LSTM 모델에서 출력되는 학습용 제2_(k-1) 업데이트 특징 맵과 상기 제k CNN에서 출력되는 상기 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제2_k 업데이트 특징 맵을 생성하도록 하며, (ii-2-b) 상기 학습용 제2_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스, 및 (iii) 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 어텐션 레이어(Attention Layer)로 입력하여, 상기 어텐션 레이어로 하여금, 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 참조하여, 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지와 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지의 모든 시퀀스에서의 학습용 자율주행 모드 값(Autonomous-Driving Mode Value)을 생성하도록 하는 프로세스, (iv) 로스 레이어(Loss Layer)로 하여금 상기 학습용 자율주행 모드 값과 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 로스를 산출하도록 하는 프로세스, 및 상기 로스를 이용한 백프로퍼게이션을 통해 상기 로스를 최소화하도록 상기 제1_1 LSTM 모델 내지 상기 제1_n LSTM 모델과 상기 제2_1 LSTM 모델 내지 상기 제2_n LSTM 모델을 학습하는 프로세스를 수행한 상태에서, 주행 중인 테스트용 자율 주행 자동차의 테스트용 전방 카메라와 테스트용 후방 카메라로부터 상기 테스트용 자율 주행 자동차의 테스트용 전방 영상과 테스트용 후방 영상이 획득되면, 테스트 장치가, 상기 테스트용 전방 영상의 현재 프레임에 대응되는 제1 테스트 이미지와 상기 테스트용 후방 영상의 상기 현재 프레임에 대응되는 제2 테스트 이미지를 상기 제1 CNN에 입력하여, 상기 제1 CNN으로 하여금 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 테스트용 제1 특징 맵을 생성하도록 하는 단계; 및
    (b) 상기 테스트 장치가, (i) 상기 테스트용 제1 특징 맵 내지 상기 테스트용 제n 특징 맵을 상기 포워드 RNN의 각각의 시퀀스에 대응되는 상기 제1_1 LSTM 모델 내지 상기 제1_n LSTM 모델 각각에 입력하고 상기 백워드 RNN의 각각의 시퀀스에 대응되는 상기 제2_1 LSTM 모델 내지 상기 제2_n LSTM 모델 각각에 입력하여, (i-1) 상기 제1_k LSTM 모델로 하여금, (i-1-a) 상기 제1_(k+1) LSTM 모델에서 출력되는 테스트용 제1_(k+1) 업데이트 특징 맵(Updated Feature Map)과 상기 제k CNN에서 출력되는 테스트용 제k 특징 맵을 모두 참조하여 상기 테스트용 제k 특징 맵을 업데이트한 결과인 테스트용 제1_k 업데이트 특징 맵을 생성하도록 하며, (i-1-b) 상기 테스트용 제1_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 테스트용 제1_1 특징 벡터 내지 테스트용 제1_n 특징 벡터를 생성하도록 하며, (i-2) 상기 제2_k LSTM 모델로 하여금, (i-2-a) 상기 제2_(k-1) LSTM 모델에서 출력되는 테스트용 제2_(k-1) 업데이트 특징 맵과 상기 제k CNN에서 출력되는 상기 테스트용 제k 특징 맵을 모두 참조하여 상기 테스트용 제k 특징 맵을 업데이트한 결과인 테스트용 제2_k 업데이트 특징 맵을 생성하도록 하며, (i-2-b) 상기 테스트용 제2_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 테스트용 제2_1 특징 벡터 내지 테스트용 제2_n 특징 벡터를 생성하도록 하는 프로세스, 및 (ii) 상기 테스트용 제1_1 특징 벡터 내지 상기 테스트용 제1_n 특징 벡터와 상기 테스트용 제2_1 특징 벡터 내지 상기 테스트용 제2_n 특징 벡터를 상기 어텐션 레이어로 입력하여, 상기 어텐션 레이어로 하여금, 상기 테스트용 제1_1 특징 벡터 내지 상기 테스트용 제1_n 특징 벡터와 상기 테스트용 제2_1 특징 벡터 내지 상기 테스트용 제2_n 특징 벡터를 참조하여 상기 제1_1 테스트 이미지 내지 상기 제1_n 테스트 이미지와 상기 제2_1 테스트 이미지 내지 상기 제2_n 테스트 이미지의 모든 시퀀스에서의 테스트용 자율주행 모드 값을 생성하도록 하는 단계;
    를 포함하는 것을 특징으로 하는 방법.
  9. 제 8 항에 있어서,
    상기 (b) 단계에서,
    상기 테스트 장치는, 상기 어텐션 레이어로 하여금, (i) 테스트용 제1_k 특징 벡터와 테스트용 제2_k 특징 벡터를 컨캐터네이팅하도록 하여, 테스트용 제1 컨캐터네이팅된 특징 벡터 내지 테스트용 제n 컨캐터네이팅된 특징 벡터를 생성하도록 하며, (ii) 상기 테스트용 제1 컨캐터네이팅된 특징 벡터 내지 상기 테스트용 제n 컨캐터네이팅된 특징 벡터에 대하여 가중 평균(Weighted Average)하도록 하여, 상기 테스트용 자율주행 모드 값을 생성하도록 하는 프로세스를 수행하는 것을 특징으로 하는 방법.
  10. 제 8 항에 있어서,
    상기 (a) 단계에서,
    상기 테스트 장치는, 상기 제1 CNN으로 하여금, (i) 상기 제1 테스트 이미지와 상기 제2 테스트 이미지를 컨캐터네이팅하도록 하여 제1 컨캐터네이팅된 테스트 이미지를 생성하도록 하고, (ii) 상기 제1 컨캐터네이팅된 테스트 이미지에 대하여 컨벌루션 연산을 적용하도록 하여 상기 테스트용 제1 특징 맵을 생성하도록 하는 프로세스를 수행하는 것을 특징으로 하는 방법.
  11. 제 8 항에 있어서,
    상기 (b) 단계에서,
    상기 테스트 장치는, (i) 상기 제1_1 LSTM 모델로 하여금, 상기 테스트용 제1_2 업데이트 특징 맵과 상기 테스트용 제1 특징 맵을 참조하여, 테스트용 주행 환경이 위험 상황(Hazard Situation)인지를 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 테스트용 제1_1 특징 벡터를 생성하도록 하는 프로세스, (ii) 상기 제2_1 LSTM 모델로 하여금, 상기 테스트용 제2_1 업데이트 특징 맵을 참조하여, 상기 테스트용 주행 환경이 위험 상황인지를 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 테스트용 제2_1 특징 벡터를 생성하도록 하는 프로세스, 및 (iii) 상기 제2_m LSTM 모델로 하여금, 상기 테스트용 제2_(m-1) 업데이트 특징 맵과 상기 테스트용 제m 특징 맵을 참조하여, 상기 테스트용 주행 환경이 위험 상황인지를 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 테스트용 제2_2 특징 벡터 내지 상기 테스트용 제2_n 특징 벡터를 생성하도록 하는 프로세스를 수행하는 하는 것을 특징으로 하는 방법.
  12. 자율 주행 자동차의 주행 모드 변경을 위해 사용되는, 자율 주행 안정성을 확인하는 RNN(Recurrent Neural Network)을 학습하는 학습 장치에 있어서,
    인스트럭션을 저장하는 적어도 하나의 메모리; 및
    (I) 학습용 자율 주행 자동차의 학습용 전방 카메라와 학습용 후방 카메라에 각각 대응되는 시퀀스 이미지인 제1_1 트레이닝 이미지 내지 제1_n 트레이닝 이미지와 제2_1 트레이닝 이미지 내지 제2_n 트레이닝 이미지가 획득되면, 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지 - 상기 k는 정수이며, 시퀀스는 n으로부터 1로 진행됨 - 로 구성된 페어(Pair) 각각을, 상기 페어 각각의 시퀀스에 대응되는 제1 CNN(Convolutional Neural Network) 내지 제n CNN으로 각각 입력하여, 제k CNN으로 하여금, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지를 컨캐터네이팅(Concatenating)하도록 한 다음, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 학습용 제1 특징 맵(Feature Map) 내지 학습용 제n 특징 맵을 생성하도록 하는 프로세스, (II) (i) 상기 학습용 제1 특징 맵 내지 상기 학습용 제n 특징 맵을 포워드 RNN(Forward RNN)의 각각의 시퀀스에 대응되는 제1_1 LSTM(Long Short-Term Memory) 모델 내지 제1_n LSTM 모델 각각에 입력하고 백워드 RNN(Backward RNN)의 각각의 시퀀스에 대응되는 제2_1 LSTM 모델 내지 제2_n LSTM 모델 각각에 입력하여, (i-1) 제1_k LSTM 모델로 하여금, (i-1-a) 제1_(k+1) LSTM 모델에서 출력되는 학습용 제1_(k+1) 업데이트 특징 맵(Updated Feature Map)과 상기 제k CNN에서 출력되는 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제1_k 업데이트 특징 맵을 생성하도록 하며, (i-1-b) 상기 학습용 제1_k 업데이트 특징 맵에 대하여 FC 연산(Fully Connected Operation)을 적용한 결과인 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터를 생성하도록 하며, (i-2) 제2_k LSTM 모델로 하여금, (i-2-a) 제2_(k-1) LSTM 모델에서 출력되는 학습용 제2_(k-1) 업데이트 특징 맵과 상기 제k CNN에서 출력되는 상기 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제2_k 업데이트 특징 맵을 생성하도록 하며, (i-2-b) 상기 학습용 제2_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스, 및 (ii) 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 어텐션 레이어(Attention Layer)로 입력하여, 상기 어텐션 레이어로 하여금, 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 참조하여, 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지와 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지의 모든 시퀀스에서의 학습용 자율주행 모드 값(Autonomous-Driving Mode Value)을 생성하도록 하는 프로세스, 및 (III) 로스 레이어(Loss Layer)로 하여금 상기 학습용 자율주행 모드 값과 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 로스를 산출하도록 하는 프로세스, 및 상기 로스를 이용한 백프로퍼게이션을 통해 상기 로스를 최소화하도록 상기 제1_1 LSTM 모델 내지 상기 제1_n LSTM 모델과 상기 제2_1 LSTM 모델 내지 상기 제2_n LSTM 모델을 학습하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;
    를 포함하는 것을 특징으로 하는 장치.
  13. 제 12 항에 있어서,
    상기 (II) 프로세스에서,
    상기 프로세서는, 상기 어텐션 레이어로 하여금, (i) 학습용 제1_k 특징 벡터와 학습용 제2_k 특징 벡터를 컨캐터네이팅하도록 하여, 학습용 제1 컨캐터네이팅된 특징 벡터 내지 학습용 제n 컨캐터네이팅된 특징 벡터를 생성하도록 하며, (ii) 상기 학습용 제1 컨캐터네이팅된 특징 벡터 내지 상기 학습용 제n 컨캐터네이팅된 특징 벡터에 대하여 가중 평균(Weighted Average)하도록 하여, 상기 학습용 자율주행 모드 값을 생성하도록 하는 것을 특징으로 하는 장치.
  14. 제 12 항에 있어서,
    상기 (I) 프로세스에서,
    상기 프로세서는, 상기 제1 CNN 내지 상기 제n CNN 각각으로 하여금, (i) 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지를 각각 컨캐터네이팅하도록 하여 제k 컨캐터네이팅된 트레이닝 이미지를 생성하도록 하고, (ii) 상기 제k 컨캐터네이팅된 트레이닝 이미지에 대하여 컨벌루션 연산을 적용하도록 하여 상기 학습용 제1 특징 맵 내지 상기 학습용 제n 특징 맵을 생성하도록 하는 장치.
  15. 제 12 항에 있어서,
    상기 (II) 프로세스에서,
    상기 프로세서는, (i) 상기 제1_k LSTM 모델로 하여금, 상기 학습용 제1_(k+1) 업데이트 특징 맵과 상기 학습용 제1_k 특징 맵을 참조하여, 학습용 주행 환경이 위험 상황(Hazard Situation)인지를 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터를 생성하도록 하는 프로세스, 및 (ii) 상기 제2_k LSTM 모델로 하여금, 상기 학습용 제2_(k-1) 업데이트 특징 맵과 상기 학습용 제2_k 특징 맵을 참조하여, 상기 학습용 주행 환경이 위험 상황인지를 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스를 수행하는 것을 특징으로 하는 장치.
  16. 제 12 항에 있어서,
    상기 (III) 프로세스에서,
    상기 프로세서는, 상기 로스 레이어로 하여금 소프트맥스(Softmax) 알고리즘을 이용하여 상기 학습용 자율주행 모드 값을 정규화(Normalize)하는 프로세스, 및 정규화된 상기 학습용 자율주행 모드 값과 상기 GT를 참조하여 상기 로스를 산출하는 프로세스를 수행하는 것을 특징으로 하는 장치.
  17. 제 12 항에 있어서,
    상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지와 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지는, (i) (i-1) 상기 학습용 자율 주행 자동차의 상기 학습용 전방 카메라로부터 촬영되는 영상을 기설정된 시간 간격으로 샘플링하여 제1 시퀀스 이미지를 추출하는 프로세스, 및 (i-2) 추출된 상기 제1 시퀀스 이미지 각각에 대하여 자율주행 가능 여부를 라벨링하는 프로세스, 및 (ii) (ii-1) 상기 학습용 자율 주행 자동차의 상기 학습용 후방 카메라로부터 촬영되는 영상을 상기 기설정된 시간 간격으로 샘플링하여 제2 시퀀스 이미지를 추출하는 프로세스, 및 (ii-2) 샘플링된 상기 제2 시퀀스 이미지 각각에 대하여 자율주행 가능 여부를 라벨링하는 프로세스를 수행하여 생성되는 것을 특징으로 하는 장치.
  18. 제 12 항에 있어서,
    상기 (III) 프로세스에서,
    상기 GT는, 상기 시퀀스 이미지 중 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지의 다음 시퀀스에 대응되는 제1 다음 시퀀스 이미지(Next Sequence Image)와, 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지의 상기 다음 시퀀스에 대응되는 제2 다음 시퀀스 이미지로부터 획득되는 것을 특징으로 하는 장치.
  19. 자율 주행 자동차의 주행 모드 변경을 위해 사용되는, 자율 주행 안정성을 확인하는 RNN(Recurrent Neural Network)을 테스트하는 테스트 장치에 있어서,
    인스트럭션을 저장하는 적어도 하나의 메모리; 및
    (I) 학습용 자율 주행 자동차의 학습용 전방 카메라와 학습용 후방 카메라에 각각 대응되는 시퀀스 이미지인 제1_1 트레이닝 이미지 내지 제1_n 트레이닝 이미지와 제2_1 트레이닝 이미지 내지 제2_n 트레이닝 이미지가 획득되면, 학습 장치가, (i) 제1_k 트레이닝 이미지와 제2_k 트레이닝 이미지 - 상기 k는 정수이며, 시퀀스는 n으로부터 1로 진행됨 - 로 구성된 페어(Pair) 각각을, 상기 페어 각각의 시퀀스에 대응되는 제1 CNN(Convolutional Neural Network) 내지 제n CNN으로 각각 입력하여, 제k CNN으로 하여금, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지를 컨캐터네이팅(Concatenating)하도록 한 다음, 상기 제1_k 트레이닝 이미지와 상기 제2_k 트레이닝 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 학습용 제1 특징 맵(Feature Map) 내지 학습용 제n 특징 맵을 생성하도록 하는 프로세스, (ii) 상기 학습용 제1 특징 맵 내지 상기 학습용 제n 특징 맵을 포워드 RNN(Forward RNN)의 각각의 시퀀스에 대응되는 제1_1 LSTM(Long Short-Term Memory) 모델 내지 제1_n LSTM 모델 각각에 입력하고 백워드 RNN(Backward RNN)의 각각의 시퀀스에 대응되는 제2_1 LSTM 모델 내지 제2_n LSTM 모델 각각에 입력하여, (ii-1) 제1_k LSTM 모델로 하여금, (ii-1-a) 제1_(k+1) LSTM 모델에서 출력되는 학습용 제1_(k+1) 업데이트 특징 맵(Updated Feature Map)과 상기 제k CNN에서 출력되는 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제1_k 업데이트 특징 맵을 생성하도록 하며, (ii-1-b) 상기 학습용 제1_k 업데이트 특징 맵에 대하여 FC 연산(Fully Connected Operation)을 적용한 결과인 학습용 제1_1 특징 벡터 내지 학습용 제1_n 특징 벡터를 생성하도록 하며, (ii-2) 제2_k LSTM 모델로 하여금, (ii-2-a) 제2_(k-1) LSTM 모델에서 출력되는 학습용 제2_(k-1) 업데이트 특징 맵과 상기 제k CNN에서 출력되는 상기 학습용 제k 특징 맵을 모두 참조하여 상기 학습용 제k 특징 맵을 업데이트한 결과인 학습용 제2_k 업데이트 특징 맵을 생성하도록 하며, (ii-2-b) 상기 학습용 제2_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 학습용 제2_1 특징 벡터 내지 학습용 제2_n 특징 벡터를 생성하도록 하는 프로세스, 및 (iii) 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 어텐션 레이어(Attention Layer)로 입력하여, 상기 어텐션 레이어로 하여금, 상기 학습용 제1_1 특징 벡터 내지 상기 학습용 제1_n 특징 벡터와 상기 학습용 제2_1 특징 벡터 내지 상기 학습용 제2_n 특징 벡터를 참조하여, 상기 제1_1 트레이닝 이미지 내지 상기 제1_n 트레이닝 이미지와 상기 제2_1 트레이닝 이미지 내지 상기 제2_n 트레이닝 이미지의 모든 시퀀스에서의 학습용 자율주행 모드 값(Autonomous-Driving Mode Value)을 생성하도록 하는 프로세스, (iv) 로스 레이어(Loss Layer)로 하여금 상기 학습용 자율주행 모드 값과 이에 대응되는 GT(Ground Truth)를 참조하여 적어도 하나의 로스를 산출하도록 하는 프로세스, 및 상기 로스를 이용한 백프로퍼게이션을 통해 상기 로스를 최소화하도록 상기 제1_1 LSTM 모델 내지 상기 제1_n LSTM 모델과 상기 제2_1 LSTM 모델 내지 상기 제2_n LSTM 모델을 학습하는 프로세스를 수행한 상태에서, 주행 중인 테스트용 자율 주행 자동차의 테스트용 전방 카메라와 테스트용 후방 카메라로부터 상기 테스트용 자율 주행 자동차의 테스트용 전방 영상과 테스트용 후방 영상이 획득되면, 상기 테스트용 전방 영상의 현재 프레임에 대응되는 제1 테스트 이미지와 상기 테스트용 후방 영상의 상기 현재 프레임에 대응되는 제2 테스트 이미지를 상기 제1 CNN에 입력하여, 상기 제1 CNN으로 하여금 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 컨캐터네이팅 결과에 대하여 컨벌루션 연산을 적용하여 테스트용 제1 특징 맵을 생성하도록 하는 프로세스, 및 (II) (i) 상기 테스트용 제1 특징 맵 내지 상기 테스트용 제n 특징 맵을 상기 포워드 RNN의 각각의 시퀀스에 대응되는 상기 제1_1 LSTM 모델 내지 상기 제1_n LSTM 모델 각각에 입력하고 상기 백워드 RNN의 각각의 시퀀스에 대응되는 상기 제2_1 LSTM 모델 내지 상기 제2_n LSTM 모델 각각에 입력하여, (i-1) 상기 제1_k LSTM 모델로 하여금, (i-1-a) 상기 제1_(k+1) LSTM 모델에서 출력되는 테스트용 제1_(k+1) 업데이트 특징 맵(Updated Feature Map)과 상기 제k CNN에서 출력되는 테스트용 제k 특징 맵을 모두 참조하여 상기 테스트용 제k 특징 맵을 업데이트한 결과인 테스트용 제1_k 업데이트 특징 맵을 생성하도록 하며, (i-1-b) 상기 테스트용 제1_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 테스트용 제1_1 특징 벡터 내지 테스트용 제1_n 특징 벡터를 생성하도록 하며, (i-2) 상기 제2_k LSTM 모델로 하여금, (i-2-a) 상기 제2_(k-1) LSTM 모델에서 출력되는 테스트용 제2_(k-1) 업데이트 특징 맵과 상기 제k CNN에서 출력되는 상기 테스트용 제k 특징 맵을 모두 참조하여 상기 테스트용 제k 특징 맵을 업데이트한 결과인 테스트용 제2_k 업데이트 특징 맵을 생성하도록 하며, (i-2-b) 상기 테스트용 제2_k 업데이트 특징 맵에 대하여 FC 연산을 적용한 결과인 테스트용 제2_1 특징 벡터 내지 테스트용 제2_n 특징 벡터를 생성하도록 하는 프로세스, 및 (ii) 상기 테스트용 제1_1 특징 벡터 내지 상기 테스트용 제1_n 특징 벡터와 상기 테스트용 제2_1 특징 벡터 내지 상기 테스트용 제2_n 특징 벡터를 상기 어텐션 레이어로 입력하여, 상기 어텐션 레이어로 하여금, 상기 테스트용 제1_1 특징 벡터 내지 상기 테스트용 제1_n 특징 벡터와 상기 테스트용 제2_1 특징 벡터 내지 상기 테스트용 제2_n 특징 벡터를 참조하여 상기 제1_1 테스트 이미지 내지 상기 제1_n 테스트 이미지와 상기 제2_1 테스트 이미지 내지 상기 제2_n 테스트 이미지의 모든 시퀀스에서의 테스트용 자율주행 모드 값을 생성하도록 하는 프로세스를 수행하기 위한 상기 인스트럭션을 실행하도록 구성된 적어도 하나의 프로세서;
    를 포함하는 것을 특징으로 하는 장치.
  20. 제 19 항에 있어서,
    상기 (II) 프로세스에서,
    상기 프로세서는, 상기 어텐션 레이어로 하여금, (i) 테스트용 제1_k 특징 벡터와 테스트용 제2_k 특징 벡터를 컨캐터네이팅하도록 하여, 테스트용 제1 컨캐터네이팅된 특징 벡터 내지 테스트용 제n 컨캐터네이팅된 특징 벡터를 생성하도록 하며, (ii) 상기 테스트용 제1 컨캐터네이팅된 특징 벡터 내지 상기 테스트용 제n 컨캐터네이팅된 특징 벡터에 대하여 가중 평균(Weighted Average)하도록 하여, 상기 테스트용 자율주행 모드 값을 생성하도록 하는 프로세스를 수행하는 것을 특징으로 하는 장치.
  21. 제 19 항에 있어서,
    상기 (I) 프로세스에서,
    상기 프로세서는, 상기 제1 CNN으로 하여금, (i) 상기 제1 테스트 이미지와 상기 제2 테스트 이미지를 컨캐터네이팅하도록 하여 제1 컨캐터네이팅된 테스트 이미지를 생성하도록 하고, (ii) 상기 제1 컨캐터네이팅된 테스트 이미지에 대하여 컨벌루션 연산을 적용하도록 하여 상기 테스트용 제1 특징 맵을 생성하도록 하는 프로세스를 수행하는 것을 특징으로 하는 장치.
  22. 제 19 항에 있어서,
    상기 (II) 프로세스에서,
    상기 프로세서는, (i) 상기 제1_1 LSTM 모델로 하여금, 상기 테스트용 제1_2 업데이트 특징 맵과 상기 테스트용 제1 특징 맵을 참조하여, 테스트용 주행 환경이 위험 상황(Hazard Situation)인지를 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 테스트용 제1_1 특징 벡터를 생성하도록 하는 프로세스, (ii) 상기 제2_1 LSTM 모델로 하여금, 상기 테스트용 제2_1 업데이트 특징 맵을 참조하여, 상기 테스트용 주행 환경이 위험 상황인지를 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 상기 테스트용 제2_1 특징 벡터를 생성하도록 하는 프로세스, 및 (iii) 상기 제2_m LSTM 모델로 하여금, 상기 테스트용 제2_(m-1) 업데이트 특징 맵과 상기 테스트용 제m 특징 맵을 참조하여, 상기 테스트용 주행 환경이 위험 상황인지를 상기 제1 테스트 이미지와 상기 제2 테스트 이미지의 상기 페어를 참조해 확인하는데 사용되는 특징에 대응되는 테스트용 제2_2 특징 벡터 내지 상기 테스트용 제2_n 특징 벡터를 생성하도록 하는 프로세스를 수행하는 하는 것을 특징으로 하는 장치.
KR1020200001714A 2019-01-30 2020-01-06 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위해 자율 주행 안전 확인을 위한 rnn의 학습 방법 및 학습 장치, 그리고 테스트 방법 및 테스트 장치 KR102396267B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962798946P 2019-01-30 2019-01-30
US62/798,946 2019-01-30
US16/723,753 US11087175B2 (en) 2019-01-30 2019-12-20 Learning method and learning device of recurrent neural network for autonomous driving safety check for changing driving mode between autonomous driving mode and manual driving mode, and testing method and testing device using them
US16/723,753 2019-12-20

Publications (2)

Publication Number Publication Date
KR20200095355A true KR20200095355A (ko) 2020-08-10
KR102396267B1 KR102396267B1 (ko) 2022-05-11

Family

ID=69167685

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200001714A KR102396267B1 (ko) 2019-01-30 2020-01-06 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위해 자율 주행 안전 확인을 위한 rnn의 학습 방법 및 학습 장치, 그리고 테스트 방법 및 테스트 장치

Country Status (5)

Country Link
US (1) US11087175B2 (ko)
EP (1) EP3690709B1 (ko)
JP (1) JP6850047B2 (ko)
KR (1) KR102396267B1 (ko)
CN (1) CN111507163B (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220151246A (ko) * 2021-05-06 2022-11-15 대한민국(국방부 공군참모총장) 극자외선 태양 영상을 사용하여 지자기 교란 지수를 예측하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
US11720648B2 (en) 2021-05-03 2023-08-08 Hyundai Mobis Co., Ltd. Deep learning machine and operation method thereof

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
AU2019357615B2 (en) 2018-10-11 2023-09-14 Tesla, Inc. Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US11772671B2 (en) * 2019-06-03 2023-10-03 Toyota Research Institute, Inc. Systems and methods for predicting control handback
EP3915851B1 (en) * 2020-05-28 2024-05-01 Zenuity AB System and method for estimating take-over time
CN112622929A (zh) * 2020-12-12 2021-04-09 王伟伟 一种带有速度调控旋钮的急停式自动驾驶系统
US20230367703A1 (en) * 2022-05-13 2023-11-16 Microsoft Technology Licensing, Llc Automated software testing with reinforcement learning
CN116483059B (zh) * 2023-06-20 2023-10-03 卡斯柯信号(北京)有限公司 一种全自动无人驾驶的蠕动模式测试方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017217472A (ja) * 2016-06-02 2017-12-14 オムロン株式会社 状態推定装置、状態推定方法、及び状態推定プログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8825258B2 (en) 2012-11-30 2014-09-02 Google Inc. Engaging and disengaging for autonomous driving
KR102137213B1 (ko) 2015-11-16 2020-08-13 삼성전자 주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
US9802599B2 (en) * 2016-03-08 2017-10-31 Ford Global Technologies, Llc Vehicle lane placement
JP6795379B2 (ja) * 2016-03-10 2020-12-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 運転制御装置、運転制御方法及び運転制御プログラム
US9864912B2 (en) * 2016-03-30 2018-01-09 Nec Corporation Large margin high-order deep learning with auxiliary tasks for video-based anomaly detection
WO2017209225A1 (ja) * 2016-06-02 2017-12-07 オムロン株式会社 状態推定装置、状態推定方法、及び状態推定プログラム
US10438493B2 (en) 2016-08-24 2019-10-08 Uber Technologies, Inc. Hybrid trip planning for autonomous vehicles
US11308350B2 (en) * 2016-11-07 2022-04-19 Qualcomm Incorporated Deep cross-correlation learning for object tracking
US20180203457A1 (en) * 2017-01-13 2018-07-19 Ford Global Technologies, Llc System and Method for Avoiding Interference with a Bus
US10198655B2 (en) * 2017-01-24 2019-02-05 Ford Global Technologies, Llc Object detection using recurrent neural network and concatenated feature map
KR20180094725A (ko) * 2017-02-16 2018-08-24 삼성전자주식회사 자율 주행을 위한 차량 제어 방법, 차량 제어 장치 및 자율 주행을 위한 학습 방법
WO2018158642A1 (en) * 2017-03-01 2018-09-07 Mobileye Vision Technologies Ltd. Systems and methods for navigating with sensing uncertainty
DE112017007252T5 (de) * 2017-03-14 2019-12-19 Omron Corporation Fahrerüberwachungsvorrichtung, fahrerüberwachungsverfahren, lernvorrichtung und lernverfahren
US10593042B1 (en) * 2017-04-11 2020-03-17 Zoox, Inc. Perspective conversion for multi-dimensional data analysis
US20180299841A1 (en) * 2017-04-17 2018-10-18 Intel Corporation Autonomous vehicle neural network optimization
US10922566B2 (en) * 2017-05-09 2021-02-16 Affectiva, Inc. Cognitive state evaluation for vehicle navigation
US10543853B2 (en) 2017-07-05 2020-01-28 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for providing collaborative control of a vehicle
US10402995B2 (en) * 2017-07-27 2019-09-03 Here Global B.V. Method, apparatus, and system for real-time object detection using a cursor recurrent neural network
US11741354B2 (en) * 2017-08-25 2023-08-29 Ford Global Technologies, Llc Shared processing with deep neural networks
US10691962B2 (en) * 2017-09-22 2020-06-23 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for rear signal identification using machine learning
US10438371B2 (en) * 2017-09-22 2019-10-08 Zoox, Inc. Three-dimensional bounding box from two-dimensional image and point cloud data
US9934440B1 (en) * 2017-10-04 2018-04-03 StradVision, Inc. Method for monitoring blind spot of monitoring vehicle and blind spot monitor using the same
US10169679B1 (en) * 2017-10-13 2019-01-01 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same
CN108052512B (zh) * 2017-11-03 2021-05-11 同济大学 一种基于深度注意力机制的图像描述生成方法
US10908614B2 (en) * 2017-12-19 2021-02-02 Here Global B.V. Method and apparatus for providing unknown moving object detection
US10657391B2 (en) * 2018-01-05 2020-05-19 Uatc, Llc Systems and methods for image-based free space detection
CN108875807B (zh) * 2018-05-31 2022-05-27 陕西师范大学 一种基于多注意力多尺度的图像描述方法
CN108944930B (zh) * 2018-07-05 2020-04-21 合肥工业大学 一种基于lstm的模拟驾驶员特性的自动跟车方法及系统
US11600006B2 (en) * 2018-10-26 2023-03-07 Here Global B.V. Deep neural network architecture for image segmentation
US10691133B1 (en) * 2019-11-26 2020-06-23 Apex Artificial Intelligence Industries, Inc. Adaptive and interchangeable neural networks

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017217472A (ja) * 2016-06-02 2017-12-14 オムロン株式会社 状態推定装置、状態推定方法、及び状態推定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Guy Rosman et al., Hybrid control and learning with coresets for autonomous vehicles, 2017 IEEE/RSJ, 6894-6901pages (2017. 9. 28.) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11720648B2 (en) 2021-05-03 2023-08-08 Hyundai Mobis Co., Ltd. Deep learning machine and operation method thereof
KR20220151246A (ko) * 2021-05-06 2022-11-15 대한민국(국방부 공군참모총장) 극자외선 태양 영상을 사용하여 지자기 교란 지수를 예측하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치

Also Published As

Publication number Publication date
US11087175B2 (en) 2021-08-10
EP3690709A1 (en) 2020-08-05
CN111507163B (zh) 2023-10-17
EP3690709B1 (en) 2023-11-01
US20200242408A1 (en) 2020-07-30
EP3690709C0 (en) 2023-11-01
JP6850047B2 (ja) 2021-03-31
CN111507163A (zh) 2020-08-07
KR102396267B1 (ko) 2022-05-11
JP2020123334A (ja) 2020-08-13

Similar Documents

Publication Publication Date Title
KR20200095355A (ko) 자율 주행 모드와 수동 주행 모드 사이의 주행 모드 변경을 위해 자율 주행 안전 확인을 위한 rnn의 학습 방법 및 학습 장치, 그리고 테스트 방법 및 테스트 장치
JP6857371B2 (ja) 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置
KR102373456B1 (ko) 자동 주차 시스템을 제공하기 위해 결정 지점 간의 관계 및 결정 지점에 대한 리그레션 결과를 이용하여 주차 공간을 검출하는 학습 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
US10919543B2 (en) Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route
US10832140B2 (en) Method and device for providing information for evaluating driving habits of driver by detecting driving scenarios occurring during driving
KR102319541B1 (ko) 객체의 종횡비나 스케일에 따라 모드를 전환할 수 있는 r-cnn 기반의 감시에 사용되는 객체 검출기의 학습 방법 및 테스트 방법, 이를 이용한 학습 장치 및 테스트 장치
KR102320979B1 (ko) 딥 뉴럴 네트워크를 기반으로 한 이미지 분석을 통해 사람의 상태 및 주행 환경을 식별하여 자율 주행을 보조하는 자율 주행 보조 안경
KR102301631B1 (ko) 협업 주행을 수행하는 자동차들로부터 획득된 주행 이미지들을 통합하는 방법 및 이를 이용한 주행 이미지 통합 장치
EP3686782A1 (en) Learning method and learning device for object detector using target object estimating network and target object merging network, and testing method and testing device using the same
KR102229220B1 (ko) 다수의 차량을 통한 센서 퓨전, v2x 통신 가능한 애플리케이션을 이용한 협업 주행을 위해 주변에 위치하는 카메라 각각에 대응되는 각각의 객체 검출기에 의해 검출되는 객체 검출 정보를 통합하는 방법 및 장치
CN105844624A (zh) 动态标定系统、动态标定系统中的联合优化方法及装置
CN111462193B (zh) 用于多摄像机或环绕视图监控的对象检测方法及装置
JP6846070B2 (ja) 自律走行ネットワークの検出プロセスを検証する説明可能な人工知能を利用して運転者に潜在的リスクの状況について警告することにより機能的安全性を提供する学習方法及び学習装置、そしてこれを用いたテスティング方法及びテスティング装置{learning method and learning device for providing functional safety by warning driver about potential dangerous situation by using explainable ai which verifies detection processes of autonomous driving network, and testing method and testing device using the same}
KR102320995B1 (ko) 객체의 스케일에 따라 모드 전환이 가능한 cnn 기반의 감시용 객체 검출기의 학습 방법 및 학습 장치, 이를 이용한 테스트 방법 및 테스트 장치
KR102349946B1 (ko) 주변 자동차의 이미지를 이용하여 베이스 자동차의 이미지를 오토 라벨링하는 오토 라벨링 장치를 학습시키는 학습 방법 및 학습 장치, 그리고, 이를 이용한 테스팅 방법 및 테스팅 장치
CN111508252A (zh) 利用v2x信息集成技术更新高清地图的方法和装置
KR102300910B1 (ko) 딥러닝 기반 장치의 학습에 사용되는 가상 세계 시뮬레이터의 물리 엔진을 캘리브레이션하는 방법 및 장치, 그리고 이를 위한 실제 상태 네트워크를 학습하는 방법 및 이를 이용한 학습 장치
CN111507151B (zh) 使得能够评价自动行驶客体检测过程的支援方法及装置
Valeja et al. Speed Limit Sign Detection using Deep Learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant