KR20220094187A - 데이터 취득 상황 정보를 포함하는 인공지능 학습용 계층적 데이터셋 생성 방법 및 시스템 - Google Patents
데이터 취득 상황 정보를 포함하는 인공지능 학습용 계층적 데이터셋 생성 방법 및 시스템 Download PDFInfo
- Publication number
- KR20220094187A KR20220094187A KR1020220050089A KR20220050089A KR20220094187A KR 20220094187 A KR20220094187 A KR 20220094187A KR 1020220050089 A KR1020220050089 A KR 1020220050089A KR 20220050089 A KR20220050089 A KR 20220050089A KR 20220094187 A KR20220094187 A KR 20220094187A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- data
- dataset
- vehicle
- sensor data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 21
- 238000003860 storage Methods 0.000 claims description 5
- 238000013500 data storage Methods 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000001556 precipitation Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Traffic Control Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
데이터 취득 상황 정보를 포함하는 인공지능 학습용 계층적 데이터셋 생성 방법 및 시스템이 제공된다. 본 발명의 실시예에 따른 GT 데이터셋 생성 방법은, 차량 데이터를 획득하여 저장하고, 차량에 설치된 센서에서 발생되는 센서 데이터를 획득하여 저장하며, 데이터 취득 당시의 상황에 대한 정보인 상황 정보를 생성하여 저장한다. 이에 의해, GT 디스크립터를 생성함에 있어 센서 데이터 취득 당시의 상황 정보를 디스크립터에 계층적으로 기술한 계층적 데이터셋을 통해, 다양한 취득 당시의 상황, 조건을 GT 기술자 상에서 용이하게 분석, 분류 가능하게 하여, 효율적으로 인공지능 네트워크를 학습시킴으로써, 궁극적으로 인공지능 네트워크가 높은 인식 성능을 갖을 수 있게 된다.
Description
본 발명은 학습용 GT 데이터셋 생성 기술에 관한 것으로, 더욱 상세하게는 자율주행을 위한 딥러닝 또는 머신러닝 등의 인공지능 네트워크를 학습시킴에 있어 필요한 데이터셋을 자동으로 생성하는 방법에 관한 것이다.
인공지능 네트워크를 학습함에 있어 다양한 방법들이 사용되고 있는데 대표적으로 사용되는 방법은 지도 학습(Supervised Learning) 방법이다.
이는 통산 참값을 가지고 있는 GT(Ground Truth)를 특정 상황 및 조건에서 취득된 센서 신호(통상 센서의 입력으로 시변하는 특성을 가지는 카메라, 라이다 등과 같은 2D 또는 3D 정보이며 레이더, 소리 등 기타 다른 센서에 대해서도 가능)와 동일 좌표계로 마킹하여 하나의 데이터셋을 구성하고, 인공지능 네트워크에 센서 신호를 입력하여 출력된 인공지능 네트워크의 판정 결과를 GT와 비교 평가하는 지도 과정을 특정 이하로 오류가 감소할 때 까지 반복적으로 수행하여 최종적으로 인공지능 네트워크의 주요 파라미터를 학습시키는 방법이다.
이러한 지도학습에 사용되는 인공지능 학습용 데이터셋은 도 1에 도시된 바와 같이 XML, JSON과 같은 디스크립션 언어를 이용하여 디스크립터(Descriptor) 형태로 기술된 GT와 센서 입력 정보의 쌍으로 제공된다.
하지만 통상적으로 인공지능 네트워크의 성능은 어떠한 조건(날씨, 조명, 특정 지역/도로 조건 또는 걷거나 뛰거나 앉아있는 행인이 포함된 또는 특정 방향으로 움직이거나 정차한 특정 차량이 포함된/미포함된), 상황(혼잡 상황, 사고 상황 등)의 학습 데이터셋을 각각의 조건 별로 얼마의 양으로 적절하게 입력하여 학습시키는가에 따라 그 특성과 성능이 크게 좌우 된다.
이와 같이 인공지능 네트워크의 학습 성능이 데이터셋의 조건, 상황에 따라 크게 영향을 받음에도 불구하고, 기존의 학습 데이터셋은 입력 센서 정보에 GT 디스크립터 만을 쌍으로 기술하는 형태로 구성됨으로써 취득 조건, 상황 정보를 구분할 수 없어 효과적인 인공지능 학습이 어렵고, 사용자의 경험에 의해 반복적으로 학습 조건을 변경하면서 학습해야 하는 문제점이 존재한다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 기존 데이터셋이 가지는 한계를 해결하고자 다양한 취득 당시의 상황, 조건을 GT 기술자 상에서 용이하게 분석, 분류 가능하게 하여 효율적으로 인공지능 네트워크를 학습시키고 학습된 인공지능 네트워크가 높은 인식 성능을 갖을 수 있도록 하기 위한 방안으로, GT 디스크립터를 생성함에 있어 센서 데이터 취득 당시의 상황 정보를 디스크립터에 계층적으로 기술한 계층적 데이터셋 생성 방법 및 시스템을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, GT 데이터셋 생성 방법은, 차량 데이터를 획득하여 저장하는 단계; 차량에 설치된 센서에서 발생되는 센서 데이터를 획득하여 저장하는 단계; 및 데이터 취득 당시의 상황에 대한 정보인 상황 정보를 생성하여 저장하는 단계;를 포함한다.
상황 정보가 저장되는 영역은, 차량 데이터가 저장되는 영역, 센서 데이터가 저장되는 영역 및 어노테이션이 저장되는 영역의 상위에 위치할 수 있다.
그리고, 상황 정보는, 데이터 취득 당시의 상황을 재현하는데 참조되는 정보일 수 있다.
상황 정보 생성 및 저장 단계는, 센서 데이터들을 종합적으로 분석하여, 상황 정보를 생성할 수 있다.
상황 정보는, 데이터가 취득된 행정 구역상 주소, 도로 환경, 일자, 기상 상태에 대한 정보를 포함할 수 있다.
차량 데이터는, 차량 자체에 대한 정보와 차량에 장착된 센서들에 대한 정보를 포함하고, 센서 데이터 저장 단계는, 센서들에서 생성되는 센서 데이터들을 인터폴레이션, 업샘플링 및 다운샘플링 중 적어도 하나를 통해 동기화하여 저장할 수 있다.
본 발명의 일 실시예에 따른, GT 데이터셋 생성 방법은, 센서 데이터에 대한 GT 정보를 획득하여 저장하는 단계;를 더 포함하고, 어노테이션 획득 및 저장 단계는, 센서 데이터를 입력받아 GT 정보를 추론하는 인공지능 네트워크를 이용하여 생성한 후, 수동으로 수정이 가능한 GT 정보를 획득할 수 있다.
한편, 본 발명의 다른 실시예에 따른, GT 데이터셋 생성 시스템은, 차량 데이터를 획득하고, 차량에 설치된 센서에서 발생되는 센서 데이터를 획득하는 획득부; 데이터 취득 당시의 상황에 대한 정보인 상황 정보를 생성하는 프로세서; 및 획득부를 통해 획득한 차량 데이터와 센서 데이터 및 프로세서에 의해 생성된 상황 정보를 저장하는 저장부;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, GT 디스크립터를 생성함에 있어 센서 데이터 취득 당시의 상황 정보를 디스크립터에 계층적으로 기술한 계층적 데이터셋을 통해, 다양한 취득 당시의 상황, 조건을 GT 기술자 상에서 용이하게 분석, 분류 가능하게 하여, 효율적으로 인공지능 네트워크를 학습시킴으로써, 궁극적으로 인공지능 네트워크가 높은 인식 성능을 갖을 수 있게 된다.
도 1. 센서(영상) 입력에 GT 마킹된 데이터셋 및 GT 디스크립터의 예
도 2. 본 발명의 실시예에서 제시하는 GT 데이터셋 계층 구조
도 3. 본 발명의 일 실시예에 따른 계층적 GT 데이터셋 생성 방법
도 4. GT 자동 생성 방법
도 5. Superset Class와 GT Class와의 관계
도 6. 본 발명의 다른 실시예에 따른 계층적 GT 데이터셋 생성 시스템
도 2. 본 발명의 실시예에서 제시하는 GT 데이터셋 계층 구조
도 3. 본 발명의 일 실시예에 따른 계층적 GT 데이터셋 생성 방법
도 4. GT 자동 생성 방법
도 5. Superset Class와 GT Class와의 관계
도 6. 본 발명의 다른 실시예에 따른 계층적 GT 데이터셋 생성 시스템
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
지도 학습 방식의 인공지능 네트워크의 성능은 분류하고자 하는 데이터셋 들에 대하여 학습 과정에서 학습이 균일하게 진행되고, 분류하고자 하는 데이터셋이 존재하는 다양한 조건과 상황에 대해서도 또한 적절하게 학습되었을 경우에 과적합(Overfitting)에 빠지지 않은 상태로 높은 인식률을 보이게 된다.
위와 같이 분류하고자 하는 데이터셋이 학습 과정에서 고르게 분포하고, 다양한 조건과 상황에 대해 학습이 수행되기 위해서는, 데이터셋의 생성 과정에서 이러한 분류 정보가 적절하게 기입되어 DB 상에서 다양한 조건에 따라 분류될 수 있어야 한다.
이에 본 발명의 실시예에서는 GT 디스크립터를 생성함에 있어 센서 데이ㅓㅌ 취득 당시의 정보를 이용하여 디스크립터에 이들 정보를 계층적으로 기술하여 GT 데이터셋을 생성한다.
도 2는 본 발명의 실시예에서 제시하는 GT 데이터셋(GT 디스크립터)의 계층 구조를 도시한 도면이다.
발명의 실시예에서 제시하는 GT 데이터셋은, 도시된 바와 같이, 데이터 셋 헤더(110), World 정보(120), Vehicle 정보(130), Data(140) 및 Annotation(150)을 포함하는 계층 구조를 갖는다.
최상위 계층에 데이터 셋 헤더(110)이, 그 하위 계층에 World 정보(120)가, 그 하위 계층에 Vehicle 정보(130)가, 그 하위 계층에 Data(140)와 Annotation(150)이 위치한다.
데이터 셋 헤더(110)는 GT 데이터셋의 라이선스 정보, 제작기관 정보 및 배포관련 정보를 포함한다.
World 정보(120)는 데이터 취득 당시의 상황을 재현하는데 참조되는 정보로써 데이터 취득 당시의 상황에 대한 정보가 저장되는데, 구체적으로 다음의 정보들을 포함한다.
1) 취득 영역 : 데이터를 취득한 장소로 GPS 위치 정보 보다 포괄적인 상위 개념의 위치 정보로, 행정 구역상 주소(시/도, 구, 동, 면 등)를 활용할 수 있다.
2) 도로 환경 : 데이터를 취득한 도로의 종류에 대한 정보로, 고속 도로, 일반 국도, 자전거 전용 도로, 비포장 도로, 기타 등으로 구분된다.
3) 취득 일자 : 데이터를 취득한 일자로 GPS 시간 정보를 기반으로 YYYY_MM_DD 형식으로 생성할 수 있다.
4) 기상 상태 : 데이터를 취득한 당시의 기상 정보로, 새벽/주간/야간/밤, 날씨(맑음, 흐림, 안개, 비, 눈 등) 등을 조합하여 생성하며, 구체적 기상 상태 조건(예를 들어, 비오는 날씨의 강수 조건, 강수량 등)이 더 포함될 수 있다.
World 정보(120)에 저장되는 데이터 취득 상황 정보는 후술할 센서 데이터들을 종합적으로 분석하여 생성한다.
Vehicle 정보(130)는 데이터 취득 차량(또는 장치)에 대한 정보와 그에 장착된 센서에 대한 정보가 저장되는데, 구체적으로 다음의 정보들을 포함한다.
1) 데이터셋을 취득한 차량의 모델
2) 데이터셋을 취득한 차량의 좌표 기준점
3) 차량에 장착된 데이터 취득 센서의 규격 링크
4) 센서 정보
- 센서 종류, 장착 위치, 장착 환경(각도, 기울기), 장착 개수 및 센서별 특징(해상도, 화각, 주파수, 채널 수, 동작 주파수 등)
- 캘리브레이션을 위한 센서 intrinsic, extrinsic 파라미터 정보
- 센서별 저장 데이터 포맷 (raw, jpec, PCD 등)
Data(140)는 차량에 설치된 센서에서 발생되는 센서 데이터가 저장되는데, 센서의 데이터 취득 시점에서 데이터 취득 환경 조건의 물리적 변화량을 추정하기 위해 센서의 데이터 취득 시점에 맞추어 생성되며, 구체적으로 다음의 데이터들을 포함한다.
1) GPS 시간 정보에 기반한 데이터 취득 시점의 년/월/일/시/분/초/밀리초 정보
2) 위 데이터 취득 시점에서 차량의 x,y,z 자세 정보
3) 위 데이터 취득 시점에서 차량의 가/감속값
4) 위 데이터 취득 시점에서 차량의 조향값
5) 위 데이터를 취득한 차량의 엔진 RPM 및 기어 단수
6) 위 변화량과 취득 데이터를 연계하기 위한 위 데이터 취득 시점에서 취득된 센서 데이터 파일 리스트
Annotation(150)는 센서 데이터에 대한 GT 정보, 객체 별 부가(attribute) 정보 등의 어노테이션 정보가 저장되며, 구체적으로 다음과 같은 정보를 포함한다.
1) 취득된 센서 데이터의 경로
2) 취득 센서의 종류 및 index
3) GT 형태 정의 및 이에 따른 GT 정보(class id, 2D/3D bbox 좌표, Segmentation등 전술한 통상적인 GT정보 )
4) 객체의 속성(visibility, 특징정보)
도 2에 도시된 계층적 GT 데이터셋을 생성하는 과정에 대해, 이하에서 도 3을 참조하여 상세히 설명한다. 도 3은 본 발명의 일 실시예에 따른 계층적 GT 데이터셋 생성 방법의 설명에 제공되는 도면이다.
계층적 GT 데이터셋 생성을 위해, 먼저, GT 데이터셋의 라이선스 정보, 제작기관 정보 및 배포관련 정보를 획득하여 최상위 계층의 데이터 셋 헤더(110)에 저장한 후에, 데이터 취득 차량(또는 장치)에 대한 정보와 그에 장착된 센서에 대한 정보를 획득하여 Vehicle 정보(130)에 저장한다(S210).
다음, 차량에 설치된 센서에서 발생되는 센서 데이터들(차량 위치정보, 차량 자세정보, 차량 거동정보 등)을 획득하고(S220), 획득한 센서 데이터들을인터폴레이션, 업샘플링 또는 다운샘플링하여 취득 주기가 다른 센서 데이터들을 동일 주기로 동기화하며(S230), 동기화된 센서 데이터를 동일 좌표계로 융합하여 Description 정보를 생성하여 Data(140)에 저장한다(S240).
이후, S340단계에서 Data(140)에 저장된 센서 데이터들을 종합적으로 분석하여 데이터 취득 당시의 상황 정보를 생성하고, 생성한 데이터 취득 상황 정보를 World 정보(120)에 저장한다(S250).
이를 테면, 차량의 GPS 위치 좌표들을 종합하여 차량의 이동 영역을 검지하고 검지된 영역을 행정 구역상 주소로 변환하고, 차량의 이동 구간을 검지하고 검지된 구간의 도로 종류를 파악하며, GPS 시간 정보들을 종합하여 데이터 취득 일자를 도출하며, 취득 일자와 행정 구역상 주소를 기초로 기상청 서버로부터 기상 상태 정보를 획득할 수 있다.
다음, Data(140)에 저장된 센서 데이터들 중 GT 마킹이 필요한 센서 데이터에 대한 GT 정보를 생성하여 Annotation(150)에 저장한다(S260).
이때, 데이터 Annotation을 통한 GT 정보의 생성은, 도 4에 도시된 바와 같이, 먼저 Annotation 하고자 하는 데이터셋의 클래스를 포함하는 Superset을 이용하여 특정 인공지능 네트워크를 학습시킨 후, 해당 네트워크에 Annotation하고자 하는 데이터를 입력하여 학습된 결과에 따라 입력 데이터에서 데이터셋 클래스에 해당하는 해당 객체의 정보를 인지하도록 하여 데이터셋의 GT를 추출하며, 과정으로 추출된 GT 정보에 보완이 필요할 경우 추출된 GT를 수동으로 수정 보완하여 업데이트 할 수 있도록 한다.
특정 인공지능 네트워크를 학습하는데 이용되는 Superset 클래스는 도 5에 도시된 바와 같이 GT 클래스를 포함하는, 즉, GT 클래스 외에 다른 클래스들을 더 포함하는 학습 데이터셋으로 구현한다.
위 과정을 통해 최종 생성된 GT 데이터셋은 통상의 GT 디스크립터에 포함된 객체의 종류 및 위치 정보 뿐 아니라, 데이터가 취득된 환경, 위치, 동작 등 각종정보를 포함하므로 다양한 취득 당시의 상황, 조건을 GT 기술자 상에서 용이하게 분석, 분류 가능하게 하여 최종적으로 효율적으로 인공지능 알고리즘을 학습하며 또한 학습된 인공지능 알고리즘이 높은 인식 성능을 제공할 수 있다.
도 6은 본 발명의 다른 실시예에 따른 계층적 GT 데이터셋 생성 시스템의 블럭도이다. 본 발명의 실시예에 따른 계층적 GT 데이터셋 생성 시스템은, 도시된 바와 같이, 통신부(310), 출력부(320), 프로세서(330), 입력부(340) 및 저장부(350)를 포함하는 컴퓨팅 시스템으로 구현 가능하다.
통신부(310)는 데이터 취득 차량(또는 장치)와 통신 연결하여, GT 데이터셋 생성에 필요한 정보와 데이터를 획득하는 획득수단이고, 입력부(340)는 사용자 입력을 통해 GT 데이터셋 생성에 필요한 정보와 데이터를 획득하는 획득수단이다.
프로세서(330)는 통신부(310)와 입력부(340)를 통해 획득하는 정보와 데이터를 이용하여, 도 3에 도시된 절차들을 수행하여, 도 2에 도시된 구조의 계층적 GT 데이터셋을 생성하고, 생성된 GT 데이터셋을 저장부(350)에 저장한다.
출력부(320)는 프로세서(330)에 의한 처리 과정 및 결과가 표시되는 디스플레이이다.
지금까지, 데이터 취득 상황 정보를 포함하는 인공지능 학습용 계층적 데이터셋 생성 방법 및 시스템에 대해 바람직한 실시예들을 들어 상세히 설명하였다.
기존의 기술은 단순히 입력 센서정보에 GT 디스크립터 만을 쌍으로 기술하는 형태로 구성됨으로써, 취득조건, 상황 정보를 구분할 수 없어 효과적인 인공지능 학습이 어려운 문제점이 존재하였다.
이에 반해 본 발명의 실시에에서는, 계층적으로 구성되는 GT 디스크립터에 센서 취득당시의 정보를 효과적으로 기술하고 이를 가시화 할 수 있도록 하여, 인공지능 알고리즘 학습시 상대적으로 비중이 낮거나 혹은 포함되지 않은 상황, 조건정보를 효과적으로 분석할 수 있도록 함으로써 최종적으로 인공지능 알고리즘의 학습 효율과 인식 성능 향상에 기여할 수 있다.
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110 : 데이터 셋 헤더
120 : World
130 : Vehicle
140 : Data
150 : Annotation
120 : World
130 : Vehicle
140 : Data
150 : Annotation
Claims (8)
- GT(Ground Truth) 데이터셋 생성 시스템이, 차량 데이터를 획득하여 저장하는 단계;
GT 데이터셋 생성 시스템이, 차량에 설치된 센서에서 발생되는 센서 데이터들을 획득하여 저장하는 단계; 및
GT 데이터셋 생성 시스템이, 센서 데이터들을 종합적으로 분석하여 센서 데이터 취득 당시의 상황과 조건에 대한 정보를 생성하여 저장하는 단계;를 포함하고,
상황 정보는,
자율주행을 위한 인공지능 네트워크를 학습시키는데 이용할 GT 데이터셋을 분류하는데 참조되는 정보인 것을 특징으로 하는 GT 데이터셋 생성 방법.
- 청구항 1에 있어서,
상황 정보가 저장되는 영역은,
차량 데이터가 저장되는 영역, 센서 데이터가 저장되는 영역 및 어노테이션이 저장되는 영역의 상위에 위치하는 것을 특징으로 하는 GT 데이터셋 생성 방법.
- 청구항 1에 있어서,
상황 정보는,
자율주행을 위한 인공지능 네트워크를 학습시키기 위한 학습 데이터로 이용되지 않는 것을 특징으로 하는 GT 데이터셋 생성 방법.
- 청구항 1에 있어서,
상황 정보는,
차량에 설치된 센서에서 발생되는 센서 데이터들을 기초로 생성되는 것을 특징으로 하는 GT 데이터셋 생성 방법.
- 청구항 1에 있어서,
차량 데이터는,
차량 자체에 대한 정보와 차량에 장착된 센서들에 대한 정보를 포함하는 것을 특징으로 하는 GT 데이터셋 생성 방법.
- 청구항 1에 있어서,
센서 데이터 저장 단계는,
센서들에서 생성되는 센서 데이터들을 인터폴레이션, 업샘플링 및 다운샘플링 중 적어도 하나를 통해 동기화하여 저장하는 것을 특징으로 하는 GT 데이터셋 생성 방법.
- 청구항 1에 있어서,
GT 데이터셋 생성 시스템이, 센서 데이터에 대한 GT 정보를 획득하여 저장하는 단계;를 더 포함하고,
어노테이션 획득 및 저장 단계는,
센서 데이터를 입력받아 GT 정보를 추론하는 인공지능 네트워크를 이용하여 생성한 후, 수동으로 수정이 가능한 GT 정보를 획득하는 것을 특징으로 하는 GT 데이터셋 생성 방법.
- 차량 데이터를 획득하고, 차량에 설치된 센서에서 발생되는 센서 데이터를 획득하는 획득부;
센서 데이터들을 종합적으로 분석하여 센서 데이터 취득 당시의 상황과 조건에 대한 정보를 생성하는 프로세서; 및
획득부를 통해 획득한 차량 데이터와 센서 데이터 및 프로세서에 의해 생성된 상황 정보를 저장하는 저장부;를 포함하고,
상황 정보는,
자율주행을 위한 인공지능 네트워크를 학습시키는데 이용할 GT 데이터셋을 분류하는데 참조되는 정보인 것을 특징으로 하는 GT 데이터셋 생성 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220050089A KR102665684B1 (ko) | 2020-12-28 | 2022-04-22 | 데이터 취득 상황 정보를 포함하는 인공지능 학습용 계층적 데이터셋 생성 방법 및 시스템 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200184210 | 2020-12-28 | ||
KR1020220050089A KR102665684B1 (ko) | 2020-12-28 | 2022-04-22 | 데이터 취득 상황 정보를 포함하는 인공지능 학습용 계층적 데이터셋 생성 방법 및 시스템 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200184210 Division | 2020-12-28 | 2020-12-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220094187A true KR20220094187A (ko) | 2022-07-05 |
KR102665684B1 KR102665684B1 (ko) | 2024-05-13 |
Family
ID=82260814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220050089A KR102665684B1 (ko) | 2020-12-28 | 2022-04-22 | 데이터 취득 상황 정보를 포함하는 인공지능 학습용 계층적 데이터셋 생성 방법 및 시스템 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240005197A1 (ko) |
KR (1) | KR102665684B1 (ko) |
WO (1) | WO2022145506A1 (ko) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000221049A (ja) * | 1999-01-29 | 2000-08-11 | Equos Research Co Ltd | 車両状況把握装置、エージェント装置、および、車両制御装置 |
KR20090023856A (ko) * | 2007-09-03 | 2009-03-06 | 에스케이에너지 주식회사 | 날씨에 따른 도로별 경로정보 제공 방법 및 그 서비스 서버 |
KR20150050134A (ko) * | 2013-10-31 | 2015-05-08 | 한국전자통신연구원 | 학습기반 도로환경 인식기의 성능 향상 방법 및 이를 위한 장치 |
JP2018073363A (ja) * | 2016-11-04 | 2018-05-10 | 株式会社日立製作所 | 車両稼働データ収集装置、車両稼働データ収集システムおよび車両稼働データ収集方法 |
US20190317507A1 (en) * | 2018-04-13 | 2019-10-17 | Baidu Usa Llc | Automatic data labelling for autonomous driving vehicles |
KR102094341B1 (ko) * | 2018-10-02 | 2020-03-27 | 한국건설기술연구원 | 인공지능 기반의 도로 노면 불량 객체 정보 분석 시스템 및 방법 |
KR102122795B1 (ko) * | 2018-12-19 | 2020-06-15 | 주식회사 에스더블유엠 | 자율주행차 알고리즘 테스트 방법 |
US20200209858A1 (en) * | 2018-12-31 | 2020-07-02 | Luminar Technologies, Inc. | Generating environmental parameters based on sensor data using machine learning |
KR20200094650A (ko) * | 2019-01-30 | 2020-08-07 | 주식회사 스트라드비젼 | 자율 주행 차량을 학습, 테스팅 및 검증하기 위해 가상 주행 환경에 대한 도메인 적응된 교통 시나리오를 생성하기 위한 방법 및 장치 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016215658A (ja) * | 2015-05-14 | 2016-12-22 | アルパイン株式会社 | 自動運転装置および自動運転システム |
-
2020
- 2020-12-29 US US17/623,132 patent/US20240005197A1/en active Pending
- 2020-12-29 WO PCT/KR2020/019273 patent/WO2022145506A1/ko active Application Filing
-
2022
- 2022-04-22 KR KR1020220050089A patent/KR102665684B1/ko active IP Right Grant
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000221049A (ja) * | 1999-01-29 | 2000-08-11 | Equos Research Co Ltd | 車両状況把握装置、エージェント装置、および、車両制御装置 |
KR20090023856A (ko) * | 2007-09-03 | 2009-03-06 | 에스케이에너지 주식회사 | 날씨에 따른 도로별 경로정보 제공 방법 및 그 서비스 서버 |
KR20150050134A (ko) * | 2013-10-31 | 2015-05-08 | 한국전자통신연구원 | 학습기반 도로환경 인식기의 성능 향상 방법 및 이를 위한 장치 |
JP2018073363A (ja) * | 2016-11-04 | 2018-05-10 | 株式会社日立製作所 | 車両稼働データ収集装置、車両稼働データ収集システムおよび車両稼働データ収集方法 |
US20190317507A1 (en) * | 2018-04-13 | 2019-10-17 | Baidu Usa Llc | Automatic data labelling for autonomous driving vehicles |
KR102094341B1 (ko) * | 2018-10-02 | 2020-03-27 | 한국건설기술연구원 | 인공지능 기반의 도로 노면 불량 객체 정보 분석 시스템 및 방법 |
KR102122795B1 (ko) * | 2018-12-19 | 2020-06-15 | 주식회사 에스더블유엠 | 자율주행차 알고리즘 테스트 방법 |
US20200209858A1 (en) * | 2018-12-31 | 2020-07-02 | Luminar Technologies, Inc. | Generating environmental parameters based on sensor data using machine learning |
KR20200094650A (ko) * | 2019-01-30 | 2020-08-07 | 주식회사 스트라드비젼 | 자율 주행 차량을 학습, 테스팅 및 검증하기 위해 가상 주행 환경에 대한 도메인 적응된 교통 시나리오를 생성하기 위한 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
WO2022145506A1 (ko) | 2022-07-07 |
US20240005197A1 (en) | 2024-01-04 |
KR102665684B1 (ko) | 2024-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230036879A1 (en) | Object movement behavior learning | |
CN113379805B (zh) | 一种交通节点的多信息资源融合处理方法 | |
US11604070B2 (en) | Map maintenance and verification | |
CN116685874A (zh) | 摄像机-激光雷达融合对象检测系统和方法 | |
JP2016118906A (ja) | 異常検出装置 | |
CN114930122B (zh) | 用于更新数字道路地图的方法和处理器电路 | |
US11898853B2 (en) | Map surveillance system | |
CN111433095A (zh) | 自动化车辆动作以及相关的系统和方法 | |
US20210271876A1 (en) | Determining traffic control features based on telemetry patterns within digital image representations of vehicle telemetry data | |
CN112084835A (zh) | 基于航拍数据和遥测数据生成地图特征 | |
US20230177959A1 (en) | Vehicle accident prediction system, vehicle accident prediction method, vehicle accident prediction program, and learned model creation system | |
US10415981B2 (en) | Anomaly estimation apparatus and display apparatus | |
CN114267173A (zh) | 高速公路时空特征的多源数据融合方法、装置及设备 | |
CN117836829A (zh) | 用于监测车辆的系统和方法 | |
CN117128979A (zh) | 一种多传感器融合方法、装置、电子设备及存储介质 | |
US20230015884A1 (en) | Spatial aggregation of autonomous vehicle feedback | |
US20220172295A1 (en) | Systems, methods, and devices for aggregating and quantifying telematics data | |
CN117273964B (zh) | 一种自适应行驶数据的智能车险策略生成系统及方法 | |
US20220332336A1 (en) | Using simlulated scene data to test autonomous vehicle operations | |
KR102665684B1 (ko) | 데이터 취득 상황 정보를 포함하는 인공지능 학습용 계층적 데이터셋 생성 방법 및 시스템 | |
CN115689946B (zh) | 图像修复方法、电子设备及计算机程序产品 | |
WO2023166578A1 (ja) | ラベリング支援システム、ラベリング支援方法およびラベリング支援プログラム | |
CN115797409A (zh) | 3d目标对象定位方法、装置及电子设备 | |
CN113435427B (zh) | 车道线的聚合方法和装置 | |
US20220340153A1 (en) | Simulated test creation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E90F | Notification of reason for final refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |