KR20240015792A - 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법 - Google Patents

자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법 Download PDF

Info

Publication number
KR20240015792A
KR20240015792A KR1020220093233A KR20220093233A KR20240015792A KR 20240015792 A KR20240015792 A KR 20240015792A KR 1020220093233 A KR1020220093233 A KR 1020220093233A KR 20220093233 A KR20220093233 A KR 20220093233A KR 20240015792 A KR20240015792 A KR 20240015792A
Authority
KR
South Korea
Prior art keywords
data
measurement
scenario
environment
information
Prior art date
Application number
KR1020220093233A
Other languages
English (en)
Inventor
김태형
허준호
김봉섭
윤경수
Original Assignee
재단법인 지능형자동차부품진흥원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 지능형자동차부품진흥원 filed Critical 재단법인 지능형자동차부품진흥원
Priority to KR1020220093233A priority Critical patent/KR20240015792A/ko
Priority to PCT/KR2023/002913 priority patent/WO2024025063A1/ko
Publication of KR20240015792A publication Critical patent/KR20240015792A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/0219Electrical interface; User interface
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/33Multimode operation in different systems which transmit time stamped messages, e.g. GPS/GLONASS
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W1/00Meteorology
    • G01W1/02Instruments for indicating weather conditions by measuring two or more variables, e.g. humidity, pressure, temperature, cloud cover or wind speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Environmental Sciences (AREA)
  • Electromagnetism (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Atmospheric Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 실시예는 자율 주행 차량 주변의 기상, 조도 상태를 실시간으로 수집하고, 수집된 정보로서 전체 환경을 추론하여 산출된 동적 환경 계측 데이타와, 도로정보를 포함하는 정적 환경 계측 데이터가 결합된 전체 계측 환경 데이터를 자동으로 라벨링하는 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템을 제공한다.

Description

자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법{Scenario labeling system and method using sensor data measurement of autonomous vehicle}
본 발명은 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법에 관한 것이다.
최근 자율 주행 및 운전자 보조 시스템(Driver Assistance Systems; DAS) 등 지능형 자동차 기술의 연구가 활발히 진행되고 있다. 이중, 최근에는 자율 주행 차량의 센서 데이터를 인공지능 학습 데이터로 활용할 수 있는 기술에 대한 연구도 활발하게 이루어지고 있다.
이와 같은 자율 주행 센서 데이터를 인공지능 학습 데이터로 구축/활용하기 위해서는 센서 원시데이터에 대한 라벨링이 필요하다.
그리고 센서 데이터의 라벨링을 위해서는 객체 단위의 센서 데이터 라벨링도 중요하지만, 빅데이터 관리 측면에서 데이터가 계측된 환경을 추론하고 이를 시나리오로 라벨링하여 관리할 필요가 있다.
종래의 계측/라벨링 시스템은 대부분 객체(차량/보행자 등)에 초점을 맞추고 있으며, 개방형 데이터 셋의 경우 대부분 객체 단위로 라벨링한 데이터를 배포하고 있었다.
이와 관련된 기존 기술은 객체 또는 환경 조건(기상, 조명) 등에 대한 라벨링을 위하여 데이터 취득 이후에 각 데이터 프레임에 대해 사용자가 수동으로 라벨링하는 오프라인 라벨링 방법이 있으나, 계측된 데이터를 라벨링하기 위해 별도의 시간소요가 추가되는 문제점이 있다.
또한 종래 기술은 데이터 취득을 하면서 사용자가 트리거 입력을 하는 형태로 데이터 라벨링하는 방법도 있으나, 운전 중 트리거 입력을 위한 조작이 필요하므로 안전상의 문제와 추가인력이 필요하다는 문제가 있으며 갑작스러운 환경변화에 대응하기 어려운 문제점이 있었다.
KR 10-2337070 B1(2021.12.03 등록)
본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 정밀 도로 지도와 강수/조도센서 및 GPS를 기반으로 데이터 계측 환경을 추론하고, 이를 데이터 계측시 자동으로 라벨링해주는 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법을 제공함에 있다.
본 발명은 상기와 같은 목적을 달성하기 위하여 하기와 같은 실시예를 포함할 수 있다 .
본 발명의 실시예는 자율 주행 차량 주변의 기상, 조도 상태를 실시간으로 수집하고, 수집된 정보로서 전체 환경을 추론하여 산출된 동적 환경 계측 데이타와, 도로정보를 포함하는 정적 환경 계측 데이터가 결합된 전체 계측 환경 데이터를 자동으로 라벨링하는 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템을 제공한다.
또한, 본 발명은 다른 실시예로서, 카메라, 라이다, 레이더 및 IMU 중 어느 하나로서 실시간으로 센서 계측 데이터를 출력하는 자율 주행 계측부와, 자율 주행 차량 주변의 기상과 시간 및 조명 상태 중 적어도 하나 이상을 계측 및 분석하는 동적 환경 계측부와, GPS 위치 정보와 정밀 도로 지도 따라 자율 주행 차량의 위치에 따른 도로 및 지형 정보를 분석 하는 정적 환경 계측부와, 정적 환경 계측 데이터와 동적 환경 계측 데이터를 융합하는 환경 융합부와, 융합된 전체 계측 데이터를 통하여 계측 환경을 추론하는 추론부와, 추론된 계측 환경 데이터를 라벨링하는 시나리오 라벨링부 및 자율 주행 계측부의 실시간 영상 데이터의 프레임별로 라벨링된 데이터가 포함된 최종 계측 데이터를 산출 및 출력하는 최종 계측 데이터 도출부를 포함하는 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템을 포함한다.
또한, 본 발명의 또 다른 실시예는 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 방법에 있어서, a)자율 주행 차량에서 강수와 조도를 감지하고, 위치와 시간을 포함하는 GPS 정보와, 정밀 도로 지도 레이어를 분석하는 단계와, b)자율 주행 차량에 설치되는 카메라, 라이다 센서, 레이더 센서 중 적어도 하나 이상에서 실시간 계측된 원시 데이터를 출력하는 단계와, c)강수 계측 데이터를 이용하여 자율 주행 차량 주변의 기상 상태와, 조도 계측 데이터를 이용하여 조명 상태를 분석하는 단계와, d)기상 상태의 분석 결과와, 조명 상태의 분석 결과를 융합하는 단계와, e)기상 상태의 분석 결과와 조명 상태가 융합된 동적 환경 데이터와 도로 지도분석 모듈의 도로 정보를 융합하여 자율 주행 차량 주변의 전체 계측 데이터를 추론하는 단계 및 f)추론된 전체 계측 데이터를 자동으로 라벨링하고, 원시 데이터의 영상 프레임별로 라벨링된 데이터를 결합하여 최종 데이터를 산출하는 단계를 포함하는 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 방법을 포함한다.
따라서 본 발명은 정밀 도로 지도를 계측 환경 추론에 활용함으로써, 시나리오 라벨링에 포함되는 정보의 양이 증가되고, 강수/조도 센서 등 실시간 센싱 결과를 시나리오 라벨링에 반영함으로써 실시간으로 변화되는 환경에 대응 가능하다.
또한, 본 발명은 정밀 도로 지도와 강수/조도센서 및 GPS를 기반으로 데이터 계측 환경을 추론하고, 이를 데이터 계측시 자동으로 라벨링이 가능하기에 데이터 라벨링에 대한 시간/인력 등의 비용절감과 사용자의 편의성을 증대시킬 수 있다.
도 1은 본 발명의 개요를 설명하기 위한 블럭도 이다.
도 2는 본 발명에 따른 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템을 도시한 블럭도이다.
도 3은 정적 환경 계측부를 도시한 블럭도이다
도 4는 동적 환경 계측부를 도시한 블럭도이다.
도 5 및 도 6은 정밀 도로 지도 기반의 주야간 환경 데이터 계측 과정에서 일예를 도시한 도면이다.
도 7은 융합 환경 판단 과정의 예를 도시한 도면이다.
도 8는 데이터 계측 환경 추론 과정의 예를 도시한 도면이다.
도 9는 최종 계측 데이터의 예를 도시한 도면이다.
도 10은 본 발명에 따른 자율 주행 차량의 센서 데이터 계측을 이용한 시리오 라벨링 방법을 도시한 순서도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있지만, 특정 실시예를 도면에 예시하여 상세하게 설명하고자 한다. 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 서로 다른 방향으로 연장되는 구조물을 연결 및/또는 고정시키기 위한 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물중 어느 하나에 해당되는 것으로 이해되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
또한, 본 발명을 설명함에 있어 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하에서는 본 발명의 실시예를 첨부된 도면을 참조하여 설명한다.
도 1은 본 발명의 개요를 설명하기 위한 블럭도, 도 2는 본 발명에 따른 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템을 도시한 블럭도, 도 3은 정적 환경 계측부를 도시한 블럭도, 도 4는 동적 환경 계측부를 도시한 블럭도이다.
도 1 및 도 2를 참조하면, 본 발명은 자율 주행 차량 주변의 동적 환경과 정정 환경을 계측하고, 계측된 정적 및 동적 데이터를 통하여 계측 환경을 추론하고, 추론된 전체 계측 데이터를 자동으로 라벨링 하여 실시간으로 감지되는 원시 데이터에 결합하여 출력하는 것을 특징으로 한다.
여기서 정적 환경은 GPS 계측 정보, 정밀 도로 지도와 같이 환경에 상관 없이 유지되는 것을 의미하며, 동적 환경은 기상이나 시간, 조명, 조도와 자율 주행 차량의 주변 정보(예를 들면, 주변 차량정보, 교통 정보 등)와 같이 변화되는 환경을 의미한다.
구체적으로 본 발명은 동적 환경과 정적 환경의 계측 데이터와, 실시간으로 감지되는 원시 데이터를 결합시켜 자동으로 라벨링하는 시스템이다.
이를 위해 본 발명은 정적 환경을 계측하는 정적 환경 계측부(100)와, 동적 환경을 계측하는 동적 환경 계측부(200)와, 자율 주행 차량의 주행 전 또는 주행 중의 도로 환경을 계측하는 자율 주행 계측부(300)와, 정적 환경과 동적 환경의 계측 데이터를 융합하는 환경 융합부(400)와, 융합된 계측 정보를 통하여 전체 계측 데이터를 추론하는 추론부(500)와, 추론된 계측 데이터를 시나리오에 라벨링하는 시나리오 라벨링부(600)와, 최종 계측 데이터를 산출하는 최종 계측 데이터 도출부(700)를 포함한다.
정적 환경 계측부(100)는, 도 3을 참조하면, GPS 데이터를 계측하는 GPS 계측 모듈(110)과, 정밀 도로 지도의 레이어를 분석하는 도로 지도 분석 모듈(120)을 포함한다.
GPS 계측 모듈(110)은 계측 차량의 위치와 시간을 측정하는 센서로서 2 이상의 GPS 위성으로부터 송신된 신호를 수신하여 거리를 계산하여 위치를 산출하고, 위성 내부의 원자시계를 이용하여 시간 정보를 제공한다.
도로 지도 분석 모듈(120)은 도로 지도 상에서 현재 자율 주행 차량의 위치와, 지정된 경로 및 현재 위치를 기준으로 정밀 도로 지도에서 도로 및 주변 시설물의 정보를 추출한다.
정밀 도로 지도는 자율 주행 차량의 위치 결정, 경로 설정/변경, 도로/교통 규제 인지 등을 위한 인프라로써, 네트워크 정보(노드, 링크), 도로구간 정보(터널, 교량 등), 표지 정보(교통안전 표지, 차선, 횡단보도 등), 시설 정보(신호등, 차량방호안전시설 등) 중 적어도 하나 이상을 표현하는 정밀 전자지도를 의미할 수 있다.
또한, 정밀 도로 지도는 주행경로노드/링크, 차도/부속구간, 주차면, 안전표지, 노면/노면선표시, 신호등, 킬로포스트, 차량방호안전시설, 과속방지턱, 높이장애물, 지주 등을 포함하고 있으며, 각각 계층(레이어) 형태로 구성될 수 있다.
도로 지도 분석 모듈(120)은 기존의 정밀 도로 지도의 레이어 구성에 레이어를 추가할 수 있다. 예를 들면, 도로 지도 분석 모듈(120)은 GPS 계측 모듈(110)에서 계측된 자율 주행 차량의 위치를 기준으로 정밀 도로 지도 상에서 도로 노면 재질(예를 들면, 아스팔트, 콘크리트, 비포장) 등 라벨링하고자 하는 데이터로서 정밀 도로 지도에 레이어를 추가한다. 여기서 추가 레이어는 사용자가 임의로 선택할 수 있다.
동적 환경 계측부(200)는, 도 4를 참조하면, 강수량을 감지하는 강수 감지 모듈(210)과, 조도를 감지하는 조도 감지 모듈(220)과, 기상 상태를 감지하는 기상 분석 모듈(230)과, 조명 상태를 분석하는 조명 상태 분석 모듈(240)을 포함한다.
강수 감지 모듈(210)은, 예를 들면, 강수량을 측정하는 강수 센서로서 적외선을 발사한 뒤 적외선이 다시 센서로 돌아오는 사이의 파장을 감지할 수 있다. 또한, 강수 감지 모듈(210)은 비의 양에 따라 달라지는 반사광의 세기를 이용하여 강수량을 추정함도 가능하다. 이와 같은 강수 감지 모듈(210)은 자율 주행 차량의 외부에 장착되어 강수량을 감지한다.
또는 강수 감지 모듈(210)은 강설 유무 및 강설량을 감지하는 장치를 더 포함할 수 있다.
조도 감지 모듈(220)은 주변의 밝기를 측정하는 센서로서 광에너지(빛)를 받으면 내부에 움직이는 전자가 발생하여 전도율이 변화하여 출력 전압의 세기가 변화되는 장치이다. 조도 감지 모듈(220)은 차량 외부에 장착하는 형태로서 외부에서 빛의 세기를 감지할 수 있도록 설치하며, 4 방향 이상으로 센서를설치하여 광원의 특성(예를 들면, 입사 방향)을 감지하고, 게측 오차를 줄일 수 있도록 하는 것이 바람직하다.
기상 분석 모듈(230)은 강수 감지 모듈(210)에서 계측된 데이터를 수신하여 기상 상태를 분석하여 결과를 출력한다. 예를 들면, 기상 분석 모듈(230)은 강우량과 강설량을 산출할 수 있다. 또는 기상 분석 모듈(230)은 기상 상태의 분석 결과를 강우 적음, 강우 많음, 강설 적음 강설 많음과 같이 간략한 정보로서 산출 및 출력함도 가능하다.
조명 상태 분석 모듈(240)은 조도 감지 모듈(220)의 조도 계측 데이터와, GPS 계측 모듈(110)의 시간 계측 데이터와, 도로 지도 분석 모듈(120)의 도로 정보를 통하여 현재 시간과 자율 주행 차량의 주변 상태(예를 들면, 주간, 야간 또는 터널 여부 등)를 분석한다. 이는 도 5과 도 6을 참조하여 설명한다.
도 5은 주간 환경 데이터 계측 과정의 일예를 도시한 도면이고, 도 6은 야간 환경 데이터 계측 과정의 일예를 도시한 도면이다.
도 5 및 도 6을 참조하면, 조명 상태 분석 모듈(240)은 도로 지도 분석모듈의 계측 데이터를 통하여 정밀 도로 지도 상의 현재 위치 정보(예를 들면, 도로 위 또는 터널 여부와, 조도 감지 모듈(220)의 조도 감지 데이터와, GPS 시간 정보를 융합하여 현재 시간(야간 또는 주간)과, 조명 상태를 분석하여 그 결과(예를 들면, 주간에 터널 통과 중 또는 야간에 도로 주행 중)를 출력한다.
자율 주행 계측부(300)는 자율 주행 차량에 설치된 라이더 센서, 레이더 센서, 카메라, GPS, IMU 중 적어도 하나 이상을 포함하여 자율 주행 차량 주변을 계측한다. 여기서 계측된 데이터는 카메라 이미지, 라이다 포인트 클라우드 등 2차원 및/또는 3차원 데이터로 구성된다.
환경 융합부(400)는 기상 및 시간과 조명 상태 분석 결과를 융합하여 주변 환경을 분석한다. 이와 같은 환경 융합부(400)의 설명은 도 7을 참조하여 설명한다.
도 7은 융합 환경 판단 과정의 예를 도시한 도면이다.
도 7을 참조하면, 환경 융합부(400)는 기상 분석 모듈(230)과 조명 상태 분석 모듈(240)의 기상 상태 정보와 시간 및 조명 정보를 융합하여 현재 시간(예를 들면, 주간)과 주행 도로(예를 들면, 일반도로)와 기상상태(예를 들면, 흐림)가 포함된 결과 데이터를 산출할 수 있다.
추론부(500)는 정적 환경의 데이터와 동적 환경의 데이터가 포함된 전체적인 데이터 계측 환경을 추론한다. 이는 도 8를 참조하여 설명한다.
도 8는 데이터 계측 환경 추론 과정의 예를 도시한 도면이다.
도 8를 참조하면, 예를 들면, 환경 융합부(400)의 기상, 시간 및 조명의 데이터는 동적 환경 데이터이다. 따라서 추론부(500)는 환경 융합부(400)에서 산출된 동적 환경 데이터에 정적 환경 데이터를 추가하여 전체 데이터 계측 환경을 추론한다.
여기서 정적 환경 데이터는 도로 지도 분석모듈의 네트워크 정보(노드, 링크), 도로구간 정보(터널, 교량 등), 표지 정보(교통안전 표지, 차선, 횡단보도 등), 시설 정보(신호등, 차량방호안전지설 등), 차로 수, 차로 번호, 도로 유형, 도로 등급, 차로 유형, 차도 구간, 노면선 표시 유형 중 적어도 하나 이상을 포함한다.
또한, 추론부(500)는 자율 주행 계측부(300)에서 계측된 자율 주행 차량 주변의 계측 데이터(예를 들면, 카메라 이미지)를 추가할 수 있다.
시나리오 라벨링부(600)는 정적 환경 데이터와 동적 환경 데이터가 융합된 추론된 계측 환경 데이터를 시나리오로 정의하고, 이를 라벨링 데이터로 구성하여 원시 데이터와 융합하여 학습 데이터를 생성한다.
여기서 원시 데이터는 자율 주행 계측부(300)의 데이터(예를 들면, 카메라 이미지, 영상이미지, 라이더의 점군 데이터)이고, 라벨링 데이터는 시나리오 라발렝부에서 정의된 시나리오를 구성하는 데이터이다.
최종 계측 데이터 도출부(700)는 원시데이터와 라벨링 데이터가 융합된 학습 데이터로서 최종 계측 데이터를 도출한다. 이와 같은 최종 계측 데이터는 도 8를 참조하여 설명한다.
도 8는 최종 계측 데이터의 예를 도시한 도면이다.
도 8를 참조하면, 최종 계측 데이터 도출부(700)는 자율 주행 계측부의 원시 데이터와 시나리오 라벨링부(600)의 라벨링 데이터를 융합하여 출력한다. 이때, 라벨링 데이터는 도 10에 도시된 바와 같이 원시 데이터의 프레임별로 출력될 수 있다.
즉, 최종 데이터는 원시 데이터의 프레임별로 라벨링 데이터를 포함하여 출력된다.
또한, 본 발명은 상기와 같은 구성을 이용하여 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 방법을 포함한다. 이는 도 10을 참조하여 설명한다.
도 10은 본 발명에 따른 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 방법을 도시한 순서도이다.
도 10을 참조하면, 본 발명은 계측 데이터를 산출하는 S110 단계와, 자율 주행 센서 데이터를 계측하는 S120 단계와, 정적 환경 데이터를 분석하는 S130단계와, 융합 환경을 판단하는 S140 단계와, 데이터 계측 환경을 추론하는 S150 단계와, 학습 데이터를 산출하는 시나리오 라벨링 단계와, 최종 계측 데이터를 도출하는 S170 단계를 포함한다.
S110 단계는 센서 계측 데이터를 출력하는 단계이다. 여기서 S110 단계는 강수 데이터를 계측하는 S111 단계와, 조도 데이터를 계측하는 S112 단계와, GPS 데이터를 계측하는 S113 단와, 정밀 도로 지도 레이어를 분석하는 S114 단계를 포함한다.
S111 단계는 강수 감지 모듈(210)에서 강수의 유무 및/또는 강수량을 감지하는 단계이다. 강수 감지 모듈(210)은 자율 주행 차량 주변의 강수 유무 및/또는 강수량을 감지한다. 이때, 강수 감지 모듈(210)은 강수량의 측정이 많은 또는 적음과 같이 구분하여 출력할 수 있다.
S112 단계는 조도 감지 모듈(220)에서 자율 주행 차량 주변의 조도를 감지하는 단계이다. 조도 감지 모듈(220)은 자율 주행 차량 주변의 조도를 계측하여 조도 계측 데이터를 출력한다.
S113 단계는 GPS 계측 모듈(110)에서 위치 정보 및 시간 정보를 산출하는 단계이다.
S114 단계는 도로 지도 분석 모듈(120)에서 GPS 계측 데이터를 이용하여 정밀 도로 지도에서 자율 주행 차량의 현재 위치에서 레이어를 분석하는 단계이다. 여기서 도로 지도 분석 모듈(120)은 설정된 조건이나 입력된 명령에 따라 정밀 도로 지도의 현재 자율 주행 차량의 위치에 노면의 색깔이나 재질과 같은 신규 레이어를 추가할 수 있다.
또한, 도로 지도 분석 모듈(120)은 정밀 도로 지도를 통해 현재 위치 정보(예를 들면, 차로 수, 차로 번호, 도로 유형, 터널 유무, 도로 노면 재질, 도로 등급, 차로 유형, 차도구간유형, 노면선 표시 유형과 같은 정밀 도로 분석 데이터를 출력한다.
S120 단계는 자율 주행 계측부(300)에서 원시 데이터를 출력하는 단계이다. 원시 데이터는 자율 주행 차량에 설치되는 카메라, 라이다 센서, 레이더 센서 등에 계측된 정보이다.
S130 단계는 기상 상태를 분석하는 S131 단계와, 시간/조명 상태를 분석하는 S132 단계를 포함한다.
이중 S131 단계는 기상 분석 모듈(230)에서 강수 감지 모듈(210)에서 계측된 데이터를 기상 계측 데이터를 분석하여 현재 자율 주행 차량의 위치 및 주변의 강우 및/또는 강설의 유무와 강우량 및/또는 강설량을 분석한다.
S131 단계는 조명 상태 분석 모듈(240)에서 자율 주행 차량 주변의 조도 계측 데이터와, GPS 계측 모듈(110)의 시간 계측 데이터와, 도로 지도 분석 모듈(120)의 주변 지형 데이터를 통하여 현재 시간과 자율 주행 차량의 주변 조명 상태를 분석하는 단계이다.
S140 단계는 환경 융합부(400)에서 기상 상태의 분석 결과와 시간/조명 상태 분석 결과를 융합하는 단계이다. 환경 융합부(400)는 기상 및 시간과 조명 상태 분석 결과를 융합하여 동적 환경 데이터를 산출한다. 여기서 동적 환경 데이터는 현재 시간(예를 들면, 주간)과 주행 도로 및/또는 지형 정보(예를 들면, 일반 도로, 터널)와 기상상태(예를 들면, 흐림)가 포함될 수 있다.
S150 단계는 추론부(500)에서 데이터 계측 환경을 추론하는 단계이다. 추론부(500)는 S140 단계에서 산출된 동적 환경 데이터에 도로 지도분석 모듈의 정적 환경 데이터를 융합하여 데이터 계측 환경을 추론하여 그 결과를 출력한다.
S160 단계는 시나리오 라벨링부(600)에서 추론된 전체 계측 데이터에 라벨링하고, 원시 데이터와 결합시킨 학습 데이터를 생성하는 단계이다. 시나리오 라벨링부(600)는 추론된 전체 계측 데이터에 라벨링을 부여하고, 시나리오로 정의한다.
S170 단계는 최종 계측 데이터 도출부(700)에서 최종 계측 데이터를 도출하는 단계이다. 최종 계측 데이터 도출부(700)는 원시 데이터의 프레임별로 시나리오 라벨링부(600)에서 정의된 시나리오, 즉 라벨링된 데이터를 원시 데이터와 융합하여 최종 계측 데이터를 산출한다.
이와 같이 본 발명에 따른 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 방법은 자율 주행 차량의 실시간 센서 계측 정보를 시나리오 라벨링에 반영하고, 정밀 도로 지도를 게측 환경 추론에 활용함에 따라 정보의 양이 증가되며, 이와 같은 과정이 모두 자동화 됨에 따라 시나리오 라벨링에 소요되는 시간 및/또는 인력을 종래에 비하여 대폭 절감할 수 있다.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100 : 정적 환경 계측부
200 : 동적 환경 계측부
300 : 자율 주행 계측부
400 : 환경 융합부
500 : 추론부
600 : 시나리오 라벨링부
700 : 최종 계측 데이터 도출부

Claims (7)

  1. 자율 주행 차량 주변의 기상, 조도 상태를 실시간으로 수집하고, 수집된 정보로서 전체 환경을 추론하여 산출된 동적 환경 계측 데이타와, 도로정보를 포함하는 정적 환경 계측 데이터가 결합된 전체 계측 환경 데이터를 자동으로 라벨링하 는 것; 을 특징으로 하는 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템.
  2. 카메라, 라이다, 레이더 및 IMU 중 어느 하나로서 실시간으로 센서 계측 데이터를 출력하는 자율 주행 계측부(300);
    자율 주행 차량 주변의 기상과 시간 및 조명 상태 중 적어도 하나 이상을 계측 및 분석하는 동적 환경 계측부(200);
    GPS 위치 정보와 정밀 도로 지도 따라 자율 주행 차량의 위치에 따른 도로 및 지형 정보를 분석 하는 정적 환경 계측부(100);
    정적 환경 계측 데이터와 동적 환경 계측 데이터를 융합하는 환경 융합부(400);
    융합된 전체 계측 데이터를 통하여 계측 환경을 추론하는 추론부(500);
    추론된 계측 환경 데이터를 라벨링하는 시나리오 라벨링부(600); 및
    자율 주행 계측부(300)의 실시간 영상 데이터의 프레임별로 라벨링된 데이터가 포함된 최종 계측 데이터를 산출 및 출력하는 최종 계측 데이터 도출부(700); 를 포함하는 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템.
  3. 청구항 1에 있어서, 동적 환경 계측부(200)는
    강수량을 감지하는 강수 감지 모듈(210);
    조도를 감지하는 조도 감지 모듈(220);
    강수 감지 모듈(210)의 계측 데이터를 통해 기상 상태를 감지하는 기상 분석 모듈(230); 및
    조도 감지 모듈(220)의 계측 데이터를 통해 자율 주행 차량 주변의 조명 상태를 감지하는 조명 상태 분석 모듈(240); 을 포함하는 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템.
  4. 청구항 1에 있어서, 정적 환경 계측부(100)는
    GPS 위성으로부터 송신된 신호를 수신하여 위치를 산출하고, 시간 정보를 제공하는 GPS 계측 모듈(110); 및
    정밀 도로 지도에서 현재 자율 주행 차량의 위치를 기준으로 도로정보를 추출하는 도로 지도 분석 모듈(120); 을 포함하는 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템.
  5. 청구항 4에 있어서, 정밀 도로 지도는
    자율 주행 차량의 위치 결정, 경로 설정/변경, 도로/교통 규제 중 적어도 하나 이상의 인지를 위한 인프라로써, 네트워크 정보, 도로구간 정보, 표지 정보, 시설 정보 중 적어도 하나 이상을 포함하는 것; 을 특징으로 하는 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템.
  6. 청구항 5에 있어서, 도로 지도 분석 모듈(120)은
    각각 계층 형태로 구성되는 주행경로노드/링크, 차도/부속구간, 주차면, 안전표지, 노면/노면선표시, 신호등, 킬로포스트, 차량방호 안전시설, 과속방지턱, 높이장애물, 지주 중 적어도 하나 이상을 더 포함하는 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템.
  7. 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 방법에 있어서,
    a)자율 주행 차량에서 강수와 조도를 감지하고, 위치와 시간을 포함하는 GPS 정보와, 정밀 도로 지도 레이어를 분석하는 단계;
    b)자율 주행 차량에 설치되는 카메라, 라이다 센서, 레이더 센서 중 적어도 하나 이상에서 실시간 계측된 원시 데이터를 출력하는 단계;
    c)강수 계측 데이터를 이용하여 자율 주행 차량 주변의 기상 상태와, 조도 계측 데이터를 이용하여 조명 상태를 분석하는 단계;
    d)기상 상태의 분석 결과와, 조명 상태의 분석 결과를 융합하는 단계;
    e)기상 상태의 분석 결과와 조명 상태가 융합된 동적 환경 데이터와 도로 지도분석 모듈의 도로 정보를 융합하여 자율 주행 차량 주변의 전체 계측 데이터를 추론하는 단계; 및
    f)추론된 전체 계측 데이터를 자동으로 라벨링하고, 원시 데이터의 영상 프레임별로 라벨링된 데이터를 결합하여 최종 데이터를 산출하는 단계; 를 포함하는 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 방법.

KR1020220093233A 2022-07-27 2022-07-27 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법 KR20240015792A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220093233A KR20240015792A (ko) 2022-07-27 2022-07-27 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법
PCT/KR2023/002913 WO2024025063A1 (ko) 2022-07-27 2023-03-03 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220093233A KR20240015792A (ko) 2022-07-27 2022-07-27 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20240015792A true KR20240015792A (ko) 2024-02-06

Family

ID=89706828

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220093233A KR20240015792A (ko) 2022-07-27 2022-07-27 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR20240015792A (ko)
WO (1) WO2024025063A1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102337070B1 (ko) 2021-07-12 2021-12-08 (주)에이아이매틱스 이상 데이터 자동 검출 및 자동 라벨링 기술을 이용한 학습 데이터베이스 구축 방법 및 시스템

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11544938B2 (en) * 2018-12-21 2023-01-03 Continental Autonomous Mobility US, LLC Systems and methods for automatic labeling of images for supervised machine learning
KR102209361B1 (ko) * 2019-06-17 2021-02-02 연세대학교 산학협력단 머신러닝 알고리즘을 이용한 데이터 기반 음성 서비스 제공 시스템 및 그 방법
KR102339011B1 (ko) * 2020-04-27 2021-12-14 계명대학교 산학협력단 자율차량에서 주야간 보행자 감지를 위한 적응적 스위처 및 이를 이용한 보행자 감지 장치
KR102493800B1 (ko) * 2020-12-08 2023-01-30 한국교통대학교 산학협력단 주행환경 정적객체인지 ai 데이터 처리 방법 및 이를 위한 장치
CN112818910B (zh) * 2021-02-23 2022-03-18 腾讯科技(深圳)有限公司 车辆挡位控制方法、装置、计算机设备和存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102337070B1 (ko) 2021-07-12 2021-12-08 (주)에이아이매틱스 이상 데이터 자동 검출 및 자동 라벨링 기술을 이용한 학습 데이터베이스 구축 방법 및 시스템

Also Published As

Publication number Publication date
WO2024025063A1 (ko) 2024-02-01

Similar Documents

Publication Publication Date Title
US11851085B2 (en) Navigation and mapping based on detected arrow orientation
US11410332B2 (en) Map system, method and non-transitory computer-readable storage medium for autonomously navigating vehicle
US11982540B2 (en) Infrastructure mapping and layered output
JP7067536B2 (ja) 車両制御装置、方法および記憶媒体
US11954797B2 (en) Systems and methods for enhanced base map generation
US11920948B2 (en) Vehicle-side device, method, and non-transitory computer-readable storage medium for uploading map data
US10309792B2 (en) Route planning for an autonomous vehicle
US20220333927A1 (en) Ego motion correction of lidar output
US20170356746A1 (en) Route Planning for an Autonomous Vehicle
US20170356748A1 (en) Route Planning for an Autonomous Vehicle
US20170356750A1 (en) Route Planning for an Autonomous Vehicle
CN112074885A (zh) 车道标志定位
US11378970B2 (en) Visual localization support system
WO2020045322A1 (ja) 地図システム、車両側装置、方法および記憶媒体
GB2614090A (en) Multi-modal segmentation network for enhanced semantic labeling in mapping
GB2615627A (en) Curb-based feature extraction for localization and lane detection using radar
US20210188292A1 (en) Method for a position determination of a vehicle, control unit, and vehicle
KR20240015792A (ko) 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법
Sauter et al. High performance pavement markings enhancing camera and LiDAR detection
JP7323146B2 (ja) 情報処理方法、プログラム、及び情報処理装置
RU2809950C1 (ru) Способ мониторинга состояния зимних автодорог
He An analysis of airborne data collection methods for updating highway feature inventory
KR20240020155A (ko) 증거 조명 값을 사용한 물리적 공간에서의 가시성 결정
JP2022072963A (ja) 情報処理方法、プログラム、及び情報処理装置
CN115861529A (zh) 一种自动驾驶三维可视化显示盲区的方法、装置及电子设备