KR20210122214A - 감지 데이터를 검출하는 방법 및 장치 - Google Patents

감지 데이터를 검출하는 방법 및 장치 Download PDF

Info

Publication number
KR20210122214A
KR20210122214A KR1020210123843A KR20210123843A KR20210122214A KR 20210122214 A KR20210122214 A KR 20210122214A KR 1020210123843 A KR1020210123843 A KR 1020210123843A KR 20210123843 A KR20210123843 A KR 20210123843A KR 20210122214 A KR20210122214 A KR 20210122214A
Authority
KR
South Korea
Prior art keywords
obstacle
negative sample
matching relationship
data
determining
Prior art date
Application number
KR1020210123843A
Other languages
English (en)
Inventor
단 리
찌엔핑 리
치엔 천
Original Assignee
베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 filed Critical 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Publication of KR20210122214A publication Critical patent/KR20210122214A/ko

Links

Images

Classifications

    • G06K9/00805
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/3233
    • G06K9/6201
    • G06K9/6256
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0052Filtering, filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 출원은 감지 데이터를 검출하는 방법 및 장치를 개시하며, 지능형 교통 분야 중의 자율 주행, 차량 도로 협동 등 분야에 관한 것이다. 구체적인 구현 방안은, 표기 데이터와 감지 데이터를 획득하되, 여기서, 표기 데이터는 적어도 하나의 제1 장애물의 표기 위치와 표기 유형을 포함하고, 감지 데이터는 적어도 하나의 제2 장애물의 감지 위치와 감지 유형을 포함한다. 표기 데이터 중의 네거티브 샘플을 기초로, 감지 데이터 중의 제2 장애물에 대해 거친 필터링을 수행하여, 거친 필터링 후의 나머지 제3 장애물을 획득하되, 여기서, 네거티브 샘플은 비 실체 장애물이다. 제3 장애물과 네거티브 샘플의 매칭 관계를 확정하여, 제 3 장애물과 매칭 관계가 있는 네거티브 샘플을 타겟 장애물로 확정한다. 타겟 장애물의 수량과 제1 장애물의 수량을 기초로, 감지 데이터의 검출 결과를 확정한다. 표기 데이터 중의 네거티브 샘플을 기초로, 감지 데이터의 검출 결과를 확정함으로써, 검출의 포괄성을 효과적으로 확보할 수 있다.

Description

감지 데이터를 검출하는 방법 및 장치{PERCEPTION DATA DETECTION METHOD AND DEVICE}
본 출원은 지능형 교통 분야 중의 자율 주행과 차량 도로 협동 분야에 관한 것으로, 특히 감지 데이터를 검출하는 방법 및 장치에 관한 것이다.
무인 차량의 감지 시스템은 장애물에 대한 감지 데이터를 다운스트림 모듈로 출력할 수 있는데, 무인 차량은 주행 과정에서 감지 데이터에 크게 의존하기 때문에 감지 시스템의 출력에 대해 검출하는 것은 특히 중요하다.
현재 무인 차량 감지 시스템의 검출은 주로 수동으로 표기한 포지티브 샘플 데이터와 감지 시스템의 감지 데이터를 기반으로 매칭하여 수동으로 표기된 포지티브 샘플 데이터와 감지 결과에 동시에 존재하는 장애물의 수량을 확정한 후, 이 부분의 장애물의 수량 및 감지 결과 중의 장애물의 수량을 바탕으로 최종적으로 감지 시스템의 장애물 리콜률과 인식 정확도 등 지표를 획득한다.
하지만, 상기 구현 방식은 포지티브 샘플 데이터를 기반으로 매칭을 수행하여 검출을 진행하는 것이기에, 이는 네거티브 샘플에 대한 인식 상황을 반영할 수 없으므로 검출의 포괄성이 결여된다.
본 출원은 감지 데이터를 검출하기 위한 방법, 장치, 기기 및 저장매체를 제공한다.
본 출원의 제1 측면에 따르면, 감지 데이터를 검출하는 방법을 제공하는 바,
표기 데이터와 감지 데이터를 획득하되, 여기서, 상기 표기 데이터는 적어도 하나의 제1 장애물의 표기 위치와 표기 유형을 포함하고, 상기 감지 데이터는 적어도 하나의 제2 장애물의 감지 위치와 감지 유형을 포함하는 단계;
상기 표기 데이터 중의 네거티브 샘플을 기초로, 상기 감지 데이터 중의 제2 장애물에 대해 거친 필터링을 수행하여, 거친 필터링 후의 나머지 제3 장애물을 획득하되, 여기서, 상기 네거티브 샘플은 비 실체 장애물인 단계;
상기 제3 장애물과 상기 네거티브 샘플의 매칭 관계를 확정하고, 상기 제3 장애물과 상기 매칭 관계가 존재하는 네거티브 샘플을 타겟 장애물로 확정하는 단계;
상기 타겟 장애물의 수량과 상기 제1 장애물의 수량을 기초로, 상기 감지 데이터의 검출 결과를 확정하는 단계를 포함한다.
본 출원의 제2 측면에 따르면, 감지 데이터를 검출하는 장치를 제공하는 바,
표기 데이터와 감지 데이터를 획득하되, 여기서, 상기 표기 데이터는 적어도 하나의 제1 장애물의 표기 위치와 표기 유형을 포함하고, 상기 감지 데이터는 적어도 하나의 제2 장애물의 감지 위치와 감지 유형을 포함하는 획득모듈;
상기 표기 데이터 중의 네거티브 샘플을 기초로, 상기 감지 데이터 중의 제2 장애물에 대해 거친 필터링을 수행하여, 거친 필터링 후의 나머지 제3 장애물을 획득하되, 여기서, 상기 네거티브 샘플은 비 실체 장애물인 필터링모듈;
상기 제3 장애물과 상기 네거티브 샘플의 매칭 관계를 확정하고, 상기 제3 장애물과 상기 매칭 관계가 존재하는 네거티브 샘플을 타겟 장애물로 확정하는 확정모듈을 포함하되;
상기 확정모듈은 또한, 상기 타겟 장애물의 수량과 상기 제1 장애물의 수량을 기초로, 상기 감지 데이터의 검출 결과를 확정한다.
본 출원의 제3 측면에 따르면, 전자기기를 제공하는 바,
적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서와 통신 연결되는 메모리;를 포함하되,
상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행 가능한 명령이 저장되고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 상술한 제1 측면에 따른 방법을 수행할 수 있도록 한다.
본 출원의 제4 측면에 따르면, 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장매체를 제공하는 바, 상기 컴퓨터 명령은 컴퓨터가 상술한 제1 측면에 따른 방법을 수행하도록 하기 위한 것이다.
본 출원의 제5 측면에 따르면, 컴퓨터 프로그램 제품을 제공하는 바, 상기 프로그램 제품은 컴퓨터 프로그램을 포함하고, 상기 컴퓨터 프로그램은 판독 가능 저장매체에 저장되고, 전자기기의 적어도 하나의 프로세서는 상기 판독 가능 저장매체로부터 상기 컴퓨터 프로그램을 판독할 수 있고, 상기 적어도 하나의 프로세서가 상기 컴퓨터 프로그램을 실행하여 전자기기가 상술한 제1 측면에 따른 방법을 실행하도록 한다.
본 출원의 제6 측면에 따르면, 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램을 제공하는 바, 상기 컴퓨터 프로그램 중의 명령이 프로세서에 의해 실행될 때, 상술한 제1 측면에 따른 방법을 구현한다.
본 출원의 기술은 네거티브 샘플에 대한 검출을 구현할 수 있으며, 이로부터 검출의 포괄성을 효과적으로 확보할 수 있다.
본 부분에서 설명된 내용은 본 출원의 실시예의 핵심 또는 중요한 특징을 식별하기 위한 것이 아니며, 본 출원의 범위를 제한하려는 의도가 아님을 이해해야 한다. 본 출원의 다른 특징은 다음 설명에 의해 쉽게 이해될 것이다.
첨부된 도면은 본 방안을 더 잘 이해할 수 있도록 하기 위한 것으로서, 본 출원에 대한 한정은 아니다. 여기서:
도 1은 본 출원의 실시예에 따른 무인 차량이 살수차를 뒤따르는 시나리오를 나타내는 도면이다.
도 2는 본 출원의 실시예에 따른 장애물을 검출하는 이상적인 상황을 나타내는 도면이다.
도 3은 본 출원의 실시예에 따른 장애물을 검출하는 오류 상황을 나타내는 도면 1이다.
도 4는 본 출원의 실시예에 따른 장애물을 검출하는 오류 상황을 나타내는 도면 2이다.
도 5는 본 출원의 실시예에 따른 장애물을 검출하는 오류 상황을 나타내는 도면 3이다.
도 6은 본 출원의 실시예에 따른 차량 포인트 클라우드맵을 나타내는 도면이다.
도 7은 본 출원의 실시예에 따른 감지 데이터를 검출하는 방법의 흐름도이다.
도 8은 본 출원의 실시예에 따른 감지 데이터를 검출하는 방법의 흐름도 2이다.
도 9는 본 출원의 실시예에 따른 표기 데이터의 구현을 나타내는 도면 1이다.
도 10은 본 출원의 실시예에 따른 거친 필터링의 구현을 나타내는 도면이다.
도 11은 본 출원의 실시예에 따른 초보적인 매칭 관계의 구현을 나타내는 도면이다.
도 12는 본 출원의 실시예에 따른 표기 데이터의 구현을 나타내는 도면 2이다.
도 13은 본 출원의 실시예에 따른 타겟 매칭 관계의 구현을 나타내는 도면이다.
도 14는 본 출원의 실시예에 따른 감지 데이터를 검출하는 방법의 흐름도이다.
도 15는 본 출원의 실시예의 감지 데이터를 검출하는 장치의 구조도이다.
도 16은 본 출원의 실시예의 감지 데이터를 검출하는 방법을 구현하기 위한 전자기기의 블록도이다.
아래에서는 첨부 도면과 결합하여 본 출원의 예시적인 실시예에 대해 설명하며, 이해를 돕기 위하여 본 출원의 실시예의 다양한 세부 사항을 포함하며, 이들을 단지 예시적인 것으로만 간주되어야 한다. 따라서, 본 분야의 통상적인 지식을 가진 자라면, 여기에 설명된 실시예에 대하여 다양한 변경과 수정을 가할 수 있으며, 이는 본 출원의 범위와 정신을 벗어나지 않음을 이해해야 한다. 마찬가지로, 명확성과 간결성을 위하여, 아래의 설명에서 공지 기능과 구조에 대한 설명을 생략한다.
본 출원의 기술방안을 더욱 잘 이해하기 위하여, 우선 본 출원에 관련된 배경기술에 대해 더욱 상세하게 소개한다.
무인 차량의 감지 시스템은 무인 차량의 눈에 해당하며, 감지 시스템은 센서에 의해 수집된 포인트 클라우드 영상 등 데이터를 기초로, 인식 알고리즘을 통해 도로 상의 사람, 차량, 자전거 등 장애물을 다운스트림 모듈로 출력할 수 있다.
무인 차량의 감지 시스템은 매우 중요한 역할을 하고 있기에, 감지 시스템의 출력 결과에 대해 평가하는 것도 특히 중요하다.
현재 무인 차량 감지 시스템의 평가는 일반적으로 표기된 진리값에 의존하는 바, 표기된 진리값은 수동 표기에 의존하고, 수동 표기 과정은 포인트 클라우드와 영상을 비교하여 장애물의 위치와 속성 등 정보를 기록하여 진리값으로 하는 것이다. 그런 다음 표기된 데이터를 감지 시스템의 출력 결과와 비교하고, 마지막으로 감지 시스템의 장애물 리콜률, 인식 정확도 등 지표를 획득한다. 수동 표기 시, 포지티브 샘플과 네거티브 샘플을 동시에 표기하는데, 아래에서 포지티브 샘플과 네거티브 샘플을 각각 설명한다.
포지티브 샘플: 통과할 수 없는 장애물로서 감지 시스템이 다운스트림 모듈에 보고해야 하는 장애물을 가리키는 바, 예를 들어 사람, 차량, 자전거, 원뿔통 등 물체와 같은 실체 장애물로 이해될 수 있다.
포지티브 샘플은 일반적으로 도로에서 자주 나타나는 장애물이기 때문에 크기와 규격은 모두 대응되는 사양을 찾을 수 있고, 감지 시스템의 인식 또는 데이터든지를 물론하고 표기는 모두 보다 용이하고, 평가 시에도 기존의 규칙에 따라 이러한 장애물의 검출 상황에 대해 결정된 평가 결과를 제공할 수 있다.
네거티브 샘플: 통과할 수 있는 장애물을 말하며, 예를 들면 배기 가스, 물안개, 낙엽, 눈, 버들개지 등 물체와 같이 감지 시스템에 의해 다운스트림 모듈에 보고될 필요가 없는 비 실체 장애물로 이해될 수 있다.
네커티브 샘플의 경우 이러한 장애물은 현실 세계에서 규칙적인 모양과 고정된 크기가 없으므로, 무인 차량의 감지 시스템은 검출할 때 이러한 장애물을 하나 이상의 장애물로 별도로 보고하는 경우가 있으며, 다른 장애물과 합쳐 하나의 보다 큰 장애물로 검출하는 경우도 있다.
아래에는 무인 차량이 살수차를 뒤따르는 시나리오를 예로 들어, 장애물을 검출하는 다양한 가능한 구현 방식에 대해 소개하며, 예를 들어 도 1 내지 도 5를 결합하여 이해할 수 있다.
도 1은 본 출원의 실시예에 따른 무인 차량이 살수차를 뒤따르는 시나리오를 나타내는 도면이고, 도 2는 본 출원의 실시예에 따른 장애물을 검출하는 이상적인 상황을 나타내는 도면이고, 도 3은 본 출원의 실시예에 따른 장애물을 검출하는 오류 상황을 나타내는 도면 1이고, 도 4는 본 출원의 실시예에 따른 장애물을 검출하는 오류 상황을 나타내는 도면 2이고, 도 5는 본 출원의 실시예에 따른 장애물을 검출하는 오류 상황을 나타내는 도면 3이다.
도 1에 도시된 바와 같이, 현재 무인 차량이 도로에서 주행하고 있고, 무인 차량이 전방 시야의 장면, 예를 들어 도 1에 도시된 장면을 촬영하여 획득할 수 있고, 현재 무인 차량의 시야 전방에 살수차가 한 대 존재한다고 가정하면, 해당 살수차가 살수하고 있기에, 차량의 뒷부분에는 물안개가 존재한다. 무인 차량의 감지 시스템은 해당 영상을 바탕으로 장애물을 검출할 수 있다.
가능한 구현 방식에서, 이상적인 상황에서 도 2에 도시된 바와 같이 감지 시스템에 의해 검출된 장애물은 살수차만 포함되어야 하며, 살수차에 의해 살포된 물은 장애물로 인식되지 않는다. 도 2에는 무인 차량의 위치와 감지된 장애물의 정보가 도시되어 있고, 도 2를 참조하면 현재 이상적인 경우에 감지 시스템에 의해 검출된 장애물은 단지 살수차라는 것을 확정할 수 있다.
여기서, 배경의 직선바는 차선 위치이고, 입방체는 감지 시스템에 의해 출력된 장애물을 표시하고, 숫자 번호는 감지 시스템에 의해 출력된 장애물의 식별자를 표시하고, 예를 들어 도 2 중의 “9522680”는 살수차의 식별자이고, 도면에는 또한 장애물의 좌표도 도시되어 있으며, 예를 들어 도 2 중의 (2.14, 5.67)은 살수차의 좌표이다.
다른 가능한 구현 방식에서, 감지 시스템은 물안개를 하나의 별도의 장애물로 인식할 수 있으며 도 3에 도시된 바와 같이, 현재 감지 시스템에 의해 인식된 장애물은 살수차와 물안개를 포함하고, 여기서, 살수차의 식별자는 도 3에 도시된 “9518538”이고, 좌표는 (2.19, 5.67)이며, 물안개의 식별자는 도 3에 도시된 “9522680”이고, 좌표는 (2.48, 5.50)이다.
다른 가능한 구현 방식에서, 감지 시스템은 물안개와 살수차를 합쳐 하나의 거대한 장애물로 오 인식할 수 있으며, 도 4에 도시된 바와 같이, 현재 감지 시스템에 의해 인식된 장애물은 살수차와 물안개가 합쳐져 형성된 장애물을 포함하며, 여기서, 해당 장애물의 식별자는 도 4에 도시된 “9522680”이고, 좌표는 (2.11, 5.70)이다.
다른 가능한 구현 방식에서, 감지 시스템은 물안개를 여러 장애물로 오 인식할 수 있으며, 도 5에 도시된 바와 같이, 현재 감지 시스템에 의해 식별된 장애물은 살수차, 물안개1 및 물안개2를 포함하고, 여기서, 살수차의 식별자는 도 5에 도시된 “9523833”이고, 좌표는 (2.18, 5.70)이고, 물안개1의 식별자는 도 5에 도시된 “9522680”이고, 좌표는 (-0.58, 0.01)이고, 물안개2의 식별자는 도 5에 도시된 “9518538”이다.
상술한 소개를 바탕으로, 감지 시스템에는 네거티브 샘플에 대한 오 검출이 나타날 수 있다는 것을 확정할 수 있으며, 어느 한가지 경우이든지 모두 무인 차량의 주행에 불리하기에, 감지 시스템의 네거티브 샘플의 출력 상황에 대해 검증하는 것은 중요한 의의가 있고, 또한 네거티브 샘플의 형태가 불규칙적이고, 기존에 평가한 포지티브 샘플과 큰 차이가 있으므로, 기존 방안의 감지 시스템에 대해 검출하는 구현 방안은 네거티브 샘플에 적용될 수 없다.
본 출원의 기술 방안을 더욱 잘 이해하기 위하여, 아래에는 종래 기술에서 감지 시스템의 출력에 대해 검출하는 구현 방식에 대해 소개한다.
거시적인 관점에서 볼 때, 네거티브 샘플과 포지티브 샘플은 본질적으로는 모두 하나의 장애물이며, 현재 장애물에 대한 평가의 핵심 준칙은 아래와 같다.
하나의 장애물이 감지 결과 및 표기 결과에 동시에 존재하면, 감지가 정확한 것으로 간주하여, TP로 표기하고;
하나의 장애물이 표기 데이터에 나타나지만, 감지 결과에 나타나지 않으면, 감지 시스템에 검출 누락이 나타난 것으로 간주하여, FN으로 표기하고;
하나의 장애물이 감지 출력에 나타나지만, 표기 데이터에 나타나지 않으면, 감지 시스템에 검출 오류가 나타난 것으로 간주하여, FP로 표시한다.
이상 준칙으로부터, 어떻게 표기 데이터 중의 장애물과 감지 출력의 장애물이 동일한 장애물 인지를 확정하는 지는 전체 평가 시스템의 핵심이고, 다시 말하면 표기 데이터와 감지 데이터에서 장애물의 매칭을 수행해야 한다는 것을 알 수 있으며, 아래 도 6을 결합하여 포지티브 샘플의 매칭 방법에 대해 소개하는 바, 도 6은 본 출원의 실시예에 따른 차량 포인트 클라우드맵을 나타내는 도면이다.
도 6에 도시된 바와 같이, 현재, 차량 영상을 기초로 처리를 수행하여 포인트 클라우드 맵을 획득할 수 있으며, 더 나아가, 포인트 클라우드 맵을 기초로 상면도, 측면도와 배면도를 획득할 수 있다.
도 6을 바탕으로, 현재 자주 사용되는 포지티브 샘플 매칭 방법은 주로 아래 몇가지를 포함한다.
1. 포인트 클라우드 수량을 기반으로 매칭 수행:
예를 들어 도 6 중의 포인트 클라우드 맵을 참조하여 이해할 수 있으며, 감지 출력(prediction truth, PT)의 3d 박스에 포함된 포인트 클라우드와 표기 데이터(ground truth, GT) 중의 3d 박스에 포함된 포인트 클라우드를 비교하여, PT에 존재할 뿐만 아니라 GT의 3d 박스에 존재하는 포인트의 수량을 통계하고, PT와 GT의 3d 박스에 포함된 총 포인트 수량을 비교한다.
예를 들어, 장애물i에 대한 수동 표기 결과 GT 장애물 포인트 클라우드 총 수량이 a이고, 검출된 장애물 PT의 포인트 클라우드 수량이 b이면, 교집합 합집합 비율(JI)이 아래 수식 1을 만족하도록 정의할 수 있다.
Figure pat00001
수식 1
가능한 구현 방식에서, 어느 장애물의 JI>0.5이면, 해당 장애물은 매칭 성공으로 간주할 수 있다.
2. 지면 투영 박스 교집합 합집합 비율에 기반하여 매칭을 수행:
예를 들어 도 6 중의 상면도를 참조하여 이해할 수 있으며, 장애물의 3d 박스를 바닥 평면에 투영하여 하나의 직사각형을 얻고, GT와 PT의 직사각형 박스의 면적의 교집합 합집합 비율(JI)을 산출하며, 가능한 구현 방식에서, JI>0.5이면, 매칭 성공으로 간주한다.
3. 장애물 3d 박스의 교집합 합집합 비율을 기초로 매칭을 수행:
예를 들어 도 6 중의 포인트 클라우드 맵을 참조하여 이해할 수 있으며, GT와 PT의 3d 박스 체적의 교집합 합집합 비율(JI)을 산출하고, 가능한 구현 방식에서, JI>0.5이면, 매칭 성공으로 간주한다.
4. 2d 투영 박스의 교집합 합집합 비율을 기초로 매칭을 수행:
예를 들어 도 6 중의 포인트 클라우드 맵을 참조하여 이해할 수 있으며, GT와 PT의 2d 영상에서의 투영 박스의 교집합 합집합 비율(JI)에 따라, 가능한 구현 방식에서, JI>0.5이면, 매칭 성공으로 간주한다.
5. 3d 위치를 기초로 매칭을 수행:
GT와 PT 장애물의 좌표 Pgt(xgt, ygt, zgt)와 Ppt(xpt, ypt, zpt) 간의 차이값(△P)을 계산할 수 있으며, △P가 일정한 임계값보다 작을 때, 매칭 성공으로 간주한다.
6. 이상 몇가지 방식을 서로 결합한 매칭
상기 소개한 몇가지 방식은 모두 장애물의 매칭 결과를 획득할 수 있으며, 매칭 결과를 기초로 상기 소개한 TP, FN, FP를 확정할 수 있다.
일반적으로 포지티브 샘플을 평가할 때, TP, FN, FP를 기초로 장애물 인식 정확도를 획득할 수 있고, 장애물 인식 정확도(precision)를 기초로 판단하며, 정확도(precision)가 높을수록 인식된 네거티브 샘플 수량이 더욱 적고, 감지 효과가 더욱 좋다는 것을 의미하며, 여기서 정확도(precision)는 예를 들어 아래의 수식 2로 정의할 수 있다.
Figure pat00002
수식 2
현재 네거티브 샘플의 평가 지표인 정확도(precision)는 본질적으로는 포지티브 샘플에 대해 평가하는 것이며, 해당 지표의 결점은 아래와 같다.
TP가 충분히 클 때, FP의 수량은 지표에 대하여 영향이 작고, 지표의 변화가 민감하지 않을 때 네거티브 샘플에 대한 인식 상황을 직접 반영하지 못하고;
계산 수식 중에서 FP는 네거티브 샘플과 관련된 장애물 외에 기타 가상 장애물을 대량으로 포함하며, 예를 들어 어느 장애물이 분열된 것으로 검출되거나, 알고리즘의 결함으로 새로운 하나의 가상 장애물이 생성되고;
계산 수식에 표기 데이터 중의 네거티브 샘플 정보를 사용하지 않아, 매칭에서 수식의 계산까지 표기된 네거티브 샘플 정보는 참여하지 않는다.
상기한 바에 대해 종합하면, 현재 감지 시스템의 출력에 대해 검출을 수행할 때, 모두 포지티브 샘플을 기초로 검출을 수행하는 것이고, 네거티브 샘플에 대한 효과적인 검출 방법이 없으며, 따라서 네거티브 샘플에 대한 인식 상황을 반영하지 못하여, 검출의 포괄성의 결여로 이어진다.
종래 기술의 문제에 대하여, 본 출원은 아래와 같은 기술 구상을 제공한다. 즉 전문적으로 네거티브 샘플에 대해 평가하는 방법을 제공하는 바, 감지 시스템의 표기 데이터 중의 네거티브 샘플에 대한 감지 효과를 평가함으로써 감지 알고리즘의 반복에 대해 참고 의견을 제공할 수 있으며, 무인 차량 감지 시스템의 포지티브 반복에 유리하다.
아래 구체적인 실시예를 결합하여 본 출원에 따른 감지 데이터를 검출하는 방법에 대해 소개하며, 도 7은 본 출원의 실시예에 따른 감지 데이터를 검출하는 방법의 흐름도이다.
도 7에 도시된 바와 같이, 해당 방법은 아래의 단계들을 포함한다.
S701, 표기 데이터와 감지 데이터를 획득하되, 여기서, 표기 데이터는 적어도 하나의 제1 장애물의 표기 위치와 표기 유형을 포함하고, 감지 데이터는 적어도 하나의 제2 장애물의 감지 위치와 감지 유형을 포함한다.
본 실시예에서, 표기 데이터는 예를 들어 수동 표기한 데이터일 수 있으며, 예를 들어 포인트 클라우드, 영상을 비교하여, 장애물의 위치, 속성 등 정보를 기록하여 진실값으로 할 수 있으며, 따라서, 표기 데이터 중의 장애물의 표기 위치와 장애물의 표기 유형은 진실적이고 믿을만한 것이다.
그리고, 감지 데이터에 포함된 장애물 데이터는 감지 시스템에 의해 출력된 것일 수 있으며, 본 실시예는 바로 감지 시스템에 의해 출력된 감지 데이터의 정확성에 대해 검출하는 것이다.
여기서, 표기 데이터는 적어도 하나의 제1 장애물을 포함할 수 있고, 표기 데이터는 적어도 하나의 제1 장애물의 표기 위치와 표기 유형을 포함하며, 여기서, 표기 유형은 예를 들어 포지티브 샘플과 네거티브 샘플을 포함할 수 있으며, 분류 근거는 예를 들어 장애물이 감지 시스템에 의해 보고되어야 하는지 여부일 수 있고, 예를 들어 물안개, 먼저, 버들개지, 배기 가스 등 메인 차량의 통행에 영향을 미치지 않는 비 실체 장애물을 네거티브 샘플로 분류할 수 있고, 차량, 보행자, 바리케이드 등 메인 차량의 통행에 영향을 미치는 실체 장애물을 포지티브 샘플로 확정할 수 있다.
여기서, 표기 데이터에 포함된 표기 위치와 표기 유형은 구체적인 환경 중의 장애물 정보에 따라 결정되며, 본 실시예는 이에 대하여 한정하지 않는다.
그리고, 감지 데이터는 적어도 하나의 제2 장애물을 포함하고, 감지 데이터는 적어도 하나의 제2 장애물의 감지 위치와 감지 유형을 포함하며, 여기서, 감지 유형은 예를 들어 차량, 보행자, 바리케이드, 물안개, 먼지 등 구체적인 장애물 유형일 수 있으며, 감지 위치와 감지 유형의 구체적인 구현은 감지 시스템의 출력에 의해 결정되며, 본 실시예는 이에 대해 특별히 한정하지 않는다.
S702, 표기 데이터 중의 네거티브 샘플을 기초로, 감지 데이터 중의 제2 장애물에 대해 거친 필터링을 수행하여, 거친 필터링 후의 나머지 제3 장애물을 획득하되, 여기서, 네거티브 샘플은 비 실체 장애물이다.
상술한 소개로부터, 표기 데이터는 네거티브 샘플을 포함하고, 네거티브 샘플은 예를 들어 비 실체 장애물일 수 있다는 것을 확정할 수 있으며, 본 실시예는, 네거티브 샘플에 대해 목적성 있는 검출을 수행해야 하는 것이기에, 표기 데이터 중의 네거티브 샘플을 기초로 감지 데이터 중의 제2 장애물에 대해 초보적인 거친 필터링을 수행할 수 있으며, 필터링한 후의 나머지 제3 장애물은 초보적으로 확정된 감지 데이터 중의 비 실체 장애물로 간주할 수 있다.
가능한 구현 방식에서, 예를 들어 네거티브 샘플과 제2 장애물의 거리를 확정할 수 있으며, 제2 장애물과 네거티브 샘플 간의 거리가 보다 가까울 때, 해당 제2 장애물은 네거티브 샘플과 매칭될 수 있다는 것을 의미하며, 즉, 비 실체 장애물일 수 있고, 이때 이 부분의 제2 장애물을 보류하고, 나머지 제2 장애물을 삭제하여 거친 필터링 후의 나머지 제3 장애물을 획득한다.
따라서 본 실시예에서, 제3 장애물은 예를 들어 네거티브 샘플과의 거리가 기설정 거리 이하인 장애물일 수 있다.
다른 가능한 구현 방식에서, 또 예를 들어 네거티브 샘플과의 거리가 보다 먼 제2 장애물을 제거하여 나머지 장애물을 제3 장애물로 확정할 수 있으며, 본 실시예는 거친 필터링의 구체적인 구현 방식에 대해 특별한 소개를 하지 않으며, 거친 필터링 후의 나머지 제3 장애물이 네거티브 샘플과의 거리가 보다 가까운 장애물이라는 것을 보증할 수만 있으면 가능하다.
S703, 제3 장애물과 네거티브 샘플의 매칭 관계를 확정하여, 제3 장애물과 매칭 관계가 있는 네거티브 샘플을 타겟 장애물로 확정한다.
거친 필터링 후의 나머지 제3 장애물과 네거티브 샘플 간의 거리가 모두 보다 가까우며, 본 실시예는 추가적으로 제3 장애물과 네거티브 샘플의 매칭 관계를 확정할 수 있다.
가능한 구현 방식에서, 제3 장애물과 네거티브 샘플의 위치, 형태가 완전히 매칭되면, 제3 장애물과 네거티브 샘플 간에 매칭 관계가 존재하는 것으로 확정한다.
다른 가능한 구현 방식에서, 제3 장애물과 네거티브 샘플의 위치에 부분 매칭이 존재하면, 제3 장애물과 네거티브 샘플 간에 매칭 관계가 존재하는 것으로 확정할 수 있다.
또는, 제3 장애물과 네거티브 샘플 간의 중첩 면적이 기설정 면적 이상일 경우, 제3 장애물과 네거티브 샘플 간에 매칭 관계가 존재하는 것으로 확정할 수도 있다.
본 실시예는 매칭 관계를 확정하는 구체적인 구현 방식에 대해 특별한 한정을 하지 않으며, 예를 들어 위치의 중첩을 기초로 매칭 관계를 확정하는 것 외에, 장애물의 유형을 기초로 매칭 관계를 확정할 수?? 있으며, 매칭 관계가 표기 데이터와 감지 데이터의 대응 관계를 지시할 수 있으면 가능하다.
여기서, 매칭 관계는 현재 표기 데이터 중의 어느 네거티브 샘플과 감지 데이터 중의 어느 제3 장애물 간에 매칭 관계가 존재한다고 가정하면, 이 제3 장애물은 표기 데이터 중의 해당 네거티브 샘플일 수 있는 것으로 간주할 수 있다는 것으로 이해할 수 있다.
이해할 수 있는 것은, 현재 복수의 제3 장애물과 복수의 네거티브 샘플이 존재할 수 있고, 매칭 관계를 구축한 후에, 부분 네거티브 샘플은 제3 장애물과 매칭 관계가 존재할 수 있고, 부분 네거티브 샘플은 제3 장애물과 매칭 관계가 존재하지 않을 수 있으며, 본 실시예에서 예를 들어 제3 장애물과 매칭 관계가 존재하는 네거티브 샘플을 타겟 장애물로 확정할 수 있다.
S704, 타겟 장애물의 수량과 제1 장애물의 수량을 기초로, 감지 데이터의 검출 결과를 확정한다.
상술한 과정에 따라, 표기 데이터의 네거티브 샘플 중에서 타겟 장애물을 확정할 수 있으며, 여기서 타겟 장애물은 감지 데이터 중의 제3 장애물과 매칭 관계가 존재하는 장애물이고, 따라서 타겟 장애물의 수량과 표기 데이터 중의 제1 장애물의 수량을 기초로, 감지 데이터의 검출 결과를 확정할 수 있다.
가능한 구현 방식에서, 예를 들어 양자의 비율을 검출 결과로 할 수 있으며, 해당 검출 결과는 예를 들어 네거티브 샘플의 리콜률이다.
또는, 타겟 장애물의 수량과 제1 장애물의 수량을 기초로, 나머지 검출 결과를 지시하는 지표를 확정할 수도 있으며, 본 실시예는 이에 대해 특별히 한정하지 않는다.
본 실시예의 감지 데이터의 검출 결과를 확정하는 전반적인 구현 과정은 모두 네거티브 샘플에 기반하여 구현한 것이며, 따라서 본 실시예는 네거티브 샘플에 대한 검사 결과를 효과적으로 확정할 수 있기에, 검출의 포괄성을 효과적으로 확보할 수 있다.
본 출원의 실시예에 따른 감지 데이터를 검출하는 방법은, 표기 데이터와 감지 데이터를 획득하되, 여기서, 표기 데이터는 적어도 하나의 제1 장애물의 표기 위치와 표기 유형을 포함하고, 감지 데이터는 적어도 하나의 제2 장애물의 감지 위치와 감지 유형을 포함하는 단계; 표기 데이터 중의 네거티브 샘플을 기초로, 감지 데이터 중의 제2 장애물에 대해 거친 필터링을 수행하여, 거친 필터링 후의 나머지 제3 장애물을 획득하되, 여기서, 네거티브 샘플은 비 실체 장애물인 단계; 제3 장애물과 네거티브 샘플의 매칭 관계를 확정하여, 제3 장애물과 매칭 관계가 있는 네거티브 샘플을 타겟 장애물로 확정하는 단계; 타겟 장애물의 수량과 제1 장애물의 수량을 기초로, 감지 데이터의 검출 결과를 확정하는 단계; 표기 데이터 중의 네거티브 샘플을 기초로 먼저 감지 데이터 중의 제2 장애물에 대해 필터링 하고, 필터링 후의 나머지 제3 장애물과 네거티브 샘플을 매칭하여, 제3 장애물과 매칭 관계가 존재하는 타겟 타겟 장애물을 획득하고, 타겟 장애물의 수량과 표기 데이터 중의 제1 장애물의 수량을 기초로, 감지 데이터의 검출 결과를 확정하는 단계를 포함하여, 네거티브 샘플에 대한 검출을 구현할 수 있고, 검출의 포괄성을 효과적으로 확보할 수 있다.
상술한 실시예를 기초로 하여, 아래 도 8 내지 도 13을 결합하여 본 출원에 따른 감지 데이터를 검출하는 방법에 대해 더욱 상세하게 소개하며, 도 8은 본 출원의 실시예에 따른 감지 데이터를 검출하는 방법의 흐름도 2이고, 도 9는 본 출원의 실시예에 따른 표기 데이터의 구현을 나타내는 도면 1이고, 도 10은 본 출원의 실시예에 따른 거친 필터링의 구현을 나타내는 도면이고, 도 11은 본 출원의 실시예에 따른 초보적인 매칭 관계의 구현을 나타내는 도면이고, 도 12는 본 출원의 실시예에 따른 표기 데이터의 구현을 나타내는 도면 2이고, 도 13은 본 출원의 실시예에 따른 타겟 매칭 관계의 구현을 나타내는 도면이다.
도 8에 도시된 바와 같이, 해당 방법은 아래의 단계들을 포함한다.
S801, 표기 데이터와 감지 데이터를 획득하되, 여기서, 표기 데이터는 적어도 하나의 제1 장애물의 표기 위치와 표기 유형을 포함하고, 감지 데이터는 적어도 하나의 제2 장애물의 감지 위치와 감지 유형을 포함한다.
여기서, S801의 구현 방식은 S701의 구현 방식과 유사하기에, 여기서 더 이상 중복 설명하지 않는다.
예를 들어 도 9를 결합하여 표기 데이터의 구현 방식에 대해 소개할 수 있으며, 현재 영상을 통해 표기하여 장애물의 위치와 유형을 표기할 수 있다고 가정하면, 도 9에 도시된 바와 같이, 도 9의 표기 영상에는 예를 들어 살수차의 영상 A가 포함될 수 있고, 영상 A에는 물을 살포하고 있는 살수차(900)를 포함하고, 해당 영상과 포인트 클라우드 데이터를 기초로 표기하여, 도 9에 도시된 물을 살포하고 있는 살수차의 표기도 B를 획득할 수 있으며, 현재 예시에서, 예를 들어 9개의 제1 장애물을 포함할 수 있고, 여기서, 901은 살수차 자체의 표기 결과이고, 902~909의 적색 박스는 물안개의 표기 결과이다.
가능한 구현 방식에서, 살수차(901)는 포지티브 샘플이고, 902~909는 네거티브 샘플이다.
실제 구현 과정에서, 표기 데이터의 구체적인 구현은 실제 수요에 따라 확정될 수 있으며, 본 실시예는 이에 대해 특별히 한정하지 않는다.
S802, 각각의 네거티브 샘플의 표기 위치와 각각의 제2 장애물의 감지 위치를 기초로, 각각의 네거티브 샘플과 각각의 제2 장애물 사이의 거리를 계산한다.
본 실시예에서, 표기 데이터 중의 네거티브 샘플과 감지 데이터 중의 제2 장애물을 기초로 초보적으로 선별할 수 있으며, 여기서, 매칭 성공할 수 있는 네거티브 샘플과 제2 장애물의 거리는 반드시 보다 가까울 것이며, 따라서 먼저 각각의 네거티브 샘플의 표기 위치와 각각의 제2 장애물의 감지 위치를 기초로, 각각의 네거티브 샘플과 각각의 제2 장애물 사이의 거리를 계산할 수 있다.
가능한 구현 방식에서, 상술한 거리는 예를 들어 유클리디언 거리일 수 있고, 네거티브 샘플은 복수 개일 수 있고, 제2 장애물도 복수 개일 수 있으며, 본 실시예는 네거티브 샘플과 제2 장애물 간의 두 개마다의 거리를 계산할 수 있고, 예를 들어 현재 네거티브 샘플(A)과 네거티브 샘플(B)이 존재하고, 제2 장애물(1)과 제2 장애물(2)이 존재할 때, 본 실시예는 A와 1의 거리, A와 2의 거리, B와 1의 거리, B와 2의 거리를 계산할 수 있다.
예를 들어 현재 표기 데이터에 존재하는 하나의 네거티브 샘플의 좌표는
Figure pat00003
이고, 현재 감지 데이터에 존재하는 하나의 제2 장애물의 좌표는
Figure pat00004
일 때, 예를 들어 아래의 수식 3을 통해 Pgt와 Ppt 간의 유클리디언 거리(D)를 계산할 수 있다.
Figure pat00005
수식 3
실제 구현 과정에서, 유클리디언 거리 외에, 좌표를 기초로 임의의 가능한 거리를 계산할 수도 있으며, 본 실시예는 이에 대해 특별히 한정하지 않는다.
S803, 네거티브 샘플과의 거리가 기설정 거리 이하인 제2 장애물을 보류하여, 거친 필터링 후의 나머지 제3 장애물을 획득한다.
본 실시예에서, 어느 제2 장애물과 네거티브 샘플의 거리가 기설정 거리 이하이면, 이 제2 장애물과 네거티브 샘플의 거리는 보다 가깝다는 것을 의미하기에, 해당 제2 장애물은 네거티브 샘플과 매칭 성공할 가능성이 있거나, 또는 해당 제2 장애물도 비 실체 장애물일 수 있다고 이해할 수 있으며, 따라서 네거티브 샘플과의 거리가 기설정 거리 이하인 제2 장애물을 보류하고, 기타 장애물을 제거하여 거친 필터링 후의 나머지 제3 장애물을 획득한다.
여기서, 구체적인 기설정 거리는 실제 수요에 따라 선택할 수 있으며, 본 실시예는 이에 대해 특별히 한정하지 않는다.
설명해야 할 바로는, 본 실시예에서 네거티브 샘플은 복수 개일 수 있고, 제2 장애물도 복수 개일 수 있기에, 하나의 제2 장애물은 복수의 네거티브 샘플과 모두 거리가 대응되어 있고, 여기서, 제2 장애물과 임의의 하나의 네거티브 샘플의 거리가 기설정 거리보다 작기만 하면, 해당 제2 장애물과 이 네거티브 샘플의 거리가 보다 가까운 것으로 간주할 수 있고, 나아가 해당 제2 장애물을 보류할 수 있는 제3 장애물로 확정할 수 있다.
예를 들어 도 10을 결합하여 이해할 수 있으며, 현재 3 개 제2 장애물이 존재하고, 각각 1, 2, 3이라고 가정하고, 또한 현재 3 개 네거티브 샘플이 존재하고, 각각 a, b, c이라고 가정하면, 여기서, 제2 장애물과 네거티브 샘플 간의 거리를 명확하게 보아낼 수 있도록 하기 위하여, 제2 장애물과 네거티브 샘플 식별자를 동일한 블록에 위치한다.
도 10으로부터, 현재 제2 장애물(1)과 네거티브 샘플(a) 간의 거리가 보다 작고, 제2 장애물(3)과 네거티브 샘플(c) 간의 거리가 보다 작다는 것을 확정할 수 있으며, 이 두 개의 제2 장애물에 대응되는 거리가 모두 기설정 거리보다 작다고 가정하면, 제2 장애물(1)과 제2 장애물(3)은 모두 보류할 수 있는 장애물인 것으로 확정할 수 있다.
하지만, 제2 장애물(2)은 네거티브 샘플(a) 또는 네거티브 샘플(b) 또는 네거티브 샘플(c)과의 거리가 모두 보다 멀고, 즉, 제2 장애물(2)과 대응되는 각각의 네거티브 샘플의 거리는 모두 기설정 거리보다 크기에 제2 장애물(2)을 필터링하여 제거할 수 있다.
따라서 도 10 중의 예시를 기초로 제2 장애물(1, 2, 3)에 대해 필터링한 후, 장애물 2를 필터링하여 제거하고, 1, 3을 보류 할 것이며, 따라서 현재 예시에서 확정한 거친 필터링 후의 나머지 제3 장애물이 바로 도 10 중의 1과 3이다.
상술한 도 10을 결합하여 예시적으로 설명하였으며, 실제 구현 과정에서, 제2 장애물의 구체적인 수량 및 실제 위치, 네거티브 샘플의 구체적인 수량 및 실제 위치는 모두 실제 시나리오에 따라 확정할 수 있으며, 본 실시예는 이에 대해 특별히 한정하지 않는다.
S804, 각각의 제3 장애물의 감지 위치와 각각의 네거티브 샘플의 표기 위치를 기초로, 위치가 중첩되는 제3 장애물과 네거티브 샘플을 확정한다.
S805, 위치 상에서 중첩이 존재하는 제3 장애물과 네거티브 샘플 사이에 초보적인 매칭 관계를 구축한다.
아래 S804와 S805를 함께 소개한다.
본 실시예에서, 거친 필터링 후의 나머지 제3 장애물은 모두 인접한 네거티브 샘플이 존재하는 장애물이므로, 본 실시예는 각각의 제3 장애물의 감지 위치와 각각의 네거티브 샘플의 표기 위치를 기초로, 처리해야 하는 장애물 수량을 효과적으로 감소시켜, 매칭 관계를 신속하게 효율적으로 확정할 수 있다.
가능한 구현 방식에서, 본 실시예의 매칭 관계는 엄격한 일 대 다 관계가 아닐 수 있으며, 예를 들어 다 대 다 관계일 수 있으며, 예를 들어 어느 제3 장애물이 어느 네거티브 샘플과 중첩이 존재하기만 하면, 이 제3 장애물과 이 네거티브 샘플이 매칭 관계가 존재하는 것으로 간주할 수 있다.
여기서 예를 들어 설명하면, 예를 들어 현재 거친 필터링 후의 나머지 제3 장애물의 집합이
Figure pat00006
이고, 예를 들어 현재 네거티브 샘플의 집합이
Figure pat00007
이다.
상술한 두 개의 집합을 기초로 매칭 관계를 확정하고,
Figure pat00008
에서 장애물(
Figure pat00009
)을 추출하고 표기 데이터의 네거티브 샘플 집합
Figure pat00010
중의 장애물(
Figure pat00011
)과의 매칭도를 계산하고,
Figure pat00012
Figure pat00013
가 지면에서의 투영 박스가 중첩되면,
Figure pat00014
Figure pat00015
는 매칭 관계가 존재하는 것으로 간주하고, 이로부터
Figure pat00016
Figure pat00017
간의 대응 관계
Figure pat00018
를 구축한다.
트레버스 완료한 후, 예를 들어 도 11에 도시된 바와 같은 다 대 다 매칭 관계를 획득할 수 있으며, 도 11을 참조하면 적어도 아래의 매칭 관계가 존재함을 확정할 수 있다.
Figure pat00019
.
설명해야 할 바로는 본 실시예에서 위치 중첩이 존재하는 것을 기초로 구축한 매칭 관계는 엄격한 일 대 일의 매칭 관계가 아니기에, 현재 위치 중접에 기반하여 구축한 것은 단지 초보적인 매칭 관계이고, 추후에 추가적인 처리를 수행하여 최종적인 매칭 관계를 획득해야 한다.
S806, 네거티브 샘플과 초보적인 매칭 관계가 존재하는 제3 장애물을 제4 장애물로 확정한다.
초보적인 매칭 관계에 대해 추가적인 처리를 수행할 때, 초보적인 매칭 관계가 존재하는 장애물을 기초로 처리해야 하므로, 본 실시예는 전반적인 제3 장애물로부터 네거티브 샘플과 초보적인 매칭 관계가 존재하는 제3 장애물을 선별하여, 제4 장애물을 획득할 수 있다.
예를 들어, 상술한 소개에 기반한 거친 필터링 후의 나머지 제3 장애물의 집합이
Figure pat00020
이고, 예를 들어 현재 네거티브 샘플의 집합이
Figure pat00021
이고, 상술한 도 11에 도시된 매칭 관계와 같다.
네거티브 샘플과 초보적인 매칭 관계가 존재하는 제3 장애물에 대해 새로운 집합
Figure pat00022
을 구성할 수 있으며, 도 11로부터
Figure pat00023
는 초보적인 매칭 관계가 존재하지 않는 것을 확정할 수 있기 때문에 집합
Figure pat00024
는 집합
Figure pat00025
와 비교할 때, 적어도
Figure pat00026
를 포함하지 않고, 여기서,
Figure pat00027
에 포함된 것은 바로 본 실시예에서 언급된 제4 장애물이다.
그리고, 제3 장애물과 초보적인 매칭 관계가 존재하는 네거티브 샘플로 새로운 집합
Figure pat00028
를 구성할 수 있고, 도 11로부터
Figure pat00029
은 초보적인 매칭 관계가 존재하지 않는 것을 확정할 수 있기 때문에 집합
Figure pat00030
은 집합
Figure pat00031
와 비교할 때, 적어도
Figure pat00032
을 포함하지 않는다.
S807, 제4 장애물이 기설정 조건을 만족하면, 제4 장애물에 대응되는 초보적인 매칭 관계를 제거하여, 업데이트 한 후의 타겟 매칭 관계를 획득하되, 여기서, 기설정 조건은 제4 장애물이 실체 장애물이라는 것을 지시하기 위한 것이다.
제4 장애물을 확정한 후에, 확정된 제4 장애물을 기초로, 순차적으로 각각의 제4 장애물이 기설정 조건을 만족하는지 여부를 판단할 수 있으며, 본 실시예에서, 기설정 조건은 제4 장애물이 실체 장애물이라는 것을 지시하기 위한 것이고, 이해할 수 있는 것은, 본 실시예는 네거티브 샘플을 기초로 검출해야 하는 것이고, 다시 말하면 비 실체 장애물에 대해 검출하는 것이기에, 기설정 조건을 만족하는 제4 장애물(즉, 실체 장애물)에 대하여, 이 부분의 제4 장애물의 초보적인 매칭 관계를 제거하여, 업데이트 한 후의 타겟 매칭 관계를 획득할 수 있다.
가능한 구현 방식에서, 기설정 조건은 제4 장애물의 감지 유형이 실체 장애물 유형인 것, 제4 장애물에 대응되는 영상 프레임의 수량이 기설정 수량보다 큰 것, 현재 영상 프레임 중의 제4 장애물의 길이와 각각의 영상 프레임 중의 제4 장애물의 길이의 평균값의 차이값이 제1 임계값 이하인 것, 현재 영상 프레임 중의 제4 장애물의 폭과 각각의 영상 프레임 중의 제4 장애물의 폭 평균값의 차이값이 제2 임계값 이하인 것, 현재 영상 프레임 중의 제4 장애물의 높이와 각각의 영상 프레임 중의 제4 장애물의 높이 평균값의 차이값이 제3 임계값 인 것 중에서 적어도 하나를 포함한다.
아래에는 구체적인 예시를 결합하여 각각의 제4 장애물이 기설정 조건을 만족하는지 여부를 판단하는 구현 방식에 대해 소개한다.
현재 기설정 조건은 실체 장애물인지 여부를 지시하는 조건이거나, 또는, 각각의 제4 장애물이 연속성을 구비하는지 여부를 판단하는 조건으로 이해할 수 있으며, 이런 판단을 수행해야 하는 원인은, 네거티브 샘플 장애물이 특수성을 구비하기 때문이며, 예를 들어 일부 물안개 장애물은 보통 장애물과 중첩된다.
도 12를 결합하여 이해할 수 있으며, 도 12에 도시된 바와 같이, 현재 영상 C에 대해 표기를 수행하고, 영상 C에 물을 살포하고 있는 살수차(1201), 살수차에 의해 살포된 물안개(1202), 살수차 좌측의 차량(1203), 살수차 우측의 차량(1204)이 포함된다고 가정하면, 해당 영상 C에 대해 표기한 후, 예를 들어 도 12에 도시된 표기도 D를 획득할 수 있다.
여기서, 장애물(1205)에 대응되는 것은 살수차(1201)이고, 장애물(1206)에 대응되는 것은 살수차에 의해 살포된 물안개(1202)이고, 장애물(1207)에 대응되는 것은 살수차 좌측의 차량(1203)이고, 장애물(1208)에 대응되는 것은 살수차 우측의 차량(1204)이다.
도 12중의 표기도 D로부터, 살수차에 의해 살포된 물의 표기 박스(1206)와 살수차 후의 좌우 2대의 차량의 표기 박스(1207, 1208)는 중첩되는 것을 확정할 수 있으며, 위치가 중첩되기에, 이때 감지 출력되는 이 두 대의 차량에 대응되는 장애물도 집합 P’에 존재할 것이다.
하지만 실질적으로 이 두 대의 차량은 가상 장애물이 아니며, 본 실시예에서 최종적으로 필요한 것은 가상 장애물이기에, 기설정 조건에 따라 판단하는 주요 목적은 이 일부분 장애물을 제거함과 동시에, 이 부분 장애물을 기초로 구축된 대응 관계도 해제하는 것이다.
아래 구체적인 예시를 결합하여 기설정 조건의 구현 방식에 대해 소개하며, 여기서, 장애물의 속성이 연속성을 구비하는지 여부를 판단하는 근거는,
장애물 유형이 예를 들어 차량, 사람, 바리케이드 등 실체 장애물 유형으로 검출되는 것이고, 여기서, 실체 장애물 유형은 실제 수요에 따라 선택하고 확정할 수 있으며, 본 실시예는 이에 대해 특별히 한정하지 않는다.
그리고, 장애물의 생명 주기가 10 프레임보다 크고, 다시 말하면, 장애물에 대응되는 영상 프레임의 수량이 기설정 수량보다 크며, 현재 예시에서 기설정 수량은 예를 들어 10일 수 있고, 실제 구현 과정에서, 기설정 수량의 구체적인 구현은 실제 수요에 따라 선택할 수 있으며, 본 실시예는 이에 대해 특별히 한정하지 않는다.
그리고, 해당 장애물의 전체 생명 주기 내의 길이, 폭, 높이 속성을 추출하고, 평균값(
Figure pat00033
)을 산출한다. 이때 장애물의 길이, 폭, 높이(L, W, H)가 평균값에 대한 변화율이 주어진 임계값보다 큰지 여부를 판단하고, 만약 크면, 해당 장애물은 이 시각에 형상 돌변이 나타났음을 의미하고, 이 장애물의 형태가 불안정함을 의미하며, 이때 대응 관계는 보류해야 한다. 그렇지 않으면 장애물의 형태가 보다 안정적임을 의미하고, 물안개, 먼지 등으로 인한 가상 장애물이 아닌 것을 의미하며, 대응 관계는 제거되어야 한다.
다시 말하면, 본 실시예는 기설정 조건을 만족하는 제4 장애물, 대응되는 초보적인 매칭 관계를 제거할 수 있으며, 현재 예시적으로 소개한다.
예를 들어 현재의 제4 장애물의 집합은
Figure pat00034
이고, 해당 집합에서 예를 들어 기설정 조건을 만족하는 제4 장애물이
Figure pat00035
이라는 것을 확정할 수 있고, 이때
Figure pat00036
에 대응되는 매칭 관계를 추출하고, 여기서,
Figure pat00037
에 대응되는 매칭 관계는
Figure pat00038
를 포함하고, 이때 이 두 개의 매칭 관계를 제거한 후, 획득된 타겟 매칭 관계가 바로 도 13에 도시된 바와 같으며, 도 13을 참조하면 적어도 아래와 같은 매칭 관계가 존재함을 확정할 수 있다.
Figure pat00039
.
최종적으로 안정된 장애물을 제거한 후의 매핑 집합
Figure pat00040
을 획득한다.
S808, 제4 장애물과 타겟 매칭 관계가 존재하는 네거티브 샘플을 타겟 장애물로 확정한다.
상기 확정된 타겟 매칭 관계는 바로 최종의 매칭 관계이고, 제4 장애물과 최종의 타겟 매칭 관계가 존재하는 네거티브 샘플을 타겟 장애물로 확정하고, 예를 들어 상술한 확정된 타겟 매칭 관계를 기초로 안정된 장애물을 제거한 후의 매핑 집합이
Figure pat00041
으로 확정되면, 집합
Figure pat00042
중의 네거티브 샘플은 바로 본 실시예의 타겟 장애물이다.
S809, 타겟 장애물의 수량과 네거티브 샘플의 수량의 비율을 감지 데이터의 검출 결과로 확정하되, 여기서, 검출 결과는 네거티브 샘플의 리콜률이다.
타겟 장애물은 일부분 네거티브 샘플을 제거한 후 획득된 장애 영역이고, 네거티브 샘플은 원래부터 하나의 초기 수량이 대응되어 있으며, 본 실시예에서 타겟 장애물의 수량과 네거티브 샘플의 수량의 비율을 계산하면, 감지 데이터의 네거티브 샘플의 리콜을 획득할 수 있으며, 이로부터 네거티브 샘플의 검출을 효과적으로 구현한다.
상술한 예시를 결합하여 설명하면, 최종적으로 획득된 집합
Figure pat00043
중의 엘리먼트의 총 수는 타겟 장애물의 수량이고, 원시 집합 Q중의 엘리먼트의 총 수는 바로 네거티브 샘플의 수량이고, 집합
Figure pat00044
중의 엘리먼트의 총 수에서 원시 집합 Q 중의 엘리먼트 총 수를 나누면, 네거티브 샘플의 리콜률을 획득할 수 있으며, 여기서, 네거티브 샘플의 리콜률이 클수록, 리콜한 네거티브 샘플이 많고, 감지 효과가 좋지 않음을 나타내고, 반대일 경우 감지 효과가 더욱 좋음을 의미한다.
실제 구현 과정에서, 상기 획득된 데이터를 기초로 임의의 검출 결과를 확정할 수도 있으며, 본 실시예는 검출 결과의 구체적인 구현 방식에 대해 특별한 한정을 하지 않으며, 네거티브 샘플의 인식에 대한 검출을 구현할 수 있기만 하면 가능하다.
본 출원의 실시예에 따른 감지 데이터를 검출하는 방법은, 우선 감지 데이터 중의 제2 장애물과 표기 데이터 중의 네거티브 샘플 간의 거리를 기초로, 감지 데이터 중의 제2 장애물에 대해 초보적인 거친 필터링을 수행하여, 네거티브 샘플과의 거리가 보다 가까운 제3 장애물을 획득할 수 있으며, 그 다음 제3 장애물을 기초로 매칭을 수행하여, 매칭해야 하는 장애물의 수량을 효과적으로 감소할 수 있으며, 이로부터 매칭 처리의 효율을 향상시킨다. 그리고 위치 중첩을 기초로 초보적인 매칭 관계를 확정하고, 다시 기설정 조건을 기초로 선별하여, 최종적인 타겟 매칭 관계를 획득함으로써, 일 대 일 정확한 매칭 관계를 확정해야 함으로 인한 처리의 복잡도가 보다 높은 것을 방지하며, 본 실시예는 간단하고 효율적이며, 정확하게 매칭 관계를 확정하는 것을 구현할 수 있으며, 상술한 기설정 조건은 실체 장애물에 대한 필터링을 구현할 수 있고, 최종적으로 확정된 타겟 매칭 관계를 기초로 검출 결과를 확정하여, 인식된 네거티브 샘플에 대한 검출을 효과적으로 구현할 수 있으며, 감지 데이터에 대한 검출의 포괄성을 효과적으로 향상시킨다.
상술한 실시예의 기초 상에서, 도 14를 결합하여 본 출원의 실시예에 따른 감지 데이터를 검출하는 방법의 전반적인 프로세스에 대해 체계적인 소개를 진행하며, 도 14는 본 출원의 실시예에 따른 감지 데이터를 검출하는 방법의 흐름도이다.
도 14에 도시된 바와 같이,
우선 시스템의 입력 부분을 검출하여, 표기 데이터와 감지 시스템에 의해 출력된 감지 데이터를 획득할 수 있으며, 표기 데이터는 장애물의 감지 시스템의 보고 필요 여부를 근거로 하여, 표기 데이터를 포지티브 샘플과 네거티브 샘플로 나눌 수 있고, 여기서, 포지티브 샘플은 감지 시스템이 보고해야 하는 장애물이고, 네거티브 샘플은 감지 시스템이 보고할 필요가 없는 장애물이다.
그 다음, 네거티브 샘플과 감지 데이터에 대해 검출하고, 우선 감지 데이터와 네거티브 샘플 간의 거리가 거리 임계값보다 작은지 여부를 판단하고, 만약 작지 않으면, 이 감지 데이터의 장애물과 네거티브 샘플 간의 거리가 보다 멀다는 것을 의미하기에 실체 장애물일 것이고, 따라서 이 부분의 감지 데이터를 제거할 수 있다.
거리가 거리 임계값보다 작은 감지 데이터와 네거티브 샘플에 대해 추가적인 판단을 수행하고, 구체적으로, 이 부분의 감지 데이터와 네거티브 샘플 사이의 매칭 관계를 확정할 수 있으며, 본 실시예 중의 매칭 관계는 예를 들어 위치 중첩일 수 있으며, 즉 매칭 관계가 존재하는 것으로 확정할 수 있으며, 네거티브 샘플과 매칭 관계가 존재하는 것으로 확정된 감지 데이터를 보류하고, 네거티브 샘플과 매칭 관계가 존재하지 않는 것으로 확정된 감지 데이터를 제거한다.
그 다음, 매칭 관계가 존재하는 것으로 확정된 감지 데이터를 기초로, 기설정 조건을 만족하는지 여부를 판단하고, 예를 들어 감지 장애물 속성이 일치성을 구비하는지 여부를 판단하고, 만약 일치성을 구비하면, 이 부분의 감지 데이터는 실체 장애물일 것이라는 것을 나타내고, 이때 이 부분의 감지 데이터를 제거하고 이 부분의 감지 데이터에 대응되는 매칭 관계도 제거한다.
일치성을 구비하지 않는 감지 데이터를 보류하고, 이의 대응되는 매칭 관계를 기초로, 매칭 성공한 네거티브 샘플을 확정하여, TP를 획득할 수 있고, 매칭 성공하지 못한 네거티브 샘플을 확정하여, FN을 획득할 수 있으며, 여기서, TP와 FN의 의미는 상술한 소개와 유사하다.
이어서, 예를 들어 아래의 수식 4에 따라 네거티브 샘플의 리콜률을 획득할 수 있다.
Figure pat00045
수식 4
여기서, Recall은 네거티브 샘플의 리콜률이며, 이해할 수 있는 것은
Figure pat00046
은 네거티브 샘플의 수량이고, TP는 상기 소개한 타겟 장애물의 수량이다.
상술한 바를 종합하면, 자율 주행 기술이 끊임없이 성숙되고 있는 오늘 날에, 포지티브 샘플 장애물에 대한 감지 알고리즘과 검출 알고리즘은 점점 완벽해지고 있으며, 이때 네거티브 샘플에 대한 감지 효과는 점차적으로 사람들의 중시를 받고 있다. 물안개, 배기 가스 등 장애물에 의한 오보는 종종 메인 차량의 긴급 브레이크를 야기시켜 추돌 등 사고의 발생 확률을 증가시키며, 안전 주행에 불리하다. 네거티브 샘플 장애물은 형태의 불규칙 및 그 성질의 특수성으로 인해, 포지티브 샘플과 중첩되어 존재할 수 있으며, 따라서 포지티브 샘플의 검출 규칙을 직접 네거티브 샘플의 검출에 적용할 수 없다.
본 출원은 전문적으로 네거티브 샘플에 대한 검출 방법을 제안하는 바, 감지 시스템의 표기 데이터 중의 네거티브 샘플에 대한 감지 효과를 검출할 수 있어 감지 알고리즘의 반복에 대해 참고 의견을 제공함으로써 무인 차량의 감지 시스템의 포지티브 반복에 유리하다.
도 15는 출원의 실시예의 감지 데이터를 검출하는 장치의 구조도이다. 도 15에 도시된 바와 같이, 본 실시예의 감지 데이터를 검출하는 장치(1500)는 획득모듈(1501), 필터링모듈(1502), 확정모듈(1503)을 포함할 수 있다.
획득모듈(1501)은, 표기 데이터와 감지 데이터를 획득하되, 여기서, 상기 표기 데이터는 적어도 하나의 제1 장애물의 표기 위치와 표기 유형을 포함하고, 상기 감지 데이터는 적어도 하나의 제2 장애물의 감지 위치와 감지 유형을 포함하며;
필터링모듈(1502)은, 상기 표기 데이터 중의 네거티브 샘플을 기초로, 상기 감지 데이터 중의 제2 장애물에 대해 거친 필터링을 수행하여, 거친 필터링 후의 나머지 제3 장애물을 획득하되 여기서, 상기 네거티브 샘플은 비 실체 장애물이고;
확정모듈(1503)은, 상기 제3 장애물과 상기 네거티브 샘플의 매칭 관계를 확정하고, 상기 제3 장애물과 상기 매칭 관계가 존재하는 네거티브 샘플을 타겟 장애물로 확정하며;
상기 확정모듈(1503)은 또한 상기 타겟 장애물의 수량과 상기 제1 장애물의 수량을 기초로, 상기 감지 데이터의 검출 결과를 확정한다.
가능한 구현 방식에서, 상기 필터링모듈(1502)은,
각각의 상기 네거티브 샘플의 표기 위치와 각각의 상기 제2 장애물의 감지 위치를 기초로, 각각의 상기 네거티브 샘플과 각각의 상기 제2 장애물 사이의 거리를 계산하는 컴퓨팅유닛;
상기 네거티브 샘플과의 거리가 기설정 거리 이하인 제2 장애물을 보류하여, 거친 필터링 후의 나머지 제3 장애물을 획득하는 필터링유닛을 포함한다.
가능한 구현 방식에서, 상기 확정모듈(1503)은,
각각의 상기 제3 장애물의 감지 위치와 각각의 상기 네거티브 샘플의 표기 위치를 기초로, 위치가 중첩되는 제3 장애물과 네거티브 샘플을 확정하는 확정유닛;
상기 위치가 중첩되는 제3 장애물과 네거티브 샘플 간의 초보적인 매칭 관계를 구축하는 구축유닛을 포함하고;
상기 확정유닛은 또한, 상기 초보적인 매칭 관계 및 상기 제3 장애물을 기초로, 타겟 매칭 관계를 확정한다.
가능한 구현 방식에서,
상기 확정유닛은 또한, 네거티브 샘플과 상기 초보적인 매칭 관계가 존재하는 제3 장애물을 제4 장애물로 확정하고;
상기 확정모듈(1503)은,
상기 제4 장애물이 기설정 조건을 만족하면, 상기 제4 장애물에 대응되는 초보적인 매칭 관계를 제거하여, 업데이트 한 후의 타겟 매칭 관계를 획득하되, 여기서, 상기 기설정 조건은 상기 제4 장애물이 실체 장애물이라는 것을 지시하기 위한 것인 업데이트 유닛을 더 포함한다.
가능한 구현 방식에서,
상기 확정유닛은 또한, 제4 장애물과 상기 타겟 매칭 관계가 존재하는 네거티브 샘플을 타겟 장애물로 확정한다.
가능한 구현 방식에서, 상기 기설정 조건은 상기 제4 장애물의 감지 유형이 실체 장애물 유형인 것, 상기 제4 장애물에 대응되는 영상 프레임의 수량이 기설정 수량보다 큰 것, 현재 영상 프레임 중의 상기 제4 장애물의 길이와 각각의 영상 프레임 중의 제4 장애물의 길이의 평균값의 차이값이 제1 임계값 이하인 것, 현재 영상 프레임 중의 상기 제4 장애물의 폭과 각각의 영상 프레임 중의 제4 장애물의 폭의 평균값의 차이값이 제2 임계값 이하인 것, 현재 영상 프레임 중의 상기 제4 장애물의 높이와 각각의 영상 프레임 중의 제4 장애물의 높이의 평균값의 차이값이 제3 임계값 이하인 것 중 적어도 하나를 포함한다.
가능한 구현 방식에서,
상기 확정유닛은 또한, 상기 타겟 장애물의 수량과 상기 네거티브 샘플의 수량의 비율을 상기 감지 데이터의 검출 결과로 확정하되, 여기서, 상기 검출 결과는 네거티브 샘플의 리콜률이다.
본 출원은 감지 데이터를 검출하는 방법 및 장치를 제공하는 바, 지능형 교통 분야 중의 자율 주행, 차량 도로 협동 등 분야에 적용하여, 검출의 포괄성을 효과적으로 확보하는 목적을 달성한다.
본 출원의 실시예에 따르면, 본 출원은 전자기기와 판독 가능 저장매체를 더 제공한다.
본 출원의 실시예에 따르면, 본 출원은 컴퓨터 프로그램 제품을 더 제공하는 바, 프로그램 제품은 컴퓨터 프로그램을 포함하고, 컴퓨터 프로그램은 판독 가능 저장매체에 저장되고, 전자기기의 적어도 하나의 프로세서는 판독 가능 저장매체로부터 컴퓨터 프로그램을 판독할 수 있고, 적어도 하나의 프로세서가 컴퓨터 프로그램을 실행함으로써 전자기기가 상술한 임의의 실시예에 따른 방안을 실행하도록 한다.
본 출원의 실시예에 따르면, 본 출원은 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램을 더 제공하며, 상기 컴퓨터 프로그램 중의 명령이 프로세서에 의해 실행될 때, 상술한 임의의 실시예에 따른 방법을 구현한다.
본 출원의 실시예에 따르면, 본 출원은 또한 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램을 제공하며, 상기 컴퓨터 프로그램 중의 명령이 프로세서에 의해 실행될 때, 상술한 임의의 실시예에 따른 방안을 실행하도록 한다.
도 16은 본 출원의 실시예를 구현하는데 사용될 수 있는 예시적인 전자기기(1600)를 나타내는 블럭도이다. 전자기기는 다양한 형태의 디지털 컴퓨터, 예컨대, 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크스테이션, 개인 정보 단말기, 서버, 블레이드 서버, 대형 컴퓨터, 및 기타 적합한 컴퓨터를 나타내기 위한 것이다. 전자기기는 다양한 형태의 이동장치, 예컨대, 개인 정보 단말기, 셀폰, 스마트 폰, 웨어러블 기기 및 기타 유사한 컴퓨팅 장치를 더 나타낼 수도 있다. 본문에 개시된 부재, 이들의 연결 및 관계, 및 이들의 기능은 단지 예시적인 것이며, 본문에 개시된 것 및/또는 요구하는 본 출원의 구현을 한정하려는 의도가 아니다.
도 16에 도시된 바와 같이, 전자기기(1600)는, 판독 전용 메모리(ROM, 1602)에 저장된 컴퓨터 프로그램 또는 저장유닛(1608)으로부터 랜덤 액세스 메모리(RAM, 1603)에 로딩된 컴퓨터 프로그램에 따라, 다양한 적합한 동작과 처리를 실행하는 컴퓨팅 유닛(1601)을 포함한다. RAM(1603)에는, 기기(1600)의 동작에 필요한 다양한 프로그램과 데이터가 저장될 수도 있다. 컴퓨팅 유닛(1601), ROM(1602) 및 RAM(1603)은 버스(1604)를 통해 서로 연결된다. 입출력(I/O) 인터페이스(1605)도 버스(1604)에 연결된다.
기기(1600)의 여러 부재는 I/O 인터페이스(1605)에 연결되는 바, 예를 들면 키보드, 마우스 등 입력유닛(1606); 예를 들면 다양한 유형의 디스플레이, 스피커 등 출력유닛(1607); 예를 들면 마그네트 디스크, 광 디스크 등 저장유닛(1608); 및 예를 들면 네트워크 카드, 모뎀, 무선통신 송수신기 등 통신유닛(1609)을 포함한다. 통신유닛(1609)은 기기(1600)가 인터넷과 같은 컴퓨터 네트워크 및/또는 다양한 전신 네트워크를 통해 기타 기기와 정보/데이터를 교환하는 것을 허용한다.
컴퓨팅 유닛(1601)은 처리와 컴퓨팅 능력을 구비한 다양한 통용 및/또는 전용 처리 모듈일 수 있다. 컴퓨팅 유닛(1601)의 일부 예시는 중앙 처리유닛(CPU), 그래픽 처리유닛(GPU), 다양한 전용 인공지능(AI) 컴퓨팅 칩, 다양한 머신 러닝 모델 알고리즘을 실행하는 컴퓨팅 유닛, 디지털 신호 프로세서(DSP) 및 임의의 적합한 프로세서, 컨트롤러, 마이크로 컨트롤러 등을 포함하지만 이에 한정되지 않는다. 컴퓨팅 유닛(1601)은 예컨대, 감지 데이터를 검출하는 방법과 같은 상기 설명된 각 방법과 처리를 실행하기 위한 것이다. 예를 들면, 일부 실시예에서, 감지 데이터를 검출하는 방법은 머신 판독 가능 매체, 예를 들면 저장유닛(1608)에 유형적으로 포함되는 컴퓨터 소프트웨어 프로그램으로 구현될 수 있다. 일부 실시예에서, 컴퓨터 프로그램의 부분 또는 전부는ROM(1602) 및/또는 통신유닛(1609)을 거쳐 기기(1600)에 로딩 및/또는 장착될 수 있다. 컴퓨터 프로그램이 RAM(1603)에 로딩되어 컴퓨팅 유닛(1601)에 의해 실행될 때, 상기 설명된 감지 데이터를 검출하는 방법의 하나 또는 복수의 단계를 실행할 수 있다. 선택적으로, 기타 실시예에서, 컴퓨팅 유닛(1601)은 기타 임의의 적합한 방식으로(예를 들면, 펌웨어를 통해) 감지 데이터를 검출하는 방법을 실행하도록 구성될 수 있다.
본 문에서 이상 설명된 시스템과 기술의 다양한 구현 방식은 디지털 전자 회로 시스템, 집적 회로 시스템, 필드 프로그램 가능 게이트 어레이(FPGA), 전용 집적회로(ASIC), 전용 표준 제품(ASSP), 시스템 온 칩의 시스템(SOC), 캐리어 프로그램 가능 로직 기기(CPLD), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 구현 방식은, 하나 또는 복수의 컴퓨터 프로그램에서 실시되는 것을 포함할 수 있으며, 해당 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 시스템에서 실행 및/또는 해석될 수 있고, 해당 프로그램 가능 프로세서는 전용 또는 통용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 또한, 데이터 및 명령을 해당 저장 시스템, 해당 적어도 하나의 입력 장치 및 해당 적어도 하나의 출력 장치에 전송할 수 있다.
본 출원의 방법을 구현하기 위한 프로그램 코드는 하나 또는 복수의 프로그램 언어 중 임의의 조합을 사용하여 작성될 수 있다. 이러한 프로그램 코드는 통용 컴퓨터, 전용 컴퓨터 또는 기타 프로그램 가능 데이터 처리 장치의 프로세서 또는 제어기에 제공되어, 프로그램 코드가 프로세서 또는 제어기에 의해 실행될 때 흐름도 및/또는 블록도에 규정된 기능/동작이 실시되도록 할 수 있다. 프로그램 코드는 완전하게 머신에서 실행될 수 있고, 부분적으로 머신에서 실행될 수도 있으며, 독립된 소프트웨어 패키지로서 부분적으로 머신에서 실행되고 부분적으로 원격 머신에서 실행되거나, 또는 완전하게 원격 머신 또는 서버에서 실행될 수 있다.
본 출원의 상하문에서 머신 판독 가능 매체는 명령 실행 시스템, 장치 또는 기기에 사용되거나, 또는 명령 실행 시스템, 장치 또는 기기와 결합적으로 사용되는 프로그램을 포함하거나 저장할 수 있는 유형인 매체일 수 있다. 머신 판독 가능 매체는 머신 판독 가능 신호 매체 또는 머신 판독 가능 저장매체일 수 있다. 머신 판독 가능 매체는 전자, 마그네트, 광학, 적외선 또는 반도체 시스템, 장치 또는 기기, 또는 상술한 내용의 임의의 적합한 결합을 포함할 수 있지만 이에 한정되지 않는다. 머신 판독 가능 저장매체의 더욱 구체적인 예시는 하나 또는 복수의 와이어 기반 전기 연결, 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 삭제 가능 프로그램 가능 롬(EPROM 또는 플래시 메모리), 광케이블, 휴대용 콤팩트 디스크 롬(CD-ROM), 광학 저장기기, 자기 저장 기기 또는 상술한 내용의 임의의 적합한 조합을 포함한다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터 상에서 여기에 설명되는 시스템 및 기술을 실시할 수 있으며, 해당 컴퓨터는 사용자에게 정보를 표시하기 위한 표시장치(예를 들어, CRT(캐소드레이 튜브) 또는 LCD(액정 디스플레이) 모니터); 및 키보드 지향 장치(예를 들어, 마우스 또는 트랙볼)를 구비하고, 사용자는 해당 키보드와 해당 지향 장치를 통해 입력을 컴퓨터로 제공할 수 있다. 기타 종류의 장치는 또한 사용자와의 인터랙션을 제공할 수도 있다. 예를 들어, 사용자에게 제공되는 피드백은 임의의 형태의 센싱 피드백(예를 들어, 시각적 피드백, 청각적 피드백, 또는 촉각적 피드백)일 수 있고; 임의의 형태(사운드 입력, 음성 입력 또는 촉각 입력)을 통해 사용자로부터의 입력을 수신할 수 있다.
여기에 설명되는 시스템과 기술은 백그라운드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버로서), 또는 중간부재를 포함하는 컴퓨팅 시스템(예를 들어, 응용 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 유저 인터페이스 또는 인터넷 브라우저를 구비하는 사용자 컴퓨터, 사용자는 해당 그래픽 유저 인터페이스 또는 해당 인터넷 브라우저를 통해 여기에 설명되는 시스템 및 기술의 실시방식과 인터랙션할 수 있다), 또는 이러한 백그라운드 부재, 중간 부재, 또는 프론트 엔드 부재를 포함하는 임의의 조합의 컴퓨팅 시스템에서 실시될 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신망)을 통해 시스템의 부재를 서로 연결시킬 수 있다. 통신망의 예시로서, 랜(LAN), 광역 통신망(WAN) 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트와 서버를 포함할 수 있다. 클라이언트와 서버는 일반적으로 서로 멀리 떨어져 있으며 통상적으로 통신망을 통해 인터랙션한다. 상응한 컴퓨터 상에서 실행되며 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램을 통해 클라이언트와 서버의 관계를 생성한다. 서버는 클라우드 서버일 수 있고, 클라우드 컴퓨팅 서버 또는 클라우드 호스트라고 불리우며, 클라우드 컴퓨팅 서버 시스템 중의 하나의 호스트 제품으로서, 종래의 물리적인 호스트와 VPS 서버(“Virtual Private Server”, 또는 “VPS”로 약칭)에서 관리 난이도가 크고, 서비스 확장성이 약한 결함을 해결한다. 서버는 분포식 시스템 서버일 수도 있고, 또는 블록 체인을 결합한 서버일 수 있다.
상술한 다양한 형태의 프로세스를 사용하여 단계를 재배열, 추가 또는 삭제할 수 있음을 이해해야 한다. 예를 들어, 본 출원에 기재된 각 단계는 병열로 수행될 수 있고 순차적으로 수행될 수도 있고 서로 다른 순서로 수행될 수도 있으며, 본 출원에 개시된 기술 솔루션이 원하는 결과를 얻을 수만 있다면, 본문에서는 여기서 한정하지 않는다.
상술한 구체적인 실시형태는, 본 출원의 보호범위에 대한 한정이 아니다. 본 분야의 통상의 지식을 가진 자라면, 설계 수요와 기타 요소를 기초로, 다양한 수정, 조합, 서브 조합 및 대체를 가할 수 있음을 이해할 수 있을 것이다. 본 출원의 정신과 원칙 내에서 이루어진 모든 수정, 동등한 대체와 개진 등은 모두 본 출원의 보호 범위 내에 속한다.

Claims (17)

  1. 표기 데이터와 감지 데이터를 획득하되, 여기서, 상기 표기 데이터는 적어도 하나의 제1 장애물의 표기 위치와 표기 유형을 포함하고, 상기 감지 데이터는 적어도 하나의 제2 장애물의 감지 위치와 감지 유형을 포함하는 단계;
    상기 표기 데이터 중의 네거티브 샘플을 기초로, 상기 감지 데이터 중의 제2 장애물에 대해 거친 필터링을 수행하여, 거친 필터링 후의 나머지 제3 장애물을 획득하되, 여기서, 상기 네거티브 샘플은 비 실체 장애물인 단계;
    상기 제3 장애물과 상기 네거티브 샘플의 매칭 관계를 확정하고, 상기 제3 장애물과 상기 매칭 관계가 존재하는 네거티브 샘플을 타겟 장애물로 확정하는 단계;
    상기 타겟 장애물의 수량과 상기 제1 장애물의 수량을 기초로, 상기 감지 데이터의 검출 결과를 확정하는 단계를 포함하는 감지 데이터를 검출하는 방법.
  2. 제1항에 있어서, 상기 표기 데이터 중의 네거티브 샘플을 기초로, 상기 감지 데이터 중의 제2 장애물에 대해 거친 필터링을 수행하여, 거친 필터링 후의 나머지 제3 장애물을 획득하는 상기 단계는,
    각각의 상기 네거티브 샘플의 표기 위치와 각각의 상기 제2 장애물의 감지 위치를 기초로, 각각의 상기 네거티브 샘플과 각각의 상기 제2 장애물 사이의 거리를 계산하는 단계;
    상기 네거티브 샘플과의 거리가 기설정 거리 이하인 제2 장애물을 보류하여, 거친 필터링 후의 나머지 제3 장애물을 획득하는 단계를 포함하는 방법.
  3. 제1항에 있어서, 상기 제3 장애물과 상기 네거티브 샘플의 매칭 관계를 확정하는 상기 단계는,
    각각의 상기 제3 장애물의 감지 위치와 각각의 상기 네거티브 샘플의 표기 위치를 기초로, 위치가 중첩되는 제3 장애물과 네거티브 샘플을 확정하는 단계;
    상기 위치가 중첩되는 제3 장애물과 네거티브 샘플 간의 초보적인 매칭 관계를 구축하는 단계;
    상기 초보적인 매칭 관계 및 상기 제3 장애물을 기초로, 타겟 매칭 관계를 확정하는 단계를 포함하는 방법.
  4. 제3항에 있어서, 상기 초보적인 매칭 관계 및 상기 제3 장애물을 기초로, 타겟 매칭 관계를 확정하는 상기 단계는,
    상기 네거티브 샘플과 상기 초보적인 매칭 관계가 존재하는 제3 장애물을 제4 장애물로 확정하는 단계;
    상기 제4 장애물이 기설정 조건을 만족하면, 상기 제4 장애물에 대응되는 초보적인 매칭 관계를 제거하여, 업데이트 한 후의 타겟 매칭 관계를 획득하되, 여기서, 상기 기설정 조건은 상기 제4 장애물이 실체 장애물이라는 것을 지시하기 위한 단계를 포함하는 방법.
  5. 제4항에 있어서, 상기 제3 장애물과 상기 매칭 관계가 존재하는 네거티브 샘플을 타겟 장애물로 확정하는 상기 단계는,
    상기 제4 장애물과 상기 타겟 매칭 관계가 존재하는 네거티브 샘플을 타겟 장애물로 확정하는 단계를 포함하는 방법.
  6. 제4항에 있어서, 상기 기설정 조건은, 상기 제4 장애물의 감지 유형이 실체 장애물 유형인 것, 상기 제4 장애물에 대응되는 영상 프레임의 수량이 기설정 수량보다 큰 것, 현재 영상 프레임 중의 상기 제4 장애물의 길이와 각각의 영상 프레임 중의 제4 장애물의 길이의 평균값의 차이값이 제1 임계값 이하인 것, 현재 영상 프레임 중의 상기 제4 장애물의 폭과 각각의 영상 프레임 중의 제4 장애물의 폭의 평균값의 차이값이 제2 임계값 이하인 것, 현재 영상 프레임 중의 상기 제4 장애물의 높이와 각각의 영상 프레임 중의 제4 장애물의 높이의 평균값의 차이값이 제3 임계값 이하인 것 중 적어도 하나를 포함하는 방법.
  7. 제1항 내지 제6항 중 임의의 한 항에 있어서, 상기 타겟 장애물의 수량과 상기 제1 장애물의 수량을 기초로, 상기 감지 데이터의 검출 결과를 확정하는 상기 단계는,
    상기 타겟 장애물의 수량과 상기 네거티브 샘플의 수량의 비율을 상기 감지 데이터의 검출 결과로 확정하되, 여기서, 상기 검출 결과는 네거티브 샘플의 리콜률인 단계를 포함하는 방법.
  8. 표기 데이터와 감지 데이터를 획득하되, 여기서, 상기 표기 데이터는 적어도 하나의 제1 장애물의 표기 위치와 표기 유형을 포함하고, 상기 감지 데이터는 적어도 하나의 제2 장애물의 감지 위치와 감지 유형을 포함하는 획득모듈;
    상기 표기 데이터 중의 네거티브 샘플을 기초로, 상기 감지 데이터 중의 제2 장애물에 대해 거친 필터링을 수행하여, 거친 필터링 후의 나머지 제3 장애물을 획득하되, 여기서, 상기 네거티브 샘플은 비 실체 장애물인 필터링모듈;
    상기 제3 장애물과 상기 네거티브 샘플의 매칭 관계를 확정하고, 상기 제3 장애물과 상기 매칭 관계가 존재하는 네거티브 샘플을 타겟 장애물로 확정하는 확정모듈을 포함하되,
    상기 확정모듈은 또한, 상기 타겟 장애물의 수량과 상기 제1 장애물의 수량을 기초로, 상기 감지 데이터의 검출 결과를 확정하는 감지 데이터를 검출하는 장치.
  9. 제8항에 있어서, 상기 필터링모듈은,
    각각의 상기 네거티브 샘플의 표기 위치와 각각의 상기 제2 장애물의 감지 위치를 기초로, 각각의 상기 네거티브 샘플과 각각의 상기 제2 장애물 사이의 거리를 계산하는 컴퓨팅유닛;
    상기 네거티브 샘플과의 거리가 기설정 거리 이하인 제2 장애물을 보류하여, 거친 필터링 후의 나머지 제3 장애물을 획득하는 필터링유닛을 포함하는 장치.
  10. 제8항에 있어서, 상기 확정모듈은,
    각각의 상기 제3 장애물의 감지 위치와 각각의 상기 네거티브 샘플의 표기 위치를 기초로, 위치가 중첩되는 제3 장애물과 네거티브 샘플을 확정하는 확정유닛;
    상기 위치가 중첩되는 제3 장애물과 네거티브 샘플 간의 초보적인 매칭 관계를 구축하는 구축유닛을 포함하되,
    상기 확정유닛은 또한, 상기 초보적인 매칭 관계 및 상기 제3 장애물을 기초로, 타겟 매칭 관계를 확정하는 장치.
  11. 제10항에 있어서,
    상기 확정유닛은 또한, 상기 네거티브 샘플과 상기 초보적인 매칭 관계가 존재하는 제3 장애물을 제4 장애물로 확정하고;
    상기 확정모듈은,상기 제4 장애물이 기설정 조건을 만족하면, 상기 제4 장애물에 대응되는 초보적인 매칭 관계를 제거하여, 업데이트 한 후의 타겟 매칭 관계를 획득하되, 여기서, 상기 기설정 조건은 상기 제4 장애물이 실체 장애물이라는 것을 지시하기 위한 것인 업데이트 유닛을 더 포함하는 장치.
  12. 제11항에 있어서,
    상기 확정유닛은 또한, 상기 제4 장애물과 상기 타겟 매칭 관계가 존재하는 네거티브 샘플을 타겟 장애물로 확정하는 장치.
  13. 제11항에 있어서, 상기 기설정 조건은 상기 제4 장애물의 감지 유형이 실체 장애물 유형인 것, 상기 제4 장애물에 대응되는 영상 프레임의 수량이 기설정 수량보다 큰 것, 현재 영상 프레임 중의 상기 제4 장애물의 길이와 각각의 영상 프레임 중의 제4 장애물의 길이의 평균값의 차이값이 제1 임계값 이하인 것, 현재 영상 프레임 중의 상기 제4 장애물의 폭과 각각의 영상 프레임 중의 제4 장애물의 폭의 평균값의 차이값이 제2 임계값 이하인 것, 현재 영상 프레임 중의 상기 제4 장애물의 높이와 각각의 영상 프레임 중의 제4 장애물의 높이의 평균값의 차이값이 제3 임계값 이하인 것 중 적어도 하나를 포함하는 장치.
  14. 제8항 내지 제13항 중 임의의 한 항에 있어서,
    상기 확정유닛은 또한, 상기 타겟 장애물의 수량과 상기 네거티브 샘플의 수량의 비율을, 상기 감지 데이터의 검출 결과로 확정하되, 여기서, 상기 검출 결과는 네거티브 샘플의 리콜률인 장치.
  15. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리;를 포함하고, 여기서,
    상기 메모리에는 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되고, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 제1항 내지 제6항 중 임의의 한 항에 따른 방법을 수행할 수 있도록 하는 전자기기.
  16. 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장매체에 있어서, 상기 컴퓨터 명령은 컴퓨터가 제1항 내지 제6항 중 임의의 한 항에 따른 방법을 수행하도록 하는 비일시적 컴퓨터 판독 가능 저장매체.
  17. 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램에 있어서,
    상기 컴퓨터 프로그램 중의 명령이 프로세서에 의해 실행될 때, 제1항 내지 제6항 중 어느 한 항에 따른 방법을 실행하는 컴퓨터 판독 가능 저장매체에 저장된 컴퓨터 프로그램.
KR1020210123843A 2020-12-24 2021-09-16 감지 데이터를 검출하는 방법 및 장치 KR20210122214A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011552344.5 2020-12-24
CN202011552344.5A CN112541475B (zh) 2020-12-24 2020-12-24 感知数据检测方法及装置

Publications (1)

Publication Number Publication Date
KR20210122214A true KR20210122214A (ko) 2021-10-08

Family

ID=75017312

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210123843A KR20210122214A (ko) 2020-12-24 2021-09-16 감지 데이터를 검출하는 방법 및 장치

Country Status (5)

Country Link
US (1) US11869247B2 (ko)
EP (1) EP3907659A3 (ko)
JP (1) JP2022024118A (ko)
KR (1) KR20210122214A (ko)
CN (1) CN112541475B (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801225B (zh) * 2021-04-01 2021-06-18 中国人民解放军国防科技大学 极限工况下自动驾驶多传感器融合感知方法及系统
CN114092916B (zh) * 2021-11-26 2023-07-18 阿波罗智联(北京)科技有限公司 图像处理方法、装置、电子设备、自动驾驶车辆及介质
CN114596706B (zh) * 2022-03-15 2024-05-03 阿波罗智联(北京)科技有限公司 路侧感知系统的检测方法及装置、电子设备和路侧设备
CN114840750A (zh) * 2022-04-26 2022-08-02 北京金堤科技有限公司 模型的构建方法、关系的确定方法、装置、介质及设备
CN116778720B (zh) * 2023-08-25 2023-11-24 中汽传媒(天津)有限公司 一种交通工况场景库搭建及应用方法、系统和电子设备

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5437855B2 (ja) * 2010-03-02 2014-03-12 パナソニック株式会社 障害物検知装置およびそれを備えた障害物検知システム、並びに障害物検知方法
US9171213B2 (en) * 2013-03-15 2015-10-27 Xerox Corporation Two-dimensional and three-dimensional sliding window-based methods and systems for detecting vehicles
JP2016173615A (ja) 2013-06-24 2016-09-29 株式会社日立ハイテクノロジーズ 計測装置
US10380456B2 (en) 2014-03-28 2019-08-13 Nec Corporation Classification dictionary learning system, classification dictionary learning method and recording medium
JP2015232805A (ja) 2014-06-10 2015-12-24 株式会社豊田自動織機 画像処理方法、画像処理装置、および画像処理プログラム
US9704043B2 (en) * 2014-12-16 2017-07-11 Irobot Corporation Systems and methods for capturing images and annotating the captured images with information
US9934689B2 (en) 2014-12-17 2018-04-03 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation at blind intersections
JP6218094B1 (ja) 2016-04-15 2017-10-25 Jeインターナショナル株式会社 検査方法、検査装置、検査プログラム、および記録媒体
JP6573233B2 (ja) 2016-07-19 2019-09-11 日本電信電話株式会社 認識容易性指標算出装置、方法、及びプログラム
CN106707293B (zh) 2016-12-01 2019-10-29 百度在线网络技术(北京)有限公司 用于车辆的障碍物识别方法和装置
CN108629231B (zh) 2017-03-16 2021-01-22 百度在线网络技术(北京)有限公司 障碍物检测方法、装置、设备及存储介质
CN109492656B (zh) * 2017-09-11 2022-04-29 阿波罗智能技术(北京)有限公司 用于输出信息的方法和装置
DE102017218074A1 (de) * 2017-10-11 2019-04-11 Robert Bosch Gmbh Verfahren zum Darstellen einer Umgebung eines Fahrzeugs
KR102045026B1 (ko) 2018-02-12 2019-11-14 한양대학교 에리카산학협력단 차선 인식 장치 및 방법
CN108663677A (zh) * 2018-03-29 2018-10-16 上海智瞳通科技有限公司 一种多传感器深度融合提高目标检测能力的方法
JP6714634B2 (ja) 2018-03-29 2020-06-24 セコム株式会社 照合装置及び照合方法
CN109271944B (zh) * 2018-09-27 2021-03-12 百度在线网络技术(北京)有限公司 障碍物检测方法、装置、电子设备、车辆及存储介质
JP7296715B2 (ja) 2018-12-03 2023-06-23 キヤノン株式会社 学習装置、処理装置、ニューラルネットワーク、学習方法、及びプログラム
CN109858555B (zh) * 2019-02-12 2022-05-17 北京百度网讯科技有限公司 基于图像的数据处理方法、装置、设备及可读存储介质
CN110069408A (zh) * 2019-04-11 2019-07-30 杭州飞步科技有限公司 自动驾驶车辆感知系统测试方法及装置
CN110176027B (zh) * 2019-05-27 2023-03-14 腾讯科技(深圳)有限公司 视频目标跟踪方法、装置、设备及存储介质
CN113950702A (zh) * 2019-06-03 2022-01-18 辉达公司 在视频分析应用中使用相关滤波器的多对象跟踪
CN110287832A (zh) * 2019-06-13 2019-09-27 北京百度网讯科技有限公司 高速自动驾驶场景障碍物感知评测方法及装置
JP7272228B2 (ja) * 2019-10-11 2023-05-12 株式会社デンソー 車両用運転支援装置及び車両用運転支援方法
US11532167B2 (en) * 2019-10-31 2022-12-20 Zoox, Inc. State machine for obstacle avoidance
CN113128303A (zh) * 2019-12-31 2021-07-16 华为技术有限公司 一种自动驾驶方法、相关设备及计算机可读存储介质
CN111413721B (zh) * 2020-01-14 2022-07-19 华为技术有限公司 车辆定位的方法、装置、控制器、智能车和系统
CN111291697B (zh) * 2020-02-19 2023-11-21 阿波罗智能技术(北京)有限公司 用于识别障碍物的方法和装置
CN111753765B (zh) * 2020-06-29 2024-05-31 北京百度网讯科技有限公司 感知设备的检测方法、装置、设备及存储介质
JP7538656B2 (ja) * 2020-08-25 2024-08-22 株式会社Subaru 車両の走行制御装置
CN112150558B (zh) * 2020-09-15 2024-04-12 阿波罗智联(北京)科技有限公司 用于路侧计算设备的障碍物三维位置获取方法及装置

Also Published As

Publication number Publication date
US11869247B2 (en) 2024-01-09
US20210406564A1 (en) 2021-12-30
CN112541475B (zh) 2024-01-19
EP3907659A2 (en) 2021-11-10
EP3907659A3 (en) 2022-04-06
JP2022024118A (ja) 2022-02-08
CN112541475A (zh) 2021-03-23

Similar Documents

Publication Publication Date Title
KR20210122214A (ko) 감지 데이터를 검출하는 방법 및 장치
JP7371157B2 (ja) 車両監視方法、装置、電子機器、記憶媒体、コンピュータプログラム、クラウド制御プラットフォームおよび車路連携システム
CN113129625B (zh) 车辆控制方法、装置、电子设备和车辆
CN112580571A (zh) 车辆行驶的控制方法、装置及电子设备
CN114170797B (zh) 交通限制路口的识别方法、装置、设备、介质及产品
CN112863187B (zh) 感知模型的检测方法、电子设备、路侧设备和云控平台
CN113762272A (zh) 道路信息的确定方法、装置和电子设备
CN113538963A (zh) 用于输出信息的方法、装置、设备以及存储介质
EP4024084A2 (en) Spatial parking place detection method and device, storage medium, and program product
CN112991735B (zh) 交通流量监测系统的测试方法、装置及设备
CN113722342A (zh) 高精地图要素变更检测方法、装置、设备及自动驾驶车辆
CN114005098A (zh) 高精地图车道线信息的检测方法、装置和电子设备
CN114584949B (zh) 车路协同确定障碍物属性值的方法、设备及自动驾驶车辆
CN114419883B (zh) 识别路口缺失交通限制信息的方法、装置和电子设备
CN115908816A (zh) 基于人工智能的积水识别方法、装置、设备及存储介质
CN115973190A (zh) 自动驾驶车辆的决策方法、装置和电子设备
CN112507964B (zh) 用于车道级事件的检测方法和装置、路侧设备和云控平台
CN114495049A (zh) 识别车道线的方法和装置
CN114820690A (zh) 轨迹还原方法、装置和电子设备
CN114708498A (zh) 图像处理方法、装置、电子设备以及存储介质
CN115810270A (zh) 车辆转向检测的方法、装置、电子设备及存储介质
CN113806361B (zh) 电子监控设备与道路的关联方法、装置及存储介质
KR20220119167A (ko) 차량의 차선 이탈 식별 방법 및 장치,전자 기기, 및 저장매체
CN117911522A (zh) 鱼眼相机的外参标定方法、装置、电子设备与可读存储介质
CN114283389A (zh) 分布式信息处理方法、装置、设备、系统和存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right