KR101836304B1 - 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법과 장치 - Google Patents

포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법과 장치 Download PDF

Info

Publication number
KR101836304B1
KR101836304B1 KR1020160107521A KR20160107521A KR101836304B1 KR 101836304 B1 KR101836304 B1 KR 101836304B1 KR 1020160107521 A KR1020160107521 A KR 1020160107521A KR 20160107521 A KR20160107521 A KR 20160107521A KR 101836304 B1 KR101836304 B1 KR 101836304B1
Authority
KR
South Korea
Prior art keywords
cloud data
point
point cloud
trained
detected
Prior art date
Application number
KR1020160107521A
Other languages
English (en)
Other versions
KR20170089743A (ko
Inventor
보 리
티엔레이 장
티엔 시아
지 타오
위안칭 린
Original Assignee
바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 filed Critical 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Publication of KR20170089743A publication Critical patent/KR20170089743A/ko
Application granted granted Critical
Publication of KR101836304B1 publication Critical patent/KR101836304B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Geometry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computer Graphics (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명은 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법과 장치를 개시한다. 상기 방법은, 트레이닝하고자 하는 포인트 클라우드 데이터를 획득하는 단계; 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대한 라벨에 응답하여, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하되, 라벨은 각 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트가 차량 윤곽에 해당되는지를 지시하기 위한 것인 단계; 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트와 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터에 기반하여 완전 회선 신경망 모델을 트레이닝하여 차량 검출 모델을 획득하는 단계; 및 검출하고자 하는 포인트 클라우드 데이터를 획득하고, 차량 검출 모델에 기반하여 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하는 단계를 포함한다. 상기 실시예는 차량 윤곽의 정확한 검출을 실현한다.

Description

포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법과 장치{METHOD AND DEVICE FOR DETECTING VEHICLE CONTOUR BASED ON POINT CLOUD DATA}
본 발명은 컴퓨터 기술분야에 관한 것으로, 구체적으로는 차량 검출 기술분야에 관한 것이고, 특히는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법과 장치에 관한 것이다.
경제가 발전하고 및 생활 수준이 향상함에 따라, 차량은 필수적인 통근 수단으로 되었고 점차적으로 수많은 가정에 진입하게 된다. 그러나, 이에 수반된 운전 안전 문제는 흩어지지 않는 먹구름처럼 행복한 생활의 맑은 하늘을 가리고 있다. 공안부 데이터에 따르면 중국에서의 2010년도의 교통 사고 사망자 수는 65,225명에 달하고, WHO모델의 예측에 따르면 약 275,983명에 달하는 바, 이는 매일 한차례의 대형 비행기 사고가 발생하는 것에 맞먹는다. 교통 사고로 인한 전세계 사상자 수는 매 년 13차례 911 테러 사건이 발생하는 것에 맞먹는다.
과학기술이 발달한 현대사회에서 사람들은 당연히 재난의 연속적인 발생을 간과할 수 없다. 안전 운전에 대한 희망은 이미 사회적인 지지를 얻어 정부와 시장의 추동하에 자동차 안전 기술의 번영의 시대는 시작되었다. 거시적인 분류로부터 말하자면, 자동차 안전 기술은 패시브 세이프티(passive safety)와 액티브 세이프티(active safety) 두가지로 나뉜다. 패시브 세이프티는 충돌 발생 후 어떻게 손해를 최소로 하강시킬 것인가 하는 기술로서, 주요하게는 자동차 구조, 안전벨트, 접층식 방풍 유리, 접이식 조향축, 에어백 등 설계이나, 충돌 후 보호받는 기계를 트리거하기에 사고를 방지하는 정도가 한정되는 것을 초래한다. 액티브 세이프티는 사전 조기 경보하여 충돌을 방지하는 기술로서, 주요하게는 운전자 주변 환경의 감지, 이해, 결책과 제어로서, 예를 들면 차선이탈 경고(Lane Departure Warning, LDW)이다. 이에 비하면, 액티브 세이프티는 그 사전성과 차량 설계가 약한 것 등과 관련되는 장점이 있고, 광범한 연구를 불러일으 켰으며, 운전 보조 시스템(Advanced Driver Assistance System, ADAS) 이라는 제품의 형식으로 대중들과 대면하였다.
차량 검출 기술은 액티브 세이프티의 관건적인 기술이다. 기존의 기술적 해결수단은 대부분 단일 시각 기술을 사용하는 바, 이미지 중 특징을 매칭하는 방법으로써 차량을 검출하므로, 검출한 차량의 공간 위치와 자태가 정확하지 않을 수도 있다. 또한 레이저 포인트 클라우드를 입력하는 기술적 해결수단으로서, 형태와 포인트 클라우드의 밀집 정도 등 특징을 통해 취합한 후 차량을 검출하며, 이러한 방법은 대량의 수공 조절을 필요로 하여 응용 정경 변화에 대한 적응성이 비교적 낮다.
본 발명은 상기 배경기술에서 제기된 문제를 해결하기 위한 개선된 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법과 장치를 제공하고자 한다.
제1 양태에서, 본 발명은 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법을 제공하며, 상기 방법은, 트레이닝하고자 하는 포인트 클라우드 데이터를 획득하는 단계; 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대한 라벨에 응답하여, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하되, 라벨은 각 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트가 차량 윤곽에 해당되는지를 지시하기 위한 것이고, 상기 라벨 데이터는 차량 윤곽에 해당하는지에 대한 정보를 포함하는 단계; 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트와 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터에 기반하여 완전 회선 신경망 모델을 트레이닝하여 차량 검출 모델을 획득하는 단계; 및 검출하고자 하는 포인트 클라우드 데이터를 획득하고, 차량 검출 모델에 기반하여 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하는 단계를 포함한다.
일부 실시예에 있어서, 트레이닝하고자 하는 포인트 클라우드 데이터를 획득하는 단계는, 포인트 클라우드 데이터 수집 장치로 수집한 트레이닝하고자 하는 3차원 데이터를 맵핑하여 트레이닝하고자 하는 깊이 맵을 생성하는 단계를 포함하되, 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 트레이닝하고자 하는 포인트 클라우드 데이터 중 트레이닝하고자 하는 3차원 데이터에 일일이 대응되는 각 포인트이다.
일부 실시예에 있어서, 각 트레이닝하고자 하는 3차원 데이터 D(x, y, z)는 포인트 클라우드 데이터 수집 장치를 원점으로 하여, 수직 상향 방향을 z축으로 하고, 수평면 내에서 수직되는 임의의 2개의 축을 각각 x축과 y축의 좌표계 중의 좌표값으로 하며, 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 좌표는 (r, c)이고, 각 픽셀 포인트의 수치는 (d, z)이며, 여기서,
Figure 112016082258590-pat00001
이고;
θ는 각 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제1 평면 사이의 협각이고,
Figure 112016082258590-pat00002
는 포인트 클라우드 데이터 수집 장치의 수평 해상도이며, 제1 평면은 y축과 z축으로 이루어진 평면이고; φ는 각 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제2 평면 사이의 협각이고,
Figure 112016082258590-pat00003
는 포인트 클라우드 데이터 수집 장치의 수직 해상도이며, 제2 평면은 x축과 y축으로 이루어진 평면이다.
일부 실시예에 있어서, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대한 라벨에 응답하여, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하는 단계는, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되면, 차량 윤곽에 해당되는 포인트들을 변환하여 26 채널의 2차원 라벨 데이터를 생성하되, 26 채널 중의 제1 채널의 수치는 1이고, 제2 채널의 수치는 0이며, 26 채널 중의 제3~24채널은 각각 트레이닝하고자 하는 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트의 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체 각 정점의 각 좌표의 회전 벡터인 단계; 및 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되지 않으면, 차량 윤곽에 해당되지 않는 포인트들을 변환하여 2 채널의 2차원 라벨 데이터를 생성하되, 2 채널 중의 제1 채널의 수치는 0이고, 제2 채널의 수치는 1인 단계를 포함한다.
일부 실시예에 있어서, 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트의 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체 각 정점의 각 좌표의 회전 벡터(x' p , y' p , z' p )는,
Figure 112016082258590-pat00004
이고;
여기서, R은 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 임의의 한 포인트P(x i , y i , z i )의 회전 행렬이고,
Figure 112016082258590-pat00005
이다.
일부 실시예에 있어서, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트와 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터에 기반하여 완전 회선 신경망 모델을 트레이닝하여 차량 검출 모델을 획득하는 단계는, 완전 회선 신경망의 파라미터를 초기화시키는 단계; 손실 함수에 기반하여 완전 회선 신경망의 파라미터를 조절하되, 손실 함수는 현재 출력과 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에에 대응되는 라벨 데이터 사이의 편차이고, 현재 출력은 현재 트레이닝하고자 하는 포인트 클라우드 데이터 및 완전 회선 신경망의 현재 파라미터에 대응되는 완전 회선 신경망의 출력인 단계; 손실 함수가 최소치일 경우, 손실 함수에 대응되는 파라미터를 차량 검출 모델의 파라미터로서 출력하는 단계; 상기 손실 함수가 최소치가 아니면, 손실 함수에 기반하여 완전 회선 신경망의 파라미터를 조절하는 단계를 반복하여 수행하는 단계를 포함한다.
일부 실시예에 있어서, 검출하고자 하는 포인트 클라우드 데이터를 획득하고, 차량 검출 모델에 기반하여 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하는 단계는, 포인트 클라우드 데이터 수집 장치로 수집한 검출하고자 하는 3차원 데이터를 맵핑하여 검출하고자 하는 깊이 맵을 생성하되, 검출하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 검출하고자 하는 포인트 클라우드 데이터 중 검출하고자 하는 3차원 데이터에 일일이 대응되는 각 검출하고자 하는 포인트인 단계; 차량 검출 모델에 기반하여 검출하고자 하는 포인트 클라우드 데이터에서 각 검출하고자 하는 포인트의 예측 결과를 획득하되, 예측 결과는 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률을 포함하는 단계; 및 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 크면, 검출하고자 하는 포인트가 차량 윤곽에 해당된다고 확정하는 단계를 포함한다.
일부 실시예에 있어서, 예측 결과는 검출하고자 하는 포인트의 위치 정보를 더 포함하고, 검출하고자 하는 포인트 클라우드 데이터를 획득하고, 차량 검출 모델에 기반하여 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하는 단계는, 검출하고자 하는 포인트 클라우드 데이터에서 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 큰 제1 검출하고자 하는 포인트를 획득하여 제1 검출하고자 하는 포인트 집합을 형성하는 단계; 및 제1 검출하고자 하는 포인트 집합 중의 각 검출하고자 하는 포인트의 위치 정보에 기반하여 검출하고자 하는 포인트 클라우드 데이터에 대응되는 차량 공간 위치 정보를 생성하는 단계를 더 포함한다.
제2 양태에 있어서, 본 발명은 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 장치을 더 제공하며, 상기 장치는, 트레이닝하고자 하는 포인트 클라우드 데이터를 획득하도록 구성되는 획득 모듈; 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대한 라벨에 응답하여, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하도록 구성되되, 라벨은 각 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트가 차량 윤곽에 해당되는지를 지시하기 위한 것이고, 상기 라벨 데이터는 차량 윤곽에 해당하는지에 대한 정보를 포함하는 라벨 데이터 생성 모듈; 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트와 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터에 기반하여 완전 회선 신경망 모델을 트레이닝하여 차량 검출 모델을 획득하도록 구성되는 트레이닝 모듈; 및 검출하고자 하는 포인트 클라우드 데이터를 획득하고, 차량 검출 모델에 기반하여, 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하도록 구성되는 검출 모듈을 포함한다.
일부 실시예에 있어서, 획득 모듈은, 포인트 클라우드 데이터 수집 장치로 수집한 트레이닝하고자 하는 3차원 데이터를 맵핑하여 트레이닝하고자 하는 깊이 맵을 생성하도록 구성되되, 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 트레이닝하고자 하는 포인트 클라우드 데이터 중 트레이닝하고자 하는 3차원 데이터에 일일이 대응되는 각 포인트이다.
일부 실시예에 있어서, 각 트레이닝하고자 하는 3차원 데이터 D(x, y, z)는 포인트 클라우드 데이터 수집 장치를 원점으로 하고, 수직 상향 방향을 z축으로 하고, 수평면 내에서 수직되는 임의의 2개의 축을 각각 x축과 y축의 좌표계 중의 좌표값으로 하며, 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 좌표는 (r, c)이고, 각 픽셀 포인트의 수치는 (d, z)이며, 여기서,
Figure 112016082258590-pat00006
이고;
θ는 각 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제1 평면 사이의 협각이고,
Figure 112016082258590-pat00007
는 포인트 클라우드 데이터 수집 장치의 수평 해상도이며, 제1 평면은 y축과 z축으로 이루어진 평면이고, φ는 각 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제2 평면 사이의 협각이고,
Figure 112016082258590-pat00008
는 포인트 클라우드 데이터 수집 장치의 수직 해상도이며, 제2 평면은 x축과 y축으로 이루어진 평면이다.
일부 실시예에 있어서, 라벨 데이터 생성 모듈은, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되면, 차량 윤곽에 해당되는 포인트들을 변환하여 26 채널의 2차원 라벨 데이터를 생성하고, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되지 않으면, 차량 윤곽에 해당되지 않는 포인트들을 변환하여 2 채널의 2차원 라벨 데이터를 생성하도록 더 구성되되, 26 채널 중의 제1 채널의 수치는 1이고, 제2 채널의 수치는 0이며, 26 채널 중의 제3~24채널은 각각 트레이닝하고자 하는 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트의 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체 각 정점의 각 좌표의 회전 벡터이며, 2 채널 중의 제1 채널의 수치는 0이고, 제2 채널의 수치는 1이다.
일부 실시예에 있어서, 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트의 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체 각 정점의 각 좌표의 회전 벡터(x' p , y' p , z' p )는,
Figure 112016082258590-pat00009
이고;
여기서, R은 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 임의의 한 포인트P(x i , y i , z i )의 회전 행렬이고,
Figure 112016082258590-pat00010
이다.
일부 실시예에 있어서, 트레이닝 모듈은, 완전 회선 신경망의 파라미터를 초기화하시키고, 손실 함수에 기반하여 완전 회선 신경망의 파라미터를 조절하고, 손실 함수가 최소치일 경우, 손실 함수에 대응되는 파라미터를 차량 검출 모델의 파라미터로서 출력하고, 상기 손실 함수가 최소치가 아니면, 손실 함수에 기반하여 완전 회선 신경망의 파라미터를 조절하는 단계를 반복하여 수행하도록 더 구성되되, 손실 함수는 현재 출력과 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터 사이의 편차이고, 현재 출력은 현재 트레이닝하고자 하는 포인트 클라우드 데이터 및 완전 회선 신경망의 현재 파라미터에 대응되는 완전 회선 신경망의 출력이다.
일부 실시예에 있어서, 검출 모듈은, 포인트 클라우드 데이터 수집 장치로 수집한 검출하고자 하는 3차원 데이터를 맵핑하여 검출하고자 하는 깊이 맵을 생성하고, 차량 검출 모델에 기반하여 검출하고자 하는 포인트 클라우드 데이터에서 각 검출하고자 하는 포인트의 검출하고자 하는 포인트의 예측 결과를 획득하고, 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 크면, 검출하고자 하는 포인트가 차량 윤곽에 해당된다고 확정하도록 더 구성되되, 검출하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 검출하고자 하는 포인트 클라우드 데이터 중 검출하고자 하는 3차원 데이터에 일일이 대응되는 각 검출하고자 하는 포인트이고, 예측 결과는 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률을 포함한다.
일부 실시예에 있어서, 예측 결과는 검출하고자 하는 포인트의 위치 정보를 더 포함하고, 검출 모듈은, 검출하고자 하는 포인트 클라우드 데이터에서 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 큰 제1 검출하고자 하는 포인트를 획득하여 제1 검출하고자 하는 포인트 집합을 형성하고, 제1 검출하고자 하는 포인트 집합 중의 각 검출하고자 하는 포인트의 위치 정보에 기반하여 검출하고자 하는 포인트 클라우드 데이터에 대응되는 차량 공간 위치 정보를 생성하도록 더 구성된다.
본 발명이 제공하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법과 장치는, 포인트 클라우드 데이터 수집 장치로 수집한 포인트 클라우드 데이터와 이러한 포인트 클라우드 데이터에 대한 라벨을 통해 완전 회선 신경망 모델을 트레이닝하여 차량 윤곽 검출에 적합한 차량 검출 모델을 획득하고, 상기 차량 검출 모델로 포인트 클라우드 데이터에 차량 윤곽이 포함되는지를 판단함으로써, 기존의 2차원 이미지를 이용하여 차량 윤곽을 검출할 경우 차량의 2차원 척도의 변화로 인해 검출이 어려워지고 검출의 오차를 발생시키는 것을 방지한다.
또한, 일부 실시예에 있어서, 본 발명의 해결수단은 차량 윤곽을 검출하는 동시에 차량의 공간 위치 정보를 직접적으로 획득할 수 있으므로, 운행 차량에 대한 무인 운전의 경로 기획 및 제어에 편의를 제공한다.
이하, 첨부된 도면에 도시된 비한정적인 실시예에 대한 상세한 설명을 통하여 본 발명의 기타 특징, 목적 및 장점은 보다 더 명확해질 것이다.
도1은 본 발명이 적용 가능한 예시적 시스템의 체계구조도이다.
도2는 본 발명에 따른 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법의 일 실시예의 흐름도이다.
도3은 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트와 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터에 기반하여 트레이닝 완전 회선 신경망 모델(fully convolutional neural network model)을 트레이닝하여 차량 검출 모델을 획득하는 도2 중의 일 선택 가능한 구현의 예시적 흐름도이다.
도4는 검출하고자 하는 포인트 클라우드 데이터를 획득하고 차량 검출 모델에 기반하여 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하는 도2 중의 일 선택 가능한 구현의 예시적 흐름도이다.
도5는 본 발명에 따른 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 장치의 하나의 실시예의 구조 모식도이다.
도6은 본 발명의 실시예의 단말기 장치 또는 서버를 실현하기에 적합한 컴퓨터 시스템의 구조 모식도이다.
이하 첨부된 도면 및 실시예를 결부시켜 본 발명에 대해 추가로 상세한 설명을 진행하기로 한다. 여기서 설명하는 구체적인 실시예는 단지 관련된 발명을 해석하기 위한 것일 뿐, 본 발명에 대한 한정이 아님을 자명할 것이다. 또한, 설명의 편리를 위하여 첨부된 도면에는 단지 발명과 관련된 부분만 도시도었음을 이해하여야 한다.
본 발명 중의 실시예 및 실시예 중의 특징들은 상호 모순되지 않는 한 서로 조합될수 있음을 이해하여야 한다. 이하 첨부된 도면을 참조함과 아울러 실시예를 결부시켜 본 발명에 대한 상세한 설명을 진행하기로 한다.
도1은 본 발명의 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법 또는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 장치의 실시예가 적용 가능한 예시적 시스템 체계구조(100)을 도시한다.
도1에 도시된 바와 같이, 시스템 체계구조(100)는 단말기 장치(101, 102, 103), 네트워크(104) 및 서버(105)를 포함할 수 있다. 네트워크(104)는 단말기 장치(101, 102, 103)와 서버(105) 사이에서 통신 링크를 제공하는 매체이다. 네트워크(104)는 유선, 무선 통신 링크 또는 광섬유 케이블 등과 같은 각종 연결 유형을 포함할 수 있다.
사용자는 단말기 장치(101, 102, 103)를 사용하여 네트워크(104)와 서버(105)를 교호시킴으로써 메세지 등을 수신하거나 송신할 수 있다.
일부 응용 정경에 있어서, 단말기 장치(101, 102, 103)는 포인트 클라우드 데이터를 수집하는 기능을 구비하는 임의의 전자 기기일 수 있다. 예를 들면, 단말기 장치(101, 102, 103)는 3차원 레이저 스캐너일 수 있다.
또는, 기타 일부 응용 정경에 있어서, 단말기 장치(101, 102, 103)는 포인트 클라우드 데이터 수집 장치와 데이터 통신을 진행하여 포인트 클라우드 데이터 수집 장치로 수집한 포인트 클라우드 데이터를 획득할 수 있다. 예를 들면, 단말기 장치(101, 102, 103)는 각종 전자 기기일 수 있는 바, 스마트폰, 태블릿PC, 전자책 리더, MP3 플레이어(Moving Picture Experts Group Audio Layer III, 엠페그 오디오 계층-3), MP4(Moving Picture Experts Group Audio Layer IV, 엠페그 오디오 계층-4)플레이어, 랩탑형 컴퓨터와 데스크탑형 컴퓨터 등을 포함하나, 이에 한정되지 않는다.
서버(105)는 각종 서비스를 제공하는 서버일 수 있는 바, 예를 들면 단말기 장치(101, 102, 103)가 획득한 포인트 클라우드 데이터를 처리하고 분석하는 백그라운드 서버일 수 있다. 백그라운드 서버는 수신된 포인트 클라우드 데이터에 대해 분석 등 처리를 진행하고, 처리 결과(예컨데 포인트 클라우드 데이터에 차량 윤곽이 포함되어 있는 지의 여부)를 단말기 장치에 피드백할 수 있다.
본 발명의 실시예에서 제공하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법은 서버(105)로 수행되거나 단말기 장치(101, 102, 103)로 수행될 수 있다. 상응하게, 포인트 클라우드 데이터에 가반하는 차량 윤곽 검출 장치는 서버(105)에 설치되거나 단말기 장치(101, 102, 103)에 설치될 수 있음을 설명하고자 한다.
상기로부터 도1 중의 단말기 장치, 네트워크와 서버의 수는 단지 예시적인 것임을 이해해야 한다. 실제 수요에 따라 임의의 수의 단말기 장치, 네트워크와 서버를 구비할 수 있다.
계속하여 도2를 참조하면, 도2는 본 발명에 따른 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법의 일 실시예의 흐름(200)을 도시한다. 상기 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법은 하기와 같은 단계들을 포함한다.
단계(210)에서, 트레이닝하고자 하는 포인트 클라우드 데이터를 획득한다.
본 실시예에 있어서, 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법이 운행되는 전자 기기(예컨데 도1에 도시된 서버 또는 단말기 장치)는 유선 연결 방식 또는 무선 연결 방식을 통해 포인트 클라우드 데이터를 수집하는 기능을 구비하는 장치로부터 포인트 클라우드 데이터를 획득할 수 있다. 상기 무선 연결 방식은 3G/4G 연결, WiFi 연결, 블루투스 연결, WiMAX 연결, Zigbee 연결, UWB(ultra wideband) 연결 및 기타 기존의 또는 미래에 개발될 무선 연결 방식을 포함할 수 있으나 이에 한정되지 않음을 지적하고자 한다.
포인트 클라우드는 동일한 공간 기준계에서 레이저를 이용하여 물체 표면의 각 샘플링 포인트의 공간 좌표를 획득하는 것으로, 목표 공간 분포와 목표 표면 특징을 표달하는 일련의 매시브 포인트의 집합을 획득한다. 즉, 카메라로 촬영한 하나의 이미지와 유사하게, 각 포인트 클라우드는 어느 하나의 정경 화면에 대응될 수 있다. 이 밖에, 포인트 클라우드는 상기 정경 화면 중의 각 물체의 3차원 모델 및 라인, 면, 체 등 각종 정보를 반영할 수 있다.
단계(220)에서, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트의 라벨에 응답하여, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하며, 여기서, 라벨은 각 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트가 차량 윤곽에 해당되는지를 지시할 수 있다.
일부 선택 가능한 구현에 있어서, 인위적인 보조의 방식으로 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대해 라벨링을 진행하여, 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트가 차량 윤곽에 해당되는지를 지시할 수 있다.
라벨은 각 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트가 차량 윤곽에 해당되는지를 지시하기 위한 것이므로, 라벨에 기반하여 생성된 라벨 데이터에는 차량 윤곽에 해당되는지에 대한 정보도 포함되어 있다.
단계(230)에서, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트와 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터에 기반하여 완전 회선 신경망 모델(fully convolutional neural network model)을 트레이닝하여 차량 검출 모델을 획득한다.
일반적으로, 회선 신경망(Convolutional Neural Network, CNN) 모델의 기본 구조는 2개의 층을 포함하는 바, 첫번째층은 특징 추출층으로서, 각 신경원(Neuron)의 입력을 이전 층의 일부 허용 도메인과 상호 연결시키고 상기 일부 특징을 추출한다. 일단 상기 일부 특징이 추출되면, 상기 일부 특징과 기타 특징 사이의 위치 관계도 확정할 수 있다. 두번째층은 특징 맵핑층으로서, 다수의 특징 맵으로 네트워크의 각 산출층을 구성하되, 각 특징 맵은 하나의 평면이고, 평면 상의 모든 신경원의 가중치와 상등하다.
일부 선택 가능한 구현에 있어서, 트레이닝하고자 하는 포인트 클라우드 데이터를 CNN 모델에 입력하고, CNN 모델의 출력과 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터 사이의 편차에 기반하여 CNN 모델의 파라미터를 반복적으로 조절함으로써, 트레이닝 후의 CNN모델의 출력과 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터 사이의 편차를 최소화시킨다.
단계(240)에서, 검출하고자 하는 포인트 클라우드 데이터를 획득하고, 차량 검출 모델에 기반하여 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득한다.
이상의 단계(210) 내지 단계(230)을 통해 차량 검출 모델을 획득할 수 있다. 본 단계(240)에서, 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트를 차량 검출 모델에 입력하면, 상기 검출하고자 하는 포인트 클라우드 데이터에 차량 윤곽이 포함되는지를 검출할 수 있다. 본 실시예의 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법이 3차원의 포인트 클라우드 데이터를 검출 근거로 하므로, 기존의 2차원 이미지를 이용하여 차량 윤곽을 검출할 경우 차량의 2차원 척도의 변화로 인해 검출이 어려워지고 검출의 오차를 발생시키는 것을 방지할 수 있다.
일부 선택 가능한 구현에 있어서, 트레이닝하고자 하는 포인트 클라우드 데이터를 획득하는 단계(210)는 하기의 단계들을 더 포함할 수 있다.
단계(211)에서, 포인트 클라우드 데이터 수집 장치로 수집한 트레이닝하고자 하는 3차원 데이터를 맵핑하여 트레이닝하고자 하는 깊이 맵을 생성하되, 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 트레이닝하고자 하는 포인트 클라우드 데이터 중 트레이닝하고자 하는 3차원 데이터에 일일이 대응되는 각 포인트이다.
이러한 선택 가능한 구현의 일부 응용 정경에 있어서, 각 트레이닝하고자 하는 3차원 데이터 D(x, y, z)는 포인트 클라우드 데이터 수집 장치를 원점으로 하고, 수직 상향 방향을 z축으로 하고, 수평면 내에서 수직되는 임의의 2개의 축을 각각 x축과 y축으로 하는 좌표계 중의 좌표값일 수 있다. 트레이닝하고자 하는 3차원 데이터 D에 기반하여 획득한 트레이닝하고자 하는 깊이 맵에서, 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 좌표는 (r, c)이고, 각 픽셀 포인트의 수치는 (d, z)이다.
여기서,
Figure 112016082258590-pat00011
(1)
즉, 상기 깊이 맵에서 제r행 제c열의 위치의 수치는 (d, z)이다.
θ는 각 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제1 평면 사이의 협각이고,
Figure 112016082258590-pat00012
는 포인트 클라우드 데이터 수집 장치의 수평 해상도이며, 제1 평면은 y축과 z축으로 이루어진 평면이다. 즉, θ는 각 트레이닝하고자 하는 3차원 데이터 D가 수직 평면에 대한 "편주각”으로 간주할 수 있다.
φ는 각 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제2 평면 사이의 협각이고,
Figure 112016082258590-pat00013
는 포인트 클라우드 데이터 수집 장치의 수직 해상도이며, 제2 평면은 x축과 y축으로 이루어진 평면이다. 즉, φ는 각 트레이닝하고자 하는 3차원 데이터 D가 수평면에 대한 "부앙각”으로 간주할 수 있다.
또한, atan2(y, x)은 x축 과 y축으로 이루어진 좌표 평면에서 좌표 원점을 기점으로 (x, y)점을 지향하는 방사선과 x축 정방향 사이의 협각의 각도를 의미한다.
일부 선택 가능한 구현에 있어서, 트레이닝하고자 하는 포인트 클라우드 데이터 집합 중의 각 트레이닝하고자 하는 포인트 클라우드 데이터에 대한 라벨에 응답하여, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하는 단계(220)는 하기의 단계들을 포함할 수 있다.
단계(221)에서, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되면, 차량 윤곽에 해당되는 상기 포인트들을 변환하여 26 채널의 2차원 라벨 데이터를 생성하되, 여기서, 26 채널 중의 제1 채널의 수치는 1이고, 제2 채널의 수치는 0이며, 26 채널 중의 제3~24채널은 각각 트레이닝하고자 하는 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트에 대한 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체의 각 정점의 각 좌표의 회전 벡터이다.
단계(222)에서, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되지 않으면, 차량 윤곽에 해당되지 않는 상기 포인트들을 변환하여 2 채널의 2차원 라벨 데이터를 생성하되, 여기서, 2채널 중의 제1 채널의 수치는 0이고, 제2 채널의 수치는 1이다.
즉, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 어느 한 포인트가 차량 윤곽에 해당되는지에 관계 없이, 획득한 2차원 라벨 데이터에서 제1 채널의 수치는 상기 포인트들이 차량 윤곽에 해당되는 확률을 나타내도록 이용될 수 있고, 제2 채널의 수치는 상기 포인트들이 차량 윤곽에 해당되지 않는 확률을 나타내도록 이용될 수 있다. 물론, 제1 채널의 수치와 제2 채널의 수치는 모두 비음수이고, 제1 채널의 수치와 제2 채널의 수치의 합은 1이다.
이러한 선택 가능한 구현의 일부 응용 정경에 있어서, 트레이닝하고자 하는 포인트 클라우드 데이터에는 차량 윤곽에 해당되는지 명확히 확정할 수 없는 일부 포인트들이 포함될 가능성이 존재한다. 이러한 응용 정경에 있어서, 이러한 포인트들에 대응되는 2차원 라벨 데이터 중의 제1 채널과 제2 채널에서 적절한 수치를 설정하여 상기 포인트가 차량 윤곽에 해당되는 가능성을 나타낼 수 있다.
일부 선택 가능한 구현에 있어서, 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트의 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체 각 정점의 각 좌표의 회전 벡터(x' p , y' p , z' p )는 하기의 수학식(2)으로 표현할 수 있다.
구체적으로,
Figure 112016082258590-pat00014
(2)
여기서, R는 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 임의의 한 포인트P(x i , y i , z i )의 회전 행렬이고,
Figure 112016082258590-pat00015
이다.
여기서, θ i
Figure 112016082258590-pat00016
는 수학식(1) 중의 θ
Figure 112016082258590-pat00017
과 유사한 함의를 갖는다. 즉, θ i는 차량 윤곽에 해당되는 임의의 한 포인트P(x i , y i , z i )와 원점 사이의 연결 라인과 제1 평면 사이의 협각이고, 제1 평면은 y축과 z축으로 이루어진 평면이다.
Figure 112016082258590-pat00018
는 차량 윤곽에 해당되는 임의의 한 포인트P(x i , y i , z i )와 원점 사이의 연결 라인과 제2 평면 사이의 협각이고, 제2 평면은 x축과 y축으로 이루어진 평면이다.
일부 선택 가능한 구현에 있어서, 본 실시예의 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법 중의 단계(230)는 도3에 도시된 흐름(300)으로 더 구현될 수 있다.
단계(310)에서, 완전 회선 신경망의 파라미터를 초기화시킨다.
단계(320)에서, 손실 함수에 기반하여 완전 회선 신경망의 파라미터를 조절한다.
여기서, 손실 함수는 현재 출력 및 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터 사이의 편차일 수 있다. 현재 출력은 현재 트레이닝하고자 하는 포인트 클라우드 데이터 및 완전 회선 신경망의 현재 파라미터에 대응되는 완전 회선 신경망의 출력이다 .
단계(330)에서, 현재 출력에 대응되는 손실 함수가 최소치인지를 판단한다.
현재 출력에 대응되는 손실 함수가 최소치일 경우, 단계(340)에서 편차에 대응되는 파라미터를 차량 검출 모델의 파라미터로서 출력한다.
아니면, 즉 현재 출력에 대응되는 손실 함수가 최소치가 아닐 경우, 손실 함수가 최소치로 될때까지 손실 함수에 기반하여 완전 회선 신경망의 파라미터를 조절하는 단계(320)를 반복하여 진행한다.
일부 선택 가능한 구현에 있어서, 검출하고자 하는 포인트 클라우드 데이터를 획득하고, 상기 차량 검출 모델에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하는 단계(240)는, 도4에 도시된 바와 같은 흐름(400)으로 더 구현될 수 있다.
단계(410)에서, 포인트 클라우드 데이터 수집 장치로 수집한 검출하고자 하는 3차원 데이터를 맵핑하여 검출하고자 하는 깊이 맵을 생성하되, 검출하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 검출하고자 하는 포인트 클라우드 데이터 중 검출하고자 하는 3차원 데이터에 일일이 대응되는 각 검출하고자 하는 포인트이다. 일부 선택 가능한 구현에 있어서, 검출하고자 하는 깊이 맵은 상기와 같은 수학식(1)을 통해 포인트 클라우드 데이터 수집 장치로 수집한 검출하고자 하는 3차원 데이터에 대응되는 검출하고자 하는 깊이 맵을 획득한다.
단계(420)에서, 차량 검출 모델에 기반하여 검출하고자 하는 포인트 클라우드 데이터에서 각 검출하고자 하는 포인트의 예측 결과를 획득하되, 여기서, 예측 결과는 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률을 포함한다.
단계(430)에서, 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 크면, 검출하고자 하는 포인트가 차량 윤곽에 해당되는 것으로 확정한다.
일부 선택 가능한 구현에 있어서, 예측 결과는 검출하고자 하는 포인트의 위치 정보를 더 포함할 수 있다.
이러한 선택 가능한 구현에 있어서, 흐름(400)은 하기의 단계들을 더 포함할 수 있다.
단계(440)에서, 검출하고자 하는 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 큰 제1 검출하고자 하는 포인트를 획득하여 제1 검출하고자 하는 포인트 집합을 형성한다.
단계(450)에서, 제1 검출하고자 하는 포인트 집합 중 각 검출하고자 하는 포인트의 위치 정보에 기반하여 검출하고자 하는 포인트 클라우드 데이터에 대응되는 차량 공간 위치 정보를 생성한다.
일부 응용 정경에 있어서, 검출하고자 하는 포인트 클라우드 데이터를 차량 검출 모델에 입력한 후 획득한 검출 결과는 트레이닝하고자 하는 포인트 클라우드 데이터가 차량 윤곽에 해당되는 포인트의 2차원 라벨 데이터와 동일한 표현 형식을 구비할 수 있다. 즉, 검출 결과도 26개 채널을 구비하며, 여기서, 첫번째 채널의 수치는 현재의 차량 검출 모델에 기반한 상기 검출하고자 하는 포인트들이 차량 윤곽에 해당되는 확률을 표시하고, 두번째 채널의 수치는 현재의 차량 검출 모델에 기반한 상기 검출하고자 하는 포인트들이 차량 윤곽에 해당되지 않는 확률을 표시한다. 제3~26 채널의 값은 상기 검출하고자 하는 포인트의 공간 위치를 표시할 수 있다.
이러할 경우, 검출하고자 하는 포인트 클라우드 데이터의 검출 결과 중 제1 채널의 수치가 기 설정된 역치보다 큰 검출하고자 하는 포인트를 차량 윤곽에 해당되는 포인트로서 하고, 예를 들면 데이터 융합의 기술을 통해 이러한 차량 윤곽에 해당되는 포인트의 공간 위치에 근거하여 상기 검출하고자 하는 포인트 클라우드 데이터에서 차량이 처한 위치를 복원해낼 수 있다.
본 발명의 상기 실시예에서 제공하는 방법은, 포인트 클라우드 데이터 수집 장치로 수집한 포인트 클라우드 데이터과 이러한 포인트 클라우드 데이터에 대한 라벨을 통해 완전 회선 신경망 모델을 트레이닝하여 차량 윤곽 검출에 적합한 차량 검출 모델을 획득하고, 상기 차량 검출 모델로 포인트 클라우드 데이터 에 차량 윤곽이 포함되는지를 판단함으로써, 기존의 2차원 이미지를 이용하여 차량 윤곽을 검출할 경우 차량의 2차원 척도의 변화로 인해 검출이 어려워지고 검출의 오차를 발생시키는 것을 방지한다.
나아가 도5를 참조하면, 상기 각 도에 도시된 방법의 구현으로, 본 발명은 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 장치의 일 실시예를 제공하고, 상기 장치 실시예와 도2에 도시된 방법 실시예는 상호 대응되며, 상기 장치는 구체적으로 각종 전자 기기에 적용될 수 있다.
도5에 도시된 바와 같이, 본 실시예의 상기 장치(500)는 획득 모듈(510), 라벨 데이터 생성 모듈(520), 트레이닝 모듈(530) 및 검출 모듈(540)을 포함한다.
여기서, 획득 모듈(510)은 트레이닝하고자 하는 포인트 클라우드 데이터를 획득하도록 구성될 수 있다.
라벨 데이터 생성 모듈(520)은 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트의 라벨에 응답하여, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하도록 구성될 수 있으며, 여기서, 라벨은 각 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트가 차량 윤곽에 해당되는지를 지시하기 위한 것이다.
트레이닝 모듈(530)은 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트와 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터에 기반하여 완전 회선 신경망 모델을 트레이닝하여 차량 검출 모델을 획득하도록 구성될 수 있다.
검출 모듈(540)은 검출하고자 하는 포인트 클라우드 데이터를 획득하고, 차량 검출 모델에 기반하여 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하도록 구성될 수 있다.
일부 선택 가능한 구현에 있어서, 획득 모듈(510)은 포인트 클라우드 데이터 수집 장치로 수집한 트레이닝하고자 하는 3차원 데이터를 맵핑하여 트레이닝하고자 하는 깊이 맵을 생성하도록 더 구성될 수 있으며, 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 트레이닝하고자 하는 포인트 클라우드 데이터 중 트레이닝하고자 하는 3차원 데이터에 일일이 대응되는 각 포인트이다.
일부 선택 가능한 구현에 있어서, 각 트레이닝하고자 하는 3차원 데이터 D(x, y, z)는 포인트 클라우드 데이터 수집 장치를 원점으로 하고, 수직 상향 방향을 z축으로 하며, 수평면 내에서 수직되는 임의의 2개의 축을 각각 x축과 y축의 좌표계 중의 좌표값으로 하고, 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 좌표는 (r, c)이며, 각 픽셀 포인트의 수치는 (d, z)이며, 여기서,
Figure 112016082258590-pat00019
;
θ는 각 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제1 평면 사이의 협각이고,
Figure 112016082258590-pat00020
는 포인트 클라우드 데이터 수집 장치의 수평 해상도이며, 제1 평면은 y축과 z축으로 이루어진 평면이다. θ는 각 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제2 평면 사이의 협각이고,
Figure 112016082258590-pat00021
는 포인트 클라우드 데이터 수집 장치의 수직 해상도이며, 제2 평면은 x축과 y축으로 이루어진 평면이다.
일부 선택 가능한 구현에 있어서, 라벨 데이터 생성 모듈(520)은 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되면, 차량 윤곽에 해당되는 상기 포인트들을 변환하여 26 채널의 2차원 라벨 데이터를 생성하도록 더 구성될 수 있으며, 여기서, 26 채널 중의 제1 채널의 수치는 1이고, 제2 채널의 수치는 0이며, 26 채널 중의 제3~24채널은 각각 트레이닝하고자 하는 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트에 대한 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체의 각 정점의 각 좌표의 회전 벡터이다. 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되지 않으면, 차량 윤곽에 해당되지 않는 상기 포인트들을 변환하여 2 채널의 2차원 라벨 데이터를 생성하도록 더 구성될 수 있으며, 여기서, 2채널 중의 제1 채널의 수치는 0이고, 제2 채널의 수치는 1이다.
일부 선택 가능한 구현에 있어서, 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트의 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체 각 정점의 각 좌표의 회전 벡터(x p , y p , z p )는,
Figure 112016082258590-pat00022
이고;
여기서, R는 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 임의의 한 포인트P(x i , y i , z i )의 회전 행렬이고,
Figure 112016082258590-pat00023
이다.
일부 선택 가능한 구현에 있어서, 트레이닝 모듈(530)은 완전 회선 신경망의 파라미터를 초기화시키고; 손실 함수에 기반하여 완전 회선 신경망의 파라미터를 조절하되, 여기서, 손실 함수는 현재 출력과 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터 사이의 편차이고, 현재 출력은 현재 트레이닝하고자 하는 포인트 클라우드 데이터 및 완전 회선 신경망의 현재 파라미터에 대응되는 완전 회선 신경망의 출력이며; 현재 출력에 대응되는 손실 함수가 최소치일 경우, 손실 함수에 대응되는 파라미터를 차량 검출 모델의 파라미터로서 출력하고; 상기 손실 함수가 최소치가 아니면, 손실 함수에 기반하여 완전 회선 신경망의 파라미터를 조절하는 단계를 반복하여 수행하도록 더 구성될 수 있다.
일부 선택 가능한 구현에 있어서, 검출 모듈(540)은 포인트 클라우드 데이터 수집 장치로 수집한 검출하고자 하는 3차원 데이터를 맵핑하여 검출하고자 하는 깊이 맵을 생성하되, 검출하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 검출하고자 하는 포인트 클라우드 데이터 중 검출하고자 하는 3차원 데이터에 일일이 대응되는 각 검출하고자 하는 포인트이며; 차량 검출 모델에 기반하여 검출하고자 하는 포인트 클라우드 데이터에서 각 검출하고자 하는 포인트의 예측 결과를 획득하도록 더 구성될 수 있다.
여기서, 예측 결과는 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률을 포함할 수 있으며, 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 크면, 검출하고자 하는 포인트가 차량 윤곽에 해당되는 것으로 확정한다.
일부 선택 가능한 구현에 있어서, 예측 결과는 검출하고자 하는 포인트의 위치 정보를 더 포함할 수 있다.
이러한 선택 가능한 구현에 있어서, 검출 모듈(540)은 검출하고자 하는 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 큰 제1 검출하고자 하는 포인트를 획득하여 제1 검출하고자 하는 포인트 집합을 형성하며; 제1 검출하고자 하는 포인트 집합 중 각 검출하고자 하는 포인트의 위치 정보에 기반하여 검출하고자 하는 포인트 클라우드 데이터에 대응되는 차량 공간 위치 정보를 생성하도록 더 구성될 수 있다.
상기 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 장치(500)는 프로세서, 메모리 등과 같은 기타 공지된 구조를 더 포함하나, 본 발명의 실시예를 불필요하게 흐리지 않기 위하여, 도5에서는 이러한 공지된 구조들을 도시하지 않았음을 본 기술분야의 통상의 기술자는 자명할 할 것이다.
이하 도6을 참조하면, 도6은 본 발명의 실시예의 단말기 장치 또는 서버의 실현에 적용되는 컴퓨터 시스템(600)의 구조적 개략도이다.
도6에 도시된 바와 같이, 컴퓨터 시스템(600)은 중앙 처리 유닛(CPU)(601)을 포함하고, 이는 읽기 전용 메모리 장치(ROM)(602)에 저장된 프로그램 또는 저장부(608)로부터 랜덤 액세스 메모리 장치(RAM)(603)에 로딩된 프로그램에 의하여 각종 적당한 동작 및 처리를 실행할 수 있다. RAM(603)에는 시스템(600) 조작에 필요한 각종 프로그램 및 데이터이 더 저장되어 있다. CPU(601), ROM(602) 및 RAM(603)은 버스라인(604)을 통해 서로 연결된다. 입력/출력(I/O) 인터페이스(605)도 버스라인(604)에 연결된다.
I/O 인터페이스(605)에 연결되는 부재로서, 키보드, 마우스 등을 포함하는 입력부(606)와, 예를 들어 음극선관(CRT), 액정 표시 장치(LCD) 등 및 스피커 등을 포함하는 출력부(607)와, 하드 디스크 등을 포함하는 저장부(608)와, 예를 들어 LAN 카드, 모뎀 등의 네트워크 인터페이스 카드를 포함하는 통신부(609)가 포함된다. 통신부(609)는 인터넷과 같은 네트워크를 통하여 통신 처리를 실행한다. 구동부(610)도 수요에 따라I/O 인터페이스(605)에 연결된다. 자기 디스크, 광 디스크, 광자기 디스크, 반도체 메모리 장치 등과 같은 착탈 가능한 매체(611)는 구동부(610)로부터 판독된 컴퓨터 프로그램을 수요에 따라 저장부(608)에 설치하도록 수요에 따라 구동부(610)에 설치된다.
특히, 본 개시의 실시예에 의하면, 흐름도를 참조하여 설명한 상기 과정들은 컴퓨터 소프트웨어 프로그램으로 실현될 수 있다. 예를 들어, 본 개시의 실시예는 컴퓨터 프로그램 제품을 포함하고, 기계 판독 가능한 매체에 유형적으로 포함되는 컴퓨터 프로그램을 포함하며, 상기 컴퓨터 프로그램은 흐름도에 도시된 방법을 실행하기 위한 프로그램 코드를 포함한다. 이러한 실시예에 있어서, 상기 컴퓨터 프로그램은 통신부(609)를 경유하여 네트워크로부터 다운로드되어 설치되거나, 및/또는 착탈 가능한 매체(611)로부터 설치될 수 있다.
첨부된 도면 중의 흐름도 및 블록도는 본 출원의 각 실시예에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 구현 가능한 체계구조, 기능 및 조작을 도시하였다. 이러한 방면에서, 흐름도 또는 블록도 중의 각 블록은 하나의 모듈, 프로그램 세그먼트 또는 코드의 일부분을 대표할 수 있고, 상기 모듈, 프로그램 세그먼트 또는 코드의 일부분은 규정된 로직 기능을 구현하기 위한 하나 또는 다수의 실행 가능한 명령을 포함한다. 일부 대체적인 구현에 있어서, 블록에 표기된 기능은 첨부된 도면에 표기된 순서와 다른 순서로 발생할 수도 있음을 주의하여야 한다. 예를 들어, 순차적으로 표시된 두개의 블록은 실제적으로 기본상 동시에 실행될 수 있고, 경우에 따라 반대된 순서에 따라 실행될 수도 있으며, 이는 관련된 기능에 따라 결정된다. 블록도 및/또는 흐름도 중의 각 블록 및 블록도 및/또는 흐름도 중의 블록의 조합은 규정된 기능 또는 조작에 전용되는 하드웨어를 기반으로 하는 시스템으로 구현되거나, 전용 하드웨어와 컴퓨터 명령의 조합으로 구현될 수 있음을 주의하여야 한다.
본 출원에 설명된 관련 유닛은 소프트 웨어의 방식으로 구현되거나 하드 웨어의 방식으로 구현될 수 있다. 설명된 유닛은 프로세서에 설치될 수도 있으며, 예를 들어, 프로세서는 획득 모듈, 라벨 데이터 생성 모듈, 트레이닝 모듈 및 검출 모듈을 포함한다고 설명될 수 있다. 여기서, 이러한 모듈의 명칭은 일부 경우에 해당 모듈 자체에 대한 한정을 구성하지 않으며, 예를 들어, 획득 모듈은 "트레이닝하고자 하는 포인트 클라우드 데이터를 획득하기 위한 모듈"로 설명될 수도 있다.
다른 한 방면에 있어서, 본 출원은 또한 비휘발성 컴퓨터 저장 매체를 제공하며, 상기 비휘발성 컴퓨터 저장 매체는 상술한 실시예 중의 상기 장치에 포함된 비휘발성 컴퓨터 저장 매체이거나, 독립적으로 존재하며 단말기 장치에 설치되지 않은 비휘발성 컴퓨터 저장 매체일 수 있다. 상기 비휘발성 컴퓨터 저장 매체는 하나 또는 복수의 프로그램을 저장하고, 상기 하나 또는 복수의 프로그램이 하나의 장치에 의해 실행될 경우, 상기 장치로 하여금, 트레이닝하고자 하는 포인트 클라우드 데이터를 획득하고, 트레이닝하고자 하는 포인트 클라우드 데이터 집합 중의 각 포인트의 라벨에 응답하여, 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하고, 트레이닝하고자 하는 포인트 클라우드 데이터 및 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터에 기반하여 완전 회선 신경망 모델을 트레이닝하여 차량 검출 모델을 획득하고, 검출하고자 하는 포인트 클라우드 데이터를 획득하고, 차량 검출 모델에 기반하여 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하도록 하되, 라벨은 각 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트가 차량 윤곽에 해당되는지를 지시하기 위한 것이다.
이상의 설명은 오직 본 출원의 비교적 바람직한 실시예 및 운용하는 기술적 원리에 대한 설명이다. 해당 기술분야의 당업자는 본 발명에 관련된 발명의 범위가 상기 기술적 특징들의 특정 조합으로 이루어진 기술적 방안들에 한정되는 것이 아니라 본 발명의 주지를 벗어나지 않고서 상기 기술적 특징들 또는 그들의 균등한 특징들의 임의의 조합으로 이루어진 기타 기술적 방안들, 예를 들어, 상기 특징을 본 출원에 개시되어 있으나 이에 한정되지 않는 유사한 기능을 구비한 기술적 특징과 서로 대체하여 이루어진 기술적 방안도 포함하고 있음을 자명할 것이다.

Claims (25)

  1. 트레이닝하고자 하는 포인트 클라우드 데이터를 획득하는 단계;
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대한 라벨에 응답하여, 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하되, 상기 라벨은 각 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트가 차량 윤곽에 해당되는지를 지시하기 위한 것이고, 상기 라벨 데이터는 차량 윤곽에 해당하는지에 대한 정보를 포함하는 단계;
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트와 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터에 기반하여 완전 회선 신경망 모델을 트레이닝하여 차량 검출 모델을 획득하는 단계; 및
    검출하고자 하는 포인트 클라우드 데이터를 획득하고, 상기 차량 검출 모델에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법.
  2. 제1항에 있어서,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터를 획득하는 단계는,
    포인트 클라우드 데이터 수집 장치로 수집한 트레이닝하고자 하는 3차원 데이터를 맵핑하여 트레이닝하고자 하는 깊이 맵을 생성하는 단계를 포함하되, 상기 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중 상기 트레이닝하고자 하는 3차원 데이터에 일일이 대응되는 각 포인트인 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법.
  3. 제2항에 있어서,
    각 상기 트레이닝하고자 하는 3차원 데이터 D(x, y, z)는 상기 포인트 클라우드 데이터 수집 장치를 원점으로 하여, 수직 상향 방향을 z축으로 하고, 수평면 내에서 수직되는 임의의 2개의 축을 각각 x축과 y축의 좌표계 중의 좌표값으로 하며,
    상기 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 좌표는 (r, c)이고, 각 상기 픽셀 포인트의 수치는 (d, z)이며,
    여기서,
    Figure 112016082258590-pat00024
    이고;
    θ는 각 상기 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제1 평면 사이의 협각이고,
    Figure 112016082258590-pat00025
    는 상기 포인트 클라우드 데이터 수집 장치의 수평 해상도이며, 상기 제1 평면은 y축과 z축으로 이루어진 평면이고;
    φ는 각 상기 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제2 평면 사이의 협각이고,
    Figure 112016082258590-pat00026
    는 상기 포인트 클라우드 데이터 수집 장치의 수직 해상도이며, 상기 제2 평면은 x축과 y축으로 이루어진 평면인 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법.
  4. 제3항에 있어서,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대한 라벨에 응답하여, 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하는 단계는,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되면, 차량 윤곽에 해당되는 상기 포인트들을 변환하여 26 채널의 2차원 라벨 데이터를 생성하되, 상기 26 채널 중의 제1 채널의 수치는 1이고, 제2 채널의 수치는 0이며, 상기 26 채널 중의 제3~24채널은 각각 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트의 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체 각 정점의 각 좌표의 회전 벡터인 단계; 및
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되지 않으면, 차량 윤곽에 해당되지 않는 상기 포인트들을 변환하여 2 채널의 2차원 라벨 데이터를 생성하되, 상기 2 채널 중의 제1 채널의 수치는 0이고, 제2 채널의 수치는 1인 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법.
  5. 제3항에 있어서,
    상기 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트의 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체 각 정점의 각 좌표의 회전 벡터(x' p , y' p , z' p )는,
    Figure 112016082258590-pat00027
    이고;
    여기서, R은 상기 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 임의의 한 포인트P(x i , y i , z i )의 회전 행렬이고,
    Figure 112016082258590-pat00028
    것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법.
  6. 제1항 내지 제5항 중의 임의의 한 항에 있어서,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트와 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중 의 각 포인트에 대응되는 라벨 데이터에 기반하여 완전 회선 신경망 모델을 트레이닝하여 차량 검출 모델을 획득하는 단계는,
    상기 완전 회선 신경망의 파라미터를 초기화시키는 단계;
    손실 함수에 기반하여 상기 완전 회선 신경망의 파라미터를 조절하되, 상기 손실 함수는 현재 출력과 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터 사이의 편차이고, 상기 현재 출력은 현재 트레이닝하고자 하는 포인트 클라우드 데이터 및 상기 완전 회선 신경망의 현재 파라미터에 대응되는 상기 완전 회선 신경망의 출력인 단계;
    상기 손실 함수가 최소치일 경우, 상기 손실 함수에 대응되는 파라미터를 차량 검출 모델의 파라미터로서 출력하는 단계;
    상기 손실 함수가 최소치가 아니면, 상기 손실 함수에 기반하여 상기 완전 회선 신경망의 파라미터를 조절하는 단계를 반복하여 수행하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법.
  7. 제5항에 있어서,
    상기 검출하고자 하는 포인트 클라우드 데이터를 획득하고, 상기 차량 검출 모델에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하는 단계는,
    상기 포인트 클라우드 데이터 수집 장치로 수집한 검출하고자 하는 3차원 데이터를 맵핑하여 검출하고자 하는 깊이 맵을 생성하되, 상기 검출하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 상기 검출하고자 하는 포인트 클라우드 데이터 중 상기 검출하고자 하는 3차원 데이터에 일일이 대응되는 각 검출하고자 하는 포인트인 단계;
    상기 차량 검출 모델에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터에서 각 상기 검출하고자 하는 포인트의 예측 결과를 획득하되, 상기 예측 결과는 상기 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률을 포함하는 단계; 및
    상기 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 크면, 상기 검출하고자 하는 포인트가 차량 윤곽에 해당된다고 확정하는 단계를 포함하는 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법.
  8. 제7항에 있어서,
    상기 예측 결과는 상기 검출하고자 하는 포인트의 위치 정보를 더 포함하고,
    상기 검출하고자 하는 포인트 클라우드 데이터를 획득하고, 상기 차량 검출 모델에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하는 단계는,
    상기 검출하고자 하는 포인트 클라우드 데이터에서 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 큰 제1 검출하고자 하는 포인트를 획득하여 제1 검출하고자 하는 포인트 집합을 형성하는 단계; 및
    상기 제1 검출하고자 하는 포인트 집합 중의 각 검출하고자 하는 포인트의 위치 정보에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터에 대응되는 차량 공간 위치 정보를 생성하는 단계를 더 포함하는 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법.
  9. 트레이닝하고자 하는 포인트 클라우드 데이터를 획득하도록 구성되는 획득 모듈;
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대한 라벨에 응답하여, 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하도록 구성되되, 상기 라벨은 각 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트가 차량 윤곽에 해당되는지를 지시하기 위한 것이고, 상기 라벨 데이터는 차량 윤곽에 해당하는지에 대한 정보를 포함하는 라벨 데이터 생성 모듈;
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트와 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터에 기반하여 완전 회선 신경망 모델을 트레이닝하여 차량 검출 모델을 획득하도록 구성되는 트레이닝 모듈; 및
    검출하고자 하는 포인트 클라우드 데이터를 획득하고, 상기 차량 검출 모델에 기반하여, 상기 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하도록 구성되는 검출 모듈을 포함하는 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 장치.
  10. 제9항에 있어서,
    상기 획득 모듈은,
    포인트 클라우드 데이터 수집 장치로 수집한 트레이닝하고자 하는 3차원 데이터를 맵핑하여 트레이닝하고자 하는 깊이 맵을 생성하도록 구성되되, 상기 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중 상기 트레이닝하고자 하는 3차원 데이터에 일일이 대응되는 각 포인트인 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 장치.
  11. 제10항에 있어서,
    각 상기 트레이닝하고자 하는 3차원 데이터 D(x, y, z)는 상기 포인트 클라우드 데이터 수집 장치를 원점으로 하고, 수직 상향 방향을 z축으로 하고, 수평면 내에서 수직되는 임의의 2개의 축을 각각 x축과 y축의 좌표계 중의 좌표값으로 하며,
    상기 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 좌표는 (r, c)이고, 각 상기 픽셀 포인트의 수치는 (d, z)이며,
    여기서,
    Figure 112016082258590-pat00029
    이고;
    θ는 각 상기 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제1 평면 사이의 협각이고,
    Figure 112016082258590-pat00030
    는 상기 포인트 클라우드 데이터 수집 장치의 수평 해상도이며, 상기 제1 평면은 y축과 z축으로 이루어진 평면이고,
    φ는 각 상기 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제2 평면 사이의 협각이고,
    Figure 112016082258590-pat00031
    는 상기 포인트 클라우드 데이터 수집 장치의 수직 해상도이며, 상기 제2 평면은 x축과 y축으로 이루어진 평면인 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 장치.
  12. 제11항에 있어서,
    상기 라벨 데이터 생성 모듈은,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되면, 차량 윤곽에 해당되는 상기 포인트들을 변환하여 26 채널의 2차원 라벨 데이터를 생성하고,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되지 않으면, 차량 윤곽에 해당되지 않는 상기 포인트들을 변환하여 2 채널의 2차원 라벨 데이터를 생성하도록 더 구성되되,
    상기 26 채널 중의 제1 채널의 수치는 1이고, 제2 채널의 수치는 0이며, 상기 26 채널 중의 제3~24채널은 각각 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트의 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체 각 정점의 각 좌표의 회전 벡터이며, 상기 2 채널 중의 제1 채널의 수치는 0이고, 제2 채널의 수치는 1인 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 장치.
  13. 제11항에 있어서,
    상기 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트의 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체 각 정점의 각 좌표의 회전 벡터(x' p , y' p , z' p )는,
    Figure 112016082258590-pat00032
    이고;
    여기서, R은 상기 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 임의의 한 포인트P(x i , y i , z i )의 회전 행렬이고,
    Figure 112016082258590-pat00033
    인 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 장치.
  14. 제9항 내지 제13항 중의 임의의 한 항에 있어서,
    상기 트레이닝 모듈은,
    상기 완전 회선 신경망의 파라미터를 초기화하시키고,
    손실 함수에 기반하여 상기 완전 회선 신경망의 파라미터를 조절하고,
    상기 손실 함수가 최소치일 경우, 상기 손실 함수에 대응되는 파라미터를 차량 검출 모델의 파라미터로서 출력하고,
    상기 손실 함수가 최소치가 아니면, 상기 손실 함수에 기반하여 상기 완전 회선 신경망의 파라미터를 조절하는 단계를 반복하여 수행하도록 더 구성되되,
    상기 손실 함수는 현재 출력과 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터 사이의 편차이고, 상기 현재 출력은 현재 트레이닝하고자 하는 포인트 클라우드 데이터 및 상기 완전 회선 신경망의 현재 파라미터에 대응되는 상기 완전 회선 신경망의 출력인 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 장치.
  15. 제13항에 있어서,
    상기 검출 모듈은,
    상기 포인트 클라우드 데이터 수집 장치로 수집한 검출하고자 하는 3차원 데이터를 맵핑하여 검출하고자 하는 깊이 맵을 생성하고,
    상기 차량 검출 모델에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터에서 각 상기 검출하고자 하는 포인트의 상기 검출하고자 하는 포인트의 예측 결과를 획득하고,
    상기 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 크면, 상기 검출하고자 하는 포인트가 차량 윤곽에 해당된다고 확정하도록 더 구성되되,
    상기 검출하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 상기 검출하고자 하는 포인트 클라우드 데이터 중 상기 검출하고자 하는 3차원 데이터에 일일이 대응되는 각 검출하고자 하는 포인트이고,
    상기 예측 결과는 상기 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률을 포함하는 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 장치.
  16. 제15항에 있어서,
    상기 예측 결과는 상기 검출하고자 하는 포인트의 위치 정보를 더 포함하고,
    상기 검출 모듈은,
    상기 검출하고자 하는 포인트 클라우드 데이터에서 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 큰 제1 검출하고자 하는 포인트를 획득하여 제1 검출하고자 하는 포인트 집합을 형성하고,
    상기 제1 검출하고자 하는 포인트 집합 중의 각 검출하고자 하는 포인트의 위치 정보에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터에 대응되는 차량 공간 위치 정보를 생성하도록 더 구성되는 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 장치.
  17. 적어도 하나의 프로세서; 및
    메모리 장치를 포함하되,
    상기 메모리 장치는 명령어들을 포함하고, 상기 명령어들은 상기 적어도 하나의 프로세서에 의해 실행될 경우, 상기 적어도 하나의 프로세서가,
    트레이닝하고자 하는 포인트 클라우드 데이터를 획득하고,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대한 라벨에 응답하여, 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하고,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트와 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터에 기반하여 완전 회선 신경망 모델을 트레이닝하여 차량 검출 모델을 획득하고,
    검출하고자 하는 포인트 클라우드 데이터를 획득하고, 상기 차량 검출 모델에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하는 조작들을 진행하도록 하되,
    상기 라벨은 각 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트가 차량 윤곽에 해당되는지를 지시하기 위한 것이고, 상기 라벨 데이터는 차량 윤곽에 해당하는지에 대한 정보를 포함하는 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 기기.
  18. 제17항에 있어서,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터를 획득하는 조작은,
    포인트 클라우드 데이터 수집 장치로 수집한 트레이닝하고자 하는 3차원 데이터를 맵핑하여 트레이닝하고자 하는 깊이 맵을 생성하는 것을 포함하되,
    상기 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중 상기 트레이닝하고자 하는 3차원 데이터에 일일이 대응되는 각 포인트인 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 기기.
  19. 제18항에 있어서,
    각 상기 트레이닝하고자 하는 3차원 데이터 D(x, y, z)는 상기 포인트 클라우드 데이터 수집 장치를 원점으로 하여, 수직 상향 방향을 z축으로 하고, 수평면 내에서 수직되는 임의의 2개의 축을 각각 x축과 y축의 좌표계 중의 좌표값으로 하며,
    상기 트레이닝하고자 하는 깊이 맵 중의 각 픽셀 포인트의 좌표는 (r, c)이고, 각 상기 픽셀 포인트의 수치는 (d, z)이며,
    여기서,
    Figure 112016082258590-pat00034
    이고;
    θ는 각 상기 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제1 평면 사이의 협각이고,
    Figure 112016082258590-pat00035
    는 상기 포인트 클라우드 데이터 수집 장치의 수평 해상도이며, 상기 제1 평면은 y축과 z축으로 이루어진 평면이고;
    φ는 각 상기 트레이닝하고자 하는 3차원 데이터 D와 원점 사이의 연결 라인과 제2 평면 사이의 협각이고,
    Figure 112016082258590-pat00036
    는 상기 포인트 클라우드 데이터 수집 장치의 수직 해상도이며, 상기 제2 평면은 x축과 y축으로 이루어진 평면인 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 기기.
  20. 제19항에 있어서,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대한 라벨에 응답하여, 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하는 조작은,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되면, 차량 윤곽에 해당되는 상기 포인트들을 변환하여 26 채널의 2차원 라벨 데이터를 생성하고,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되지 않으면, 차량 윤곽에 해당되지 않는 상기 포인트들을 변환하여 2 채널의 2차원 라벨 데이터를 생성하는 것을 포함하되,
    상기 26 채널 중의 제1 채널의 수치는 1이고, 제2 채널의 수치는 0이며, 상기 26 채널 중의 제3~24채널은 각각 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트의 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체 각 정점의 각 좌표의 회전 벡터이고,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 포인트들이 차량 윤곽에 해당되지 않으면, 차량 윤곽에 해당되지 않는 상기 포인트들을 변환하여 2 채널의 2차원 라벨 데이터를 생성하되, 상기 2 채널 중의 제1 채널의 수치는 0이고, 제2 채널의 수치는 1인 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 기기.
  21. 제19항에 있어서,
    상기 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 각 포인트의 각 3차원 좌표에 대한 차량이 위치한 3차원 입방체 각 정점의 각 좌표의 회전 벡터(x' p , y' p , z' p )는,
    Figure 112016082258590-pat00037
    이고;
    여기서, R은 상기 포인트 클라우드 데이터 중 차량 윤곽에 해당되는 임의의 한 포인트P(x i , y i , z i )의 회전 행렬이고,
    Figure 112016082258590-pat00038
    인 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 기기.
  22. 제17항 내지 제21항 중의 임의의 한 항에 있어서,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트와 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중 의 각 포인트에 대응되는 라벨 데이터에 기반하여 완전 회선 신경망 모델을 트레이닝하여 차량 검출 모델을 획득하는 조작은,
    상기 완전 회선 신경망의 파라미터를 초기화시키고,
    손실 함수에 기반하여 상기 완전 회선 신경망의 파라미터를 조절하고,
    상기 손실 함수가 최소치일 경우, 상기 손실 함수에 대응되는 파라미터를 차량 검출 모델의 파라미터로서 출력하고,
    상기 손실 함수가 최소치가 아니면, 상기 손실 함수에 기반하여 상기 완전 회선 신경망의 파라미터를 조절하는 단계를 반복하여 수행하는 것을 포함하되,
    상기 손실 함수는 현재 출력과 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터 사이의 편차이고, 상기 현재 출력은 현재 트레이닝하고자 하는 포인트 클라우드 데이터 및 상기 완전 회선 신경망의 현재 파라미터에 대응되는 상기 완전 회선 신경망의 출력인 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 기기.
  23. 제21항에 있어서,
    상기 검출하고자 하는 포인트 클라우드 데이터를 획득하고, 상기 차량 검출 모델에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하는 조작은,
    상기 포인트 클라우드 데이터 수집 장치로 수집한 검출하고자 하는 3차원 데이터를 맵핑하여 검출하고자 하는 깊이 맵을 생성하고,
    상기 차량 검출 모델에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터에서 각 상기 검출하고자 하는 포인트의 예측 결과를 획득하고,
    상기 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 크면, 상기 검출하고자 하는 포인트가 차량 윤곽에 해당된다고 확정하는 것을 포함하되,
    상기 검출하고자 하는 깊이 맵 중의 각 픽셀 포인트의 수치는 상기 검출하고자 하는 포인트 클라우드 데이터 중 상기 검출하고자 하는 3차원 데이터에 일일이 대응되는 각 검출하고자 하는 포인트이고,
    상기 예측 결과는 상기 검출하고자 하는 포인트가 차량 윤곽에 해당되는 확률을 포함하는 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 기기.
  24. 제23항에 있어서,
    상기 예측 결과는 상기 검출하고자 하는 포인트의 위치 정보를 더 포함하고,
    상기 검출하고자 하는 포인트 클라우드 데이터를 획득하고, 상기 차량 검출 모델에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하는 조작은,
    상기 검출하고자 하는 포인트 클라우드 데이터에서 차량 윤곽에 해당되는 확률이 기 설정된 역치보다 큰 제1 검출하고자 하는 포인트를 획득하여 제1 검출하고자 하는 포인트 집합을 형성하고,
    상기 제1 검출하고자 하는 포인트 집합 중의 각 검출하고자 하는 포인트의 위치 정보에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터에 대응되는 차량 공간 위치 정보를 생성하는 것을 더 포함하는 것을 특징으로 하는 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 기기.
  25. 비휘발성 컴퓨터 저장 매체에 있어서,
    컴퓨터 프로그램을 포함하되,
    상기 컴퓨터 프로그램은 하나 또는 다수의 컴퓨터에 의해 실행될 경우, 상기 하나 또는 다수의 컴퓨터가,
    트레이닝하고자 하는 포인트 클라우드 데이터를 획득하고,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대한 라벨에 응답하여, 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터를 생성하고,
    상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트와 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트에 대응되는 라벨 데이터에 기반하여 완전 회선 신경망 모델을 트레이닝하여 차량 검출 모델을 획득하고,
    검출하고자 하는 포인트 클라우드 데이터를 획득하고, 상기 차량 검출 모델에 기반하여 상기 검출하고자 하는 포인트 클라우드 데이터 중의 각 검출하고자 하는 포인트에 대응되는 검출 결과를 획득하는 조작들을 진행하도록 하되,
    상기 라벨은 각 상기 트레이닝하고자 하는 포인트 클라우드 데이터 중의 각 포인트가 차량 윤곽에 해당되는지를 지시하기 위한 것이고, 상기 라벨 데이터는 차량 윤곽에 해당하는지에 대한 정보를 포함하는 것을 특징으로 하는 비휘발성 컴퓨터 저장 매체.
KR1020160107521A 2016-01-27 2016-08-24 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법과 장치 KR101836304B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201610057306.XA CN107025642B (zh) 2016-01-27 2016-01-27 基于点云数据的车辆轮廓检测方法和装置
CN201610057306.X 2016-01-27

Publications (2)

Publication Number Publication Date
KR20170089743A KR20170089743A (ko) 2017-08-04
KR101836304B1 true KR101836304B1 (ko) 2018-03-08

Family

ID=57612792

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160107521A KR101836304B1 (ko) 2016-01-27 2016-08-24 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법과 장치

Country Status (7)

Country Link
US (1) US10229330B2 (ko)
JP (1) JP6364049B2 (ko)
KR (1) KR101836304B1 (ko)
CN (1) CN107025642B (ko)
DE (1) DE102016116818A1 (ko)
IL (1) IL247446B (ko)
SE (1) SE541962C2 (ko)

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
KR20240007686A (ko) 2017-03-13 2024-01-16 옵시스 테크 엘티디 눈-안전 스캐닝 lidar 시스템
WO2019022941A1 (en) 2017-07-28 2019-01-31 OPSYS Tech Ltd. VCSEL LIDAR TRANSMITTER WITH LOW ANGULAR DIVERGENCE
CN107492098B (zh) * 2017-08-17 2018-04-10 广东工业大学 一种基于pca和cnn的高温锻件表面缺陷在位检测方法
US10438371B2 (en) * 2017-09-22 2019-10-08 Zoox, Inc. Three-dimensional bounding box from two-dimensional image and point cloud data
US10482628B2 (en) * 2017-09-30 2019-11-19 United States Of America As Represented By The Secretary Of The Army Photogrammetric point cloud compression for tactical networks
CN107610524A (zh) * 2017-11-02 2018-01-19 济南浪潮高新科技投资发展有限公司 一种利用激光雷达进行停车场车位智能识别的方法及装置
CN107944354B (zh) * 2017-11-10 2021-09-17 南京航空航天大学 一种基于深度学习的车辆检测方法
KR102364531B1 (ko) 2017-11-15 2022-02-23 옵시스 테크 엘티디 잡음 적응형 솔리드-스테이트 lidar 시스템
CN108108657B (zh) * 2017-11-16 2020-10-30 浙江工业大学 基于多任务深度学习的修正局部敏感哈希车辆检索方法
US10535138B2 (en) * 2017-11-21 2020-01-14 Zoox, Inc. Sensor data segmentation
CN108875902A (zh) * 2017-12-04 2018-11-23 北京旷视科技有限公司 神经网络训练方法及装置、车辆检测估计方法及装置、存储介质
US10705216B2 (en) * 2017-12-07 2020-07-07 Institute For Information Industry Three-dimensional point cloud tracking apparatus and method using recurrent neural network
TWI657407B (zh) * 2017-12-07 2019-04-21 財團法人資訊工業策進會 利用遞歸神經網路的三維點雲追蹤裝置及方法
CN108198268B (zh) * 2017-12-19 2020-10-16 江苏极熵物联科技有限公司 一种生产设备数据标定方法
CN108225348B (zh) * 2017-12-29 2021-08-24 百度在线网络技术(北京)有限公司 地图创建以及运动实体定位的方法和装置
CN110135227B (zh) * 2018-02-09 2022-06-03 电子科技大学 一种基于机器学习的激光点云室外场景自动分割方法
CN108415032B (zh) * 2018-03-05 2021-06-25 中山大学 一种基于深度学习与激光雷达的点云语义地图构建方法
KR102634880B1 (ko) * 2018-04-01 2024-02-08 옵시스 테크 엘티디 잡음 적응형 솔리드-스테이트 lidar 시스템
CN108898628A (zh) * 2018-06-21 2018-11-27 北京纵目安驰智能科技有限公司 基于单目的车辆三维目标姿态估计方法、系统、终端和存储介质
CN110634159A (zh) * 2018-06-21 2019-12-31 北京京东尚科信息技术有限公司 一种目标检测方法和装置
CN108921105B (zh) * 2018-07-06 2020-11-03 京东数字科技控股有限公司 识别目标数量的方法、装置及计算机可读存储介质
CN109325972B (zh) * 2018-07-25 2020-10-27 深圳市商汤科技有限公司 激光雷达稀疏深度图的处理方法、装置、设备及介质
CN109166128B (zh) * 2018-07-31 2021-11-26 东华大学 一种非等效三维点云分割方法
CN109101967A (zh) * 2018-08-02 2018-12-28 苏州中德睿博智能科技有限公司 基于视觉的目标对象识别与定位方法、终端以及存储介质
CN109299656B (zh) * 2018-08-13 2021-10-22 浙江零跑科技股份有限公司 一种车载视觉系统场景视深确定方法
CN109188457B (zh) * 2018-09-07 2021-06-11 百度在线网络技术(北京)有限公司 物体检测框的生成方法、装置、设备、存储介质及车辆
US11151734B2 (en) 2018-09-14 2021-10-19 Huawei Technologies Co., Ltd. Method and system for generating synthetic point cloud data using a generative model
CN113409382B (zh) * 2018-10-11 2023-06-20 百度在线网络技术(北京)有限公司 车辆损伤区域的测量方法和装置
CN110147706B (zh) 2018-10-24 2022-04-12 腾讯科技(深圳)有限公司 障碍物的识别方法和装置、存储介质、电子装置
US20190061771A1 (en) * 2018-10-29 2019-02-28 GM Global Technology Operations LLC Systems and methods for predicting sensor information
CN109344804A (zh) * 2018-10-30 2019-02-15 百度在线网络技术(北京)有限公司 一种激光点云数据的识别方法、装置、设备和介质
CN111353969B (zh) * 2018-12-20 2023-09-26 长沙智能驾驶研究院有限公司 道路可行驶区域的确定方法、装置及计算机设备
CN109858953A (zh) * 2019-01-02 2019-06-07 深圳壹账通智能科技有限公司 用户画像方法、装置、计算机设备以及存储介质
CN110047276B (zh) * 2019-03-11 2020-11-27 广州文远知行科技有限公司 障碍物车辆的拥堵状态确定方法、装置和相关产品
JP2022526998A (ja) 2019-04-09 2022-05-27 オプシス テック リミテッド レーザ制御を伴うソリッドステートlidar送光機
CN111860060A (zh) * 2019-04-29 2020-10-30 顺丰科技有限公司 目标检测方法、装置、终端设备及计算机可读存储介质
CN110111603B (zh) * 2019-05-10 2021-05-18 广州达泊智能科技有限公司 基于三维检测技术的停车辅助方法、装置及系统
US11846728B2 (en) 2019-05-30 2023-12-19 OPSYS Tech Ltd. Eye-safe long-range LIDAR system using actuator
CN110263724A (zh) * 2019-06-21 2019-09-20 腾讯科技(深圳)有限公司 图片识别方法、识别模型训练方法、装置及存储介质
CN110246183B (zh) * 2019-06-24 2022-07-15 百度在线网络技术(北京)有限公司 车轮接地点检测方法、装置及存储介质
CN110488308A (zh) * 2019-07-05 2019-11-22 北京国泰新能科技发展有限公司 一种车厢定位检测方法和装置
CN110764090A (zh) * 2019-10-22 2020-02-07 上海眼控科技股份有限公司 图像处理方法、装置、计算机设备及可读存储介质
CN111009011B (zh) * 2019-11-28 2023-09-19 深圳市镭神智能系统有限公司 车辆方向角的预测方法、装置、系统以及存储介质
CN110992337A (zh) * 2019-11-29 2020-04-10 添维信息科技(天津)有限公司 一种集装箱残损检测方法及系统
CN110969689A (zh) * 2019-12-03 2020-04-07 上海眼控科技股份有限公司 点云特征提取方法、装置、计算机设备和存储介质
KR102363501B1 (ko) * 2019-12-10 2022-02-16 주식회사 라이드플럭스 3차원 포인트 클라우드 데이터로부터 지표면 데이터를 생성하는 방법, 장치 및 컴퓨터프로그램
WO2021134258A1 (zh) * 2019-12-30 2021-07-08 深圳元戎启行科技有限公司 基于点云的目标跟踪方法、装置、计算机设备和存储介质
CN111325766B (zh) * 2020-02-20 2023-08-25 腾讯科技(深圳)有限公司 三维边缘检测方法、装置、存储介质和计算机设备
CN111325984B (zh) * 2020-03-18 2023-05-05 阿波罗智能技术(北京)有限公司 样本数据的获取方法、装置和电子设备
CN111401264A (zh) * 2020-03-19 2020-07-10 上海眼控科技股份有限公司 车辆目标检测方法、装置、计算机设备和存储介质
US11668799B2 (en) 2020-03-20 2023-06-06 Aptiv Technologies Limited Histogram based L-shape detection of target objects
CN111462108B (zh) * 2020-04-13 2023-05-02 山西新华防化装备研究院有限公司 一种基于机器学习的头面部产品设计工效学评估操作方法
CN111652245B (zh) * 2020-04-28 2024-04-30 中国平安财产保险股份有限公司 车辆轮廓检测方法、装置、计算机设备及存储介质
CN111814847B (zh) * 2020-06-19 2024-03-26 浙江工业大学 基于车辆三维轮廓的聚类方法
CN111784774B (zh) * 2020-07-06 2024-03-05 北京京东乾石科技有限公司 目标检测方法、装置、计算机可读介质及电子设备
CN111895931B (zh) * 2020-07-17 2021-11-26 嘉兴泊令科技有限公司 一种基于计算机视觉的煤矿作业区标定方法
CN114141022B (zh) * 2020-09-03 2023-05-23 丰图科技(深圳)有限公司 应急车道占用行为检测方法、装置、电子设备及存储介质
CN112150595A (zh) * 2020-09-21 2020-12-29 广东博智林机器人有限公司 一种点云数据处理方法、装置、设备及介质
CN112561922B (zh) * 2020-11-26 2024-03-01 北京大学 基于神经网络的畸变三维点云分割方法
CN112785548B (zh) * 2020-12-29 2023-07-18 中央财经大学 一种基于车载激光点云的路面裂缝检测方法
CN114693863A (zh) * 2020-12-29 2022-07-01 北京万集科技股份有限公司 一种基于激光雷达相机的车辆重识别方法及装置
CN112949463B (zh) * 2021-02-26 2023-08-04 长安大学 一种集料级配快速检测模型的建立、检测方法及系统
CN112927338A (zh) * 2021-03-30 2021-06-08 深圳裹动智驾科技有限公司 基于三维轮廓的仿真方法、存储介质及计算机设备
CN113361379B (zh) * 2021-06-03 2024-05-07 北京百度网讯科技有限公司 生成目标检测系统和检测目标的方法及装置
CN113469042A (zh) * 2021-06-30 2021-10-01 上海商汤临港智能科技有限公司 真值数据确定、神经网络训练、行驶控制方法及装置
CN113963061A (zh) * 2021-10-29 2022-01-21 广州文远知行科技有限公司 路沿分布信息获取方法、装置、电子设备和存储介质
KR102405818B1 (ko) * 2021-11-15 2022-06-07 국방과학연구소 노이즈 제거 방법, 노이즈 제거 장치 및 상기 방법을 실행시키기 위하여 기록매체에 저장된 컴퓨터 프로그램
CN114637880A (zh) * 2022-02-18 2022-06-17 厦门大学 基于多视角投影的跨维数据检索方法
CN114792417B (zh) * 2022-02-24 2023-06-16 广州文远知行科技有限公司 模型训练方法、图像识别方法、装置、设备及存储介质
CN114577155A (zh) * 2022-02-24 2022-06-03 蔚来汽车科技(安徽)有限公司 生成测点的方法及测点生成装置
CN116993923B (zh) * 2023-09-22 2023-12-26 长沙能川信息科技有限公司 换流站三维模型制作方法、系统、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070024620A1 (en) * 2005-08-01 2007-02-01 Muller-Fischer Matthias H Method of generating surface defined by boundary of three-dimensional point cloud
JP2011065400A (ja) * 2009-09-17 2011-03-31 Daihatsu Motor Co Ltd 物体認識装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3238178B2 (ja) 1990-12-27 2001-12-10 株式会社東芝 学習機械の学習法
US8332134B2 (en) 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
JP4864043B2 (ja) * 2008-05-13 2012-01-25 株式会社豊田中央研究所 画像処理装置、方法及びプログラム
US8411953B2 (en) * 2008-09-30 2013-04-02 International Business Machines Corporation Tagging images by determining a set of similar pre-tagged images and extracting prominent tags from that set
US8605998B2 (en) * 2011-05-06 2013-12-10 Toyota Motor Engineering & Manufacturing North America, Inc. Real-time 3D point cloud obstacle discriminator apparatus and associated methodology for training a classifier via bootstrapping
JP2013205983A (ja) * 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
US8996228B1 (en) 2012-09-05 2015-03-31 Google Inc. Construction zone object detection using light detection and ranging
JP6021689B2 (ja) * 2013-02-26 2016-11-09 三菱重工メカトロシステムズ株式会社 車両諸元計測処理装置、車両諸元計測方法及びプログラム
US9730643B2 (en) * 2013-10-17 2017-08-15 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
WO2015083199A1 (en) * 2013-12-04 2015-06-11 J Tech Solutions, Inc. Computer device and method executed by the computer device
CN103871079B (zh) * 2014-03-18 2016-11-09 南京金智视讯技术有限公司 基于机器学习和光流的车辆跟踪方法
US20160239976A1 (en) * 2014-10-22 2016-08-18 Pointivo, Inc. Photogrammetric methods and devices related thereto
WO2016068869A1 (en) * 2014-10-28 2016-05-06 Hewlett-Packard Development Company, L.P. Three dimensional object recognition
CN104463241A (zh) * 2014-10-31 2015-03-25 北京理工大学 一种智能交通监控系统中的车辆类型识别方法
CN104537387A (zh) * 2014-12-16 2015-04-22 广州中国科学院先进技术研究所 利用神经网络实现车型分类的方法和系统
WO2016207875A1 (en) * 2015-06-22 2016-12-29 Photomyne Ltd. System and method for detecting objects in an image
US9710714B2 (en) * 2015-08-03 2017-07-18 Nokia Technologies Oy Fusion of RGB images and LiDAR data for lane classification
US10311302B2 (en) * 2015-08-31 2019-06-04 Cape Analytics, Inc. Systems and methods for analyzing remote sensing imagery
CN105184271A (zh) * 2015-09-18 2015-12-23 苏州派瑞雷尔智能科技有限公司 一种基于深度学习的车辆自动检测方法
US10192129B2 (en) * 2015-11-18 2019-01-29 Adobe Systems Incorporated Utilizing interactive deep learning to select objects in digital visual media
US9904867B2 (en) * 2016-01-29 2018-02-27 Pointivo, Inc. Systems and methods for extracting information about objects from scene information
US9805274B2 (en) * 2016-02-03 2017-10-31 Honda Motor Co., Ltd. Partially occluded object detection using context and depth ordering
CN107131877B (zh) * 2016-02-29 2021-07-02 星克跃尔株式会社 无人飞行器航线构建方法及系统
US20170270406A1 (en) * 2016-03-18 2017-09-21 Qualcomm Incorporated Cloud-based processing using local device provided sensor data and labels
US20170312032A1 (en) * 2016-04-27 2017-11-02 Arthrology Consulting, Llc Method for augmenting a surgical field with virtual guidance content
DE102017109053A1 (de) * 2016-05-02 2017-11-02 Google Inc. Teilen von Fahrzeugeinstellungsdaten
US9886771B1 (en) * 2016-05-20 2018-02-06 Ccc Information Services Inc. Heat map of vehicle damage
US10055675B2 (en) * 2016-06-15 2018-08-21 Ford Global Technologies, Llc Training algorithm for collision avoidance using auditory data
US10311648B2 (en) * 2016-06-22 2019-06-04 Aquifi, Inc. Systems and methods for scanning three-dimensional objects
US10573018B2 (en) * 2016-07-13 2020-02-25 Intel Corporation Three dimensional scene reconstruction based on contextual analysis
PL3497550T3 (pl) * 2016-08-12 2023-07-24 Packsize, Llc Systemy i sposoby automatycznego generowania metadanych dla dokumentów multimedialnych
US10592805B2 (en) * 2016-08-26 2020-03-17 Ford Global Technologies, Llc Physics modeling for radar and ultrasonic sensors

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070024620A1 (en) * 2005-08-01 2007-02-01 Muller-Fischer Matthias H Method of generating surface defined by boundary of three-dimensional point cloud
JP2011065400A (ja) * 2009-09-17 2011-03-31 Daihatsu Motor Co Ltd 物体認識装置

Also Published As

Publication number Publication date
US10229330B2 (en) 2019-03-12
CN107025642A (zh) 2017-08-08
IL247446A0 (en) 2016-12-29
JP6364049B2 (ja) 2018-07-25
DE102016116818A1 (de) 2017-07-27
SE541962C2 (en) 2020-01-14
JP2017134814A (ja) 2017-08-03
KR20170089743A (ko) 2017-08-04
SE1651131A1 (en) 2017-07-28
US20170213093A1 (en) 2017-07-27
CN107025642B (zh) 2018-06-22
IL247446B (en) 2020-11-30

Similar Documents

Publication Publication Date Title
KR101836304B1 (ko) 포인트 클라우드 데이터에 기반하는 차량 윤곽 검출 방법과 장치
US20190325597A1 (en) Simultaneous Localization And Mapping Constraints In Generative Adversarial Networks For Monocular Depth Estimation
US10262226B1 (en) Systems and methods regarding 2D image and 3D image ensemble prediction models
Bai et al. Pillargrid: Deep learning-based cooperative perception for 3d object detection from onboard-roadside lidar
Perrollaz et al. A visibility-based approach for occupancy grid computation in disparity space
CN111860227A (zh) 训练轨迹规划模型的方法、装置和计算机存储介质
CN111476242A (zh) 一种激光点云语义分割方法及装置
CN114097006A (zh) 交叉模态传感器数据对准
CN111091023A (zh) 一种车辆检测方法、装置及电子设备
CN114359181A (zh) 一种基于图像和点云的智慧交通目标融合检测方法及系统
CN116052026B (zh) 一种无人机航拍图像目标检测方法、系统及存储介质
CN114485700A (zh) 高精度动态地图生成方法及装置
JP2023064093A (ja) 交通標識検出方法及び交通標識検出モデルのトレーニング方法
CN115588187B (zh) 基于三维点云的行人检测方法、装置、设备以及存储介质
CN116823884A (zh) 多目标跟踪方法、系统、计算机设备及存储介质
CN116704324A (zh) 基于水下图像的目标检测方法、系统、设备以及存储介质
CN116486351A (zh) 行车预警方法、装置、设备及存储介质
CN115222815A (zh) 障碍物距离检测方法、装置、计算机设备和存储介质
CN115063759A (zh) 一种三维车道线检测方法、装置、交通工具及存储介质
CN110770540A (zh) 用于构建环境模型的方法和装置
JP2022544348A (ja) 対象を識別する方法とシステム
Neto et al. The use of smartphones as a smart sensor for intelligent vehicles
CN116416457B (zh) 一种电力检修车的安全态势感知与危险预警方法
JP2013210908A (ja) 対象物識別装置
US20230267749A1 (en) System and method of segmenting free space based on electromagnetic waves

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant