KR20210111052A - 의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법 - Google Patents

의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법 Download PDF

Info

Publication number
KR20210111052A
KR20210111052A KR1020200026097A KR20200026097A KR20210111052A KR 20210111052 A KR20210111052 A KR 20210111052A KR 1020200026097 A KR1020200026097 A KR 1020200026097A KR 20200026097 A KR20200026097 A KR 20200026097A KR 20210111052 A KR20210111052 A KR 20210111052A
Authority
KR
South Korea
Prior art keywords
point cloud
target space
data
input
region
Prior art date
Application number
KR1020200026097A
Other languages
English (en)
Other versions
KR102338665B1 (ko
Inventor
정지민
조기춘
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020200026097A priority Critical patent/KR102338665B1/ko
Publication of KR20210111052A publication Critical patent/KR20210111052A/ko
Application granted granted Critical
Publication of KR102338665B1 publication Critical patent/KR102338665B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06K9/627
    • G06K9/3233
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법이 개시되며, 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 방법은, 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 상기 대상 공간에 대한 영상 입력을 수신하는 단계 및 상기 영상 입력에 대한 의미론적 영역 분할 결과에 기초하여 상기 포인트 클라우드 입력에 포함된 포인트 클러스터 각각을 상기 객체를 기준으로 분류하는 단계를 포함할 수 있다.

Description

의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법{APPARATUS AND METHOD FOR CLASSFICATING POINT CLOUD USING SEMANTIC IMAGE}
본원은 의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법에 관한 것이다.
스마트 자동차(Smart Car)라는 용어는 기계 중심의 전통적인 자동차 기술에 전기, 전자, 정보통신 기술을 융복합한 것으로, 완성차 업체, 부품업체, ICT업체 등 다양한 산업 주체들에 의해 운전자 편의 측면과 차량 안전 측면에 초점을 두어 지속적으로 발전되어 왔으며, 이러한 스마트 자동차 관련 기술은 구체적으로 첨단 운전자 보조체계(Advanced Driver Assistance System, ADAS), 자율 주행(Autonomous Vehicle), 협업 안전체계(Cooperative Safety System) 등 안전과 관련된 분야와 커넥티드 카(Connected Car)와 같은 편의와 관련된 분야로 분류될 수 있다.
특히, ADAS(Advanced Driver Assistance Systems) 또는 자율주행(Autonomous Vehicle)이 적용된 지능형 자동차는 주행 중인 차량의 주변 환경을 인식하기 위해 구비되는 각종 센서(예를 들어, 카메라, GPS, 레이더, LiDAR 등)로부터 획득되는 이종 유형 센싱 데이터의 융합을 통해 차량 주변 상황을 높은 정확도로 실시간 모니터링 함으로써 탑승자, 보행자 및 주변차량의 안전을 확보하고 주행 편의성을 향상시킬 수 있어야 한다.
특히, LiDAR는 레이저로 특정 대상과의 거리를 측정하여 대상 객체의 형태를 판별하여 자동차 주변의 도로 환경을 3차원 형상으로 인지하는 센서로, 이러한 LiDAR는 주변 대상과의 거리 측정에서의 오차가 적은 정밀한 측정 성능을 제공함으로써 장애물 인지 및 동적 물체 추적 등 다양한 차량 연계 인지 시스템에 활용 가능한 이점이 있다.
또한, 통상적으로 자동차에는 블랙 박스 등 차량 주변 영상 정보를 획득하기 위한 카메라가 탑재되며, 이러한 카메라에 의해 획득되는 영상 정보와 전술한 LiDAR에 의해 획득되는 포인트 클라우드 형태의 센서 정보를 융합한다면, 차량 주변 도로 환경에 대한 의미론적 인지 성능을 획기적으로 향상시킬 수 있을 것이다.
본원의 배경이 되는 기술은 한국공개특허공보 제 10-2012-0114611호에 개시되어 있다.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 인공 기능 기반의 영상 처리 기법을 통해 카메라를 통해 촬영된 영상과 라이다(LiDAR)에 의해 획득된 3차원 포인트 클라우드를 실시간 융합하는 의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법을 제공하려는 것을 목적으로 한다.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 방법은, 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 상기 대상 공간에 대한 영상 입력을 수신하는 단계 및 상기 영상 입력에 대한 의미론적 영역 분할 결과에 기초하여 상기 포인트 클라우드 입력에 포함된 포인트 클러스터 각각을 상기 객체를 기준으로 분류하는 단계를 포함할 수 있다.
또한, 상기 분류하는 단계는, 상기 대상 공간 내의 관심 영역에 위치한 상기 객체에 대한 복수의 3차원 점을 소정의 기준에 따라 군집화한 클러스터 데이터를 도출하는 단계, 상기 영상 입력에 딥러닝 기반의 의미론적 영역 분할을 적용하여 상기 영상 입력의 각각의 픽셀마다의 객체 분류 데이터를 도출하는 단계 및 상기 클러스터 데이터 및 상기 객체 분류 데이터에 기초하여 상기 클러스터 데이터의 포인트 클러스터 각각에 대한 객체 라벨을 선정하여 상기 포인트 클라우드 입력을 객체 별로 분류하는 단계를 포함할 수 있다.
또한, 상기 클러스터 데이터를 도출하는 단계는, 상기 대상 공간에 대한 인지 중요도 및 상기 영상 입력에 대한 시야 정보를 기초로 상기 관심 영역을 설정하는 단계, 상기 포인트 클라우드 입력에 포함된 복수의 3차원 점 중에서 상기 관심 영역에 포함되는 복수의 3차원 점을 추출하는 단계, 상기 추출된 복수의 3차원 점을 압축하는 단계 및 상기 압축된 복수의 3차원 점 간의 밀도 정보에 기초하여 상기 압축된 복수의 3차원 점을 군집화하는 단계를 포함할 수 있다.
또한, 상기 압축하는 단계는, 상기 추출된 복수의 3차원 점에 대하여 복셀 그리드 필터 기반의 다운 샘플링을 적용하는 단계 및 상기 대상 공간에 대한 경사 정보에 기초하여 지반에 해당하는 복수의 3차원 점을 제거하는 단계를 포함할 수 있다.
또한, 상기 포인트 클라우드 입력을 객체 별로 분류하는 단계는, 상기 클러스터 데이터 및 상기 객체 분류 데이터를 동기화하는 단계, 미리 설정된 캘리브레이션 파라미터를 활용하여 상기 동기화된 클러스터 데이터를 소정의 영상 좌표계로 맵핑하는 단계, 상기 맵핑된 클러스터 데이터의 포인트 클러스터 각각에 대하여 보팅 알고리즘을 적용하여 상기 포인트 클러스터 각각에 대응되는 객체를 나타내는 객체 라벨을 선정하는 단계 및 상기 선정된 객체 라벨에 기초하여 상기 클러스터 데이터를 객체 별로 분류하는 단계를 포함할 수 있다.
또한, 상기 대상 공간은 차량에 대한 인접 영역일 수 있다.
또한, 상기 수신하는 단계는, 상기 차량에 탑재된 라이다 센서로부터 상기 대상 공간에 대한 포인트 클라우드 입력을 수신하고, 상기 차량에 탑재된 카메라 모듈로부터 상기 대상 공간에 대한 영상 입력을 수신할 수 있다.
또한, 상기 관심 영역을 설정하는 단계는, 상기 차량으로부터 상기 대상 공간에 대한 인지 중요도를 기초로 설정된 기준 거리 내의 영역 중 상기 카메라 모듈의 촬영 방향에 부합하는 영역을 상기 관심 영역으로 설정할 수 있다.
또한, 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 방법은, 상기 선정된 객체 라벨에 기초하여 분류된 상기 클러스터 데이터를 시각화하여 표시하는 단계를 포함할 수 있다.
한편, 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 장치는, 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 상기 대상 공간에 대한 영상 입력을 수신하는 입력부, 상기 대상 공간 내의 관심 영역에 위치한 상기 객체에 대한 복수의 3차원 점을 소정의 기준에 따라 군집화한 클러스터 데이터를 도출하는 포인트 클라우드 처리부, 상기 영상 입력에 딥러닝 기반의 의미론적 영역 분할을 적용하여 상기 영상 입력의 각각의 픽셀마다의 객체 분류 데이터를 도출하는 이미지 처리부 및 상기 클러스터 데이터 및 상기 객체 분류 데이터에 기초하여 상기 클러스터 데이터의 포인트 클러스터 각각에 대한 객체 라벨을 선정하여 상기 포인트 클라우드 입력을 객체 별로 분류하는 데이터 융합부를 포함할 수 있다.
또한, 상기 포인트 클라우드 처리부는, 상기 대상 공간에 대한 인지 중요도 및 상기 영상 입력에 대한 시야 정보를 기초로 상기 관심 영역을 설정하고, 상기 포인트 클라우드 입력에 포함된 복수의 3차원 점 중에서 상기 관심 영역에 포함되는 복수의 3차원 점을 추출하는 관심 영역 추출부, 상기 추출된 복수의 3차원 점을 압축하는 데이터 압축부 및 상기 압축된 복수의 3차원 점 간의 밀도 정보에 기초하여 상기 압축된 복수의 3차원 점을 군집화하는 군집화부를 포함할 수 있다.
또한, 상기 데이터 압축부는, 상기 추출된 복수의 3차원 점에 대하여 복셀 그리드 필터 기반의 다운 샘플링을 적용하는 샘플링부 및 상기 대상 공간에 대한 경사 정보에 기초하여 지반에 해당하는 복수의 3차원 점을 제거하는 지반 제거부를 포함할 수 있다.
또한, 상기 데이터 융합부는, 상기 클러스터 데이터 및 상기 객체 분류 데이터를 동기화하는 동기화부, 미리 설정된 캘리브레이션 파라미터를 활용하여 상기 동기화된 클러스터 데이터를 소정의 영상 좌표계로 맵핑하는 변환부, 상기 맵핑된 클러스터 데이터의 포인트 클러스터 각각에 대하여 보팅 알고리즘을 적용하여 상기 포인트 클러스터 각각에 대응되는 객체를 나타내는 객체 라벨을 선정하는 라벨 선정부 및 상기 선정된 객체 라벨에 기초하여 상기 클러스터 데이터를 객체 별로 분류하는 라벨 매칭부를 포함할 수 있다.
또한, 상기 대상 공간은 차량에 대한 인접 영역일 수 있다.
또한, 상기 입력부는, 상기 차량에 탑재된 라이다 센서로부터 상기 대상 공간에 대한 포인트 클라우드 입력을 수신하고, 상기 차량에 탑재된 카메라 모듈로부터 상기 대상 공간에 대한 영상 입력을 수신할 수 있다.
또한, 상기 관심 영역 추출부는, 상기 차량으로부터 상기 대상 공간에 대한 인지 중요도를 기초로 설정된 기준 거리 내의 영역 중 상기 카메라 모듈의 촬영 방향에 부합하는 영역을 상기 관심 영역으로 설정할 수 있다.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 인공 기능 기반의 영상 처리 기법을 통해 카메라를 통해 촬영된 영상과 라이다(LiDAR)에 의해 획득된 3차원 포인트 클라우드를 실시간 융합하는 의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법을 제공할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 영상 입력과 포인트 클라우드 입력에 대한 데이터 융합(Data Fusion)을 통해 차량의 주행 환경에서 주변에 위치하는 주요 객체(차량, 보행자, 이륜차 등)를 높은 정확도로 식별할 수 있으며, 나아가 식별된 객체의 차량에 대한 상대적 위치 또는 차량으로부터의 거리를 정확하게 산출할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 영상 입력의 픽셀과 포인트 클라우드 입력의 각각의 3차원 점을 매칭하며 보팅(Voting) 알고리즘을 통하여 포인트 클러스터 각각의 객체 라벨을 선정함으로써 잡음(노이즈)에 대한 강건성을 확보할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, MobileNetV2 등과 같이 비교적 가벼운 심층 신경망을 활용함으로써 추론 시간을 개선하고 실시간성을 확보할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, ROS 기반 개발 환경에서 구현할 경우, 기 개발된 자율 주행 시스템과의 융합이 용이하여 범용성이 증대될 수 있다.
다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.
도 1은 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 장치를 포함하는 인지 시스템의 개략적인 구성도이다.
도 2는 대상 공간에 대한 영상 입력 및 포인트 클라우드 입력을 나타낸 도면이다.
도 3은 대상 공간에 대한 관심 영역을 설명하기 위한 개념도이다.
도 4는 복셀 그리드 필터 기반의 다운 샘플링을 설명하기 위한 개념도이다.
도 5는 복수의 3차원 점 간의 밀도 정보에 기초한 군집화를 설명하기 위한 개념도이다.
도 6a는 영상 입력에 의미론적 영역 분할을 적용하여 픽셀마다 도출되는 객체 분류 데이터를 나타낸 도면이다.
도 6b는 영상 입력으로부터 객체 분류 데이터를 도출하기 위하여 객체의 각각의 유형마다 할당된 색상을 예시적으로 나타낸 도면이다.
도 7은 포인트 클라우드 입력을 이루는 포인터 클러스터 각각에 대한 객체 라벨이 선정된 상태를 나타낸 도면이다.
도 8a는 본원의 일 실시예에 따른 선정된 객체 라벨에 기초하여 분류된 클러스터 데이터를 2차원으로 시각화하여 나타낸 도면이다.
도 8b는 본원의 일 실시예에 따른 선정된 객체 라벨에 기초하여 분류된 클러스터 데이터를 3차원으로 시각화하여 나타낸 도면이다.
도 9는 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 장치의 개략적인 구성도이다.
도 10a는 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 장치의 포인트 클라우드 처리부의 세부 구성도이다.
도 10b는 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 장치의 데이터 융합부의 세부 구성도이다.
도 11은 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 방법에 대한 동작 흐름도이다.
도 12는 포인트 클라우드 입력에 포함된 포인트 클러스터를 객체를 기준으로 분류하는 단계에 대한 세부 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본원은 의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법에 관한 것이다.
도 1은 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 장치를 포함하는 인지 시스템의 개략적인 구성도이다.
도 1을 참조하면, 본원의 일 실시예에 따른 인지 시스템(10)은 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 장치(100)(이하에서는 '포인트 클라우드 분류 장치(100)'라 한다.) 및 차량(1)을 포함할 수 있다. 본원의 일 실시예에 따르면, 차량(1)에는 라이다 센서(미도시) 및 카메라 모듈(미도시)이 탑재될 수 있다.
포인트 클라우드 분류 장치(100) 및 차량(1) 상호간(달리 말해, 포인트 클라우드 분류 장치(100)와 라이다 센서 및 카메라 모듈 상호간)은 네트워크(20)를 통해 통신할 수 있다. 네트워크(20)는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(20)의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
포인트 클라우드 분류 장치(100)는 대상 공간(A) 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 대상 공간(A)에 대한 영상 입력을 수신할 수 있다.
도 2는 대상 공간에 대한 영상 입력 및 포인트 클라우드 입력을 나타낸 도면이다.
도 2를 참조하면, 포인트 클라우드 분류 장치(100)는 차량(1)에 탑재된 카메라 모듈(미도시)로부터 대상 공간(A)에 대한 영상 입력을 수신할 수 있다(도 2의 (a)). 또한, 포인트 클라우드 분류 장치(100)는 차량(1)에 탑재된 라이다 센서(미도시)로부터 대상 공간(A)에 대한 포인트 클라우드 입력을 수신할 수 있다(도 2의 (b)).
여기서, 대상 공간(A)은 주행 또는 정차 중인 차량(1)에 대한 인접 영역을 의미하는 것일 수 있다.
포인트 클라우드 분류 장치(100)는 수신된 영상 입력에 대한 의미론적 영역 분할 결과에 기초하여 포인트 클라우드 입력에 포함된 포인트 클러스터 각각을 대상 공간(A)에 위치(등장)하는 객체를 기준으로 분류할 수 있다.
구체적으로, 포인트 클라우드 분류 장치(100)는 포인트 클라우드 입력으로부터 대상 공간 내의 소정의 관심 영역에 위치한 객체에 대한 복수의 3차원 점을 군집화한 클러스터 데이터를 도출할 수 있다. 또한, 포인트 클라우드 분류 장치(100)는 영상 입력에 딥러닝 기반의 의미론적 영역 분할을 적용하여 영상 입력으로부터 각각의 픽셀마다의 객체 분류 데이터를 도출할 수 있다. 또한, 포인트 클라우드 분류 장치(100)는 클러스터 데이터 및 객체 분류 데이터가 도출되고 나면, 클러스터 데이터 및 객체 분류 데이터에 기초하여 클러스터 데이터의 포인트 클러스터 각각에 대한 객체 라벨을 선정하여 포인트 클라우드 입력을 객체 별로 분류하도록 동작할 수 있다.
이하에서는, 포인트 클라우드 분류 장치(100)가 클러스터 데이터를 도출하는 포인트 클라우드 처리(Point Cloud Processing) 과정을 먼저 설명하고, 객체 분류 데이터를 도출하는 이미지 처리(Image Processing) 과정을 설명한 다음, 도출된 클러스터 데이터와 객체 분류 데이터를 통해 포인터 클러스터에 객체 라벨을 할당하여 포인트 클라우드 입력을 최종 분류하는 데이터 융합(Data Fusion) 과정을 설명하도록 한다. 다만, 이러한 순서는 설명의 편의를 위한 것으로 이해됨이 바람직하며, 포인트 클라우드 처리가 항상 이미지 처리에 대하여 선행되어야 하는 것은 아니다.
전술한 포인트 클라우드 처리(Point Cloud Processing) 과정에서, 포인트 클라우드 분류 장치(100)는, 대상 공간(A)에 대한 인지 중요도 및 수신된 영상 입력에 대한 시야 정보를 기초로 관심 영역을 설정할 수 있다.
도 3은 대상 공간에 대한 관심 영역을 설명하기 위한 개념도이다.
도 3을 참조하면, 본원의 일 실시예에 따른 포인트 클라우드 분류 장치(100)는 차량(1)으로부터 대상 공간(A)에 대한 인지 중요도를 기초로 설정된 기준 거리 내의 영역(달리 말해, 차량(1)의 특정 기준점으로부터 설정된 기준 거리 이내로 떨어진 영역) 중 카메라 모듈의 촬영 방향에 부합하는 영역을 관심 영역(도 3의 ROI)으로 설정할 수 있다. 여기서, 카메라 모듈의 촬영 방향은 카메라 모듈의 시야, FoV(Field of View) 등으로 달리 지칭될 수 있다.
구체적으로, 도 3을 참조하면, 관심 영역(ROI) 설정을 위하여 설정된 기준 거리는 50m일 수 있으나, 이에만 한정되는 것은 아니며, 차량(1)의 유형, 차량(1)이 주행중인 도로의 규모, 차량(1)의 주행 위치 정보 등에 기초하여 기준 거리는 상이하게 설정될 수 있으며, 차량(1)이 주행되는 도중에도 변동될 수 있다. 또한, 도 3의 12시에서 6시 방향을 x축이라 하고, 12시 방향을 차량의 전방이라 할 때, 차량(1)이 전진 구동 중인 경우, x≥0에 해당하는 영역이 카메라 모듈의 촬영 방향에 부합하는 영역으로 결정되므로, 도 3의 빗금친 영역인 x<0에 해당하는 영역은 관심 영역(ROI)에 포함되지 않을 수 있다. 이와 반대로, 차량(1)이 후진 구동 중인 경우에는, x<0에 해당하는 영역이 카메라 모듈의 촬영 방향에 부합하는 영역으로 관심 영역(ROI)에 포함되는 것일 수 있다.
또한, 본원의 일 실시예에 따르면, 관심 영역(ROI) 설정을 위한 기준 거리 값은 차량(1)이 전진하는 경우의 기준 거리가 차량(1)이 후진하는 경우의 기준 거리보다 크게 설정될 수 있다. 이는, 차량(1)이 전진하는 경우 통상적으로 주행 속도가 후진하는 경우에 비해 빠르므로 보다 넓은 범위에 대한 객체 식별이 요구되기 때문일 수 있다. 이와 관련하여, 본원의 일 실시예에 따르면, 관심 영역(ROI) 설정을 위한 기준 거리 값은 차량(1)의 주행 속도 정보에 기초하여 결정되는 것일 수 있다. 예를 들어, 차량(1)의 주행 속도가 빠른 경우가 주행 속도가 상대적으로 느린 경우에 비하여 관심 영역(ROI) 설정을 위한 기준 거리 값이 크게 설정되는 것일 수 있다.
또한, 포인트 클라우드 분류 장치(100)는 포인트 클라우드 입력에 포함된 복수의 3차원 점 중에서 설정된 관심 영역에 포함되는 복수의 3차원 점을 추출할 수 있다.
또한, 포인트 클라우드 분류 장치(100)는 추출된 복수의 3차원 점을 압축할 수 있다. 구체적으로, 본원의 일 실시예에 따르면, 포인트 클라우드 분류 장치(100)는 추출된 복수의 3차원 점에 대하여 복셀 그리드 필터 기반의 다운 샘플링을 적용할 수 있다.
도 4는 복셀 그리드 필터 기반의 다운 샘플링을 설명하기 위한 개념도이다.
도 4를 참조하면, 라이다 센서로부터 수신되는 포인트 클라우드 입력은 차량(1)의 주변 환경에 따라 소정 영역에 대하여 수집된 3차원 점의 수가 다른 영역에 비하여 많거나 적을 수 있으므로, 포인트 클라우드 분류 장치(100)는 이를 고려하여 포인트 클라우드 입력 내의 복수의 3차원 점의 수를 필요에 따라 줄이는 다운 샘플링(Down Sampling)을 수행함으로써 포인트 클라우드 분류 장치(100)의 연산 부하를 감소시킬 수 있다.
여기서, 복셀(Voxel)이라는 용어는 2차원 이미지에서, 2차원 이미지를 구성하는 최소 단위(picture element)인 픽셀(pixel)을 3차원으로 확장한 것을 의미하며, 2차원 이미지에 비하여 깊이 정보를 더 포함하도록 결정될 수 있다.
본원의 일 실시예에 따르면, 포인트 클라우드 분류 장치(100)는 결정된 관심 영역의 크기, 포인트 클라우드 입력 내의 복수의 3차원 점의 수, 포인트 클라우드 분류 장치(100)의 연산 성능, 실시간(real-time) 연산을 위해 요구되는 연산 속도 등에 기초하여 소정의 복셀 사이즈(Leaf Size)를 결정할 수 있다. 또한, 포인트 클라우드 분류 장치(100)는 결정된 복셀 사이즈(Leaf Size)에 부합하도록 분할된 복수의 복셀 각각에 포함된 3차원 점들을 해당 복셀에 대한 중심점(대표점)으로 치환할 수 있다. 예시적으로, 도 4를 참조하면, 포인트 클라우드 분류 장치(100)에 의해 도 4의 (a)에 도시된 5개의 3차원 점을 포함하는 복셀이 도 4의 (b)에 도시된 1개의 중심점(대표점)을 포함하는 복셀로 치환될 수 있다.
또한, 포인트 클라우드 분류 장치(100)는 대상 공간(A)에 대한 경사 정보에 기초하여 지반(지면)에 해당하는 복수의 3차원 점을 제거할 수 있다. 본원의 일 실시예에 따르면, 포인트 클라우드 분류 장치(100)는 차량(1)에 탑재된 GPS 센서, 방위 센서 등에 기초하여 파악되는 차량(1)의 위치 정보로부터 대상 공간(A)에 대한 경사 정보를 획득하거나 별도의 교통정보 수집 서버(미도시)로부터 대상 공간(A)에 대한 경사 정보를 획득하는 것일 수 있다. 이와 관련하여, 포인트 클라우드 분류 장치(100)는 차량(1)의 주행 시 회피해야 하는 객체(장애물)와 무관한 지반에 해당하는 복수의 3차원 점을 제거함으로써 포인트 클라우드 분류 장치(100)의 연산 부하를 감소시킬 수 있다.
또한, 포인트 클라우드 분류 장치(100)는 압축된 복수의 3차원 점 간의 밀도 정보에 기초하여 압축된 복수의 3차원 점을 군집화하여 복수의 포인터 클러스터로 이루어진 클러스터 데이터를 생성할 수 있다.
도 5는 복수의 3차원 점 간의 밀도 정보에 기초한 군집화를 설명하기 위한 개념도이다.
도 5를 참조하면, 본원의 일 실시예에 따른 포인트 클라우드 분류 장치(100)는 전술한 압축 과정을 거친 복수의 3차원 점에 대하여 DBSCAN(Density-based spatial clustering of applications with noise) 방식의 군집화(클러스터링)를 적용할 수 있다.
구체적으로, DBSCAN 방식의 군집화는 3차원 점들이 소정의 영역에 세밀하게 밀집되어 있어 해당 영역의 밀도가 높으면, 해당 영역을 하나의 포인트 클러스터로 묶는 프로세스를 의미할 수 있다. 이러한 DBSCAN 방식의 군집화는 군집의 형태가 제한되지 않으며, 군집의 수를 지정할 필요가 없다는 이점이 있으며, DBSCAN 방식의 군집화에 의할 때, 초기 데이터로부터 근접한 데이터를 반복하여 탐색해나가는 방식으로 군집(포인트 클러스터)을 결정하게 된다.
도 5의 (a)를 참조하면, 빨간색으로 표시된 3차원 점(예를 들어, A 점 등)은 코어 포인트(Core point)를 나타내고, 노란색으로 표시된 3차원 점(예를 들어, B점 및 C점)은 보더 포인트(Border point)를 나타내고, 파란색으로 표시된 3차원 점(예를 들어, N점)은 노이즈 포인트(Noise point)를 나타낸다.
이와 관련하여, 포인트 클라우드 장치(100)는 먼저 DBSCAN 방식의 군집화를 통해 위한 최소 거리(Eps) 및 최소 데이터 수(MinPts)를 설정하고, 특정 3차원 점으로부터 최소 거리(Eps) 내에 해당하는 이웃 영역에 최소 데이터 수(MinPts) 이상의 3차원 점이 있으면 해당 3차원 점은 코어 포인트가 되며, 코어 포인트의 이웃 영역 안에 있는 3차원 점을 해당 3차원 점과 연결된 3차원 점으로 정의하고, 새롭게 정의된 코어 포인트의 이웃 영역 내의 3차원 점을 마찬가지로 연결된 코어 포인트로 정의하게 된다. 만약 코어 포인트로 결정된 3차원 점에 더 이상 이웃이 없으면 이 3차원 점은 보더 포인트가 되며, 보더 포인트 및 코어 포인트 중 어디에도 속하지 않는 3차원 점을 노이즈 포인트로 결정한다. 즉, 포인트 클라우드 장치(100)는 설정된 최소 거리(Eps) 및 최소 데이터 수(MinPts)에 기초하여 적어도 하나 이상의 코어 포인트 및 보더 포인트를 포함하는 포인트 클러스터를 결정할 수 있다.
예시적으로 도 5의 (b)를 참조하면, 포인트 클라우드 분류 장치(100)는 파란색으로 표시된 3차원 점들을 포함하는 제1포인트 클러스터 및 빨간색으로 표시된 3차원 점들을 포함하는 제2포인트 클러스터를 포함하도록 압축된 복수의 3차원 점을 군집화하여 복수의 포인터 클러스터(제1포인트 클러스터 및 제2포인트 클러스터)로 이루어진 클러스터 데이터를 생성할 수 있다.
다만, 포인트 클라우드 분류 장치(100)가 활용하는 군집화 방식은 상술한 DBSCAN 방식에 한정되는 것은 아니며, 본원의 구현예에 따라 K-평균 군집화(K-means clustering) 방식 등 종래에 이미 공지되었거나 향후 개발되는 다양한 군집화 알고리즘이 적용될 수 있다.
다음으로, 전술한 포인트 이미지 처리(Image Processing) 과정에서, 포인트 클라우드 분류 장치(100)는 카메라 모듈(미도시)로부터 획득된 영상 입력에 딥러닝 기반의 의미론적 영역 분할을 적용하여 수신된 영상 입력의 각각의 픽셀마다의 객체 분류 데이터를 도출할 수 있다.
도 6a는 영상 입력에 의미론적 영역 분할을 적용하여 픽셀마다 도출되는 객체 분류 데이터를 나타낸 도면이고, 도 6b는 영상 입력으로부터 객체 분류 데이터를 도출하기 위하여 객체의 각각의 유형마다 할당된 색상을 예시적으로 나타낸 도면이다.
도 6a 및 도 6b를 참조하면, 포인트 클라우드 분류 장치(100)는 딥러닝 기반의 의미론적 영역 분할 기법을 통해 영상 입력에서 등장하는 객체에 대한 객체 분류 작업을 수행하고, 객체 분류 작업 결과에 기초하여 분류된 객체의 각각의 유형마다 할당된 색상을 객체가 탐색된 영역 내의 픽셀들에 대하여 할당할 수 있다. 여기서, 딥러닝 기반의 의미론적 영역 분할(Semantic Segmentation) 기법이란 이미지 내에서 특정 객체(도로, 나무, 건물, 자동차 등)을 검출하기 위하여 검출할 객체(달리 말해, 등장 가능한 객체)의 유형을 미리 정의하고, 정의된 객체를 탐색하도록 사전에 학습시켜 놓은 인공지능 알고리즘을 통해 입력된 영상 입력에서 탐색된 객체들 각각에 해당하는 영역이 구분될 수 있도록 영상 입력을 분할하는 것을 의미할 수 있다.
또한, 도 6b를 참조하면, 포인트 클라우드 분류 장치(100)가 고려하는 영상 입력 내에서 등장 가능한 객체는 차도(road), 인도(sidewalk), 건물(building), 담벼락(wall), 울타리(fence), 장대(pole), 차량 라이트(t-light), 교통 신호(t-sign), 초목(vegetation), 토양(terrain), 하늘(sky), 보행자(person), 탑승자(rider), 차량(car), 트럭(truck), 버스(bus), 기차(train), 모터사이클(motorcycle), 자전거(bicycle) 등을 포함할 수 있으나, 이에만 한정되는 것은 아니다. 또한, 도 6b에 도시된 등장 객체 별로 할당된 구체적인 색상 유형은 예시적인 것으로 이해되어야 한다.
본원의 일 실시예에 따르면, 포인트 클라우드 분류 장치(100)는 MobileNet-2기반의 DeepLabv3 모델 중 MS-COCO, Cityscapes 데이터 셋을 바탕으로 사전 훈련된 인공지능 알고리즘을 사용하여 수신된 영상 입력의 각각의 픽셀 마다의 객체 분류 데이터를 도출하는 것일 수 있으나, 이에만 한정되는 것은 아니고 종래에 이미 공지되었거나 향후 개발되는 다양한 의미론적 영역 분할 알고리즘이 적용될 수 있다. 이와 관련하여, 포인트 클라우드 분류 장치(100)가 전술한 MobileNet-2 기반의 비교적 가벼운 심층 신경망을 활용하여 객체 분류 데이터를 도출하는 경우, 추론시간 개선을 통한 빠른 연산 속도를 확보할 수 있는 이점이 있다.
다음으로, 앞서 설명한 과정들을 통해 도출된 클러스터 데이터와 객체 분류 데이터를 통해 포인터 클러스터에 객체 라벨을 할당하여 포인트 클라우드 입력을 최종 분류하는 데이터 융합(Data Fusion) 과정에서 포인트 클라우드 분류 장치(100)는 획득된 클러스터 데이터 및 객체 분류 데이터를 동기화할 수 있다. 여기서, 동기화는 클러스터 데이터와 객체 분류 데이터가 수집되거나 촬영된 시점을 허용 오차 범위 이내로 동기화하는 타임 스탬프 동기화를 의미하는 것일 수 있다.
또한, 포인트 클라우드 분류 장치(100)는 미리 설정된 캘리브레이션 파라미터를 활용하여 동기화된 클러스터 데이터를 대응되는 객체 분류 데이터와 연계된 소정의 영상 좌표계로 맵핑할 수 있다. 달리 말해, 포인트 클라우드 분류 장치(100)는 클러스터 데이터 내의 복수의 3차원 점(포인트)들과 객체 분류 데이터 내의 픽셀들을 미리 설정되어 있는 소정의 계산식에 의하여 매칭할 수 있다.
또한, 포인트 클라우드 분류 장치(100)는 맵핑된 클러스터 데이터의 포인트 클러스터 각각에 대하여 보팅(Voting) 알고리즘을 적용하여 포인트 클러스터 각각에 대응되는 객체를 나타내는 객체 라벨을 선정할 수 있다.
여기서, 보팅(Voting) 알고리즘은 서로 다른 방식의 알고리즘을 결합하기 위한 앙상블(Ensemble) 기법을 의미하며, 본원에서는 포인트 클라우드 입력에 대한 포인터 클러스터 군집화 결과와 영상 입력에 대한 픽셀 별 객체 분류 결과를 결합하기 위한 프로세스를 수행하는 알고리즘을 의미할 수 있다.
구체적으로, 본원의 일 실시예에 따르면, 클러스터 데이터와 객체 분류 데이터가 소정의 영상 좌표계로 맵핑되고 나면, 클러스터 데이터에 포함된 포인트 클러스터 각각에 포함된 복수의 3차원 점들 각각에 대하여 객체 분류 데이터 내의 복수의 픽셀들 각각이(의미론적 영상 분할 결과에 따른 라벨이) 매칭될 수 있다. 달리 말해, 하나의 포인트 클러스터에 대하여 여러 개의 픽셀들이 매칭될 수 있으며, 이 때 매칭된 픽셀들이 모두 동일한 객체에 대한 것이 아닐 수 있으므로(달리 말해, 하나의 포인트 클러스터에 대하여 매칭된 픽셀들일지라도 픽셀들에 할당된 색상이 해당 포인트 클러스터 내에서 통일되지 않을 수 있으므로), 포인트 클라우드 분류 장치(100)는 보팅 알고리즘을 통해 하나의 포인트 클러스터에 대하여 합의된 객체 라벨을 선정할 수 있다.
예시적으로, 클러스터 데이터와 객체 분류 데이터의 맵핑 결과, 10개의 3차원 점을 포함하는 특정 포인트 클러스터에 대하여 9개의 점은 제1객체에 대응하는 픽셀(의미론적 영상 분할 기법에 따른 제1 객체 라벨)들에 매칭되고, 1개의 점이 제2객체에 대응하는 픽셀(의미론적 영상 분할 기법에 따른 제2 객체 라벨)에 매칭되었다고 가정하면, 포인트 클라우드 분류 장치(100)는 보팅 알고리즘을 통해 해당 포인트 클러스터에 대하여는 제1객체에 해당하는 객체 라벨을 선정할 수 있다.
도 7은 포인트 클라우드 입력을 이루는 포인터 클러스터 각각에 대한 객체 라벨이 선정된 상태를 나타낸 도면이다.
도 7을 참조하면, 포인트 클라우드 분류 장치(100)는 선정된 객체 라벨에 기초하여 각각의 클러스터 데이터를 객체 별로 분류할 수 있다.
구체적으로, 도 7과 도 6b를 함께 참조하면, 도 7의 좌측 영역(도 7 기준 9시 영역)에서는 초목(vegetation)에 해당하는 객체 라벨이 선정된 포인트 클러스터가 나타나고, 도 7의 우측 영역(도 7 기준 3시 영역)에서는 차량(car) 및 건물(building) 각각에 해당하는 객체 라벨이 선정된 포인트 클러스터가 나타난 것으로 이해될 수 있다.
또한, 포인트 클라우드 분류 장치(100)는 선정된 객체 라벨에 기초하여 분류된 클러스터 데이터를 시각화하여 표시할 수 있다.
도 8a는 본원의 일 실시예에 따른 선정된 객체 라벨에 기초하여 분류된 클러스터 데이터를 2차원으로 시각화하여 나타낸 도면이고, 도 8b는 본원의 일 실시예에 따른 선정된 객체 라벨에 기초하여 분류된 클러스터 데이터를 3차원으로 시각화하여 나타낸 도면이다.
도 8a를 참조하면, 포인트 클라우드 분류 장치(100)는 영상 입력에 해당하는 2차원 이미지 상에 객체 라벨에 기초하여 분류된 클러스터 데이터가 오버레이되는 형태로 분류 결과를 시각화할 수 있다.
또한, 도 8b를 참조하면, 포인트 클라우드 분류 장치(100)는 포인트 클라우드 입력에 해당하는 복수의 3차원 점들을 포함하는 3차원 이미지 상에서 선정된 객체 라벨에 기초하여 포인트 클러스터들에 색상을 입힌 형태로 분류 결과를 시각화할 수 있다.
본원의 일 실시예에 따르면, 포인트 클라우드 분류 장치(100)는 차량(1) 내부에 탑재된 별도의 디스플레이 모듈(미도시)에 시각화한 분류 결과가 표시되도록 할 수 있다. 예를 들어, 포인트 클라우드 분류 장치(100)는 차량(1) 내부에 탑재된 블랙박스 디바이스에서 촬영된 실시간 영상에 객체 라벨에 기초하여 분류된 클러스터 데이터가 오버레이되어 출력되어 운전자가 이를 시각적으로 확인할 수 있도록 구현될 수 있다.
또한, 포인트 클라우드 분류 장치(100)는 차량(1)에 탑재된 별도의 첨단 운전자 보조체계(Advanced Driver Assistance System, ADAS) 시스템 또는 자율 주행(Autonomous Vehicle) 시스템에 포인트 클러스터 각각을 객체 별로 분류한 결과를 제공함으로써 첨단 운전자 보조체계 시스템 또는 자율 주행 시스템이 객체 탐지 결과를 고려하여 주행 속도, 주행 방향 등을 제어하거나 운전자의 주의를 환기할 수 있는 알림을 출력하도록 동작하도록 지원할 수 있다.
도 9는 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 장치의 개략적인 구성도이다.
도 9를 참조하면, 포인트 클라우드 분류 장치(100)는, 입력부(110), 포인트 클라우드 처리부(120), 이미지 처리부(130) 및 데이터 융합부(140)를 포함할 수 있다.
입력부(110)는, 대상 공간(A) 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 대상 공간(A)에 대한 영상 입력을 수신할 수 있다.
포인트 클라우드 처리부(120)는 대상 공간(A) 내의 관심 영역에 위치한 객체에 대한 복수의 3차원 점을 소정의 기준에 따라 군집화한 클러스터 데이터를 도출할 수 있다.
도 10a는 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 장치의 포인트 클라우드 처리부의 세부 구성도이다.
도 10a를 참조하면, 포인트 클라우드 처리부(120)는 관심 영역 추출부(121), 데이터 압축부(122) 및 군집화부(123)를 포함할 수 있다.
관심 영역 추출부(121)는 대상 공간에 대한 인지 중요도 및 영상 입력에 대한 시야 정보를 기초로 상기 관심 영역을 설정할 수 있다. 또한, 관심 영역 추출부(121)는 포인트 클라우드 입력에 포함된 복수의 3차원 점 중에서 관심 영역에 포함되는 복수의 3차원 점을 추출할 수 있다.
데이터 압축부(122)는 추출된 복수의 3차원 점을 압축할 수 있다. 본원의 일 실시예에 따르면, 데이터 압축부(122)는 추출된 복수의 3차원 점에 대하여 복셀 그리드 필터 기반의 다운 샘플링을 적용하는 샘플링부(미도시) 및 대상 공간에 대한 경사 정보에 기초하여 지반에 해당하는 복수의 3차원 점을 제거하는 지반 제거부(미도시)를 포함할 수 있다.
군집화부(123)는 압축된 복수의 3차원 점 간의 밀도 정보에 기초하여 데이터 압축부(122)에 의해 압축된 복수의 3차원 점을 군집화할 수 있다.
이미지 처리부(130)는 영상 입력에 딥러닝 기반의 의미론적 영역 분할을 적용하여 영상 입력의 각각의 픽셀마다의 객체 분류 데이터를 도출할 수 있다.
데이터 융합부(140)는 클러스터 데이터 및 객체 분류 데이터에 기초하여 클러스터 데이터의 포인트 클러스터 각각에 대한 객체 라벨을 선정하여 포인트 클라우드 입력을 객체 별로 분류할 수 있다.
도 10b는 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 장치의 데이터 융합부의 세부 구성도이다.
도 10b를 참조하면, 데이터 융합부(140)는 동기화부(141), 변환부(142), 라벨 선정부(143) 및 라벨 매칭부(144)를 포함할 수 있다.
동기화부(141)는 클러스터 데이터 및 객체 분류 데이터를 동기화할 수 있다.
변환부(142)는 미리 설정된 캘리브레이션 파라미터를 활용하여 동기화된 클러스터 데이터를 소정의 영상 좌표계로 맵핑할 수 있다.
라벨 선정부(143)는 맵핑된 클러스터 데이터의 포인트 클러스터 각각에 대하여 보팅(Voting) 알고리즘을 적용하여 포인트 클러스터 각각에 대응되는 객체를 나타내는 객체 라벨을 선정할 수 있다.
라벨 매칭부(144)는 선정된 객체 라벨에 기초하여 클러스터 데이터를 객체 별로 분류할 수 있다.
또한, 도면에는 도시되지 않았으나, 본원의 일 실시예에 따른 포인트 클라우드 분류 장치(100)는 선정된 객체 라벨에 기초하여 분류된 클러스터 데이터를 시각화하는 시각화부(미도시)를 포함할 수 있다.
이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.
도 11은 본원의 일 실시예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 방법에 대한 동작 흐름도이다.
도 11에 도시된 의미론적 영상을 활용한 포인트 클라우드 분류 방법은 앞서 설명된 포인트 클라우드 분류 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 포인트 클라우드 분류 장치(100)에 대하여 설명된 내용은 의미론적 영상을 활용한 포인트 클라우드 분류 방법에 대한 설명에도 동일하게 적용될 수 있다.
도 11을 참조하면, 단계 S1110에서 입력부(110)는 대상 공간(A) 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 대상 공간(A)에 대한 영상 입력을 수신할 수 있다. 여기서, 대상 공간(A)은 차량(1)에 대한 인접 영역을 의미할 수 있다.
또한, 단계 S1110에서 입력부(110)는 차량(1)에 탑재된 라이다 센서로부터 대상 공간(A)에 대한 포인트 클라우드 입력을 수신할 수 있다. 또한, 입력부(110)는 차량(1)에 탑재된 카메라 모듈로부터 대상 공간(A)에 대한 영상 입력을 수신할 수 있다.
다음으로, 단계 S1120에서 포인트 클라우드 분류 장치(100)는 영상 입력에 대한 의미론적 영역 분할 결과에 기초하여 포인트 클라우드 입력에 포함된 포인트 클러스터 각각을 객체를 기준으로 분류할 수 있다.
상술한 설명에서, 단계 S1110 및 S1120은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
도 12는 포인트 클라우드 입력에 포함된 포인트 클러스터를 객체를 기준으로 분류하는 단계에 대한 세부 동작 흐름도이다.
도 12에 도시된 포인트 클러스터를 객체를 기준으로 분류하는 단계는 앞서 설명된 포인트 클라우드 분류 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 포인트 클라우드 분류 장치(100)에 대하여 설명된 내용은 도 12에 대한 설명에도 동일하게 적용될 수 있다.
도 12를 참조하면, 단계 S1210에서 포인트 클라우드 처리부(120)는 대상 공간(A) 내의 관심 영역에 위치한 객체에 대한 복수의 3차원 점을 소정의 기준에 따라 군집화한 클러스터 데이터를 도출할 수 있다.
또한, 단계 S1210에서 포인트 클라우드 처리부(120)의 관심 영역 추출부(121)는 공간(A)에 대한 인지 중요도 및 영상 입력에 대한 시야 정보를 기초로 관심 영역을 설정할 수 있다. 구체적으로, 관심 영역 추출부(121)는 차량(1)으로부터 대상 공간(A)에 대한 인지 중요도를 기초로 설정된 기준 거리 내의 영역 중 카메라 모듈의 촬영 방향에 부합하는 영역을 관심 영역으로 설정할 수 있다.
또한, 단계 S1210에서 포인트 클라우드 처리부(120)의 관심 영역 추출부(121)는 포인트 클라우드 입력에 포함된 복수의 3차원 점 중에서 관심 영역에 포함되는 복수의 3차원 점을 추출할 수 있다.
또한, 단계 S1210에서 포인트 클라우드 처리부(120)의 데이터 압축부(122)는 추출된 복수의 3차원 점을 압축할 수 있다. 구체적으로, 데이터 압축부(122)는 추출된 복수의 3차원 점에 대하여 복셀 그리드 필터 기반의 다운 샘플링을 적용할 수 있다. 또한, 데이터 압축부(122)는 대상 공간(A)에 대한 경사 정보에 기초하여 지반에 해당하는 복수의 3차원 점을 제거할 수 있다.
또한, 단계 S1210에서 포인트 클라우드 처리부(120)의 군집화부(123)는 압축된 복수의 3차원 점 간의 밀도 정보에 기초하여 압축된 복수의 3차원 점을 군집화할 수 있다.
다음으로, 단계 S1220에서 이미지 처리부(130)는 영상 입력에 딥러닝 기반의 의미론적 영역 분할을 적용하여 영상 입력의 각각의 픽셀마다의 객체 분류 데이터를 도출할 수 있다.
다음으로, 단계 S1230에서 데이터 융합부(140)는 클러스터 데이터 및 객체 분류 데이터에 기초하여 클러스터 데이터의 포인트 클러스터 각각에 대한 객체 라벨을 선정하여 포인트 클라우드 입력을 객체 별로 분류할 수 있다.
또한, 단계 S1230에서 데이터 융합부(140)의 동기화부(141)는 클러스터 데이터 및 객체 분류 데이터를 동기화할 수 있다.
또한, 단계 S1230에서 데이터 융합부(140)의 변환부(142)는 미리 설정된 캘리브레이션 파라미터를 활용하여 동기화된 클러스터 데이터를 소정의 영상 좌표계로 맵핑할 수 있다.
또한, 단계 S1230에서 데이터 융합부(140)의 라벨 선정부(143)는 맵핑된 클러스터 데이터의 포인트 클러스터 각각에 대하여 보팅 알고리즘을 적용하여 포인트 클러스터 각각에 대응되는 객체를 나타내는 객체 라벨을 선정할 수 있다.
또한, 단계 S1230에서 데이터 융합부(140)의 라벨 매칭부(144)는 선정된 객체 라벨에 기초하여 클러스터 데이터를 객체 별로 분류할 수 있다.
상술한 설명에서, 단계 S1210 내지 S1230은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
본원의 일 실시 예에 따른 의미론적 영상을 활용한 포인트 클라우드 분류 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
또한, 전술한 의미론적 영상을 활용한 포인트 클라우드 분류 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.
10: 의미론적 영상을 활용한 포인트 클라우드 분류 장치를 포함하는 인지 시스템
100: 의미론적 영상을 활용한 포인트 클라우드 분류 장치
110: 입력부
120: 포인트 클라우드 처리부
121: 관심 영역 추출부
122: 데이터 압축부
123: 군집화부
130: 이미지 처리부
140: 데이터 융합부
141: 동기화부
142: 변환부
143: 라벨 선정부
144: 라벨 매칭부
20: 네트워크
1: 차량
A: 대상 공간

Claims (15)

  1. 의미론적 영상을 활용한 포인트 클라우드 분류 방법에 있어서,
    대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 상기 대상 공간에 대한 영상 입력을 수신하는 단계; 및
    상기 영상 입력에 대한 의미론적 영역 분할 결과에 기초하여 상기 포인트 클라우드 입력에 포함된 포인트 클러스터 각각을 상기 객체를 기준으로 분류하는 단계,
    를 포함하는, 포인트 클라우드 분류 방법.
  2. 제1항에 있어서,
    상기 분류하는 단계는,
    상기 대상 공간 내의 관심 영역에 위치한 상기 객체에 대한 복수의 3차원 점을 소정의 기준에 따라 군집화한 클러스터 데이터를 도출하는 단계;
    상기 영상 입력에 딥러닝 기반의 의미론적 영역 분할을 적용하여 상기 영상 입력의 각각의 픽셀마다의 객체 분류 데이터를 도출하는 단계; 및
    상기 클러스터 데이터 및 상기 객체 분류 데이터에 기초하여 상기 클러스터 데이터의 포인트 클러스터 각각에 대한 객체 라벨을 선정하여 상기 포인트 클라우드 입력을 객체 별로 분류하는 단계,
    를 포함하는 것인, 포인트 클라우드 분류 방법.
  3. 제2항에 있어서,
    상기 클러스터 데이터를 도출하는 단계는,
    상기 대상 공간에 대한 인지 중요도 및 상기 영상 입력에 대한 시야 정보를 기초로 상기 관심 영역을 설정하는 단계;
    상기 포인트 클라우드 입력에 포함된 복수의 3차원 점 중에서 상기 관심 영역에 포함되는 복수의 3차원 점을 추출하는 단계;
    상기 추출된 복수의 3차원 점을 압축하는 단계; 및
    상기 압축된 복수의 3차원 점 간의 밀도 정보에 기초하여 상기 압축된 복수의 3차원 점을 군집화하는 단계,
    를 포함하는 것인, 포인트 클라우드 분류 방법.
  4. 제3항에 있어서,
    상기 압축하는 단계는,
    상기 추출된 복수의 3차원 점에 대하여 복셀 그리드 필터 기반의 다운 샘플링을 적용하는 단계; 및
    상기 대상 공간에 대한 경사 정보에 기초하여 지반에 해당하는 복수의 3차원 점을 제거하는 단계,
    를 포함하는 것인, 포인트 클라우드 분류 방법.
  5. 제3항에 있어서,
    상기 포인트 클라우드 입력을 객체 별로 분류하는 단계는,
    상기 클러스터 데이터 및 상기 객체 분류 데이터를 동기화하는 단계;
    미리 설정된 캘리브레이션 파라미터를 활용하여 상기 동기화된 클러스터 데이터를 소정의 영상 좌표계로 맵핑하는 단계;
    상기 맵핑된 클러스터 데이터의 포인트 클러스터 각각에 대하여 보팅 알고리즘을 적용하여 상기 포인트 클러스터 각각에 대응되는 객체를 나타내는 객체 라벨을 선정하는 단계; 및
    상기 선정된 객체 라벨에 기초하여 상기 클러스터 데이터를 객체 별로 분류하는 단계,
    를 포함하는 것인, 포인트 클라우드 분류 방법.
  6. 제5항에 있어서,
    상기 대상 공간은 차량에 대한 인접 영역이고,
    상기 수신하는 단계는,
    상기 차량에 탑재된 라이다 센서로부터 상기 대상 공간에 대한 포인트 클라우드 입력을 수신하고, 상기 차량에 탑재된 카메라 모듈로부터 상기 대상 공간에 대한 영상 입력을 수신하는 것인, 포인트 클라우드 분류 방법.
  7. 제6항에 있어서,
    상기 관심 영역을 설정하는 단계는,
    상기 차량으로부터 상기 대상 공간에 대한 인지 중요도를 기초로 설정된 기준 거리 내의 영역 중 상기 카메라 모듈의 촬영 방향에 부합하는 영역을 상기 관심 영역으로 설정하는 것인, 포인트 클라우드 분류 방법.
  8. 제5항에 있어서,
    상기 선정된 객체 라벨에 기초하여 분류된 상기 클러스터 데이터를 시각화하여 표시하는 단계,
    를 더 포함하는 것인, 포인트 클라우드 분류 방법.
  9. 의미론적 영상을 활용한 포인트 클라우드 분류 장치에 있어서,
    대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 상기 대상 공간에 대한 영상 입력을 수신하는 입력부;
    상기 대상 공간 내의 관심 영역에 위치한 상기 객체에 대한 복수의 3차원 점을 소정의 기준에 따라 군집화한 클러스터 데이터를 도출하는 포인트 클라우드 처리부;
    상기 영상 입력에 딥러닝 기반의 의미론적 영역 분할을 적용하여 상기 영상 입력의 각각의 픽셀마다의 객체 분류 데이터를 도출하는 이미지 처리부; 및
    상기 클러스터 데이터 및 상기 객체 분류 데이터에 기초하여 상기 클러스터 데이터의 포인트 클러스터 각각에 대한 객체 라벨을 선정하여 상기 포인트 클라우드 입력을 객체 별로 분류하는 데이터 융합부,
    를 포함하는, 포인트 클라우드 분류 장치.
  10. 제9항에 있어서,
    상기 포인트 클라우드 처리부는,
    상기 대상 공간에 대한 인지 중요도 및 상기 영상 입력에 대한 시야 정보를 기초로 상기 관심 영역을 설정하고, 상기 포인트 클라우드 입력에 포함된 복수의 3차원 점 중에서 상기 관심 영역에 포함되는 복수의 3차원 점을 추출하는 관심 영역 추출부;
    상기 추출된 복수의 3차원 점을 압축하는 데이터 압축부; 및
    상기 압축된 복수의 3차원 점 간의 밀도 정보에 기초하여 상기 압축된 복수의 3차원 점을 군집화하는 군집화부,
    를 포함하는 것인, 포인트 클라우드 분류 장치.
  11. 제10항에 있어서,
    상기 데이터 압축부는,
    상기 추출된 복수의 3차원 점에 대하여 복셀 그리드 필터 기반의 다운 샘플링을 적용하는 샘플링부; 및
    상기 대상 공간에 대한 경사 정보에 기초하여 지반에 해당하는 복수의 3차원 점을 제거하는 지반 제거부,
    를 포함하는 것인, 포인트 클라우드 분류 장치.
  12. 제10항에 있어서,
    상기 데이터 융합부는,
    상기 클러스터 데이터 및 상기 객체 분류 데이터를 동기화하는 동기화부;
    미리 설정된 캘리브레이션 파라미터를 활용하여 상기 동기화된 클러스터 데이터를 소정의 영상 좌표계로 맵핑하는 변환부;
    상기 맵핑된 클러스터 데이터의 포인트 클러스터 각각에 대하여 보팅 알고리즘을 적용하여 상기 포인트 클러스터 각각에 대응되는 객체를 나타내는 객체 라벨을 선정하는 라벨 선정부; 및
    상기 선정된 객체 라벨에 기초하여 상기 클러스터 데이터를 객체 별로 분류하는 라벨 매칭부,
    를 포함하는 것인, 포인트 클라우드 분류 장치.
  13. 제12항에 있어서,
    상기 대상 공간은 차량에 대한 인접 영역이고,
    상기 입력부는,
    상기 차량에 탑재된 라이다 센서로부터 상기 대상 공간에 대한 포인트 클라우드 입력을 수신하고, 상기 차량에 탑재된 카메라 모듈로부터 상기 대상 공간에 대한 영상 입력을 수신하는 것인, 포인트 클라우드 분류 장치.
  14. 제13항에 있어서,
    상기 관심 영역 추출부는,
    상기 차량으로부터 상기 대상 공간에 대한 인지 중요도를 기초로 설정된 기준 거리 내의 영역 중 상기 카메라 모듈의 촬영 방향에 부합하는 영역을 상기 관심 영역으로 설정하는 것인, 포인트 클라우드 분류 장치.
  15. 제1항 내지 제8항 중 어느 한 항에 따른 방법을 컴퓨터에서 실행시키기 위한 프로그램으로 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020200026097A 2020-03-02 2020-03-02 의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법 KR102338665B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200026097A KR102338665B1 (ko) 2020-03-02 2020-03-02 의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200026097A KR102338665B1 (ko) 2020-03-02 2020-03-02 의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20210111052A true KR20210111052A (ko) 2021-09-10
KR102338665B1 KR102338665B1 (ko) 2021-12-10

Family

ID=77777427

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200026097A KR102338665B1 (ko) 2020-03-02 2020-03-02 의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102338665B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116071283A (zh) * 2023-04-07 2023-05-05 湖南腾琨信息科技有限公司 基于计算机视觉的三维点云图像融合方法
KR20230063556A (ko) * 2021-11-02 2023-05-09 연세대학교 산학협력단 이동체를 이용한 점군 데이터 수집 및 딥러닝 기반 3차원 모델링 형성 시스템 및 모델링 형성 방법
WO2023101510A1 (ko) * 2021-12-02 2023-06-08 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
WO2023136661A1 (en) * 2022-01-13 2023-07-20 Samsung Electronics Co., Ltd. Methods and systems for interacting with 3d ar objects from a scene
KR102597652B1 (ko) * 2023-03-17 2023-11-03 주식회사 와따 3d 포인트 클라우드 군집화 및 딥러닝 융합 객체 검출 강화 인식방법, 장치 및 컴퓨터프로그램
CN117649632A (zh) * 2024-01-29 2024-03-05 杭州感想科技有限公司 基于多源交通数据的高速公路事件识别方法及识别装置
CN117706942A (zh) * 2024-02-05 2024-03-15 四川大学 一种环境感知与自适应驾驶辅助电子控制方法及系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153758A1 (ko) * 2022-02-08 2023-08-17 엘지전자 주식회사 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 수신 방법 및 포인트 클라우드 데이터 수신 장치
KR102459778B1 (ko) * 2022-05-12 2022-10-31 주식회사 유오케이 라이다 및 카메라를 이용한 변화 탐지 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101899549B1 (ko) * 2017-12-27 2018-09-17 재단법인 경북아이티융합 산업기술원 카메라 및 라이다 센서를 이용한 장애물 인식 장치 및 그 방법
KR101907883B1 (ko) * 2017-05-10 2018-10-16 국방과학연구소 객체 검출 및 분류 방법
KR20190095592A (ko) * 2018-01-23 2019-08-16 충북대학교 산학협력단 라이다 센서 및 카메라를 이용한 객체 검출 방법 및 그를 위한 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101907883B1 (ko) * 2017-05-10 2018-10-16 국방과학연구소 객체 검출 및 분류 방법
KR101899549B1 (ko) * 2017-12-27 2018-09-17 재단법인 경북아이티융합 산업기술원 카메라 및 라이다 센서를 이용한 장애물 인식 장치 및 그 방법
KR20190095592A (ko) * 2018-01-23 2019-08-16 충북대학교 산학협력단 라이다 센서 및 카메라를 이용한 객체 검출 방법 및 그를 위한 장치

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230063556A (ko) * 2021-11-02 2023-05-09 연세대학교 산학협력단 이동체를 이용한 점군 데이터 수집 및 딥러닝 기반 3차원 모델링 형성 시스템 및 모델링 형성 방법
WO2023101510A1 (ko) * 2021-12-02 2023-06-08 엘지전자 주식회사 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법
WO2023136661A1 (en) * 2022-01-13 2023-07-20 Samsung Electronics Co., Ltd. Methods and systems for interacting with 3d ar objects from a scene
KR102597652B1 (ko) * 2023-03-17 2023-11-03 주식회사 와따 3d 포인트 클라우드 군집화 및 딥러닝 융합 객체 검출 강화 인식방법, 장치 및 컴퓨터프로그램
CN116071283A (zh) * 2023-04-07 2023-05-05 湖南腾琨信息科技有限公司 基于计算机视觉的三维点云图像融合方法
CN117649632A (zh) * 2024-01-29 2024-03-05 杭州感想科技有限公司 基于多源交通数据的高速公路事件识别方法及识别装置
CN117649632B (zh) * 2024-01-29 2024-05-07 杭州感想科技有限公司 基于多源交通数据的高速公路事件识别方法及识别装置
CN117706942A (zh) * 2024-02-05 2024-03-15 四川大学 一种环境感知与自适应驾驶辅助电子控制方法及系统
CN117706942B (zh) * 2024-02-05 2024-04-26 四川大学 一种环境感知与自适应驾驶辅助电子控制方法及系统

Also Published As

Publication number Publication date
KR102338665B1 (ko) 2021-12-10

Similar Documents

Publication Publication Date Title
KR102338665B1 (ko) 의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법
Asvadi et al. 3D Lidar-based static and moving obstacle detection in driving environments: An approach based on voxels and multi-region ground planes
CN111666921B (zh) 车辆控制方法、装置、计算机设备和计算机可读存储介质
Asvadi et al. 3D object tracking using RGB and LIDAR data
US10810745B2 (en) Method and apparatus with image segmentation
Matti et al. Combining LiDAR space clustering and convolutional neural networks for pedestrian detection
CN113128348B (zh) 一种融合语义信息的激光雷达目标检测方法及系统
WO2018229549A2 (en) System and method for digital environment reconstruction
Hu et al. A multi-modal system for road detection and segmentation
CN112997187A (zh) 基于鸟瞰图点云的二维对象边界框信息估计
KR101907883B1 (ko) 객체 검출 및 분류 방법
EP4047565A1 (en) Low level sensor fusion based on lightweight semantic segmentation of 3d point clouds
CN117058646B (zh) 基于多模态融合鸟瞰图的复杂道路目标检测方法
Kühnl et al. Visual ego-vehicle lane assignment using spatial ray features
CN110909656A (zh) 一种雷达与摄像机融合的行人检测方法和系统
KR102405767B1 (ko) 의미론적 포인트 클라우드 기반의 객체 추적 장치 및 방법
CN117576652A (zh) 道路对象的识别方法、装置和存储介质及电子设备
Al Mamun et al. Efficient lane marking detection using deep learning technique with differential and cross-entropy loss.
Kozonek et al. On the fusion of camera and lidar for 3D object detection and classification
Wei et al. Robust obstacle segmentation based on topological persistence in outdoor traffic scenes
Neelima et al. A computer vision model for vehicle detection in traffic surveillance
Zou et al. Scene flow estimation by depth map upsampling and layer assignment for camera-LiDAR system
KR102660425B1 (ko) 블랙박스 영상 합성 기반 3차원 객체 정보 획득 서버 및 방법
Théodosc et al. Vehicle detection based on deep learning heatmap estimation
Shrivastava Stereo vision based object detection using v-disparity and 3D density-based clustering

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant