KR102405767B1 - Apparatus and method for tracking object based on semantic point cloud - Google Patents

Apparatus and method for tracking object based on semantic point cloud Download PDF

Info

Publication number
KR102405767B1
KR102405767B1 KR1020200140077A KR20200140077A KR102405767B1 KR 102405767 B1 KR102405767 B1 KR 102405767B1 KR 1020200140077 A KR1020200140077 A KR 1020200140077A KR 20200140077 A KR20200140077 A KR 20200140077A KR 102405767 B1 KR102405767 B1 KR 102405767B1
Authority
KR
South Korea
Prior art keywords
point cloud
target
semantic
tracking
input
Prior art date
Application number
KR1020200140077A
Other languages
Korean (ko)
Other versions
KR20220055707A (en
Inventor
조기춘
김소영
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020200140077A priority Critical patent/KR102405767B1/en
Publication of KR20220055707A publication Critical patent/KR20220055707A/en
Application granted granted Critical
Publication of KR102405767B1 publication Critical patent/KR102405767B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

의미론적 포인트 클라우드 기반의 객체 추적 장치 및 방법이 개시되며, 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 방법은, 복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력을 획득하는 단계, 상기 의미론적 포인트 클라우드 입력 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드를 선별하는 단계, 상기 대상 포인트 클라우드를 객체마다 군집화하는 단계 및 상기 군집화된 대상 포인트 클라우드에 기초하여 대상 객체를 추적하는 단계를 포함할 수 있다.A semantic point cloud-based object tracking apparatus and method are disclosed, and the semantic point cloud-based object tracking method according to an embodiment of the present application includes: obtaining a semantic point cloud input including a plurality of three-dimensional points; , selecting a target point cloud including a three-dimensional point to which classification information corresponding to a preset object type is assigned from the semantic point cloud input, clustering the target point cloud for each object, and the clustered target point It may include tracking the target object based on the cloud.

Description

의미론적 포인트 클라우드 기반의 객체 추적 장치 및 방법{APPARATUS AND METHOD FOR TRACKING OBJECT BASED ON SEMANTIC POINT CLOUD}Object tracking device and method based on semantic point cloud {APPARATUS AND METHOD FOR TRACKING OBJECT BASED ON SEMANTIC POINT CLOUD}

본원은 의미론적 포인트 클라우드 기반의 객체 추적 장치 및 방법에 관한 것이다.The present application relates to a semantic point cloud-based object tracking apparatus and method.

스마트 자동차(Smart Car)라는 용어는 기계 중심의 전통적인 자동차 기술에 전기, 전자, 정보통신 기술을 융복합한 것으로, 완성차 업체, 부품업체, ICT업체 등 다양한 산업 주체들에 의해 운전자 편의 측면과 차량 안전 측면에 초점을 두어 지속적으로 발전되어 왔으며, 이러한 스마트 자동차 관련 기술은 구체적으로 첨단 운전자 보조체계(Advanced Driver Assistance System, ADAS), 자율 주행(Autonomous Vehicle), 협업 안전체계(Cooperative Safety System) 등 안전과 관련된 분야와 커넥티드 카(Connected Car)와 같은 편의와 관련된 분야로 분류될 수 있다.The term “smart car” is a fusion of electric, electronic, and information and communication technologies with machine-oriented traditional automobile technology. It has been continuously developed with a focus on aspects, and these smart car-related technologies are specifically designed for safety and It can be classified into related fields and fields related to convenience such as connected cars.

특히, ADAS(Advanced Driver Assistance Systems) 또는 자율주행(Autonomous Vehicle)이 적용된 지능형 자동차는 주행 중인 차량의 주변 환경을 인식하기 위해 구비되는 각종 센서(예를 들어, 카메라, GPS, 레이더, LiDAR 등)로부터 획득되는 센싱 데이터를 통해 차량 주변 상황을 높은 정확도로 실시간 모니터링 함으로써 탑승자, 보행자 및 주변차량의 안전을 확보하고 주행 편의성을 향상시킬 수 있어야 한다.In particular, an intelligent vehicle to which ADAS (Advanced Driver Assistance Systems) or autonomous vehicle is applied is obtained from various sensors (eg, camera, GPS, radar, LiDAR, etc.) provided to recognize the surrounding environment of the driving vehicle. It should be possible to secure the safety of occupants, pedestrians and surrounding vehicles and improve driving convenience by real-time monitoring of the vehicle surroundings with high accuracy through the acquired sensing data.

특히, LiDAR는 레이저로 특정 대상과의 거리를 측정하여 대상 객체의 형태를 판별하여 자동차 주변의 도로 환경을 3차원 형상으로 인지하는 센서로, 이러한 LiDAR는 주변 대상과의 거리 측정에서의 오차가 적은 정밀한 측정 성능을 제공함으로써 장애물 인지 및 동적 물체 추적 등 다양한 차량 연계 인지 시스템에 활용 가능한 이점이 있다.In particular, LiDAR is a sensor that recognizes the road environment around a car as a three-dimensional shape by measuring the distance to a specific target with a laser to determine the shape of the target object. By providing precise measurement performance, it has the advantage of being applicable to various vehicle-linked recognition systems such as obstacle recognition and dynamic object tracking.

다만, 라이다 센서를 이용한 동적 물체 추적 및 분류와 관련하여, 포인트 클라우드는 카메라 등의 비전 센서에 비해 물체의 분류 정보를 얻기에 다소 낮은 해상도를 가져 물체 추적시 분류 정보를 바탕으로 적합한 운동 모델을 선택하는 것이 어렵고, 라이다 센서의 특성 상 거리가 멀수록 포인트 클라우드의 밀도가 희박해져 클러스터링(Clustrering) 성능을 저하시키며, 나아가 물체 추적의 정확도 역시 감소시킨다. 또한, 라이다 센서는 동일한 객체(물체)를 관찰하더라도 관찰 시점에 따라 다른 형상 정보를 획득하게 된다. 한편, 동적 물체 추적 시에는 일반적으로 물체의 중심을 기준으로 추적이 수행되므로, 다른 형상으로 중심점을 추적하게 되면 잘못된 운동 상태를 추적할 수 있는 문제가 있다.However, with respect to dynamic object tracking and classification using the lidar sensor, the point cloud has a somewhat lower resolution to obtain object classification information compared to a vision sensor such as a camera. It is difficult to select, and due to the characteristics of the lidar sensor, as the distance increases, the density of the point cloud becomes sparse, which reduces the clustering performance and further reduces the accuracy of object tracking. In addition, even when the lidar sensor observes the same object (object), it acquires different shape information depending on the observation point. On the other hand, in the case of dynamic object tracking, since tracking is generally performed based on the center of the object, if the center point is tracked in a different shape, there is a problem in that an incorrect motion state may be tracked.

또한, LiDAR 등을 통해 획득되는 포인트 클라우드를 활용하여 주행 또는 정차 중인 차량 주변의 객체를 추적하는 종래의 기법은 포인트 클라우드의 3차원 포인트 각각을 해당 포인트와 연계된 객체의 유형과 매칭한 분류 정보를 고려하지 않고, 단순히 근방에 위치하는 3차원 포인트를 군집화하여 차량 주변의 장애물의 존부 정도만을 파악하거나, 군집화된 3차원 포인트의 크기(예를 들면, 단면적, 부피 등) 정보 등에 기초하여 장애물의 유형(예를 들면, 인접 차량, 보행자 등)을 유추하는 수준에 지나지 않았다.In addition, the conventional technique of tracking an object around a driving or stopped vehicle using a point cloud obtained through LiDAR, etc. is to obtain classification information that matches each of the three-dimensional points of the point cloud with the type of object associated with the point. Rather than considering only the presence or absence of obstacles around the vehicle by simply clustering 3D points located nearby, or the type of obstacles based on information on the size (eg, cross-sectional area, volume, etc.) of the clustered 3D points, etc. (For example, adjacent vehicles, pedestrians, etc.) were only inferred.

이렇듯, 포인트 클라우드의 3차원 포인트 각각의 분류 정보를 고려하지 않는 종래의 객체 추적 기법에서는 특정 객체가 다른 객체와 인접하여 위치하는 등 물체 추적 중 객체 간의 연관이 발생하는 경우에 추적 정확도가 현저히 떨어지는 문제가 있었다.As such, in the conventional object tracking technique that does not consider the classification information of each three-dimensional point of the point cloud, the tracking accuracy is significantly lowered when an association between objects occurs during object tracking, such as when a specific object is located adjacent to another object there was

이에 따라, LiDAR 등을 통해 확보되는 원시 데이터인 포인트 클라우드를 단순 활용하여 차량 주변의 객체를 추적하는 것에서 나아가, 포인트 클라우드에 포함된 포인트 각각의 분류 정보를 활용하여 보다 신속하고 정확하게 차량 주변의 객체를 탐지 및 추적할 수 있는 기법이 요구된다.Accordingly, it goes beyond simply tracking objects around the vehicle by simply using point clouds, which are raw data obtained through LiDAR, etc. A technique that can detect and track is required.

본원의 배경이 되는 기술은 한국등록특허공보 제10-2103941호에 개시되어 있다.The technology that is the background of the present application is disclosed in Korean Patent Publication No. 10-2103941.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 의미론적 포인트 클라우드 입력에 포함된 분류 정보를 기초로 필터링 및 군집화를 수행한 후 객체 추적을 수행함으로써 소정의 객체를 보다 정확하고 신속하게 추적할 수 있는 의미론적 포인트 클라우드 기반의 객체 추적 장치 및 방법을 제공하려는 것을 목적으로 한다.The present application is intended to solve the problems of the prior art described above, and by performing filtering and clustering based on the classification information included in the semantic point cloud input, and then performing object tracking, a predetermined object can be tracked more accurately and quickly. An object of the present invention is to provide a semantic point cloud-based object tracking device and method.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 방법은, 복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력을 획득하는 단계, 상기 의미론적 포인트 클라우드 입력 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드를 선별하는 단계, 상기 대상 포인트 클라우드를 객체마다 군집화하는 단계 및 상기 군집화된 대상 포인트 클라우드에 기초하여 대상 객체를 추적하는 단계를 포함할 수 있다.As a technical means for achieving the above technical problem, the semantic point cloud-based object tracking method according to an embodiment of the present application includes the steps of obtaining a semantic point cloud input including a plurality of three-dimensional points, the meaning Selecting a target point cloud including a three-dimensional point to which classification information corresponding to a preset object type is assigned from among theoretical point cloud inputs, clustering the target point cloud for each object, and based on the clustered target point cloud to track the target object.

또한, 상기 대상 객체를 추적하는 단계는, 상기 군집화된 대상 포인트 클라우드를 상기 의미론적 포인트 클라우드 입력이 획득되기 전에 파악된 상기 대상 객체에 연관시킬 수 있다.Also, the tracking of the target object may include associating the clustered target point cloud with the target object identified before the semantic point cloud input is obtained.

또한, 상기 의미론적 포인트 클라우드 입력은 차량에 대한 인접 영역에 존재하는 객체를 나타내는 복수의 3차원 점을 포함할 수 있다.In addition, the semantic point cloud input may include a plurality of 3D points representing objects existing in an area adjacent to the vehicle.

또한, 상기 객체 유형은, 차량, 보행자 및 이륜차 중 적어도 하나를 포함할 수 있다.Also, the object type may include at least one of a vehicle, a pedestrian, and a two-wheeled vehicle.

또한, 상기 대상 객체를 추적하는 단계는, 상기 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위에 기초하여 상기 대상 객체를 추적할 수 있다.In addition, the tracking of the target object may include tracking the target object based on a motion model corresponding to the object type, a speed range, and an acceleration range.

또한, 상기 운동 모델은, 등가속 모델, 등속도 모델, 등각가속도 모델 및 랜덤 모션 모델 중 적어도 하나를 포함할 수 있다.In addition, the motion model may include at least one of a constant acceleration model, a constant velocity model, a uniform acceleration model, and a random motion model.

또한, 상기 대상 포인트 클라우드를 선별하는 단계는, 상기 분류 정보에 기초하여 복수의 객체 유형 각각에 대응하는 복수의 대상 포인트 클라우드를 각각 구분하여 선별할 수 있다.In addition, the selecting of the target point cloud may include dividing and selecting a plurality of target point clouds corresponding to each of a plurality of object types based on the classification information.

또한, 상기 의미론적 포인트 클라우드 입력을 획득하는 단계는, 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 상기 대상 공간에 대한 영상 입력 중 적어도 하나를 수신하는 단계, 미리 학습된 인공지능 모델에 기초하여 상기 포인트 클라우드 입력 및 상기 영상 입력 중 적어도 하나에 대한 의미론적 영역 분할을 적용하는 단계, 상기 의미론적 영역 분할 결과를 기초로 상기 복수의 3차원 점 각각에 대한 상기 분류 정보를 도출하는 단계 및 상기 포인트 클라우드 입력에 상기 분류 정보를 반영하여 상기 의미론적 포인트 클라우드 입력을 생성하는 단계를 포함할 수 있다.In addition, the acquiring of the semantic point cloud input includes: receiving at least one of a point cloud input including a plurality of three-dimensional points for an object in a target space and an image input for the target space; applying semantic region division to at least one of the point cloud input and the image input based on an artificial intelligence model; and generating the semantic point cloud input by reflecting the classification information in the point cloud input.

한편, 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치는, 복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력을 획득하고, 상기 의미론적 포인트 클라우드 입력 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드를 선별하는 필터링부, 상기 대상 포인트 클라우드를 객체마다 군집화하는 군집화부 및 상기 군집화된 대상 포인트 클라우드에 기초하여 대상 객체를 추적하는 추적부를 포함할 수 있다.Meanwhile, the semantic point cloud-based object tracking apparatus according to an embodiment of the present application obtains a semantic point cloud input including a plurality of 3D points, and corresponds to a preset object type among the semantic point cloud inputs A filtering unit that selects a target point cloud including a three-dimensional point to which classification information is assigned, a clustering unit that clusters the target point cloud for each object, and a tracking unit that tracks a target object based on the clustered target point cloud can do.

또한, 상기 추적부는, 상기 군집화된 대상 포인트 클라우드를 상기 의미론적 포인트 클라우드 입력이 획득되기 전에 파악된 상기 대상 객체에 연관시킬 수 있다.Also, the tracker may associate the clustered target point cloud with the target object identified before the semantic point cloud input is obtained.

또한, 상기 추적부는, 상기 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위에 기초하여 상기 대상 객체를 추적할 수 있다.Also, the tracker may track the target object based on a motion model corresponding to the object type, a speed range, and an acceleration range.

또한, 상기 필터링부는, 상기 분류 정보에 기초하여 복수의 객체 유형 각각에 대응하는 복수의 대상 포인트 클라우드를 각각 구분하여 선별할 수 있다.Also, the filtering unit may classify and select a plurality of target point clouds respectively corresponding to a plurality of object types based on the classification information.

또한, 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치는, 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 상기 대상 공간에 대한 영상 입력 중 적어도 하나를 수신하고, 미리 학습된 인공지능 모델에 기초하여 상기 포인트 클라우드 입력 및 상기 영상 입력 중 적어도 하나에 대한 의미론적 영역 분할을 적용하여 상기 복수의 3차원 점 각각에 대한 상기 분류 정보를 도출하고, 상기 포인트 클라우드 입력에 상기 분류 정보를 반영하여 상기 의미론적 포인트 클라우드 입력을 생성하는 의미론적 분할부를 포함할 수 있다.In addition, the semantic point cloud-based object tracking apparatus according to an embodiment of the present application receives at least one of a point cloud input including a plurality of 3D points for an object in a target space and an image input for the target space and applying semantic region division to at least one of the point cloud input and the image input based on the pre-trained artificial intelligence model to derive the classification information for each of the plurality of 3D points, and the point cloud and a semantic division unit configured to generate the semantic point cloud input by reflecting the classification information in an input.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present application. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description.

전술한 본원의 과제 해결 수단에 의하면, 의미론적 포인트 클라우드 입력에 포함된 분류 정보를 기초로 필터링 및 군집화를 수행한 후 객체 추적을 수행함으로써 소정의 객체를 보다 정확하고 신속하게 추적할 수 있는 의미론적 포인트 클라우드 기반의 객체 추적 장치 및 방법을 제공할 수 있다.According to the above-described problem solving means of the present application, by performing filtering and clustering based on the classification information included in the semantic point cloud input, and then performing object tracking, a semantic object that can be tracked more accurately and quickly A point cloud-based object tracking apparatus and method may be provided.

전술한 본원의 과제 해결 수단에 의하면, 소정의 대상 객체가 타 객체와 공간적으로 연관되더라도 물체의 분류 정보를 고려하여 대상 객체와 타 객체가 독립적으로 탐지 및 추적될 수 있으므로, 추적 정확도가 향상될 수 있다.According to the above-described problem solving means of the present application, even if a predetermined target object is spatially related to another object, the target object and the other object can be independently detected and tracked in consideration of classification information of the object, so that the tracking accuracy can be improved. have.

전술한 본원의 과제 해결 수단에 의하면, 의미론적 포인트 클라우드에 반영된 분류 정보를 활용하여 탐지되는 객체의 유형에 적합한 운동 모델에 기반한 객체 추적이 수행될 수 있다.According to the above-described problem solving means of the present application, object tracking based on a motion model suitable for the type of object to be detected may be performed by using the classification information reflected in the semantic point cloud.

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the above-described effects, and other effects may exist.

도 1은 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치를 포함하는 객체 추적 시스템의 개략적인 구성도이다.
도 2는 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위를 예시적으로 나타낸 도표이다.
도 3은 대상 공간에서 획득되는 포인트 클라우드 입력을 의미론적 포인트 클라우드 입력으로 변환하는 프로세스를 설명하기 위한 개념도이다.
도 4는 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치의 개략적인 구성도이다.
도 5는 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 방법에 대한 동작 흐름도이다.
1 is a schematic configuration diagram of an object tracking system including a semantic point cloud-based object tracking apparatus according to an embodiment of the present application.
2 is a diagram exemplarily showing a motion model, a velocity range, and an acceleration range corresponding to an object type.
3 is a conceptual diagram for explaining a process of converting a point cloud input obtained in a target space into a semantic point cloud input.
4 is a schematic configuration diagram of a semantic point cloud-based object tracking apparatus according to an embodiment of the present application.
5 is a flowchart illustrating an object tracking method based on a semantic point cloud according to an embodiment of the present application.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present application pertains can easily carry out. However, the present application may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is "connected" with another part, it is not only "directly connected" but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including cases where

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is positioned “on”, “on”, “on”, “on”, “under”, “under”, or “under” another member, this means that a member is positioned on the other member. It includes not only the case where they are in contact, but also the case where another member exists between two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

본원은 의미론적 포인트 클라우드 기반의 객체 추적 장치 및 방법에 관한 것이다.The present application relates to a semantic point cloud-based object tracking apparatus and method.

도 1은 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치를 포함하는 객체 추적 시스템의 개략적인 구성도이다.1 is a schematic configuration diagram of an object tracking system including a semantic point cloud-based object tracking apparatus according to an embodiment of the present application.

도 1을 참조하면, 본원의 일 실시예에 따른 객체 추적 시스템(10)은 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치(100)(이하, '객체 추적 장치(100)'라 한다.) 및 차량(1000)을 포함할 수 있다. 또한, 도면에는 도시되지 않았으나, 차량(1000)에는 객체 추적 장치(100)로 포인트 클라우드 입력(1)을 제공하는 라이다 센서(미도시)가 구비될 수 있다.1, the object tracking system 10 according to an embodiment of the present application is a semantic point cloud-based object tracking apparatus 100 (hereinafter, 'object tracking apparatus 100') according to an embodiment of the present application. ) and the vehicle 1000 . In addition, although not shown in the drawings, the vehicle 1000 may be provided with a lidar sensor (not shown) that provides the point cloud input 1 to the object tracking apparatus 100 .

객체 추적 장치(100) 및 차량(1000) 상호간은 네트워크(20)를 통해 통신할 수 있다. 네트워크(20)는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(20)의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.The object tracking apparatus 100 and the vehicle 1000 may communicate with each other through the network 20 . The network 20 refers to a connection structure in which information exchange is possible between each node, such as terminals and servers, and an example of such a network 20 includes a 3rd Generation Partnership Project (3GPP) network, a long-term LTE (LTE) network. Term Evolution) network, 5G network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area) Network), a wifi network, a Bluetooth network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, etc. are included, but are not limited thereto.

객체 추적 장치(100)는 복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력(2)을 획득할 수 있다(도 1의 'Semantic Point Cloud'). 참고로, 본원의 실시예에 관한 설명에서 '포인트 클라우드 입력(1)'은 복수의 3차원 점을 포함하되, 각각의 3차원 점이 해당하는 객체의 유형을 의미하는 분류 정보가 미할당된 가공되지 않은 원시적인 포인트 클라우드를 의미할 수 있다. 이에 대비하여, 본원에서의 '의미론적 포인트 클라우드 입력(2)'은 원시의 포인트 클라우드 입력(1)에 포함된 복수의 3차원 점 각각이 해당하는 객체의 유형인 분류 정보가 복수의 3차원 점 각각에 대하여 할당(예를 들면, 라벨링(Labeling) 등)되도록 가공된 상태의 포인트 클라우드를 의미할 수 있다.The object tracking apparatus 100 may obtain a semantic point cloud input 2 including a plurality of three-dimensional points ('Semantic Point Cloud' in FIG. 1). For reference, in the description of the embodiment of the present application, 'point cloud input (1)' includes a plurality of three-dimensional points, but classification information indicating the type of object to which each three-dimensional point corresponds is not processed. It may mean a non-primitive point cloud. In contrast to this, the 'semantic point cloud input (2)' in the present application is a plurality of three-dimensional points included in the raw point cloud input 1, and classification information, which is the type of object corresponding to each of the plurality of three-dimensional points, is a plurality of three-dimensional points. It may mean a point cloud in a processed state to be assigned to each (eg, labeling, etc.).

달리 말해, 포인트 클라우드 입력(1)에 포함된 복수의 3차원 점 각각에는 객체의 유형을 나타내는 분류 정보가 미할당되고, 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 각각에는 전술한 분류 정보가 할당(라벨링)된 것일 수 있으며, 본원의 구현예에 따라 의미론적 포인트 클라우드 입력(2)은 포인트 클라우드 입력(1)에 대한 가공(분석)을 통해 생성(획득)되는 것일 수 있다.In other words, classification information indicating the type of object is not assigned to each of the plurality of three-dimensional points included in the point cloud input 1, and each of the plurality of three-dimensional points included in the semantic point cloud input 2 has the above One classification information may be assigned (labeled), and according to the embodiment of the present application, the semantic point cloud input 2 may be generated (acquired) through processing (analysis) of the point cloud input 1 .

구체적으로, 본원의 일 실시예에 따르면, 객체 추적 장치(100)는 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력(1)을 수신하고, 수신된 포인트 클라우드 입력(1)에 대하여 의미론적 분할(Semantic Segmentation)을 적용하여 포인트 클라우드 입력(1)에 포함된 복수의 3차원 점 각각의 분류 정보를 파악하고, 파악된 분류 정보를 반영하도록 포인트 클라우드 입력(1)을 가공하여 의미론적 포인트 클라우드 입력(2)을 획득하는 것일 수 있다. 한편, 상술한 바와 같이 1차적으로 획득된 포인트 클라우드 입력(1)에 의미론적 분할을 적용함으로써 의미론적 포인트 클라우드 입력(2)을 생성하는 프로세스는 도 3을 참조하여 상세히 후술하도록 한다.Specifically, according to an embodiment of the present application, the object tracking device 100 receives a point cloud input (1) including a plurality of three-dimensional points for an object in a target space, and the received point cloud input (1) By applying semantic segmentation on It may be to obtain a semantic point cloud input (2). On the other hand, as described above, the process of generating the semantic point cloud input 2 by applying the semantic division to the firstly obtained point cloud input 1 will be described in detail later with reference to FIG. 3 .

한편, 본원의 실시예에 관한 설명에서 '대상 공간'은 주행 또는 정차 중인 차량(1000)에 대한 인접 영역을 의미하는 것일 수 있다. 이와 관련하여, 객체 추적 장치(100)는 대상 공간에 존재하는 적어도 하나의 객체에 대한 정보를 반영하는 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 점(포인트) 각각의 객체 유형(클래스)을 나타내는 분류 정보를 의미론적 포인트 클라우드(2)로부터 획득할 수 있다.Meanwhile, in the description of the exemplary embodiment of the present application, the 'target space' may mean an area adjacent to the vehicle 1000 being driven or stopped. In this regard, the object tracking device 100 includes a plurality of points (points) included in the semantic point cloud input 2 reflecting information on at least one object existing in the target space, each object type (class) Classification information indicating , may be obtained from the semantic point cloud 2 .

또한, 전술한 대상 공간과 관련하여, 본원의 일 실시예에 따르면, 객체 추적 장치(100)는 차량(1000)의 주변 영역에서의 인지 중요도를 기초로 설정된 기준 거리를 결정하고, 차량(1000)으로부터 기준 거리 내의 영역(예를 들면, 차량(1000) 내부의 특정 기준점으로부터 설정된 기준 거리 이내로 떨어진 영역)을 관심 영역으로 하여, 라이다 센서(미도시)로부터 획득된 복수의 포인트(점) 중 관심 영역에 속하는 것으로 판단된 3차원 포인트(점)를 포함하는 포인트 클라우드 입력(1) 또는 의미론적 포인트 클라우드 입력(2)을 수신하는 것일 수 있다.In addition, with respect to the above-described target space, according to an embodiment of the present disclosure, the object tracking apparatus 100 determines a reference distance set based on the perceived importance in the surrounding area of the vehicle 1000 , and the vehicle 1000 . A region of interest among a plurality of points (points) obtained from a lidar sensor (not shown) using an area within a reference distance from It may be to receive a point cloud input 1 or a semantic point cloud input 2 including a three-dimensional point (point) determined to belong to an area.

또한, 본원의 일 실시예에 따르면, 관심 영역은 차량(1000)으로부터 기준 거리 내의 영역 중 차량(1000)의 주행 방향 또는 차량(1000)에 구비되는 카메라 모듈(미도시)의 촬영 방향에 부합하는 영역으로 설정될 수 있다. 여기서, 카메라 모듈의 촬영 방향은 카메라 모듈(미도시)의 시야, FoV(Field of View) 등으로 달리 지칭될 수 있다.In addition, according to an embodiment of the present disclosure, the region of interest corresponds to a driving direction of the vehicle 1000 or a photographing direction of a camera module (not shown) provided in the vehicle 1000 among regions within a reference distance from the vehicle 1000 . area can be set. Here, the photographing direction of the camera module may be referred to as a field of view of the camera module (not shown), a field of view (FoV), or the like.

이해를 돕기 위해 예시하면, 관심 영역 설정을 위하여 설정된 기준 거리는 50m일 수 있으나, 이에만 한정되는 것은 아니며, 차량(1000)의 유형, 차량(1000)이 주행중인 도로의 규모, 차량(1000)의 주행 위치 정보 등에 기초하여 기준 거리는 상이하게 설정될 수 있으며, 차량(1000)이 주행되는 도중에도 변동될 수 있다. 구체적으로, 차량(1000)이 전진 구동 중인 경우, 차량(1000)의 전방 영역, 측방 영역 등은 관심 영역에 포함되고, 차량(1000)의 후방 영역은 관심 영역에 미포함되는 것일 수 있다. 이와 반대로, 차량(1000)이 후진 구동 중인 경우에는, 차량(1000)의 후방 영역, 측방 영역 등은 관심 영역에 포함되고, 차량(1000)의 전방 영역은 관심 영역으로 미포함되는 것일 수 있다.For example, the reference distance set for setting the region of interest may be 50 m, but is not limited thereto, and the type of the vehicle 1000 , the scale of the road on which the vehicle 1000 is traveling, and the size of the vehicle 1000 . The reference distance may be set differently based on the driving location information and the like, and may be changed while the vehicle 1000 is being driven. Specifically, when the vehicle 1000 is being driven forward, the front region and the lateral region of the vehicle 1000 may be included in the ROI, and the rear region of the vehicle 1000 may not be included in the ROI. Conversely, when the vehicle 1000 is being driven backward, the rear region and the lateral region of the vehicle 1000 may be included in the ROI, and the front region of the vehicle 1000 may not be included as the ROI.

또한, 본원의 일 실시예에 따르면, 관심 영역 설정을 위한 기준 거리 값은 차량(1000)이 전진하는 경우의 기준 거리가 차량(1000)이 후진하는 경우의 기준 거리보다 크게 설정될 수 있다. 이는, 차량(1000)이 전진하는 경우 통상적으로 주행 속도가 후진하는 경우에 비해 빠르므로 보다 넓은 범위에 대한 객체 식별이 요구되기 때문일 수 있다. 이와 관련하여, 본원의 일 실시예에 따르면, 관심 영역 설정을 위한 기준 거리 값은 차량(1000)의 주행 속도 정보에 기초하여 결정되는 것일 수 있다. 예를 들어, 차량(1000)의 주행 속도가 빠른 경우가 주행 속도가 상대적으로 느린 경우에 비하여 관심 영역 설정을 위한 기준 거리 값이 크게 설정되는 것일 수 있다.Also, according to an exemplary embodiment of the present disclosure, the reference distance value for setting the region of interest may be set such that the reference distance when the vehicle 1000 moves forward is greater than the reference distance when the vehicle 1000 moves backward. This may be because, when the vehicle 1000 moves forward, the vehicle 1000 typically travels faster than when it moves backward, so object identification over a wider range is required. In this regard, according to an exemplary embodiment of the present disclosure, the reference distance value for setting the ROI may be determined based on driving speed information of the vehicle 1000 . For example, when the driving speed of the vehicle 1000 is fast, the reference distance value for setting the region of interest is set larger than when the driving speed is relatively slow.

또한, 도 1을 참조하면, 객체 추적 장치(100)는 수신된 의미론적 포인트 클라우드 입력(2)에 대한 전처리를 수행할 수 있다(도 1의 'Pre-processing'). 여기서, 의미론적 포인트 클라우드 입력(2)에 대한 전처리는 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 중 노이즈(Noise)로 판단되는 일부의 점을 제거하는 전처리 등을 포함할 수 있다.Also, referring to FIG. 1 , the object tracking apparatus 100 may perform pre-processing on the received semantic point cloud input 2 ('Pre-processing' in FIG. 1 ). Here, the preprocessing for the semantic point cloud input 2 may include preprocessing for removing some points determined as noise among a plurality of 3D points included in the semantic point cloud input 2 . have.

또한, 객체 추적 장치(100)는 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드(3)를 선별할 수 있다(도 1의 'Filtering').In addition, the object tracking device 100 is a target point cloud 3 including a 3D point to which classification information corresponding to a preset object type is assigned among a plurality of 3D points included in the semantic point cloud input 2 ) can be selected ('Filtering' in FIG. 1).

본원의 일 실시예에 따르면, 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 각각은 할당된 분류 정보가 식별될 수 있도록 분류 정보에 대응하여 미리 설정된 색상으로 표시될 수 있다. 달리 말해, 의미론적 포인트 클라우드 입력(2)은 분류 정보에 대응하는 색상이 복수의 3차원 점마다 표시되는 방식으로 소정의 객체 유형에 대응되는 점 또는 공간이 시각적으로 구분될 수 있게 색채화(Colorized)될 수 있다.According to an embodiment of the present application, each of the plurality of 3D points included in the semantic point cloud input 2 may be displayed with a preset color corresponding to the classification information so that the assigned classification information can be identified. In other words, the semantic point cloud input 2 is Colorized so that a point or space corresponding to a predetermined object type can be visually distinguished in such a way that a color corresponding to the classification information is displayed for each of a plurality of three-dimensional points. ) can be

또한, 본원의 일 실시예예 따르면, 의미론적 포인트 클라우드 입력(2)에 반영될 수 있는 분류 정보는 예를 들어 차량(Car), 인도(Sidewalk), 차도(Road), 건물(Building), 이륜차(Two-wheeled vehicle), 자전거(Bicycle), 지면(Ground), 자연(Nature), 보행자(Human) 등의 여러 클래스를 포함할 수 있다. 한편, 본원에서 개시하는 객체 추적 장치(100)는 의미론적 포인트 클라우드 입력(2)에 포함될 수 있는 모든 객체 유형에 대한 추적을 수행하는 것이 아니라 차량(1000)의 주행에 핵심적인 영향을 미칠 수 있는 객체 유형에 해당하는 객체만을 추적할 수 있도록, 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점만을 포함하는 대상 포인트 클라우드(3)를 선택적으로 추출할 수 있다.In addition, according to an embodiment of the present application, classification information that can be reflected in the semantic point cloud input 2 is, for example, a vehicle (Car), a sidewalk (Sidewalk), a road (Road), a building (Building), a two-wheeled vehicle ( Two-wheeled vehicle), bicycle (Bicycle), ground (Ground), nature (Nature), can include several classes (Human), such as. On the other hand, the object tracking apparatus 100 disclosed herein does not perform tracking for all object types that may be included in the semantic point cloud input 2, but may have a key influence on the driving of the vehicle 1000. In order to track only the object corresponding to the object type, the target point cloud 3 including only the 3D point to which the classification information corresponding to the preset object type is allocated may be selectively extracted.

달리 말해, 객체 추적 장치(100)는 검출하고자 하는 객체 분류 외의 객체 분류에 대응하는 포인트들을 삭제(배제)하여, 추적 대상에 해당하는 객체 분류에 대응하는 포인트들만을 포함하도록 대상 포인트 클라우드(3)를 선별할 수 있다.In other words, the object tracking apparatus 100 deletes (excludes) points corresponding to an object classification other than the object classification to be detected, so as to include only points corresponding to the object classification corresponding to the tracking target. can be selected.

한편, 대상 포인트 클라우드(3)의 선별을 위하여 미리 설정된 객체 유형은 차량, 보행자 및 이륜차 중 적어도 하나를 포함할 수 있다. 다만, 이에만 한정되는 것은 아니며, 본원의 구현예에 따라 차량, 보행자 및 이륜차 외의 추가적인 분류 정보에 대응하는 대상 포인트 클라우드(3)가 추출되는 것일 수 있다.Meanwhile, the object type preset for the selection of the target point cloud 3 may include at least one of a vehicle, a pedestrian, and a two-wheeled vehicle. However, the present invention is not limited thereto, and the target point cloud 3 corresponding to additional classification information other than a vehicle, a pedestrian, and a two-wheeled vehicle may be extracted according to an exemplary embodiment of the present disclosure.

보다 구체적으로, 객체 추적 장치(100)는 의미론적 포인트 클라우드 입력(2)의 복수의 3차원 점 각각에 대하여 할당된 분류 정보에 기초하여 미리 설정된 객체 유형에 해당하는 3차원 점만을 선별하여 해당 객체 유형에 대한 대상 포인트 클라우드(3)로 생성할 수 있다.More specifically, the object tracking device 100 selects only the three-dimensional point corresponding to the preset object type based on the classification information assigned to each of the plurality of three-dimensional points of the semantic point cloud input 2 and selects the corresponding object It can be created as a target point cloud (3) for a type.

또한, 도 1을 참조하면, 객체 추적 장치(100)는 의미론적 포인트 클라우드 입력(2)의 복수의 3차원 점 각각에 대하여 할당된 분류 정보에 기초하여 복수의 객체 유형 각각에 대응하는 복수의 대상 포인트 클라우드(3a, 3b, 3c)를 각각 구분하여 선별할 수 있다.In addition, referring to FIG. 1 , the object tracking apparatus 100 provides a plurality of objects corresponding to each of a plurality of object types based on the classification information allocated to each of the plurality of three-dimensional points of the semantic point cloud input 2 . The point clouds 3a, 3b, and 3c may be separately selected.

또한, 도 1을 참조하면, 복수의 대상 포인트 클라우드(3a, 3b, 3c)는 '차량' 객체 유형에 해당하는 분류 정보가 할당된 복수의 3차원 점만을 선택적으로 포함하는 제1대상 포인트 클라우드(3a), '보행자' 객체 유형에 해당하는 분류 정보가 할당된 복수의 3차원 점만을 선택적으로 포함하는 제2대상 포인트 클라우드(3b), '이륜차' 객체 유형에 해당하는 분류 정보가 할당된 복수의 3차원 점만을 선택적으로 포함하는 제3대상 포인트 클라우드(3c) 등을 포함할 수 있다.In addition, referring to FIG. 1 , the plurality of target point clouds 3a, 3b, and 3c is a first target point cloud ( 3a), a second target point cloud 3b selectively including only a plurality of three-dimensional points to which classification information corresponding to the 'pedestrian' object type is assigned, a plurality of assigned classification information corresponding to the 'two-wheeled vehicle' object type It may include a third target point cloud 3c including only three-dimensional points selectively.

한편, 객체 유형 각각에 대하여 구분하여 선별되는 복수의 대상 포인트 클라우드(3) 각각에 대하여, 대상 객체를 추적하는 프로세스는 각기 독립적으로 수행되는 것일 수 있다. 달리 말해, 본원에서 개시하는 객체 추적 장치(100)는 각각의 객체 유형에 대응하는 대상 포인트 클라우드(3)를 개별 생성하고 객체 유형마다 개별적인 객체 추적을 수행할 수 있다.Meanwhile, for each of the plurality of target point clouds 3 that are separately selected for each object type, the process of tracking the target object may be independently performed. In other words, the object tracking apparatus 100 disclosed herein may individually generate the target point cloud 3 corresponding to each object type and perform individual object tracking for each object type.

보다 구체적으로 예시하면, 객체 추적 장치(100)는 '차량'에 대한 추적 프로세스, '보행자'에 대한 추적 프로세스, '이륜차'에 대한 추적 프로세스 등을 독립적으로 수행할 수 있다. 또한, 객체 추적 장치(100)는 객체 유형마다의 추적 프로세스를 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 중에서 해당 객체 유형에 대한 분류 정보에 기반하여 개별적으로 생성된 대상 포인트 클라우드(3)에 기반하여 수행할 수 있다.More specifically, the object tracking apparatus 100 may independently perform a tracking process for a 'vehicle', a tracking process for a 'pedestrian', and a tracking process for a 'two-wheeled vehicle'. In addition, the object tracking device 100 performs a tracking process for each object type, a target point cloud individually generated based on classification information for a corresponding object type among a plurality of 3D points included in the semantic point cloud input 2 . It can be performed based on (3).

또한, 객체 추적 장치(100)는 선별된 대상 포인트 클라우드(3)를 객체마다 군집화할 수 있다(도 1의 'Clustering'). 여기서, 대상 포인트 클라우드(3)를 객체마다 군집화한다는 것은, 소정의 객체 유형에 대응하여 선별된 대상 포인트 클라우드(3)에 포함된 복수의 3차원 점을 하나의 객체 단위로 군집화하는 것을 의미할 수 있다.Also, the object tracking apparatus 100 may cluster the selected target point cloud 3 for each object ('Clustering' in FIG. 1 ). Here, clustering the target point cloud 3 for each object may mean clustering a plurality of three-dimensional points included in the target point cloud 3 selected in response to a predetermined object type into one object unit. have.

이해를 돕기 위해 예시하면, 객체 추적 장치(100)는 '차량' 객체 유형에 대응하는 대상 포인트 클라우드(3a)에 차량(1000) 주변을 통행하는 3 대의 다른 차량에 대응하는 복수의 3차원 점이 포함되는 것으로 판단되면, 대상 포인트 클라우드(3a)의 복수의 3차원 점을 3 대의 다른 차량 각각에 대응하는 세 그룹으로 군집화할 수 있다. 다른 예로, 객체 추적 장치(100)는 '보행자' 객체 유형에 대응하여 보행자 한 명마다의 3차원 점을 군집화(그룹핑)하거나 '이륜차' 객체 유형에 대응하여 이륜차 한 대마다의 3차원 점을 군집화(그룹핑)할 수 있다.To help understanding, the object tracking device 100 includes a plurality of three-dimensional points corresponding to three different vehicles passing around the vehicle 1000 in the target point cloud 3a corresponding to the 'vehicle' object type. When it is determined to be, the plurality of three-dimensional points of the target point cloud 3a may be clustered into three groups corresponding to each of the three different vehicles. As another example, the object tracking apparatus 100 clusters (groups) three-dimensional points for each pedestrian in response to the 'pedestrian' object type, or clusters the three-dimensional points for each two-wheeled vehicle in response to the 'two-wheeled vehicle' object type (grouping) is possible.

본원의 일 실시예에 따르면, 객체 추적 장치(100)는 유클리디안 클러스터링(Euclidean Clustering) 기법, k-평균 클러스터링(k-means clustering) 기법 등에 기초하여 대상 포인트 클라우드(3)를 객체마다 군집화할 수 있다.According to an embodiment of the present application, the object tracking apparatus 100 clusters the target point cloud 3 for each object based on a Euclidean clustering technique, a k-means clustering technique, etc. can

또한, 본원의 일 실시예에 따르면, 객체 추적 장치(100)는 객체 유형 각각에 대하여 미리 설정된 크기 범위를 기초로 군집화된 각각의 객체를 둘러싸는 경계 상자(Bounding Box)를 생성할 수 있다. 달리 말해, '차량' 객체 유형에 대응하여 설정되는 경계 상자(Bounding Box)의 크기(예를 들면, 면적, 수평방향 길이, 높이 등)와 '보행자' 객체 유형에 대응하여 설정되는 경계 상자(Bounding Box)의 크기는 다르게 사전 설정될 수 있으며, 이에 따라 객체 추적 장치(100)는 분류 정보를 활용하여 보다 정확하게 객체 추적이 수행되는 공간적 범위인 경계 상자(Bounding Box)를 설정함으로써 보다 엄밀하게 각각의 객체가 식별되도록 할 수 있다.Also, according to an embodiment of the present application, the object tracking apparatus 100 may generate a bounding box surrounding each object clustered based on a preset size range for each object type. In other words, the size (eg, area, horizontal length, height, etc.) of the bounding box set corresponding to the 'vehicle' object type and the bounding box set corresponding to the 'pedestrian' object type Box) can be preset differently, and accordingly, the object tracking device 100 uses classification information to set a bounding box that is a spatial range in which object tracking is performed more precisely by using classification information. Objects can be identified.

또한, 객체 추적 장치(100)는 군집화된 대상 포인트 클라우드(3)에 기초하여 대상 객체를 추적할 수 있다. 여기서, 객체 추적 장치(100)가 대상 객체를 추적한다는 것은, 군집화된 대상 포인트 클라우드를 해당 의미론적 포인트 클라우드 입력(2)이 획득되기 전에 파악된 대상 객체(달리 말해, 현재 인가된 의미론적 포인트 클라우드 입력(2)에 대비하여 앞선 시점에 인가된 의미론적 포인트 클라우드 입력(2)에 기초하여 차량(1000)에 대한 대상 공간에 등장하는 것으로 파악된 특정 객체)에 연관시키는 프로세스를 의미할 수 있다.Also, the object tracking apparatus 100 may track the target object based on the clustered target point cloud 3 . Here, the object tracking device 100 tracking the target object means that the clustered target point cloud is identified before the corresponding semantic point cloud input 2 is obtained (in other words, the currently applied semantic point cloud). It may refer to a process of associating a specific object identified as appearing in the target space for the vehicle 1000) based on the semantic point cloud input (2) applied at a previous point in time in relation to the input (2).

즉, 객체 추적 장치(100)는 객체 유형 각각에 대응하도록 선별된 대상 포인트 클라우드(3)에 기초하여 데이터 연관(Data Association)을 수행할 수 있다. 여기서, '데이터 연관'은 현재 관측된 각각의 객체들이 기존에 추적(탐지)된 객체들 중 무엇에 해당하는지를 분류하는 동작으로 이해될 수 있으며, 과거의 데이터를 통해 예측한 데이터와 새롭게 관측된 데이터의 관계를 분석하는 프로세스를 의미할 수 있다.That is, the object tracking apparatus 100 may perform data association based on the target point cloud 3 selected to correspond to each object type. Here, 'data association' can be understood as an operation of classifying whether each currently observed object corresponds to any of the previously tracked (detected) objects, and data predicted through past data and newly observed data It can mean the process of analyzing the relationship between

이와 관련하여, 본원에서 개시하는 객체 추적 장치(100)에 의할 때, 추적 중인 대상 객체(예를 들면, 차량 등)가 타 객체(예를 들면, 보행자, 이륜차, 펜스 등)와 연관(예를 들어, 공간적으로 인접)되더라도, 대상 객체와 타 객체의 객체 유형이 상이하면, 대상 객체와 타 객체에 대응하는 포인트들은 서로 다른 대상 포인트 클라우드(3)에 분리되어 선별되며, 이에 따라 대상 객체에 대한 추적 프로세스와 타 객체에 대한 추적 프로세는 각각의 대상 포인트 클라우드(3)에 기반하여 독립 수행되므로 대상 객체와 타 객체가 하나의 객체로 잘못 탐지되거나 대상 객체가 타 객체의 유형에 대응되는 것으로 잘못 탐지되는 오탐지가 방지될 수 있다.In this regard, according to the object tracking apparatus 100 disclosed herein, the target object being tracked (eg, vehicle, etc.) is associated with another object (eg, pedestrian, two-wheeled vehicle, fence, etc.) (eg, For example, spatially adjacent), if the object types of the target object and the other object are different, points corresponding to the target object and the other object are separated and selected in different target point clouds 3 , and accordingly, Since the tracking process for the target object and the tracking process for other objects are performed independently based on each target point cloud 3, the target object and the other object are incorrectly detected as one object, or the target object is incorrectly detected as corresponding to the type of another object. False positives that are detected can be prevented.

달리 말해, 객체 추적 장치(100)는 데이터 연관 수행시, 객체 유형마다 구분되는 대상 포인트 클라우드(3)를 활용하여 추적 알고리즘을 개별 적용하므로, 서로 다른 분류 정보에 대응하는 객체 간의 연관이 발생할 가능성을 낮추어 추적 정확도를 향상시킬 수 있는 것이다.In other words, since the object tracking device 100 applies the tracking algorithm individually by utilizing the target point cloud 3 that is divided for each object type when performing data association, the possibility of association between objects corresponding to different classification information occurs It can be lowered to improve tracking accuracy.

또한, 본원의 일 실시예에 따르면, 객체 추적 장치(100)는 IMM(Interacting Multiple Model) 필터, UKF(무향 칼만 필터, Unscented Kalman Filter) 필터, EKF(확장 칼만 필터, Extended Kalman Filter) 필터, PDA(Probabilistic Data Association) 알고리즘, JPDA(Joint PDA) 알고리즘 등에 기초하여 대상 객체를 추적할 수 있다. 본원의 일 실시예에 따르면, 객체 추적 장치(100)는 IMM-UKF-PDA 기반의 트래커(Tracker)에 기초하여 대상 포인트 클라우드(3) 마다 객체 추적을 수행할 수 있으나, 이에만 한정되는 것은 아니고, 본원에서는 종래에 이미 공지되었거나 향후 개발되는 데이터 연관(객체 추적) 알고리즘, 필터 등이 다양하게 적용될 수 있다.In addition, according to an embodiment of the present application, the object tracking apparatus 100 includes an Interacting Multiple Model (IMM) filter, an Unscented Kalman Filter (UKF) filter, an Extended Kalman Filter (EKF) filter, and a PDA. A target object may be tracked based on a (Probabilistic Data Association) algorithm, a JPDA (Joint PDA) algorithm, or the like. According to an embodiment of the present application, the object tracking apparatus 100 may perform object tracking for each target point cloud 3 based on an IMM-UKF-PDA based tracker, but is not limited thereto , in the present application, a data association (object tracking) algorithm, a filter, etc. that have been previously known or developed in the future may be variously applied.

또한, 객체 추적 장치(100)는 대상 포인트 클라우드(3) 각각의 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위에 기초하여 대상 객체를 추적할 수 있다.Also, the object tracking apparatus 100 may track the target object based on a motion model, a velocity range, and an acceleration range corresponding to each object type of the target point cloud 3 .

도 2는 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위를 예시적으로 나타낸 도표이다.2 is a diagram exemplarily showing a motion model, a velocity range, and an acceleration range corresponding to an object type.

도 2를 참조하면, '차량' 객체 유형 또는 '이륜차' 객체 유형에 대하여 적용될 수 있는 운동 모델은 등속도(CV), 등각가속도(CT), 등가속도(CA) 운동 모델 등을 포함할 수 있다. 또한, '보행자' 객체 유형에 대하여 적용될 수 있는 운동 모델은 랜덤 모션(Random Motion) 모델 등을 포함할 수 있다.Referring to FIG. 2 , the motion model applicable to the 'vehicle' object type or the 'two-wheeled vehicle' object type may include a constant velocity (CV), uniform angular acceleration (CT), and uniform acceleration (CA) motion model. . In addition, the motion model applicable to the 'pedestrian' object type may include a random motion model or the like.

또한, 도 2를 참조하면, 객체 유형 각각에 대한 속도 범위의 상한 속도는 '이륜차' 객체 유형에 대응한 상한 속도, '차량' 객체 유형에 대응한 상한 속도, '보행자' 객체 유형에 대응한 상한 속도 순으로 높게 결정될 수 있다. 보다 구체적으로, '차량' 객체 유형에 대응하는 속도 범위는 0 내지 180 km/h 범위이고, '보행자' 객체 유형에 대응하는 속도 범위는 0 내지 45 km/h 범위이고, '이륜차' 객체 유형에 대응하는 속도 범위는 0 내지 300 km/h 범위로 결정될 수 있으나, 이에만 한정되는 것은 아니다.In addition, referring to FIG. 2 , the upper limit speed of the speed range for each object type is the upper limit speed corresponding to the 'two-wheeled vehicle' object type, the upper limit speed corresponding to the 'vehicle' object type, and the upper limit corresponding to the 'pedestrian' object type. It may be determined to be higher in the order of speed. More specifically, the speed range corresponding to the 'vehicle' object type is in the range 0 to 180 km/h, the speed range corresponding to the 'pedestrian' object type is in the range 0 to 45 km/h, and the speed range corresponding to the 'two-wheeled vehicle' object type is The corresponding speed range may be determined in the range of 0 to 300 km/h, but is not limited thereto.

또한, 도 2를 참조하면, 객체 유형 각각에 대한 가속도 범위의 상한 값은 '이륜차' 객체 유형에 대응한 상한 속도가 '차량' 객체 유형에 대응한 상한 값 보다 높게 결정될 수 있다. 보다 구체적으로, '차량' 객체 유형에 대응하는 가속도 범위는 0 내지 24 km/s2 범위이고, '이륜차' 객체 유형에 대응하는 속도 범위는 0 내지 25 km/s2 범위로 결정될 수 있으나, 이에만 한정되는 것은 아니다.Also, referring to FIG. 2 , the upper limit value of the acceleration range for each object type may be determined such that the upper limit speed corresponding to the 'two-wheeled vehicle' object type is higher than the upper limit value corresponding to the 'vehicle' object type. More specifically, the acceleration range corresponding to the 'vehicle' object type may be determined to be in the range of 0 to 24 km/s 2 , and the speed range corresponding to the 'two-wheeled vehicle' object type may be determined to be in the range of 0 to 25 km/s 2 . but is not limited.

이렇듯, 본원에서 개시하는 객체 추적 장치(100)는 의미론적 포인트 클라우드 입력(2)을 활용함으로써 원시 상태의 포인트 클라우드 입력(1)에 객체 유형마다의 분류 정보가 부재함을 보완하여 객체(물체) 추적 시 각각의 객체(물체)의 분류에 따라 운동 모델 및 이동 패턴(속도, 가속도 등)을 맞춤형으로 적용함으로써, 보다 신속하고 정확한 객체 추적이 이루어지도록 할 수 있다.As such, the object tracking device 100 disclosed herein compensates for the absence of classification information for each object type in the point cloud input 1 in the raw state by utilizing the semantic point cloud input 2, thereby providing an object (object). When tracking, by customizing the motion model and movement pattern (speed, acceleration, etc.) according to the classification of each object (object), faster and more accurate object tracking can be achieved.

또한, 본원의 일 실시예에 따르면, 객체 추적 장치(100)는 대상 포인트 클라우드(3) 각각의 분류 정보(객체 유형)에 기초하여 객체 추적을 위한 IMM-UKF-PDA 알고리즘의 모델 전이 확률을 설정할 수 있다.In addition, according to an embodiment of the present application, the object tracking apparatus 100 sets the model transition probability of the IMM-UKF-PDA algorithm for object tracking based on the classification information (object type) of each target point cloud 3 . can

이렇듯, 종래의 객체 추적 알고리즘은 차량, 보행자, 이륜차 등 차량(1000) 주변에 위치할 수 있는 객체 유형 각각의 이동 특성을 고려하지 않고 전체적으로 동일한 파라미터를 기초로 객체 추적을 수행하는데 지나지 않은 반면, 본원에서 개시하는 객체 추적 장치(100)는 객체 유형에 적합하게 맞춤형으로 결정된 다양한 파라미터에 기반하여 객체 추적을 수행할 수 있다.As such, the conventional object tracking algorithm merely performs object tracking based on the same parameters without considering the movement characteristics of each object type that may be located around the vehicle 1000, such as a vehicle, a pedestrian, a two-wheeled vehicle, etc. The object tracking apparatus 100 disclosed in , may perform object tracking based on various parameters that are customized to suit an object type.

이하에서는 도 3을 참조하여, 객체 추적 장치(100)가 분류 정보가 미할당된 원시 상태의 포인트 클라우드 입력(1)에 기초하여 분류 정보를 획득하고, 이를 반영한 의미론적 포인트 클라우드 입력(2)을 생성(가공)하는 프로세스를 설명하도록 한다.Hereinafter, with reference to FIG. 3 , the object tracking device 100 acquires classification information based on the point cloud input 1 in the raw state to which the classification information is not assigned, and reflects the semantic point cloud input 2 Let us explain the process of creating (processing).

도 3은 대상 공간에서 획득되는 포인트 클라우드 입력을 의미론적 포인트 클라우드 입력으로 변환하는 프로세스를 설명하기 위한 개념도이다.3 is a conceptual diagram for explaining a process of converting a point cloud input obtained in a target space into a semantic point cloud input.

도 3을 참조하면, 객체 추적 장치(100)는 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력(1) 및 대상 공간에 대한 영상 입력(1') 중 적어도 하나를 수신할 수 있다. 예시적으로, 객체 추적 장치(100)는 3차원의 포인트 클라우드 입력(1)만을 수신하거나 포인트 클라우드 입력(1) 및 포인트 클라우드 입력(1)에 대응하는 영상 입력(1')을 함께 수신할 수 있다.Referring to FIG. 3 , the object tracking apparatus 100 may receive at least one of a point cloud input 1 including a plurality of 3D points for an object in a target space and an image input 1 ′ for the target space. can For example, the object tracking device 100 may receive only the three-dimensional point cloud input 1 or receive the point cloud input 1 and the image input 1 ′ corresponding to the point cloud input 1 together. have.

또한, 객체 추적 장치(100)는 미리 학습된 인공지능 모델에 기초하여 포인트 클라우드 입력(1) 및 영상 입력(1') 중 적어도 하나에 대한 의미론적 영역 분할을 적용할 수 있다. 즉, 객체 추적 장치(100)는 의미론적 영역 분할 결과를 기초로 포인트 클라우드 입력(1)에 포함된 복수의 3차원 점 각각에 대한 분류 정보를 도출하고, 도출된 분류 정보를 포인트 클라우드 입력(1)에 반영하여 의미론적 포인트 클라우드 입력(2)을 생성할 수 있다.In addition, the object tracking apparatus 100 may apply semantic region division to at least one of the point cloud input 1 and the image input 1 ′ based on the pre-trained artificial intelligence model. That is, the object tracking apparatus 100 derives classification information for each of a plurality of three-dimensional points included in the point cloud input 1 based on the semantic region division result, and applies the derived classification information to the point cloud input 1 ) to generate a semantic point cloud input (2).

본원의 일 실시예에 따르면, 객체 추적 장치(100)는 수신된 3차원의 포인트 클라우드 입력(1)을 2차원으로 투영하여 포인트 클라우드 입력(1)에 대응하는 투영 이미지를 생성하고, 변환된 투영 이미지에 인공지능 기반의 의미론적 분할을 적용하여 2차원의 의미론적 분할 이미지를 생성하고, 생성된 2차원의 의미론적 분할 이미지를 3차원으로 재구성하는 방식으로 의미론적 포인트 클라우드 입력(2)을 생성하도록 동작할 수 있다.According to an embodiment of the present application, the object tracking apparatus 100 generates a projection image corresponding to the point cloud input 1 by projecting the received three-dimensional point cloud input 1 in two dimensions, and the converted projection A semantic point cloud input (2) is generated by applying artificial intelligence-based semantic segmentation to an image to generate a two-dimensional semantic segmentation image, and reconstructing the generated two-dimensional semantic segmentation image in three dimensions. can operate to do so.

여기서, 투영 이미지에 기반하여 2차원의 의미론적 분할 이미지를 생성하기 위한 인공지능 기반의 모델은 예를 들어, 입력된 투영 이미지에 대한 다운 샘플링(Downsampling)을 수행하는 복수의 인코더(Encoder) 측 레이어 및 다운 샘플링된 소정의 이미지에 대한 업 샘플링(Upsampling)을 수행하여 입력된 소정의 이미지에 대응하는 2차원의 의미론적 분할 이미지를 출력하는 복수의 디코더(Decoder) 측 레이어를 포함하는 구조로 구현될 수 있다.Here, the AI-based model for generating a two-dimensional semantic segmentation image based on the projection image is, for example, a plurality of encoder-side layers that perform downsampling on the input projection image. and a plurality of decoder-side layers outputting a two-dimensional semantic segmentation image corresponding to the input predetermined image by performing upsampling on the down-sampled predetermined image. can

구체적으로, 객체 추적 장치(100)가 보유한 인공지능 모델은 인코더 측 레이어와 디코더 측 레이어 사이에 스킵 연결(Skip Connection)을 미포함하는 구조로 설계될 수 있다. 구체적으로, 스킵 연결(Skip Connection)은 다운 샘플링에서의 피쳐(feature)를 업 샘플링에서 더해주는 기법으로 이해될 수 있으며, 인공지능 모델의 후반부의 레이어에서 해당 레이어의 직전 레이어에서의 출력뿐만 아니라 전반부에 배치된 레이어로부터의 신호를 활용할 수 있도록 전반부의 레이어와 후반부의 레이어를 중간 레이어를 건너뛰고 연결해주는 것을 의미할 수 있다.Specifically, the artificial intelligence model possessed by the object tracking apparatus 100 may be designed in a structure that does not include a skip connection between an encoder-side layer and a decoder-side layer. Specifically, skip connection can be understood as a technique for adding features from downsampling in upsampling, and in the layer of the latter part of the AI model, not only the output from the previous layer of the corresponding layer but also the first part of the AI model. It may mean skipping the middle layer and connecting the layer of the first half and the layer of the second half so that the signal from the arranged layer can be utilized.

스킵 연결(Skip Connection)을 포함하는 구조의 인공지능 모델(예를 들면, Darknet 기반의 백본방을 사용하는 모델 등)의 경우 역전파 연산 과정에서 스킵 연결(Skip Connection)이 신호 감쇠를 막아줄 수 있어 인공지능 모델의 레이어가 깊어져도(달리 말해, 층의 수가 많아져도) 학습을 효율적으로 수행할 수 있도록 하는 효과가 있을 수 있으나, 그만큼 전반부 레이어의 신호를 후반부 레이어까지 전달하기 위한 메모리의 사용과 시간 소모가 필요하여, 인공지능 모델의 추론 속도를 저하시킬 수 있다.In the case of an AI model with a structure that includes a skip connection (for example, a model using a Darknet-based backbone room, etc.), skip connection can prevent signal attenuation during the backpropagation operation. Therefore, even if the layers of the AI model become deeper (in other words, even if the number of layers increases), there may be an effect of efficiently performing learning, but the use of memory to transmit signals from the first layer to the second layer It is time consuming and can slow down the reasoning speed of the AI model.

따라서, 본원의 일 실시예에 따른 객체 추적 장치(100)는 의미론적 분할 프로세스의 추론 속도를 향상시킬 수 있도록 스킵 연결(Skip Connection)을 미포함하는 구조의 인공지능 모델을 학습시킬 수 있다.Accordingly, the object tracking apparatus 100 according to an embodiment of the present application may train an artificial intelligence model having a structure that does not include a skip connection so as to improve the inference speed of the semantic segmentation process.

또한, 본원의 일 실시예에 따른 객체 추적 장치(100)가 보유한 인공지능 모델의 디코더 측 레이어의 수(m)는 인코더 측 레이어의 수(n)보다 작을 수 있다(m<n).In addition, the number (m) of the decoder-side layers of the artificial intelligence model possessed by the object tracking apparatus 100 according to an embodiment of the present application may be smaller than the number (n) of the encoder-side layers (m<n).

이와 관련하여, 디코더 측 레이어는 인코더에서 압축된 입력 이미지의 특성을 업 샘플링을 통해 복원하는 역할을 하며, 디코더 측 레이어의 동작은 인공지능 모델의 파라미터에 대한 미세 조정(Fine-Tuning) 수준과 연계되므로 소정 수준 이상의 성능을 만족하는 경우라면, 전체 아키텍처를 통해 출력 이미지를 빠르게 생성하도록 하기 위하여 디코더 측 레이어를 깊게 쌓을 필요가 없으므로, 본원의 일 실시예에 따른 객체 추적 장치(100)는 의미론적 분할 프로세스의 추론 속도를 향상시킬 수 있도록 디코더 측 레이어의 수가 인코더 측 레이어의 수보다 작은 구조로 인공지능 모델을 학습시킬 수 있다.In this regard, the decoder-side layer serves to restore the characteristics of the input image compressed by the encoder through up-sampling, and the operation of the decoder-side layer is linked with the fine-tuning level of the parameters of the artificial intelligence model. Therefore, if the performance above a predetermined level is satisfied, there is no need to deeply stack the decoder-side layer in order to quickly generate an output image through the entire architecture, so the object tracking apparatus 100 according to an embodiment of the present application is semantic segmentation In order to improve the inference speed of the process, the AI model can be trained with a structure in which the number of layers on the decoder side is smaller than the number of layers on the encoder side.

또한, 본원의 다른 실시예에 따르면, 객체 추적 장치(100)는 포인트 클라우드 입력(1) 및 영상 입력(1')을 모두 활용하여, 영상 입력(1')에 대한 의미론적 영역 분할 결과에 기초하여 포인트 클라우드 입력에 포함된 복수의 3차원 점을 그룹핑한 포인트 클러스터 각각을 객체를 기준으로 분류하는 방식으로 분류 정보를 도출할 수 있다.In addition, according to another embodiment of the present application, the object tracking apparatus 100 utilizes both the point cloud input 1 and the image input 1', and based on the semantic region segmentation result for the image input 1' Accordingly, classification information may be derived in a manner of classifying each point cluster obtained by grouping a plurality of 3D points included in the point cloud input based on the object.

달리 말해, 본원의 다른 실시예에 따른 객체 추적 장치(100)는 포인트 클라우드 입력(1)에 포함된 복수의 3차원 점을 소정의 기준에 따라 군집화한 클러스터 데이터 및 영상 입력(1')에 딥러닝 기반의 의미론적 영역 분할을 적용하여 영상 입력(1')의 각각의 픽셀마다의 객체 분류 데이터를 각각 도출하고, 도출된 클러스터 데이터 및 객체 분류 데이터에 기초하여 클러스터 데이터의 포인트 클러스터 각각에 대한 객체 라벨을 선정하는 방식으로 분류 정보를 도출할 수 있다.In other words, the object tracking apparatus 100 according to another embodiment of the present application is a cluster data obtained by clustering a plurality of 3D points included in the point cloud input 1 according to a predetermined criterion and dips the image input 1 ′. Object classification data for each pixel of the image input 1' is derived by applying learning-based semantic region division, respectively, and an object for each point cluster of cluster data based on the derived cluster data and object classification data Classification information can be derived by selecting a label.

보다 구체적으로, 본원의 다른 실시예에 따른 객체 추적 장치(100)는 포인트 클라우드 입력(1)으로부터 도출된 클러스터 데이터 및 영상 입력(1')으로부터 도출된 객체 분류 데이터를 동기화하고, 미리 설정된 캘리브레이션 파라미터를 활용하여 동기화된 클러스터 데이터를 소정의 영상 좌표계로 맵핑한 후 맵핑된 클러스터 데이터의 포인트 클러스터 각각에 대하여 보팅(Voting) 알고리즘을 적용하여 포인트 클러스터 각각에 대응되는 객체를 나타내는 객체 라벨을 선정하는 방식으로 분류 정보를 도출할 수 있다.More specifically, the object tracking apparatus 100 according to another embodiment of the present application synchronizes the cluster data derived from the point cloud input 1 and the object classification data derived from the image input 1 ′, and preset calibration parameters After mapping the synchronized cluster data to a predetermined image coordinate system using Classification information can be derived.

종합하면, 본원의 다른 실시예에 따른 객체 추적 장치(100)는 인공 기능 기반의 영상 처리 기법을 통해 카메라를 통해 촬영된 영상과 라이다(LiDAR)에 의해 획득된 3차원 포인트 클라우드를 실시간 융합하여 의미론적 포인트 클라우드 입력(2)을 생성할 수 있다.In summary, the object tracking apparatus 100 according to another embodiment of the present application is a real-time fusion of an image captured by a camera and a three-dimensional point cloud obtained by LiDAR through an artificial function-based image processing technique. It is possible to generate a semantic point cloud input (2).

도 4는 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치의 개략적인 구성도이다.4 is a schematic configuration diagram of a semantic point cloud-based object tracking apparatus according to an embodiment of the present application.

도 4를 참조하면, 객체 추적 장치(100)는 의미론적 분할부(110), 필터링부(120), 군집화부(130) 및 추적부(140)를 포함할 수 있다.Referring to FIG. 4 , the object tracking apparatus 100 may include a semantic division unit 110 , a filtering unit 120 , a clustering unit 130 , and a tracking unit 140 .

의미론적 분할부(110)는, 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력(1) 및 대상 공간에 대한 영상 입력(1') 중 적어도 하나를 수신할 수 있다. 또한, 의미론적 분할부(110)는 미리 학습된 인공지능 모델에 기초하여 포인트 클라우드 입력(1) 및 영상 입력(1') 중 적어도 하나에 대한 의미론적 영역 분할을 적용할 수 있다. 또한, 의미론적 분할부(110)는 의미론적 영역 분할 결과를 기초로 복수의 3차원 점 각각에 대한 분류 정보를 도출할 수 있다. 또한, 의미론적 분할부(110)는 포인트 클라우드 입력(1)에 도출된 분류 정보를 반영하여 의미론적 포인트 클라우드 입력(2)을 생성할 수 있다.The semantic division unit 110 may receive at least one of a point cloud input 1 including a plurality of 3D points for an object in the target space and an image input 1 ′ for the target space. In addition, the semantic division unit 110 may apply semantic domain division to at least one of the point cloud input 1 and the image input 1 ′ based on a pre-trained artificial intelligence model. Also, the semantic division unit 110 may derive classification information for each of the plurality of 3D points based on the semantic domain division result. Also, the semantic division unit 110 may generate the semantic point cloud input 2 by reflecting the classification information derived from the point cloud input 1 .

필터링부(120)는, 복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력(2)을 획득하고, 획득된 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드(3)를 선별할 수 있다.The filtering unit 120 obtains a semantic point cloud input 2 including a plurality of 3D points, and a preset object type among a plurality of 3D points included in the obtained semantic point cloud input 2 . The target point cloud 3 including the 3D point to which the classification information corresponding to is assigned may be selected.

군집화부(130)는, 선별된 대상 포인트 클라우드(3)를 객체마다 군집화할 수 있다.The clustering unit 130 may cluster the selected target point cloud 3 for each object.

추적부(140)는, 군집화된 대상 포인트 클라우드(3)에 기초하여 대상 객체를 추적할 수 있다.The tracker 140 may track the target object based on the clustered target point cloud 3 .

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, an operation flow of the present application will be briefly reviewed based on the details described above.

도 5는 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 방법에 대한 동작 흐름도이다.5 is a flowchart illustrating an object tracking method based on a semantic point cloud according to an embodiment of the present application.

도 5에 도시된 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 방법은 앞서 설명된 객체 추적 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 객체 추적 장치(100)에 대하여 설명된 내용은 의미론적 포인트 클라우드 기반의 객체 추적 방법에 대한 설명에도 동일하게 적용될 수 있다.The method for tracking an object based on a semantic point cloud according to an embodiment of the present application shown in FIG. 5 may be performed by the object tracking apparatus 100 described above. Accordingly, even if omitted below, the description of the object tracking apparatus 100 may be equally applied to the description of the semantic point cloud-based object tracking method.

도 5를 참조하면, 단계 S11에서 필터링부(120)는 의미론적 클라우드 입력(2)을 획득할 수 있다. 본원의 일 실시예에 따르면, 단계 S11에서 필터링부(120)는 의미론적 분할부(110)에 의해 생성된 의미론적 포인트 클라우드 입력(2)을 의미론적 분할부(110)로부터 수신하는 것일 수 있다.Referring to FIG. 5 , in step S11 , the filtering unit 120 may obtain a semantic cloud input 2 . According to an embodiment of the present application, in step S11 , the filtering unit 120 may receive the semantic point cloud input 2 generated by the semantic division unit 110 from the semantic division unit 110 . .

보다 구체적으로, 단계 S11 이전에 의미론적 분할부(110)는 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력(1) 및 대상 공간에 대한 영상 입력(1') 중 적어도 하나를 수신할 수 있다.More specifically, before step S11, the semantic division unit 110 performs at least one of a point cloud input 1 including a plurality of three-dimensional points for an object in the target space and an image input 1' for the target space. can receive

또한, 단계 S11 이전에 의미론적 분할부(110)는 미리 학습된 인공지능 모델에 기초하여 수신된 포인트 클라우드 입력(1) 및 영상 입력(1') 중 적어도 하나에 대한 의미론적 영역 분할을 적용할 수 있다.In addition, before step S11, the semantic segmentation unit 110 applies semantic region segmentation to at least one of the received point cloud input 1 and the image input 1' based on the pre-trained artificial intelligence model. can

또한, 단계 S11 이전에 의미론적 분할부(110)는, 의미론적 영역 분할 결과를 기초로 포인트 클라우드 입력(1)에 포함된 복수의 3차원 점 각각에 대한 분류 정보를 도출할 수 있다.Also, before step S11 , the semantic division unit 110 may derive classification information for each of the plurality of 3D points included in the point cloud input 1 based on the result of the semantic domain division.

또한, 단계 S11 이전에 의미론적 분할부(110)는, 수신된 포인트 클라우드 입력(1)에 도출된 분류 정보를 반영하여 의미론적 포인트 클라우드 입력(2)을 생성할 수 있다.Also, before step S11 , the semantic division unit 110 may generate the semantic point cloud input 2 by reflecting the classification information derived in the received point cloud input 1 .

다음으로, 단계 S12에서 필터링부(120)는 획득한 의미론적 포인트 클라우드 입력(2) 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드(3)를 선별할 수 있다.Next, in step S12, the filtering unit 120 selects a target point cloud 3 including a three-dimensional point to which classification information corresponding to a preset object type is assigned from among the acquired semantic point cloud inputs 2 . can

본원의 일 실시예에 따르면, 단계 S12에서 필터링부(120)는 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 각각의 분류 정보에 기초하여 복수의 객체 유형 각각에 대응하는 복수의 대상 포인트 클라우드(3)를 각각 구분하여 선별할 수 있다.According to an embodiment of the present application, in step S12 , the filtering unit 120 performs a plurality of object types corresponding to each of the plurality of object types based on the classification information of each of the plurality of 3D points included in the semantic point cloud input 2 . Each of the target point clouds 3 may be separately selected.

다음으로, 단계 S13에서 군집화부(130)는 선별된 대상 포인트 클라우드(3)를 객체마다 군집화할 수 있다.Next, in step S13 , the clustering unit 130 may cluster the selected target point cloud 3 for each object.

다음으로, 단계 S14에서 추적부(140)는 군집화된 대상 포인트 클라우드에 기초하여 대상 객체를 추적할 수 있다.Next, in step S14 , the tracking unit 140 may track the target object based on the clustered target point cloud.

구체적으로, 단계 S14에서 추적부(140)는 군집화된 대상 포인트 클라우드에 포함된 적어도 하나의 객체를 의미론적 포인트 클라우드 입력(2)이 획득되기 전에 파악된 대상 객체에 연관시킬 수 있다.Specifically, in step S14 , the tracker 140 may associate at least one object included in the clustered target point cloud with the target object identified before the semantic point cloud input 2 is obtained.

또한, 본원의 일 실시예에 따르면, 단계 S14에서 추적부(140)는 군집화된 대상 포인트 클라우드에 포함된 적어도 하나의 객체의 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위에 기초하여 대상 객체를 추적할 수 있다.In addition, according to an embodiment of the present application, in step S14 , the tracker 140 performs the target object based on the motion model, velocity range, and acceleration range corresponding to the object type of at least one object included in the clustered target point cloud. can be tracked.

상술한 설명에서, 단계 S11 내지 S14는 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S14 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present application. In addition, some steps may be omitted if necessary, and the order between the steps may be changed.

본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The semantic point cloud-based object tracking method according to an embodiment of the present application may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 의미론적 포인트 클라우드 기반의 객체 추적 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the above-described semantic point cloud-based object tracking method may be implemented in the form of a computer program or application executed by a computer stored in a recording medium.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present application is for illustration, and those of ordinary skill in the art to which the present application pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may also be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present application.

10: 객체 추적 시스템
100: 의미론적 포인트 클라우드 기반의 객체 추적 장치
110: 의미론적 분할부
120: 필터링부
130: 군집화부
140: 추적부
1000: 차량
1: 포인트 클라우드 입력
2: 의미론적 포인트 클라우드 입력
20: 네트워크
10: Object tracking system
100: semantic point cloud-based object tracking device
110: semantic division
120: filtering unit
130: clustering unit
140: tracking unit
1000: vehicle
1: Point cloud input
2: Semantic point cloud input
20: network

Claims (14)

의미론적 포인트 클라우드 기반의 객체 추적 장치에 의해 수행되는 의미론적 포인트 클라우드 기반의 객체 추적 방법에 있어서,
복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력을 획득하는 단계;
상기 의미론적 포인트 클라우드 입력 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드를 선별하는 단계;
상기 대상 포인트 클라우드를 객체마다 군집화하는 단계; 및
상기 군집화된 대상 포인트 클라우드에 기초하여 대상 객체를 추적하는 단계,
를 포함하고,
상기 대상 객체를 추적하는 단계는,
상기 군집화된 대상 포인트 클라우드를 상기 의미론적 포인트 클라우드 입력이 획득되기 전에 대상 공간에 등장하는 것으로 파악된 상기 대상 객체에 연관시켜 상기 대상 객체를 추적하는 것인, 객체 추적 방법.
In the semantic point cloud-based object tracking method performed by the semantic point cloud-based object tracking device,
obtaining a semantic point cloud input comprising a plurality of three-dimensional points;
selecting a target point cloud including a 3D point to which classification information corresponding to a preset object type is assigned from among the semantic point cloud inputs;
clustering the target point cloud for each object; and
tracking a target object based on the clustered target point cloud;
including,
The step of tracking the target object,
and tracking the target object by associating the clustered target point cloud with the target object identified as appearing in the target space before the semantic point cloud input is obtained.
삭제delete 제1항에 있어서,
상기 의미론적 포인트 클라우드 입력은 차량에 대한 인접 영역에 존재하는 객체를 나타내는 복수의 3차원 점을 포함하고,
상기 객체 유형은, 차량, 보행자 및 이륜차 중 적어도 하나를 포함하는 것인, 객체 추적 방법.
According to claim 1,
The semantic point cloud input includes a plurality of three-dimensional points representing objects existing in an area adjacent to the vehicle,
Wherein the object type includes at least one of a vehicle, a pedestrian, and a two-wheeled vehicle.
제3항에 있어서,
상기 대상 객체를 추적하는 단계는,
상기 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위에 기초하여 상기 대상 객체를 추적하는 것인, 객체 추적 방법.
4. The method of claim 3,
The step of tracking the target object,
and tracking the target object based on a motion model, a velocity range, and an acceleration range corresponding to the object type.
제4항에 있어서,
상기 운동 모델은,
등가속 모델, 등속도 모델, 등각가속도 모델 및 랜덤 모션 모델 중 적어도 하나를 포함하는 것인, 객체 추적 방법.
5. The method of claim 4,
The motion model is
An object tracking method comprising at least one of a constant acceleration model, a constant velocity model, a uniform acceleration model, and a random motion model.
제3항에 있어서,
상기 대상 포인트 클라우드를 선별하는 단계는,
상기 분류 정보에 기초하여 복수의 객체 유형 각각에 대응하는 복수의 대상 포인트 클라우드를 각각 구분하여 선별하는 것인, 객체 추적 방법.
4. The method of claim 3,
The step of selecting the target point cloud,
The object tracking method, wherein the plurality of target point clouds corresponding to each of the plurality of object types are separately selected based on the classification information.
제1항에 있어서,
상기 의미론적 포인트 클라우드 입력을 획득하는 단계는,
상기 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 상기 대상 공간에 대한 영상 입력 중 적어도 하나를 수신하는 단계;
미리 학습된 인공지능 모델에 기초하여 상기 포인트 클라우드 입력 및 상기 영상 입력 중 적어도 하나에 대한 의미론적 영역 분할을 적용하는 단계;
상기 의미론적 영역 분할 결과를 기초로 상기 복수의 3차원 점 각각에 대한 상기 분류 정보를 도출하는 단계; 및
상기 포인트 클라우드 입력에 상기 분류 정보를 반영하여 상기 의미론적 포인트 클라우드 입력을 생성하는 단계,
를 포함하는 것인, 객체 추적 방법.
According to claim 1,
The step of obtaining the semantic point cloud input comprises:
receiving at least one of a point cloud input including a plurality of 3D points for an object in the target space and an image input for the target space;
applying semantic region division to at least one of the point cloud input and the image input based on a pre-trained artificial intelligence model;
deriving the classification information for each of the plurality of 3D points based on the semantic region division result; and
generating the semantic point cloud input by reflecting the classification information in the point cloud input;
A method for tracking an object, comprising:
의미론적 포인트 클라우드 기반의 객체 추적 장치에 있어서,
복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력을 획득하고, 상기 의미론적 포인트 클라우드 입력 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드를 선별하는 필터링부;
상기 대상 포인트 클라우드를 객체마다 군집화하는 군집화부; 및
상기 군집화된 대상 포인트 클라우드에 기초하여 대상 객체를 추적하는 추적부,
를 포함하고,
상기 추적부는,
상기 군집화된 대상 포인트 클라우드를 상기 의미론적 포인트 클라우드 입력이 획득되기 전에 대상 공간에 등장하는 것으로 파악된 상기 대상 객체에 연관시켜 상기 대상 객체를 추적하는 것인, 객체 추적 장치.
In a semantic point cloud-based object tracking device,
A filtering unit that obtains a semantic point cloud input including a plurality of three-dimensional points, and selects a target point cloud including a three-dimensional point to which classification information corresponding to a preset object type is assigned from among the semantic point cloud inputs ;
a clustering unit clustering the target point cloud for each object; and
a tracking unit for tracking a target object based on the clustered target point cloud;
including,
The tracking unit,
The object tracking apparatus of claim 1, wherein the target object is tracked by associating the clustered target point cloud with the target object identified as appearing in the target space before the semantic point cloud input is obtained.
삭제delete 제8항에 있어서,
상기 의미론적 포인트 클라우드 입력은 차량에 대한 인접 영역에 존재하는 객체를 나타내는 복수의 3차원 점을 포함하고,
상기 객체 유형은, 차량, 보행자 및 이륜차 중 적어도 하나를 포함하는 것인, 객체 추적 장치.
9. The method of claim 8,
The semantic point cloud input includes a plurality of three-dimensional points representing objects existing in an area adjacent to the vehicle,
The object type will include at least one of a vehicle, a pedestrian, and a two-wheeled vehicle, the object tracking device.
제10항에 있어서,
상기 추적부는,
상기 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위에 기초하여 상기 대상 객체를 추적하고,
상기 운동 모델은,
등가속 모델, 등속도 모델, 등각가속도 모델 및 랜덤 모션 모델 중 적어도 하나를 포함하는 것인, 객체 추적 장치.
11. The method of claim 10,
The tracking unit,
tracking the target object based on a motion model, a velocity range, and an acceleration range corresponding to the object type;
The motion model is
An object tracking device comprising at least one of a constant acceleration model, a constant velocity model, a uniform acceleration model, and a random motion model.
제10항에 있어서,
상기 필터링부는,
상기 분류 정보에 기초하여 복수의 객체 유형 각각에 대응하는 복수의 대상 포인트 클라우드를 각각 구분하여 선별하는 것인, 객체 추적 장치.
11. The method of claim 10,
The filtering unit,
Based on the classification information, the object tracking apparatus of the plurality of target point clouds corresponding to each of the plurality of object types to be separately selected.
제8항에 있어서,
상기 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 상기 대상 공간에 대한 영상 입력 중 적어도 하나를 수신하고, 미리 학습된 인공지능 모델에 기초하여 상기 포인트 클라우드 입력 및 상기 영상 입력 중 적어도 하나에 대한 의미론적 영역 분할을 적용하여 상기 복수의 3차원 점 각각에 대한 상기 분류 정보를 도출하고, 상기 포인트 클라우드 입력에 상기 분류 정보를 반영하여 상기 의미론적 포인트 클라우드 입력을 생성하는 의미론적 분할부,
를 더 포함하는 것인, 객체 추적 장치.
9. The method of claim 8,
Receive at least one of a point cloud input including a plurality of 3D points for an object in the target space and an image input for the target space, and the point cloud input and the image input based on a pre-trained artificial intelligence model applying semantic domain division to at least one of the plurality of 3D points to derive the classification information, and reflecting the classification information to the point cloud input to generate the semantic point cloud input division,
Which will further include an object tracking device.
제1항, 제3항 내지 제7항 중 어느 한 항에 따른 방법을 컴퓨터에서 실행시키기 위한 프로그램으로 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium recorded as a program for executing the method according to any one of claims 1 to 7 on a computer.
KR1020200140077A 2020-10-27 2020-10-27 Apparatus and method for tracking object based on semantic point cloud KR102405767B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200140077A KR102405767B1 (en) 2020-10-27 2020-10-27 Apparatus and method for tracking object based on semantic point cloud

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200140077A KR102405767B1 (en) 2020-10-27 2020-10-27 Apparatus and method for tracking object based on semantic point cloud

Publications (2)

Publication Number Publication Date
KR20220055707A KR20220055707A (en) 2022-05-04
KR102405767B1 true KR102405767B1 (en) 2022-06-03

Family

ID=81583799

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200140077A KR102405767B1 (en) 2020-10-27 2020-10-27 Apparatus and method for tracking object based on semantic point cloud

Country Status (1)

Country Link
KR (1) KR102405767B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116246069B (en) * 2023-02-07 2024-01-16 北京四维远见信息技术有限公司 Method and device for self-adaptive terrain point cloud filtering, intelligent terminal and storage medium
CN116755441B (en) * 2023-06-19 2024-03-12 国广顺能(上海)能源科技有限公司 Obstacle avoidance method, device, equipment and medium of mobile robot

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110348333A (en) 2019-06-21 2019-10-18 深圳前海达闼云端智能科技有限公司 Object detecting method, device, storage medium and electronic equipment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9110163B2 (en) * 2013-06-14 2015-08-18 Microsoft Technology Licensing, Llc Lidar-based classification of object movement
KR102067034B1 (en) * 2014-06-30 2020-01-17 현대엠엔소프트 주식회사 Apparatus for extracting vegetation section for 3d navigation and method thereof
CN114296093A (en) * 2016-11-29 2022-04-08 布莱克莫尔传感器和分析有限责任公司 Method and system for classifying objects in a point cloud data set

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110348333A (en) 2019-06-21 2019-10-18 深圳前海达闼云端智能科技有限公司 Object detecting method, device, storage medium and electronic equipment

Also Published As

Publication number Publication date
KR20220055707A (en) 2022-05-04

Similar Documents

Publication Publication Date Title
CN110531753B (en) Control system, control method and controller for autonomous vehicle
US10955842B2 (en) Control systems, control methods and controllers for an autonomous vehicle
US20190361454A1 (en) Control systems, control methods and controllers for an autonomous vehicle
CN108388834B (en) Object detection using recurrent neural networks and cascade feature mapping
US20240112051A1 (en) Machine learning models operating at different frequencies for autonomous vehicles
JP6984215B2 (en) Signal processing equipment, and signal processing methods, programs, and mobiles.
RU2767955C1 (en) Methods and systems for determining the presence of dynamic objects by a computer
EP4048568A1 (en) Object detection and tracking
KR102338665B1 (en) Apparatus and method for classficating point cloud using semantic image
JP2021504796A (en) Sensor data segmentation
CN115516528A (en) Graph neural network for multi-object detection and tracking
US20230005169A1 (en) Lidar point selection using image segmentation
KR102405767B1 (en) Apparatus and method for tracking object based on semantic point cloud
US20220396281A1 (en) Platform for perception system development for automated driving system
US20220269900A1 (en) Low level sensor fusion based on lightweight semantic segmentation of 3d point clouds
US20210064913A1 (en) Driving assistant system, electronic device, and operation method thereof
JP2021082286A (en) System and method for improving lane change detection, and non-temporary computer-readable medium
EP4064127A1 (en) Methods and electronic devices for detecting objects in surroundings of a self-driving car
Aditya et al. Collision Detection: An Improved Deep Learning Approach Using SENet and ResNext
JP7321983B2 (en) Information processing system, information processing method, program and vehicle control system
JP2024019629A (en) Prediction device, prediction method, program and vehicle control system
JP5772321B2 (en) Vehicle detection device, vehicle detection method, and program
Sanberg et al. Asteroids: A stixel tracking extrapolation-based relevant obstacle impact detection system
KR102399460B1 (en) Apparatus and method for classifying three-dimensional point cloud using semantic segmentation
Nguyen et al. Optimized grid-based environment perception in advanced driver assistance systems

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant