KR102405767B1 - Apparatus and method for tracking object based on semantic point cloud - Google Patents
Apparatus and method for tracking object based on semantic point cloud Download PDFInfo
- Publication number
- KR102405767B1 KR102405767B1 KR1020200140077A KR20200140077A KR102405767B1 KR 102405767 B1 KR102405767 B1 KR 102405767B1 KR 1020200140077 A KR1020200140077 A KR 1020200140077A KR 20200140077 A KR20200140077 A KR 20200140077A KR 102405767 B1 KR102405767 B1 KR 102405767B1
- Authority
- KR
- South Korea
- Prior art keywords
- point cloud
- target
- semantic
- tracking
- input
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G06K9/6267—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Abstract
의미론적 포인트 클라우드 기반의 객체 추적 장치 및 방법이 개시되며, 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 방법은, 복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력을 획득하는 단계, 상기 의미론적 포인트 클라우드 입력 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드를 선별하는 단계, 상기 대상 포인트 클라우드를 객체마다 군집화하는 단계 및 상기 군집화된 대상 포인트 클라우드에 기초하여 대상 객체를 추적하는 단계를 포함할 수 있다.A semantic point cloud-based object tracking apparatus and method are disclosed, and the semantic point cloud-based object tracking method according to an embodiment of the present application includes: obtaining a semantic point cloud input including a plurality of three-dimensional points; , selecting a target point cloud including a three-dimensional point to which classification information corresponding to a preset object type is assigned from the semantic point cloud input, clustering the target point cloud for each object, and the clustered target point It may include tracking the target object based on the cloud.
Description
본원은 의미론적 포인트 클라우드 기반의 객체 추적 장치 및 방법에 관한 것이다.The present application relates to a semantic point cloud-based object tracking apparatus and method.
스마트 자동차(Smart Car)라는 용어는 기계 중심의 전통적인 자동차 기술에 전기, 전자, 정보통신 기술을 융복합한 것으로, 완성차 업체, 부품업체, ICT업체 등 다양한 산업 주체들에 의해 운전자 편의 측면과 차량 안전 측면에 초점을 두어 지속적으로 발전되어 왔으며, 이러한 스마트 자동차 관련 기술은 구체적으로 첨단 운전자 보조체계(Advanced Driver Assistance System, ADAS), 자율 주행(Autonomous Vehicle), 협업 안전체계(Cooperative Safety System) 등 안전과 관련된 분야와 커넥티드 카(Connected Car)와 같은 편의와 관련된 분야로 분류될 수 있다.The term “smart car” is a fusion of electric, electronic, and information and communication technologies with machine-oriented traditional automobile technology. It has been continuously developed with a focus on aspects, and these smart car-related technologies are specifically designed for safety and It can be classified into related fields and fields related to convenience such as connected cars.
특히, ADAS(Advanced Driver Assistance Systems) 또는 자율주행(Autonomous Vehicle)이 적용된 지능형 자동차는 주행 중인 차량의 주변 환경을 인식하기 위해 구비되는 각종 센서(예를 들어, 카메라, GPS, 레이더, LiDAR 등)로부터 획득되는 센싱 데이터를 통해 차량 주변 상황을 높은 정확도로 실시간 모니터링 함으로써 탑승자, 보행자 및 주변차량의 안전을 확보하고 주행 편의성을 향상시킬 수 있어야 한다.In particular, an intelligent vehicle to which ADAS (Advanced Driver Assistance Systems) or autonomous vehicle is applied is obtained from various sensors (eg, camera, GPS, radar, LiDAR, etc.) provided to recognize the surrounding environment of the driving vehicle. It should be possible to secure the safety of occupants, pedestrians and surrounding vehicles and improve driving convenience by real-time monitoring of the vehicle surroundings with high accuracy through the acquired sensing data.
특히, LiDAR는 레이저로 특정 대상과의 거리를 측정하여 대상 객체의 형태를 판별하여 자동차 주변의 도로 환경을 3차원 형상으로 인지하는 센서로, 이러한 LiDAR는 주변 대상과의 거리 측정에서의 오차가 적은 정밀한 측정 성능을 제공함으로써 장애물 인지 및 동적 물체 추적 등 다양한 차량 연계 인지 시스템에 활용 가능한 이점이 있다.In particular, LiDAR is a sensor that recognizes the road environment around a car as a three-dimensional shape by measuring the distance to a specific target with a laser to determine the shape of the target object. By providing precise measurement performance, it has the advantage of being applicable to various vehicle-linked recognition systems such as obstacle recognition and dynamic object tracking.
다만, 라이다 센서를 이용한 동적 물체 추적 및 분류와 관련하여, 포인트 클라우드는 카메라 등의 비전 센서에 비해 물체의 분류 정보를 얻기에 다소 낮은 해상도를 가져 물체 추적시 분류 정보를 바탕으로 적합한 운동 모델을 선택하는 것이 어렵고, 라이다 센서의 특성 상 거리가 멀수록 포인트 클라우드의 밀도가 희박해져 클러스터링(Clustrering) 성능을 저하시키며, 나아가 물체 추적의 정확도 역시 감소시킨다. 또한, 라이다 센서는 동일한 객체(물체)를 관찰하더라도 관찰 시점에 따라 다른 형상 정보를 획득하게 된다. 한편, 동적 물체 추적 시에는 일반적으로 물체의 중심을 기준으로 추적이 수행되므로, 다른 형상으로 중심점을 추적하게 되면 잘못된 운동 상태를 추적할 수 있는 문제가 있다.However, with respect to dynamic object tracking and classification using the lidar sensor, the point cloud has a somewhat lower resolution to obtain object classification information compared to a vision sensor such as a camera. It is difficult to select, and due to the characteristics of the lidar sensor, as the distance increases, the density of the point cloud becomes sparse, which reduces the clustering performance and further reduces the accuracy of object tracking. In addition, even when the lidar sensor observes the same object (object), it acquires different shape information depending on the observation point. On the other hand, in the case of dynamic object tracking, since tracking is generally performed based on the center of the object, if the center point is tracked in a different shape, there is a problem in that an incorrect motion state may be tracked.
또한, LiDAR 등을 통해 획득되는 포인트 클라우드를 활용하여 주행 또는 정차 중인 차량 주변의 객체를 추적하는 종래의 기법은 포인트 클라우드의 3차원 포인트 각각을 해당 포인트와 연계된 객체의 유형과 매칭한 분류 정보를 고려하지 않고, 단순히 근방에 위치하는 3차원 포인트를 군집화하여 차량 주변의 장애물의 존부 정도만을 파악하거나, 군집화된 3차원 포인트의 크기(예를 들면, 단면적, 부피 등) 정보 등에 기초하여 장애물의 유형(예를 들면, 인접 차량, 보행자 등)을 유추하는 수준에 지나지 않았다.In addition, the conventional technique of tracking an object around a driving or stopped vehicle using a point cloud obtained through LiDAR, etc. is to obtain classification information that matches each of the three-dimensional points of the point cloud with the type of object associated with the point. Rather than considering only the presence or absence of obstacles around the vehicle by simply clustering 3D points located nearby, or the type of obstacles based on information on the size (eg, cross-sectional area, volume, etc.) of the clustered 3D points, etc. (For example, adjacent vehicles, pedestrians, etc.) were only inferred.
이렇듯, 포인트 클라우드의 3차원 포인트 각각의 분류 정보를 고려하지 않는 종래의 객체 추적 기법에서는 특정 객체가 다른 객체와 인접하여 위치하는 등 물체 추적 중 객체 간의 연관이 발생하는 경우에 추적 정확도가 현저히 떨어지는 문제가 있었다.As such, in the conventional object tracking technique that does not consider the classification information of each three-dimensional point of the point cloud, the tracking accuracy is significantly lowered when an association between objects occurs during object tracking, such as when a specific object is located adjacent to another object there was
이에 따라, LiDAR 등을 통해 확보되는 원시 데이터인 포인트 클라우드를 단순 활용하여 차량 주변의 객체를 추적하는 것에서 나아가, 포인트 클라우드에 포함된 포인트 각각의 분류 정보를 활용하여 보다 신속하고 정확하게 차량 주변의 객체를 탐지 및 추적할 수 있는 기법이 요구된다.Accordingly, it goes beyond simply tracking objects around the vehicle by simply using point clouds, which are raw data obtained through LiDAR, etc. A technique that can detect and track is required.
본원의 배경이 되는 기술은 한국등록특허공보 제10-2103941호에 개시되어 있다.The technology that is the background of the present application is disclosed in Korean Patent Publication No. 10-2103941.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 의미론적 포인트 클라우드 입력에 포함된 분류 정보를 기초로 필터링 및 군집화를 수행한 후 객체 추적을 수행함으로써 소정의 객체를 보다 정확하고 신속하게 추적할 수 있는 의미론적 포인트 클라우드 기반의 객체 추적 장치 및 방법을 제공하려는 것을 목적으로 한다.The present application is intended to solve the problems of the prior art described above, and by performing filtering and clustering based on the classification information included in the semantic point cloud input, and then performing object tracking, a predetermined object can be tracked more accurately and quickly. An object of the present invention is to provide a semantic point cloud-based object tracking device and method.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems described above, and other technical problems may exist.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 방법은, 복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력을 획득하는 단계, 상기 의미론적 포인트 클라우드 입력 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드를 선별하는 단계, 상기 대상 포인트 클라우드를 객체마다 군집화하는 단계 및 상기 군집화된 대상 포인트 클라우드에 기초하여 대상 객체를 추적하는 단계를 포함할 수 있다.As a technical means for achieving the above technical problem, the semantic point cloud-based object tracking method according to an embodiment of the present application includes the steps of obtaining a semantic point cloud input including a plurality of three-dimensional points, the meaning Selecting a target point cloud including a three-dimensional point to which classification information corresponding to a preset object type is assigned from among theoretical point cloud inputs, clustering the target point cloud for each object, and based on the clustered target point cloud to track the target object.
또한, 상기 대상 객체를 추적하는 단계는, 상기 군집화된 대상 포인트 클라우드를 상기 의미론적 포인트 클라우드 입력이 획득되기 전에 파악된 상기 대상 객체에 연관시킬 수 있다.Also, the tracking of the target object may include associating the clustered target point cloud with the target object identified before the semantic point cloud input is obtained.
또한, 상기 의미론적 포인트 클라우드 입력은 차량에 대한 인접 영역에 존재하는 객체를 나타내는 복수의 3차원 점을 포함할 수 있다.In addition, the semantic point cloud input may include a plurality of 3D points representing objects existing in an area adjacent to the vehicle.
또한, 상기 객체 유형은, 차량, 보행자 및 이륜차 중 적어도 하나를 포함할 수 있다.Also, the object type may include at least one of a vehicle, a pedestrian, and a two-wheeled vehicle.
또한, 상기 대상 객체를 추적하는 단계는, 상기 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위에 기초하여 상기 대상 객체를 추적할 수 있다.In addition, the tracking of the target object may include tracking the target object based on a motion model corresponding to the object type, a speed range, and an acceleration range.
또한, 상기 운동 모델은, 등가속 모델, 등속도 모델, 등각가속도 모델 및 랜덤 모션 모델 중 적어도 하나를 포함할 수 있다.In addition, the motion model may include at least one of a constant acceleration model, a constant velocity model, a uniform acceleration model, and a random motion model.
또한, 상기 대상 포인트 클라우드를 선별하는 단계는, 상기 분류 정보에 기초하여 복수의 객체 유형 각각에 대응하는 복수의 대상 포인트 클라우드를 각각 구분하여 선별할 수 있다.In addition, the selecting of the target point cloud may include dividing and selecting a plurality of target point clouds corresponding to each of a plurality of object types based on the classification information.
또한, 상기 의미론적 포인트 클라우드 입력을 획득하는 단계는, 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 상기 대상 공간에 대한 영상 입력 중 적어도 하나를 수신하는 단계, 미리 학습된 인공지능 모델에 기초하여 상기 포인트 클라우드 입력 및 상기 영상 입력 중 적어도 하나에 대한 의미론적 영역 분할을 적용하는 단계, 상기 의미론적 영역 분할 결과를 기초로 상기 복수의 3차원 점 각각에 대한 상기 분류 정보를 도출하는 단계 및 상기 포인트 클라우드 입력에 상기 분류 정보를 반영하여 상기 의미론적 포인트 클라우드 입력을 생성하는 단계를 포함할 수 있다.In addition, the acquiring of the semantic point cloud input includes: receiving at least one of a point cloud input including a plurality of three-dimensional points for an object in a target space and an image input for the target space; applying semantic region division to at least one of the point cloud input and the image input based on an artificial intelligence model; and generating the semantic point cloud input by reflecting the classification information in the point cloud input.
한편, 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치는, 복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력을 획득하고, 상기 의미론적 포인트 클라우드 입력 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드를 선별하는 필터링부, 상기 대상 포인트 클라우드를 객체마다 군집화하는 군집화부 및 상기 군집화된 대상 포인트 클라우드에 기초하여 대상 객체를 추적하는 추적부를 포함할 수 있다.Meanwhile, the semantic point cloud-based object tracking apparatus according to an embodiment of the present application obtains a semantic point cloud input including a plurality of 3D points, and corresponds to a preset object type among the semantic point cloud inputs A filtering unit that selects a target point cloud including a three-dimensional point to which classification information is assigned, a clustering unit that clusters the target point cloud for each object, and a tracking unit that tracks a target object based on the clustered target point cloud can do.
또한, 상기 추적부는, 상기 군집화된 대상 포인트 클라우드를 상기 의미론적 포인트 클라우드 입력이 획득되기 전에 파악된 상기 대상 객체에 연관시킬 수 있다.Also, the tracker may associate the clustered target point cloud with the target object identified before the semantic point cloud input is obtained.
또한, 상기 추적부는, 상기 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위에 기초하여 상기 대상 객체를 추적할 수 있다.Also, the tracker may track the target object based on a motion model corresponding to the object type, a speed range, and an acceleration range.
또한, 상기 필터링부는, 상기 분류 정보에 기초하여 복수의 객체 유형 각각에 대응하는 복수의 대상 포인트 클라우드를 각각 구분하여 선별할 수 있다.Also, the filtering unit may classify and select a plurality of target point clouds respectively corresponding to a plurality of object types based on the classification information.
또한, 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치는, 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 상기 대상 공간에 대한 영상 입력 중 적어도 하나를 수신하고, 미리 학습된 인공지능 모델에 기초하여 상기 포인트 클라우드 입력 및 상기 영상 입력 중 적어도 하나에 대한 의미론적 영역 분할을 적용하여 상기 복수의 3차원 점 각각에 대한 상기 분류 정보를 도출하고, 상기 포인트 클라우드 입력에 상기 분류 정보를 반영하여 상기 의미론적 포인트 클라우드 입력을 생성하는 의미론적 분할부를 포함할 수 있다.In addition, the semantic point cloud-based object tracking apparatus according to an embodiment of the present application receives at least one of a point cloud input including a plurality of 3D points for an object in a target space and an image input for the target space and applying semantic region division to at least one of the point cloud input and the image input based on the pre-trained artificial intelligence model to derive the classification information for each of the plurality of 3D points, and the point cloud and a semantic division unit configured to generate the semantic point cloud input by reflecting the classification information in an input.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present application. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description.
전술한 본원의 과제 해결 수단에 의하면, 의미론적 포인트 클라우드 입력에 포함된 분류 정보를 기초로 필터링 및 군집화를 수행한 후 객체 추적을 수행함으로써 소정의 객체를 보다 정확하고 신속하게 추적할 수 있는 의미론적 포인트 클라우드 기반의 객체 추적 장치 및 방법을 제공할 수 있다.According to the above-described problem solving means of the present application, by performing filtering and clustering based on the classification information included in the semantic point cloud input, and then performing object tracking, a semantic object that can be tracked more accurately and quickly A point cloud-based object tracking apparatus and method may be provided.
전술한 본원의 과제 해결 수단에 의하면, 소정의 대상 객체가 타 객체와 공간적으로 연관되더라도 물체의 분류 정보를 고려하여 대상 객체와 타 객체가 독립적으로 탐지 및 추적될 수 있으므로, 추적 정확도가 향상될 수 있다.According to the above-described problem solving means of the present application, even if a predetermined target object is spatially related to another object, the target object and the other object can be independently detected and tracked in consideration of classification information of the object, so that the tracking accuracy can be improved. have.
전술한 본원의 과제 해결 수단에 의하면, 의미론적 포인트 클라우드에 반영된 분류 정보를 활용하여 탐지되는 객체의 유형에 적합한 운동 모델에 기반한 객체 추적이 수행될 수 있다.According to the above-described problem solving means of the present application, object tracking based on a motion model suitable for the type of object to be detected may be performed by using the classification information reflected in the semantic point cloud.
다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the above-described effects, and other effects may exist.
도 1은 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치를 포함하는 객체 추적 시스템의 개략적인 구성도이다.
도 2는 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위를 예시적으로 나타낸 도표이다.
도 3은 대상 공간에서 획득되는 포인트 클라우드 입력을 의미론적 포인트 클라우드 입력으로 변환하는 프로세스를 설명하기 위한 개념도이다.
도 4는 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치의 개략적인 구성도이다.
도 5는 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 방법에 대한 동작 흐름도이다.1 is a schematic configuration diagram of an object tracking system including a semantic point cloud-based object tracking apparatus according to an embodiment of the present application.
2 is a diagram exemplarily showing a motion model, a velocity range, and an acceleration range corresponding to an object type.
3 is a conceptual diagram for explaining a process of converting a point cloud input obtained in a target space into a semantic point cloud input.
4 is a schematic configuration diagram of a semantic point cloud-based object tracking apparatus according to an embodiment of the present application.
5 is a flowchart illustrating an object tracking method based on a semantic point cloud according to an embodiment of the present application.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present application pertains can easily carry out. However, the present application may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is "connected" with another part, it is not only "directly connected" but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including cases where
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is positioned “on”, “on”, “on”, “on”, “under”, “under”, or “under” another member, this means that a member is positioned on the other member. It includes not only the case where they are in contact, but also the case where another member exists between two members.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.
본원은 의미론적 포인트 클라우드 기반의 객체 추적 장치 및 방법에 관한 것이다.The present application relates to a semantic point cloud-based object tracking apparatus and method.
도 1은 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치를 포함하는 객체 추적 시스템의 개략적인 구성도이다.1 is a schematic configuration diagram of an object tracking system including a semantic point cloud-based object tracking apparatus according to an embodiment of the present application.
도 1을 참조하면, 본원의 일 실시예에 따른 객체 추적 시스템(10)은 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치(100)(이하, '객체 추적 장치(100)'라 한다.) 및 차량(1000)을 포함할 수 있다. 또한, 도면에는 도시되지 않았으나, 차량(1000)에는 객체 추적 장치(100)로 포인트 클라우드 입력(1)을 제공하는 라이다 센서(미도시)가 구비될 수 있다.1, the
객체 추적 장치(100) 및 차량(1000) 상호간은 네트워크(20)를 통해 통신할 수 있다. 네트워크(20)는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(20)의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.The
객체 추적 장치(100)는 복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력(2)을 획득할 수 있다(도 1의 'Semantic Point Cloud'). 참고로, 본원의 실시예에 관한 설명에서 '포인트 클라우드 입력(1)'은 복수의 3차원 점을 포함하되, 각각의 3차원 점이 해당하는 객체의 유형을 의미하는 분류 정보가 미할당된 가공되지 않은 원시적인 포인트 클라우드를 의미할 수 있다. 이에 대비하여, 본원에서의 '의미론적 포인트 클라우드 입력(2)'은 원시의 포인트 클라우드 입력(1)에 포함된 복수의 3차원 점 각각이 해당하는 객체의 유형인 분류 정보가 복수의 3차원 점 각각에 대하여 할당(예를 들면, 라벨링(Labeling) 등)되도록 가공된 상태의 포인트 클라우드를 의미할 수 있다.The
달리 말해, 포인트 클라우드 입력(1)에 포함된 복수의 3차원 점 각각에는 객체의 유형을 나타내는 분류 정보가 미할당되고, 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 각각에는 전술한 분류 정보가 할당(라벨링)된 것일 수 있으며, 본원의 구현예에 따라 의미론적 포인트 클라우드 입력(2)은 포인트 클라우드 입력(1)에 대한 가공(분석)을 통해 생성(획득)되는 것일 수 있다.In other words, classification information indicating the type of object is not assigned to each of the plurality of three-dimensional points included in the
구체적으로, 본원의 일 실시예에 따르면, 객체 추적 장치(100)는 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력(1)을 수신하고, 수신된 포인트 클라우드 입력(1)에 대하여 의미론적 분할(Semantic Segmentation)을 적용하여 포인트 클라우드 입력(1)에 포함된 복수의 3차원 점 각각의 분류 정보를 파악하고, 파악된 분류 정보를 반영하도록 포인트 클라우드 입력(1)을 가공하여 의미론적 포인트 클라우드 입력(2)을 획득하는 것일 수 있다. 한편, 상술한 바와 같이 1차적으로 획득된 포인트 클라우드 입력(1)에 의미론적 분할을 적용함으로써 의미론적 포인트 클라우드 입력(2)을 생성하는 프로세스는 도 3을 참조하여 상세히 후술하도록 한다.Specifically, according to an embodiment of the present application, the
한편, 본원의 실시예에 관한 설명에서 '대상 공간'은 주행 또는 정차 중인 차량(1000)에 대한 인접 영역을 의미하는 것일 수 있다. 이와 관련하여, 객체 추적 장치(100)는 대상 공간에 존재하는 적어도 하나의 객체에 대한 정보를 반영하는 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 점(포인트) 각각의 객체 유형(클래스)을 나타내는 분류 정보를 의미론적 포인트 클라우드(2)로부터 획득할 수 있다.Meanwhile, in the description of the exemplary embodiment of the present application, the 'target space' may mean an area adjacent to the
또한, 전술한 대상 공간과 관련하여, 본원의 일 실시예에 따르면, 객체 추적 장치(100)는 차량(1000)의 주변 영역에서의 인지 중요도를 기초로 설정된 기준 거리를 결정하고, 차량(1000)으로부터 기준 거리 내의 영역(예를 들면, 차량(1000) 내부의 특정 기준점으로부터 설정된 기준 거리 이내로 떨어진 영역)을 관심 영역으로 하여, 라이다 센서(미도시)로부터 획득된 복수의 포인트(점) 중 관심 영역에 속하는 것으로 판단된 3차원 포인트(점)를 포함하는 포인트 클라우드 입력(1) 또는 의미론적 포인트 클라우드 입력(2)을 수신하는 것일 수 있다.In addition, with respect to the above-described target space, according to an embodiment of the present disclosure, the
또한, 본원의 일 실시예에 따르면, 관심 영역은 차량(1000)으로부터 기준 거리 내의 영역 중 차량(1000)의 주행 방향 또는 차량(1000)에 구비되는 카메라 모듈(미도시)의 촬영 방향에 부합하는 영역으로 설정될 수 있다. 여기서, 카메라 모듈의 촬영 방향은 카메라 모듈(미도시)의 시야, FoV(Field of View) 등으로 달리 지칭될 수 있다.In addition, according to an embodiment of the present disclosure, the region of interest corresponds to a driving direction of the
이해를 돕기 위해 예시하면, 관심 영역 설정을 위하여 설정된 기준 거리는 50m일 수 있으나, 이에만 한정되는 것은 아니며, 차량(1000)의 유형, 차량(1000)이 주행중인 도로의 규모, 차량(1000)의 주행 위치 정보 등에 기초하여 기준 거리는 상이하게 설정될 수 있으며, 차량(1000)이 주행되는 도중에도 변동될 수 있다. 구체적으로, 차량(1000)이 전진 구동 중인 경우, 차량(1000)의 전방 영역, 측방 영역 등은 관심 영역에 포함되고, 차량(1000)의 후방 영역은 관심 영역에 미포함되는 것일 수 있다. 이와 반대로, 차량(1000)이 후진 구동 중인 경우에는, 차량(1000)의 후방 영역, 측방 영역 등은 관심 영역에 포함되고, 차량(1000)의 전방 영역은 관심 영역으로 미포함되는 것일 수 있다.For example, the reference distance set for setting the region of interest may be 50 m, but is not limited thereto, and the type of the
또한, 본원의 일 실시예에 따르면, 관심 영역 설정을 위한 기준 거리 값은 차량(1000)이 전진하는 경우의 기준 거리가 차량(1000)이 후진하는 경우의 기준 거리보다 크게 설정될 수 있다. 이는, 차량(1000)이 전진하는 경우 통상적으로 주행 속도가 후진하는 경우에 비해 빠르므로 보다 넓은 범위에 대한 객체 식별이 요구되기 때문일 수 있다. 이와 관련하여, 본원의 일 실시예에 따르면, 관심 영역 설정을 위한 기준 거리 값은 차량(1000)의 주행 속도 정보에 기초하여 결정되는 것일 수 있다. 예를 들어, 차량(1000)의 주행 속도가 빠른 경우가 주행 속도가 상대적으로 느린 경우에 비하여 관심 영역 설정을 위한 기준 거리 값이 크게 설정되는 것일 수 있다.Also, according to an exemplary embodiment of the present disclosure, the reference distance value for setting the region of interest may be set such that the reference distance when the
또한, 도 1을 참조하면, 객체 추적 장치(100)는 수신된 의미론적 포인트 클라우드 입력(2)에 대한 전처리를 수행할 수 있다(도 1의 'Pre-processing'). 여기서, 의미론적 포인트 클라우드 입력(2)에 대한 전처리는 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 중 노이즈(Noise)로 판단되는 일부의 점을 제거하는 전처리 등을 포함할 수 있다.Also, referring to FIG. 1 , the
또한, 객체 추적 장치(100)는 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드(3)를 선별할 수 있다(도 1의 'Filtering').In addition, the
본원의 일 실시예에 따르면, 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 각각은 할당된 분류 정보가 식별될 수 있도록 분류 정보에 대응하여 미리 설정된 색상으로 표시될 수 있다. 달리 말해, 의미론적 포인트 클라우드 입력(2)은 분류 정보에 대응하는 색상이 복수의 3차원 점마다 표시되는 방식으로 소정의 객체 유형에 대응되는 점 또는 공간이 시각적으로 구분될 수 있게 색채화(Colorized)될 수 있다.According to an embodiment of the present application, each of the plurality of 3D points included in the semantic
또한, 본원의 일 실시예예 따르면, 의미론적 포인트 클라우드 입력(2)에 반영될 수 있는 분류 정보는 예를 들어 차량(Car), 인도(Sidewalk), 차도(Road), 건물(Building), 이륜차(Two-wheeled vehicle), 자전거(Bicycle), 지면(Ground), 자연(Nature), 보행자(Human) 등의 여러 클래스를 포함할 수 있다. 한편, 본원에서 개시하는 객체 추적 장치(100)는 의미론적 포인트 클라우드 입력(2)에 포함될 수 있는 모든 객체 유형에 대한 추적을 수행하는 것이 아니라 차량(1000)의 주행에 핵심적인 영향을 미칠 수 있는 객체 유형에 해당하는 객체만을 추적할 수 있도록, 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점만을 포함하는 대상 포인트 클라우드(3)를 선택적으로 추출할 수 있다.In addition, according to an embodiment of the present application, classification information that can be reflected in the semantic
달리 말해, 객체 추적 장치(100)는 검출하고자 하는 객체 분류 외의 객체 분류에 대응하는 포인트들을 삭제(배제)하여, 추적 대상에 해당하는 객체 분류에 대응하는 포인트들만을 포함하도록 대상 포인트 클라우드(3)를 선별할 수 있다.In other words, the
한편, 대상 포인트 클라우드(3)의 선별을 위하여 미리 설정된 객체 유형은 차량, 보행자 및 이륜차 중 적어도 하나를 포함할 수 있다. 다만, 이에만 한정되는 것은 아니며, 본원의 구현예에 따라 차량, 보행자 및 이륜차 외의 추가적인 분류 정보에 대응하는 대상 포인트 클라우드(3)가 추출되는 것일 수 있다.Meanwhile, the object type preset for the selection of the target point cloud 3 may include at least one of a vehicle, a pedestrian, and a two-wheeled vehicle. However, the present invention is not limited thereto, and the target point cloud 3 corresponding to additional classification information other than a vehicle, a pedestrian, and a two-wheeled vehicle may be extracted according to an exemplary embodiment of the present disclosure.
보다 구체적으로, 객체 추적 장치(100)는 의미론적 포인트 클라우드 입력(2)의 복수의 3차원 점 각각에 대하여 할당된 분류 정보에 기초하여 미리 설정된 객체 유형에 해당하는 3차원 점만을 선별하여 해당 객체 유형에 대한 대상 포인트 클라우드(3)로 생성할 수 있다.More specifically, the
또한, 도 1을 참조하면, 객체 추적 장치(100)는 의미론적 포인트 클라우드 입력(2)의 복수의 3차원 점 각각에 대하여 할당된 분류 정보에 기초하여 복수의 객체 유형 각각에 대응하는 복수의 대상 포인트 클라우드(3a, 3b, 3c)를 각각 구분하여 선별할 수 있다.In addition, referring to FIG. 1 , the
또한, 도 1을 참조하면, 복수의 대상 포인트 클라우드(3a, 3b, 3c)는 '차량' 객체 유형에 해당하는 분류 정보가 할당된 복수의 3차원 점만을 선택적으로 포함하는 제1대상 포인트 클라우드(3a), '보행자' 객체 유형에 해당하는 분류 정보가 할당된 복수의 3차원 점만을 선택적으로 포함하는 제2대상 포인트 클라우드(3b), '이륜차' 객체 유형에 해당하는 분류 정보가 할당된 복수의 3차원 점만을 선택적으로 포함하는 제3대상 포인트 클라우드(3c) 등을 포함할 수 있다.In addition, referring to FIG. 1 , the plurality of
한편, 객체 유형 각각에 대하여 구분하여 선별되는 복수의 대상 포인트 클라우드(3) 각각에 대하여, 대상 객체를 추적하는 프로세스는 각기 독립적으로 수행되는 것일 수 있다. 달리 말해, 본원에서 개시하는 객체 추적 장치(100)는 각각의 객체 유형에 대응하는 대상 포인트 클라우드(3)를 개별 생성하고 객체 유형마다 개별적인 객체 추적을 수행할 수 있다.Meanwhile, for each of the plurality of target point clouds 3 that are separately selected for each object type, the process of tracking the target object may be independently performed. In other words, the
보다 구체적으로 예시하면, 객체 추적 장치(100)는 '차량'에 대한 추적 프로세스, '보행자'에 대한 추적 프로세스, '이륜차'에 대한 추적 프로세스 등을 독립적으로 수행할 수 있다. 또한, 객체 추적 장치(100)는 객체 유형마다의 추적 프로세스를 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 중에서 해당 객체 유형에 대한 분류 정보에 기반하여 개별적으로 생성된 대상 포인트 클라우드(3)에 기반하여 수행할 수 있다.More specifically, the
또한, 객체 추적 장치(100)는 선별된 대상 포인트 클라우드(3)를 객체마다 군집화할 수 있다(도 1의 'Clustering'). 여기서, 대상 포인트 클라우드(3)를 객체마다 군집화한다는 것은, 소정의 객체 유형에 대응하여 선별된 대상 포인트 클라우드(3)에 포함된 복수의 3차원 점을 하나의 객체 단위로 군집화하는 것을 의미할 수 있다.Also, the
이해를 돕기 위해 예시하면, 객체 추적 장치(100)는 '차량' 객체 유형에 대응하는 대상 포인트 클라우드(3a)에 차량(1000) 주변을 통행하는 3 대의 다른 차량에 대응하는 복수의 3차원 점이 포함되는 것으로 판단되면, 대상 포인트 클라우드(3a)의 복수의 3차원 점을 3 대의 다른 차량 각각에 대응하는 세 그룹으로 군집화할 수 있다. 다른 예로, 객체 추적 장치(100)는 '보행자' 객체 유형에 대응하여 보행자 한 명마다의 3차원 점을 군집화(그룹핑)하거나 '이륜차' 객체 유형에 대응하여 이륜차 한 대마다의 3차원 점을 군집화(그룹핑)할 수 있다.To help understanding, the
본원의 일 실시예에 따르면, 객체 추적 장치(100)는 유클리디안 클러스터링(Euclidean Clustering) 기법, k-평균 클러스터링(k-means clustering) 기법 등에 기초하여 대상 포인트 클라우드(3)를 객체마다 군집화할 수 있다.According to an embodiment of the present application, the
또한, 본원의 일 실시예에 따르면, 객체 추적 장치(100)는 객체 유형 각각에 대하여 미리 설정된 크기 범위를 기초로 군집화된 각각의 객체를 둘러싸는 경계 상자(Bounding Box)를 생성할 수 있다. 달리 말해, '차량' 객체 유형에 대응하여 설정되는 경계 상자(Bounding Box)의 크기(예를 들면, 면적, 수평방향 길이, 높이 등)와 '보행자' 객체 유형에 대응하여 설정되는 경계 상자(Bounding Box)의 크기는 다르게 사전 설정될 수 있으며, 이에 따라 객체 추적 장치(100)는 분류 정보를 활용하여 보다 정확하게 객체 추적이 수행되는 공간적 범위인 경계 상자(Bounding Box)를 설정함으로써 보다 엄밀하게 각각의 객체가 식별되도록 할 수 있다.Also, according to an embodiment of the present application, the
또한, 객체 추적 장치(100)는 군집화된 대상 포인트 클라우드(3)에 기초하여 대상 객체를 추적할 수 있다. 여기서, 객체 추적 장치(100)가 대상 객체를 추적한다는 것은, 군집화된 대상 포인트 클라우드를 해당 의미론적 포인트 클라우드 입력(2)이 획득되기 전에 파악된 대상 객체(달리 말해, 현재 인가된 의미론적 포인트 클라우드 입력(2)에 대비하여 앞선 시점에 인가된 의미론적 포인트 클라우드 입력(2)에 기초하여 차량(1000)에 대한 대상 공간에 등장하는 것으로 파악된 특정 객체)에 연관시키는 프로세스를 의미할 수 있다.Also, the
즉, 객체 추적 장치(100)는 객체 유형 각각에 대응하도록 선별된 대상 포인트 클라우드(3)에 기초하여 데이터 연관(Data Association)을 수행할 수 있다. 여기서, '데이터 연관'은 현재 관측된 각각의 객체들이 기존에 추적(탐지)된 객체들 중 무엇에 해당하는지를 분류하는 동작으로 이해될 수 있으며, 과거의 데이터를 통해 예측한 데이터와 새롭게 관측된 데이터의 관계를 분석하는 프로세스를 의미할 수 있다.That is, the
이와 관련하여, 본원에서 개시하는 객체 추적 장치(100)에 의할 때, 추적 중인 대상 객체(예를 들면, 차량 등)가 타 객체(예를 들면, 보행자, 이륜차, 펜스 등)와 연관(예를 들어, 공간적으로 인접)되더라도, 대상 객체와 타 객체의 객체 유형이 상이하면, 대상 객체와 타 객체에 대응하는 포인트들은 서로 다른 대상 포인트 클라우드(3)에 분리되어 선별되며, 이에 따라 대상 객체에 대한 추적 프로세스와 타 객체에 대한 추적 프로세는 각각의 대상 포인트 클라우드(3)에 기반하여 독립 수행되므로 대상 객체와 타 객체가 하나의 객체로 잘못 탐지되거나 대상 객체가 타 객체의 유형에 대응되는 것으로 잘못 탐지되는 오탐지가 방지될 수 있다.In this regard, according to the
달리 말해, 객체 추적 장치(100)는 데이터 연관 수행시, 객체 유형마다 구분되는 대상 포인트 클라우드(3)를 활용하여 추적 알고리즘을 개별 적용하므로, 서로 다른 분류 정보에 대응하는 객체 간의 연관이 발생할 가능성을 낮추어 추적 정확도를 향상시킬 수 있는 것이다.In other words, since the
또한, 본원의 일 실시예에 따르면, 객체 추적 장치(100)는 IMM(Interacting Multiple Model) 필터, UKF(무향 칼만 필터, Unscented Kalman Filter) 필터, EKF(확장 칼만 필터, Extended Kalman Filter) 필터, PDA(Probabilistic Data Association) 알고리즘, JPDA(Joint PDA) 알고리즘 등에 기초하여 대상 객체를 추적할 수 있다. 본원의 일 실시예에 따르면, 객체 추적 장치(100)는 IMM-UKF-PDA 기반의 트래커(Tracker)에 기초하여 대상 포인트 클라우드(3) 마다 객체 추적을 수행할 수 있으나, 이에만 한정되는 것은 아니고, 본원에서는 종래에 이미 공지되었거나 향후 개발되는 데이터 연관(객체 추적) 알고리즘, 필터 등이 다양하게 적용될 수 있다.In addition, according to an embodiment of the present application, the
또한, 객체 추적 장치(100)는 대상 포인트 클라우드(3) 각각의 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위에 기초하여 대상 객체를 추적할 수 있다.Also, the
도 2는 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위를 예시적으로 나타낸 도표이다.2 is a diagram exemplarily showing a motion model, a velocity range, and an acceleration range corresponding to an object type.
도 2를 참조하면, '차량' 객체 유형 또는 '이륜차' 객체 유형에 대하여 적용될 수 있는 운동 모델은 등속도(CV), 등각가속도(CT), 등가속도(CA) 운동 모델 등을 포함할 수 있다. 또한, '보행자' 객체 유형에 대하여 적용될 수 있는 운동 모델은 랜덤 모션(Random Motion) 모델 등을 포함할 수 있다.Referring to FIG. 2 , the motion model applicable to the 'vehicle' object type or the 'two-wheeled vehicle' object type may include a constant velocity (CV), uniform angular acceleration (CT), and uniform acceleration (CA) motion model. . In addition, the motion model applicable to the 'pedestrian' object type may include a random motion model or the like.
또한, 도 2를 참조하면, 객체 유형 각각에 대한 속도 범위의 상한 속도는 '이륜차' 객체 유형에 대응한 상한 속도, '차량' 객체 유형에 대응한 상한 속도, '보행자' 객체 유형에 대응한 상한 속도 순으로 높게 결정될 수 있다. 보다 구체적으로, '차량' 객체 유형에 대응하는 속도 범위는 0 내지 180 km/h 범위이고, '보행자' 객체 유형에 대응하는 속도 범위는 0 내지 45 km/h 범위이고, '이륜차' 객체 유형에 대응하는 속도 범위는 0 내지 300 km/h 범위로 결정될 수 있으나, 이에만 한정되는 것은 아니다.In addition, referring to FIG. 2 , the upper limit speed of the speed range for each object type is the upper limit speed corresponding to the 'two-wheeled vehicle' object type, the upper limit speed corresponding to the 'vehicle' object type, and the upper limit corresponding to the 'pedestrian' object type. It may be determined to be higher in the order of speed. More specifically, the speed range corresponding to the 'vehicle' object type is in the
또한, 도 2를 참조하면, 객체 유형 각각에 대한 가속도 범위의 상한 값은 '이륜차' 객체 유형에 대응한 상한 속도가 '차량' 객체 유형에 대응한 상한 값 보다 높게 결정될 수 있다. 보다 구체적으로, '차량' 객체 유형에 대응하는 가속도 범위는 0 내지 24 km/s2 범위이고, '이륜차' 객체 유형에 대응하는 속도 범위는 0 내지 25 km/s2 범위로 결정될 수 있으나, 이에만 한정되는 것은 아니다.Also, referring to FIG. 2 , the upper limit value of the acceleration range for each object type may be determined such that the upper limit speed corresponding to the 'two-wheeled vehicle' object type is higher than the upper limit value corresponding to the 'vehicle' object type. More specifically, the acceleration range corresponding to the 'vehicle' object type may be determined to be in the range of 0 to 24 km/s 2 , and the speed range corresponding to the 'two-wheeled vehicle' object type may be determined to be in the range of 0 to 25 km/s 2 . but is not limited.
이렇듯, 본원에서 개시하는 객체 추적 장치(100)는 의미론적 포인트 클라우드 입력(2)을 활용함으로써 원시 상태의 포인트 클라우드 입력(1)에 객체 유형마다의 분류 정보가 부재함을 보완하여 객체(물체) 추적 시 각각의 객체(물체)의 분류에 따라 운동 모델 및 이동 패턴(속도, 가속도 등)을 맞춤형으로 적용함으로써, 보다 신속하고 정확한 객체 추적이 이루어지도록 할 수 있다.As such, the
또한, 본원의 일 실시예에 따르면, 객체 추적 장치(100)는 대상 포인트 클라우드(3) 각각의 분류 정보(객체 유형)에 기초하여 객체 추적을 위한 IMM-UKF-PDA 알고리즘의 모델 전이 확률을 설정할 수 있다.In addition, according to an embodiment of the present application, the
이렇듯, 종래의 객체 추적 알고리즘은 차량, 보행자, 이륜차 등 차량(1000) 주변에 위치할 수 있는 객체 유형 각각의 이동 특성을 고려하지 않고 전체적으로 동일한 파라미터를 기초로 객체 추적을 수행하는데 지나지 않은 반면, 본원에서 개시하는 객체 추적 장치(100)는 객체 유형에 적합하게 맞춤형으로 결정된 다양한 파라미터에 기반하여 객체 추적을 수행할 수 있다.As such, the conventional object tracking algorithm merely performs object tracking based on the same parameters without considering the movement characteristics of each object type that may be located around the
이하에서는 도 3을 참조하여, 객체 추적 장치(100)가 분류 정보가 미할당된 원시 상태의 포인트 클라우드 입력(1)에 기초하여 분류 정보를 획득하고, 이를 반영한 의미론적 포인트 클라우드 입력(2)을 생성(가공)하는 프로세스를 설명하도록 한다.Hereinafter, with reference to FIG. 3 , the
도 3은 대상 공간에서 획득되는 포인트 클라우드 입력을 의미론적 포인트 클라우드 입력으로 변환하는 프로세스를 설명하기 위한 개념도이다.3 is a conceptual diagram for explaining a process of converting a point cloud input obtained in a target space into a semantic point cloud input.
도 3을 참조하면, 객체 추적 장치(100)는 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력(1) 및 대상 공간에 대한 영상 입력(1') 중 적어도 하나를 수신할 수 있다. 예시적으로, 객체 추적 장치(100)는 3차원의 포인트 클라우드 입력(1)만을 수신하거나 포인트 클라우드 입력(1) 및 포인트 클라우드 입력(1)에 대응하는 영상 입력(1')을 함께 수신할 수 있다.Referring to FIG. 3 , the
또한, 객체 추적 장치(100)는 미리 학습된 인공지능 모델에 기초하여 포인트 클라우드 입력(1) 및 영상 입력(1') 중 적어도 하나에 대한 의미론적 영역 분할을 적용할 수 있다. 즉, 객체 추적 장치(100)는 의미론적 영역 분할 결과를 기초로 포인트 클라우드 입력(1)에 포함된 복수의 3차원 점 각각에 대한 분류 정보를 도출하고, 도출된 분류 정보를 포인트 클라우드 입력(1)에 반영하여 의미론적 포인트 클라우드 입력(2)을 생성할 수 있다.In addition, the
본원의 일 실시예에 따르면, 객체 추적 장치(100)는 수신된 3차원의 포인트 클라우드 입력(1)을 2차원으로 투영하여 포인트 클라우드 입력(1)에 대응하는 투영 이미지를 생성하고, 변환된 투영 이미지에 인공지능 기반의 의미론적 분할을 적용하여 2차원의 의미론적 분할 이미지를 생성하고, 생성된 2차원의 의미론적 분할 이미지를 3차원으로 재구성하는 방식으로 의미론적 포인트 클라우드 입력(2)을 생성하도록 동작할 수 있다.According to an embodiment of the present application, the
여기서, 투영 이미지에 기반하여 2차원의 의미론적 분할 이미지를 생성하기 위한 인공지능 기반의 모델은 예를 들어, 입력된 투영 이미지에 대한 다운 샘플링(Downsampling)을 수행하는 복수의 인코더(Encoder) 측 레이어 및 다운 샘플링된 소정의 이미지에 대한 업 샘플링(Upsampling)을 수행하여 입력된 소정의 이미지에 대응하는 2차원의 의미론적 분할 이미지를 출력하는 복수의 디코더(Decoder) 측 레이어를 포함하는 구조로 구현될 수 있다.Here, the AI-based model for generating a two-dimensional semantic segmentation image based on the projection image is, for example, a plurality of encoder-side layers that perform downsampling on the input projection image. and a plurality of decoder-side layers outputting a two-dimensional semantic segmentation image corresponding to the input predetermined image by performing upsampling on the down-sampled predetermined image. can
구체적으로, 객체 추적 장치(100)가 보유한 인공지능 모델은 인코더 측 레이어와 디코더 측 레이어 사이에 스킵 연결(Skip Connection)을 미포함하는 구조로 설계될 수 있다. 구체적으로, 스킵 연결(Skip Connection)은 다운 샘플링에서의 피쳐(feature)를 업 샘플링에서 더해주는 기법으로 이해될 수 있으며, 인공지능 모델의 후반부의 레이어에서 해당 레이어의 직전 레이어에서의 출력뿐만 아니라 전반부에 배치된 레이어로부터의 신호를 활용할 수 있도록 전반부의 레이어와 후반부의 레이어를 중간 레이어를 건너뛰고 연결해주는 것을 의미할 수 있다.Specifically, the artificial intelligence model possessed by the
스킵 연결(Skip Connection)을 포함하는 구조의 인공지능 모델(예를 들면, Darknet 기반의 백본방을 사용하는 모델 등)의 경우 역전파 연산 과정에서 스킵 연결(Skip Connection)이 신호 감쇠를 막아줄 수 있어 인공지능 모델의 레이어가 깊어져도(달리 말해, 층의 수가 많아져도) 학습을 효율적으로 수행할 수 있도록 하는 효과가 있을 수 있으나, 그만큼 전반부 레이어의 신호를 후반부 레이어까지 전달하기 위한 메모리의 사용과 시간 소모가 필요하여, 인공지능 모델의 추론 속도를 저하시킬 수 있다.In the case of an AI model with a structure that includes a skip connection (for example, a model using a Darknet-based backbone room, etc.), skip connection can prevent signal attenuation during the backpropagation operation. Therefore, even if the layers of the AI model become deeper (in other words, even if the number of layers increases), there may be an effect of efficiently performing learning, but the use of memory to transmit signals from the first layer to the second layer It is time consuming and can slow down the reasoning speed of the AI model.
따라서, 본원의 일 실시예에 따른 객체 추적 장치(100)는 의미론적 분할 프로세스의 추론 속도를 향상시킬 수 있도록 스킵 연결(Skip Connection)을 미포함하는 구조의 인공지능 모델을 학습시킬 수 있다.Accordingly, the
또한, 본원의 일 실시예에 따른 객체 추적 장치(100)가 보유한 인공지능 모델의 디코더 측 레이어의 수(m)는 인코더 측 레이어의 수(n)보다 작을 수 있다(m<n).In addition, the number (m) of the decoder-side layers of the artificial intelligence model possessed by the
이와 관련하여, 디코더 측 레이어는 인코더에서 압축된 입력 이미지의 특성을 업 샘플링을 통해 복원하는 역할을 하며, 디코더 측 레이어의 동작은 인공지능 모델의 파라미터에 대한 미세 조정(Fine-Tuning) 수준과 연계되므로 소정 수준 이상의 성능을 만족하는 경우라면, 전체 아키텍처를 통해 출력 이미지를 빠르게 생성하도록 하기 위하여 디코더 측 레이어를 깊게 쌓을 필요가 없으므로, 본원의 일 실시예에 따른 객체 추적 장치(100)는 의미론적 분할 프로세스의 추론 속도를 향상시킬 수 있도록 디코더 측 레이어의 수가 인코더 측 레이어의 수보다 작은 구조로 인공지능 모델을 학습시킬 수 있다.In this regard, the decoder-side layer serves to restore the characteristics of the input image compressed by the encoder through up-sampling, and the operation of the decoder-side layer is linked with the fine-tuning level of the parameters of the artificial intelligence model. Therefore, if the performance above a predetermined level is satisfied, there is no need to deeply stack the decoder-side layer in order to quickly generate an output image through the entire architecture, so the
또한, 본원의 다른 실시예에 따르면, 객체 추적 장치(100)는 포인트 클라우드 입력(1) 및 영상 입력(1')을 모두 활용하여, 영상 입력(1')에 대한 의미론적 영역 분할 결과에 기초하여 포인트 클라우드 입력에 포함된 복수의 3차원 점을 그룹핑한 포인트 클러스터 각각을 객체를 기준으로 분류하는 방식으로 분류 정보를 도출할 수 있다.In addition, according to another embodiment of the present application, the
달리 말해, 본원의 다른 실시예에 따른 객체 추적 장치(100)는 포인트 클라우드 입력(1)에 포함된 복수의 3차원 점을 소정의 기준에 따라 군집화한 클러스터 데이터 및 영상 입력(1')에 딥러닝 기반의 의미론적 영역 분할을 적용하여 영상 입력(1')의 각각의 픽셀마다의 객체 분류 데이터를 각각 도출하고, 도출된 클러스터 데이터 및 객체 분류 데이터에 기초하여 클러스터 데이터의 포인트 클러스터 각각에 대한 객체 라벨을 선정하는 방식으로 분류 정보를 도출할 수 있다.In other words, the
보다 구체적으로, 본원의 다른 실시예에 따른 객체 추적 장치(100)는 포인트 클라우드 입력(1)으로부터 도출된 클러스터 데이터 및 영상 입력(1')으로부터 도출된 객체 분류 데이터를 동기화하고, 미리 설정된 캘리브레이션 파라미터를 활용하여 동기화된 클러스터 데이터를 소정의 영상 좌표계로 맵핑한 후 맵핑된 클러스터 데이터의 포인트 클러스터 각각에 대하여 보팅(Voting) 알고리즘을 적용하여 포인트 클러스터 각각에 대응되는 객체를 나타내는 객체 라벨을 선정하는 방식으로 분류 정보를 도출할 수 있다.More specifically, the
종합하면, 본원의 다른 실시예에 따른 객체 추적 장치(100)는 인공 기능 기반의 영상 처리 기법을 통해 카메라를 통해 촬영된 영상과 라이다(LiDAR)에 의해 획득된 3차원 포인트 클라우드를 실시간 융합하여 의미론적 포인트 클라우드 입력(2)을 생성할 수 있다.In summary, the
도 4는 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 장치의 개략적인 구성도이다.4 is a schematic configuration diagram of a semantic point cloud-based object tracking apparatus according to an embodiment of the present application.
도 4를 참조하면, 객체 추적 장치(100)는 의미론적 분할부(110), 필터링부(120), 군집화부(130) 및 추적부(140)를 포함할 수 있다.Referring to FIG. 4 , the
의미론적 분할부(110)는, 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력(1) 및 대상 공간에 대한 영상 입력(1') 중 적어도 하나를 수신할 수 있다. 또한, 의미론적 분할부(110)는 미리 학습된 인공지능 모델에 기초하여 포인트 클라우드 입력(1) 및 영상 입력(1') 중 적어도 하나에 대한 의미론적 영역 분할을 적용할 수 있다. 또한, 의미론적 분할부(110)는 의미론적 영역 분할 결과를 기초로 복수의 3차원 점 각각에 대한 분류 정보를 도출할 수 있다. 또한, 의미론적 분할부(110)는 포인트 클라우드 입력(1)에 도출된 분류 정보를 반영하여 의미론적 포인트 클라우드 입력(2)을 생성할 수 있다.The
필터링부(120)는, 복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력(2)을 획득하고, 획득된 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드(3)를 선별할 수 있다.The
군집화부(130)는, 선별된 대상 포인트 클라우드(3)를 객체마다 군집화할 수 있다.The
추적부(140)는, 군집화된 대상 포인트 클라우드(3)에 기초하여 대상 객체를 추적할 수 있다.The
이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, an operation flow of the present application will be briefly reviewed based on the details described above.
도 5는 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 방법에 대한 동작 흐름도이다.5 is a flowchart illustrating an object tracking method based on a semantic point cloud according to an embodiment of the present application.
도 5에 도시된 본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 방법은 앞서 설명된 객체 추적 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 객체 추적 장치(100)에 대하여 설명된 내용은 의미론적 포인트 클라우드 기반의 객체 추적 방법에 대한 설명에도 동일하게 적용될 수 있다.The method for tracking an object based on a semantic point cloud according to an embodiment of the present application shown in FIG. 5 may be performed by the
도 5를 참조하면, 단계 S11에서 필터링부(120)는 의미론적 클라우드 입력(2)을 획득할 수 있다. 본원의 일 실시예에 따르면, 단계 S11에서 필터링부(120)는 의미론적 분할부(110)에 의해 생성된 의미론적 포인트 클라우드 입력(2)을 의미론적 분할부(110)로부터 수신하는 것일 수 있다.Referring to FIG. 5 , in step S11 , the
보다 구체적으로, 단계 S11 이전에 의미론적 분할부(110)는 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력(1) 및 대상 공간에 대한 영상 입력(1') 중 적어도 하나를 수신할 수 있다.More specifically, before step S11, the
또한, 단계 S11 이전에 의미론적 분할부(110)는 미리 학습된 인공지능 모델에 기초하여 수신된 포인트 클라우드 입력(1) 및 영상 입력(1') 중 적어도 하나에 대한 의미론적 영역 분할을 적용할 수 있다.In addition, before step S11, the
또한, 단계 S11 이전에 의미론적 분할부(110)는, 의미론적 영역 분할 결과를 기초로 포인트 클라우드 입력(1)에 포함된 복수의 3차원 점 각각에 대한 분류 정보를 도출할 수 있다.Also, before step S11 , the
또한, 단계 S11 이전에 의미론적 분할부(110)는, 수신된 포인트 클라우드 입력(1)에 도출된 분류 정보를 반영하여 의미론적 포인트 클라우드 입력(2)을 생성할 수 있다.Also, before step S11 , the
다음으로, 단계 S12에서 필터링부(120)는 획득한 의미론적 포인트 클라우드 입력(2) 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드(3)를 선별할 수 있다.Next, in step S12, the
본원의 일 실시예에 따르면, 단계 S12에서 필터링부(120)는 의미론적 포인트 클라우드 입력(2)에 포함된 복수의 3차원 점 각각의 분류 정보에 기초하여 복수의 객체 유형 각각에 대응하는 복수의 대상 포인트 클라우드(3)를 각각 구분하여 선별할 수 있다.According to an embodiment of the present application, in step S12 , the
다음으로, 단계 S13에서 군집화부(130)는 선별된 대상 포인트 클라우드(3)를 객체마다 군집화할 수 있다.Next, in step S13 , the
다음으로, 단계 S14에서 추적부(140)는 군집화된 대상 포인트 클라우드에 기초하여 대상 객체를 추적할 수 있다.Next, in step S14 , the
구체적으로, 단계 S14에서 추적부(140)는 군집화된 대상 포인트 클라우드에 포함된 적어도 하나의 객체를 의미론적 포인트 클라우드 입력(2)이 획득되기 전에 파악된 대상 객체에 연관시킬 수 있다.Specifically, in step S14 , the
또한, 본원의 일 실시예에 따르면, 단계 S14에서 추적부(140)는 군집화된 대상 포인트 클라우드에 포함된 적어도 하나의 객체의 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위에 기초하여 대상 객체를 추적할 수 있다.In addition, according to an embodiment of the present application, in step S14 , the
상술한 설명에서, 단계 S11 내지 S14는 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S14 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present application. In addition, some steps may be omitted if necessary, and the order between the steps may be changed.
본원의 일 실시예에 따른 의미론적 포인트 클라우드 기반의 객체 추적 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The semantic point cloud-based object tracking method according to an embodiment of the present application may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
또한, 전술한 의미론적 포인트 클라우드 기반의 객체 추적 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the above-described semantic point cloud-based object tracking method may be implemented in the form of a computer program or application executed by a computer stored in a recording medium.
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present application is for illustration, and those of ordinary skill in the art to which the present application pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may also be implemented in a combined form.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present application.
10: 객체 추적 시스템
100: 의미론적 포인트 클라우드 기반의 객체 추적 장치
110: 의미론적 분할부
120: 필터링부
130: 군집화부
140: 추적부
1000: 차량
1: 포인트 클라우드 입력
2: 의미론적 포인트 클라우드 입력
20: 네트워크10: Object tracking system
100: semantic point cloud-based object tracking device
110: semantic division
120: filtering unit
130: clustering unit
140: tracking unit
1000: vehicle
1: Point cloud input
2: Semantic point cloud input
20: network
Claims (14)
복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력을 획득하는 단계;
상기 의미론적 포인트 클라우드 입력 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드를 선별하는 단계;
상기 대상 포인트 클라우드를 객체마다 군집화하는 단계; 및
상기 군집화된 대상 포인트 클라우드에 기초하여 대상 객체를 추적하는 단계,
를 포함하고,
상기 대상 객체를 추적하는 단계는,
상기 군집화된 대상 포인트 클라우드를 상기 의미론적 포인트 클라우드 입력이 획득되기 전에 대상 공간에 등장하는 것으로 파악된 상기 대상 객체에 연관시켜 상기 대상 객체를 추적하는 것인, 객체 추적 방법.In the semantic point cloud-based object tracking method performed by the semantic point cloud-based object tracking device,
obtaining a semantic point cloud input comprising a plurality of three-dimensional points;
selecting a target point cloud including a 3D point to which classification information corresponding to a preset object type is assigned from among the semantic point cloud inputs;
clustering the target point cloud for each object; and
tracking a target object based on the clustered target point cloud;
including,
The step of tracking the target object,
and tracking the target object by associating the clustered target point cloud with the target object identified as appearing in the target space before the semantic point cloud input is obtained.
상기 의미론적 포인트 클라우드 입력은 차량에 대한 인접 영역에 존재하는 객체를 나타내는 복수의 3차원 점을 포함하고,
상기 객체 유형은, 차량, 보행자 및 이륜차 중 적어도 하나를 포함하는 것인, 객체 추적 방법.According to claim 1,
The semantic point cloud input includes a plurality of three-dimensional points representing objects existing in an area adjacent to the vehicle,
Wherein the object type includes at least one of a vehicle, a pedestrian, and a two-wheeled vehicle.
상기 대상 객체를 추적하는 단계는,
상기 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위에 기초하여 상기 대상 객체를 추적하는 것인, 객체 추적 방법.4. The method of claim 3,
The step of tracking the target object,
and tracking the target object based on a motion model, a velocity range, and an acceleration range corresponding to the object type.
상기 운동 모델은,
등가속 모델, 등속도 모델, 등각가속도 모델 및 랜덤 모션 모델 중 적어도 하나를 포함하는 것인, 객체 추적 방법.5. The method of claim 4,
The motion model is
An object tracking method comprising at least one of a constant acceleration model, a constant velocity model, a uniform acceleration model, and a random motion model.
상기 대상 포인트 클라우드를 선별하는 단계는,
상기 분류 정보에 기초하여 복수의 객체 유형 각각에 대응하는 복수의 대상 포인트 클라우드를 각각 구분하여 선별하는 것인, 객체 추적 방법.4. The method of claim 3,
The step of selecting the target point cloud,
The object tracking method, wherein the plurality of target point clouds corresponding to each of the plurality of object types are separately selected based on the classification information.
상기 의미론적 포인트 클라우드 입력을 획득하는 단계는,
상기 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 상기 대상 공간에 대한 영상 입력 중 적어도 하나를 수신하는 단계;
미리 학습된 인공지능 모델에 기초하여 상기 포인트 클라우드 입력 및 상기 영상 입력 중 적어도 하나에 대한 의미론적 영역 분할을 적용하는 단계;
상기 의미론적 영역 분할 결과를 기초로 상기 복수의 3차원 점 각각에 대한 상기 분류 정보를 도출하는 단계; 및
상기 포인트 클라우드 입력에 상기 분류 정보를 반영하여 상기 의미론적 포인트 클라우드 입력을 생성하는 단계,
를 포함하는 것인, 객체 추적 방법.According to claim 1,
The step of obtaining the semantic point cloud input comprises:
receiving at least one of a point cloud input including a plurality of 3D points for an object in the target space and an image input for the target space;
applying semantic region division to at least one of the point cloud input and the image input based on a pre-trained artificial intelligence model;
deriving the classification information for each of the plurality of 3D points based on the semantic region division result; and
generating the semantic point cloud input by reflecting the classification information in the point cloud input;
A method for tracking an object, comprising:
복수의 3차원 점을 포함하는 의미론적 포인트 클라우드 입력을 획득하고, 상기 의미론적 포인트 클라우드 입력 중에서 미리 설정된 객체 유형에 대응하는 분류 정보가 할당된 3차원 점을 포함하는 대상 포인트 클라우드를 선별하는 필터링부;
상기 대상 포인트 클라우드를 객체마다 군집화하는 군집화부; 및
상기 군집화된 대상 포인트 클라우드에 기초하여 대상 객체를 추적하는 추적부,
를 포함하고,
상기 추적부는,
상기 군집화된 대상 포인트 클라우드를 상기 의미론적 포인트 클라우드 입력이 획득되기 전에 대상 공간에 등장하는 것으로 파악된 상기 대상 객체에 연관시켜 상기 대상 객체를 추적하는 것인, 객체 추적 장치.In a semantic point cloud-based object tracking device,
A filtering unit that obtains a semantic point cloud input including a plurality of three-dimensional points, and selects a target point cloud including a three-dimensional point to which classification information corresponding to a preset object type is assigned from among the semantic point cloud inputs ;
a clustering unit clustering the target point cloud for each object; and
a tracking unit for tracking a target object based on the clustered target point cloud;
including,
The tracking unit,
The object tracking apparatus of claim 1, wherein the target object is tracked by associating the clustered target point cloud with the target object identified as appearing in the target space before the semantic point cloud input is obtained.
상기 의미론적 포인트 클라우드 입력은 차량에 대한 인접 영역에 존재하는 객체를 나타내는 복수의 3차원 점을 포함하고,
상기 객체 유형은, 차량, 보행자 및 이륜차 중 적어도 하나를 포함하는 것인, 객체 추적 장치.9. The method of claim 8,
The semantic point cloud input includes a plurality of three-dimensional points representing objects existing in an area adjacent to the vehicle,
The object type will include at least one of a vehicle, a pedestrian, and a two-wheeled vehicle, the object tracking device.
상기 추적부는,
상기 객체 유형에 대응하는 운동 모델, 속도 범위 및 가속도 범위에 기초하여 상기 대상 객체를 추적하고,
상기 운동 모델은,
등가속 모델, 등속도 모델, 등각가속도 모델 및 랜덤 모션 모델 중 적어도 하나를 포함하는 것인, 객체 추적 장치.11. The method of claim 10,
The tracking unit,
tracking the target object based on a motion model, a velocity range, and an acceleration range corresponding to the object type;
The motion model is
An object tracking device comprising at least one of a constant acceleration model, a constant velocity model, a uniform acceleration model, and a random motion model.
상기 필터링부는,
상기 분류 정보에 기초하여 복수의 객체 유형 각각에 대응하는 복수의 대상 포인트 클라우드를 각각 구분하여 선별하는 것인, 객체 추적 장치.11. The method of claim 10,
The filtering unit,
Based on the classification information, the object tracking apparatus of the plurality of target point clouds corresponding to each of the plurality of object types to be separately selected.
상기 대상 공간 내의 객체에 대한 복수의 3차원 점을 포함하는 포인트 클라우드 입력 및 상기 대상 공간에 대한 영상 입력 중 적어도 하나를 수신하고, 미리 학습된 인공지능 모델에 기초하여 상기 포인트 클라우드 입력 및 상기 영상 입력 중 적어도 하나에 대한 의미론적 영역 분할을 적용하여 상기 복수의 3차원 점 각각에 대한 상기 분류 정보를 도출하고, 상기 포인트 클라우드 입력에 상기 분류 정보를 반영하여 상기 의미론적 포인트 클라우드 입력을 생성하는 의미론적 분할부,
를 더 포함하는 것인, 객체 추적 장치.9. The method of claim 8,
Receive at least one of a point cloud input including a plurality of 3D points for an object in the target space and an image input for the target space, and the point cloud input and the image input based on a pre-trained artificial intelligence model applying semantic domain division to at least one of the plurality of 3D points to derive the classification information, and reflecting the classification information to the point cloud input to generate the semantic point cloud input division,
Which will further include an object tracking device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200140077A KR102405767B1 (en) | 2020-10-27 | 2020-10-27 | Apparatus and method for tracking object based on semantic point cloud |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200140077A KR102405767B1 (en) | 2020-10-27 | 2020-10-27 | Apparatus and method for tracking object based on semantic point cloud |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220055707A KR20220055707A (en) | 2022-05-04 |
KR102405767B1 true KR102405767B1 (en) | 2022-06-03 |
Family
ID=81583799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200140077A KR102405767B1 (en) | 2020-10-27 | 2020-10-27 | Apparatus and method for tracking object based on semantic point cloud |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102405767B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116246069B (en) * | 2023-02-07 | 2024-01-16 | 北京四维远见信息技术有限公司 | Method and device for self-adaptive terrain point cloud filtering, intelligent terminal and storage medium |
CN116755441B (en) * | 2023-06-19 | 2024-03-12 | 国广顺能(上海)能源科技有限公司 | Obstacle avoidance method, device, equipment and medium of mobile robot |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348333A (en) | 2019-06-21 | 2019-10-18 | 深圳前海达闼云端智能科技有限公司 | Object detecting method, device, storage medium and electronic equipment |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9110163B2 (en) * | 2013-06-14 | 2015-08-18 | Microsoft Technology Licensing, Llc | Lidar-based classification of object movement |
KR102067034B1 (en) * | 2014-06-30 | 2020-01-17 | 현대엠엔소프트 주식회사 | Apparatus for extracting vegetation section for 3d navigation and method thereof |
CN114296093A (en) * | 2016-11-29 | 2022-04-08 | 布莱克莫尔传感器和分析有限责任公司 | Method and system for classifying objects in a point cloud data set |
-
2020
- 2020-10-27 KR KR1020200140077A patent/KR102405767B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348333A (en) | 2019-06-21 | 2019-10-18 | 深圳前海达闼云端智能科技有限公司 | Object detecting method, device, storage medium and electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
KR20220055707A (en) | 2022-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110531753B (en) | Control system, control method and controller for autonomous vehicle | |
US10955842B2 (en) | Control systems, control methods and controllers for an autonomous vehicle | |
US20190361454A1 (en) | Control systems, control methods and controllers for an autonomous vehicle | |
CN108388834B (en) | Object detection using recurrent neural networks and cascade feature mapping | |
US20240112051A1 (en) | Machine learning models operating at different frequencies for autonomous vehicles | |
JP6984215B2 (en) | Signal processing equipment, and signal processing methods, programs, and mobiles. | |
RU2767955C1 (en) | Methods and systems for determining the presence of dynamic objects by a computer | |
EP4048568A1 (en) | Object detection and tracking | |
KR102338665B1 (en) | Apparatus and method for classficating point cloud using semantic image | |
JP2021504796A (en) | Sensor data segmentation | |
CN115516528A (en) | Graph neural network for multi-object detection and tracking | |
US20230005169A1 (en) | Lidar point selection using image segmentation | |
KR102405767B1 (en) | Apparatus and method for tracking object based on semantic point cloud | |
US20220396281A1 (en) | Platform for perception system development for automated driving system | |
US20220269900A1 (en) | Low level sensor fusion based on lightweight semantic segmentation of 3d point clouds | |
US20210064913A1 (en) | Driving assistant system, electronic device, and operation method thereof | |
JP2021082286A (en) | System and method for improving lane change detection, and non-temporary computer-readable medium | |
EP4064127A1 (en) | Methods and electronic devices for detecting objects in surroundings of a self-driving car | |
Aditya et al. | Collision Detection: An Improved Deep Learning Approach Using SENet and ResNext | |
JP7321983B2 (en) | Information processing system, information processing method, program and vehicle control system | |
JP2024019629A (en) | Prediction device, prediction method, program and vehicle control system | |
JP5772321B2 (en) | Vehicle detection device, vehicle detection method, and program | |
Sanberg et al. | Asteroids: A stixel tracking extrapolation-based relevant obstacle impact detection system | |
KR102399460B1 (en) | Apparatus and method for classifying three-dimensional point cloud using semantic segmentation | |
Nguyen et al. | Optimized grid-based environment perception in advanced driver assistance systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |