KR102686274B1 - Apparatus and method for estimating location based on holistic matching using semantic segmentation image and semantic point cloud map - Google Patents

Apparatus and method for estimating location based on holistic matching using semantic segmentation image and semantic point cloud map Download PDF

Info

Publication number
KR102686274B1
KR102686274B1 KR1020210156886A KR20210156886A KR102686274B1 KR 102686274 B1 KR102686274 B1 KR 102686274B1 KR 1020210156886 A KR1020210156886 A KR 1020210156886A KR 20210156886 A KR20210156886 A KR 20210156886A KR 102686274 B1 KR102686274 B1 KR 102686274B1
Authority
KR
South Korea
Prior art keywords
semantic
point cloud
moving object
image
information
Prior art date
Application number
KR1020210156886A
Other languages
Korean (ko)
Other versions
KR20230070868A (en
Inventor
조기춘
김소영
Original Assignee
건국대학교 산학협력단
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020210156886A priority Critical patent/KR102686274B1/en
Publication of KR20230070868A publication Critical patent/KR20230070868A/en
Application granted granted Critical
Publication of KR102686274B1 publication Critical patent/KR102686274B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/03Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치 및 방법이 개시되며, 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 방법은, 소정의 이동체에 대한 주변 공간인 대상 공간에 대한 영상 입력을 수신하는 단계, 입력되는 소정의 영상에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제1인공지능 모델에 기초하여 상기 영상 입력에 대응하는 시맨틱 분할 이미지를 생성하는 단계 및 미리 구축된 시맨틱 포인트 클라우드 맵과 상기 시맨틱 분할 이미지를 매칭하여 상기 이동체의 위치 정보를 추정하는 단계를 포함할 수 있다.An apparatus and method for location estimation through holistic matching based on a semantic segmented image and a semantic point cloud map are disclosed, and a location estimation method through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application is disclosed. , receiving an image input for a target space, which is the surrounding space for a predetermined moving object, inputting the image based on a first artificial intelligence model previously learned to perform object-based semantic segmentation on the input predetermined image. It may include generating a semantic segmented image corresponding to and estimating location information of the moving object by matching the semantic segmented image with a pre-built semantic point cloud map.

Description

시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치 및 방법{APPARATUS AND METHOD FOR ESTIMATING LOCATION BASED ON HOLISTIC MATCHING USING SEMANTIC SEGMENTATION IMAGE AND SEMANTIC POINT CLOUD MAP}Location estimation device and method through holistic matching based on semantic segmentation image and semantic point cloud map {APPARATUS AND METHOD FOR ESTIMATING LOCATION BASED ON HOLISTIC MATCHING USING SEMANTIC SEGMENTATION IMAGE AND SEMANTIC POINT CLOUD MAP}

본원은 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치 및 방법에 관한 것이다.This application relates to an apparatus and method for location estimation through holistic matching based on semantic segmented images and semantic point cloud maps.

스마트 자동차(Smart Car)라는 용어는 기계 중심의 전통적인 자동차 기술에 전기, 전자, 정보통신 기술을 융복합한 것으로, 완성차 업체, 부품업체, ICT업체 등 다양한 산업 주체들에 의해 운전자 편의 측면과 차량 안전 측면에 초점을 두어 지속적으로 발전되어 왔으며, 이러한 스마트 자동차 관련 기술은 구체적으로 첨단 운전자 보조체계(Advanced Driver Assistance System, ADAS), 자율 주행(Autonomous Vehicle), 협업 안전체계(Cooperative Safety System) 등 안전과 관련된 분야와 커넥티드 카(Connected Car)와 같은 편의와 관련된 분야로 분류될 수 있다.The term smart car is a convergence of electrical, electronic, and information and communication technologies with traditional machine-centered automobile technology, and is used to improve driver convenience and vehicle safety by various industrial entities such as automobile manufacturers, parts manufacturers, and ICT companies. It has been continuously developed with a focus on these aspects, and these smart car-related technologies specifically include safety and safety systems such as Advanced Driver Assistance System (ADAS), Autonomous Vehicle, and Cooperative Safety System. It can be categorized into related fields and convenience-related fields such as connected cars.

특히, ADAS(Advanced Driver Assistance Systems) 또는 자율주행(Autonomous Vehicle)이 적용된 지능형 자동차는 주행 중인 차량의 주변 환경을 인식하기 위해 구비되는 각종 센서(예를 들어, 카메라, GPS, 레이더, LiDAR 등)로부터 획득되는 센싱 데이터를 통해 차량 주변 상황을 높은 정확도로 실시간 모니터링 함으로써 탑승자, 보행자 및 주변차량의 안전을 확보하고 주행 편의성을 향상시킬 수 있어야 한다.In particular, intelligent cars equipped with ADAS (Advanced Driver Assistance Systems) or autonomous vehicles use various sensors (e.g. cameras, GPS, radar, LiDAR, etc.) to recognize the surrounding environment of the driving vehicle. It should be possible to secure the safety of passengers, pedestrians, and surrounding vehicles and improve driving convenience by monitoring the situation around the vehicle in real time with high accuracy through the acquired sensing data.

특히, LiDAR는 레이저로 특정 대상과의 거리를 측정하여 대상 객체의 형태를 판별하여 자동차 주변의 도로 환경을 3차원 형상으로 인지하는 센서로, 이러한 LiDAR는 주변 대상과의 거리 측정에서의 오차가 적은 정밀한 측정 성능을 제공함으로써 장애물 인지 및 동적 물체 추적 등 다양한 차량 연계 인지 시스템에 활용 가능한 이점이 있다.In particular, LiDAR is a sensor that measures the distance to a specific target with a laser, determines the shape of the target object, and recognizes the road environment around the car as a three-dimensional shape. LiDAR has a low error in measuring the distance to surrounding objects. By providing precise measurement performance, it has the advantage of being applicable to various vehicle-linked cognitive systems such as obstacle recognition and dynamic object tracking.

다만, 종래의 3차원 라이다 센서를 이용한 맵 기반의 위치 추정 알고리즘의 경우, 센티미터 수준의 높은 정확도를 보장하지만, 차량에 고가의 장비인 라이다 센서가 탑재되는 경우에만 적용 가능하여 양산용 차량에 적용되기 어려운 한계가 있다.However, in the case of a map-based location estimation algorithm using a conventional 3D LiDAR sensor, high accuracy at the centimeter level is guaranteed, but it is applicable only when the vehicle is equipped with an expensive LiDAR sensor, so it is not applicable to mass-produced vehicles. There are limitations that make it difficult to apply.

본원의 배경이 되는 기술은 한국등록특허공보 제10-2103941호에 개시되어 있다.The technology behind this application is disclosed in Korean Patent Publication No. 10-2103941.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 미리 구축된 3차원 포인트 클라우드 맵과 이동체의 주행 과정에서 실시간으로 획득되는 이미지를 가공한 시맨틱 분할 이미지 간의 매칭을 통해 이동체의 위치를 추정하는 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치 및 방법을 제공하려는 것을 목적으로 한다.This application is intended to solve the problems of the prior art described above, and is a semantic method that estimates the location of a moving object through matching between a pre-constructed 3D point cloud map and a semantic segmentation image processed from images acquired in real time during the moving object's driving process. The purpose is to provide a location estimation device and method through holistic matching based on segmented images and semantic point cloud maps.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical challenges sought to be achieved by the embodiments of the present application are not limited to the technical challenges described above, and other technical challenges may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 방법은, 소정의 이동체에 대한 주변 공간인 대상 공간에 대한 영상 입력을 수신하는 단계, 입력되는 소정의 영상에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제1인공지능 모델에 기초하여 상기 영상 입력에 대응하는 시맨틱 분할 이미지를 생성하는 단계 및 미리 구축된 시맨틱 포인트 클라우드 맵과 상기 시맨틱 분할 이미지를 매칭하여 상기 이동체의 위치 정보를 추정하는 단계를 포함할 수 있다.As a technical means for achieving the above-mentioned technical task, the location estimation method through holistic matching based on semantic segmented image and semantic point cloud map according to an embodiment of the present application is used in the target space, which is the surrounding space for a predetermined moving object. receiving an image input, generating a semantic segmentation image corresponding to the image input based on a first artificial intelligence model previously learned to perform object-based semantic segmentation on a predetermined input image, and It may include the step of estimating location information of the moving object by matching the constructed semantic point cloud map and the semantic segmented image.

또한, 상기 시맨틱 포인트 클라우드 맵은, 상기 대상 공간을 포함하는 맵 구축 공간 내에 위치하는 미리 설정된 유형의 객체의 위치 정보를 나타내는 복수의 3차원 점을 포함하고, 상기 복수의 3차원 점 각각에 대한 객체 분류 정보가 할당되도록 미리 구축될 수 있다.In addition, the semantic point cloud map includes a plurality of 3D points indicating location information of a preset type of object located in a map construction space including the target space, and an object for each of the plurality of 3D points It can be built in advance so that classification information is assigned.

또한, 상기 위치 정보를 추정하는 단계는, 상기 시맨틱 포인트 클라우드 맵으로부터 상기 이동체의 후보 위치를 나타내는 복수의 파티클 각각에 대응하는 포인트 클러스터를 획득하는 단계, 상기 포인트 클러스터를 상기 시맨틱 분할 이미지 상에 각각 투영하는 단계, 상기 포인트 클러스터에 포함된 복수의 3차원 점 각각에 대하여 할당된 제1객체 분류 정보 및 상기 복수의 3차원 점 각각이 투영된 지점에 대하여 할당된 상기 시맨틱 분할 이미지의 제2객체 분류 정보 간의 유사도에 따른 매칭 스코어를 상기 복수의 파티클마다 연산하는 단계 및 상기 매칭 스코어에 기초하여 상기 복수의 파티클 각각에 대한 가중치를 갱신하는 단계를 포함할 수 있다.In addition, the step of estimating the location information includes obtaining point clusters corresponding to each of a plurality of particles representing candidate locations of the moving object from the semantic point cloud map, and projecting the point clusters on the semantic segmented image, respectively. A step of: first object classification information allocated to each of a plurality of 3D points included in the point cluster and second object classification information of the semantic segmentation image allocated to a point where each of the plurality of 3D points is projected. It may include calculating a matching score for each of the plurality of particles according to similarity between the particles, and updating a weight for each of the plurality of particles based on the matching score.

또한, 상기 이동체의 위치 정보는, 상기 복수의 파티클 각각에 대응하는 상기 후보 위치 및 상기 갱신된 가중치에 기초하여 도출될 수 있다.Additionally, the location information of the moving object may be derived based on the candidate location and the updated weight corresponding to each of the plurality of particles.

또한, 상기 복수의 파티클은, 상기 이동체의 관성 센서 정보에 기초하여 예측되는 상태 정보의 변화에 따른 위치가 상기 이동체의 위성 항법 정보에 기초하여 상기 이동체로부터 미리 설정된 거리 이내인 것으로 예측된 파티클일 수 있다.In addition, the plurality of particles may be particles whose positions according to changes in state information predicted based on inertial sensor information of the moving object are predicted to be within a preset distance from the moving object based on satellite navigation information of the moving object. there is.

또한, 상기 상태 정보는, 상기 복수의 파티클 각각의 좌표 정보, 배향 정보 및 높이 정보를 포함할 수 있다.Additionally, the state information may include coordinate information, orientation information, and height information for each of the plurality of particles.

또한, 상기 포인트 클러스터를 획득하는 단계는, 상기 이동체가 상기 후보 위치 각각에 위치하는 것을 가정하여 설정되는 관심 영역에 포함되는 복수의 3차원 점을 상기 시맨틱 포인트 클라우드 맵으로부터 추출하는 단계를 포함할 수 있다.In addition, the step of acquiring the point cluster may include extracting a plurality of 3D points included in a region of interest set by assuming that the moving object is located at each of the candidate locations from the semantic point cloud map. there is.

또한, 상기 포인트 클러스터를 획득하는 단계는, 상기 관심 영역에 포함된 복수의 3차원 점에 랜덤 샘플링(Random Sampling)을 적용하는 단계를 포함할 수 있다.Additionally, acquiring the point cluster may include applying random sampling to a plurality of 3D points included in the region of interest.

또한, 상기 이동체는 차량일 수 있다.Additionally, the moving object may be a vehicle.

또한, 상기 미리 설정된 유형의 객체는, 차선, 교통 표지판, 신호등, 펜스 구조물, 조명 구조물 및 건물 중 적어도 하나를 포함할 수 있다.Additionally, the preset type of object may include at least one of a lane, a traffic sign, a traffic light, a fence structure, a lighting structure, and a building.

또한, 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 방법은, 상기 영상 입력을 수신하는 단계 이전에, 상기 시맨틱 포인트 클라우드 맵을 구축하는 단계를 포함할 수 있다.In addition, the location estimation method through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application includes the step of constructing the semantic point cloud map before receiving the image input. can do.

또한, 상기 구축하는 단계는, 상기 복수의 3차원 점을 포함하는 포인트 클라우드를 수집하는 단계 및 입력되는 소정의 포인트 클라우드에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제2인공지능 모델에 기초하여 상기 수집된 포인트 클라우드에 대응하는 시맨틱 포인트 클라우드를 생성하는 단계를 포함할 수 있다.In addition, the building step includes collecting a point cloud including the plurality of three-dimensional points and using a second artificial intelligence model previously trained to perform object-based semantic segmentation on a predetermined input point cloud. It may include generating a semantic point cloud corresponding to the collected point cloud based on the collected point cloud.

한편, 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치는, 소정의 이동체에 대한 주변 공간인 대상 공간에 대한 영상 입력을 수신하는 이미지 획득부, 입력되는 소정의 영상에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제1인공지능 모델에 기초하여 상기 영상 입력에 대응하는 시맨틱 분할 이미지를 생성하는 이미지 처리부 및 미리 구축된 시맨틱 포인트 클라우드 맵과 상기 시맨틱 분할 이미지를 매칭하여 상기 이동체의 위치 정보를 추정하는 매칭부를 포함할 수 있다.Meanwhile, a location estimation device through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application includes an image acquisition unit that receives an image input for a target space, which is the surrounding space for a predetermined moving object; An image processing unit that generates a semantic segmentation image corresponding to the image input based on a first artificial intelligence model learned in advance to perform object-based semantic segmentation on a predetermined input image, and a pre-built semantic point cloud map; It may include a matching unit that estimates location information of the moving object by matching the semantic segmented image.

또한, 상기 매칭부는, 상기 시맨틱 포인트 클라우드 맵으로부터 상기 이동체의 후보 위치를 나타내는 복수의 파티클 각각에 대응하는 포인트 클러스터를 획득하는 파티클 정보 획득부, 상기 포인트 클러스터를 상기 시맨틱 분할 이미지 상에 각각 투영하는 투영부, 상기 포인트 클러스터에 포함된 복수의 3차원 점 각각에 대하여 할당된 제1객체 분류 정보 및 상기 복수의 3차원 점 각각이 투영된 지점에 대하여 할당된 상기 시맨틱 분할 이미지의 제2객체 분류 정보 간의 유사도에 따른 매칭 스코어를 상기 복수의 파티클마다 연산하는 매칭 스코어 연산부 및 상기 매칭 스코어에 기초하여 상기 복수의 파티클 각각에 대한 가중치를 갱신하는 가중치 갱신부를 포함할 수 있다.In addition, the matching unit includes a particle information acquisition unit that acquires a point cluster corresponding to each of a plurality of particles representing the candidate location of the moving object from the semantic point cloud map, and a projection unit that projects the point clusters on the semantic segmented image, respectively. Part, between first object classification information assigned to each of the plurality of 3D points included in the point cluster and second object classification information of the semantic segmentation image assigned to the point where each of the plurality of 3D points is projected. It may include a matching score calculating unit that calculates a matching score according to similarity for each of the plurality of particles, and a weight updating unit that updates a weight for each of the plurality of particles based on the matching score.

또한, 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치는, 상기 복수의 3차원 점을 포함하는 포인트 클라우드를 수집하고, 입력되는 소정의 포인트 클라우드에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제2인공지능 모델에 기초하여 상기 수집된 포인트 클라우드에 대응하는 시맨틱 포인트 클라우드를 생성하여 상기 시맨틱 포인트 클라우드 맵을 구축하는 맵 구축부를 포함할 수 있다.In addition, a location estimation device through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application collects a point cloud including the plurality of three-dimensional points, and stores a predetermined input point cloud. It may include a map construction unit for constructing the semantic point cloud map by generating a semantic point cloud corresponding to the collected point cloud based on a second artificial intelligence model previously learned to perform object-based semantic segmentation. there is.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described means of solving the problem are merely illustrative and should not be construed as intended to limit the present application. In addition to the exemplary embodiments described above, additional embodiments may be present in the drawings and detailed description of the invention.

전술한 본원의 과제 해결 수단에 의하면, 미리 구축된 3차원 포인트 클라우드 맵과 이동체의 주행 과정에서 실시간으로 획득되는 이미지를 가공한 시맨틱 분할 이미지 간의 매칭을 통해 이동체의 위치를 추정하는 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치 및 방법을 제공할 수 있다.According to the above-described means of solving the problem of the present application, a semantic segmented image and semantics that estimate the location of a moving object through matching between a pre-constructed 3D point cloud map and a semantic segmented image processed from an image acquired in real time during the driving process of the moving object A location estimation device and method can be provided through point cloud map-based holistic matching.

전술한 본원의 과제 해결 수단에 의하면, 고가의 장비인 라이다 센서가 차량에 구비되지 않는 경우에도 매칭 기반의 위치 추정을 수행할 수 있어 보다 저렴하고, 현실적으로 적용 가능성이 높은 위치 추정 알고리즘을 제공할 수 있다.According to the above-described means of solving the problem of this application, matching-based location estimation can be performed even when the lidar sensor, which is an expensive equipment, is not equipped in the vehicle, providing a location estimation algorithm that is cheaper and has a higher realistic applicability. You can.

전술한 본원의 과제 해결 수단에 의하면, 이동체의 주변 공간인 대상 공간의 영상에서 식별되는 랜드마크 정보와 시맨틱 포인트 클라우드 맵에 반영된 시맨틱 정보를 실시간으로 융합할 수 있다.According to the above-described means of solving the problem of the present application, landmark information identified in the image of the target space, which is the surrounding space of the moving object, and semantic information reflected in the semantic point cloud map can be fused in real time.

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects that can be obtained herein are not limited to the effects described above, and other effects may exist.

도 1은 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치를 포함하는 이동체 위치 추정 시스템의 개략적인 구성도이다.
도 2 및 도 3은 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치가 수행하는 이동체의 위치 추정 프로세스를 설명하기 위한 개념도이다.
도 4는 시맨틱 포인트 클라우드 맵을 설명하기 위한 도면이다.
도 5는 파티클 필터를 설명하기 위한 개념도이다.
도 6은 랜덤 샘플링(Random Sampling)을 설명하기 위한 개념도이다.
도 7a는 제1인공지능 모델에 기초하여 생성되는 시맨틱 분할 이미지를 예시적으로 나타낸 도면이다.
도 7b는 소정의 파티클에 대응하는 포인트 클러스터를 시맨틱 분할 이미지에 대하여 투영한 이미지를 예시적으로 나타낸 도면이다.
도 7c는 소정의 파티클에 대응하여 연산된 매칭 스코어를 예시적으로 나타낸 도면이다.
도 8은 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치의 개략적인 구성도이다.
도 9는 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치의 매칭부의 세부 구성도이다.
도 10은 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 방법에 대한 동작 흐름도이다.
1 is a schematic configuration diagram of a moving object location estimation system including a location estimation device through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application.
Figures 2 and 3 are conceptual diagrams to explain the position estimation process of a moving object performed by a position estimation device through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application.
Figure 4 is a diagram for explaining a semantic point cloud map.
Figure 5 is a conceptual diagram for explaining a particle filter.
Figure 6 is a conceptual diagram for explaining random sampling.
Figure 7a is a diagram illustrating an example semantic segmentation image generated based on the first artificial intelligence model.
FIG. 7B is a diagram illustrating an image projected by a point cluster corresponding to a predetermined particle onto a semantic segmentation image.
Figure 7c is a diagram illustrating a matching score calculated in response to a predetermined particle.
Figure 8 is a schematic configuration diagram of a location estimation device through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application.
Figure 9 is a detailed configuration diagram of a matching unit of a location estimation device through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application.
Figure 10 is an operation flowchart of a location estimation method through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments of the present application will be described in detail so that those skilled in the art can easily implement them. However, the present application may be implemented in various different forms and is not limited to the embodiments described herein. In order to clearly explain the present application in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is said to be “connected” to another part, this means not only “directly connected” but also “electrically connected” or “indirectly connected” with another element in between. "Includes cases where it is.

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is said to be located “on”, “above”, “at the top”, “below”, “at the bottom”, or “at the bottom” of another member, this means that a member is located on another member. This includes not only cases where they are in contact, but also cases where another member exists between two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification of the present application, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

본원은 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치 및 방법에 관한 것이다.This application relates to an apparatus and method for location estimation through holistic matching based on semantic segmented images and semantic point cloud maps.

도 1은 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치를 포함하는 이동체 위치 추정 시스템의 개략적인 구성도이다.1 is a schematic configuration diagram of a moving object location estimation system including a location estimation device through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application.

도 1을 참조하면, 이동체 위치 추정 시스템(10)은 은 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치(100)(이하, '위치 추정 장치(100)'라 한다.), 이동체(1)의 카메라 모듈(11) 및 맵 데이터베이스(300)를 포함할 수 있다.Referring to FIG. 1, the moving object position estimation system 10 is a position estimation device 100 (hereinafter referred to as 'position estimation device') through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application. (referred to as '100)'), and may include a camera module 11 of the moving object 1 and a map database 300.

위치 추정 장치(100), 이동체(1)의 카메라 모듈(11) 및 맵 데이터베이스(300) 상호간은 네트워크(20)를 통해 통신할 수 있다. 네트워크(20)는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(20)의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.The location estimation device 100, the camera module 11 of the mobile object 1, and the map database 300 may communicate with each other through the network 20. The network 20 refers to a connection structure that allows information exchange between nodes such as terminals and servers. Examples of such networks 20 include the 3rd Generation Partnership Project (3GPP) network, Long Term Evolution) network, 5G network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area) Network), wifi network, Bluetooth network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc., but are not limited thereto.

본원의 실시예에 관한 설명에서 맵 데이터베이스(300)는 이동체(1)에 대한 주변 공간인 대상 공간에 대하여 미리 구축된 시맨틱 포인트 클라우드 맵(1000)을 저장하는 데이터베이스일 수 있다. 예시적으로, 위치 추정 장치(100)는 이동체(1)의 대략적인 위치 정보를 GNSS 정보, GPS 정보 등의 위성 항법 정보를 활용하여 1차적으로 파악한 후 해당 위치와 미리 설정된 범위 이내로 떨어진 대상 공간을 설정하고, 설정된 대상 공간에 대하여 미리 구축된 시맨틱 포인트 클라우드 맵(1000)을 맵 데이터베이스(300)로부터 불러오는 것일 수 있으나, 이에만 한정되는 것은 아니다.In the description of the embodiment of the present application, the map database 300 may be a database that stores a semantic point cloud map 1000 previously constructed for the target space, which is the surrounding space for the moving object 1. As an example, the location estimation device 100 first determines the approximate location information of the moving object 1 using satellite navigation information such as GNSS information and GPS information, and then determines the target space within a preset range from the location. It may be set and a pre-constructed semantic point cloud map 1000 for the set target space may be loaded from the map database 300, but the method is not limited to this.

또한, 본원의 실시예에 관한 설명에서 이동체(1)는 도로 등을 주행하는 차량일 수 있으나, 이에만 한정되는 것은 아니다. 본원의 일 실시예에 따르면, 이동체(1)는 실내 공간 또는 실외 공간을 이동하는 로봇 디바이스(미도시)일 수 있다. 다른 예로, 이동체(1)는 사용자가 소지한 상태로 이동하여 위치 정보가 변동되는 사용자 단말(미도시)을 지칭하는 것일 수 있다. 달리 말해, 본원에서 개시하는 이동체(1)는 시맨틱 포인트 클라우드 맵(1000)이 구축된 대상 공간 상에서 이동 가능한 다양한 유형의 오브젝트를 포함하는 것일 수 있다. 이하에서는 설명의 편의를 위하여 이동체(1)가 도로 환경에서 주행하는 차량인 것을 가정하여 본원의 구현예를 설명하도록 한다.Additionally, in the description of the embodiments of the present application, the mobile object 1 may be a vehicle traveling on a road, etc., but is not limited thereto. According to an embodiment of the present application, the mobile object 1 may be a robot device (not shown) that moves in an indoor space or an outdoor space. As another example, the mobile object 1 may refer to a user terminal (not shown) whose location information changes as it moves while being carried by the user. In other words, the moving object 1 disclosed herein may include various types of objects that can move in the target space in which the semantic point cloud map 1000 is constructed. Hereinafter, for convenience of explanation, an implementation example of the present application will be described assuming that the mobile object 1 is a vehicle traveling in a road environment.

도 2 및 도 3은 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치가 수행하는 이동체의 위치 추정 프로세스를 설명하기 위한 개념도이다.Figures 2 and 3 are conceptual diagrams to explain the position estimation process of a moving object performed by a position estimation device through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application.

도 2 및 도 3을 참조하면, 위치 추정 장치(100)는 이동체(1)에 대한 주변 공간인 대상 공간에 대한 영상 입력을 획득(수신)할 수 있다. 참고로, 도 2 및 도 3에 도시된 이동체(1)가 주행하는 도로 영역을 포함하는 이미지는 전술한 영상 입력을 예시적으로 나타낸 것일 수 있다.Referring to FIGS. 2 and 3 , the position estimation device 100 may acquire (receive) an image input for the target space, which is the surrounding space for the moving object 1. For reference, the image including the road area along which the mobile object 1 shown in FIGS. 2 and 3 travels may be an exemplary representation of the above-described image input.

본원의 일 실시예에 따르면, 이동체(1)는 이동체(1)의 이동(주행)에 대응하여 이동체(1) 주변 공간의 영상을 획득하도록 카메라 모듈(11)을 탑재하고, 위치 추정 장치(100)는 카메라 모듈(11)로부터 대상 공간의 영상 입력을 수신(획득)하는 것일 수 있으나, 이에만 한정되는 것은 아니다. 다른 예로, 위치 추정 장치(100)는 이동체(1)가 이동하는 대상 공간을 촬영하도록 대상 공간에 대하여 마련된 별도의 촬영 디바이스(예를 들면, CCTV 모듈 등)로부터 이동체(1)가 주행하는 대상 공간을 촬영한 영상 입력을 수신하는 것일 수 있다.According to an embodiment of the present application, the mobile object 1 is equipped with a camera module 11 to acquire an image of the space around the mobile object 1 in response to the movement (driving) of the mobile object 1, and a position estimation device 100 ) may be receiving (acquiring) an image input of the target space from the camera module 11, but is not limited to this. As another example, the position estimation device 100 may detect the target space in which the moving object 1 moves from a separate photographing device (e.g., CCTV module, etc.) provided for the target space to capture the target space in which the moving object 1 moves. It may be receiving video input from a captured video.

또한, 도 2 및 도 3을 참조하면 위치 추정 장치(100)는 입력되는 소정의 영상에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제1인공지능 모델에 기초하여 획득한 영상 입력에 대응하는 시맨틱 분할 이미지를 생성할 수 있다(도 2의 'Landmark Perception'). 달리 말해, 위치 추정 장치(100)의 제1인공지능 모델은 2차원의 화상 형태로 입력되는 영상 입력에 대한 2차원 의미론적 분할(2D Semantic Segmentation)을 수행하도록 미리 학습된 인공지능 모델일 수 있다.In addition, referring to FIGS. 2 and 3, the location estimation device 100 corresponds to an image input obtained based on a first artificial intelligence model previously learned to perform object-based semantic segmentation on a certain input image. A semantic segmentation image can be created ('Landmark Perception' in Figure 2). In other words, the first artificial intelligence model of the location estimation device 100 may be an artificial intelligence model trained in advance to perform 2D semantic segmentation on image input in the form of a 2-dimensional image. .

보다 구체적으로 제1인공지능 모델은 이동체(1)의 주행에 영향을 미칠 수 있는 복수의 객체 유형에 대응되도록 선별된 복수의 클래스(Class) 각각을 영상 입력으로부터 구분하여 영상 입력의 각각의 픽셀에 대응하는 클래스(Class)를 라벨링할 수 있다. 한편, 본원의 실시예에 관한 설명에서 각각의 객체 유형을 구분하기 위한 용어 클래스(Class)는 랜드마크(Landmark) 등으로 달리 지칭될 수 있다.More specifically, the first artificial intelligence model distinguishes each of a plurality of classes selected to correspond to a plurality of object types that can affect the driving of the moving object 1 from the image input and assigns them to each pixel of the image input. The corresponding class can be labeled. Meanwhile, in the description of the embodiments of the present application, the term class for distinguishing each object type may be referred to differently as a landmark, etc.

이와 관련하여, 종래의 의미론적 분할 알고리즘인 RangeNet++ 등에서는 분류하고자 하는 객체 유형에 대응하는 클래스의 종류가 미리 정해져 있는 기존의 데이터 셋(예를 들면, SemanticKITTI 등)을 학습 데이터로 하여 학습되는데, 이러한 기존에 존재하는 데이터 셋은 통상적으로 20개 내지 28개의 다수의 클래스를 포함한다.In relation to this, in the conventional semantic segmentation algorithm, RangeNet++, etc., it is learned using an existing data set (for example, SemanticKITTI, etc.) in which the type of class corresponding to the object type to be classified is predetermined as learning data. Existing data sets typically contain multiple classes, ranging from 20 to 28.

이에 따라, 기존 데이터 셋을 단순히 활용하여 학습되는 의미론적 분할 모델의 경우 이동체(1)의 주행에 큰 영향을 주지 않는 객체들까지 별도의 클래스로 구분하게 될 수 있다(예를 들면, Vegetation, Terrain 등을 개별적으로 구분하는 등).Accordingly, in the case of a semantic segmentation model that is learned simply by using an existing data set, even objects that do not significantly affect the driving of the moving object 1 may be classified into separate classes (e.g. Vegetation, Terrain separately, etc.).

이러한 문제를 해결하기 위하여, 본원에서 개시하는 위치 추정 장치(100)는 이동체(1)의 주행에 영향을 미칠 수 있을 것으로 예측되는 핵심 객체 분류(핵심 클래스)만을 선별하여 의미론적 분할(Semantic Segmentation)을 적용할 수 있다.In order to solve this problem, the position estimation device 100 disclosed herein selects only the core object classes (core classes) that are predicted to have an impact on the running of the moving object 1 and performs semantic segmentation. can be applied.

예시적으로, 위치 추정 장치(100)가 고려하는 핵심 객체 분류에는 신호등(Traffic Light), 차선 표시(Lane Marking), 펜스 구조물, 기둥 구조물, 교통 표지판(Traffic Sign), 인접 주행 차량(Car), 인도(Sidewalk), 건물(Building) 등이 포함될 수 있으며, 예시적으로 높은 추론 속도를 확보하기 위해 전체 클래스(Class)의 수는 10개 이하로 유지될 수 있다.By way of example, the core object classifications considered by the location estimation device 100 include traffic lights, lane markings, fence structures, pillar structures, traffic signs, adjacent driving vehicles (Cars), Sidewalks, buildings, etc. may be included, and for example, the total number of classes may be kept to 10 or less to ensure high inference speed.

또한, 위치 추정 장치(100)는 전술한 제1인공지능 모델에 기초하여 영상 입력 각각의 픽셀에 대응하는 클래스를 결정하고, 결정된 클래스에 대하여 미리 설정된 색상(달리 말해, 클래스 각각에 대하여 사전에 설정된 색상)을 영상 입력에 각각 표시할 수 있다. 이에 따라, 도 2 및 도 7a에 도시된 바와 같이 시맨틱 분할 이미지는 픽셀별로 분류된 클래스에 대응하는 색상이 표시되도록 변환되어 소정의 객체 유형에 대응되는 영역이 시각적으로 구분되도록 색채화(Colorized)될 수 있다.In addition, the position estimation device 100 determines the class corresponding to each pixel of the image input based on the above-described first artificial intelligence model, and preset a color for the determined class (in other words, a preset color for each class) color) can be displayed on each video input. Accordingly, as shown in FIGS. 2 and 7A, the semantic segmentation image is converted to display colors corresponding to classes classified by pixel, and the area corresponding to a certain object type is colored so that it is visually distinguished. You can.

또한, 도 2 및 도 3을 참조하면, 위치 추정 장치(100)는 미리 구축된 시맨틱 포인트 클라우드 맵(1000, 'SPCM')과 제1인공지능 모델을 이용하여 생성된 시맨틱 분할 이미지를 매칭하여 이동체(1)의 위치 정보를 추정할 수 있다.In addition, referring to FIGS. 2 and 3, the location estimation device 100 matches a pre-built semantic point cloud map (1000, 'SPCM') with a semantic segmentation image generated using the first artificial intelligence model to identify the moving object. The location information in (1) can be estimated.

도 4는 시맨틱 포인트 클라우드 맵을 설명하기 위한 도면이다.Figure 4 is a diagram for explaining a semantic point cloud map.

도 4를 참조하면, 본원의 실시예에 관한 설명에서 시맨틱 포인트 클라우드 맵(1000)은 대상 공간을 포함하는 맵 구축 공간 내에 위치하는 미리 설정된 유형의 객체의 위치 정보를 나타내는 복수의 3차원 점을 포함하되, 각 객체의 위치 정보를 나타내는 복수의 3차원 점 각각에 대하여 해당 객체의 객체 분류 정보가 할당되도록 미리 구축될 수 있다.Referring to FIG. 4, in the description of the embodiment of the present application, the semantic point cloud map 1000 includes a plurality of three-dimensional points representing location information of a preset type of object located in the map construction space including the target space. However, it may be established in advance so that object classification information for the corresponding object is assigned to each of a plurality of 3D points representing the location information of each object.

구체적으로, 위치 추정 장치(100)는 복수의 3차원 점을 포함하는 포인트 클라우드를 수집하고(도 4의 (a) 참조), 입력되는 소정의 포인트 클라우드에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제2인공지능 모델에 기초하여 수집된 포인트 클라우드에 대응하는 시맨틱 포인트 클라우드를 생성(도 4의 (b) 참조)하여 시맨틱 포인트 클라우드 맵을 사전에 생성할 수 있다. 예시적으로, 복수의 3차원 점을 포함하는 포인트 클라우드는 이동식 차량 측정 시스템(Mobile Mapping System)에 의해 수집되는 것일 수 있으나, 이에만 한정되는 것은 아니다.Specifically, the position estimation device 100 collects a point cloud including a plurality of three-dimensional points (see (a) of FIG. 4) and performs object-based semantic segmentation on a predetermined input point cloud. A semantic point cloud map can be created in advance by generating a semantic point cloud corresponding to the collected point cloud based on a pre-trained second artificial intelligence model (see (b) of FIG. 4). Illustratively, a point cloud including a plurality of 3D points may be collected by a mobile mapping system, but is not limited thereto.

다른 예로, 위치 추정 장치(100)는 시맨틱 포인트 클라우드 맵(1000)을 저장하도록 사전에 구축된 맵 데이터베이스(300)로부터 대상 공간에 대응하는 국부적인 맵 정보를 수신하는 것일 수 있다.As another example, the location estimation device 100 may receive local map information corresponding to the target space from a map database 300 previously built to store the semantic point cloud map 1000.

이하에서는 위치 추정 장치(100)가 시맨틱 포인트 클라우드 맵(1000)과 시맨틱 분할 이미지를 파티클 필터(Particle Filter)에 기반하여 매칭하여 이동체(1)의 위치 정보를 추정하는 프로세스에 대하여 설명하도록 한다.Hereinafter, a process in which the position estimation device 100 estimates the position information of the moving object 1 by matching the semantic point cloud map 1000 and the semantic segmented image based on a particle filter will be described.

도 5는 파티클 필터를 설명하기 위한 개념도이다.Figure 5 is a conceptual diagram for explaining a particle filter.

도 5를 참조하면, 위치 추정 장치(100)는 시맨틱 포인트 클라우드 맵(1000)으로부터 이동체(1)의 후보 위치를 나타내는 복수의 파티클 각각에 대응하는 포인트 클러스터를 획득할 수 있다.Referring to FIG. 5 , the position estimation device 100 may obtain a point cluster corresponding to each of a plurality of particles representing the candidate location of the moving object 1 from the semantic point cloud map 1000 .

이와 관련하여, 파티클 필터는 이동체(1)의 자세나 위치에 대한 예측 값을 확률적으로 발생시킨 파티클을 기 구축된 맵 상에 임의로 배치한 후 반복적인 정보 획득을 통해 이동체(1)가 실제로 위치할 가능성이 높은 파티클로 이동체(1)의 추정 위치가 수렴되도록 동작하는 위치 추정 알고리즘으로서 비선형식을 사용한 모델에도 적용이 가능하며 연산 속도가 빠르고 구현이 쉽다는 이점이 있다. 이러한 파티클 필터에 대한 사항은 통상의 기술자에게 자명한 사항이므로 보다 상세한 설명은 생략하도록 한다.In this regard, the particle filter randomly places particles that probabilistically generate predicted values for the posture or position of the moving object (1) on a previously constructed map, and then obtains repetitive information to determine the actual location of the moving object (1). It is a position estimation algorithm that operates to converge the estimated position of a moving object (1) with a high probability of movement. It can be applied to models using non-linear formulas and has the advantage of being fast in calculation speed and easy to implement. Since these particle filter matters are self-evident to those skilled in the art, a more detailed description will be omitted.

구체적으로, 위치 추정 장치(100)는 시맨틱 포인트 클라우드 맵(1000)으로부터 이동체(1)의 후보 위치를 나타내는 복수의 파티클 각각에 대응하는 포인트 클러스터를 획득할 수 있다. 보다 구체적으로, 위치 추정 장치(100)는 각각의 파티클에 대응하는 이동체(1)의 후보 위치 각각에 실제로 이동체(1)가 위치하는 것으로 가정하였을 때 해당 위치에서의 이동체(1)의 관심 영역에 포함되는 시맨틱 포인트 클라우드 맵(1000) 내의 복수의 3차원 점을 포함하는 포인트 클러스터를 시맨틱 포인트 클라우드 맵(1000)으로부터 추출할 수 있다.Specifically, the location estimation device 100 may obtain a point cluster corresponding to each of a plurality of particles representing the candidate location of the moving object 1 from the semantic point cloud map 1000. More specifically, when assuming that the moving object 1 is actually located at each candidate position of the moving object 1 corresponding to each particle, the position estimation device 100 determines the area of interest of the moving object 1 at that location. A point cluster including a plurality of 3D points within the semantic point cloud map 1000 may be extracted from the semantic point cloud map 1000 .

한편, '관심 영역'과 관련하여, 본원의 일 실시예에 따르면, 위치 추정 장치(100)는 이동체(1)의 주변 공간에서 인지 중요도를 기초로 설정된 기준 거리를 결정하고, 이동체(1)의 위치 또는 후보 위치로부터 기준 거리 내의 영역(예를 들면, 이동체(1) 내부의 특정 기준점으로부터 설정된 기준 거리 이내로 떨어진 영역)을 관심 영역으로 설정하는 것일 수 있다.Meanwhile, with regard to the 'area of interest', according to an embodiment of the present application, the position estimation device 100 determines a reference distance set based on perceived importance in the surrounding space of the moving object 1, and determines the reference distance of the moving object 1. An area within a reference distance from the location or candidate location (for example, an area within a set reference distance from a specific reference point inside the moving object 1) may be set as the area of interest.

또한, 본원의 일 실시예에 따르면, 관심 영역은 이동체(1)으로부터 기준 거리 내의 영역 중 이동체(1)의 주행 방향 또는 이동체(1)에 구비되는 카메라 모듈(11)의 촬영 방향에 부합하는 영역으로 설정될 수 있다. 여기서, 카메라 모듈의 촬영 방향은 카메라 모듈(11)의 시야, FoV(Field of View) 등으로 달리 지칭될 수 있다.In addition, according to an embodiment of the present application, the area of interest is an area that corresponds to the traveling direction of the mobile object 1 or the shooting direction of the camera module 11 provided in the mobile object 1 among the areas within the reference distance from the mobile object 1. It can be set to . Here, the shooting direction of the camera module may be referred to differently as the field of view of the camera module 11, Field of View (FoV), etc.

이해를 돕기 위해 예시하면, 관심 영역 설정을 위하여 설정된 기준 거리는 50m일 수 있으나, 이에만 한정되는 것은 아니며, 이동체(1)의 유형, 이동체(1)가 주행중인 도로의 규모, 이동체(1)의 주행 위치 정보 등에 기초하여 기준 거리는 상이하게 설정될 수 있으며, 이동체(1)가 주행되는 도중에도 변동될 수 있다. 구체적으로, 이동체(1)가 전진 구동 중인 경우, 이동체(1)의 전방 영역, 측방 영역 등은 관심 영역에 포함되고, 이동체(1)의 후방 영역은 관심 영역에 미포함되는 것일 수 있다. 이와 반대로, 이동체(1)가 후진 구동 중인 경우에는, 이동체(1)의 후방 영역, 측방 영역 등은 관심 영역에 포함되고, 이동체(1)의 전방 영역은 관심 영역으로 미포함되는 것일 수 있다.As an example to aid understanding, the standard distance set for setting the area of interest may be 50m, but it is not limited to this, and includes the type of mobile object 1, the size of the road on which the mobile object 1 is traveling, and the size of the road on which the mobile object 1 is running. The reference distance may be set differently based on driving position information, etc., and may change even while the moving object 1 is traveling. Specifically, when the moving object 1 is driving forward, the front area, the lateral area, etc. of the moving object 1 may be included in the region of interest, and the rear area of the moving object 1 may not be included in the region of interest. On the contrary, when the mobile object 1 is driving backwards, the rear area, the lateral area, etc. of the mobile object 1 may be included in the region of interest, and the front area of the mobile object 1 may not be included in the region of interest.

또한, 본원의 일 실시예에 따르면, 관심 영역 설정을 위한 기준 거리 값은 이동체(1)가 전진하는 경우의 기준 거리가 이동체(1)가 후진하는 경우의 기준 거리보다 크게 설정될 수 있다. 이는, 이동체(1)가 전진하는 경우 통상적으로 주행 속도가 후진하는 경우에 비해 빠르므로 보다 넓은 범위에 대한 객체 식별이 요구되기 때문일 수 있다. 이와 관련하여, 본원의 일 실시예에 따르면, 관심 영역 설정을 위한 기준 거리 값은 이동체(1)의 주행 속도 정보에 기초하여 결정되는 것일 수 있다. 예를 들어, 이동체(1)의 주행 속도가 빠른 경우가 주행 속도가 상대적으로 느린 경우에 비하여 관심 영역 설정을 위한 기준 거리 값이 크게 설정되는 것일 수 있다.Additionally, according to an embodiment of the present application, the reference distance value for setting the area of interest when the moving object 1 moves forward may be set to be larger than the reference distance when the moving object 1 moves backward. This may be because when the moving object 1 moves forward, the traveling speed is generally faster than when the moving object 1 moves backward, so object identification over a wider range is required. In this regard, according to an embodiment of the present application, the reference distance value for setting the area of interest may be determined based on the traveling speed information of the moving object 1. For example, when the traveling speed of the moving object 1 is high, the reference distance value for setting the area of interest may be set larger than when the traveling speed is relatively slow.

또한, 도 5를 참조하면, 위치 추정 장치(100)는 이동체(1)의 관성 센서 정보에 기초하여 예측되는 파티클의 상태 정보의 변화에 따른 변동 위치가 이동체(1)의 위성 항법 정보(GPS 정보, GNSS 정보 등)에 기초하여 이동체(1)로부터 미리 설정된 거리(도 5의 δGPS) 이내인 것으로 예측된 파티클을 선정하여 각 파티클에 대응하는 포인트 클러스터를 선택적으로 획득하는 것일 수 있다. 여기서, 파티클의 상태 정보란 복수의 파티클 각각의 좌표 정보, 배향 정보 및 높이 정보를 포함할 수 있다.In addition, referring to FIG. 5, the position estimation device 100 determines that the position change according to the change in the state information of the particle predicted based on the inertial sensor information of the moving object 1 is satellite navigation information (GPS information) of the moving object 1. , GNSS information, etc.), particles predicted to be within a preset distance (δ GPS in FIG. 5 ) from the moving object 1 may be selected to selectively obtain point clusters corresponding to each particle. Here, the particle state information may include coordinate information, orientation information, and height information for each of a plurality of particles.

예시적으로, 각 파티클의 상태 정보의 변화를 예측(Prediction)하기 위한 관성 센서 정보는 이동체(1)에 구비되는 관성 측정 센서 유닛(Inertial Measurement Unit, 12) 등에 의해 획득되는 것일 수 있다. 한편, 위치 추정 장치(100)는 맵 상의 임의의 위치에 각각 배치되는 복수의 파티클 중 이동체(1)로부터 미리 설정된 거리보다 멀리 위치하는 것으로 예측되는 파티클들에 대하여 부여된 가중치를 제거(달리 말해, 0으로 갱신)하도록 동작할 수 있다(도 5의 (b) 참조.). 참고로, 이러한 복수의 파티클 중 일부를 선택적으로 선정하는 프로세스는 도 2 및 도 5를 참조하면, 파티클 검증(Particle validation, Validation Check) 프로세스 등으로 지칭될 수 있다.As an example, inertial sensor information for predicting changes in the state information of each particle may be acquired by an inertial measurement sensor unit 12 provided on the moving object 1. Meanwhile, the position estimation device 100 removes the weight assigned to particles predicted to be located farther than a preset distance from the moving object 1 among a plurality of particles each disposed at a random location on the map (in other words, (update to 0) (see (b) of FIG. 5). For reference, the process of selectively selecting some of these plural particles may be referred to as a particle validation (validation check) process, etc., referring to FIGS. 2 and 5 .

도 6은 랜덤 샘플링(Random Sampling)을 설명하기 위한 개념도이다.Figure 6 is a conceptual diagram for explaining random sampling.

도 6을 참조하면, 위치 추정 장치(100)는 관심 영역에 포함된 복수의 3차원 점에 랜덤 샘플링(Random Sampling)을 적용하여 시맨틱 분할 이미지에 대하여 후술하는 바와 같이 투영되는 복수의 3차원 점의 수를 감소시켜 연산량을 줄이는 전처리를 수행할 수 있다. 보다 구체적으로, 도 6의 (a)는 관심 영역에 포함된 복수의 3차원 점에 대하여 랜덤 샘플링이 적용되기 전 상태를 나타내고, 도 6의 (b)는 랜덤 샘플링이 적용된 후 랜덤 샘플링에 의해 제거되지 않은 복수의 3차원 점을 나타낸 것이다.Referring to FIG. 6, the position estimation device 100 applies random sampling to a plurality of 3D points included in the region of interest to obtain a plurality of 3D points projected onto the semantic segmentation image as described later. Preprocessing can be performed to reduce the amount of computation by reducing the number. More specifically, Figure 6(a) shows the state before random sampling is applied to a plurality of three-dimensional points included in the region of interest, and Figure 6(b) shows the state after random sampling is applied and removed by random sampling. It represents a plurality of three-dimensional points that have not been formed.

또한, 위치 추정 장치(100)는 획득한 포인트 클러스터를 시맨틱 분할 이미지 상에 각각 투영할 수 있다. 본원의 일 실시예에 따르면, 위치 추정 장치(100)는 미리 설정된 교정 파라미터(Calibration parameter)를 기초로 하여 3차원 공간 상에서 위치가 정의되는 포인트 클러스터 내의 각각의 3차원 점 각각이 2차원의 시맨틱 분할 이미지 상에서 대응되는 지점을 결정하는 방식으로 시맨틱 분할 이미지로의 투영(Projection)을 수행할 수 있다.Additionally, the position estimation device 100 may project each of the acquired point clusters onto the semantic segmentation image. According to an embodiment of the present application, the position estimation device 100 performs 2-dimensional semantic segmentation of each 3-dimensional point in a point cluster whose position is defined in 3-dimensional space based on a preset calibration parameter. Projection into a semantic segmented image can be performed by determining the corresponding point on the image.

이와 관련하여, 도 7a는 제1인공지능 모델에 기초하여 생성되는 시맨틱 분할 이미지를 예시적으로 나타낸 도면이고, 도 7b는 소정의 파티클에 대응하는 포인트 클러스터를 시맨틱 분할 이미지에 대하여 투영한 이미지를 예시적으로 나타낸 도면이다.In relation to this, FIG. 7A is a diagram illustrating a semantic segmentation image generated based on the first artificial intelligence model, and FIG. 7B is an image in which a point cluster corresponding to a predetermined particle is projected onto the semantic segmentation image. This is a drawing shown in detail.

또한, 위치 추정 장치(100)는 각 파티클에 대응하는 포인트 클러스터에 포함된 복수의 3차원 점 각각에 대하여 할당된 제1객체 분류 정보 및 복수의 3차원 점 각각이 투영된 지점에 대하여 할당된 시맨틱 분할 이미지의 제2객체 분류 정보 간의 유사도에 따른 매칭 스코어를 복수의 파티클마다 연산할 수 있다.In addition, the position estimation device 100 includes first object classification information assigned to each of a plurality of 3D points included in the point cluster corresponding to each particle and semantics assigned to the point where each of the plurality of 3D points is projected. A matching score according to the similarity between the second object classification information of the divided image can be calculated for each plurality of particles.

또한, 본원의 일 실시예에 따르면, 객체 분류 정보 간의 유사도는 전술한 복수의 클래스 각각에 대하여 개별 연산될 수 있다. 예를 들어, 위치 추정 장치(100)는 차선, 교통 표지판, 신호등, 펜스 구조물, 조명 구조물 및 건물 중 적어도 하나를 포함하는 미리 설정된 유형(클래스)의 객체 각각에 대하여 객체 분류 정보를 할당하고, 시맨틱 포인트 클라우드 맵과 시맨틱 분할 이미지의 매칭 결과, 소정의 3차원 점에 대하여 의미론적으로 부여된 클래스와 동일한 클래스가 시맨틱 분할 이미지 상에 할당된 지점에 해당 3차원 점이 투영될수록 매칭 스코어는 상대적으로 높게 연산될 수 있다.Additionally, according to an embodiment of the present application, the similarity between object classification information may be calculated individually for each of the plurality of classes described above. For example, the location estimation device 100 allocates object classification information to each object of a preset type (class) including at least one of a lane, a traffic sign, a traffic light, a fence structure, a lighting structure, and a building, and provides semantic As a result of matching the point cloud map and the semantic segmentation image, the matching score is calculated relatively higher as the 3D point is projected to the point where the same class as the class semantically assigned to the given 3D point is assigned on the semantic segmentation image. It can be.

예시적으로, 도 3에 도시된 SPCM Projection에 따른 첫 번째 파티클(Particle 1)의 경우, 두 번째 파티클(Particle 2) 대비 시맨틱 분할 이미지 상에서 의미론적으로 분할된 객체 분류 정보(제2객체 분류 정보)와 투영된 3차원 점 각각에 대하여 기 할당된 객체 분류 정보(제1객체 분류 정보)가 상대적으로 유사한 패턴을 보이는 것(동일한 객체 분류 정보가 할당된 투영된 점 및 픽셀 간의 이미지 상의 위치가 상대적으로 근접한 것)을 확인할 수 있다. 이에 따라, 첫 번째 파티클에 대응하는 후보 위치가 두 번째 파티클에 대응하는 후보 위치 대비 이동체(1)의 실체 위치와 상대적으로 더 근접한 것으로 평가되어 첫 번째 파티클에 대응하여 연산되는 매칭 스코어가 높은 값으로 도출될 수 있다.For example, in the case of the first particle (Particle 1) according to the SPCM Projection shown in FIG. 3, object classification information (second object classification information) semantically divided on the semantic segmentation image compared to the second particle (Particle 2) and the pre-assigned object classification information (first object classification information) for each of the projected 3D points shows a relatively similar pattern (the positions on the image between the projected points and pixels to which the same object classification information is assigned are relatively (close ones) can be checked. Accordingly, the candidate position corresponding to the first particle is evaluated as being relatively closer to the actual position of the moving object (1) compared to the candidate position corresponding to the second particle, and the matching score calculated in response to the first particle is increased to a high value. can be derived.

이에 따라, 위치 추정 장치(100)는 매칭 스코어가 상대적으로 높게 연산된 파티클에 따른 후보 위치가 이동체(1)의 실제 위치와 근접할 것으로 예측하는 방식으로 이동체(1)의 실제 위치 정보를 추정할 수 있다. 보다 구체적으로, 위치 추정 장치(100)는 복수의 파티클 각각에 대하여 연산된 매칭 스코어에 기초하여 복수의 파티클 각각에 대한 가중치를 갱신할 수 있다. 이해를 돕기 위해 예시하면, 도 5의 (b)에 도시된 바와 같이 초기 상태에서는 모두 동등한 값으로 가중치가 할당(예시적으로, 도 5의 (b)를 참조하면, 0.083)된 복수의 파티클은 전술한 프로세스를 통해 매칭 스코어가 연산되고 나면, 매칭 스코어가 높게 연산된 파티클에 대한 가중치가 높은 값으로 할당되도록 가중치가 갱신될 수 있다.Accordingly, the position estimation device 100 can estimate the actual position information of the moving object 1 by predicting that the candidate position according to the particle for which the matching score is calculated to be relatively high will be close to the actual position of the moving object 1. You can. More specifically, the position estimation device 100 may update the weight for each of the plurality of particles based on the matching score calculated for each of the plurality of particles. To aid understanding, as an example, as shown in (b) of FIG. 5, in the initial state, a plurality of particles are all assigned weights with equal values (for example, 0.083, referring to (b) of FIG. 5). After the matching score is calculated through the above-described process, the weight may be updated so that the weight for the particle for which the matching score is calculated to be high is assigned a high value.

한편, 본원의 일 실시예에 따르면, 복수의 파티클 각각에 대한 매칭 스코어는 IoU(Intersection over Union) 메트릭에 기반하여 연산될 수 있으나, 이에만 한정되는 것은 아니고, 본원의 구현예에 따라 정밀도(Precision), 재현율(Recall) 등의 성능 평가를 위한 메트릭에 기반하여 연산되는 것일 수 있다.Meanwhile, according to an embodiment of the present application, the matching score for each of a plurality of particles may be calculated based on an Intersection over Union (IoU) metric, but is not limited thereto, and according to an implementation of the present application, the matching score may be calculated based on the Intersection over Union (IoU) metric. ), it may be calculated based on metrics for performance evaluation, such as recall.

이와 관련하여, 본원의 일 실시예에 따르면, 위치 추정 장치(100)는 각각의 객체 유형(클래스)마다 시맨틱 분할 이미지 상에 투영된 복수의 3차원 중 해당 클래스에 대응하는 제1객체 분류 정보가 할당된 3차원 점이 차지하는 영역인 제1영역과 해당 클래스에 대응하는 제2객체 분류 정보가 시맨틱 분할 이미지 상에 할당된 영역인 제2영역이 중첩되는 면적(Area of Overlap)을 제1영역 및 제2영역을 통합한 영역의 면적(Area of Union)으로 나누는 방식으로 IoU(Intersection over Union) 메트릭에 기반하여 매칭 스코어를 연산할 수 있으나, 이에만 한정되는 것은 아니다.In this regard, according to an embodiment of the present application, the location estimation device 100 includes, for each object type (class), first object classification information corresponding to the class among a plurality of three dimensions projected on the semantic segmentation image. The area of overlap between the first area, which is the area occupied by the assigned 3D point, and the second area, which is the area where the second object classification information corresponding to the class is assigned on the semantic segmentation image, is divided into the first area and the second area. The matching score can be calculated based on the IoU (Intersection over Union) metric by dividing the two areas by the area of the union (Area of Union), but the matching score is not limited to this.

도 7c는 소정의 파티클에 대응하여 연산된 매칭 스코어를 예시적으로 나타낸 도면이다.Figure 7c is a diagram illustrating a matching score calculated in response to a predetermined particle.

도 7c를 참조하면, 위치 추정 장치(100)는 관심 영역에서 식별되는 각각의 객체 유형(클래스)마다 매칭 스코어를 개별 연산할 수 있다. 예시적으로, 도 7c은 교통 신호등(Traffic Light), 교통 표지(Traffic sign), 기둥 구조물(Pole), 펜스 구조물(Fence), 차선 표시(Lane Marking), 건물(Building) 등의 각 클래스마다의 매칭 스코어를 개별 도출할 수 있다. 또한, 위치 추정 장치(100)는 각 클래스마다 도출된 매칭 스코어를 종합(예를 들면, 합 연산 등)하여 복수의 파티클 각각의 가중치를 갱신할 수 있다.Referring to FIG. 7C, the location estimation device 100 may individually calculate a matching score for each object type (class) identified in the area of interest. By way of example, Figure 7c shows the information for each class, such as traffic light, traffic sign, pole, fence, lane marking, and building. Matching scores can be derived individually. Additionally, the position estimation device 100 may update the weight of each of the plurality of particles by combining the matching scores derived for each class (eg, sum operation, etc.).

도 8은 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치의 개략적인 구성도이다.Figure 8 is a schematic configuration diagram of a location estimation device through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application.

도 8을 참조하면, 위치 추정 장치(100)는 맵 구축부(110), 이미지 획득부(120), 이미지 처리부(130) 및 매칭부(140)를 포함할 수 있다.Referring to FIG. 8 , the location estimation device 100 may include a map construction unit 110, an image acquisition unit 120, an image processing unit 130, and a matching unit 140.

맵 구축부(110)는 복수의 3차원 점을 포함하는 포인트 클라우드를 수집할 수 있다.The map construction unit 110 may collect a point cloud including a plurality of 3D points.

또한, 맵 구축부(110)는 입력되는 소정의 포인트 클라우드에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제2인공지능 모델에 기초하여 수집된 포인트 클라우드에 대응하는 시맨틱 포인트 클라우드를 생성하여 시맨틱 포인트 클라우드 맵(1000)을 구축할 수 있다.In addition, the map construction unit 110 generates a semantic point cloud corresponding to the collected point cloud based on a second artificial intelligence model trained in advance to perform object-based semantic segmentation on a predetermined input point cloud. A semantic point cloud map (1000) can be constructed.

이미지 획득부(120)는 소정의 이동체(1)에 대한 주변 공간인 대상 공간에 대한 영상 입력을 수신할 수 있다.The image acquisition unit 120 may receive an image input for the target space, which is the surrounding space for a certain moving object 1.

이미지 처리부(130)는 입력되는 소정의 영상에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제1인공지능 모델에 기초하여 수신된 영상 입력에 대응하는 시맨틱 분할 이미지를 생성할 수 있다.The image processing unit 130 may generate a semantic segmentation image corresponding to the received image input based on a first artificial intelligence model previously learned to perform object-based semantic segmentation on a certain input image.

매칭부(140)는 미리 구축된 시맨틱 포인트 클라우드 맵(1000)과 생성된 시맨틱 분할 이미지를 매칭하여 이동체(1)의 위치 정보를 추정할 수 있다.The matching unit 140 may estimate the location information of the moving object 1 by matching the pre-built semantic point cloud map 1000 and the generated semantic segmented image.

도 9는 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치의 매칭부의 세부 구성도이다.Figure 9 is a detailed configuration diagram of a matching unit of a location estimation device through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application.

도 9를 참조하면, 매칭부(140)는 파티클 정보 획득부(141), 투영부(142), 매칭 스코어 연산부(143) 및 가중치 갱신부(144)를 포함할 수 있다.Referring to FIG. 9, the matching unit 140 may include a particle information acquisition unit 141, a projection unit 142, a matching score calculation unit 143, and a weight update unit 144.

파티클 정보 획득부(141)는 시맨틱 포인트 클라우드 맵(1000)으로부터 이동체(1)의 후보 위치를 나타내는 복수의 파티클 각각에 대응하는 포인트 클러스터를 획득할 수 있다.The particle information acquisition unit 141 may obtain a point cluster corresponding to each of a plurality of particles representing the candidate location of the moving object 1 from the semantic point cloud map 1000.

투영부(142)는 획득한 포인트 클러스터를 이미지 처리부(130)에 의해 생성된 시맨틱 분할 이미지 상에 각각 투영할 수 있다.The projection unit 142 may project each of the acquired point clusters onto the semantic segmentation image generated by the image processing unit 130.

매칭 스코어 연산부(143)는 각각의 파티클에 대응하는 포인트 클러스터에 포함된 복수의 3차원 점 각각에 대하여 할당된 제1객체 분류 정보 및 해당 포인트 클러스터의 복수의 3차원 점 각각이 시맨틱 분할 이미지 상에 투영된 지점에 대하여 할당된 시맨틱 분할 이미지의 제2객체 분류 정보 간의 유사도에 따른 매칭 스코어를 복수의 파티클마다 연산할 수 있다.The matching score calculation unit 143 stores first object classification information assigned to each of the plurality of 3D points included in the point cluster corresponding to each particle and each of the plurality of 3D points of the point cluster on the semantic segmentation image. A matching score according to the similarity between the second object classification information of the semantic segmentation image assigned to the projected point can be calculated for each plurality of particles.

가중치 갱신부(144)는 연산된 매칭 스코어에 기초하여 복수의 파티클 각각에 대한 가중치를 갱신할 수 있다.The weight update unit 144 may update the weight for each of the plurality of particles based on the calculated matching score.

또한, 매칭부(140)는 복수의 파티클 각각에 대응하는 후보 위치 및 가중치 갱신부(144)에 의해 갱신된 가중치에 기초하여 이동체(1)의 위치 정보를 도출(예를 들면, 확률적으로 결정)할 수 있다.In addition, the matching unit 140 derives (e.g., probabilistically determines) the position information of the moving object 1 based on the candidate positions corresponding to each of the plurality of particles and the weight updated by the weight updating unit 144. )can do.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Below, we will briefly look at the operation flow of the present application based on the details described above.

도 10은 본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 방법에 대한 동작 흐름도이다.Figure 10 is an operation flowchart of a location estimation method through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application.

도 10에 도시된 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 방법은 앞서 설명된 위치 추정 장치(100)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 위치 추정 장치(100)에 대하여 설명된 내용은 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 방법에 대한 설명에도 동일하게 적용될 수 있다.The location estimation method through holistic matching based on the semantic segmented image and semantic point cloud map shown in FIG. 10 can be performed by the location estimation device 100 described above. Therefore, even if the content is omitted below, the description of the location estimation device 100 can be equally applied to the description of the location estimation method through holistic matching based on semantic segmented images and semantic point cloud maps.

도 10을 참조하면, 단계 S11에서 맵 구축부(110)는 입력되는 소정의 포인트 클라우드에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제2인공지능 모델에 기초하여 수집된 포인트 클라우드에 대응하는 시맨틱 포인트 클라우드를 생성하여 시맨틱 포인트 클라우드 맵(1000)을 구축할 수 있다.Referring to FIG. 10, in step S11, the map construction unit 110 corresponds to a point cloud collected based on a second artificial intelligence model previously learned to perform object-based semantic segmentation on a predetermined input point cloud. A semantic point cloud map (1000) can be constructed by creating a semantic point cloud.

다음으로, 단계 S12에서 이미지 획득부(120)는 소정의 이동체(1)에 대한 주변 공간인 대상 공간에 대한 영상 입력을 수신할 수 있다.Next, in step S12, the image acquisition unit 120 may receive an image input for the target space, which is the surrounding space for a certain moving object 1.

다음으로, 단계 S13에서 이미지 처리부(130)는 입력되는 소정의 영상에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제1인공지능 모델에 기초하여 단계 S12에서 수신된 영상 입력에 대응하는 시맨틱 분할 이미지를 생성할 수 있다.Next, in step S13, the image processing unit 130 generates semantic information corresponding to the image input received in step S12 based on a first artificial intelligence model previously learned to perform object-based semantic segmentation on a predetermined input image. A split image can be created.

다음으로, 단계 S14에서 매칭부(140)는 미리 구축된 시맨틱 포인트 클라우드 맵(1000)과 단계 S13을 통해 생성된 시맨틱 분할 이미지를 매칭하여 이동체(1)의 위치 정보를 추정할 수 있다.Next, in step S14, the matching unit 140 may estimate the location information of the moving object 1 by matching the pre-built semantic point cloud map 1000 with the semantic segmented image generated through step S13.

구체적으로, 단계 S14에서 파티클 정보 획득부(141)는 시맨틱 포인트 클라우드 맵(1000)으로부터 이동체(1)의 후보 위치를 나타내는 복수의 파티클 각각에 대응하는 포인트 클러스터를 획득할 수 있다.Specifically, in step S14, the particle information acquisition unit 141 may obtain a point cluster corresponding to each of a plurality of particles representing the candidate location of the moving object 1 from the semantic point cloud map 1000.

또한, 단계 S14에서 투영부(142)는 획득한 포인트 클러스터를 이미지 처리부(130)에 의해 생성된 시맨틱 분할 이미지 상에 각각 투영할 수 있다.Additionally, in step S14, the projection unit 142 may project each of the acquired point clusters onto the semantic segmentation image generated by the image processing unit 130.

또한, 단계 S14에서 매칭 스코어 연산부(143)는 각각의 파티클에 대응하는 포인트 클러스터에 포함된 복수의 3차원 점 각각에 대하여 할당된 제1객체 분류 정보 및 해당 포인트 클러스터의 복수의 3차원 점 각각이 시맨틱 분할 이미지 상에 투영된 지점에 대하여 할당된 시맨틱 분할 이미지의 제2객체 분류 정보 간의 유사도에 따른 매칭 스코어를 복수의 파티클마다 연산할 수 있다.In addition, in step S14, the matching score calculation unit 143 determines that the first object classification information assigned to each of the plurality of 3D points included in the point cluster corresponding to each particle and each of the plurality of 3D points of the point cluster are A matching score according to the similarity between the second object classification information of the semantic segmented image assigned to the point projected on the semantic segmented image may be calculated for each plurality of particles.

또한, 단계 S14에서 가중치 갱신부(144)는 연산된 매칭 스코어에 기초하여 복수의 파티클 각각에 대한 가중치를 갱신할 수 있다.Additionally, in step S14, the weight update unit 144 may update the weight for each of the plurality of particles based on the calculated matching score.

또한, 단계 S14에서 매칭부(140)는 복수의 파티클 각각에 대응하는 후보 위치 및 가중치 갱신부(144)에 의해 갱신된 가중치에 기초하여 이동체(1)의 위치 정보를 도출할 수 있다.Additionally, in step S14, the matching unit 140 may derive the position information of the moving object 1 based on the candidate positions corresponding to each of the plurality of particles and the weight updated by the weight updating unit 144.

상술한 설명에서, 단계 S11 내지 S14는 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S11 to S14 may be further divided into additional steps or combined into fewer steps, depending on the implementation of the present disclosure. Additionally, some steps may be omitted or the order between steps may be changed as needed.

본원의 일 실시예에 따른 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The location estimation method through holistic matching based on a semantic segmented image and a semantic point cloud map according to an embodiment of the present application can be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. . The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and constructed for the present invention or may be known and usable by those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.Additionally, the location estimation method through holistic matching based on the above-described semantic segmented image and semantic point cloud map may also be implemented in the form of a computer program or application executed by a computer stored in a recording medium.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present application described above is for illustrative purposes, and those skilled in the art will understand that the present application can be easily modified into other specific forms without changing its technical idea or essential features. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present application.

10: 이동체 위치 추정 시스템
100: 시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치
110: 맵 구축부
120: 이미지 획득부
130: 이미지 처리부
140: 매칭부
141: 파티클 정보 획득부
142: 투영부
143: 매칭 스코어 연산부
144: 가중치 갱신부
300: 맵 데이터베이스
20: 네트워크
1: 이동체
11: 카메라 모듈
1000: 시맨틱 포인트 클라우드 맵
10: Moving object position estimation system
100: Location estimation device through holistic matching based on semantic segmented image and semantic point cloud map
110: Map construction unit
120: Image acquisition unit
130: Image processing unit
140: Matching unit
141: Particle information acquisition unit
142: Projection unit
143: Matching score calculation unit
144: Weight update unit
300: Map database
20: Network
1: Moving body
11: Camera module
1000: Semantic point cloud map

Claims (15)

시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 방법으로서,
소정의 이동체에 대한 주변 공간인 대상 공간에 대한 영상 입력을 수신하는 단계;
입력되는 소정의 영상에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제1인공지능 모델에 기초하여 상기 영상 입력에 대응하는 시맨틱 분할 이미지를 생성하는 단계; 및
미리 구축된 시맨틱 포인트 클라우드 맵과 상기 시맨틱 분할 이미지를 매칭하여 상기 이동체의 위치 정보를 추정하는 단계,
를 포함하되,
상기 위치 정보를 추정하는 단계는,
상기 시맨틱 포인트 클라우드 맵으로부터 상기 이동체의 후보 위치를 나타내는 복수의 파티클 각각에 대응하는 포인트 클러스터를 획득하는 단계;
상기 포인트 클러스터를 상기 시맨틱 분할 이미지 상에 각각 투영하는 단계;
상기 포인트 클러스터에 포함된 복수의 3차원 점 각각에 대하여 할당된 제1객체 분류 정보 및 상기 복수의 3차원 점 각각이 투영된 지점에 대하여 할당된 상기 시맨틱 분할 이미지의 제2객체 분류 정보 간의 유사도에 따른 매칭 스코어를 상기 복수의 파티클마다 연산하는 단계; 및
상기 매칭 스코어에 기초하여 상기 복수의 파티클 각각에 대한 가중치를 갱신하는 단계,
를 포함하고,
상기 복수의 파티클은,
상기 이동체의 관성 센서 정보에 기초하여 예측되는 상태 정보의 변화에 따른 위치가 상기 이동체의 위성 항법 정보에 기초하여 상기 이동체로부터 미리 설정된 기준 거리 이내인 것으로 예측된 파티클인 것을 특징으로 하고,
상기 포인트 클러스터를 획득하는 단계는,
상기 시맨틱 포인트 클라우드 맵 상의 임의의 위치에 각각 배치되는 복수의 파티클 중 상기 이동체로부터 상기 기준 거리보다 멀리 위치하는 것으로 예측되는 파티클에 대한 가중치를 갱신하고,
상기 포인트 클러스터를 획득하는 단계는,
상기 이동체가 상기 후보 위치 각각에 위치하는 것을 가정하여 설정되는 관심 영역에 포함되는 복수의 3차원 점을 상기 시맨틱 포인트 클라우드 맵으로부터 추출하는 단계,
를 포함하는 것인, 위치 추정 방법.
A location estimation method through holistic matching based on semantic segmented images and semantic point cloud maps,
Receiving an image input for a target space, which is a surrounding space for a predetermined moving object;
generating a semantic segmentation image corresponding to the image input based on a first artificial intelligence model previously trained to perform object-based semantic segmentation on the input image; and
estimating location information of the moving object by matching the semantic segmented image with a pre-built semantic point cloud map;
Including,
The step of estimating the location information is,
Obtaining a point cluster corresponding to each of a plurality of particles representing a candidate location of the moving object from the semantic point cloud map;
Projecting each of the point clusters onto the semantic segmentation image;
The similarity between the first object classification information assigned to each of the plurality of 3D points included in the point cluster and the second object classification information of the semantic segmentation image assigned to the point where each of the plurality of 3D points is projected calculating a corresponding matching score for each of the plurality of particles; and
Updating a weight for each of the plurality of particles based on the matching score,
Including,
The plurality of particles are,
Characterized in that the particle is predicted to have a position according to a change in state information predicted based on inertial sensor information of the moving object within a preset reference distance from the moving object based on satellite navigation information of the moving object,
The step of acquiring the point cluster is,
Updating the weight for a particle predicted to be located further than the reference distance from the moving object among a plurality of particles each disposed at a random location on the semantic point cloud map,
The step of acquiring the point cluster is,
Extracting a plurality of 3D points included in a region of interest set by assuming that the moving object is located at each of the candidate locations from the semantic point cloud map,
A location estimation method comprising:
제1항에 있어서,
상기 시맨틱 포인트 클라우드 맵은,
상기 대상 공간을 포함하는 맵 구축 공간 내에 위치하는 미리 설정된 유형의 객체의 위치 정보를 나타내는 복수의 3차원 점을 포함하고, 상기 복수의 3차원 점 각각에 대한 객체 분류 정보가 할당되도록 미리 구축된 것인, 위치 추정 방법.
According to paragraph 1,
The semantic point cloud map is,
Contains a plurality of 3-dimensional points representing location information of a preset type of object located in a map construction space including the target space, and is pre-built so that object classification information is assigned to each of the plurality of 3-dimensional points In,position estimation method.
삭제delete 제1항에 있어서,
상기 이동체의 위치 정보는,
상기 복수의 파티클 각각에 대응하는 상기 후보 위치 및 상기 갱신된 가중치에 기초하여 도출되는 것인, 위치 추정 방법.
According to paragraph 1,
The location information of the moving object is,
A position estimation method that is derived based on the candidate position and the updated weight corresponding to each of the plurality of particles.
삭제delete 제1항에 있어서,
상기 상태 정보는,
상기 복수의 파티클 각각의 좌표 정보, 배향 정보 및 높이 정보를 포함하는 것인, 위치 추정 방법.
According to paragraph 1,
The status information is,
A position estimation method including coordinate information, orientation information, and height information for each of the plurality of particles.
삭제delete 제1항에 있어서,
상기 포인트 클러스터를 획득하는 단계는,
상기 관심 영역에 포함된 복수의 3차원 점에 랜덤 샘플링(Random Sampling)을 적용하는 단계,
를 더 포함하는 것인, 위치 추정 방법.
According to paragraph 1,
The step of acquiring the point cluster is,
Applying random sampling to a plurality of 3D points included in the region of interest,
A location estimation method further comprising:
제2항에 있어서,
상기 이동체는 차량이고,
상기 미리 설정된 유형의 객체는,
차선, 교통 표지판, 신호등, 펜스 구조물, 조명 구조물 및 건물 중 적어도 하나를 포함하는 것인, 위치 추정 방법.
According to paragraph 2,
The moving object is a vehicle,
Objects of the preset type are:
A location estimation method comprising at least one of lanes, traffic signs, traffic lights, fence structures, lighting structures, and buildings.
제2항에 있어서,
상기 영상 입력을 수신하는 단계 이전에,
상기 시맨틱 포인트 클라우드 맵을 구축하는 단계,
를 더 포함하고,
상기 구축하는 단계는,
상기 복수의 3차원 점을 포함하는 포인트 클라우드를 수집하는 단계; 및
입력되는 소정의 포인트 클라우드에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제2인공지능 모델에 기초하여 상기 수집된 포인트 클라우드에 대응하는 시맨틱 포인트 클라우드를 생성하는 단계,
를 포함하는 것인, 위치 추정 방법.
According to paragraph 2,
Before receiving the video input,
Constructing the semantic point cloud map,
It further includes,
The construction step is,
collecting a point cloud including the plurality of 3D points; and
Generating a semantic point cloud corresponding to the collected point cloud based on a second artificial intelligence model trained in advance to perform object-based semantic segmentation on an input predetermined point cloud,
A location estimation method comprising:
시맨틱 분할 이미지 및 시맨틱 포인트 클라우드 맵 기반의 전체론적 매칭을 통한 위치 추정 장치로서,
소정의 이동체에 대한 주변 공간인 대상 공간에 대한 영상 입력을 수신하는 이미지 획득부;
입력되는 소정의 영상에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제1인공지능 모델에 기초하여 상기 영상 입력에 대응하는 시맨틱 분할 이미지를 생성하는 이미지 처리부; 및
미리 구축된 시맨틱 포인트 클라우드 맵과 상기 시맨틱 분할 이미지를 매칭하여 상기 이동체의 위치 정보를 추정하는 매칭부,
를 포함하되,
상기 매칭부는,
상기 시맨틱 포인트 클라우드 맵으로부터 상기 이동체의 후보 위치를 나타내는 복수의 파티클 각각에 대응하는 포인트 클러스터를 획득하는 파티클 정보 획득부;
상기 포인트 클러스터를 상기 시맨틱 분할 이미지 상에 각각 투영하는 투영부;
상기 포인트 클러스터에 포함된 복수의 3차원 점 각각에 대하여 할당된 제1객체 분류 정보 및 상기 복수의 3차원 점 각각이 투영된 지점에 대하여 할당된 상기 시맨틱 분할 이미지의 제2객체 분류 정보 간의 유사도에 따른 매칭 스코어를 상기 복수의 파티클마다 연산하는 매칭 스코어 연산부; 및
상기 매칭 스코어에 기초하여 상기 복수의 파티클 각각에 대한 가중치를 갱신하는 가중치 갱신부,
를 포함하고,
상기 복수의 파티클은,
상기 이동체의 관성 센서 정보에 기초하여 예측되는 상태 정보의 변화에 따른 위치가 상기 이동체의 위성 항법 정보에 기초하여 상기 이동체로부터 미리 설정된 기준 거리 이내인 것으로 예측된 파티클인 것을 특징으로 하고,
상기 파티클 정보 획득부는,
상기 시맨틱 포인트 클라우드 맵 상의 임의의 위치에 각각 배치되는 복수의 파티클 중 상기 이동체로부터 상기 기준 거리보다 멀리 위치하는 것으로 예측되는 파티클에 대한 가중치를 갱신하고,
상기 파티클 정보 획득부는,
상기 이동체가 상기 후보 위치 각각에 위치하는 것을 가정하여 설정되는 관심 영역에 포함되는 복수의 3차원 점을 상기 시맨틱 포인트 클라우드 맵으로부터 추출하는 것인, 위치 추정 장치.
A location estimation device through holistic matching based on semantic segmented images and semantic point cloud maps,
an image acquisition unit that receives an image input for a target space, which is a surrounding space for a predetermined moving object;
an image processing unit that generates a semantic segmentation image corresponding to the image input based on a first artificial intelligence model previously learned to perform object-based semantic segmentation on the input image; and
A matching unit that matches a pre-built semantic point cloud map and the semantic segmented image to estimate location information of the moving object;
Including,
The matching unit,
a particle information acquisition unit that acquires a point cluster corresponding to each of a plurality of particles representing candidate locations of the moving object from the semantic point cloud map;
a projection unit respectively projecting the point clusters onto the semantic segmentation image;
The similarity between the first object classification information assigned to each of the plurality of 3D points included in the point cluster and the second object classification information of the semantic segmentation image assigned to the point where each of the plurality of 3D points is projected a matching score calculation unit that calculates a matching score for each of the plurality of particles; and
A weight update unit that updates a weight for each of the plurality of particles based on the matching score,
Including,
The plurality of particles are,
Characterized in that the particle is predicted to have a position according to a change in state information predicted based on inertial sensor information of the moving object within a preset reference distance from the moving object based on satellite navigation information of the moving object,
The particle information acquisition unit,
Updating the weight for a particle predicted to be located further than the reference distance from the moving object among a plurality of particles each disposed at a random location on the semantic point cloud map,
The particle information acquisition unit,
A position estimation device that extracts a plurality of 3D points included in a region of interest set by assuming that the moving object is located at each of the candidate locations from the semantic point cloud map.
제11항에 있어서,
상기 시맨틱 포인트 클라우드 맵은,
상기 대상 공간을 포함하는 맵 구축 공간 내에 위치하는 미리 설정된 유형의 객체의 위치 정보를 나타내는 복수의 3차원 점을 포함하고, 상기 복수의 3차원 점 각각에 대한 객체 분류 정보가 할당되도록 미리 구축된 것인, 위치 추정 장치.
According to clause 11,
The semantic point cloud map is,
Contains a plurality of 3-dimensional points representing location information of a preset type of object located in a map construction space including the target space, and is pre-built so that object classification information is assigned to each of the plurality of 3-dimensional points In,position estimation device.
삭제delete 삭제delete 제12항에 있어서,
상기 복수의 3차원 점을 포함하는 포인트 클라우드를 수집하고, 입력되는 소정의 포인트 클라우드에 대하여 객체 기반의 의미론적 분할을 수행하도록 미리 학습된 제2인공지능 모델에 기초하여 상기 수집된 포인트 클라우드에 대응하는 시맨틱 포인트 클라우드를 생성하여 상기 시맨틱 포인트 클라우드 맵을 구축하는 맵 구축부,
를 더 포함하는 것인, 위치 추정 장치.
According to clause 12,
Collects a point cloud including the plurality of three-dimensional points, and corresponds to the collected point cloud based on a second artificial intelligence model that has been pre-trained to perform object-based semantic segmentation on a predetermined input point cloud. A map construction unit for constructing the semantic point cloud map by generating a semantic point cloud,
A location estimation device further comprising:
KR1020210156886A 2021-11-15 Apparatus and method for estimating location based on holistic matching using semantic segmentation image and semantic point cloud map KR102686274B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210156886A KR102686274B1 (en) 2021-11-15 Apparatus and method for estimating location based on holistic matching using semantic segmentation image and semantic point cloud map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210156886A KR102686274B1 (en) 2021-11-15 Apparatus and method for estimating location based on holistic matching using semantic segmentation image and semantic point cloud map

Publications (2)

Publication Number Publication Date
KR20230070868A KR20230070868A (en) 2023-05-23
KR102686274B1 true KR102686274B1 (en) 2024-07-17

Family

ID=

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
David Paz, "Probabilistic Semantic Mapping for Urban Autonomous Driving Applications", RSJ International Conference on Intelligent Robots and Systems (2020.10.24-01.24.)*

Similar Documents

Publication Publication Date Title
US11217012B2 (en) System and method for identifying travel way features for autonomous vehicle motion control
US20230054914A1 (en) Vehicle localization
AU2019235504B2 (en) Enhanced vehicle tracking
CN112105893A (en) Real-time map generation system for autonomous vehicles
CN112055805A (en) Point cloud registration system for autonomous vehicles
US11460851B2 (en) Eccentricity image fusion
US20210389133A1 (en) Systems and methods for deriving path-prior data using collected trajectories
US10733463B1 (en) Systems and methods for augmenting perception data with supplemental information
Goldhammer et al. Pedestrian's trajectory forecast in public traffic with artificial neural networks
US11961304B2 (en) Systems and methods for deriving an agent trajectory based on multiple image sources
KR20200046437A (en) Localization method based on images and map data and apparatus thereof
US11961241B2 (en) Systems and methods for deriving an agent trajectory based on tracking points within images
JP2021082286A (en) System and method for improving lane change detection, and non-temporary computer-readable medium
Kühnl et al. Visual ego-vehicle lane assignment using spatial ray features
CN111126363B (en) Object recognition method and device for automatic driving vehicle
KR102686274B1 (en) Apparatus and method for estimating location based on holistic matching using semantic segmentation image and semantic point cloud map
KR20230155723A (en) Apparatus and method for generating point cloud labeling data based on high definition map
Chipka et al. Estimation and navigation methods with limited information for autonomous urban driving
KR20230070868A (en) Apparatus and method for estimating location based on holistic matching using semantic segmentation image and semantic point cloud map
Nino Context and Behavioral Analysis for Pedestrians in the Domain of Self-Driving
KR102682524B1 (en) Localization method and apparatus of displaying virtual object in augmented reality
Fang Target Detection and Tracking for Vehicles in Tourist Sites Based on Image Recognition
Forsberg Semantic Stixels fusing LIDAR for Scene Perception
KR20240058393A (en) Apparatus and method for road surface condition analysis
CN117795566A (en) Perception of three-dimensional objects in sensor data