KR20230038067A - Method and apparatus for estimating position of a moving object - Google Patents

Method and apparatus for estimating position of a moving object Download PDF

Info

Publication number
KR20230038067A
KR20230038067A KR1020210152830A KR20210152830A KR20230038067A KR 20230038067 A KR20230038067 A KR 20230038067A KR 1020210152830 A KR1020210152830 A KR 1020210152830A KR 20210152830 A KR20210152830 A KR 20210152830A KR 20230038067 A KR20230038067 A KR 20230038067A
Authority
KR
South Korea
Prior art keywords
feature point
point information
moving object
landmark
correspondence
Prior art date
Application number
KR1020210152830A
Other languages
Korean (ko)
Inventor
박용곤종
박희원
장철훈
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US17/864,943 priority Critical patent/US20230136492A1/en
Priority to CN202210893205.1A priority patent/CN115797902A/en
Priority to EP22188561.9A priority patent/EP4148673A1/en
Priority to JP2022142651A priority patent/JP2023041035A/en
Publication of KR20230038067A publication Critical patent/KR20230038067A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0031Geometric image transformation in the plane of the image for topological mapping of a higher dimensional structure on a lower dimensional surface
    • G06T3/06
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Abstract

This electronic device is designed to feature point information in the form of a landmark-based probability map from surrounding images acquired with an imaging device mounted on a moving object; obtain landmark-based 3D feature point information from high definition map data around the moving object; convert one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high definition map data into another dimension; calculate the likelihood between the feature point information of the surrounding image and the feature point information of the high definition map data; and estimate the location of the moving object based on the likelihood.

Description

이동체의 위치를 추정하는 방법 및 장치{METHOD AND APPARATUS FOR ESTIMATING POSITION OF A MOVING OBJECT}Method and apparatus for estimating the position of a moving object

아래 실시예들은 이동체의 위치를 추정하는 방법 및 장치에 관한 것이다.The following embodiments relate to a method and apparatus for estimating the position of a moving object.

자율주행이란 운전자의 개입 없이 주변 환경을 인식하고, 주행 상황을 판단하여, 차량을 제어함으로써 스스로 주어진 목적지까지 주행하는 것을 말한다. 최근 차량은 물론 모바일 로봇과 같은 소형 모빌리티 장치가 스마트 배송, 경비 등에 사용되면서, 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 이동체에 대한 수요가 증가하고 있다.Autonomous driving refers to driving to a given destination by recognizing the surrounding environment, determining the driving situation, and controlling the vehicle without the intervention of the driver. Recently, as small mobility devices such as vehicles as well as mobile robots are used for smart delivery and security, the demand for autonomous vehicles or mobile bodies supporting advanced driver assistance systems (ADAS) is increasing.

자율주행에서 핵심적인 요소는 자신의 위치를 추정하는 것이며, 위치를 추정하는 방법에는 다양한 기술이 사용될 수 있다. 예를 들어, LiDAR나 카메라와 같은 장치를 사용하여 사전에 지도를 작성하고 주행 시에 측정되는 센서데이터를 이용하여 지도 상에서 위치를 추정하거나, 정밀한 GPS 장치를 사용하여 위성 신호를 받아서 절대적인 위치를 추정하는 방법이 주로 사용되고 있다. A key factor in autonomous driving is estimating one's own location, and various technologies can be used to estimate the location. For example, using a device such as LiDAR or a camera, create a map in advance and estimate a location on the map using sensor data measured while driving, or estimate an absolute location by receiving satellite signals using a precise GPS device. method is mainly used.

일 실시 예에 따른 전자 장치의 동작 방법은, 이동체에 탑재된 촬영 장치로 획득한 주변 영상으로부터, 랜드마크(landmark) 기반 확률 맵(probability map) 형태의 2차원 특징점 정보를 획득하는 단계; 상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터, 랜드마크 기반 3차원 특징점 정보를 획득하는 단계; 상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원(dimension)을 다른 하나의 차원으로 변환하는 단계; 상기 주변 영상의 특징점 정보와 상기 고정밀 지도 데이터의 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계; 및 상기 대응도에 기초하여 상기 이동체의 위치를 추정하는 단계를 포함할 수 있다.An operating method of an electronic device according to an embodiment includes obtaining 2D feature point information in the form of a landmark-based probability map from a surrounding image obtained by a photographing device mounted on a moving object; obtaining landmark-based 3D feature point information from high definition map data around the moving object; converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension; calculating a likelihood between feature point information of the surrounding image and feature point information of the high-precision map data; and estimating the position of the moving object based on the degree of correspondence.

일 실시 예에 따르면, 상기 주변 영상의 2차원 특징점 정보는, DNN(deep neural network) 기반의 시맨틱 세그멘테이션(semantic segmentation)에 기초하여 랜드마크에 따라 획득될 수 있다.According to an embodiment, the 2D feature point information of the surrounding image may be obtained according to landmarks based on deep neural network (DNN)-based semantic segmentation.

일 실시 예에 따르면, 상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터 상기 3차원 특징점 정보를 획득하는 단계는, 상기 이동체의 위치 정보에 기초하여 고정밀 지도 데이터베이스로부터 상기 이동체 주변의 랜드마크에 대한 월드(world) 도메인 상의 3차원 특징점 정보를 수신하는 단계; 및 상기 월드 도메인 상의 3차원 특징점 정보를 상기 촬영 장치에 대한 로컬 도메인으로 변환하는 단계를 포함할 수 있다.According to an embodiment, the obtaining of the 3D feature point information from high definition map data around the moving object may include determining a landmark around the moving object from a high-definition map database based on location information of the moving object. Receiving 3D feature point information on a world domain; and converting the 3D feature point information on the world domain into a local domain for the photographing device.

일 실시 예에 따르면, 상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원을 다른 하나의 차원으로 변환하는 단계는, 역원근 변환법(inverse perspective mapping)에 기초하여, 상기 주변 영상의 2차원 특징점 정보를 3차원 확률 맵 형태로 변환하는 단계를 포함할 수 있다.According to an embodiment, the step of converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension is based on inverse perspective mapping. and converting the 2D feature point information of the surrounding image into a 3D probability map form.

일 실시 예에 따르면, 상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원을 다른 하나의 차원으로 변환하는 단계는, 원근 변환법(perspective mapping)에 기초하여, 상기 고정밀 지도 데이터의 3차원 특징점 정보를 상기 주변 영상에서 획득한 2차원의 확률 맵으로 투영(project)하는 단계를 포함할 수 있다.According to an embodiment, the step of converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension is based on perspective mapping, The method may include projecting 3D feature point information of the high-precision map data onto a 2D probability map obtained from the surrounding image.

일 실시 예에 따르면, 상기 주변 영상의 특징점 정보와 상기 고정밀 지도 데이터의 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계는, 상기 주변 영상에서 획득한 확률 맵에서, 상기 고정밀 지도 데이터의 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하는 단계; 및 상기 각 랜드마크에 대응하여 합산된 확률들을 곱해 상기 대응도를 계산하는 단계를 포함할 수 있다.According to an embodiment, calculating a likelihood between feature point information of the surrounding image and feature point information of the high-precision map data may include, in a probability map obtained from the surrounding image, feature point information of the high-precision map data. summing up probabilities corresponding to each landmark in ; and calculating the degree of correspondence by multiplying the summed probabilities corresponding to the respective landmarks.

일 실시 예에 따르면, 상기 대응도에 기초하여 상기 이동체의 위치를 추정하는 단계는, 상기 대응도에 기초하여, 파티클 필터(particle filter) 또는 ML(maximum likelihood) 최적화 방법에 따른 상기 이동체의 위치 추정 결과를 업데이트하는 단계를 포함할 수 있다.According to an embodiment, the step of estimating the position of the moving object based on the degree of correspondence may include estimating the position of the moving object according to a particle filter or maximum likelihood (ML) optimization method based on the degree of correspondence. It may include updating the result.

일 실시 예에 따르면, 상기 이동체는 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량일 수 있다.According to an embodiment, the moving object may be an autonomous vehicle or a vehicle supporting an advanced driver assistance system (ADAS).

일 실시 예에 따르면, 상기 랜드마크는, 흰색 차선, 노란색 차선, 횡단보도, 과속 방지턱, 교통 신호등 및 교통 표지판 중 적어도 어느 하나를 포함할 수 있다.According to an embodiment, the landmark may include at least one of a white lane, a yellow lane, a crosswalk, a speed bump, a traffic light, and a traffic sign.

일 실시 예에 따른 파티클 필터(particle filter) 기반의 이동체의 위치 추정 방법은, 이동체에 탑재된 촬영 장치로 획득한 주변 영상으로부터, 랜드마크(landmark) 기반 확률 맵(probability map) 형태의 2차원 특징점 정보를 획득하는 단계; 상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터, 랜드마크 기반 3차원 특징점 정보를 획득하는 단계; 상기 이동체의 후보 위치들에 대응하는 복수의 파티클(particle) 위치들을 예측하는 단계; 상기 복수의 파티클 위치 각각에 대해, 상기 3차원 특징점 정보를 상기 주변 영상에서 획득한 확률 맵으로 투영(project)하는 단계; 상기 복수의 파티클 위치 각각에 대해, 상기 확률 맵에 투영된 상기 3차원 특징점 정보와, 상기 확률 맵의 2차원 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계; 및 상기 대응도에 기초해 상기 복수의 파티클 위치들을 재배치하여 상기 이동체의 위치를 추정하는 단계를 포함할 수 있다.A method for estimating the position of a moving object based on a particle filter according to an embodiment includes a 2D feature point in the form of a landmark-based probability map from a surrounding image obtained by a photographing device mounted on the moving object. obtaining information; obtaining landmark-based 3D feature point information from high definition map data around the moving object; predicting a plurality of particle positions corresponding to candidate positions of the moving object; Projecting the 3D feature point information onto a probability map obtained from the surrounding image for each of the plurality of particle positions; calculating a likelihood between the 3D feature point information projected on the probability map and the 2D feature point information of the probability map, for each of the plurality of particle positions; and estimating the position of the moving object by rearranging the positions of the plurality of particles based on the degree of correspondence.

일 실시 예에 따르면, 상기 2차원 특징점 정보는, DNN(deep neural network) 기반의 시맨틱 세그멘테이션(semantic segmentation)에 기초하여 랜드마크에 따라 획득될 수 있다.According to an embodiment, the 2D feature point information may be obtained according to landmarks based on deep neural network (DNN)-based semantic segmentation.

일 실시 예에 따르면, 상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터 상기 3차원 특징점 정보를 획득하는 단계는, 상기 이동체의 위치 정보에 기초하여 고정밀 지도 데이터베이스로부터 상기 이동체 주변의 랜드마크에 대한 월드(world) 도메인 상의 3차원 특징점 정보를 수신하는 단계; 및 상기 월드 도메인 상의 3차원 특징점 정보를 상기 촬영 장치에 대한 로컬 도메인으로 변환하는 단계를 포함할 수 있다.According to an embodiment, the obtaining of the 3D feature point information from high definition map data around the moving object may include determining a landmark around the moving object from a high-definition map database based on location information of the moving object. Receiving 3D feature point information on a world domain; and converting the 3D feature point information on the world domain into a local domain for the photographing device.

일 실시 예에 따르면, 상기 복수의 파티클 위치들을 예측하는 단계는, 이전 시점에서 재배치된 파티클 위치 정보 및 상기 이전 시점부터의 상기 이동체의 이동 변위에 기초하여 상기 복수의 파티클 위치들을 예측하는 단계를 포함할 수 있다.According to an embodiment, the step of estimating the positions of the plurality of particles includes predicting the positions of the plurality of particles based on particle position information relocated from a previous viewpoint and movement displacement of the moving object from the previous viewpoint. can do.

일 실시 예에 따르면, 상기 3차원 특징점 정보는, 원근 변환법(perspective mapping)에 기초하여 상기 주변 영상에서 획득한 2차원의 확률 맵으로 투영(project)될 수 있다.According to an embodiment, the 3D feature point information may be projected into a 2D probability map obtained from the surrounding image based on perspective mapping.

일 실시 예에 따르면, 상기 확률 맵에 투영된 3차원 특징점 정보와, 상기 확률 맵의 2차원 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계는, 상기 확률 맵에서, 상기 투영된 3차원 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하는 단계; 및 상기 각 랜드마크에 대응하여 합산된 확률들을 곱하는 단계를 포함할 수 있다.According to an embodiment, calculating a likelihood between 3D feature point information projected on the probability map and 2D feature point information of the probability map may include: in the probability map, the projected 3D feature point information. summing probabilities corresponding to each landmark of the information; and multiplying the summed probabilities corresponding to each landmark.

일 실시 예에 따르면, 상기 대응도에 기초해 상기 복수의 파티클 위치들을 재배치하여 상기 이동체의 위치를 추정하는 단계는, 상기 대응도에 따라 상기 복수의 파티클 위치들 각각에 대해 가중치(weight)를 설정하는 단계; 상기 가중치에 따라 상기 복수의 파티클 위치들을 재배치하는 단계; 및 상기 재배치된 파티클의 평균값을 계산하여 상기 이동체의 위치를 추정하는 단계를 포함할 수 있다.According to an embodiment, the step of estimating the position of the moving object by rearranging the positions of the plurality of particles based on the degree of correspondence may include setting a weight for each of the positions of the plurality of particles according to the degree of correspondence. doing; rearranging the plurality of particle positions according to the weight; and estimating the position of the moving object by calculating an average value of the rearranged particles.

일 실시 예에 따르면, 상기 이동체는 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량일 수 있다.According to an embodiment, the moving object may be an autonomous vehicle or a vehicle supporting an advanced driver assistance system (ADAS).

일 실시 예에 따른 전자 장치는, 이동체 주변의 고정밀 지도(High Definition Map) 데이터 및 상기 이동체에 탑재된 촬영 장치로 획득한 주변 영상을 수신하는 통신 모듈; 컴퓨터로 실행 가능한 명령어들(computer-executable instructions)이 저장된 메모리; 및 상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 프로세서를 포함하고, 상기 명령어들은, 상기 주변 영상으로부터, 랜드마크(landmark) 기반 확률 맵(probability map) 형태의 2차원 특징점 정보를 획득하고, 상기 고정밀 지도 데이터로부터, 랜드마크 기반 3차원 특징점 정보를 획득하고, 상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원(dimension)을 다른 하나의 차원으로 변환하고, 상기 주변 영상의 특징점 정보와 상기 고정밀 지도 데이터의 특징점 정보 사이의 대응도(likelihood)를 계산하고, 상기 대응도에 기초하여 상기 이동체의 위치를 추정하도록 구성될 수 있다.An electronic device according to an embodiment includes a communication module configured to receive high definition map data around a moving object and a surrounding image obtained by a photographing device mounted on the moving object; a memory in which computer-executable instructions are stored; and a processor accessing the memory to execute the instructions, wherein the instructions obtain 2D feature point information in the form of a landmark-based probability map from the surrounding image, From the high-precision map data, landmark-based 3D feature point information is obtained, and any one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data is converted into another dimension. and calculating a likelihood between feature point information of the surrounding image and feature point information of the high-precision map data, and estimating the location of the moving object based on the correspondence.

일 실시 예에 따르면, 상기 명령어들은, 상기 주변 영상에서 획득한 확률 맵에서, 상기 고정밀 지도 데이터의 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하고, 상기 각 랜드마크에 대응하여 합산된 확률들을 곱해 상기 대응도를 계산하도록 구성될 수 있다.According to an embodiment, the instructions add up probabilities corresponding to each landmark of the feature point information of the high-precision map data in the probability map obtained from the surrounding image, and sum up corresponding to each landmark. It may be configured to calculate the degree of correspondence by multiplying the obtained probabilities.

도 1a 내지 도 1c는 일 실시예에 따른 이동체 주변의 특징점 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 전자 장치의 블록도이다.
도 3a 및 도 3b는 일 실시예에 따른 고정밀 지도의 특징점과 주변 영상의 특징점 사이의 대응도 계산 방법을 설명하기 위한 도면이다.
도 4a 및 도 4b는 일 실시예에 따른 이동체의 후보 위치에 따라 대응도가 다르게 결정되는 것을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 전자 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 6은 일 실시예에 따른 대응도 계산 방법을 설명하기 위한 흐름도이다.
도 7은 일 실시예에 따른 파티클 필터 기반의 이동체 위치 추정 방법을 설명하기 위한 흐름도이다.
도 8은 일 실시 예에 따른 대응도에 기초하여 이동체의 위치를 추정하는 방법을 설명하기 위한 흐름도이다.
도 9는 일 실시 예에 따른 이동체 위치 추정 시스템을 설명하기 위한 도면이다.
도 10은 일 실시 예에 따른 이동체 위치 추정 시스템을 설명하기 위한 도면이다.
1A to 1C are diagrams for explaining a method of obtaining feature point information around a moving object according to an exemplary embodiment.
2 is a block diagram of an electronic device according to an exemplary embodiment.
3A and 3B are diagrams for explaining a method of calculating correspondence between feature points of a high-precision map and feature points of a surrounding image according to an exemplary embodiment.
4A and 4B are diagrams for explaining that a degree of correspondence is differently determined according to a candidate position of a moving object according to an exemplary embodiment.
5 is a flowchart illustrating a method of operating an electronic device according to an exemplary embodiment.
6 is a flowchart illustrating a method for calculating a degree of correspondence according to an exemplary embodiment.
7 is a flowchart illustrating a method for estimating a location of a moving object based on a particle filter according to an exemplary embodiment.
8 is a flowchart illustrating a method of estimating a position of a moving object based on a correspondence diagram according to an exemplary embodiment.
9 is a diagram for explaining a system for estimating a position of a moving object according to an exemplary embodiment.
10 is a diagram for explaining a system for estimating a position of a moving object according to an exemplary embodiment.

본 명세서에서 개시되어 있는 특정한 구조적 또는 기능적 설명들은 단지 기술적 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 실제로 구현된 형태는 다양한 다른 모습을 가질 수 있으며 본 명세서에 설명된 실시예로만 한정되지 않는다. Specific structural or functional descriptions disclosed in this specification are merely exemplified for the purpose of describing embodiments according to technical concepts, and actual implemented forms may have various other appearances and are limited only to the embodiments described in this specification. It doesn't work.

제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 이해되어야 한다. 예를 들어 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should only be understood for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may also be termed a first element.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~간의"와 "바로~간의" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle. Expressions describing the relationship between components, such as "between" and "directly between" or "adjacent to" and "directly adjacent to", etc., should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is an embodied feature, number, step, operation, component, part, or combination thereof, but one or more other features or numbers However, it should be understood that it does not preclude the presence or addition of steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, it should not be interpreted in an ideal or excessively formal meaning. don't

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.The embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices. Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference numerals in each figure indicate like elements.

< 전자 장치 ><Electronic device>

도 1a 내지 도 1c는 일 실시예에 따른 이동체 주변의 특징점 정보를 획득하는 방법을 설명하기 위한 도면이다.1A to 1C are diagrams for explaining a method of obtaining feature point information around a moving object according to an exemplary embodiment.

도 1a는 일 예에 따른 이동체 주변을 촬영한 영상(또는, 이미지)를 도시한다.1A illustrates a video (or image) captured around a moving object according to an example.

도 1a를 참조하면, 이동체의 정면을 촬영한 영상에는 기준(이하, 랜드마크(landmark))이 되는 다양한 오브젝트가 포함될 수 있다. 예를 들어 도 1a에는 노란색 차선(또는, 중앙선)(111), 흰색 차선(113), 연석(115), 가로등(117) 등에 대응하는 오브젝트들이 포함될 수 있다. 도 1a와 같은 영상은 이동체에 탑재된 촬영 장치를 통해 획득될 수 있다. 촬영 장치는 단안 카메라, 스테레오 비전(stereo vision) 카메라 등일 수 있고, 촬영 장치는 이미지 센서를 포함할 수 있다. 이미지 센서는 촬영 장치의 렌즈를 통해 들어온 빛을 전기적 신호로 바꿔주는 반도체로, 컬러 이미지 센서, RGB(red, green, blue) 센서, IR(infrared) 센서 등일 수 있다.Referring to FIG. 1A , various objects serving as references (hereinafter referred to as landmarks) may be included in an image obtained by capturing the front of the moving object. For example, objects corresponding to a yellow lane (or center line) 111, a white lane 113, a curb 115, a street lamp 117, and the like may be included in FIG. 1A . An image as shown in FIG. 1A may be acquired through a photographing device mounted on a mobile body. The photographing device may be a monocular camera, a stereo vision camera, or the like, and may include an image sensor. The image sensor is a semiconductor that converts light entering through a lens of a photographing device into an electrical signal, and may be a color image sensor, a red, green, blue (RGB) sensor, an infrared (IR) sensor, or the like.

도 1b는 일 예에 따른 이동체 주변의 영상에서 추출된 특징점 정보를 설명하기 위한 도면이다.1B is a diagram for explaining feature point information extracted from an image around a moving object according to an example.

도 1b는, 도 1a와 같이 촬영 장치를 통해 획득한 이동체 주변의 영상에 기초하여 획득되는 랜드마크 기반 확률 맵(probability map)일 수 있다. 도 1b를 참조하면, 랜드마크 기반 확률 맵에서 랜드마크 별로 구분된 특징점 정보(121, 123, 125)가 획득될 수 있다. FIG. 1B may be a landmark-based probability map obtained based on an image around a moving object obtained through a photographing device as shown in FIG. 1A. Referring to FIG. 1B , feature point information 121 , 123 , and 125 classified for each landmark may be obtained from the landmark-based probability map.

예를 들어, 특징점 정보(121)는 도 1a를 참조하여 설명한 영상의 노란색 차선(111)에, 특징점 정보(123)는 하얀색 차선(113)에, 특징점 정보(125)는 연석(115)에 대응할 수 있다. 주변 영상의 특징점 정보는 DNN(deep neural network) 기반의 시맨틱 세그멘테이션(semantic segmentation)에 기초하여, 랜드마크에 따라 획득될 수 있다.For example, the feature point information 121 corresponds to the yellow lane 111 of the image described with reference to FIG. 1A, the feature point information 123 corresponds to the white lane 113, and the feature point information 125 corresponds to the curb 115. can Feature point information of the surrounding image may be obtained according to landmarks based on deep neural network (DNN)-based semantic segmentation.

일 실시 예에 따르면, 도 1a와 같은 촬영 장치를 통해 획득한 이동체 주변 영상이 DNN 기반의 시맨틱 세그멘테이션을 위한 학습 모델로 입력되고, 학습 모델에 기초하여 랜드마크에 따라 구분된 특징점 정보가 추출될 수 있다. 촬영 장치로 획득한 주변 영상에서 추출되는 특징점 정보는 2차원 확률 맵 상의 픽셀들의 집합인 면 형태로 표현될 수 있다.According to an embodiment, an image around a moving object obtained through a photographing device as shown in FIG. 1A may be input to a learning model for DNN-based semantic segmentation, and feature point information classified according to landmarks may be extracted based on the learning model. there is. The feature point information extracted from the surrounding image obtained by the photographing device may be expressed in the form of a plane, which is a set of pixels on a 2D probability map.

도 1c는 일 예에 따른 이동체 주변의 고정밀 지도 데이터에서 추출된 특징점 정보를 설명하기 위한 도면이다.1C is a diagram for explaining feature point information extracted from high-precision map data around a moving object according to an example.

도 1c를 참조하면, 이동체 주변의 고정밀 지도 데이터로부터, 랜드마크 별로 구분된 특징점 정보(131, 133, 135)가 획득될 수 있다. 예를 들어, 특징점 정보(131)는 이동체 주변의 노란색 차선(예를 들어, 도 1a의 노란색 차선(111))에, 특징점 정보(133)는 이동체 주변의 하얀색 차선(예를 들어, 도 1a의 하얀색 차선(113))에, 특징점 정보(135)는 이동체 주변의 연석(예를 들어, 도 1a의 연석(115))에 대응할 수 있다.Referring to FIG. 1C , feature point information 131 , 133 , and 135 classified for each landmark may be obtained from high-precision map data around the moving object. For example, the feature point information 131 is a yellow lane around the moving object (eg, the yellow lane 111 in FIG. 1A), and the feature point information 133 is a white lane around the moving object (eg, the yellow lane 111 in FIG. In the white lane 113 , the feature point information 135 may correspond to a curb around the moving object (eg, the curb 115 in FIG. 1A ).

고정밀 지도 데이터로부터 획득된 특징점 정보는 공간 상의 3차원 좌표로, 랜드마크에 따라 구분될 수 있다. 예를 들어 도 1c를 참조하면, 특징점 정보(131)에는 노란색 차선에 대응하는 특징점 정보들이 포함되고, 특징점 정보(133)에는 하얀색 차선에 대응하는 특징점 정보들이 포함되고, 특징점 정보(135)에는 연석에 대응하는 특징점 정보들이 포함될 수 있다. 고정밀 지도 데이터로부터 획득된 특징점 정보는 3차원의 좌표 형태로 표현될 수 있다.Feature point information obtained from high-precision map data is a three-dimensional coordinate in space and can be classified according to landmarks. For example, referring to FIG. 1C , feature point information 131 includes feature point information corresponding to a yellow lane, feature point information 133 includes feature point information corresponding to a white lane, and feature point information 135 includes a curb. Feature point information corresponding to may be included. Feature point information obtained from high-precision map data may be expressed in a 3-dimensional coordinate form.

일 실시 예에 따르면, 이동체의 위치 정보에 따라 고정밀 지도 데이터베이스로부터 이동체 위치 추정을 위한 전자 장치로 이동체 주변의 랜드마크에 대한 월드 도메인 정보가 전달될 수 있다. 월드 도메인 정보는 촬영 장치에 대한 로컬 도메인 정보로 변환될 수 있다.According to an embodiment, world domain information on landmarks around the moving object may be transferred from a high-precision map database to an electronic device for estimating the location of the moving object according to location information of the moving object. World domain information may be converted into local domain information for a photographing device.

이동체의 위치를 추정하기 위해, 영상(예를 들어, 도 1a)에서 획득한 특징점 정보(예를 들어, 도 1b의 특징점 정보(121))와 고정밀 지도 데이터(예를 들어, 도 1c)에서 획득한 특징점 정보(예를 들어, 도 1c의 특징점 정보(131))를 비교하는 과정이 필요할 수 있다. In order to estimate the position of the moving object, the feature point information (eg, feature point information 121 of FIG. 1B) acquired from the image (eg, FIG. 1A) and the high-precision map data (eg, FIG. 1C) are obtained. A process of comparing one feature point information (eg, feature point information 131 of FIG. 1C) may be required.

일 실시 예에 따르면, 이동체 위치 추정에 확장 칼만 필터(EKF: Extended Kalman Fileter)를 사용하는 경우, 이전 위치 정보에 기초하여 예측한 위치 정보와, 센서로 측정한 위치 정보 사이의 오차에 대한 정보가 필요할 수 있고, 오차를 계산하기 위해 두 정보 간 유사한 정도(likelihood, 이하, 대응도)를 계산해야 할 수 있다. 일례로, 도 1b의 특징점 정보(121)는 센서로 측정한 위치 정보에 대응될 수 있고, 도 1c의 특징점 정보(131)는 예측한 위치 정보에 대응될 수 있다.According to an embodiment, when an Extended Kalman Filter (EKF) is used for position estimation of a moving object, information about an error between position information predicted based on previous position information and position information measured by a sensor is provided. It may be necessary, and in order to calculate the error, it may be necessary to calculate the degree of similarity (likelihood, hereinafter, correspondence) between the two pieces of information. For example, the feature point information 121 of FIG. 1B may correspond to location information measured by a sensor, and the feature point information 131 of FIG. 1C may correspond to predicted location information.

도 1a 내지 도 1c를 참조하여 전술한 바와 같이, 도 1b의 특징점 정보(121)와 같이 촬영 장치로 획득한 영상에서 획득된 특징점 정보는 2차원 정보이고, 도 1c의 특징점 정보(131)와 같이 고정밀 지도 데이터에서 획득한 특징점 정보는 3차원 정보일 수 있다. 이 경우 두 특징점 정보 간 차원(dimension)이 일치하지 않아, 대응도를 계산하기 어려울 수 있다.As described above with reference to FIGS. 1A to 1C, the feature point information obtained from the image obtained by the photographing device, such as the feature point information 121 of FIG. 1B, is 2-dimensional information, and like the feature point information 131 of FIG. Feature point information obtained from high-precision map data may be 3D information. In this case, it may be difficult to calculate the degree of correspondence because the dimensions of the two feature point information do not match.

아래에서 도 2 내지 도 10을 참조하여, 도 1b를 참조하여 설명한 입력 영상에서 획득된 2차원 특징점 정보와, 도 1c를 참조하여 설명한 고정밀 지도에서 획득된 3차원 특징점 정보 사이의 대응도를 계산하는 방법을 상세히 설명한다.Calculate the degree of correspondence between the 2D feature point information obtained from the input image described with reference to FIG. 1B and the 3D feature point information obtained from the high-precision map described with reference to FIG. 1C with reference to FIGS. 2 to 10 below. The method is explained in detail.

도 2는 일 실시예에 따른 전자 장치의 블록도이다.2 is a block diagram of an electronic device according to an exemplary embodiment.

도 2를 참조하면, 전자 장치(101)는 이동체 주변의 고정밀 지도 데이터베이스(210) 및 촬영 장치(230)와 통신하기 위한 통신 모듈(190), 컴퓨터로 실행 가능한 명령어들이 저장된 메모리(130) 및 메모리(130)에 억세스하여 명령어들을 실행하는 프로세서(120)를 포함할 수 있다.Referring to FIG. 2 , the electronic device 101 includes a high-precision map database 210 around a moving object, a communication module 190 for communicating with a photographing device 230, a memory 130 storing instructions executable by a computer, and a memory. It may include a processor 120 that accesses 130 and executes instructions.

전자 장치(101)는 위치를 추정할 이동체에 탑재되거나 이동체 내에 포함될 수 있고, 또는 이동체와 구분되어 위치할 수 있다. 전자 장치(101)는 이동체의 위치를 추정할 수 있고, 이동체(vehicle)에는 자동차, 자전거 등 뿐 아니라 드론(drone), 비행기 등 비행체도 포함될 수 있다. 이동체는 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량일 수 있다.The electronic device 101 may be mounted on or included in a mobile body to estimate a location, or may be located separately from the mobile body. The electronic device 101 can estimate the position of a moving object, and the moving object may include not only a car, bicycle, etc., but also air vehicles such as drones and airplanes. The mobile body may be an autonomous vehicle or a vehicle supporting an advanced driver assistance system (ADAS).

촬영 장치(230)는 도 1b를 참조하여 전술한 바와 같이 단안 카메라, 스테레오 비전(stereo vision) 카메라 등일 수 있고, 이미지 센서를 포함할 수 있다. 도 2에서는 설명의 편의를 위해 촬영 장치(230)라고 도시하였지만, 촬영 장치(230)는 촬영 장치(230)를 통해 촬영된 이동체 주변 영상이 저장된 외부 전자 장치 또는 서버일 수 있다.As described above with reference to FIG. 1B , the photographing device 230 may be a monocular camera, a stereo vision camera, or the like, and may include an image sensor. In FIG. 2 , the photographing device 230 is illustrated for convenience of description, but the photographing device 230 may be an external electronic device or a server in which images of the moving object captured by the photographing device 230 are stored.

고정밀 지도 데이터베이스(210)는, 고정밀 지도(HD map: high definition map) 정보를 포함하는 데이터베이스로, 전자 장치(101)의 요청에 따라 통신 모듈(190)을 통해 전자 장치(101)로 이동체 주변의 고정밀 지도 정보를 전송할 수 있다. 고정밀 지도는 도 1c를 참조하여 설명한 바와 같이, 랜드마크에 따라 구분되는 3차원 특징점들로 구성될 수 있다.The high-precision map database 210 is a database including high definition map (HD map) information, and is transmitted to the electronic device 101 through the communication module 190 according to the request of the electronic device 101. High-precision map information can be transmitted. As described with reference to FIG. 1C, the high-precision map may be composed of 3D feature points classified according to landmarks.

통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(또는, 서버) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈 (예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 근거리 통신 네트워크(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)) 또는 원거리 통신 네트워크(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN))를 통하여 외부의 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다.The communication module 190 may support establishment of a direct (eg, wired) communication channel or wireless communication channel between the electronic device 101 and an external electronic device (or server), and communication through the established communication channel. The communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication. According to an embodiment, the communication module 190 is a wireless communication module (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (eg, a local area network (LAN)). ) communication module, or power line communication module). Among these communication modules, the corresponding communication module is a short-distance communication network (eg Bluetooth, wireless fidelity (WiFi) direct or IrDA (infrared data association)) or a long-distance communication network (eg legacy cellular network, 5G network, next-generation communication network, Internet , or through a computer network (such as a LAN or WAN) to communicate with an external electronic device. These various types of communication modules may be integrated as one component (eg, a single chip) or implemented as a plurality of separate components (eg, multiple chips).

무선 통신 모듈은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈은 전자 장치(101), 외부 전자 장치 또는 네트워크 시스템에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module may support a 5G network after a 4G network and a next-generation communication technology, for example, NR access technology (new radio access technology). NR access technologies include high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access of multiple terminals (massive machine type communications (mMTC)), or high reliability and low latency (ultra-reliable and low latency (URLLC)). -latency communications)) can be supported. The wireless communication module may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example. The wireless communication module uses various technologies for securing performance in a high frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiple-output (FD). Technologies such as full dimensional MIMO (MIMO), array antenna, analog beam-forming, or large scale antenna may be supported. The wireless communication module may support various requirements defined for the electronic device 101, an external electronic device, or a network system. According to one embodiment, the wireless communication module may be used to realize peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency (eg, down) for realizing URLLC. link (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) may be supported.

통신 모듈(190)이 2차원 특징점 정보를 획득하기 위해 촬영 장치(230)와 통신하는 방법과 3차원 특징점 정보를 획득하기 위해 고정밀 지도 데이터베이스(210)와 통신하는 방법은 같거나 다를 수 있다.A method of the communication module 190 communicating with the photographing device 230 to obtain 2D feature point information and a method of communicating with the high precision map database 210 to obtain 3D feature point information may be the same or different.

일 실시 예에 따르면, 프로세서(120)는 이동체에 탑재된 촬영 장치(230)로 획득한 주변 영상으로부터, 랜드마크 기반 확률 맵 형태의 2차원 특징점 정보를 획득할 수 있다. 도 1b를 참조하여 전술한 바와 같이 프로세서(120)는 촬영 장치(230) 또는 영상이 저장된 외부 전자 장치 또는 서버로부터 이동체 주변 영상을 수신하고, DNN 기반의 시맨틱 세그멘테이션에 기초하여 랜드마크 별로 2차원 특징점 정보를 획득할 수 있다.According to an embodiment, the processor 120 may obtain 2D feature point information in the form of a landmark-based probability map from a surrounding image acquired by the photographing device 230 mounted on a moving object. As described above with reference to FIG. 1B , the processor 120 receives an image around the moving object from the photographing device 230 or an external electronic device or server in which the image is stored, and based on DNN-based semantic segmentation, the 2D feature point for each landmark. information can be obtained.

다른 일 실시 예에 따르면, 이동체 주변 영상으로부터 2차원 특징점 정보를 추출하는 과정이 외부 전자 장치 또는 서버에서 수행되고, 프로세서(120)는 추출된 랜드마크 기반 확률 맵 형태의 2차원 특징점 정보를 전달받을 수 있다.According to another embodiment, a process of extracting 2D feature point information from an image around a moving object is performed in an external electronic device or server, and the processor 120 receives the extracted 2D feature point information in the form of a probability map based on landmarks. can

일 실시 예에 따르면, 프로세서(120)는 이동체 주변의 고정밀 지도의 랜드마크 기반 3차원 특징점 정보를 획득할 수 있다. 도 1c를 참조하여 전술한 바와 같이, 프로세서(120)는 이동체의 위치 정보에 기초하여 고정밀 지도 데이터베이스(210)로 3차원 특징점 정보를 요청함으로써 이동체 주변 고정밀 지도의 3차원 특징점 정보를 획득할 수 있다.According to an embodiment, the processor 120 may obtain landmark-based 3D feature point information of a high-precision map around the moving object. As described above with reference to FIG. 1C , the processor 120 may obtain 3D feature point information of a high-precision map around the moving object by requesting the 3D feature point information from the high-precision map database 210 based on the location information of the moving object. .

일 실시 예에 따르면, 고정밀 지도 데이터베이스(210)에 저장된 특징점 정보들은 월드 도메인(world domain) 상의 좌표일 수 있고, 프로세서(120)는 고정밀 지도 데이터베이스(210)로부터 수신한 이동체 주변의 랜드마크들에 대한 특징점 정보를 촬영 장치에 대한 로컬 도메인(local domain)으로 변환할 수 있다. 월드 도메인에서 로컬 도메인으로의 변환 과정은 아래 [수학식 1]을 참조하여 상세히 설명한다.According to an embodiment, feature point information stored in the high-precision map database 210 may be coordinates on a world domain, and the processor 120 determines landmarks around the moving object received from the high-precision map database 210. The feature point information for the image may be converted into a local domain for the photographing device. The conversion process from the world domain to the local domain will be described in detail with reference to [Equation 1] below.

다른 일 실시 예에 따르면, 외부 전자 장치 또는 서버에서 월드 도메인에서 로컬 도메인으로의 변환이 수행되고, 로컬 도메인 형태의 3차원 특징점 정보가 프로세서(120)로 전송될 수 있다.According to another embodiment, conversion from the world domain to the local domain is performed in an external electronic device or server, and 3D feature point information in the form of a local domain may be transmitted to the processor 120 .

2차원 특징점 정보와 3차원 특징점 정보 간 대응도를 계산하기 위해, 프로세서(120)는 주변 영상의 2차원 특징점 정보와 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원을 다른 하나의 차원으로 변환할 수 있다. In order to calculate the degree of correspondence between 2D feature point information and 3D feature point information, the processor 120 converts any one dimension of the 2D feature point information of surrounding images and 3D feature point information of high-precision map data into another dimension. can do.

일례로, 프로세서(120)는 원근 변환법(perspective mapping)에 기초하여 고정밀 지도 데이터의 3차원 특징점 정보를 주변 영상에서 획득한 2차원의 확률 맵으로 투영(project)할 수 있다. 고정밀 지도 데이터의 3차원 특징점 정보는, 아래 [수학식 1] 및 [수학식 2]에 기초하여 주변 영상에서 획득한 2차원의 확률 맵으로 투영될 수 있다.For example, the processor 120 may project 3D feature point information of high-precision map data into a 2D probability map obtained from a surrounding image based on perspective mapping. The 3D feature point information of the high-precision map data may be projected into a 2D probability map obtained from a surrounding image based on [Equation 1] and [Equation 2] below.

일 실시 예에 따르면, [수학식 1]에 기초하여, 고정밀 지도 데이터의 3차원 특징점 정보가 월드 도메인 상에서 촬영 장치를 기준으로 하는 로컬 도메인으로 변환될 수 있다. 이는 고정밀 지도 데이터베이스(210)와 관련하여 전술했던 월드 도메인에서 로컬 도메인으로의 변환 동작에 대응할 수 있다.According to an embodiment, based on [Equation 1], 3D feature point information of the high-precision map data may be converted from the world domain to the local domain based on the photographing device. This may correspond to the conversion operation from the world domain to the local domain described above in relation to the high-precision map database 210 .

Figure pat00001
Figure pat00001

Figure pat00002
은 고정밀 지도 데이터의 월드 도메인 상 3차원 특징점 정보의 좌표일 수 있다. 예를 들어, 도 1c의 랜드마크 별 특징점들(131, 133, 135) 중 하나의 좌표일 수 있다.
Figure pat00003
는 고정밀 지도 데이터의 월드 도메인 상 이동체의 3차원 좌표일 수 있다. 예를 들어, 도 1c의 차량의 월드 도메인 상 3차원 좌표일 수 있다.
Figure pat00004
는 이동체의 월드 도메인 대비 회전변환행렬일 수 있다.
Figure pat00005
는 촬영 장치(230)의 이동체 대비 회전변환행렬일 수 있다.
Figure pat00006
는 촬영 장치(230)의 이동체 대비 상대 거리일 수 있다. [수학식 1]에 기초하여, 촬영 장치(230)를 기준으로 한 로컬 도메인 상의 3차원 특징점 정보의 각 성분인
Figure pat00007
가 획득될 수 있다.
Figure pat00002
may be coordinates of 3D feature point information on the world domain of high-precision map data. For example, it may be the coordinates of one of feature points 131, 133, and 135 for each landmark of FIG. 1C.
Figure pat00003
may be the 3D coordinates of a moving object on the world domain of high-precision map data. For example, it may be a 3D coordinate on the world domain of the vehicle of FIG. 1C.
Figure pat00004
may be a rotation transformation matrix relative to the world domain of the moving object.
Figure pat00005
may be a rotation transformation matrix relative to the moving object of the photographing device 230 .
Figure pat00006
may be a relative distance of the photographing device 230 to the moving object. Based on [Equation 1], each component of the 3D feature point information on the local domain based on the photographing device 230
Figure pat00007
can be obtained.

일 실시 예에 따르면, [수학식 2]에 기초하여, 촬영장치 기준 로컬 도메인으로 변환된 3차원 특징점 정보가 2차원 확률 맵으로 투영될 수 있다.According to an embodiment, based on [Equation 2], 3D feature point information converted to a photographing device reference local domain may be projected onto a 2D probability map.

Figure pat00008
Figure pat00008

위 [수학식 2]에 기초하여, 위 [수학식 1]에서 얻어진 3차원 특징점 정보

Figure pat00009
가 2차원 확률 맵으로 투영되고, 2차원 좌표
Figure pat00010
가 획득될 수 있다.
Figure pat00011
는 각각 촬영 장치의 가로 방향 초점 거리, 세로 방향 초점 거리일 수 있다.Based on the above [Equation 2], the 3D feature point information obtained in [Equation 1] above
Figure pat00009
is projected into a two-dimensional probability map, and the two-dimensional coordinates
Figure pat00010
can be obtained.
Figure pat00011
may be a focal length in a horizontal direction and a focal length in a vertical direction of the photographing device, respectively.

다른 일례로, 프로세서(120)는 역 원근 변환법(inversive perspective mapping)에 기초하여 주변 영상의 2차원 특징점 정보를 3차원 확률 맵 형태로 변환할 수 있다. 2차원을 3차원으로 변환하기 위해서는 깊이(depth) 정보가 필요하므로, 이 때 촬영 장치(230)는 스트레오 비전 카메라일 수 있다.As another example, the processor 120 may convert 2D feature point information of the surrounding image into a 3D probability map form based on inverse perspective mapping. Since depth information is required to convert a 2D image into a 3D image, the photographing device 230 may be a stereo vision camera.

일 실시 예에 따르면, 프로세서(120)는 두 특징점 정보의 차원을 일치시킨 후 특징점 정보 사이의 대응도를 계산하고, 대응도에 기초하여 이동체의 위치를 추정할 수 있다. 프로세서(120)는 이동체 주변 영상에서 획득한 확률 맵에서, 고정밀 지도 데이터의 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하고, 합산된 확률들을 곱하여 대응도를 계산할 수 있다. According to an embodiment, the processor 120 may match the dimensions of the two feature point information, calculate a degree of correspondence between the feature point information, and estimate the position of the moving object based on the degree of correspondence. The processor 120 may calculate a degree of correspondence by summing probabilities corresponding to each landmark of the feature point information of the high-precision map data and multiplying the summed probabilities in the probability map obtained from the image surrounding the moving object.

일례로, 전술한 바와 같이 2차원으로 차원을 일치시키는 경우 3차원 특징점 정보가 2차원 확률 맵으로 투영되었을 때 투영된 2차원 좌표에 대응하는 확률들을 랜드마크 별로 합산하고, 합산된 확률들을 곱해 대응도를 계산할 수 있다. 다른 일례로, 3차원으로 차원을 일치시키는 경우에는 2차원 확률 맵을 역 원근 변환법에 따라 3차원 확률 맵 형태로 변환할 수 있다. 변환된 3차원 확률 맵 상에서 3차원 특징점 정보가 대응하는 확률들을 랜드마크 별로 합산하고, 합산된 확률들을 곱해 대응도를 계산할 수 있다.As an example, as described above, when the dimensions are matched in 2D, when 3D feature point information is projected onto a 2D probability map, probabilities corresponding to the projected 2D coordinates are summed for each landmark, and the summed probabilities are multiplied to respond. figure can be calculated. As another example, in the case of matching dimensions in 3D, a 2D probability map may be converted into a 3D probability map according to an inverse perspective transformation method. Probabilities corresponding to the 3D feature point information on the converted 3D probability map may be summed for each landmark, and the degree of correspondence may be calculated by multiplying the summed probabilities.

프로세서(120)는 계산된 대응도에 기초하여, 파티클 필터(particle filter) 또는 ML(maximum likelihood) 최적화 방법에 따라 이동체의 위치를 추정하거나, 추정 결과를 업데이트(update) 할 수 있다.Based on the calculated degree of correspondence, the processor 120 may estimate the position of the moving object or update the estimation result according to a particle filter or maximum likelihood (ML) optimization method.

다양한 실시 예들에 따른 프로세서(120)의 대응도 계산 동작 및 대응도에 기초하여 이동체의 위치를 추정하는 동작은 도 5 내지 도 9를 참조하여 상세히 설명한다.An operation of calculating the degree of correspondence of the processor 120 and an operation of estimating the position of a moving object based on the degree of correspondence according to various embodiments will be described in detail with reference to FIGS. 5 to 9 .

도 3a 및 도 3b는 일 실시예에 따른 고정밀 지도의 특징점과 주변 영상의 특징점 사이의 대응도 계산 방법을 설명하기 위한 도면이다.3A and 3B are diagrams for explaining a method of calculating correspondence between feature points of a high-precision map and feature points of a surrounding image according to an exemplary embodiment.

도 2를 참조하여 전술한 바와 같이, 전자 장치(101)의 프로세서(120)는 두 특징점 사이의 차원을 일치시킨 후, 대응도를 계산하기 위해 랜드마크 별로 대응하는 확률을 합산하고, 합산된 확률들을 곱해 대응도를 계산할 수 있다.As described above with reference to FIG. 2 , the processor 120 of the electronic device 101 matches dimensions between two feature points, sums corresponding probabilities for each landmark to calculate a degree of correspondence, and adds the summed probabilities. The correspondence can be calculated by multiplying

도 3a는 랜드마크별로 구분하지 않고 확률들을 합하는 방식으로 대응도를 결정하는 방법을 설명하기 위한 도면이고, 도 3b는 랜드마크별로 구분한 확률을 곱하는 방식으로 대응도를 결정하는 방법을 설명하기 위한 도면이다.FIG. 3A is a diagram for explaining a method of determining a degree of correspondence by summing probabilities without classifying each landmark, and FIG. 3B is a diagram for explaining a method of determining a degree of correspondence by multiplying probabilities classified by landmarks. it is a drawing

도 2를 참조하여 전술한 바와 같이 3차원으로 차원을 일치시킬 수 있으나, 설명의 편의를 위해 도 3a 및 도 3b에서는 2차원으로 일치된 차원에서 대응도를 계산하는 방법을 설명한다.As described above with reference to FIG. 2, it is possible to match dimensions in three dimensions, but for convenience of description, a method of calculating a degree of correspondence in dimensions matched in two dimensions is described in FIGS. 3A and 3B.

도 3a를 참조하면, 일 실시 예에 따른 랜드마크 기반 2차원 확률 맵으로 3차원 특징점 정보들이 투영된 상황(310)이 도시된다.Referring to FIG. 3A , a situation 310 in which 3D feature point information is projected onto a landmark-based 2D probability map according to an embodiment is illustrated.

도 2, [수학식 1] 및 [수학식 2]를 참조하여 전술한 바와 같이, 원근 변환법에 기초하여 3차원 특징점들이 2차원 확률 맵으로 투영될 수 있다. 도 3의 310은, 도 1b를 참조하여 설명한 2차원 확률 맵과 같이 촬영장치로 획득된 이동체 주변 영상으로부터 획득한 2차원 확률 맵에, 3차원 특징점 정보가 투영된 것일 수 있다.As described above with reference to FIG. 2, [Equation 1] and [Equation 2], 3D feature points may be projected onto a 2D probability map based on the perspective transformation method. 310 of FIG. 3 may be obtained by projecting 3D feature point information onto a 2D probability map obtained from an image around a moving object acquired by a photographing device, like the 2D probability map described with reference to FIG. 1B .

도 3a를 참조하면, 2차원 확률 맵 상의 2차원 특징점 정보와, 투영된 3차원 특징점 정보가 도시되어 있다. 예를 들어, 2차원 특징점 정보(311)는 이동체 정면 영상의 차선에 대응할 수 있고, 2차원 특징점 정보(313)는 이동체 정면 영상의 정지선에 대응할 수 있다. 3차원 특징점을 투영한 결과, 차선의 경우에는 2차원 특징점 정보(311)에 투영된 3차원 특징점 정보(321)가 많이 대응되지만, 정지선의 경우 2차원 특징점 정보(313)와 투영된 3차원 특징점 정보(323)가 전혀 대응되지 않음을 알 수 있다.Referring to FIG. 3A , 2D feature point information on a 2D probability map and projected 3D feature point information are shown. For example, the 2D feature point information 311 may correspond to a lane of the moving object front image, and the 2D feature point information 313 may correspond to a stop line of the moving object front image. As a result of projecting the 3D feature points, in the case of lanes, the 3D feature point information 321 projected to the 2D feature point information 311 corresponds a lot, but in the case of a stop line, the 2D feature point information 313 and the projected 3D feature points It can be seen that information 323 does not correspond at all.

랜드마크 별로 구분하여 대응도를 계산하지 않고, 단순히 투영된 3차원 특징점에 대응하는 확률들을 합하는 방식으로 대응도를 계산하면, 대응도의 정확도가 떨어질 수 있다. 예를 들어, 정지선이 전혀 대응되지 않고 있음에도 상대적으로 특징점의 개수가 많은 차선이 잘 대응되므로, 전체 대응도가 비교적 높게 계산될 수 있다.If the degree of correspondence is calculated by simply summing the probabilities corresponding to the projected 3D feature points instead of separately calculating the degree of correspondence for each landmark, accuracy of the degree of correspondence may decrease. For example, even though stop lines do not correspond at all, since lanes having a relatively large number of feature points correspond well, the overall degree of correspondence can be calculated relatively high.

일 실시 예에 따르면, 전자 장치(101)의 프로세서(120)는 랜드마크 별로 확률을 합산하고 합산된 확률들을 곱해 대응도를 계산함으로써, 대응도의 정확성이 향상될 수 있다. 전자 장치(101)의 프로세서(120)와 같이 랜드마크에 따라 구분하여 대응도를 계산하는 과정은 도 3b를 참조하여 상세히 설명한다.According to an embodiment, the processor 120 of the electronic device 101 calculates the degree of correspondence by summing the probabilities for each landmark and multiplying the summed probabilities, thereby improving the accuracy of the degree of correspondence. A process of calculating a degree of correspondence by dividing according to landmarks, like the processor 120 of the electronic device 101, will be described in detail with reference to FIG. 3B.

도 3b를 참조하면, 일 실시 예에 따른 랜드마크 기반 2차원 확률 맵으로 3차원 특징점 정보들이 투영된 상황(340, 360)이 랜드마크 별로 구분되어 도시된다.Referring to FIG. 3B , situations 340 and 360 in which 3D feature point information is projected into a landmark-based 2D probability map according to an embodiment are separately shown for each landmark.

도 3b의 340 및 360은 랜드마크별로 구분하여 대응도를 계산하는 과정을 설명하기 위한 것일 뿐, 도 3a 및 도 3b 모두 동일한 상황에서 대응도를 계산하는 방법만을 달리하는 것이므로 실제 계산 과정에서 프로세서(120)는 도 3a의 310과 같이 하나의 확률 맵을 기초로 대응도를 계산할 수 있다.340 and 360 in FIG. 3B are only for explaining the process of calculating the degree of correspondence by classifying each landmark, and since both FIGS. 3A and 3B differ only in the method of calculating the degree of correspondence in the same situation, the processor in the actual calculation process ( 120) may calculate a degree of correspondence based on one probability map as shown in 310 of FIG. 3A.

도 3b의 340을 참조하면, 2차원 확률 맵 상에서 차선, 정지선이라는 랜드마크 중 정지선에 대한 2차원 특징점 정보와, 정지선에 대한 투영된 3차원 특징점 정보가 도시되어 있다. 예를 들어, 2차원 특징점 정보(343)는 이동체 정면 영상에서 획득한 2차원 확률 맵 중 정지선에 대응할 수 있고, 2차원 확률 맵에 투영된 정지선에 대응하는 3차원 특징점 정보(353)가 도시되어 있다. 도 3b의 340을 참조하면, 2차원 확률 맵에 투영된 3차원 특징점 정보(353)는 2차원 특징점 정보(343)에 전혀 대응되지 않음을 알 수 있다. Referring to 340 of FIG. 3B , 2D feature point information for a stop line among landmarks such as lanes and stop lines on a 2D probability map and projected 3D feature point information for the stop line are shown. For example, the 2D feature point information 343 may correspond to a stop line in the 2D probability map obtained from the front image of the moving object, and the 3D feature point information 353 corresponding to the stop line projected on the 2D probability map is shown. there is. Referring to 340 of FIG. 3B , it can be seen that the 3D feature point information 353 projected onto the 2D probability map does not correspond to the 2D feature point information 343 at all.

도 3b의 360을 참조하면, 2차원 확률 맵 상에서 차선에 대한 2차원 특징점 정보와, 차선에 대한 투영된 3차원 특징점 정보가 도시되어 있다. 예를 들어, 2차원 특징점 정보(361)은 이동체 정면 영상에서 획득한 2차원 확률 맵 중 차선에 대응할 수 있고, 2차원 확률 맵에 투영된 차선에 대응하는 3차원 특징점 정보(371)가 도시되어 있다. 도 3b의 360을 참조하면, 2차원 확률 맵에 투영된 3차원 특징점 정보(371)는 2차원 특징점 정보(361)에 잘 대응됨을 알 수 있다.Referring to 360 of FIG. 3B , 2D feature point information for lanes and projected 3D feature point information for lanes are shown on the 2D probability map. For example, the 2D feature point information 361 may correspond to a lane in the 2D probability map obtained from the front image of the moving object, and the 3D feature point information 371 corresponding to the lane projected on the 2D probability map is shown. there is. Referring to 360 of FIG. 3B , it can be seen that the 3D feature point information 371 projected on the 2D probability map corresponds well to the 2D feature point information 361 .

전자 장치(101)의 프로세서(120)는 랜드마크 별로 각 투영된 3차원 특징점이 확률 맵 상에서 대응하는 확률을 합산하고, 랜드마크 별로 합산된 확률을 곱해 대응도를 계산할 수 있다. 도 3b의 340을 참조하면, 랜드마크 정지선에 대해서는 확률맵에 투영된 세 개의 특징점 모두가 2차원 특징점 정보(343)에 전혀 대응되지 않으므로, 프로세서(120)가 세 개의 특징점에 대응하는 확률을 합산하면 0에 가까울 수 있다. 도 3b의 360을 참조하면, 랜드마크 차선에 대해서는 확률을 합산하면 높은 값이 도출될 수 있다.The processor 120 of the electronic device 101 may calculate a degree of correspondence by summing probabilities corresponding to each projected 3D feature point for each landmark on the probability map and multiplying the summed probabilities for each landmark. Referring to 340 in FIG. 3B , since all three feature points projected on the probability map do not correspond to the 2D feature point information 343 for the landmark stop line, the processor 120 sums the probabilities corresponding to the three feature points. can be close to 0. Referring to 360 of FIG. 3B , a high value may be derived by summing probabilities for landmark lanes.

도 3a를 참조하여 설명한 바와 달리 프로세서(120)는 도 3b와 같이 랜드마크 별로 구분하여 합산한 확률들을 곱해 대응도를 계산할 수 있다. 이를 통해, 차선에 대해 계산한 확률이 높더라도 정지선에 대해 계산한 확률이 0에 가까우면 두 값을 곱해 계산한 대응도는 도 3a에서 계산한 대응도에 비해 작아질 수 있다.Unlike the description with reference to FIG. 3A , the processor 120 may calculate a degree of correspondence by multiplying probabilities obtained by classifying and summing landmarks for each landmark as shown in FIG. 3B . Through this, even if the probability calculated for the lane is high, if the probability calculated for the stop line is close to 0, the degree of correspondence calculated by multiplying the two values may be smaller than the degree of correspondence calculated in FIG. 3A.

일 실시 예에 따르면, 프로세서(120)는 랜드마크 별로 구분하여 대응도를 계산함으로써, 보다 정확한 대응도를 계산할 수 있고, 대응도의 유일성(uniqueness)이 증대될 수 있다. 대응도를 계산하는 구체적인 과정은 도 6을 참조하여 상세히 설명한다.According to an embodiment, the processor 120 may calculate a more accurate degree of correspondence and increase the uniqueness of the degree of correspondence by classifying each landmark and calculating the degree of correspondence. A specific process of calculating the degree of correspondence will be described in detail with reference to FIG. 6 .

도 4a 및 도 4b는 일 실시예에 따른 이동체의 후보 위치에 따라 대응도가 다르게 결정되는 것을 설명하기 위한 도면이다.4A and 4B are diagrams for explaining that a degree of correspondence is differently determined according to a candidate position of a moving object according to an exemplary embodiment.

도 4a 및 도 4b를 참조하면, 도 1b와 같은 2차원 확률맵 상에 도 1c와 같은 고정밀 지도 데이터의 3차원 정보가 투영된 실시 예들이 도시된다. Referring to FIGS. 4A and 4B , examples in which 3D information of high-precision map data as shown in FIG. 1C are projected onto a 2D probability map as shown in FIG. 1B are shown.

도 2를 참조하여 전술한 바와 같이 3차원으로 차원을 일치시킬 수 있으나, 설명의 편의를 위해 도 4a 및 도 4b에서는 2차원으로 일치된 실시 예를 설명한다.As described above with reference to FIG. 2 , it is possible to match dimensions in three dimensions, but for convenience of description, an embodiment in which two dimensions are matched will be described in FIGS. 4A and 4B .

도 4a를 참조하면, 노란색 차선(또는, 중앙선)에 대응하는 2차원 특징점 정보(411)와 투영된 3차원 특징점 정보(431), 하얀색 차선에 대응하는 2차원 특징점 정보(413)와 3차원 특징점 정보(433), 및 연석에 대응하는 2차원 특징점 정보(415)와 3차원 특징점 정보(435)가 도시되어 있다. 이 경우 대응도가 떨어지므로, 도 2 내지 도 3b를 참조하여 전술한 바와 같이 대응도를 계산하면 대응도가 비교적 낮게 계산될 수 있다.Referring to FIG. 4A , 2D feature point information 411 and projected 3D feature point information 431 corresponding to a yellow lane (or center line), 2D feature point information 413 and 3D feature point corresponding to a white lane Information 433, and 2D feature point information 415 and 3D feature point information 435 corresponding to the curb are shown. In this case, since the degree of correspondence is low, when the degree of correspondence is calculated as described above with reference to FIGS. 2 to 3B , the degree of correspondence may be calculated relatively low.

도 4b를 참조하면, 노란색 차선(또는, 중앙선)에 대응하는 2차원 특징점 정보(461)와 투영된 3차원 특징점 정보(481), 하얀색 차선에 대응하는 2차원 특징점 정보(463)와 3차원 특징점 정보(483), 및 연석에 대응하는 2차원 특징점 정보(465)와 3차원 특징점 정보(485)가 도시되어 있다. 이 경우 도 4a에 비해 대응도가 높으므로, 도 2 내지 도 3b를 참조하여 전술한 바와 같이 대응도를 계산하면 대응도가 비교적 높게 계산될 수 있다.Referring to FIG. 4B, 2D feature point information 461 and projected 3D feature point information 481 corresponding to the yellow lane (or center line), 2D feature point information 463 and 3D feature point corresponding to the white lane Information 483, and 2D feature point information 465 and 3D feature point information 485 corresponding to the curb are shown. In this case, since the degree of correspondence is higher than that of FIG. 4A, when the degree of correspondence is calculated as described above with reference to FIGS. 2 to 3B, the degree of correspondence may be calculated relatively high.

프로세서(120)는 대응도에 기초하여 이동체의 위치를 추정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 비교적 대응도가 높은 도 4b에 대응하는 후보 위치에 대해, 비교적 대응도가 낮은 도 4a에 대응하는 후보 위치보다 높은 가중치를 설정할 수 있다. 프로세서(120)는 대응도에 기초하여, 파티클 필터(particle filter) 또는 ML(maximum likelihood) 최적화 방법에 따른 이동체의 위치 추정 결과를 업데이트할 수 있다. 파티클 필터에 기초한 프로세서(120)가 이동체의 위치를 추정하는 방법은 도 7 및 도 8을 참조하여 상세히 설명한다.The processor 120 may estimate the location of the moving object based on the degree of correspondence. According to an embodiment, the processor 120 may set a higher weight for a candidate location corresponding to FIG. 4B having a relatively high correspondence than a candidate location corresponding to FIG. 4A having a relatively low correspondence. The processor 120 may update a result of estimating the position of the moving object according to a particle filter or a maximum likelihood (ML) optimization method based on the degree of correspondence. A method of estimating the location of a moving object by the processor 120 based on the particle filter will be described in detail with reference to FIGS. 7 and 8 .

< 전자 장치의 동작 방법 ><Operation method of electronic device>

도 5는 일 실시예에 따른 전자 장치의 동작 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a method of operating an electronic device according to an exemplary embodiment.

동작 510 내지 동작 550은 도 2를 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간명한 설명을 위해 도 1 내지 도 4b를 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.Operations 510 to 550 may be performed by the processor 120 of the electronic device 101 described above with reference to FIG. 2 , and for concise description, contents overlapping those described with reference to FIGS. 1 to 4B are may be omitted.

일 실시 예에 따르면 동작 510에서, 프로세서(120)는 이동체의 주변 영상으로부터 확률 맵 형태의 2차원 특징점 정보를 획득할 수 있다. 도 2를 참조하여 전술한 바와 같이, 이동체 주변 영상은 촬영 장치(230)에 의해 획득될 수 있고, 확률 맵 형태의 2차원 특징점 정보는 DNN 기반 시맨틱 세그멘테이션에 기초하여 획득될 수 있다. According to an embodiment, in operation 510, the processor 120 may obtain 2D feature point information in the form of a probability map from an image surrounding the moving object. As described above with reference to FIG. 2 , the image around the moving object may be acquired by the photographing device 230, and the 2D feature point information in the form of a probability map may be obtained based on DNN-based semantic segmentation.

일 실시 예에 따르면 동작 520에서, 프로세서(120)는 이동체 주변의 고정밀 지도 데이터로부터, 3차원 특징점 정보를 획득할 수 있다. 도 2를 참조하여 전술한 바와 같이, 프로세서(120)는 이동체 위치 정보에 기초하여 고정밀 지도 데이터베이스(210)로 이동체 주변의 고정밀 지도 데이터를 요청하고, 고정밀 지도 데이터의 3차원 특징점 정보를 획득할 수 있다. 프로세서(120)는 전술한 [수학식 1]에 기초하여 월드 도메인으로 표현된 3차원 특징점 정보를 로컬 도메인으로 변환할 수 있다.According to an embodiment, in operation 520, the processor 120 may obtain 3D feature point information from high-precision map data around the moving object. As described above with reference to FIG. 2 , the processor 120 may request high-precision map data around the moving object from the high-precision map database 210 based on the moving object location information, and obtain 3D feature point information of the high-precision map data. there is. The processor 120 may convert the 3D feature point information expressed in the world domain into the local domain based on [Equation 1] described above.

일 실시 예에 따르면 동작 530에서, 프로세서(120)는 2차원 특징점 정보와 3차원 특징점 정보 중 어느 하나의 차원을 다른 하나의 차원으로 변환할 수 있다. 도 2를 참조하여 전술한 바와 같이, 프로세서(120)는 원근 변환법에 기초하여 2차원 확률 맵으로 3차원 특징점을 투영하여 2차원으로 변환하거나, 역 원근 변환법에 기초하여 2차원인 확률 맵을 3차원 확률 맵 형태로 변환할 수 있다. 일례로, 프로세서(120)는 전술한 [수학식 2]에 기초하여 3차원 특징점을 2차원 확률 맵으로 투영할 수 있다.According to an embodiment, in operation 530, the processor 120 may convert one dimension of 2D feature point information and 3D feature point information into another dimension. As described above with reference to FIG. 2, the processor 120 projects 3D feature points into a 2D probability map based on the perspective transformation method and transforms them into 2D, or transforms the 2D probability map into 3D based on the inverse perspective transformation method. It can be converted into a dimensional probability map form. For example, the processor 120 may project the 3D feature points into a 2D probability map based on Equation 2 described above.

일 실시 예에 따르면 동작 540에서, 프로세서(120)는 주변 영상의 특징점 정보와 고정밀 지도 데이터의 특징점 정보 사이의 대응도를 계산할 수 있다. 도 3a 및 도 3b를 참조하여 전술한 바와 같이, 2차원 확률 맵에 3차원 특징점을 투영한 경우 프로세서(120)는 투영된 좌표에 대응하는 확률을 랜드마크 별로 합산하고, 합산한 확률을 곱해 대응도를 계산할 수 있다. 2차원 확률 맵을 3차원 확률 맵으로 변환한 경우, 프로세서(120)는 3차원 특징점 정보의 좌표에 대응하는 확률을 랜드마크 별로 합산하고, 합산한 확률을 곱해 대응도를 계산할 수 있다. 프로세서(120)가 대응도를 계산하는 동작은 도 6을 참조하여 상세히 설명한다.According to an embodiment, in operation 540, the processor 120 may calculate a degree of correspondence between feature point information of the surrounding image and feature point information of the high-precision map data. As described above with reference to FIGS. 3A and 3B , when 3D feature points are projected onto a 2D probability map, the processor 120 sums probabilities corresponding to the projected coordinates for each landmark, and multiplies the summed probabilities to respond. figure can be calculated. When the 2D probability map is converted into a 3D probability map, the processor 120 may calculate a degree of correspondence by summing probabilities corresponding to coordinates of the 3D feature point information for each landmark and multiplying the summed probabilities. An operation of calculating the degree of correspondence by the processor 120 will be described in detail with reference to FIG. 6 .

일 실시 예에 따르면 동작 550에서, 프로세서(120)는 대응도에 기초하여 이동체의 위치를 추정한다. 일 실시 예에 따르면, 도 4a 및 도 4b를 참조하여 설명한 바와 같이 프로세서(120)는 대응도에 따라 예측한 위치에 대한 가중치를 다르게 설정함으로써 이동체의 위치를 추정할 수 있다.According to an embodiment, in operation 550, the processor 120 estimates the position of the moving object based on the degree of correspondence. According to an embodiment, as described with reference to FIGS. 4A and 4B , the processor 120 may estimate the position of the moving object by setting different weights for the predicted position according to the degree of correspondence.

도 6은 일 실시예에 따른 대응도 계산 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a method for calculating a degree of correspondence according to an exemplary embodiment.

동작 610 내지 동작 620은 도 2를 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간명한 설명을 위해 도 1 내지 도 5을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다. Operations 610 to 620 may be performed by the processor 120 of the electronic device 101 described above with reference to FIG. 2 , and for concise description, contents overlapping those described with reference to FIGS. 1 to 5 are may be omitted.

일 실시 예에 따르면, 동작 610 내지 동작 620은 도 5을 참조하여 설명한 주변 영상의 특징점 정보와 고정밀 지도 데이터의 특징점 정보 사이의 대응도를 계산하는 동작(예: 도 5의 동작 540)에 대응될 수 있다.According to an embodiment, operations 610 to 620 may correspond to an operation of calculating a degree of correspondence between feature point information of the surrounding image and feature point information of the high-precision map data described with reference to FIG. 5 (eg, operation 540 of FIG. 5 ). can

일 실시 예에 따르면 동작 610에서 프로세서(120)는 주변 영상에서 획득한 확률 맵에서, 고정밀 지도 데이터의 특징점 정보의 각 랜드마크에 대응하는 확률을 합산할 수 있다. 도 3b를 참조하여 설명한 바와 같이, 프로세서(120)는 각 랜드마크에 대해, 주변 영상에서 획득한 확률 맵 상에서 고정밀 지도 데이터의 특징점 정보에 대응하는 확률을 합산할 수 있다.According to an embodiment, in operation 610, the processor 120 may add probabilities corresponding to respective landmarks of feature point information of the high-precision map data in the probability map obtained from the surrounding images. As described with reference to FIG. 3B , the processor 120 may add probabilities corresponding to feature point information of high-precision map data on a probability map obtained from surrounding images for each landmark.

일 실시 예에 따르면 동작 620에서 프로세서(120)는 각 랜드마크에 대응하여 합산된 확률을 곱해 대응도를 계산할 수 있다. 도 3b를 참조하여 설명한 바와 같이, 프로세서(120)는 각 랜드마크에 대해 합산된 확률들을 곱해 대응도를 계산함으로써, 보다 정확한 대응도를 획득할 수 있다.According to an embodiment, in operation 620, the processor 120 may calculate a degree of correspondence by multiplying the summed probability corresponding to each landmark. As described with reference to FIG. 3B , the processor 120 may obtain a more accurate degree of correspondence by multiplying the summed probabilities for each landmark to calculate the degree of correspondence.

프로세서(120)의 동작 610 및 동작 620은, 아래 [수학식 3]과 같이 표현될 수 있다. 아래 [수학식 3]은 전술한 [수학식 1] 및 [수학식 2]에 기초하여 고정밀 지도의 3차원 특징점 정보를 2차원 확률 맵으로 투영한 경우의 대응도 계산 방법일 수 있다.Operations 610 and 620 of the processor 120 may be expressed as [Equation 3] below. [Equation 3] below may be a method of calculating correspondence when 3D feature point information of a high-precision map is projected onto a 2D probability map based on [Equation 1] and [Equation 2] described above.

Figure pat00012
Figure pat00012

Figure pat00013
는 전술한 [수학식 2]에서 2차원 확률 맵으로 투영된 고정밀 지도 데이터의 3차원 특징점 정보일 수 있다. 2차원 확률 맵의 모든 좌표에는 대응하는 확률이 존재하고,
Figure pat00014
는 2차원 확률 맵의 좌표에 대응하는 확률일 수 있다. 일례로,
Figure pat00015
는 Gaussian Blur filter일 수 있다.
Figure pat00016
은 특징점에 대한 인덱스(index)일 수 있다.
Figure pat00017
는 랜드마크에 대한 인덱스일 수 있다.
Figure pat00013
may be 3D feature point information of the high-precision map data projected onto the 2D probability map in [Equation 2] above. All coordinates of the two-dimensional probability map have corresponding probabilities,
Figure pat00014
may be a probability corresponding to the coordinates of a 2-dimensional probability map. For example,
Figure pat00015
may be a Gaussian Blur filter.
Figure pat00016
may be an index for a feature point.
Figure pat00017
may be an index for a landmark.

[수학식 3]을 참조하면, 동작 610에서 프로세서(120)는 랜드마크

Figure pat00018
에 대응하는 모든 특징점들, [수학식 3] 상에서는 인덱스 넘버 m부터 M 까지의 특징점들에 대응하는 확률들을 합산(∑)할 수 있다. 전술한 도 3b를 참조하면, 부재번호 340 및 부재번호 360 각각이 랜드마크 하나에 대한 대응하는 특징점들이 도시된 예일 수 있다. Referring to [Equation 3], in operation 610, the processor 120 determines the landmark
Figure pat00018
Probabilities corresponding to all feature points corresponding to , and feature points from index numbers m to M in [Equation 3] can be summed (∑). Referring to FIG. 3B described above, each of reference number 340 and reference number 360 may be an example in which feature points corresponding to one landmark are shown.

다시 [수학식 3]을 참조하면, 동작 620에서 프로세서(120)는 랜드마크 i부터 I까지의 합산된 확률들을 곱(∏)할 수 있다. 도 3b를 참조하여 전술한 바와 같이, 랜드마크 별로 구분하여 대응도를 계산함으로써 대응도의 유일성이 증대될 수 있다.Referring back to [Equation 3], in operation 620, the processor 120 may multiply (∏) the summed probabilities from landmark i to I. As described above with reference to FIG. 3B, the uniqueness of the degree of correspondence can be increased by dividing the degree of correspondence according to each landmark and calculating the degree of correspondence.

일 실시 예에 따르면, 프로세서(120)는 동작 610 내지 동작 620을 수행함으로써 차원이 다른 특징점 간 대응도(또는, likelihood)를 계산할 수 있다.According to an embodiment, the processor 120 may calculate a degree of correspondence (or likelihood) between feature points of different dimensions by performing operations 610 to 620.

도 7은 일 실시예에 따른 파티클 필터 기반의 이동체 위치 추정 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating a method for estimating a location of a moving object based on a particle filter according to an exemplary embodiment.

동작 710 내지 동작 760은 도 2를 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간명한 설명을 위해 도 1 내지 도 6을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.Operations 710 to 760 may be performed by the processor 120 of the electronic device 101 described above with reference to FIG. 2 , and contents overlapping those described with reference to FIGS. 1 to 6 for concise description are may be omitted.

동작 710 내지 동작 760은, 전자 장치(101)의 프로세서(120)가 파티클 필터에 기초하여 이동체의 위치를 추정하는 방법에 대응될 수 있다. 동작 710 내지 동작 760은 도 5를 참조하여 전술한 동작들과 관련하여, 파티클 필터에 기초한 구체적인 동작일 수 있다.Operations 710 to 760 may correspond to a method in which the processor 120 of the electronic device 101 estimates the position of the moving object based on the particle filter. Operations 710 to 760 may be specific operations based on a particle filter in relation to the operations described above with reference to FIG. 5 .

'파티클'은 디지털 실내 지도에 소프트웨어적으로 배치되는 것으로서, 하나 이상의 속성을 가진다. 각각의 파티클은 적어도' 방향' 및 '위치' 두개의 속성을 가지는 것이 바람직하다. 각각의 파티클은, 이동체의 상대적 이동을 반영하여 이동되고, 이동 이후에 디지털 실내 지도 상에서 이동 불가능한 위치에 있게 되면 삭제된다. 또한, 파티클 이동의 결과 파티클의 전체 개수가 기준치 미만으로 떨어지면, 기존의 파티클과 위치를 제외하고는 동일한 속성을 갖는 신규 파티클이 재생성 된다. 파티클에 기초한 위치 추정 방법은 크게 파티클을 후보 위치에 배치시키는 과정, 각 파티클마다 대응도(likelihood)를 계산하는 과정 및 계산된 대응도에 기초하여 파티클의 분포를 재배치(resampling)하는 과정을 포함할 수 있다. '파티클 필터링'을 이용한 위치 측정 방법은 널리 알려져 있으므로, 파티클 필터의 구체적인 동작에 대해서는 생략한다. A 'particle' is software-wisely placed on a digital indoor map, and has one or more properties. Each particle preferably has at least two properties, 'direction' and 'position'. Each particle is moved by reflecting the relative movement of the moving object, and is deleted if it is in a position where it cannot be moved on the digital indoor map after the movement. In addition, as a result of particle movement, when the total number of particles falls below the reference value, new particles having the same properties as the existing particles except for their positions are regenerated. The method for estimating a position based on particles may largely include a process of arranging particles at candidate positions, a process of calculating a likelihood for each particle, and a process of resampling the distribution of particles based on the calculated likelihood. can Since the location measurement method using 'particle filtering' is widely known, detailed operation of the particle filter will be omitted.

동작 710 및 동작 720은 도 5를 참조하여 설명한 동작 510 및 동작 520에 각각 대응되며, 도 5를 참조하여 설명한 바와 중복되므로 설명을 생략한다.Operations 710 and 720 respectively correspond to operations 510 and 520 described with reference to FIG. 5 , and since they overlap with those described with reference to FIG. 5 , descriptions thereof are omitted.

일 실시 예에 따르면 동작 730에서 프로세서(120)는 이동체의 후보 위치들에 대응하는 복수의 파티클 위치들을 예측(predict)할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 이전 시점에서 재배치된 파티클 위치 정보와, 이전 시점에서 현재까지 이동체의 이동 변위에 기초하여 현재 이동체의 후보 위치들에 대응하는 복수의 파티클 위치들을 예측할 수 있다. 이전 시점에서 현재까지 이동체의 이동 변위는 예를 들어 바퀴 속도 정보에 기초하여 획득될 수 있다.According to an embodiment, in operation 730, the processor 120 may predict positions of a plurality of particles corresponding to candidate positions of the moving object. According to an embodiment, the processor 120 may predict a plurality of particle positions corresponding to candidate positions of the current moving object based on particle position information relocated from a previous time point and movement displacement of the moving object from the previous time point to the present. . The movement displacement of the moving object from the previous point in time to the present may be obtained based on, for example, wheel speed information.

일 실시 예에 따르면 동작 740에서 프로세서(120)는 복수의 파티클 위치 각각에 대해, 3차원 특징점 정보를 2차원 확률 맵으로 투영할 수 있다. 즉 예측한 파티클 위치 각각에 대해 대응하는 하나의 2차원 확률 맵 및 해당 2차원 확률 맵에 투영된 고정밀 지도의 3차원 특징점이 존재할 수 있다. 일례로, 도 4a는 임의의 한 파티클 위치에 대응하는 2차원 확률 맵 및 투영된 3차원 특징점이고, 도 4b는 임의의 다른 파티클 위치에 대응하는 2차원 확률 맵 및 투영된 3차원 특징점일 수 있다. 프로세서(120)가 동작 740에서 3차원 특징점 정보를 2차원 확률 맵에 투영하는 방법은 도 2, [수학식 1], [수학식 2] 및 도 5의 동작 530을 참조하여 설명한 바와 중복되므로 생략한다. According to an embodiment, in operation 740, the processor 120 may project 3D feature point information onto a 2D probability map for each of a plurality of particle positions. That is, there may be one 2D probability map corresponding to each predicted particle position and a 3D feature point of a high-precision map projected on the 2D probability map. As an example, FIG. 4A is a 2D probability map and projected 3D feature points corresponding to an arbitrary particle position, and FIG. 4B may be a 2D probability map and projected 3D feature points corresponding to another arbitrary particle position. . The method for the processor 120 to project the 3D feature point information onto the 2D probability map in operation 740 is omitted because it overlaps with those described with reference to FIG. 2, [Equation 1], [Equation 2], and operation 530 of FIG. do.

일 실시 예에 따르면 동작 750에서 프로세서(120)는 복수의 파티클 위치 각각에 대해, 확률 맵에 투영된 3차원 특징점 정보와, 확률 맵의 2차원 특징점 정보 사이의 대응도를 계산할 수 있다. 동작 750은 도 3a, 도 3b, 도 5의 동작 760 및 [수학식 3]을 참조하여 설명한 바와 중복되므로 생략한다.According to an embodiment, in operation 750, the processor 120 may calculate a degree of correspondence between 3D feature point information projected on the probability map and 2D feature point information of the probability map, for each of a plurality of particle positions. Operation 750 is omitted because it overlaps with operations 760 of FIGS. 3A, 3B, and 5 and those described with reference to [Equation 3].

일 실시 예에 따르면 동작 760에서 프로세서(120)는 대응도에 기초하여 복수의 파티클 위치들을 재배치하여 이동체의 위치를 추정할 수 있다. 파티클 필터에 기초하여 이동체의 위치를 추정하는 구체적인 동작은 도 8을 참조하여 상세히 설명한다.According to an embodiment, in operation 760, the processor 120 may estimate the position of the moving object by rearranging the plurality of particle positions based on the degree of correspondence. A specific operation of estimating the position of a moving object based on the particle filter will be described in detail with reference to FIG. 8 .

도 8은 일 실시 예에 따른 대응도에 기초하여 이동체의 위치를 추정하는 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a method of estimating a position of a moving object based on a correspondence diagram according to an exemplary embodiment.

동작 810 내지 동작 830은 도 2를 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간명한 설명을 위해 도 1 내지 도 7을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다. Operations 810 to 830 may be performed by the processor 120 of the electronic device 101 described above with reference to FIG. 2 , and contents overlapping those described with reference to FIGS. 1 to 7 for concise description are may be omitted.

일 실시 예에 따르면, 동작 810 내지 동작 840은 도 7을 참조하여 설명한 파티클 필터에 기초하여 이동체의 위치를 추정하는 동작(예: 도 7의 동작 760)에 대응될 수 있다.According to an embodiment, operations 810 to 840 may correspond to an operation of estimating a position of a moving object based on the particle filter described with reference to FIG. 7 (eg, operation 760 of FIG. 7 ).

일 실시 예에 따르면 동작 810에서, 프로세서(120)는 대응도에 따라 파티클 위치 각각에 대해 가중치를 설정할 수 있다. 일례로, 이동체의 2개의 후보 위치들에 대응하는 2개의 파티클 위치에 대해, 각각 도 4a 및 도 4b와 같이 2차원 확률 맵 및 투영된 3차원 특징점이 획득될 수 있다. 프로세서(120)는 대응도가 낮은 도 4a의 경우, 대응하는 파티클에 대해 가중치를 낮게 설정하고, 대응도가 높은 도 4b의 경우 대응하는 파티클에 대해 가중치를 높게 설정할 수 있다.According to an embodiment, in operation 810, the processor 120 may set a weight for each particle position according to the degree of correspondence. For example, for two particle positions corresponding to two candidate positions of the moving object, a 2D probability map and a projected 3D feature point may be obtained as shown in FIGS. 4A and 4B, respectively. The processor 120 may set a low weight for the corresponding particle in the case of FIG. 4A having a low degree of correspondence, and set a high weight for the corresponding particle in the case of FIG. 4B having a high degree of correspondence.

일 실시 예에 따르면 동작 820에서, 프로세서(120)는 가중치에 따라 복수의 파티클 위치들을 재배치(resampling)할 수 있다. 예측한 복수의 파티클 위치 중 도 4b에 대응하는 파티클 위치에 대해 높은 가중치가 설정되었으므로, 도 4b에 대응하는 위치로 보다 많은 파티클들이 배치될 수 있다.According to an embodiment, in operation 820, the processor 120 may resample a plurality of particle positions according to weights. Since a high weight is set for a particle position corresponding to FIG. 4B among a plurality of predicted particle positions, more particles may be disposed at a position corresponding to FIG. 4B.

일 실시 예에 따르면 동작 830에서, 프로세서(120)는 재배치된 파티클들의 평균값을 계산하여 이동체의 위치를 추정할 수 있다. 일례로, 프로세서(120)는 Maximum a posterior(MAP)에 기초하여 이동체의 위치를 추정할 수 있다.According to an embodiment, in operation 830, the processor 120 may estimate the position of the moving object by calculating an average value of the rearranged particles. For example, the processor 120 may estimate the position of the moving object based on maximum a posterior (MAP).

도 9는 일 실시 예에 따른 이동체 위치 추정 시스템을 설명하기 위한 도면이다.9 is a diagram for explaining a system for estimating a position of a moving object according to an exemplary embodiment.

도 9를 참조하면, 확장 칼만 필터(990)에 기초한 합성부(fusion part)(902)와 파티클 필터(980)에 기초한 맵 매칭부(map matching part)(901)로 구성된 이동체 위치 추정 시스템(900)이 도시된다.Referring to FIG. 9, a moving object position estimation system 900 composed of a fusion part 902 based on an extended Kalman filter 990 and a map matching part 901 based on a particle filter 980. ) is shown.

자율주행 자동차의 월드 도메인 상 위치를 추정하는 위치 추정 방법에는 GPS와 INS(Inertial Navigation System, 930)의 융합을 활용하는 방법이 있으나, GPS는 고층 건물 등으로 인한 다중 경로 수신, 신호 차단 등으로 인해 복잡한 도시 환경에서 정확도를 보장할 수 없다. 이동체 위치 추정 시스템(900)에서는 GPS 의존성을 제거하기 위해 IMU(Inertial Measurement Unit, 920)와 Wheel odometry(910), 고정밀 지도(940) 등을 융합하여 새로운 위치 추정 방법을 제안한다.There is a method of utilizing the convergence of GPS and INS (Inertial Navigation System, 930) as a location estimation method for estimating the location of an autonomous vehicle in the world domain. Accuracy cannot be guaranteed in complex urban environments. In order to eliminate GPS dependence, the mobile position estimation system 900 proposes a new position estimation method by converging an Inertial Measurement Unit (IMU) 920, a wheel odometry 910, and a high-precision map 940.

합성부(902)의 확장 칼만 필터(EKF: Extended Kalman Filter)(990)는 비선형(non-linear) 관계에 있는 서로 다른 센서들을 융합하는데 일반적으로 사용되는 필터로, 확장 칼만 필터(990)의 사용을 위해서는 시스템 모델과 측정 모델이 정의되어야 한다. 이동체의 위치 추정 시스템(900)에서, Wheel odometry(910), IMU(920) 및 위치 정보에 기초하여 시스템 모델 및 측정 모델이 정의될 수 있다. 시스템 모델은 수학적 모델에 기초하여 상태 변수(state variable) 및 공분산(covariance)을 예측하고, 예측된 상태 변수 및 공분산은 측정값과 예측된 측정값의 차이에 의해 보정(compensate)된다.An Extended Kalman Filter (EKF) 990 of the synthesis unit 902 is a filter generally used to fuse different sensors in a non-linear relationship, and the use of the Extended Kalman Filter 990 For this, a system model and a measurement model must be defined. In the moving object position estimation system 900, a system model and a measurement model may be defined based on the wheel odometry 910, the IMU 920, and position information. The system model predicts a state variable and covariance based on the mathematical model, and the predicted state variable and covariance are compensated by the difference between the measured value and the predicted measured value.

다만 확률 맵의 경우, 측정값과 예측된 측정값의 차이를 계산하기 모호할 수 있다. 도 1 내지 도 8을 참조하여 전술한 바와 같이, 전자 장치(101)의 프로세서(120)가 예측값과 측정값 사이의 대응도(likelihood)를 계산함으로써 확률 맵에서의 측정값과 예측된 측정값의 차이가 계산될 수 있다. However, in the case of a probability map, it may be ambiguous to calculate the difference between the measured value and the predicted measured value. As described above with reference to FIGS. 1 to 8 , the processor 120 of the electronic device 101 calculates the likelihood between the predicted value and the measured value, thereby determining the relationship between the measured value and the predicted measured value in the probability map. difference can be calculated.

도 1a 내지 도 1c를 참조하여 전술한 바와 같이, 이동체 위치 추정에 확장 칼만 필터(EKF: Extended Kalman Fileter)를 사용하는 경우, 이전 위치 정보에 기초하여 예측한 위치 정보와, 센서로 측정한 위치 정보 사이의 오차에 대한 정보가 필요할 수 있고, 오차를 계산하기 위해 두 정보 간 유사한 정도(likelihood, 이하, 대응도)를 계산해야 할 수 있다. 일례로, 도 1b의 특징점 정보(121)는 센서로 측정한 위치 정보에 대응될 수 있고, 도 1c의 특징점 정보(131)는 예측한 위치 정보에 대응될 수 있다.As described above with reference to FIGS. 1A to 1C , when an Extended Kalman Filter (EKF) is used for position estimation of a moving object, position information predicted based on previous position information and position information measured by a sensor Information on an error between the two information may be required, and a similarity (likelihood, hereinafter referred to as correspondence) between two pieces of information may need to be calculated in order to calculate the error. For example, the feature point information 121 of FIG. 1B may correspond to location information measured by a sensor, and the feature point information 131 of FIG. 1C may correspond to predicted location information.

도 1 내지 도 8을 참조하여 설명한 전자 장치(101)의 동작은, 이동체 위치 추정 시스템(900)에서 맵 매칭부(901)의 동작에 대응될 수 있다. 맵 매칭부(901)에서, 카메라(960)로부터 획득한 주변 영상에 대해 DNN 기반 시맨틱 세그멘테이션(970)이 수행되는 동작은 프로세서(120)가 촬영 장치(230)로부터 획득한 주변 영상으로부터 랜드마크 기반 확률 맵 형태의 2차원 특징점 정보를 획득하는 동작(예: 도 5의 동작 510 및 도 7의 동작 710)에 대응할 수 있다. 맵 매칭부(901)에서, 고정밀 지도(940)로부터 이동체 주변의 랜드마크를 추출하는 동작(950)은 프로세서(120)가 고정밀 지도 데이터베이스(210)로부터 이동체 주변의 고정밀 지도 데이터를 수신하고, 로컬 도메인으로 변환하는 동작(예: 도 5의 동작 520 및 도 7의 동작 720)에 대응할 수 있다. 맵 매칭부(901)에서, 파티클 필터(980)의 동작은 프로세서(120)가 파티클에 기초하여 고정밀 지도의 특징점과 확률 맵의 특징점 사이의 대응도를 계산하고 이동체의 위치를 추정하는 동작(예: 도 7의 동작 730 내지 동작 760)에 대응할 수 있다.The operation of the electronic device 101 described with reference to FIGS. 1 to 8 may correspond to the operation of the map matching unit 901 in the moving object position estimation system 900 . In the map matching unit 901, an operation in which the DNN-based semantic segmentation 970 is performed on the surrounding image acquired from the camera 960 is based on landmarks from the surrounding image acquired by the processor 120 from the photographing device 230. It may correspond to an operation of obtaining 2D feature point information in the form of a probability map (eg, operation 510 of FIG. 5 and operation 710 of FIG. 7 ). In the operation 950 of extracting landmarks around the moving object from the high-precision map 940 in the map matching unit 901, the processor 120 receives high-precision map data around the moving object from the high-precision map database 210, and local It may correspond to an operation of converting to a domain (eg, operation 520 of FIG. 5 and operation 720 of FIG. 7 ). In the map matching unit 901, the operation of the particle filter 980 is an operation in which the processor 120 calculates the degree of correspondence between the feature points of the high-precision map and the feature points of the probability map based on the particles and estimates the position of the moving object (eg : This may correspond to operations 730 to 760 of FIG. 7 ).

도 10은 일 실시 예에 따른 전자 장치를 탑재한 차량을 도시한다.10 illustrates a vehicle equipped with an electronic device according to an exemplary embodiment.

도 10을 참조하면, 도 1 내지 도 9를 참조하여 설명한 전자 장치(101)가 포함되는 차량(1000)이 도시된다. 일 실시 예에 따른 차량(1000)은 운전자로부터의 입력이 거의 없거나 또는 전혀 없는 상황에서도, 인지된 주행 환경에 따라서 자율 모드(autonomous mode)로 주행할 수 있다. 주행 환경은 차량(1000)에 부착 또는 설치된 하나 이상의 센서들을 통해 인지될 수 있다. 예를 들어, 하나 이상의 센서들은 카메라, 라이다(LIDAR), 레이더(RADAR) 및 음성 인식 센서들을 포함할 수 있고, 기재된 예들로 제한되는 것은 아니다. 주행 환경은 도로, 도로의 상태, 차선의 종류, 주변 차량의 유무, 근접한 차량과의 거리, 날씨, 장애물의 유무 등을 포함할 수 있고, 기재된 예들로 제한되는 것은 아니다.Referring to FIG. 10 , a vehicle 1000 including the electronic device 101 described with reference to FIGS. 1 to 9 is shown. The vehicle 1000 according to an embodiment may drive in an autonomous mode according to a recognized driving environment even when there is little or no input from a driver. The driving environment may be recognized through one or more sensors attached or installed in the vehicle 1000 . For example, one or more sensors may include, but are not limited to, camera, LIDAR, RADAR and voice recognition sensors. The driving environment may include roads, road conditions, lane types, presence or absence of surrounding vehicles, distance from adjacent vehicles, weather, presence or absence of obstacles, and the like, but is not limited to the described examples.

차량(1000)은 주행 환경을 인식하고, 주행 환경에 적합한 자율 주행 경로를 생성한다. 자율 주행 경로를 따라가도록 자율 주행 차량은 내외부의 기계적인 요소들을 제어한다. 차량(1000)은 자율 주행 경로를 주기적으로 생성할 수 있다.The vehicle 1000 recognizes the driving environment and creates an autonomous driving route suitable for the driving environment. Self-driving vehicles control internal and external mechanical elements to follow the self-driving path. The vehicle 1000 may periodically generate an autonomous driving route.

다른 일 측면에 따른, 차량(1000)은 어드밴스드 운전자 지원 시스템(ADAS)을 이용하여 운전자의 운전을 보조할 수 있다. ADAS는 충돌 위험시 운전자가 제동장치를 밟지 않아도 스스로 속도를 줄이거나 멈추는 자동 긴급제동 시스템(Autonomous Emergency Braking: AEB), 차선 이탈 시 주행 방향을 조절해 차선을 유지하는 주행 조향보조 시스템(Lane Keep Assist System: LKAS), 사전에 정해 놓은 속도로 달리면서도 앞차와 간격을 알아서 유지하는 어드밴스드 스마트 크루즈 컨트롤(Advanced Smart Cruise Control: ASCC), 사각지대 충돌 위험을 감지해 안전한 차로 변경을 돕는 후측방 충돌 회피 지원 시스템(Active Blind Spot Detection: ABSD), 차량 주변 상황을 시각적으로 보여주는 어라운드 뷰 모니터링 시스템(Around View Monitor: AVM) 등을 포함한다.According to another aspect, the vehicle 1000 may assist a driver's driving by using an advanced driver assistance system (ADAS). ADAS includes the Autonomous Emergency Braking (AEB) system, which reduces or stops the speed on its own without the driver stepping on the brakes when there is a risk of collision, and the Lane Keep Assist system, which maintains the lane by adjusting the driving direction when the driver leaves the lane. System: LKAS), Advanced Smart Cruise Control (ASCC), which automatically maintains a distance from the vehicle in front while running at a pre-set speed, Blind-Spot Collision Avoidance Assistance that detects the risk of collision in a blind spot and helps to change lanes safely system (Active Blind Spot Detection: ABSD), and the Around View Monitoring System (AVM) that visually displays the situation around the vehicle.

차량(1000)에 포함된 전자 장치(101)는 차량(1000)의 기계적 장치를 제어하여, 자율 주행하거나 운전자의 운전을 보조할 수 있고, 기재된 실시예 이외의 ECU 및 다양한 종류의 컨트롤러나 센서 등에 사용될 수 있다. The electronic device 101 included in the vehicle 1000 controls mechanical devices of the vehicle 1000 to autonomously drive or assist a driver's driving, and may include ECUs other than the described embodiments, various types of controllers or sensors, etc. can be used

일 실시 예에 따르면, 도 1 내지 도 9를 참조하여 설명한 전자 장치(101)가 자율주행 차량 또는 어드밴스드 운전자 지원 시스템을 지원하는 차량(1000)에 포함될 수 있고, 전자 장치(101)는 차량(1000)의 위치 추정을 수행할 수 있다.According to an embodiment, the electronic device 101 described with reference to FIGS. 1 to 9 may be included in an autonomous vehicle or a vehicle 1000 supporting an advanced driver assistance system, and the electronic device 101 may be included in the vehicle 1000 ) position estimation can be performed.

이상에서 설명된 실시예들에서, 메모리(130)는 상술한 프로세서(120)의 처리 과정에서 생성되는 다양한 정보들을 저장할 수 있다. 이 밖에도, 메모리(130)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(130)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(720)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다.In the above-described embodiments, the memory 130 may store various pieces of information generated in the process of the processor 120 described above. In addition, the memory 130 may store various data and programs. The memory 130 may include volatile memory or non-volatile memory. The memory 720 may include a mass storage medium such as a hard disk to store various types of data.

프로세서(120)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 분류 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(Central Processing Unit; CPU), 그래픽 처리 장치(Graphic Processing Unit; GPU), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array), NPU(Neural Processing Unit) 등을 포함할 수 있다.The processor 120 may be a hardware-implemented device having a circuit having a physical structure for executing desired operations. For example, desired operations may include codes or instructions included in a program. For example, classification units implemented in hardware include a microprocessor, a central processing unit (CPU), a graphics processing unit (GPU), a processor core, and a multi-core processor. (multi-core processor), multiprocessor, ASIC (Application-Specific Integrated Circuit), FPGA (Field Programmable Gate Array), NPU (Neural Processing Unit), and the like.

프로세서(120)는 프로그램을 실행하고, 전자 장치를 제어할 수 있다. 프로세서에 의하여 실행되는 프로그램 코드는 메모리에 저장될 수 있다.The processor 120 may execute a program and control an electronic device. Program codes executed by the processor may be stored in memory.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination, and the program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in the art of computer software. may be Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware device described above may be configured to operate as one or a plurality of software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques may be performed in an order different from the method described, and/or the components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (20)

전자 장치의 동작 방법에 있어서,
이동체에 탑재된 촬영 장치로 획득한 주변 영상으로부터, 랜드마크(landmark) 기반 확률 맵(probability map) 형태의 2차원 특징점 정보를 획득하는 단계;
상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터, 랜드마크 기반 3차원 특징점 정보를 획득하는 단계;
상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원(dimension)을 다른 하나의 차원으로 변환하는 단계;
상기 주변 영상의 특징점 정보와 상기 고정밀 지도 데이터의 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계; 및
상기 대응도에 기초하여 상기 이동체의 위치를 추정하는 단계
를 포함하는,
전자 장치의 동작 방법.
In the method of operating an electronic device,
obtaining 2D feature point information in the form of a probability map based on landmarks from a surrounding image acquired by a photographing device mounted on a moving object;
obtaining landmark-based 3D feature point information from high definition map data around the moving object;
converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension;
calculating a likelihood between feature point information of the surrounding image and feature point information of the high-precision map data; and
Estimating the position of the moving object based on the degree of correspondence
including,
Methods of operating electronic devices.
제1항에 있어서,
상기 주변 영상의 2차원 특징점 정보는, DNN(deep neural network) 기반의 시맨틱 세그멘테이션(semantic segmentation)에 기초하여 랜드마크에 따라 획득되는,
전자 장치의 동작 방법.
According to claim 1,
The 2D feature point information of the surrounding image is obtained according to a landmark based on deep neural network (DNN)-based semantic segmentation.
Methods of operating electronic devices.
제1항에 있어서,
상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터 상기 3차원 특징점 정보를 획득하는 단계는,
상기 이동체의 위치 정보에 기초하여 고정밀 지도 데이터베이스로부터 상기 이동체 주변의 랜드마크에 대한 월드(world) 도메인 상의 3차원 특징점 정보를 수신하는 단계; 및
상기 월드 도메인 상의 3차원 특징점 정보를 상기 촬영 장치에 대한 로컬 도메인으로 변환하는 단계
를 포함하는,
전자 장치의 동작 방법.
According to claim 1,
Obtaining the 3D feature point information from high definition map data around the moving object,
receiving 3D feature point information on a world domain for landmarks around the moving object from a high-precision map database based on location information of the moving object; and
converting 3D feature point information on the world domain into a local domain for the photographing device;
including,
Methods of operating electronic devices.
제1항에 있어서,
상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원을 다른 하나의 차원으로 변환하는 단계는,
역원근 변환법(inverse perspective mapping)에 기초하여, 상기 주변 영상의 2차원 특징점 정보를 3차원 확률 맵 형태로 변환하는 단계
를 포함하는,
전자 장치의 동작 방법.
According to claim 1,
The step of converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension,
Converting 2D feature point information of the surrounding image into a 3D probability map form based on inverse perspective mapping
including,
Methods of operating electronic devices.
제1항에 있어서,
상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원을 다른 하나의 차원으로 변환하는 단계는,
원근 변환법(perspective mapping)에 기초하여, 상기 고정밀 지도 데이터의 3차원 특징점 정보를 상기 주변 영상에서 획득한 2차원의 확률 맵으로 투영(project)하는 단계
를 포함하는,
전자 장치의 동작 방법.
According to claim 1,
The step of converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension,
Projecting the 3D feature point information of the high-precision map data into a 2D probability map obtained from the surrounding image based on perspective mapping
including,
Methods of operating electronic devices.
제1항에 있어서,
상기 주변 영상의 특징점 정보와 상기 고정밀 지도 데이터의 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계는,
상기 주변 영상에서 획득한 확률 맵에서, 상기 고정밀 지도 데이터의 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하는 단계; 및
상기 각 랜드마크에 대응하여 합산된 확률들을 곱해 상기 대응도를 계산하는 단계
를 포함하는,
전자 장치의 동작 방법.
According to claim 1,
The step of calculating the likelihood between the feature point information of the surrounding image and the feature point information of the high-precision map data,
summing probabilities corresponding to each landmark of feature point information of the high-precision map data in a probability map acquired from the surrounding image; and
Calculating the degree of correspondence by multiplying the summed probabilities corresponding to each landmark
including,
Methods of operating electronic devices.
제1항에 있어서,
상기 대응도에 기초하여 상기 이동체의 위치를 추정하는 단계는,
상기 대응도에 기초하여, 파티클 필터(particle filter) 또는 ML(maximum likelihood) 최적화 방법에 따른 상기 이동체의 위치 추정 결과를 업데이트하는 단계
를 포함하는,
전자 장치의 동작 방법.
According to claim 1,
The step of estimating the position of the moving object based on the degree of correspondence,
Updating a position estimation result of the moving object according to a particle filter or maximum likelihood (ML) optimization method based on the degree of correspondence
including,
Methods of operating electronic devices.
제1항에 있어서,
상기 이동체는 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량인,
전자 장치의 동작 방법.
According to claim 1,
The mobile body is an autonomous vehicle or a vehicle supporting an advanced driver assistance system (ADAS),
Methods of operating electronic devices.
제1항에 있어서,
상기 랜드마크는, 흰색 차선, 노란색 차선, 횡단보도, 과속 방지턱, 교통 신호등 및 교통 표지판 중 적어도 어느 하나를 포함하는,
전자 장치의 동작 방법.
According to claim 1,
The landmark includes at least one of a white lane, a yellow lane, a crosswalk, a speed bump, a traffic light, and a traffic sign.
Methods of operating electronic devices.
파티클 필터(particle filter) 기반의 이동체의 위치 추정 방법에 있어서,
이동체에 탑재된 촬영 장치로 획득한 주변 영상으로부터, 랜드마크(landmark) 기반 확률 맵(probability map) 형태의 2차원 특징점 정보를 획득하는 단계;
상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터, 랜드마크 기반 3차원 특징점 정보를 획득하는 단계;
상기 이동체의 후보 위치들에 대응하는 복수의 파티클(particle) 위치들을 예측하는 단계;
상기 복수의 파티클 위치 각각에 대해, 상기 3차원 특징점 정보를 상기 주변 영상에서 획득한 확률 맵으로 투영(project)하는 단계;
상기 복수의 파티클 위치 각각에 대해, 상기 확률 맵에 투영된 상기 3차원 특징점 정보와, 상기 확률 맵의 2차원 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계; 및
상기 대응도에 기초해 상기 복수의 파티클 위치들을 재배치하여 상기 이동체의 위치를 추정하는 단계
를 포함하는,
이동체의 위치 추정 방법.
In the method for estimating the position of a moving object based on a particle filter,
obtaining 2D feature point information in the form of a probability map based on landmarks from a surrounding image acquired by a photographing device mounted on a moving object;
obtaining landmark-based 3D feature point information from high definition map data around the moving object;
predicting a plurality of particle positions corresponding to candidate positions of the moving object;
Projecting the 3D feature point information onto a probability map obtained from the surrounding image for each of the plurality of particle positions;
calculating a likelihood between the 3D feature point information projected on the probability map and the 2D feature point information of the probability map, for each of the plurality of particle positions; and
Estimating the position of the moving object by rearranging the positions of the plurality of particles based on the degree of correspondence.
including,
A method for estimating the position of a moving object.
제10항에 있어서,
상기 2차원 특징점 정보는, DNN(deep neural network) 기반의 시맨틱 세그멘테이션(semantic segmentation)에 기초하여 랜드마크에 따라 획득되는,
이동체의 위치 추정 방법.
According to claim 10,
The two-dimensional feature point information is obtained according to a landmark based on semantic segmentation based on a deep neural network (DNN).
A method for estimating the position of a moving object.
제10항에 있어서,
상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터 상기 3차원 특징점 정보를 획득하는 단계는,
상기 이동체의 위치 정보에 기초하여 고정밀 지도 데이터베이스로부터 상기 이동체 주변의 랜드마크에 대한 월드(world) 도메인 상의 3차원 특징점 정보를 수신하는 단계; 및
상기 월드 도메인 상의 3차원 특징점 정보를 상기 촬영 장치에 대한 로컬 도메인으로 변환하는 단계
를 포함하는,
이동체의 위치 추정 방법.
According to claim 10,
Obtaining the 3D feature point information from high definition map data around the moving object,
receiving 3D feature point information on a world domain for landmarks around the moving object from a high-precision map database based on location information of the moving object; and
converting 3D feature point information on the world domain into a local domain for the photographing device;
including,
A method for estimating the position of a moving object.
제10항에 있어서,
상기 복수의 파티클 위치들을 예측하는 단계는,
이전 시점에서 재배치된 파티클 위치 정보 및 상기 이전 시점부터의 상기 이동체의 이동 변위에 기초하여 상기 복수의 파티클 위치들을 예측하는 단계
를 포함하는,
이동체의 위치 추정 방법.
According to claim 10,
The step of predicting the plurality of particle positions,
Predicting the plurality of particle positions based on particle position information relocated from a previous viewpoint and movement displacement of the moving object from the previous viewpoint.
including,
A method for estimating the position of a moving object.
제10항에 있어서,
상기 3차원 특징점 정보는, 원근 변환법(perspective mapping)에 기초하여 상기 주변 영상에서 획득한 2차원의 확률 맵으로 투영(project)되는,
이동체의 위치 추정 방법.
According to claim 10,
The 3D feature point information is projected into a 2D probability map obtained from the surrounding image based on perspective mapping.
A method for estimating the position of a moving object.
제10항에 있어서,
상기 확률 맵에 투영된 3차원 특징점 정보와, 상기 확률 맵의 2차원 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계는,
상기 확률 맵에서, 상기 투영된 3차원 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하는 단계; 및
상기 각 랜드마크에 대응하여 합산된 확률들을 곱하는 단계
를 포함하는,
이동체의 위치 추정 방법.
According to claim 10,
Calculating a likelihood between the 3D feature point information projected on the probability map and the 2D feature point information of the probability map,
summing probabilities corresponding to each landmark of the projected 3D feature point information in the probability map; and
Multiplying the summed probabilities corresponding to each landmark
including,
A method for estimating the position of a moving object.
제1항에 있어서,
상기 대응도에 기초해 상기 복수의 파티클 위치들을 재배치하여 상기 이동체의 위치를 추정하는 단계는,
상기 대응도에 따라 상기 복수의 파티클 위치들 각각에 대해 가중치(weight)를 설정하는 단계;
상기 가중치에 따라 상기 복수의 파티클 위치들을 재배치하는 단계; 및
상기 재배치된 파티클의 평균값을 계산하여 상기 이동체의 위치를 추정하는 단계
를 포함하는,
이동체의 위치 추정 방법.
According to claim 1,
The step of estimating the position of the moving object by rearranging the positions of the plurality of particles based on the degree of correspondence,
setting a weight for each of the plurality of particle positions according to the degree of correspondence;
rearranging the plurality of particle positions according to the weight; and
Estimating the position of the moving object by calculating an average value of the rearranged particles
including,
A method for estimating the position of a moving object.
제10항에 있어서,
상기 이동체는 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량인,
이동체의 위치 추정 방법.
According to claim 10,
The mobile body is an autonomous vehicle or a vehicle supporting an advanced driver assistance system (ADAS),
A method for estimating the position of a moving object.
하드웨어와 결합되어 제1항 내지 제17항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a medium to execute the method of any one of claims 1 to 17 in combination with hardware.
전자 장치에 있어서,
이동체 주변의 고정밀 지도(High Definition Map) 데이터 및 상기 이동체에 탑재된 촬영 장치로 획득한 주변 영상을 수신하는 통신 모듈;
컴퓨터로 실행 가능한 명령어들(computer-executable instructions)이 저장된 메모리; 및
상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 프로세서
를 포함하고,
상기 명령어들은,
상기 주변 영상으로부터, 랜드마크(landmark) 기반 확률 맵(probability map) 형태의 2차원 특징점 정보를 획득하고,
상기 고정밀 지도 데이터로부터, 랜드마크 기반 3차원 특징점 정보를 획득하고,
상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원(dimension)을 다른 하나의 차원으로 변환하고,
상기 주변 영상의 특징점 정보와 상기 고정밀 지도 데이터의 특징점 정보 사이의 대응도(likelihood)를 계산하고,
상기 대응도에 기초하여 상기 이동체의 위치를 추정
하도록 구성되는,
전자 장치.
In electronic devices,
A communication module for receiving high-definition map data around the moving object and surrounding images acquired by a photographing device mounted on the moving object;
a memory in which computer-executable instructions are stored; and
A processor that accesses the memory and executes the instructions
including,
These commands are
Obtaining 2D feature point information in the form of a landmark-based probability map from the surrounding image;
Obtaining landmark-based 3D feature point information from the high-precision map data,
converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension;
Calculate a likelihood between feature point information of the surrounding image and feature point information of the high-precision map data;
Estimating the position of the moving object based on the degree of correspondence
configured to
electronic device.
제19항에 있어서,
상기 명령어들은,
상기 주변 영상에서 획득한 확률 맵에서, 상기 고정밀 지도 데이터의 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하고,
상기 각 랜드마크에 대응하여 합산된 확률들을 곱해 상기 대응도를 계산
하도록 구성되는,
전자 장치.
According to claim 19,
These commands are
Summing probabilities corresponding to each landmark of the feature point information of the high-precision map data in the probability map obtained from the surrounding image;
Calculate the degree of correspondence by multiplying the summed probabilities corresponding to each landmark
configured to
electronic device.
KR1020210152830A 2021-09-10 2021-11-09 Method and apparatus for estimating position of a moving object KR20230038067A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/864,943 US20230136492A1 (en) 2021-09-10 2022-07-14 Method and apparatus for estimating position of moving object
CN202210893205.1A CN115797902A (en) 2021-09-10 2022-07-27 Method and electronic device for estimating position of moving object
EP22188561.9A EP4148673A1 (en) 2021-09-10 2022-08-03 Method and apparatus for estimating position of moving object background
JP2022142651A JP2023041035A (en) 2021-09-10 2022-09-08 Method and device for estimating position of mobile body

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210121201 2021-09-10
KR20210121201 2021-09-10

Publications (1)

Publication Number Publication Date
KR20230038067A true KR20230038067A (en) 2023-03-17

Family

ID=85872061

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210152830A KR20230038067A (en) 2021-09-10 2021-11-09 Method and apparatus for estimating position of a moving object

Country Status (1)

Country Link
KR (1) KR20230038067A (en)

Similar Documents

Publication Publication Date Title
CN110186467B (en) Method for controlling autonomous vehicles based on group sensing point cloud map and computer-implemented system
US11042157B2 (en) Lane/object detection and tracking perception system for autonomous vehicles
US11593950B2 (en) System and method for movement detection
CN108961320B (en) Method and system for determining speed of moving object
US10489686B2 (en) Object detection for an autonomous vehicle
US10515321B2 (en) Cost based path planning for autonomous driving vehicles
EP3714290B1 (en) Lidar localization using 3d cnn network for solution inference in autonomous driving vehicles
EP3714285B1 (en) Lidar localization using rnn and lstm for temporal smoothness in autonomous driving vehicles
US11521329B2 (en) Updated point cloud registration pipeline based on ADMM algorithm for autonomous vehicles
US11747808B2 (en) Systems and methods for matching an autonomous vehicle to a rider
CN112740268B (en) Target detection method and device
WO2021217420A1 (en) Lane tracking method and apparatus
US20170359561A1 (en) Disparity mapping for an autonomous vehicle
US11687079B2 (en) Methods, devices, and systems for analyzing motion plans of autonomous vehicles
CN112540593B (en) Method and device for registering a point cloud for an autonomous vehicle
JP2020076745A (en) Method and device for positioning image and map data base
US11237570B2 (en) Methods and systems for configuring vehicle communications
KR20230038067A (en) Method and apparatus for estimating position of a moving object
KR20200084446A (en) Electronic apparatus for self driving of vehicles based on intersection node and thereof control method
JP2023041035A (en) Method and device for estimating position of mobile body
WO2024008086A1 (en) Trajectory prediction method as well as apparatus therefor, medium, program product, and electronic device
CN114407916B (en) Vehicle control and model training method and device, vehicle, equipment and storage medium
WO2021196983A1 (en) Ego-motion estimation method and apparatus
US11620831B2 (en) Register sets of low-level features without data association
US20230316546A1 (en) Camera-radar fusion using correspondences