KR20230038067A - Method and apparatus for estimating position of a moving object - Google Patents
Method and apparatus for estimating position of a moving object Download PDFInfo
- Publication number
- KR20230038067A KR20230038067A KR1020210152830A KR20210152830A KR20230038067A KR 20230038067 A KR20230038067 A KR 20230038067A KR 1020210152830 A KR1020210152830 A KR 1020210152830A KR 20210152830 A KR20210152830 A KR 20210152830A KR 20230038067 A KR20230038067 A KR 20230038067A
- Authority
- KR
- South Korea
- Prior art keywords
- feature point
- point information
- moving object
- landmark
- correspondence
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 75
- 239000002245 particle Substances 0.000 claims description 69
- 238000004891 communication Methods 0.000 claims description 35
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000007476 Maximum Likelihood Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 7
- 238000011426 transformation method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 201000007694 Athabaskan brainstem dysgenesis syndrome Diseases 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 208000020006 human HOXA1 syndromes Diseases 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/0031—Geometric image transformation in the plane of the image for topological mapping of a higher dimensional structure on a lower dimensional surface
-
- G06T3/06—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
Abstract
Description
아래 실시예들은 이동체의 위치를 추정하는 방법 및 장치에 관한 것이다.The following embodiments relate to a method and apparatus for estimating the position of a moving object.
자율주행이란 운전자의 개입 없이 주변 환경을 인식하고, 주행 상황을 판단하여, 차량을 제어함으로써 스스로 주어진 목적지까지 주행하는 것을 말한다. 최근 차량은 물론 모바일 로봇과 같은 소형 모빌리티 장치가 스마트 배송, 경비 등에 사용되면서, 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 이동체에 대한 수요가 증가하고 있다.Autonomous driving refers to driving to a given destination by recognizing the surrounding environment, determining the driving situation, and controlling the vehicle without the intervention of the driver. Recently, as small mobility devices such as vehicles as well as mobile robots are used for smart delivery and security, the demand for autonomous vehicles or mobile bodies supporting advanced driver assistance systems (ADAS) is increasing.
자율주행에서 핵심적인 요소는 자신의 위치를 추정하는 것이며, 위치를 추정하는 방법에는 다양한 기술이 사용될 수 있다. 예를 들어, LiDAR나 카메라와 같은 장치를 사용하여 사전에 지도를 작성하고 주행 시에 측정되는 센서데이터를 이용하여 지도 상에서 위치를 추정하거나, 정밀한 GPS 장치를 사용하여 위성 신호를 받아서 절대적인 위치를 추정하는 방법이 주로 사용되고 있다. A key factor in autonomous driving is estimating one's own location, and various technologies can be used to estimate the location. For example, using a device such as LiDAR or a camera, create a map in advance and estimate a location on the map using sensor data measured while driving, or estimate an absolute location by receiving satellite signals using a precise GPS device. method is mainly used.
일 실시 예에 따른 전자 장치의 동작 방법은, 이동체에 탑재된 촬영 장치로 획득한 주변 영상으로부터, 랜드마크(landmark) 기반 확률 맵(probability map) 형태의 2차원 특징점 정보를 획득하는 단계; 상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터, 랜드마크 기반 3차원 특징점 정보를 획득하는 단계; 상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원(dimension)을 다른 하나의 차원으로 변환하는 단계; 상기 주변 영상의 특징점 정보와 상기 고정밀 지도 데이터의 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계; 및 상기 대응도에 기초하여 상기 이동체의 위치를 추정하는 단계를 포함할 수 있다.An operating method of an electronic device according to an embodiment includes obtaining 2D feature point information in the form of a landmark-based probability map from a surrounding image obtained by a photographing device mounted on a moving object; obtaining landmark-based 3D feature point information from high definition map data around the moving object; converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension; calculating a likelihood between feature point information of the surrounding image and feature point information of the high-precision map data; and estimating the position of the moving object based on the degree of correspondence.
일 실시 예에 따르면, 상기 주변 영상의 2차원 특징점 정보는, DNN(deep neural network) 기반의 시맨틱 세그멘테이션(semantic segmentation)에 기초하여 랜드마크에 따라 획득될 수 있다.According to an embodiment, the 2D feature point information of the surrounding image may be obtained according to landmarks based on deep neural network (DNN)-based semantic segmentation.
일 실시 예에 따르면, 상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터 상기 3차원 특징점 정보를 획득하는 단계는, 상기 이동체의 위치 정보에 기초하여 고정밀 지도 데이터베이스로부터 상기 이동체 주변의 랜드마크에 대한 월드(world) 도메인 상의 3차원 특징점 정보를 수신하는 단계; 및 상기 월드 도메인 상의 3차원 특징점 정보를 상기 촬영 장치에 대한 로컬 도메인으로 변환하는 단계를 포함할 수 있다.According to an embodiment, the obtaining of the 3D feature point information from high definition map data around the moving object may include determining a landmark around the moving object from a high-definition map database based on location information of the moving object. Receiving 3D feature point information on a world domain; and converting the 3D feature point information on the world domain into a local domain for the photographing device.
일 실시 예에 따르면, 상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원을 다른 하나의 차원으로 변환하는 단계는, 역원근 변환법(inverse perspective mapping)에 기초하여, 상기 주변 영상의 2차원 특징점 정보를 3차원 확률 맵 형태로 변환하는 단계를 포함할 수 있다.According to an embodiment, the step of converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension is based on inverse perspective mapping. and converting the 2D feature point information of the surrounding image into a 3D probability map form.
일 실시 예에 따르면, 상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원을 다른 하나의 차원으로 변환하는 단계는, 원근 변환법(perspective mapping)에 기초하여, 상기 고정밀 지도 데이터의 3차원 특징점 정보를 상기 주변 영상에서 획득한 2차원의 확률 맵으로 투영(project)하는 단계를 포함할 수 있다.According to an embodiment, the step of converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension is based on perspective mapping, The method may include projecting 3D feature point information of the high-precision map data onto a 2D probability map obtained from the surrounding image.
일 실시 예에 따르면, 상기 주변 영상의 특징점 정보와 상기 고정밀 지도 데이터의 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계는, 상기 주변 영상에서 획득한 확률 맵에서, 상기 고정밀 지도 데이터의 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하는 단계; 및 상기 각 랜드마크에 대응하여 합산된 확률들을 곱해 상기 대응도를 계산하는 단계를 포함할 수 있다.According to an embodiment, calculating a likelihood between feature point information of the surrounding image and feature point information of the high-precision map data may include, in a probability map obtained from the surrounding image, feature point information of the high-precision map data. summing up probabilities corresponding to each landmark in ; and calculating the degree of correspondence by multiplying the summed probabilities corresponding to the respective landmarks.
일 실시 예에 따르면, 상기 대응도에 기초하여 상기 이동체의 위치를 추정하는 단계는, 상기 대응도에 기초하여, 파티클 필터(particle filter) 또는 ML(maximum likelihood) 최적화 방법에 따른 상기 이동체의 위치 추정 결과를 업데이트하는 단계를 포함할 수 있다.According to an embodiment, the step of estimating the position of the moving object based on the degree of correspondence may include estimating the position of the moving object according to a particle filter or maximum likelihood (ML) optimization method based on the degree of correspondence. It may include updating the result.
일 실시 예에 따르면, 상기 이동체는 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량일 수 있다.According to an embodiment, the moving object may be an autonomous vehicle or a vehicle supporting an advanced driver assistance system (ADAS).
일 실시 예에 따르면, 상기 랜드마크는, 흰색 차선, 노란색 차선, 횡단보도, 과속 방지턱, 교통 신호등 및 교통 표지판 중 적어도 어느 하나를 포함할 수 있다.According to an embodiment, the landmark may include at least one of a white lane, a yellow lane, a crosswalk, a speed bump, a traffic light, and a traffic sign.
일 실시 예에 따른 파티클 필터(particle filter) 기반의 이동체의 위치 추정 방법은, 이동체에 탑재된 촬영 장치로 획득한 주변 영상으로부터, 랜드마크(landmark) 기반 확률 맵(probability map) 형태의 2차원 특징점 정보를 획득하는 단계; 상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터, 랜드마크 기반 3차원 특징점 정보를 획득하는 단계; 상기 이동체의 후보 위치들에 대응하는 복수의 파티클(particle) 위치들을 예측하는 단계; 상기 복수의 파티클 위치 각각에 대해, 상기 3차원 특징점 정보를 상기 주변 영상에서 획득한 확률 맵으로 투영(project)하는 단계; 상기 복수의 파티클 위치 각각에 대해, 상기 확률 맵에 투영된 상기 3차원 특징점 정보와, 상기 확률 맵의 2차원 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계; 및 상기 대응도에 기초해 상기 복수의 파티클 위치들을 재배치하여 상기 이동체의 위치를 추정하는 단계를 포함할 수 있다.A method for estimating the position of a moving object based on a particle filter according to an embodiment includes a 2D feature point in the form of a landmark-based probability map from a surrounding image obtained by a photographing device mounted on the moving object. obtaining information; obtaining landmark-based 3D feature point information from high definition map data around the moving object; predicting a plurality of particle positions corresponding to candidate positions of the moving object; Projecting the 3D feature point information onto a probability map obtained from the surrounding image for each of the plurality of particle positions; calculating a likelihood between the 3D feature point information projected on the probability map and the 2D feature point information of the probability map, for each of the plurality of particle positions; and estimating the position of the moving object by rearranging the positions of the plurality of particles based on the degree of correspondence.
일 실시 예에 따르면, 상기 2차원 특징점 정보는, DNN(deep neural network) 기반의 시맨틱 세그멘테이션(semantic segmentation)에 기초하여 랜드마크에 따라 획득될 수 있다.According to an embodiment, the 2D feature point information may be obtained according to landmarks based on deep neural network (DNN)-based semantic segmentation.
일 실시 예에 따르면, 상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터 상기 3차원 특징점 정보를 획득하는 단계는, 상기 이동체의 위치 정보에 기초하여 고정밀 지도 데이터베이스로부터 상기 이동체 주변의 랜드마크에 대한 월드(world) 도메인 상의 3차원 특징점 정보를 수신하는 단계; 및 상기 월드 도메인 상의 3차원 특징점 정보를 상기 촬영 장치에 대한 로컬 도메인으로 변환하는 단계를 포함할 수 있다.According to an embodiment, the obtaining of the 3D feature point information from high definition map data around the moving object may include determining a landmark around the moving object from a high-definition map database based on location information of the moving object. Receiving 3D feature point information on a world domain; and converting the 3D feature point information on the world domain into a local domain for the photographing device.
일 실시 예에 따르면, 상기 복수의 파티클 위치들을 예측하는 단계는, 이전 시점에서 재배치된 파티클 위치 정보 및 상기 이전 시점부터의 상기 이동체의 이동 변위에 기초하여 상기 복수의 파티클 위치들을 예측하는 단계를 포함할 수 있다.According to an embodiment, the step of estimating the positions of the plurality of particles includes predicting the positions of the plurality of particles based on particle position information relocated from a previous viewpoint and movement displacement of the moving object from the previous viewpoint. can do.
일 실시 예에 따르면, 상기 3차원 특징점 정보는, 원근 변환법(perspective mapping)에 기초하여 상기 주변 영상에서 획득한 2차원의 확률 맵으로 투영(project)될 수 있다.According to an embodiment, the 3D feature point information may be projected into a 2D probability map obtained from the surrounding image based on perspective mapping.
일 실시 예에 따르면, 상기 확률 맵에 투영된 3차원 특징점 정보와, 상기 확률 맵의 2차원 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계는, 상기 확률 맵에서, 상기 투영된 3차원 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하는 단계; 및 상기 각 랜드마크에 대응하여 합산된 확률들을 곱하는 단계를 포함할 수 있다.According to an embodiment, calculating a likelihood between 3D feature point information projected on the probability map and 2D feature point information of the probability map may include: in the probability map, the projected 3D feature point information. summing probabilities corresponding to each landmark of the information; and multiplying the summed probabilities corresponding to each landmark.
일 실시 예에 따르면, 상기 대응도에 기초해 상기 복수의 파티클 위치들을 재배치하여 상기 이동체의 위치를 추정하는 단계는, 상기 대응도에 따라 상기 복수의 파티클 위치들 각각에 대해 가중치(weight)를 설정하는 단계; 상기 가중치에 따라 상기 복수의 파티클 위치들을 재배치하는 단계; 및 상기 재배치된 파티클의 평균값을 계산하여 상기 이동체의 위치를 추정하는 단계를 포함할 수 있다.According to an embodiment, the step of estimating the position of the moving object by rearranging the positions of the plurality of particles based on the degree of correspondence may include setting a weight for each of the positions of the plurality of particles according to the degree of correspondence. doing; rearranging the plurality of particle positions according to the weight; and estimating the position of the moving object by calculating an average value of the rearranged particles.
일 실시 예에 따르면, 상기 이동체는 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량일 수 있다.According to an embodiment, the moving object may be an autonomous vehicle or a vehicle supporting an advanced driver assistance system (ADAS).
일 실시 예에 따른 전자 장치는, 이동체 주변의 고정밀 지도(High Definition Map) 데이터 및 상기 이동체에 탑재된 촬영 장치로 획득한 주변 영상을 수신하는 통신 모듈; 컴퓨터로 실행 가능한 명령어들(computer-executable instructions)이 저장된 메모리; 및 상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 프로세서를 포함하고, 상기 명령어들은, 상기 주변 영상으로부터, 랜드마크(landmark) 기반 확률 맵(probability map) 형태의 2차원 특징점 정보를 획득하고, 상기 고정밀 지도 데이터로부터, 랜드마크 기반 3차원 특징점 정보를 획득하고, 상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원(dimension)을 다른 하나의 차원으로 변환하고, 상기 주변 영상의 특징점 정보와 상기 고정밀 지도 데이터의 특징점 정보 사이의 대응도(likelihood)를 계산하고, 상기 대응도에 기초하여 상기 이동체의 위치를 추정하도록 구성될 수 있다.An electronic device according to an embodiment includes a communication module configured to receive high definition map data around a moving object and a surrounding image obtained by a photographing device mounted on the moving object; a memory in which computer-executable instructions are stored; and a processor accessing the memory to execute the instructions, wherein the instructions obtain 2D feature point information in the form of a landmark-based probability map from the surrounding image, From the high-precision map data, landmark-based 3D feature point information is obtained, and any one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data is converted into another dimension. and calculating a likelihood between feature point information of the surrounding image and feature point information of the high-precision map data, and estimating the location of the moving object based on the correspondence.
일 실시 예에 따르면, 상기 명령어들은, 상기 주변 영상에서 획득한 확률 맵에서, 상기 고정밀 지도 데이터의 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하고, 상기 각 랜드마크에 대응하여 합산된 확률들을 곱해 상기 대응도를 계산하도록 구성될 수 있다.According to an embodiment, the instructions add up probabilities corresponding to each landmark of the feature point information of the high-precision map data in the probability map obtained from the surrounding image, and sum up corresponding to each landmark. It may be configured to calculate the degree of correspondence by multiplying the obtained probabilities.
도 1a 내지 도 1c는 일 실시예에 따른 이동체 주변의 특징점 정보를 획득하는 방법을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 전자 장치의 블록도이다.
도 3a 및 도 3b는 일 실시예에 따른 고정밀 지도의 특징점과 주변 영상의 특징점 사이의 대응도 계산 방법을 설명하기 위한 도면이다.
도 4a 및 도 4b는 일 실시예에 따른 이동체의 후보 위치에 따라 대응도가 다르게 결정되는 것을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 전자 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 6은 일 실시예에 따른 대응도 계산 방법을 설명하기 위한 흐름도이다.
도 7은 일 실시예에 따른 파티클 필터 기반의 이동체 위치 추정 방법을 설명하기 위한 흐름도이다.
도 8은 일 실시 예에 따른 대응도에 기초하여 이동체의 위치를 추정하는 방법을 설명하기 위한 흐름도이다.
도 9는 일 실시 예에 따른 이동체 위치 추정 시스템을 설명하기 위한 도면이다.
도 10은 일 실시 예에 따른 이동체 위치 추정 시스템을 설명하기 위한 도면이다.1A to 1C are diagrams for explaining a method of obtaining feature point information around a moving object according to an exemplary embodiment.
2 is a block diagram of an electronic device according to an exemplary embodiment.
3A and 3B are diagrams for explaining a method of calculating correspondence between feature points of a high-precision map and feature points of a surrounding image according to an exemplary embodiment.
4A and 4B are diagrams for explaining that a degree of correspondence is differently determined according to a candidate position of a moving object according to an exemplary embodiment.
5 is a flowchart illustrating a method of operating an electronic device according to an exemplary embodiment.
6 is a flowchart illustrating a method for calculating a degree of correspondence according to an exemplary embodiment.
7 is a flowchart illustrating a method for estimating a location of a moving object based on a particle filter according to an exemplary embodiment.
8 is a flowchart illustrating a method of estimating a position of a moving object based on a correspondence diagram according to an exemplary embodiment.
9 is a diagram for explaining a system for estimating a position of a moving object according to an exemplary embodiment.
10 is a diagram for explaining a system for estimating a position of a moving object according to an exemplary embodiment.
본 명세서에서 개시되어 있는 특정한 구조적 또는 기능적 설명들은 단지 기술적 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 실제로 구현된 형태는 다양한 다른 모습을 가질 수 있으며 본 명세서에 설명된 실시예로만 한정되지 않는다. Specific structural or functional descriptions disclosed in this specification are merely exemplified for the purpose of describing embodiments according to technical concepts, and actual implemented forms may have various other appearances and are limited only to the embodiments described in this specification. It doesn't work.
제1 또는 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 이해되어야 한다. 예를 들어 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should only be understood for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may also be termed a first element.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~간의"와 "바로~간의" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle. Expressions describing the relationship between components, such as "between" and "directly between" or "adjacent to" and "directly adjacent to", etc., should be interpreted similarly.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is an embodied feature, number, step, operation, component, part, or combination thereof, but one or more other features or numbers However, it should be understood that it does not preclude the presence or addition of steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, it should not be interpreted in an ideal or excessively formal meaning. don't
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.The embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices. Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference numerals in each figure indicate like elements.
< 전자 장치 ><Electronic device>
도 1a 내지 도 1c는 일 실시예에 따른 이동체 주변의 특징점 정보를 획득하는 방법을 설명하기 위한 도면이다.1A to 1C are diagrams for explaining a method of obtaining feature point information around a moving object according to an exemplary embodiment.
도 1a는 일 예에 따른 이동체 주변을 촬영한 영상(또는, 이미지)를 도시한다.1A illustrates a video (or image) captured around a moving object according to an example.
도 1a를 참조하면, 이동체의 정면을 촬영한 영상에는 기준(이하, 랜드마크(landmark))이 되는 다양한 오브젝트가 포함될 수 있다. 예를 들어 도 1a에는 노란색 차선(또는, 중앙선)(111), 흰색 차선(113), 연석(115), 가로등(117) 등에 대응하는 오브젝트들이 포함될 수 있다. 도 1a와 같은 영상은 이동체에 탑재된 촬영 장치를 통해 획득될 수 있다. 촬영 장치는 단안 카메라, 스테레오 비전(stereo vision) 카메라 등일 수 있고, 촬영 장치는 이미지 센서를 포함할 수 있다. 이미지 센서는 촬영 장치의 렌즈를 통해 들어온 빛을 전기적 신호로 바꿔주는 반도체로, 컬러 이미지 센서, RGB(red, green, blue) 센서, IR(infrared) 센서 등일 수 있다.Referring to FIG. 1A , various objects serving as references (hereinafter referred to as landmarks) may be included in an image obtained by capturing the front of the moving object. For example, objects corresponding to a yellow lane (or center line) 111, a
도 1b는 일 예에 따른 이동체 주변의 영상에서 추출된 특징점 정보를 설명하기 위한 도면이다.1B is a diagram for explaining feature point information extracted from an image around a moving object according to an example.
도 1b는, 도 1a와 같이 촬영 장치를 통해 획득한 이동체 주변의 영상에 기초하여 획득되는 랜드마크 기반 확률 맵(probability map)일 수 있다. 도 1b를 참조하면, 랜드마크 기반 확률 맵에서 랜드마크 별로 구분된 특징점 정보(121, 123, 125)가 획득될 수 있다. FIG. 1B may be a landmark-based probability map obtained based on an image around a moving object obtained through a photographing device as shown in FIG. 1A. Referring to FIG. 1B , feature
예를 들어, 특징점 정보(121)는 도 1a를 참조하여 설명한 영상의 노란색 차선(111)에, 특징점 정보(123)는 하얀색 차선(113)에, 특징점 정보(125)는 연석(115)에 대응할 수 있다. 주변 영상의 특징점 정보는 DNN(deep neural network) 기반의 시맨틱 세그멘테이션(semantic segmentation)에 기초하여, 랜드마크에 따라 획득될 수 있다.For example, the
일 실시 예에 따르면, 도 1a와 같은 촬영 장치를 통해 획득한 이동체 주변 영상이 DNN 기반의 시맨틱 세그멘테이션을 위한 학습 모델로 입력되고, 학습 모델에 기초하여 랜드마크에 따라 구분된 특징점 정보가 추출될 수 있다. 촬영 장치로 획득한 주변 영상에서 추출되는 특징점 정보는 2차원 확률 맵 상의 픽셀들의 집합인 면 형태로 표현될 수 있다.According to an embodiment, an image around a moving object obtained through a photographing device as shown in FIG. 1A may be input to a learning model for DNN-based semantic segmentation, and feature point information classified according to landmarks may be extracted based on the learning model. there is. The feature point information extracted from the surrounding image obtained by the photographing device may be expressed in the form of a plane, which is a set of pixels on a 2D probability map.
도 1c는 일 예에 따른 이동체 주변의 고정밀 지도 데이터에서 추출된 특징점 정보를 설명하기 위한 도면이다.1C is a diagram for explaining feature point information extracted from high-precision map data around a moving object according to an example.
도 1c를 참조하면, 이동체 주변의 고정밀 지도 데이터로부터, 랜드마크 별로 구분된 특징점 정보(131, 133, 135)가 획득될 수 있다. 예를 들어, 특징점 정보(131)는 이동체 주변의 노란색 차선(예를 들어, 도 1a의 노란색 차선(111))에, 특징점 정보(133)는 이동체 주변의 하얀색 차선(예를 들어, 도 1a의 하얀색 차선(113))에, 특징점 정보(135)는 이동체 주변의 연석(예를 들어, 도 1a의 연석(115))에 대응할 수 있다.Referring to FIG. 1C , feature
고정밀 지도 데이터로부터 획득된 특징점 정보는 공간 상의 3차원 좌표로, 랜드마크에 따라 구분될 수 있다. 예를 들어 도 1c를 참조하면, 특징점 정보(131)에는 노란색 차선에 대응하는 특징점 정보들이 포함되고, 특징점 정보(133)에는 하얀색 차선에 대응하는 특징점 정보들이 포함되고, 특징점 정보(135)에는 연석에 대응하는 특징점 정보들이 포함될 수 있다. 고정밀 지도 데이터로부터 획득된 특징점 정보는 3차원의 좌표 형태로 표현될 수 있다.Feature point information obtained from high-precision map data is a three-dimensional coordinate in space and can be classified according to landmarks. For example, referring to FIG. 1C , feature
일 실시 예에 따르면, 이동체의 위치 정보에 따라 고정밀 지도 데이터베이스로부터 이동체 위치 추정을 위한 전자 장치로 이동체 주변의 랜드마크에 대한 월드 도메인 정보가 전달될 수 있다. 월드 도메인 정보는 촬영 장치에 대한 로컬 도메인 정보로 변환될 수 있다.According to an embodiment, world domain information on landmarks around the moving object may be transferred from a high-precision map database to an electronic device for estimating the location of the moving object according to location information of the moving object. World domain information may be converted into local domain information for a photographing device.
이동체의 위치를 추정하기 위해, 영상(예를 들어, 도 1a)에서 획득한 특징점 정보(예를 들어, 도 1b의 특징점 정보(121))와 고정밀 지도 데이터(예를 들어, 도 1c)에서 획득한 특징점 정보(예를 들어, 도 1c의 특징점 정보(131))를 비교하는 과정이 필요할 수 있다. In order to estimate the position of the moving object, the feature point information (eg, feature
일 실시 예에 따르면, 이동체 위치 추정에 확장 칼만 필터(EKF: Extended Kalman Fileter)를 사용하는 경우, 이전 위치 정보에 기초하여 예측한 위치 정보와, 센서로 측정한 위치 정보 사이의 오차에 대한 정보가 필요할 수 있고, 오차를 계산하기 위해 두 정보 간 유사한 정도(likelihood, 이하, 대응도)를 계산해야 할 수 있다. 일례로, 도 1b의 특징점 정보(121)는 센서로 측정한 위치 정보에 대응될 수 있고, 도 1c의 특징점 정보(131)는 예측한 위치 정보에 대응될 수 있다.According to an embodiment, when an Extended Kalman Filter (EKF) is used for position estimation of a moving object, information about an error between position information predicted based on previous position information and position information measured by a sensor is provided. It may be necessary, and in order to calculate the error, it may be necessary to calculate the degree of similarity (likelihood, hereinafter, correspondence) between the two pieces of information. For example, the
도 1a 내지 도 1c를 참조하여 전술한 바와 같이, 도 1b의 특징점 정보(121)와 같이 촬영 장치로 획득한 영상에서 획득된 특징점 정보는 2차원 정보이고, 도 1c의 특징점 정보(131)와 같이 고정밀 지도 데이터에서 획득한 특징점 정보는 3차원 정보일 수 있다. 이 경우 두 특징점 정보 간 차원(dimension)이 일치하지 않아, 대응도를 계산하기 어려울 수 있다.As described above with reference to FIGS. 1A to 1C, the feature point information obtained from the image obtained by the photographing device, such as the
아래에서 도 2 내지 도 10을 참조하여, 도 1b를 참조하여 설명한 입력 영상에서 획득된 2차원 특징점 정보와, 도 1c를 참조하여 설명한 고정밀 지도에서 획득된 3차원 특징점 정보 사이의 대응도를 계산하는 방법을 상세히 설명한다.Calculate the degree of correspondence between the 2D feature point information obtained from the input image described with reference to FIG. 1B and the 3D feature point information obtained from the high-precision map described with reference to FIG. 1C with reference to FIGS. 2 to 10 below. The method is explained in detail.
도 2는 일 실시예에 따른 전자 장치의 블록도이다.2 is a block diagram of an electronic device according to an exemplary embodiment.
도 2를 참조하면, 전자 장치(101)는 이동체 주변의 고정밀 지도 데이터베이스(210) 및 촬영 장치(230)와 통신하기 위한 통신 모듈(190), 컴퓨터로 실행 가능한 명령어들이 저장된 메모리(130) 및 메모리(130)에 억세스하여 명령어들을 실행하는 프로세서(120)를 포함할 수 있다.Referring to FIG. 2 , the
전자 장치(101)는 위치를 추정할 이동체에 탑재되거나 이동체 내에 포함될 수 있고, 또는 이동체와 구분되어 위치할 수 있다. 전자 장치(101)는 이동체의 위치를 추정할 수 있고, 이동체(vehicle)에는 자동차, 자전거 등 뿐 아니라 드론(drone), 비행기 등 비행체도 포함될 수 있다. 이동체는 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량일 수 있다.The
촬영 장치(230)는 도 1b를 참조하여 전술한 바와 같이 단안 카메라, 스테레오 비전(stereo vision) 카메라 등일 수 있고, 이미지 센서를 포함할 수 있다. 도 2에서는 설명의 편의를 위해 촬영 장치(230)라고 도시하였지만, 촬영 장치(230)는 촬영 장치(230)를 통해 촬영된 이동체 주변 영상이 저장된 외부 전자 장치 또는 서버일 수 있다.As described above with reference to FIG. 1B , the photographing
고정밀 지도 데이터베이스(210)는, 고정밀 지도(HD map: high definition map) 정보를 포함하는 데이터베이스로, 전자 장치(101)의 요청에 따라 통신 모듈(190)을 통해 전자 장치(101)로 이동체 주변의 고정밀 지도 정보를 전송할 수 있다. 고정밀 지도는 도 1c를 참조하여 설명한 바와 같이, 랜드마크에 따라 구분되는 3차원 특징점들로 구성될 수 있다.The high-
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(또는, 서버) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈 (예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 근거리 통신 네트워크(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)) 또는 원거리 통신 네트워크(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN))를 통하여 외부의 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다.The
무선 통신 모듈은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈은 전자 장치(101), 외부 전자 장치 또는 네트워크 시스템에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module may support a 5G network after a 4G network and a next-generation communication technology, for example, NR access technology (new radio access technology). NR access technologies include high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access of multiple terminals (massive machine type communications (mMTC)), or high reliability and low latency (ultra-reliable and low latency (URLLC)). -latency communications)) can be supported. The wireless communication module may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example. The wireless communication module uses various technologies for securing performance in a high frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiple-output (FD). Technologies such as full dimensional MIMO (MIMO), array antenna, analog beam-forming, or large scale antenna may be supported. The wireless communication module may support various requirements defined for the
통신 모듈(190)이 2차원 특징점 정보를 획득하기 위해 촬영 장치(230)와 통신하는 방법과 3차원 특징점 정보를 획득하기 위해 고정밀 지도 데이터베이스(210)와 통신하는 방법은 같거나 다를 수 있다.A method of the
일 실시 예에 따르면, 프로세서(120)는 이동체에 탑재된 촬영 장치(230)로 획득한 주변 영상으로부터, 랜드마크 기반 확률 맵 형태의 2차원 특징점 정보를 획득할 수 있다. 도 1b를 참조하여 전술한 바와 같이 프로세서(120)는 촬영 장치(230) 또는 영상이 저장된 외부 전자 장치 또는 서버로부터 이동체 주변 영상을 수신하고, DNN 기반의 시맨틱 세그멘테이션에 기초하여 랜드마크 별로 2차원 특징점 정보를 획득할 수 있다.According to an embodiment, the
다른 일 실시 예에 따르면, 이동체 주변 영상으로부터 2차원 특징점 정보를 추출하는 과정이 외부 전자 장치 또는 서버에서 수행되고, 프로세서(120)는 추출된 랜드마크 기반 확률 맵 형태의 2차원 특징점 정보를 전달받을 수 있다.According to another embodiment, a process of extracting 2D feature point information from an image around a moving object is performed in an external electronic device or server, and the
일 실시 예에 따르면, 프로세서(120)는 이동체 주변의 고정밀 지도의 랜드마크 기반 3차원 특징점 정보를 획득할 수 있다. 도 1c를 참조하여 전술한 바와 같이, 프로세서(120)는 이동체의 위치 정보에 기초하여 고정밀 지도 데이터베이스(210)로 3차원 특징점 정보를 요청함으로써 이동체 주변 고정밀 지도의 3차원 특징점 정보를 획득할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 고정밀 지도 데이터베이스(210)에 저장된 특징점 정보들은 월드 도메인(world domain) 상의 좌표일 수 있고, 프로세서(120)는 고정밀 지도 데이터베이스(210)로부터 수신한 이동체 주변의 랜드마크들에 대한 특징점 정보를 촬영 장치에 대한 로컬 도메인(local domain)으로 변환할 수 있다. 월드 도메인에서 로컬 도메인으로의 변환 과정은 아래 [수학식 1]을 참조하여 상세히 설명한다.According to an embodiment, feature point information stored in the high-
다른 일 실시 예에 따르면, 외부 전자 장치 또는 서버에서 월드 도메인에서 로컬 도메인으로의 변환이 수행되고, 로컬 도메인 형태의 3차원 특징점 정보가 프로세서(120)로 전송될 수 있다.According to another embodiment, conversion from the world domain to the local domain is performed in an external electronic device or server, and 3D feature point information in the form of a local domain may be transmitted to the
2차원 특징점 정보와 3차원 특징점 정보 간 대응도를 계산하기 위해, 프로세서(120)는 주변 영상의 2차원 특징점 정보와 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원을 다른 하나의 차원으로 변환할 수 있다. In order to calculate the degree of correspondence between 2D feature point information and 3D feature point information, the
일례로, 프로세서(120)는 원근 변환법(perspective mapping)에 기초하여 고정밀 지도 데이터의 3차원 특징점 정보를 주변 영상에서 획득한 2차원의 확률 맵으로 투영(project)할 수 있다. 고정밀 지도 데이터의 3차원 특징점 정보는, 아래 [수학식 1] 및 [수학식 2]에 기초하여 주변 영상에서 획득한 2차원의 확률 맵으로 투영될 수 있다.For example, the
일 실시 예에 따르면, [수학식 1]에 기초하여, 고정밀 지도 데이터의 3차원 특징점 정보가 월드 도메인 상에서 촬영 장치를 기준으로 하는 로컬 도메인으로 변환될 수 있다. 이는 고정밀 지도 데이터베이스(210)와 관련하여 전술했던 월드 도메인에서 로컬 도메인으로의 변환 동작에 대응할 수 있다.According to an embodiment, based on [Equation 1], 3D feature point information of the high-precision map data may be converted from the world domain to the local domain based on the photographing device. This may correspond to the conversion operation from the world domain to the local domain described above in relation to the high-
은 고정밀 지도 데이터의 월드 도메인 상 3차원 특징점 정보의 좌표일 수 있다. 예를 들어, 도 1c의 랜드마크 별 특징점들(131, 133, 135) 중 하나의 좌표일 수 있다. 는 고정밀 지도 데이터의 월드 도메인 상 이동체의 3차원 좌표일 수 있다. 예를 들어, 도 1c의 차량의 월드 도메인 상 3차원 좌표일 수 있다. 는 이동체의 월드 도메인 대비 회전변환행렬일 수 있다. 는 촬영 장치(230)의 이동체 대비 회전변환행렬일 수 있다. 는 촬영 장치(230)의 이동체 대비 상대 거리일 수 있다. [수학식 1]에 기초하여, 촬영 장치(230)를 기준으로 한 로컬 도메인 상의 3차원 특징점 정보의 각 성분인 가 획득될 수 있다. may be coordinates of 3D feature point information on the world domain of high-precision map data. For example, it may be the coordinates of one of feature points 131, 133, and 135 for each landmark of FIG. 1C. may be the 3D coordinates of a moving object on the world domain of high-precision map data. For example, it may be a 3D coordinate on the world domain of the vehicle of FIG. 1C. may be a rotation transformation matrix relative to the world domain of the moving object. may be a rotation transformation matrix relative to the moving object of the photographing
일 실시 예에 따르면, [수학식 2]에 기초하여, 촬영장치 기준 로컬 도메인으로 변환된 3차원 특징점 정보가 2차원 확률 맵으로 투영될 수 있다.According to an embodiment, based on [Equation 2], 3D feature point information converted to a photographing device reference local domain may be projected onto a 2D probability map.
위 [수학식 2]에 기초하여, 위 [수학식 1]에서 얻어진 3차원 특징점 정보 가 2차원 확률 맵으로 투영되고, 2차원 좌표 가 획득될 수 있다. 는 각각 촬영 장치의 가로 방향 초점 거리, 세로 방향 초점 거리일 수 있다.Based on the above [Equation 2], the 3D feature point information obtained in [Equation 1] above is projected into a two-dimensional probability map, and the two-dimensional coordinates can be obtained. may be a focal length in a horizontal direction and a focal length in a vertical direction of the photographing device, respectively.
다른 일례로, 프로세서(120)는 역 원근 변환법(inversive perspective mapping)에 기초하여 주변 영상의 2차원 특징점 정보를 3차원 확률 맵 형태로 변환할 수 있다. 2차원을 3차원으로 변환하기 위해서는 깊이(depth) 정보가 필요하므로, 이 때 촬영 장치(230)는 스트레오 비전 카메라일 수 있다.As another example, the
일 실시 예에 따르면, 프로세서(120)는 두 특징점 정보의 차원을 일치시킨 후 특징점 정보 사이의 대응도를 계산하고, 대응도에 기초하여 이동체의 위치를 추정할 수 있다. 프로세서(120)는 이동체 주변 영상에서 획득한 확률 맵에서, 고정밀 지도 데이터의 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하고, 합산된 확률들을 곱하여 대응도를 계산할 수 있다. According to an embodiment, the
일례로, 전술한 바와 같이 2차원으로 차원을 일치시키는 경우 3차원 특징점 정보가 2차원 확률 맵으로 투영되었을 때 투영된 2차원 좌표에 대응하는 확률들을 랜드마크 별로 합산하고, 합산된 확률들을 곱해 대응도를 계산할 수 있다. 다른 일례로, 3차원으로 차원을 일치시키는 경우에는 2차원 확률 맵을 역 원근 변환법에 따라 3차원 확률 맵 형태로 변환할 수 있다. 변환된 3차원 확률 맵 상에서 3차원 특징점 정보가 대응하는 확률들을 랜드마크 별로 합산하고, 합산된 확률들을 곱해 대응도를 계산할 수 있다.As an example, as described above, when the dimensions are matched in 2D, when 3D feature point information is projected onto a 2D probability map, probabilities corresponding to the projected 2D coordinates are summed for each landmark, and the summed probabilities are multiplied to respond. figure can be calculated. As another example, in the case of matching dimensions in 3D, a 2D probability map may be converted into a 3D probability map according to an inverse perspective transformation method. Probabilities corresponding to the 3D feature point information on the converted 3D probability map may be summed for each landmark, and the degree of correspondence may be calculated by multiplying the summed probabilities.
프로세서(120)는 계산된 대응도에 기초하여, 파티클 필터(particle filter) 또는 ML(maximum likelihood) 최적화 방법에 따라 이동체의 위치를 추정하거나, 추정 결과를 업데이트(update) 할 수 있다.Based on the calculated degree of correspondence, the
다양한 실시 예들에 따른 프로세서(120)의 대응도 계산 동작 및 대응도에 기초하여 이동체의 위치를 추정하는 동작은 도 5 내지 도 9를 참조하여 상세히 설명한다.An operation of calculating the degree of correspondence of the
도 3a 및 도 3b는 일 실시예에 따른 고정밀 지도의 특징점과 주변 영상의 특징점 사이의 대응도 계산 방법을 설명하기 위한 도면이다.3A and 3B are diagrams for explaining a method of calculating correspondence between feature points of a high-precision map and feature points of a surrounding image according to an exemplary embodiment.
도 2를 참조하여 전술한 바와 같이, 전자 장치(101)의 프로세서(120)는 두 특징점 사이의 차원을 일치시킨 후, 대응도를 계산하기 위해 랜드마크 별로 대응하는 확률을 합산하고, 합산된 확률들을 곱해 대응도를 계산할 수 있다.As described above with reference to FIG. 2 , the
도 3a는 랜드마크별로 구분하지 않고 확률들을 합하는 방식으로 대응도를 결정하는 방법을 설명하기 위한 도면이고, 도 3b는 랜드마크별로 구분한 확률을 곱하는 방식으로 대응도를 결정하는 방법을 설명하기 위한 도면이다.FIG. 3A is a diagram for explaining a method of determining a degree of correspondence by summing probabilities without classifying each landmark, and FIG. 3B is a diagram for explaining a method of determining a degree of correspondence by multiplying probabilities classified by landmarks. it is a drawing
도 2를 참조하여 전술한 바와 같이 3차원으로 차원을 일치시킬 수 있으나, 설명의 편의를 위해 도 3a 및 도 3b에서는 2차원으로 일치된 차원에서 대응도를 계산하는 방법을 설명한다.As described above with reference to FIG. 2, it is possible to match dimensions in three dimensions, but for convenience of description, a method of calculating a degree of correspondence in dimensions matched in two dimensions is described in FIGS. 3A and 3B.
도 3a를 참조하면, 일 실시 예에 따른 랜드마크 기반 2차원 확률 맵으로 3차원 특징점 정보들이 투영된 상황(310)이 도시된다.Referring to FIG. 3A , a
도 2, [수학식 1] 및 [수학식 2]를 참조하여 전술한 바와 같이, 원근 변환법에 기초하여 3차원 특징점들이 2차원 확률 맵으로 투영될 수 있다. 도 3의 310은, 도 1b를 참조하여 설명한 2차원 확률 맵과 같이 촬영장치로 획득된 이동체 주변 영상으로부터 획득한 2차원 확률 맵에, 3차원 특징점 정보가 투영된 것일 수 있다.As described above with reference to FIG. 2, [Equation 1] and [Equation 2], 3D feature points may be projected onto a 2D probability map based on the perspective transformation method. 310 of FIG. 3 may be obtained by projecting 3D feature point information onto a 2D probability map obtained from an image around a moving object acquired by a photographing device, like the 2D probability map described with reference to FIG. 1B .
도 3a를 참조하면, 2차원 확률 맵 상의 2차원 특징점 정보와, 투영된 3차원 특징점 정보가 도시되어 있다. 예를 들어, 2차원 특징점 정보(311)는 이동체 정면 영상의 차선에 대응할 수 있고, 2차원 특징점 정보(313)는 이동체 정면 영상의 정지선에 대응할 수 있다. 3차원 특징점을 투영한 결과, 차선의 경우에는 2차원 특징점 정보(311)에 투영된 3차원 특징점 정보(321)가 많이 대응되지만, 정지선의 경우 2차원 특징점 정보(313)와 투영된 3차원 특징점 정보(323)가 전혀 대응되지 않음을 알 수 있다.Referring to FIG. 3A , 2D feature point information on a 2D probability map and projected 3D feature point information are shown. For example, the 2D
랜드마크 별로 구분하여 대응도를 계산하지 않고, 단순히 투영된 3차원 특징점에 대응하는 확률들을 합하는 방식으로 대응도를 계산하면, 대응도의 정확도가 떨어질 수 있다. 예를 들어, 정지선이 전혀 대응되지 않고 있음에도 상대적으로 특징점의 개수가 많은 차선이 잘 대응되므로, 전체 대응도가 비교적 높게 계산될 수 있다.If the degree of correspondence is calculated by simply summing the probabilities corresponding to the projected 3D feature points instead of separately calculating the degree of correspondence for each landmark, accuracy of the degree of correspondence may decrease. For example, even though stop lines do not correspond at all, since lanes having a relatively large number of feature points correspond well, the overall degree of correspondence can be calculated relatively high.
일 실시 예에 따르면, 전자 장치(101)의 프로세서(120)는 랜드마크 별로 확률을 합산하고 합산된 확률들을 곱해 대응도를 계산함으로써, 대응도의 정확성이 향상될 수 있다. 전자 장치(101)의 프로세서(120)와 같이 랜드마크에 따라 구분하여 대응도를 계산하는 과정은 도 3b를 참조하여 상세히 설명한다.According to an embodiment, the
도 3b를 참조하면, 일 실시 예에 따른 랜드마크 기반 2차원 확률 맵으로 3차원 특징점 정보들이 투영된 상황(340, 360)이 랜드마크 별로 구분되어 도시된다.Referring to FIG. 3B ,
도 3b의 340 및 360은 랜드마크별로 구분하여 대응도를 계산하는 과정을 설명하기 위한 것일 뿐, 도 3a 및 도 3b 모두 동일한 상황에서 대응도를 계산하는 방법만을 달리하는 것이므로 실제 계산 과정에서 프로세서(120)는 도 3a의 310과 같이 하나의 확률 맵을 기초로 대응도를 계산할 수 있다.340 and 360 in FIG. 3B are only for explaining the process of calculating the degree of correspondence by classifying each landmark, and since both FIGS. 3A and 3B differ only in the method of calculating the degree of correspondence in the same situation, the processor in the actual calculation process ( 120) may calculate a degree of correspondence based on one probability map as shown in 310 of FIG. 3A.
도 3b의 340을 참조하면, 2차원 확률 맵 상에서 차선, 정지선이라는 랜드마크 중 정지선에 대한 2차원 특징점 정보와, 정지선에 대한 투영된 3차원 특징점 정보가 도시되어 있다. 예를 들어, 2차원 특징점 정보(343)는 이동체 정면 영상에서 획득한 2차원 확률 맵 중 정지선에 대응할 수 있고, 2차원 확률 맵에 투영된 정지선에 대응하는 3차원 특징점 정보(353)가 도시되어 있다. 도 3b의 340을 참조하면, 2차원 확률 맵에 투영된 3차원 특징점 정보(353)는 2차원 특징점 정보(343)에 전혀 대응되지 않음을 알 수 있다. Referring to 340 of FIG. 3B , 2D feature point information for a stop line among landmarks such as lanes and stop lines on a 2D probability map and projected 3D feature point information for the stop line are shown. For example, the 2D
도 3b의 360을 참조하면, 2차원 확률 맵 상에서 차선에 대한 2차원 특징점 정보와, 차선에 대한 투영된 3차원 특징점 정보가 도시되어 있다. 예를 들어, 2차원 특징점 정보(361)은 이동체 정면 영상에서 획득한 2차원 확률 맵 중 차선에 대응할 수 있고, 2차원 확률 맵에 투영된 차선에 대응하는 3차원 특징점 정보(371)가 도시되어 있다. 도 3b의 360을 참조하면, 2차원 확률 맵에 투영된 3차원 특징점 정보(371)는 2차원 특징점 정보(361)에 잘 대응됨을 알 수 있다.Referring to 360 of FIG. 3B , 2D feature point information for lanes and projected 3D feature point information for lanes are shown on the 2D probability map. For example, the 2D
전자 장치(101)의 프로세서(120)는 랜드마크 별로 각 투영된 3차원 특징점이 확률 맵 상에서 대응하는 확률을 합산하고, 랜드마크 별로 합산된 확률을 곱해 대응도를 계산할 수 있다. 도 3b의 340을 참조하면, 랜드마크 정지선에 대해서는 확률맵에 투영된 세 개의 특징점 모두가 2차원 특징점 정보(343)에 전혀 대응되지 않으므로, 프로세서(120)가 세 개의 특징점에 대응하는 확률을 합산하면 0에 가까울 수 있다. 도 3b의 360을 참조하면, 랜드마크 차선에 대해서는 확률을 합산하면 높은 값이 도출될 수 있다.The
도 3a를 참조하여 설명한 바와 달리 프로세서(120)는 도 3b와 같이 랜드마크 별로 구분하여 합산한 확률들을 곱해 대응도를 계산할 수 있다. 이를 통해, 차선에 대해 계산한 확률이 높더라도 정지선에 대해 계산한 확률이 0에 가까우면 두 값을 곱해 계산한 대응도는 도 3a에서 계산한 대응도에 비해 작아질 수 있다.Unlike the description with reference to FIG. 3A , the
일 실시 예에 따르면, 프로세서(120)는 랜드마크 별로 구분하여 대응도를 계산함으로써, 보다 정확한 대응도를 계산할 수 있고, 대응도의 유일성(uniqueness)이 증대될 수 있다. 대응도를 계산하는 구체적인 과정은 도 6을 참조하여 상세히 설명한다.According to an embodiment, the
도 4a 및 도 4b는 일 실시예에 따른 이동체의 후보 위치에 따라 대응도가 다르게 결정되는 것을 설명하기 위한 도면이다.4A and 4B are diagrams for explaining that a degree of correspondence is differently determined according to a candidate position of a moving object according to an exemplary embodiment.
도 4a 및 도 4b를 참조하면, 도 1b와 같은 2차원 확률맵 상에 도 1c와 같은 고정밀 지도 데이터의 3차원 정보가 투영된 실시 예들이 도시된다. Referring to FIGS. 4A and 4B , examples in which 3D information of high-precision map data as shown in FIG. 1C are projected onto a 2D probability map as shown in FIG. 1B are shown.
도 2를 참조하여 전술한 바와 같이 3차원으로 차원을 일치시킬 수 있으나, 설명의 편의를 위해 도 4a 및 도 4b에서는 2차원으로 일치된 실시 예를 설명한다.As described above with reference to FIG. 2 , it is possible to match dimensions in three dimensions, but for convenience of description, an embodiment in which two dimensions are matched will be described in FIGS. 4A and 4B .
도 4a를 참조하면, 노란색 차선(또는, 중앙선)에 대응하는 2차원 특징점 정보(411)와 투영된 3차원 특징점 정보(431), 하얀색 차선에 대응하는 2차원 특징점 정보(413)와 3차원 특징점 정보(433), 및 연석에 대응하는 2차원 특징점 정보(415)와 3차원 특징점 정보(435)가 도시되어 있다. 이 경우 대응도가 떨어지므로, 도 2 내지 도 3b를 참조하여 전술한 바와 같이 대응도를 계산하면 대응도가 비교적 낮게 계산될 수 있다.Referring to FIG. 4A , 2D
도 4b를 참조하면, 노란색 차선(또는, 중앙선)에 대응하는 2차원 특징점 정보(461)와 투영된 3차원 특징점 정보(481), 하얀색 차선에 대응하는 2차원 특징점 정보(463)와 3차원 특징점 정보(483), 및 연석에 대응하는 2차원 특징점 정보(465)와 3차원 특징점 정보(485)가 도시되어 있다. 이 경우 도 4a에 비해 대응도가 높으므로, 도 2 내지 도 3b를 참조하여 전술한 바와 같이 대응도를 계산하면 대응도가 비교적 높게 계산될 수 있다.Referring to FIG. 4B, 2D
프로세서(120)는 대응도에 기초하여 이동체의 위치를 추정할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 비교적 대응도가 높은 도 4b에 대응하는 후보 위치에 대해, 비교적 대응도가 낮은 도 4a에 대응하는 후보 위치보다 높은 가중치를 설정할 수 있다. 프로세서(120)는 대응도에 기초하여, 파티클 필터(particle filter) 또는 ML(maximum likelihood) 최적화 방법에 따른 이동체의 위치 추정 결과를 업데이트할 수 있다. 파티클 필터에 기초한 프로세서(120)가 이동체의 위치를 추정하는 방법은 도 7 및 도 8을 참조하여 상세히 설명한다.The
< 전자 장치의 동작 방법 ><Operation method of electronic device>
도 5는 일 실시예에 따른 전자 장치의 동작 방법을 설명하기 위한 흐름도이다.5 is a flowchart illustrating a method of operating an electronic device according to an exemplary embodiment.
동작 510 내지 동작 550은 도 2를 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간명한 설명을 위해 도 1 내지 도 4b를 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.Operations 510 to 550 may be performed by the
일 실시 예에 따르면 동작 510에서, 프로세서(120)는 이동체의 주변 영상으로부터 확률 맵 형태의 2차원 특징점 정보를 획득할 수 있다. 도 2를 참조하여 전술한 바와 같이, 이동체 주변 영상은 촬영 장치(230)에 의해 획득될 수 있고, 확률 맵 형태의 2차원 특징점 정보는 DNN 기반 시맨틱 세그멘테이션에 기초하여 획득될 수 있다. According to an embodiment, in operation 510, the
일 실시 예에 따르면 동작 520에서, 프로세서(120)는 이동체 주변의 고정밀 지도 데이터로부터, 3차원 특징점 정보를 획득할 수 있다. 도 2를 참조하여 전술한 바와 같이, 프로세서(120)는 이동체 위치 정보에 기초하여 고정밀 지도 데이터베이스(210)로 이동체 주변의 고정밀 지도 데이터를 요청하고, 고정밀 지도 데이터의 3차원 특징점 정보를 획득할 수 있다. 프로세서(120)는 전술한 [수학식 1]에 기초하여 월드 도메인으로 표현된 3차원 특징점 정보를 로컬 도메인으로 변환할 수 있다.According to an embodiment, in operation 520, the
일 실시 예에 따르면 동작 530에서, 프로세서(120)는 2차원 특징점 정보와 3차원 특징점 정보 중 어느 하나의 차원을 다른 하나의 차원으로 변환할 수 있다. 도 2를 참조하여 전술한 바와 같이, 프로세서(120)는 원근 변환법에 기초하여 2차원 확률 맵으로 3차원 특징점을 투영하여 2차원으로 변환하거나, 역 원근 변환법에 기초하여 2차원인 확률 맵을 3차원 확률 맵 형태로 변환할 수 있다. 일례로, 프로세서(120)는 전술한 [수학식 2]에 기초하여 3차원 특징점을 2차원 확률 맵으로 투영할 수 있다.According to an embodiment, in
일 실시 예에 따르면 동작 540에서, 프로세서(120)는 주변 영상의 특징점 정보와 고정밀 지도 데이터의 특징점 정보 사이의 대응도를 계산할 수 있다. 도 3a 및 도 3b를 참조하여 전술한 바와 같이, 2차원 확률 맵에 3차원 특징점을 투영한 경우 프로세서(120)는 투영된 좌표에 대응하는 확률을 랜드마크 별로 합산하고, 합산한 확률을 곱해 대응도를 계산할 수 있다. 2차원 확률 맵을 3차원 확률 맵으로 변환한 경우, 프로세서(120)는 3차원 특징점 정보의 좌표에 대응하는 확률을 랜드마크 별로 합산하고, 합산한 확률을 곱해 대응도를 계산할 수 있다. 프로세서(120)가 대응도를 계산하는 동작은 도 6을 참조하여 상세히 설명한다.According to an embodiment, in
일 실시 예에 따르면 동작 550에서, 프로세서(120)는 대응도에 기초하여 이동체의 위치를 추정한다. 일 실시 예에 따르면, 도 4a 및 도 4b를 참조하여 설명한 바와 같이 프로세서(120)는 대응도에 따라 예측한 위치에 대한 가중치를 다르게 설정함으로써 이동체의 위치를 추정할 수 있다.According to an embodiment, in
도 6은 일 실시예에 따른 대응도 계산 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a method for calculating a degree of correspondence according to an exemplary embodiment.
동작 610 내지 동작 620은 도 2를 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간명한 설명을 위해 도 1 내지 도 5을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.
일 실시 예에 따르면, 동작 610 내지 동작 620은 도 5을 참조하여 설명한 주변 영상의 특징점 정보와 고정밀 지도 데이터의 특징점 정보 사이의 대응도를 계산하는 동작(예: 도 5의 동작 540)에 대응될 수 있다.According to an embodiment,
일 실시 예에 따르면 동작 610에서 프로세서(120)는 주변 영상에서 획득한 확률 맵에서, 고정밀 지도 데이터의 특징점 정보의 각 랜드마크에 대응하는 확률을 합산할 수 있다. 도 3b를 참조하여 설명한 바와 같이, 프로세서(120)는 각 랜드마크에 대해, 주변 영상에서 획득한 확률 맵 상에서 고정밀 지도 데이터의 특징점 정보에 대응하는 확률을 합산할 수 있다.According to an embodiment, in
일 실시 예에 따르면 동작 620에서 프로세서(120)는 각 랜드마크에 대응하여 합산된 확률을 곱해 대응도를 계산할 수 있다. 도 3b를 참조하여 설명한 바와 같이, 프로세서(120)는 각 랜드마크에 대해 합산된 확률들을 곱해 대응도를 계산함으로써, 보다 정확한 대응도를 획득할 수 있다.According to an embodiment, in
프로세서(120)의 동작 610 및 동작 620은, 아래 [수학식 3]과 같이 표현될 수 있다. 아래 [수학식 3]은 전술한 [수학식 1] 및 [수학식 2]에 기초하여 고정밀 지도의 3차원 특징점 정보를 2차원 확률 맵으로 투영한 경우의 대응도 계산 방법일 수 있다.
는 전술한 [수학식 2]에서 2차원 확률 맵으로 투영된 고정밀 지도 데이터의 3차원 특징점 정보일 수 있다. 2차원 확률 맵의 모든 좌표에는 대응하는 확률이 존재하고, 는 2차원 확률 맵의 좌표에 대응하는 확률일 수 있다. 일례로, 는 Gaussian Blur filter일 수 있다. 은 특징점에 대한 인덱스(index)일 수 있다. 는 랜드마크에 대한 인덱스일 수 있다. may be 3D feature point information of the high-precision map data projected onto the 2D probability map in [Equation 2] above. All coordinates of the two-dimensional probability map have corresponding probabilities, may be a probability corresponding to the coordinates of a 2-dimensional probability map. For example, may be a Gaussian Blur filter. may be an index for a feature point. may be an index for a landmark.
[수학식 3]을 참조하면, 동작 610에서 프로세서(120)는 랜드마크 에 대응하는 모든 특징점들, [수학식 3] 상에서는 인덱스 넘버 m부터 M 까지의 특징점들에 대응하는 확률들을 합산(∑)할 수 있다. 전술한 도 3b를 참조하면, 부재번호 340 및 부재번호 360 각각이 랜드마크 하나에 대한 대응하는 특징점들이 도시된 예일 수 있다. Referring to [Equation 3], in
다시 [수학식 3]을 참조하면, 동작 620에서 프로세서(120)는 랜드마크 i부터 I까지의 합산된 확률들을 곱(∏)할 수 있다. 도 3b를 참조하여 전술한 바와 같이, 랜드마크 별로 구분하여 대응도를 계산함으로써 대응도의 유일성이 증대될 수 있다.Referring back to [Equation 3], in
일 실시 예에 따르면, 프로세서(120)는 동작 610 내지 동작 620을 수행함으로써 차원이 다른 특징점 간 대응도(또는, likelihood)를 계산할 수 있다.According to an embodiment, the
도 7은 일 실시예에 따른 파티클 필터 기반의 이동체 위치 추정 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating a method for estimating a location of a moving object based on a particle filter according to an exemplary embodiment.
동작 710 내지 동작 760은 도 2를 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간명한 설명을 위해 도 1 내지 도 6을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.Operations 710 to 760 may be performed by the
동작 710 내지 동작 760은, 전자 장치(101)의 프로세서(120)가 파티클 필터에 기초하여 이동체의 위치를 추정하는 방법에 대응될 수 있다. 동작 710 내지 동작 760은 도 5를 참조하여 전술한 동작들과 관련하여, 파티클 필터에 기초한 구체적인 동작일 수 있다.Operations 710 to 760 may correspond to a method in which the
'파티클'은 디지털 실내 지도에 소프트웨어적으로 배치되는 것으로서, 하나 이상의 속성을 가진다. 각각의 파티클은 적어도' 방향' 및 '위치' 두개의 속성을 가지는 것이 바람직하다. 각각의 파티클은, 이동체의 상대적 이동을 반영하여 이동되고, 이동 이후에 디지털 실내 지도 상에서 이동 불가능한 위치에 있게 되면 삭제된다. 또한, 파티클 이동의 결과 파티클의 전체 개수가 기준치 미만으로 떨어지면, 기존의 파티클과 위치를 제외하고는 동일한 속성을 갖는 신규 파티클이 재생성 된다. 파티클에 기초한 위치 추정 방법은 크게 파티클을 후보 위치에 배치시키는 과정, 각 파티클마다 대응도(likelihood)를 계산하는 과정 및 계산된 대응도에 기초하여 파티클의 분포를 재배치(resampling)하는 과정을 포함할 수 있다. '파티클 필터링'을 이용한 위치 측정 방법은 널리 알려져 있으므로, 파티클 필터의 구체적인 동작에 대해서는 생략한다. A 'particle' is software-wisely placed on a digital indoor map, and has one or more properties. Each particle preferably has at least two properties, 'direction' and 'position'. Each particle is moved by reflecting the relative movement of the moving object, and is deleted if it is in a position where it cannot be moved on the digital indoor map after the movement. In addition, as a result of particle movement, when the total number of particles falls below the reference value, new particles having the same properties as the existing particles except for their positions are regenerated. The method for estimating a position based on particles may largely include a process of arranging particles at candidate positions, a process of calculating a likelihood for each particle, and a process of resampling the distribution of particles based on the calculated likelihood. can Since the location measurement method using 'particle filtering' is widely known, detailed operation of the particle filter will be omitted.
동작 710 및 동작 720은 도 5를 참조하여 설명한 동작 510 및 동작 520에 각각 대응되며, 도 5를 참조하여 설명한 바와 중복되므로 설명을 생략한다.Operations 710 and 720 respectively correspond to operations 510 and 520 described with reference to FIG. 5 , and since they overlap with those described with reference to FIG. 5 , descriptions thereof are omitted.
일 실시 예에 따르면 동작 730에서 프로세서(120)는 이동체의 후보 위치들에 대응하는 복수의 파티클 위치들을 예측(predict)할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 이전 시점에서 재배치된 파티클 위치 정보와, 이전 시점에서 현재까지 이동체의 이동 변위에 기초하여 현재 이동체의 후보 위치들에 대응하는 복수의 파티클 위치들을 예측할 수 있다. 이전 시점에서 현재까지 이동체의 이동 변위는 예를 들어 바퀴 속도 정보에 기초하여 획득될 수 있다.According to an embodiment, in operation 730, the
일 실시 예에 따르면 동작 740에서 프로세서(120)는 복수의 파티클 위치 각각에 대해, 3차원 특징점 정보를 2차원 확률 맵으로 투영할 수 있다. 즉 예측한 파티클 위치 각각에 대해 대응하는 하나의 2차원 확률 맵 및 해당 2차원 확률 맵에 투영된 고정밀 지도의 3차원 특징점이 존재할 수 있다. 일례로, 도 4a는 임의의 한 파티클 위치에 대응하는 2차원 확률 맵 및 투영된 3차원 특징점이고, 도 4b는 임의의 다른 파티클 위치에 대응하는 2차원 확률 맵 및 투영된 3차원 특징점일 수 있다. 프로세서(120)가 동작 740에서 3차원 특징점 정보를 2차원 확률 맵에 투영하는 방법은 도 2, [수학식 1], [수학식 2] 및 도 5의 동작 530을 참조하여 설명한 바와 중복되므로 생략한다. According to an embodiment, in
일 실시 예에 따르면 동작 750에서 프로세서(120)는 복수의 파티클 위치 각각에 대해, 확률 맵에 투영된 3차원 특징점 정보와, 확률 맵의 2차원 특징점 정보 사이의 대응도를 계산할 수 있다. 동작 750은 도 3a, 도 3b, 도 5의 동작 760 및 [수학식 3]을 참조하여 설명한 바와 중복되므로 생략한다.According to an embodiment, in
일 실시 예에 따르면 동작 760에서 프로세서(120)는 대응도에 기초하여 복수의 파티클 위치들을 재배치하여 이동체의 위치를 추정할 수 있다. 파티클 필터에 기초하여 이동체의 위치를 추정하는 구체적인 동작은 도 8을 참조하여 상세히 설명한다.According to an embodiment, in
도 8은 일 실시 예에 따른 대응도에 기초하여 이동체의 위치를 추정하는 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a method of estimating a position of a moving object based on a correspondence diagram according to an exemplary embodiment.
동작 810 내지 동작 830은 도 2를 참조하여 전술된 전자 장치(101)의 프로세서(120)에 의해 수행될 수 있고, 간명한 설명을 위해 도 1 내지 도 7을 참조하여 설명한 내용과 중복되는 내용은 생략될 수 있다.
일 실시 예에 따르면, 동작 810 내지 동작 840은 도 7을 참조하여 설명한 파티클 필터에 기초하여 이동체의 위치를 추정하는 동작(예: 도 7의 동작 760)에 대응될 수 있다.According to an embodiment,
일 실시 예에 따르면 동작 810에서, 프로세서(120)는 대응도에 따라 파티클 위치 각각에 대해 가중치를 설정할 수 있다. 일례로, 이동체의 2개의 후보 위치들에 대응하는 2개의 파티클 위치에 대해, 각각 도 4a 및 도 4b와 같이 2차원 확률 맵 및 투영된 3차원 특징점이 획득될 수 있다. 프로세서(120)는 대응도가 낮은 도 4a의 경우, 대응하는 파티클에 대해 가중치를 낮게 설정하고, 대응도가 높은 도 4b의 경우 대응하는 파티클에 대해 가중치를 높게 설정할 수 있다.According to an embodiment, in
일 실시 예에 따르면 동작 820에서, 프로세서(120)는 가중치에 따라 복수의 파티클 위치들을 재배치(resampling)할 수 있다. 예측한 복수의 파티클 위치 중 도 4b에 대응하는 파티클 위치에 대해 높은 가중치가 설정되었으므로, 도 4b에 대응하는 위치로 보다 많은 파티클들이 배치될 수 있다.According to an embodiment, in
일 실시 예에 따르면 동작 830에서, 프로세서(120)는 재배치된 파티클들의 평균값을 계산하여 이동체의 위치를 추정할 수 있다. 일례로, 프로세서(120)는 Maximum a posterior(MAP)에 기초하여 이동체의 위치를 추정할 수 있다.According to an embodiment, in
도 9는 일 실시 예에 따른 이동체 위치 추정 시스템을 설명하기 위한 도면이다.9 is a diagram for explaining a system for estimating a position of a moving object according to an exemplary embodiment.
도 9를 참조하면, 확장 칼만 필터(990)에 기초한 합성부(fusion part)(902)와 파티클 필터(980)에 기초한 맵 매칭부(map matching part)(901)로 구성된 이동체 위치 추정 시스템(900)이 도시된다.Referring to FIG. 9, a moving object position estimation system 900 composed of a
자율주행 자동차의 월드 도메인 상 위치를 추정하는 위치 추정 방법에는 GPS와 INS(Inertial Navigation System, 930)의 융합을 활용하는 방법이 있으나, GPS는 고층 건물 등으로 인한 다중 경로 수신, 신호 차단 등으로 인해 복잡한 도시 환경에서 정확도를 보장할 수 없다. 이동체 위치 추정 시스템(900)에서는 GPS 의존성을 제거하기 위해 IMU(Inertial Measurement Unit, 920)와 Wheel odometry(910), 고정밀 지도(940) 등을 융합하여 새로운 위치 추정 방법을 제안한다.There is a method of utilizing the convergence of GPS and INS (Inertial Navigation System, 930) as a location estimation method for estimating the location of an autonomous vehicle in the world domain. Accuracy cannot be guaranteed in complex urban environments. In order to eliminate GPS dependence, the mobile position estimation system 900 proposes a new position estimation method by converging an Inertial Measurement Unit (IMU) 920, a
합성부(902)의 확장 칼만 필터(EKF: Extended Kalman Filter)(990)는 비선형(non-linear) 관계에 있는 서로 다른 센서들을 융합하는데 일반적으로 사용되는 필터로, 확장 칼만 필터(990)의 사용을 위해서는 시스템 모델과 측정 모델이 정의되어야 한다. 이동체의 위치 추정 시스템(900)에서, Wheel odometry(910), IMU(920) 및 위치 정보에 기초하여 시스템 모델 및 측정 모델이 정의될 수 있다. 시스템 모델은 수학적 모델에 기초하여 상태 변수(state variable) 및 공분산(covariance)을 예측하고, 예측된 상태 변수 및 공분산은 측정값과 예측된 측정값의 차이에 의해 보정(compensate)된다.An Extended Kalman Filter (EKF) 990 of the
다만 확률 맵의 경우, 측정값과 예측된 측정값의 차이를 계산하기 모호할 수 있다. 도 1 내지 도 8을 참조하여 전술한 바와 같이, 전자 장치(101)의 프로세서(120)가 예측값과 측정값 사이의 대응도(likelihood)를 계산함으로써 확률 맵에서의 측정값과 예측된 측정값의 차이가 계산될 수 있다. However, in the case of a probability map, it may be ambiguous to calculate the difference between the measured value and the predicted measured value. As described above with reference to FIGS. 1 to 8 , the
도 1a 내지 도 1c를 참조하여 전술한 바와 같이, 이동체 위치 추정에 확장 칼만 필터(EKF: Extended Kalman Fileter)를 사용하는 경우, 이전 위치 정보에 기초하여 예측한 위치 정보와, 센서로 측정한 위치 정보 사이의 오차에 대한 정보가 필요할 수 있고, 오차를 계산하기 위해 두 정보 간 유사한 정도(likelihood, 이하, 대응도)를 계산해야 할 수 있다. 일례로, 도 1b의 특징점 정보(121)는 센서로 측정한 위치 정보에 대응될 수 있고, 도 1c의 특징점 정보(131)는 예측한 위치 정보에 대응될 수 있다.As described above with reference to FIGS. 1A to 1C , when an Extended Kalman Filter (EKF) is used for position estimation of a moving object, position information predicted based on previous position information and position information measured by a sensor Information on an error between the two information may be required, and a similarity (likelihood, hereinafter referred to as correspondence) between two pieces of information may need to be calculated in order to calculate the error. For example, the
도 1 내지 도 8을 참조하여 설명한 전자 장치(101)의 동작은, 이동체 위치 추정 시스템(900)에서 맵 매칭부(901)의 동작에 대응될 수 있다. 맵 매칭부(901)에서, 카메라(960)로부터 획득한 주변 영상에 대해 DNN 기반 시맨틱 세그멘테이션(970)이 수행되는 동작은 프로세서(120)가 촬영 장치(230)로부터 획득한 주변 영상으로부터 랜드마크 기반 확률 맵 형태의 2차원 특징점 정보를 획득하는 동작(예: 도 5의 동작 510 및 도 7의 동작 710)에 대응할 수 있다. 맵 매칭부(901)에서, 고정밀 지도(940)로부터 이동체 주변의 랜드마크를 추출하는 동작(950)은 프로세서(120)가 고정밀 지도 데이터베이스(210)로부터 이동체 주변의 고정밀 지도 데이터를 수신하고, 로컬 도메인으로 변환하는 동작(예: 도 5의 동작 520 및 도 7의 동작 720)에 대응할 수 있다. 맵 매칭부(901)에서, 파티클 필터(980)의 동작은 프로세서(120)가 파티클에 기초하여 고정밀 지도의 특징점과 확률 맵의 특징점 사이의 대응도를 계산하고 이동체의 위치를 추정하는 동작(예: 도 7의 동작 730 내지 동작 760)에 대응할 수 있다.The operation of the
도 10은 일 실시 예에 따른 전자 장치를 탑재한 차량을 도시한다.10 illustrates a vehicle equipped with an electronic device according to an exemplary embodiment.
도 10을 참조하면, 도 1 내지 도 9를 참조하여 설명한 전자 장치(101)가 포함되는 차량(1000)이 도시된다. 일 실시 예에 따른 차량(1000)은 운전자로부터의 입력이 거의 없거나 또는 전혀 없는 상황에서도, 인지된 주행 환경에 따라서 자율 모드(autonomous mode)로 주행할 수 있다. 주행 환경은 차량(1000)에 부착 또는 설치된 하나 이상의 센서들을 통해 인지될 수 있다. 예를 들어, 하나 이상의 센서들은 카메라, 라이다(LIDAR), 레이더(RADAR) 및 음성 인식 센서들을 포함할 수 있고, 기재된 예들로 제한되는 것은 아니다. 주행 환경은 도로, 도로의 상태, 차선의 종류, 주변 차량의 유무, 근접한 차량과의 거리, 날씨, 장애물의 유무 등을 포함할 수 있고, 기재된 예들로 제한되는 것은 아니다.Referring to FIG. 10 , a
차량(1000)은 주행 환경을 인식하고, 주행 환경에 적합한 자율 주행 경로를 생성한다. 자율 주행 경로를 따라가도록 자율 주행 차량은 내외부의 기계적인 요소들을 제어한다. 차량(1000)은 자율 주행 경로를 주기적으로 생성할 수 있다.The
다른 일 측면에 따른, 차량(1000)은 어드밴스드 운전자 지원 시스템(ADAS)을 이용하여 운전자의 운전을 보조할 수 있다. ADAS는 충돌 위험시 운전자가 제동장치를 밟지 않아도 스스로 속도를 줄이거나 멈추는 자동 긴급제동 시스템(Autonomous Emergency Braking: AEB), 차선 이탈 시 주행 방향을 조절해 차선을 유지하는 주행 조향보조 시스템(Lane Keep Assist System: LKAS), 사전에 정해 놓은 속도로 달리면서도 앞차와 간격을 알아서 유지하는 어드밴스드 스마트 크루즈 컨트롤(Advanced Smart Cruise Control: ASCC), 사각지대 충돌 위험을 감지해 안전한 차로 변경을 돕는 후측방 충돌 회피 지원 시스템(Active Blind Spot Detection: ABSD), 차량 주변 상황을 시각적으로 보여주는 어라운드 뷰 모니터링 시스템(Around View Monitor: AVM) 등을 포함한다.According to another aspect, the
차량(1000)에 포함된 전자 장치(101)는 차량(1000)의 기계적 장치를 제어하여, 자율 주행하거나 운전자의 운전을 보조할 수 있고, 기재된 실시예 이외의 ECU 및 다양한 종류의 컨트롤러나 센서 등에 사용될 수 있다. The
일 실시 예에 따르면, 도 1 내지 도 9를 참조하여 설명한 전자 장치(101)가 자율주행 차량 또는 어드밴스드 운전자 지원 시스템을 지원하는 차량(1000)에 포함될 수 있고, 전자 장치(101)는 차량(1000)의 위치 추정을 수행할 수 있다.According to an embodiment, the
이상에서 설명된 실시예들에서, 메모리(130)는 상술한 프로세서(120)의 처리 과정에서 생성되는 다양한 정보들을 저장할 수 있다. 이 밖에도, 메모리(130)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(130)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(720)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다.In the above-described embodiments, the
프로세서(120)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 분류 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(Central Processing Unit; CPU), 그래픽 처리 장치(Graphic Processing Unit; GPU), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array), NPU(Neural Processing Unit) 등을 포함할 수 있다.The
프로세서(120)는 프로그램을 실행하고, 전자 장치를 제어할 수 있다. 프로세서에 의하여 실행되는 프로그램 코드는 메모리에 저장될 수 있다.The
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on computer readable media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination, and the program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in the art of computer software. may be Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware device described above may be configured to operate as one or a plurality of software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques may be performed in an order different from the method described, and/or the components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.
Claims (20)
이동체에 탑재된 촬영 장치로 획득한 주변 영상으로부터, 랜드마크(landmark) 기반 확률 맵(probability map) 형태의 2차원 특징점 정보를 획득하는 단계;
상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터, 랜드마크 기반 3차원 특징점 정보를 획득하는 단계;
상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원(dimension)을 다른 하나의 차원으로 변환하는 단계;
상기 주변 영상의 특징점 정보와 상기 고정밀 지도 데이터의 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계; 및
상기 대응도에 기초하여 상기 이동체의 위치를 추정하는 단계
를 포함하는,
전자 장치의 동작 방법.
In the method of operating an electronic device,
obtaining 2D feature point information in the form of a probability map based on landmarks from a surrounding image acquired by a photographing device mounted on a moving object;
obtaining landmark-based 3D feature point information from high definition map data around the moving object;
converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension;
calculating a likelihood between feature point information of the surrounding image and feature point information of the high-precision map data; and
Estimating the position of the moving object based on the degree of correspondence
including,
Methods of operating electronic devices.
상기 주변 영상의 2차원 특징점 정보는, DNN(deep neural network) 기반의 시맨틱 세그멘테이션(semantic segmentation)에 기초하여 랜드마크에 따라 획득되는,
전자 장치의 동작 방법.
According to claim 1,
The 2D feature point information of the surrounding image is obtained according to a landmark based on deep neural network (DNN)-based semantic segmentation.
Methods of operating electronic devices.
상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터 상기 3차원 특징점 정보를 획득하는 단계는,
상기 이동체의 위치 정보에 기초하여 고정밀 지도 데이터베이스로부터 상기 이동체 주변의 랜드마크에 대한 월드(world) 도메인 상의 3차원 특징점 정보를 수신하는 단계; 및
상기 월드 도메인 상의 3차원 특징점 정보를 상기 촬영 장치에 대한 로컬 도메인으로 변환하는 단계
를 포함하는,
전자 장치의 동작 방법.
According to claim 1,
Obtaining the 3D feature point information from high definition map data around the moving object,
receiving 3D feature point information on a world domain for landmarks around the moving object from a high-precision map database based on location information of the moving object; and
converting 3D feature point information on the world domain into a local domain for the photographing device;
including,
Methods of operating electronic devices.
상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원을 다른 하나의 차원으로 변환하는 단계는,
역원근 변환법(inverse perspective mapping)에 기초하여, 상기 주변 영상의 2차원 특징점 정보를 3차원 확률 맵 형태로 변환하는 단계
를 포함하는,
전자 장치의 동작 방법.
According to claim 1,
The step of converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension,
Converting 2D feature point information of the surrounding image into a 3D probability map form based on inverse perspective mapping
including,
Methods of operating electronic devices.
상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원을 다른 하나의 차원으로 변환하는 단계는,
원근 변환법(perspective mapping)에 기초하여, 상기 고정밀 지도 데이터의 3차원 특징점 정보를 상기 주변 영상에서 획득한 2차원의 확률 맵으로 투영(project)하는 단계
를 포함하는,
전자 장치의 동작 방법.
According to claim 1,
The step of converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension,
Projecting the 3D feature point information of the high-precision map data into a 2D probability map obtained from the surrounding image based on perspective mapping
including,
Methods of operating electronic devices.
상기 주변 영상의 특징점 정보와 상기 고정밀 지도 데이터의 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계는,
상기 주변 영상에서 획득한 확률 맵에서, 상기 고정밀 지도 데이터의 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하는 단계; 및
상기 각 랜드마크에 대응하여 합산된 확률들을 곱해 상기 대응도를 계산하는 단계
를 포함하는,
전자 장치의 동작 방법.
According to claim 1,
The step of calculating the likelihood between the feature point information of the surrounding image and the feature point information of the high-precision map data,
summing probabilities corresponding to each landmark of feature point information of the high-precision map data in a probability map acquired from the surrounding image; and
Calculating the degree of correspondence by multiplying the summed probabilities corresponding to each landmark
including,
Methods of operating electronic devices.
상기 대응도에 기초하여 상기 이동체의 위치를 추정하는 단계는,
상기 대응도에 기초하여, 파티클 필터(particle filter) 또는 ML(maximum likelihood) 최적화 방법에 따른 상기 이동체의 위치 추정 결과를 업데이트하는 단계
를 포함하는,
전자 장치의 동작 방법.
According to claim 1,
The step of estimating the position of the moving object based on the degree of correspondence,
Updating a position estimation result of the moving object according to a particle filter or maximum likelihood (ML) optimization method based on the degree of correspondence
including,
Methods of operating electronic devices.
상기 이동체는 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량인,
전자 장치의 동작 방법.
According to claim 1,
The mobile body is an autonomous vehicle or a vehicle supporting an advanced driver assistance system (ADAS),
Methods of operating electronic devices.
상기 랜드마크는, 흰색 차선, 노란색 차선, 횡단보도, 과속 방지턱, 교통 신호등 및 교통 표지판 중 적어도 어느 하나를 포함하는,
전자 장치의 동작 방법.
According to claim 1,
The landmark includes at least one of a white lane, a yellow lane, a crosswalk, a speed bump, a traffic light, and a traffic sign.
Methods of operating electronic devices.
이동체에 탑재된 촬영 장치로 획득한 주변 영상으로부터, 랜드마크(landmark) 기반 확률 맵(probability map) 형태의 2차원 특징점 정보를 획득하는 단계;
상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터, 랜드마크 기반 3차원 특징점 정보를 획득하는 단계;
상기 이동체의 후보 위치들에 대응하는 복수의 파티클(particle) 위치들을 예측하는 단계;
상기 복수의 파티클 위치 각각에 대해, 상기 3차원 특징점 정보를 상기 주변 영상에서 획득한 확률 맵으로 투영(project)하는 단계;
상기 복수의 파티클 위치 각각에 대해, 상기 확률 맵에 투영된 상기 3차원 특징점 정보와, 상기 확률 맵의 2차원 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계; 및
상기 대응도에 기초해 상기 복수의 파티클 위치들을 재배치하여 상기 이동체의 위치를 추정하는 단계
를 포함하는,
이동체의 위치 추정 방법.
In the method for estimating the position of a moving object based on a particle filter,
obtaining 2D feature point information in the form of a probability map based on landmarks from a surrounding image acquired by a photographing device mounted on a moving object;
obtaining landmark-based 3D feature point information from high definition map data around the moving object;
predicting a plurality of particle positions corresponding to candidate positions of the moving object;
Projecting the 3D feature point information onto a probability map obtained from the surrounding image for each of the plurality of particle positions;
calculating a likelihood between the 3D feature point information projected on the probability map and the 2D feature point information of the probability map, for each of the plurality of particle positions; and
Estimating the position of the moving object by rearranging the positions of the plurality of particles based on the degree of correspondence.
including,
A method for estimating the position of a moving object.
상기 2차원 특징점 정보는, DNN(deep neural network) 기반의 시맨틱 세그멘테이션(semantic segmentation)에 기초하여 랜드마크에 따라 획득되는,
이동체의 위치 추정 방법.
According to claim 10,
The two-dimensional feature point information is obtained according to a landmark based on semantic segmentation based on a deep neural network (DNN).
A method for estimating the position of a moving object.
상기 이동체 주변의 고정밀 지도(High Definition Map) 데이터로부터 상기 3차원 특징점 정보를 획득하는 단계는,
상기 이동체의 위치 정보에 기초하여 고정밀 지도 데이터베이스로부터 상기 이동체 주변의 랜드마크에 대한 월드(world) 도메인 상의 3차원 특징점 정보를 수신하는 단계; 및
상기 월드 도메인 상의 3차원 특징점 정보를 상기 촬영 장치에 대한 로컬 도메인으로 변환하는 단계
를 포함하는,
이동체의 위치 추정 방법.
According to claim 10,
Obtaining the 3D feature point information from high definition map data around the moving object,
receiving 3D feature point information on a world domain for landmarks around the moving object from a high-precision map database based on location information of the moving object; and
converting 3D feature point information on the world domain into a local domain for the photographing device;
including,
A method for estimating the position of a moving object.
상기 복수의 파티클 위치들을 예측하는 단계는,
이전 시점에서 재배치된 파티클 위치 정보 및 상기 이전 시점부터의 상기 이동체의 이동 변위에 기초하여 상기 복수의 파티클 위치들을 예측하는 단계
를 포함하는,
이동체의 위치 추정 방법.
According to claim 10,
The step of predicting the plurality of particle positions,
Predicting the plurality of particle positions based on particle position information relocated from a previous viewpoint and movement displacement of the moving object from the previous viewpoint.
including,
A method for estimating the position of a moving object.
상기 3차원 특징점 정보는, 원근 변환법(perspective mapping)에 기초하여 상기 주변 영상에서 획득한 2차원의 확률 맵으로 투영(project)되는,
이동체의 위치 추정 방법.
According to claim 10,
The 3D feature point information is projected into a 2D probability map obtained from the surrounding image based on perspective mapping.
A method for estimating the position of a moving object.
상기 확률 맵에 투영된 3차원 특징점 정보와, 상기 확률 맵의 2차원 특징점 정보 사이의 대응도(likelihood)를 계산하는 단계는,
상기 확률 맵에서, 상기 투영된 3차원 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하는 단계; 및
상기 각 랜드마크에 대응하여 합산된 확률들을 곱하는 단계
를 포함하는,
이동체의 위치 추정 방법.
According to claim 10,
Calculating a likelihood between the 3D feature point information projected on the probability map and the 2D feature point information of the probability map,
summing probabilities corresponding to each landmark of the projected 3D feature point information in the probability map; and
Multiplying the summed probabilities corresponding to each landmark
including,
A method for estimating the position of a moving object.
상기 대응도에 기초해 상기 복수의 파티클 위치들을 재배치하여 상기 이동체의 위치를 추정하는 단계는,
상기 대응도에 따라 상기 복수의 파티클 위치들 각각에 대해 가중치(weight)를 설정하는 단계;
상기 가중치에 따라 상기 복수의 파티클 위치들을 재배치하는 단계; 및
상기 재배치된 파티클의 평균값을 계산하여 상기 이동체의 위치를 추정하는 단계
를 포함하는,
이동체의 위치 추정 방법.
According to claim 1,
The step of estimating the position of the moving object by rearranging the positions of the plurality of particles based on the degree of correspondence,
setting a weight for each of the plurality of particle positions according to the degree of correspondence;
rearranging the plurality of particle positions according to the weight; and
Estimating the position of the moving object by calculating an average value of the rearranged particles
including,
A method for estimating the position of a moving object.
상기 이동체는 자율 주행 차량 또는 ADAS(advanced driver assistance system)을 지원하는 차량인,
이동체의 위치 추정 방법.
According to claim 10,
The mobile body is an autonomous vehicle or a vehicle supporting an advanced driver assistance system (ADAS),
A method for estimating the position of a moving object.
A computer program stored in a medium to execute the method of any one of claims 1 to 17 in combination with hardware.
이동체 주변의 고정밀 지도(High Definition Map) 데이터 및 상기 이동체에 탑재된 촬영 장치로 획득한 주변 영상을 수신하는 통신 모듈;
컴퓨터로 실행 가능한 명령어들(computer-executable instructions)이 저장된 메모리; 및
상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 프로세서
를 포함하고,
상기 명령어들은,
상기 주변 영상으로부터, 랜드마크(landmark) 기반 확률 맵(probability map) 형태의 2차원 특징점 정보를 획득하고,
상기 고정밀 지도 데이터로부터, 랜드마크 기반 3차원 특징점 정보를 획득하고,
상기 주변 영상의 2차원 특징점 정보와 상기 고정밀 지도 데이터의 3차원 특징점 정보 중 어느 하나의 차원(dimension)을 다른 하나의 차원으로 변환하고,
상기 주변 영상의 특징점 정보와 상기 고정밀 지도 데이터의 특징점 정보 사이의 대응도(likelihood)를 계산하고,
상기 대응도에 기초하여 상기 이동체의 위치를 추정
하도록 구성되는,
전자 장치.
In electronic devices,
A communication module for receiving high-definition map data around the moving object and surrounding images acquired by a photographing device mounted on the moving object;
a memory in which computer-executable instructions are stored; and
A processor that accesses the memory and executes the instructions
including,
These commands are
Obtaining 2D feature point information in the form of a landmark-based probability map from the surrounding image;
Obtaining landmark-based 3D feature point information from the high-precision map data,
converting one dimension of the 2D feature point information of the surrounding image and the 3D feature point information of the high-precision map data into another dimension;
Calculate a likelihood between feature point information of the surrounding image and feature point information of the high-precision map data;
Estimating the position of the moving object based on the degree of correspondence
configured to
electronic device.
상기 명령어들은,
상기 주변 영상에서 획득한 확률 맵에서, 상기 고정밀 지도 데이터의 특징점 정보의 각 랜드마크에 대응하는 확률(probability)을 합산하고,
상기 각 랜드마크에 대응하여 합산된 확률들을 곱해 상기 대응도를 계산
하도록 구성되는,
전자 장치.
According to claim 19,
These commands are
Summing probabilities corresponding to each landmark of the feature point information of the high-precision map data in the probability map obtained from the surrounding image;
Calculate the degree of correspondence by multiplying the summed probabilities corresponding to each landmark
configured to
electronic device.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/864,943 US20230136492A1 (en) | 2021-09-10 | 2022-07-14 | Method and apparatus for estimating position of moving object |
CN202210893205.1A CN115797902A (en) | 2021-09-10 | 2022-07-27 | Method and electronic device for estimating position of moving object |
EP22188561.9A EP4148673A1 (en) | 2021-09-10 | 2022-08-03 | Method and apparatus for estimating position of moving object background |
JP2022142651A JP2023041035A (en) | 2021-09-10 | 2022-09-08 | Method and device for estimating position of mobile body |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210121201 | 2021-09-10 | ||
KR20210121201 | 2021-09-10 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230038067A true KR20230038067A (en) | 2023-03-17 |
Family
ID=85872061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210152830A KR20230038067A (en) | 2021-09-10 | 2021-11-09 | Method and apparatus for estimating position of a moving object |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230038067A (en) |
-
2021
- 2021-11-09 KR KR1020210152830A patent/KR20230038067A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110186467B (en) | Method for controlling autonomous vehicles based on group sensing point cloud map and computer-implemented system | |
US11042157B2 (en) | Lane/object detection and tracking perception system for autonomous vehicles | |
US11593950B2 (en) | System and method for movement detection | |
CN108961320B (en) | Method and system for determining speed of moving object | |
US10489686B2 (en) | Object detection for an autonomous vehicle | |
US10515321B2 (en) | Cost based path planning for autonomous driving vehicles | |
EP3714290B1 (en) | Lidar localization using 3d cnn network for solution inference in autonomous driving vehicles | |
EP3714285B1 (en) | Lidar localization using rnn and lstm for temporal smoothness in autonomous driving vehicles | |
US11521329B2 (en) | Updated point cloud registration pipeline based on ADMM algorithm for autonomous vehicles | |
US11747808B2 (en) | Systems and methods for matching an autonomous vehicle to a rider | |
CN112740268B (en) | Target detection method and device | |
WO2021217420A1 (en) | Lane tracking method and apparatus | |
US20170359561A1 (en) | Disparity mapping for an autonomous vehicle | |
US11687079B2 (en) | Methods, devices, and systems for analyzing motion plans of autonomous vehicles | |
CN112540593B (en) | Method and device for registering a point cloud for an autonomous vehicle | |
JP2020076745A (en) | Method and device for positioning image and map data base | |
US11237570B2 (en) | Methods and systems for configuring vehicle communications | |
KR20230038067A (en) | Method and apparatus for estimating position of a moving object | |
KR20200084446A (en) | Electronic apparatus for self driving of vehicles based on intersection node and thereof control method | |
JP2023041035A (en) | Method and device for estimating position of mobile body | |
WO2024008086A1 (en) | Trajectory prediction method as well as apparatus therefor, medium, program product, and electronic device | |
CN114407916B (en) | Vehicle control and model training method and device, vehicle, equipment and storage medium | |
WO2021196983A1 (en) | Ego-motion estimation method and apparatus | |
US11620831B2 (en) | Register sets of low-level features without data association | |
US20230316546A1 (en) | Camera-radar fusion using correspondences |