KR102268980B1 - Gps 음영지역에서 드론의 자율 주행을 위한 위치 추정 장치 - Google Patents
Gps 음영지역에서 드론의 자율 주행을 위한 위치 추정 장치 Download PDFInfo
- Publication number
- KR102268980B1 KR102268980B1 KR1020200188983A KR20200188983A KR102268980B1 KR 102268980 B1 KR102268980 B1 KR 102268980B1 KR 1020200188983 A KR1020200188983 A KR 1020200188983A KR 20200188983 A KR20200188983 A KR 20200188983A KR 102268980 B1 KR102268980 B1 KR 102268980B1
- Authority
- KR
- South Korea
- Prior art keywords
- location information
- drone
- map data
- coordinates
- location
- Prior art date
Links
- 230000001133 acceleration Effects 0.000 claims abstract description 15
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 238000013507 mapping Methods 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims abstract description 3
- 239000000284 extract Substances 0.000 claims description 13
- 238000000034 method Methods 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000004807 localization Effects 0.000 abstract description 2
- 238000005259 measurement Methods 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 241000607479 Yersinia pestis Species 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G21—NUCLEAR PHYSICS; NUCLEAR ENGINEERING
- G21C—NUCLEAR REACTORS
- G21C21/00—Apparatus or processes specially adapted to the manufacture of reactors or parts thereof
- G21C21/02—Manufacture of fuel elements or breeder elements contained in non-active casings
- G21C21/10—Manufacture of fuel elements or breeder elements contained in non-active casings by extrusion, drawing, or stretching by rolling, e.g. "picture frame" technique
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/0202—Control of position or course in two dimensions specially adapted to aircraft
-
- B64C2201/141—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02E—REDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
- Y02E30/00—Energy generation of nuclear origin
- Y02E30/30—Nuclear fission reactors
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Manufacturing & Machinery (AREA)
- Plasma & Fusion (AREA)
- General Engineering & Computer Science (AREA)
- High Energy & Nuclear Physics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Navigation (AREA)
Abstract
본 발명은 GPS 음영지역에서 드론의 자율 주행을 위한 위치 추정 장치에 대한 것이다.
본 발명에 따른 위치 추정 장치는 비행 지역 또는 건물의 지도 데이터를 획득하는 지도 정보 획득부, 복수의 이미지 센서로부터 획득한 이미지를 V-SLAM 처리하여 공통으로 감지되는 환경 내의 객체를 탐색하고, 탐색된 객체를 이용하여 드론의 제1 위치 정보를 획득하는 제1 위치 정보 획득부, IMU센서에서 측정된 가속도값 및 자이로값을 이중 적분하여 드론의 제2 위치 정보를 획득하는 제2 위치 정보 획득부, 상기 지도 데이터에 임의의 기준 좌표를 설정하고, 상기 설정된 기준 좌표를 기반으로 상기 제1 위치 정보 및 제2 위치 정보를 상호 맵핑하여 상대 좌표를 추출하는 상대 좌표 추출부, 그리고 상기 추출된 상대 좌표를 이용하여 드론의 이동 경로를 획득하는 이동 경로 획득부를 포함한다.
이와 같이 본 발명에 따르면, 지도상에 가상의 기준 좌표를 생성하고, V-SLAM 및 IMU센서를 이용하여 드론의 이동에 따른 상대 좌표를 획득하여 GPS 음영지역에서 드론의 이동 경로를 추적할 수 있고, 기준 좌표 및 상대 좌표를 기반으로 생성된 이동경로를 이용하여 인공지능 기반의 자율 항법을 제공할 수 있다.
본 발명에 따른 위치 추정 장치는 비행 지역 또는 건물의 지도 데이터를 획득하는 지도 정보 획득부, 복수의 이미지 센서로부터 획득한 이미지를 V-SLAM 처리하여 공통으로 감지되는 환경 내의 객체를 탐색하고, 탐색된 객체를 이용하여 드론의 제1 위치 정보를 획득하는 제1 위치 정보 획득부, IMU센서에서 측정된 가속도값 및 자이로값을 이중 적분하여 드론의 제2 위치 정보를 획득하는 제2 위치 정보 획득부, 상기 지도 데이터에 임의의 기준 좌표를 설정하고, 상기 설정된 기준 좌표를 기반으로 상기 제1 위치 정보 및 제2 위치 정보를 상호 맵핑하여 상대 좌표를 추출하는 상대 좌표 추출부, 그리고 상기 추출된 상대 좌표를 이용하여 드론의 이동 경로를 획득하는 이동 경로 획득부를 포함한다.
이와 같이 본 발명에 따르면, 지도상에 가상의 기준 좌표를 생성하고, V-SLAM 및 IMU센서를 이용하여 드론의 이동에 따른 상대 좌표를 획득하여 GPS 음영지역에서 드론의 이동 경로를 추적할 수 있고, 기준 좌표 및 상대 좌표를 기반으로 생성된 이동경로를 이용하여 인공지능 기반의 자율 항법을 제공할 수 있다.
Description
본 발명은 GPS 음영지역에서 드론의 자율 주행을 위한 위치 추정 장치에 관한 것으로서, 더욱 상세하게는 V-SLAM 및 IMU센서를 이용하여 드론의 이동에 따른 위치 정보를 추정하고, 추정된 위치 정보를 이용하여 GPS 음영지역에서 드론의 자율 주행을 가능하게 하는 위치 추정 장치에 관한 것이다.
군수산업에서 시작된 것으로 알려진 드론(drone)은 통상 무선 전파의 유도에 의해 무인 비행하는 비행체를 말하며, 최근에는 취미용, 산업용, 촬영용, 농업용 및 방제용 등으로 다양하게 이용되고 있다.
한편, 위와 같은 드론은 초기의 단순한 원격 조종 기체에 GPS, 바로미터(barometer), 장애물 감지센서와 같은 각종 센서를 이용한 자율형 드론으로 점차 발전하고 있으며, 이를 위해 각국에서 연구 개발이 활발히 진행되고 있다.
그러나, 종래의 드론은 원격 조종기(RC)가 반드시 필요하기 때문에, 드론의 비행 제어를 위해서는 조종자가 일정 수준 이상의 숙달이 이루어지지 않는 한 조작이 어렵고, 숙달이 되어도 전자 지도를 보며 직접 조작해야 하는 문제가 있다.
또한, 드론의 비행시 네비게이션으로 사용되는 위치기반 정보를 GPS로부터 제공받기 때문에 GPS 센서의 기본 오차(1~10M 내외) 및 신호 교란(전파 반사나 jamming과 같은 악의적인 교란)의 가능성이 존재한다.
또한, GPS 위치 정보를 통해 제공되는 절대 좌표로는 드론이 자율 주행하는 경로 상에 위치하는 지형 즉, 지면의 굴곡을 파악할 수 없어서 충돌의 위험이 크고, GPS 신호가 수신되지 않는 실내 등 음영지역에서는 사용이 불가능하다
본 발명의 배경이 되는 기술은 대한민국 등록공개공보 제10-2019-0007632호(2019.01.23. 공개)에 개시되어 있다.
본 발명이 이루고자 하는 기술적 과제는 V-SLAM 및 IMU센서를 이용하여 드론의 이동에 따른 위치 정보를 추정하고, 추정된 위치 정보를 이용하여 GPS 음영지역에서 드론의 자율 주행을 가능하게 하는 위치 추정 장치를 제공하기 위한 것이다.
이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따른 GPS 음영지역에서 드론의 자율 주행을 위한 위치 추정 장치에 있어서, 비행 지역 또는 건물의 지도 데이터를 획득하는 지도 정보 획득부, 복수의 이미지 센서로부터 획득한 이미지를 V-SLAM 처리하여 공통으로 감지되는 환경 내의 객체를 탐색하고, 탐색된 객체를 이용하여 드론의 제1 위치 정보를 획득하는 제1 위치 정보 획득부, IMU센서에서 측정된 가속도값 및 자이로값을 이중 적분하여 드론의 제2 위치 정보를 획득하는 제2 위치 정보 획득부, 상기 지도 데이터에 임의의 기준 좌표를 설정하고, 상기 설정된 기준 좌표를 기반으로 상기 제1 위치 정보 및 제2 위치 정보를 상호 맵핑하여 상대 좌표를 추출하는 상대 좌표 추출부, 그리고 상기 추출된 상대 좌표를 이용하여 드론의 이동 경로를 획득하는 이동 경로 획득부를 포함한다.
상기 복수의 이미지 센서로부터 획득한 이미지에 포함된 객체에 대한 특징점을 추출하고, 추출된 특징점을 기 구축된 AI 알고리즘에 입력하여 해당 객체에 대한 식별 정보를 획득하는 객체 정보 제공부를 더 포함할 수 있다.
상기 제1 위치 정보 획득부는, 현재 시점에서 획득한 이미지를 통해 획득한 특징점과 이전 시점에서의 이미지로부터 획득한 특징점을 비교하여 동일한 특징점의 개수를 추출하고, 추출된 특징점의 개수가 기준값 이하이면 드론이 이동한 것으로 판단할 수 있다.
상기 제1 위치 정보 획득부는, 드론이 이동한 것으로 판단되면, 획득한 특징점으로부터 추출된 객체의 식별 정보와 지도 데이터에 포함된 객체의 식별 정보를 비교하여 제1 위치 정보를 획득할 수 있다.
상기 제2 위치 정보 획득부는, 상기 가속도값을 이중적분하여 드론의 이동거리 값을 획득하고, 상기 자이로값을 이중적분하여 드론의 회전각도 값을 획득할 수 있다.
상기 상대 좌표 추출부는, 수신된 지도 데이터가 존재 할 경우에는, 상기 지도 데이터에 임의의 기준 점을 기준 좌표를 설정하고, 수신된 지도 데이터가 존지 하지 않을 경우에는, 이전 시점에서 추출된 상대 좌표를 기준 좌표로 설정할 수 있다.
상기 이동 경로 획득부는, 상기 제1 위치 정보와 상기 제2 위치 정보를 시계열적으로 나열하여 드론의 전체 비행 경로를 획득할 수 있다.
상기 비행 지역에 대한 지도 데이터가 없는 경우에는, 추출된 상대 좌표와 객체 정보 제공부로부터 전달받은 객체 식별 정보를 이용하여 환경 정보를 생성하고, 생성된 환경 정보를 누적하여 해당 지역의 지도 데이터를 생성하는 제어부를 더 포함할 수 있다.
상기 제어부는, 현재 시점에서 획득한 이미지를 통해 획득한 특징점과 이전 시점에서의 이미지로부터 획득한 특징점을 비교하여 획득한 상이 특징점을 이용하여 객체 식별 정보를 획득할 수 있다.
이와 같이 본 발명에 따르면, 지도상에 가상의 기준 좌표를 생성하고, V-SLAM 및 IMU센서를 이용하여 드론의 이동에 따른 상대 좌표를 획득하여 GPS 음영지역에서 드론의 이동 경로를 추적할 수 있고, 기준 좌표 및 상대 좌표를 기반으로 생성된 이동경로를 이용하여 인공지능 기반의 자율 항법을 제공할 수 있다.
또한, 본 발명에 따르면, V-SLAM을 이용하여 획득한 데이터와 IMU센서를 통해 획득한 데이터를 결합하여 드론의 이동 경로를 보다 정확하게 추정할 수 있고, V-SLAM을 이용하여 GPS 음영지역에서의 지형 및 지물을 인식하여 지도 제작이 가능하고, 드론의 위치를 추정하기 위해 생성된 상대 좌표와 지도를 융합하여 인공지능 기반의 네비게이션을 제공할 수 있다.
도 1은 본 발명의 실시예에 따른 위치 추정 장치를 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 위치 추정 장치를 이용하여 드론의 위치 정보를 획득하는 방법을 설명하기 위한 순서도이다.
도 3은 본 발명의 실시예에 따른 위치 추정 장치를 이용한 지도 작성 방법을 설명하기 위한 순서도이다.
도 2는 본 발명의 실시예에 따른 위치 추정 장치를 이용하여 드론의 위치 정보를 획득하는 방법을 설명하기 위한 순서도이다.
도 3은 본 발명의 실시예에 따른 위치 추정 장치를 이용한 지도 작성 방법을 설명하기 위한 순서도이다.
이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하기로 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하에서는 도 1을 이용하여 본 발명의 실시예에 따른 위치 추정 장치(100)에 대해 더욱 상세하게 설명한다.
도 1은 본 발명의 실시예에 따른 위치 추정 장치를 설명하기 위한 구성도이다.
본 발명의 실시예에 따른 위치 추정 장치(100)는 드론 내에 설치될 수도 있고, 드론 외부에 설치될 수도 있으며, 드론의 자율 항법을 도모한다.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 위치 추정 장치(100)는 지도 정보 획득부(110), 제1 위치 정보 획득부(120), 제2 위치 정보 획득부(130), 상대 좌표 추출부(140), 이동 경로 획득부(150), 객체 정보 제공부(160) 및 제어부(170)를 포함한다.
먼저, 지도 정보 획득부(110)는 GPS 음영지역에 위치하며, 드론이 비행하고자 하는 지역 또는 건물의 지도 데이터를 획득한다. 그리고 지도 정보 획득부(110)는 지도 데이터를 이용하여 지역 또는 건물 내에 포함된 사물 및 지물에 대한 객체 정보를 저장한다.
제1 위치 정보 획득부(120)는 드론에 설치된 복수의 이미지 센서로부터 획득한 이미지를 이용하여 공통적으로 감지되는 객체를 추출한다. 그리고, 제1 위치 정보 획득부(120)는 추출된 객체의 특징점을 이용하여 드론의 제1 위치 정보를 획득한다.
제2 위치 정보 획득부(130)는 드론에 설치된 관성 측정장치(Inertial Measurement Unit, IMU)로부터 가속도 값 및 자이로 값을 수신한다. 그리고, 제2 위치 정보 획득부(130)는 수신된 가속도 값 및 자이로 값을 이중 적분하여 2차원 공간에서 드론의 제2 위치 정보를 획득한다.
상대 좌표 추출부(140)는 획득한 제1 위치 정보와 제2 위치정보를 이용하여 상대 좌표를 추출한다. 이를 다시 설명하면, 상대 좌표 추출부(140)는 획득한 지도 데이터에 제1 위치 정보 및 제2 위치정보를 대입한 다음, 기 설정된 기본 좌표에 대응되는 상대좌표를 획득한다.
이동 경로 획득부(150)는 획득한 기본 좌표와 상태 좌표를 이용하여 드론의 이동 경로를 획득한다. 획득한 이동 경로는 저장되며, 저장된 이동 경로는 네비게이션(navigation) 정보로 제공되어 드론으로 하여금 자율 주행을 가능하게 한다.
객체 정보 제공부(160)는 이미지 센서로부터 획득한 이미지에 포함된 객체의 식별 정보를 제공한다. 부연하자면, 객체 정보 제공부(160)는 지도 데이터에 포함된 객체 정보를 획득하고 저장한다. 그리고, 객체 정보 제공부(160)는 AI 알고리즘에 획득한 객체 정보를 학습시킨다. 그 다음. 이미지 센서를 통해 획득한 이미지에서 추출한 객체의 특징점을 AI 알고리즘에 입력하여 객체에 대한 식별정보를 생성한다.
제어부(170)는 비행하고자 하는 지역 또는 건물의 지도데이터가 없을 경우에, 제1 위치 정보 및 제2 위치 정보를 이용하여 드론의 이동에 따른 환경 정보를 생성한다. 그 다음, 제어부(170)는 생성된 환경 정보를 이용하여 해당 지역 또는 건물의 지도 데이터를 생성한다.
이하에서는 도 2를 이용하여 본 발명의 실시예에 따른 위치 추정 장치(100)를 이용한 드론의 위치 정보를 획득하는 방법에 대해 더욱 상세하게 설명한다.
도 2는 본 발명의 실시예에 따른 위치 추정 장치를 이용하여 드론의 위치 정보를 획득하는 방법을 설명하기 위한 순서도이다.
도 2에 도시된 바와 같이, 본 발명의 실시예에 따른 위치 추정 장치(100)는 지도 데이터를 획득한다(S210).
지도 정보 획득부(110)는 비행하고자 하는 지역 또는 건물에 대한 지도 데이터를 획득한다. 여기서 지도 데이터는 길에 대한 정보와 장애물, 지물 등을 포함하는 개체 정보를 포함한다.
그 다음, 위치 추정 장치(100)는 드론에 설치된 이미지 센서 및 IMU 센서로부터 측정된 데이터를 수신한다(S220).
부연하자면, 위치 추정 장치(100)는 드론에 설치된 이미지 센서에서 획득한 이미지를 수신한다. 또한, 위치 추정 장치(100)는 IMU 센서로부터 가속도값 및 자이로값을 수신한다.
수신된 이미지는 제1 위치 정보 획득부(120)에 전달되고, 가속도값 및 자이로값은 제2 위치 정보 획득부에 전달된다.
그 다음, 제1 위치 정보 획득부(120)는 수신된 이미지를 이용하여 제1 위치 정보를 획득한다(S230).
이를 다시 설명하면, 드론에는 복수개의 이미지센서가 설치되며, 위치 추정 장치(100)는 각각의 이미지 센서로부터 이미지를 수신한다. 그러면, 제1 위치 정보 획득부(120)는 수신된 복수의 이미지를 비교하여 동일한 객체를 추출하고, 추출한 객체로부터 특징점을 획득한다.
그 다음, 제1 위치 정보 획득부(120)는 현재 시점에서 획득한 이미지를 통해 획득한 특징점과 이전 시점에서의 이미지로부터 획득한 특징점을 비교하여 동일한 특징점의 개수를 추출한다.
그리고, 추출된 특징점의 개수가 기준값 이하이면, 제1 위치 정보 획득부(120)는 드론이 이동한 것으로 판단하고, 동일하지 않은 특징점 정보를 객체 정보 제공부(160)에 전달한다.
그리고, 제1 위치 정보 획득부(120)는 객체 정보 제공부(160)로부터 획득한 객체의 식별 정보와 지도 데이터에 포함된 객체와 비교하여 제1 위치 정보를 획득한다.
그 다음, 제2 위치 정보 획득부(120)는 수신된 가속도값 및 자이로값을 이용하여 제2 위치 정보를 획득한다(S240).
제2 위치 정보 획득부(120)는 가속도값을 이중적분하여 드론의 이동거리 값을 획득한다. 그리고 제2 위치 정보 획득부(120)는 자이로값을 이중적분하여 드론의 회전각도 값을 획득한다.
S230 단계 및 S240 단계를 완료하면, 상대 좌표 추출부(140)는 수신된 지도 데이터에 임의의 기준 좌표를 설정하고, 설정된 기준 좌표를 기반으로 상대 좌표를 추출한다(S250).
상대 좌표 추출부(140)는 지도 데이터에 임의의 기준 좌표를 설정한다. 이때, 기준 좌표는 해당 지역 또는 건물에서 드론의 비행이 시작된 위치 좌표일 수도 있고, 사용자에 의해 설정된 좌표일 수도 있다.
그 다음, 상대 좌표 추출부(140)는 기준 좌표에 제1 위치 정보를 적용하여 제1 위치 정보에 대응하는 상대 좌표를 추출한다.
또한, 상대 좌표 추출부(140)는 기준 좌표에 제2 위치 정보 적용하여 제2 위치 정보에 대응하는 상대 좌표를 추출한다.
S250단계가 완료되면, 이동 경로 획득부(150)는 획득한 상대좌표를 이용하여 드론의 이동경로를 획득한다(S260).
이미지 센서를 통해 획득한 이미지를 이용하여 드론의 위치를 추적하는 VSLAM(Simultaneous localization and mapping)은 IMU센서에 비해 상대적으로 위치 추적하는 속도가 느린 단점을 지닌다. 따라서, 본 발명의 실시예에 따른 위치 추적 장치(100)는 VSLAM을 통해 추적된 제1 위치 정보와 IMU센서를 통해 추적된 제2 위치정보를 시계열적으로 나열하여 드론의 이동 경로를 획득한다.
그리고, 획득한 이동 경로는 드론의 자율 항법에 네비게이션으로 제공된다.
이하에서는 도 3을 이용하여 본 발명의 실시예에 따른 위치 추정 장치(100)를 이용하여 지도를 작성하는 방법에 대하 더욱 상세하게 설명한다.
도 3은 본 발명의 실시예에 따른 위치 추정 장치를 이용한 지도 작성 방법을 설명하기 위한 순서도이다.
도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 위치 추정 장치(100)는 드론에 설치된 이미지 센서 및 IMU 센서로부터 측정된 데이터를 수신한다(S310).
부연하자면, 위치 추정 장치(100)는 드론에 설치된 이미지 센서에서 획득한 이미지를 수신한다. 또한, 위치 추정 장치(100)는 IMU 센서로부터 가속도값 및 자이로값을 수신한다.
수신된 이미지는 제1 위치 정보 획득부(120)에 전달되고, 가속도값 및 자이로값은 제2 위치 정보 획득부에 전달된다.
그 다음, 제1 위치 정보 획득부(120)는 수신된 이미지를 이용하여 제1 위치 정보를 획득한다(S320).
이를 다시 설명하면, 드론에는 복수개의 이미지센서가 설치되며, 위치 추정 장치(100)는 각각의 이미지 센서로부터 이미지를 수신한다. 그러면, 제1 위치 정보 획득부(120)는 수신된 복수의 이미지를 비교하여 동일한 객체를 추출하고, 추출한 객체로부터 특징점을 획득한다.
그 다음, 제1 위치 정보 획득부(120)는 현재 시점에서 획득한 이미지를 통해 획득한 특징점과 이전 시점에서의 이미지로부터 획득한 특징점을 비교하여 동일한 특징점의 개수를 추출한다.
그리고, 추출된 특징점의 개수가 기준값 이하이면, 제1 위치 정보 획득부(120)는 드론이 이동한 것으로 판단하고, 위치 변화 및 방향 변화를 계산하여 제1 위치 정보를 획득한다.
그리고 제1 위치 정보 획득부(120)는 동일하지 않은 특징점 정보를 객체 정보 제공부(160)에 전달하고, 객체 정보 제공부(160)는 전달받은 특징점 정보를 이용하여 추출된 객체 식별 정보를 제어부(170)에 전달한다.
그리고, 제2 위치 정보 획득부(120)는 수신된 가속도값 및 자이로값을 이용하여 제2 위치 정보를 획득한다(S230).
제2 위치 정보 획득부(120)는 가속도값을 이중적분하여 드론의 이동거리 값을 획득한다. 그리고 제2 위치 정보 획득부(120)는 자이로값을 이중적분하여 드론의 회전각도 값을 획득한다.
S320 단계 및 S330 단계가 완료되면, 상대 좌표 추출부(140)는 임의의 기준 좌표를 설정하고, 설정된 기준 좌표를 기반으로 상대 좌표를 추출한다(S340).
이때, 상대 좌표 추출부(140)는 지도 데이터에 대한 정보를 가지고 있지 않으므로 임의로 기준 좌표를 설정하고, 설정된 기준 좌표에 제1 위치 정보와 제2 위치 정보를 적용하여 상대 좌표를 추출한다.
또한, 상대 좌표 추출부(140)는 이전 시점에서 추출된 상대 좌표를 기준 좌표로 설정하고, 설정된 기준 좌표에 제1 위치 정보와 제2 위치 정보를 적용하여 상대 좌표를 추출한다.
그 다음, 제어부(170)는 추출된 상대 좌표와 객체 정보 제공부(160)로부터 전달받은 객체 식별 정보를 이용하여 환경 정보를 생성한다. 그리고, 생성된 환경 정보를 누적하여 해당 지역의 지도 데이터를 생성한다(S250).
제어부(170)는 지도 데이터가 없는 상태이므로, 획득한 객체 식별 정보를 이용하여 주변의 환경 정보를 생성한다. 그리고, 제어부(170)는 생성된 환경정보를 이용하여 지도 데이터를 생성한다.
이와 같이 본 발명에 따른 위치 검출 장치는 지도상에 가상의 기준 좌표를 생성하고, V-SLAM 및 IMU센서를 이용하여 드론의 이동에 따른 상대 좌표를 획득하여 GPS 음영지역에서 드론의 이동 경로를 추적할 수 있고, 홈 좌표 및 상대 좌표를 기반으로 생성된 이동경로를 이용하여 인공지능 기반의 자율 항법을 제공할 수 있다.
또한, 본 발명에 따른 위치 검출 장치는 V-SLAM을 이용하여 획득한 데이터와 IMU센서를 통해 획득한 데이터를 결합하여 드론의 이동 경로를 보다 정확하게 추정할 수 있고, V-SLAM을 이용하여 GPS 음영지역에서의 지형 및 지물을 인식하여 지도 제작이 가능하고, 드론의 위치를 추정하기 위해 생성된 상대 좌표와 지도를 융합하여 인공지능 기반의 네비게이션을 제공할 수 있다.
본 발명은 도면에 도시된 실시 예를 참고로 하여 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
100 : 위치 추정 장치
110 : 지도 정보 획득부
120 : 제1 위치 정보 획득부
130 : 제2 위치 정보 획득부
140 : 상대 좌표 추출부
150 : 이동 경로 획득부
160 : 객체 정보 제공부
170 : 제어부
110 : 지도 정보 획득부
120 : 제1 위치 정보 획득부
130 : 제2 위치 정보 획득부
140 : 상대 좌표 추출부
150 : 이동 경로 획득부
160 : 객체 정보 제공부
170 : 제어부
Claims (9)
- GPS 음영지역에서 드론의 자율 주행을 위한 위치 추정 장치에 있어서,
비행 지역 또는 건물의 지도 데이터를 획득하는 지도 정보 획득부,
복수의 이미지 센서로부터 획득한 이미지를 V-SLAM 처리하여 공통으로 감지되는 환경 내의 객체를 탐색하고, 탐색된 객체를 이용하여 드론의 제1 위치 정보를 획득하는 제1 위치 정보 획득부,
IMU센서에서 측정된 가속도값 및 자이로값을 이중 적분하여 드론의 제2 위치 정보를 획득하는 제2 위치 정보 획득부,
상기 지도 데이터에 임의의 기준 좌표를 설정하고, 상기 설정된 기준 좌표를 기반으로 상기 제1 위치 정보 및 제2 위치 정보를 상호 맵핑하여 상대 좌표를 추출하는 상대 좌표 추출부,
상기 추출된 상대 좌표를 이용하여 드론의 이동 경로를 획득하는 이동 경로 획득부, 그리고
상기 비행 지역에 대한 지도 데이터가 없는 경우에는, 추출된 상대 좌표와 객체 정보 제공부로부터 전달받은 객체 식별 정보를 이용하여 환경 정보를 생성하고, 생성된 환경 정보를 누적하여 해당 지역의 지도 데이터를 생성하는 제어부를 포함하며,
상기 상대 좌표 추출부는,
수신된 지도 데이터가 존재 할 경우에는, 상기 지도 데이터에 임의의 기준 점을 기준 좌표를 설정하고,
수신된 지도 데이터가 존지 하지 않을 경우에는, 이전 시점에서 추출된 상대 좌표를 기준 좌표로 설정하며,
상기 제어부는,
현재 시점에서 획득한 이미지를 통해 획득한 특징점과 이전 시점에서의 이미지로부터 획득한 특징점을 비교하여 획득한 상이 특징점을 이용하여 객체 식별 정보를 획득하는 위치 추정 장치. - 제1항에 있어서,
상기 복수의 이미지 센서로부터 획득한 이미지에 포함된 객체에 대한 특징점을 추출하고, 추출된 특징점을 기 구축된 AI 알고리즘에 입력하여 해당 객체에 대한 식별 정보를 획득하는 객체 정보 제공부를 더 포함하는 위치 추정 장치. - 제1항에 있어서,
상기 제1 위치 정보 획득부는,
현재 시점에서 획득한 이미지를 통해 획득한 특징점과 이전 시점에서의 이미지로부터 획득한 특징점을 비교하여 동일한 특징점의 개수를 추출하고,
추출된 특징점의 개수가 기준값 이하이면 드론이 이동한 것으로 판단하는 위치 추정 장치. - 제3항에 있어서,
상기 제1 위치 정보 획득부는,
드론이 이동한 것으로 판단되면, 획득한 특징점으로부터 추출된 객체의 식별 정보와 지도 데이터에 포함된 객체의 식별 정보를 비교하여 제1 위치 정보를 획득하는 위치 추정 장치. - 제1항에 있어서,
상기 제2 위치 정보 획득부는,
상기 가속도값을 이중적분하여 드론의 이동거리 값을 획득하고, 상기 자이로값을 이중적분하여 드론의 회전각도 값을 획득하는 위치 추정 장치. - 삭제
- 제1항에 있어서,
상기 이동 경로 획득부는,
상기 제1 위치 정보와 상기 제2 위치 정보를 시계열적으로 나열하여 드론의 전체 비행 경로를 획득하는 위치 추정 장치. - 삭제
- 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200188983A KR102268980B1 (ko) | 2020-12-31 | 2020-12-31 | Gps 음영지역에서 드론의 자율 주행을 위한 위치 추정 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200188983A KR102268980B1 (ko) | 2020-12-31 | 2020-12-31 | Gps 음영지역에서 드론의 자율 주행을 위한 위치 추정 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102268980B1 true KR102268980B1 (ko) | 2021-06-24 |
Family
ID=76606963
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200188983A KR102268980B1 (ko) | 2020-12-31 | 2020-12-31 | Gps 음영지역에서 드론의 자율 주행을 위한 위치 추정 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102268980B1 (ko) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114169930A (zh) * | 2021-12-07 | 2022-03-11 | 钻技(上海)信息科技有限公司 | 一种线上线下协同的门店精准营销方法及系统 |
CN115034696A (zh) * | 2022-08-12 | 2022-09-09 | 北京迈平测绘技术开发有限公司 | 一种地质测绘协同作业方法和系统 |
CN116105766A (zh) * | 2022-12-06 | 2023-05-12 | 国网安徽省电力有限公司马鞍山供电公司 | 一种基于数据采集的无人机位置综合定位系统 |
KR20240081245A (ko) | 2022-11-30 | 2024-06-07 | 주식회사 인투스카이 | 자율 주행 제어 장치 및 그 동작 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011069622A (ja) * | 2009-09-24 | 2011-04-07 | Casio Computer Co Ltd | 測位装置、位置データの記録方法およびプログラム |
KR20180117879A (ko) * | 2017-04-20 | 2018-10-30 | 한국과학기술원 | 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법 |
WO2019082301A1 (ja) * | 2017-10-25 | 2019-05-02 | 楽天株式会社 | 無人航空機制御システム、無人航空機制御方法、及びプログラム |
KR20190064311A (ko) * | 2017-11-30 | 2019-06-10 | 주식회사 모빌테크 | 라이다를 이용한 지도 생성 방법 및 장치 |
-
2020
- 2020-12-31 KR KR1020200188983A patent/KR102268980B1/ko active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011069622A (ja) * | 2009-09-24 | 2011-04-07 | Casio Computer Co Ltd | 測位装置、位置データの記録方法およびプログラム |
KR20180117879A (ko) * | 2017-04-20 | 2018-10-30 | 한국과학기술원 | 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법 |
WO2019082301A1 (ja) * | 2017-10-25 | 2019-05-02 | 楽天株式会社 | 無人航空機制御システム、無人航空機制御方法、及びプログラム |
KR20190064311A (ko) * | 2017-11-30 | 2019-06-10 | 주식회사 모빌테크 | 라이다를 이용한 지도 생성 방법 및 장치 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114169930A (zh) * | 2021-12-07 | 2022-03-11 | 钻技(上海)信息科技有限公司 | 一种线上线下协同的门店精准营销方法及系统 |
CN114169930B (zh) * | 2021-12-07 | 2022-12-13 | 钻技(上海)信息科技有限公司 | 一种线上线下协同的门店精准营销方法及系统 |
CN115034696A (zh) * | 2022-08-12 | 2022-09-09 | 北京迈平测绘技术开发有限公司 | 一种地质测绘协同作业方法和系统 |
CN115034696B (zh) * | 2022-08-12 | 2022-11-01 | 北京迈平测绘技术开发有限公司 | 一种地质测绘协同作业方法和系统 |
KR20240081245A (ko) | 2022-11-30 | 2024-06-07 | 주식회사 인투스카이 | 자율 주행 제어 장치 및 그 동작 방법 |
CN116105766A (zh) * | 2022-12-06 | 2023-05-12 | 国网安徽省电力有限公司马鞍山供电公司 | 一种基于数据采集的无人机位置综合定位系统 |
CN116105766B (zh) * | 2022-12-06 | 2024-04-05 | 国网安徽省电力有限公司马鞍山供电公司 | 一种基于数据采集的无人机位置综合定位系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102268980B1 (ko) | Gps 음영지역에서 드론의 자율 주행을 위한 위치 추정 장치 | |
JP6827627B2 (ja) | ビークル環境マップを生成および更新するための方法およびシステム | |
US8401783B2 (en) | Method of building map of mobile platform in dynamic environment | |
Schreiber et al. | Laneloc: Lane marking based localization using highly accurate maps | |
EP2503510B1 (en) | Wide baseline feature matching using collaborative navigation and digital terrain elevation data constraints | |
CN105466438B (zh) | 防撞车辆中的传感器测距和应用 | |
US11370115B2 (en) | Path planning for an unmanned vehicle | |
EP3018548A1 (en) | Domestic robotic system | |
CN107656545A (zh) | 一种面向无人机野外搜救的自主避障与导航方法 | |
JP6881464B2 (ja) | 自己位置推定方法及び自己位置推定装置 | |
KR101439921B1 (ko) | 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템 | |
JP5930346B2 (ja) | 自律移動システムおよび管制装置 | |
US20180154901A1 (en) | Method and system for localizing a vehicle | |
US11163308B2 (en) | Method for creating a digital map for an automated vehicle | |
KR20120001532A (ko) | 거리 신호를 이용하여 위치를 인식하는 장치 및 방법 | |
JP6527726B2 (ja) | 自律移動ロボット | |
CN112781599B (zh) | 确定车辆的位置的方法 | |
KR20180113060A (ko) | 그래프 slam을 위한 키프레임 추출방법 및 이를 이용한 slam 장치 | |
JP2023521700A (ja) | 視覚キュー型ランダムアクセスlidarシステム、並びに、所在特定及びナビゲーションのための方法 | |
Andert et al. | On the safe navigation problem for unmanned aircraft: Visual odometry and alignment optimizations for UAV positioning | |
Aggarwal | GPS-based localization of autonomous vehicles | |
KR102622587B1 (ko) | 정밀측위 시스템의 종방향 위치 오차를 보정하기 위한 장치 및 방법 | |
KR20230018656A (ko) | 실내환경의 비전과 라이다를 융합한 slam 시스템 및 방법 | |
JP2018169207A (ja) | 車両位置検出装置 | |
IL269263A (en) | Mobile phone-based navigation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |