KR101956447B1 - Method and apparatus for position estimation of unmanned vehicle based on graph structure - Google Patents
Method and apparatus for position estimation of unmanned vehicle based on graph structure Download PDFInfo
- Publication number
- KR101956447B1 KR101956447B1 KR1020170050976A KR20170050976A KR101956447B1 KR 101956447 B1 KR101956447 B1 KR 101956447B1 KR 1020170050976 A KR1020170050976 A KR 1020170050976A KR 20170050976 A KR20170050976 A KR 20170050976A KR 101956447 B1 KR101956447 B1 KR 101956447B1
- Authority
- KR
- South Korea
- Prior art keywords
- human body
- data
- graph structure
- measured
- gps
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000005259 measurement Methods 0.000 claims description 26
- 238000005457 optimization Methods 0.000 claims description 13
- 230000001133 acceleration Effects 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 11
- 230000004807 localization Effects 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 238000007689 inspection Methods 0.000 description 7
- 238000010276 construction Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000003745 diagnosis Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/03—Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
- G01S19/10—Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers providing dedicated supplementary positioning signals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M1/00—Testing static or dynamic balance of machines or structures
- G01M1/14—Determining imbalance
-
- G01S17/023—
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Aviation & Aerospace Engineering (AREA)
- Navigation (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Abstract
본 발명은 다중 센서 및 그래프 구조를 이용하여 무인체의 위치를 추정하는 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법에 관한 것으로서, 대형 구조물 하부에서도 무인체의 위치를 추정할 수 있다.The present invention relates to a non-human body position estimation apparatus based on a graph structure for estimating a position of a human body using multiple sensors and a graph structure, and a method thereof, and can estimate the position of a human body even under a large structure.
Description
본 발명은 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법에 관한 것으로서, 보다 상세하게는 다중 센서 및 그래프 구조를 이용하여 무인체의 위치를 추정하는 기술에 관한 것이다. The present invention relates to a non-human body position estimation apparatus based on a graph structure and a method thereof, and more particularly, to a technique for estimating a position of a human body using multiple sensors and a graph structure.
국민의 삶의 질 향상 및 복지사회 구현의 가장 근본적인 전제 조건은 안전사회 구축이며, 이는 안전한 사회기반시설(안전인프라) 확보로부터 시작된다.The most fundamental prerequisite for improving the quality of life of the people and realizing a welfare society is building a safe society, which starts with securing a safe infrastructure (safety infrastructure).
하지만, 연이은 구조물 사고 발생으로 국민들의 부정적 시각과 불신이 팽배한 상황이며, 더욱이 사회기반시설물의 노후화로 인해 사회적 불안감이 높아지고 있다. However, due to the occurrence of subsequent structural accidents, the people have become negative viewpoints and distrust, and social anxiety is increasing due to the aging of infrastructure.
교량과 같은 대형 구조물의 사고 예방을 위하여 전문기업을 통한 안전진단이 수행되고 있지만, 관리주체의 투자 및 관리 감독 부족, 관련분야 기술자의 전문성 미흡 및 열악한 업무환경과, 저가수주에 따른 품질 저하, 접근의 비용이성으로 인한 외관조사의 어려움, 및 검사자의 주관적인 판단 개입에 의한 신뢰도 확보 어려움 등 다양하고 많은 문제점이 존재하였다.In order to prevent accidents of large structures such as bridges, safety diagnosis is carried out through specialized companies. However, there is a lack of investment and management supervision by the management, lack of expertise of the related field engineers, poor working environment, The difficulty of the appearance inspection due to the cost inconvenience, and the difficulty in securing the reliability by the subjective judgment intervention of the inspector.
이러한 문제점을 해결하기 위해, 구조물에 여러 종류의 계측기를 설치하여 감시하는 구조물 건전도 모니터링 시스템에 대한 연구가 활발히 진행되고 있다. 다만, 기존의 구조물 건전도 모니터링 시스템은 주로 육안점검 및 비파괴 검사로 수행되며, 광범위한 면적에 대한 적용 기술이 미흡하며 점검 대상 시설물의 위치 및 조건에 따른 점검 수행의 한계가 존재하였다.In order to solve these problems, researches on a structure health monitoring system that monitors and installs various kinds of measuring instruments on a structure are actively conducted. However, the existing structural health monitoring system is mainly performed by visual inspection and non-destructive inspection, and there are insufficient application techniques for a wide area and there are limitations in performing inspection according to the location and condition of the inspection target facility.
최근에는 이러한 한계를 극복하기 위한 방안으로 무인체를 활용하는 방법이 연구되고 있다.In recent years, a method of using a human body as a means to overcome this limitation has been studied.
현재까지 국내 무인기 기술은 정찰, 감시, 폭격 등의 임무를 수행하기 위한 군사목적으로 발전해 왔다. Until now, domestic UAV technology has been developed for military purposes to perform missions such as reconnaissance, surveillance and bombing.
상기 국내 무인기 기술은 다양한 민수 분야에 적용이 가능할 것으로 전망된다. 민수용 무인기 시장은 주로 공공분야 수요를 중심으로 발전될 것으로 전망되며, 활용도 여하에 따라 영상, 농업, 환경감시 등 다양한 분야로 확대될 것으로 전망되고 있다.The above UAV technology is expected to be applicable to various civilian fields. The civilian UAV market is expected to be developed mainly in the public sector, and it is expected to expand into various fields such as video, agriculture, and environmental monitoring depending on the utilization.
국내 무인기 기술을 기반으로 하는 무인체를 활용한 구조물 진단은 검사자가 직접 접근하기 어려운 부분에 대해서도 효과적으로 점검을 수행할 수 있다. 다만, 무인체를 이용한 구조물 검사 및 모니터링과 같은 분야는 초기 기술 단계이며, 구조물 검사, 모니터링에 적합한 무인체 및 관련기술에 대한 개발이 필요한 상황이다.The structure diagnosis using the unmanned human body based on the domestic unmanned aerial vehicle technology can effectively perform the inspection even in areas where the inspector can not access directly. However, such areas as the inspection and monitoring of structures using the human body are in the early stage of the technology, and it is necessary to develop the human body and related technologies suitable for structural inspection and monitoring.
현재 국내 무인체 기술 수준은 우수하지만 핵심부품을 수입에 의존하기 때문에 경쟁력이 떨어진다. At present, the level of non-human body technology is excellent, but its competitiveness deteriorates because it relies on imports of core parts.
또한, 기존의 무인체를 이용한 구조물 모니터링 기술은 무인체가 대형 구조물 하부에서 진단 임무를 수행할 경우 GPS 음영지역이 발생하며, 위치 추정이 불가능하다는 한계가 존재하였다. In addition, the existing structure monitoring technology using the human body has a limitation that it is impossible to estimate the location due to the shadow area of GPS when the unmanned person carries out the diagnosis task under the large structure.
이에 본 명세서에서는 대형 구조물 하부에서도 위치를 추정할 수 있는 기술을 제안한다.Therefore, this specification proposes a technique for estimating the position even under a large structure.
본 발명의 실시예들의 목적은 대형 구조물 하부에서도 무인체의 위치를 추정할 수 있는 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법을 제공하고자 한다.It is an object of embodiments of the present invention to provide a non-human body position estimation apparatus and a method thereof based on a graph structure capable of estimating the position of a non-human body even under a large structure.
또한, 본 발명의 실시예들의 목적은 다중 센서를 이용하여 GPS 음영 지역에서의 무인체의 위치를 보다 정확하게 추정할 수 있는 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법을 제공하고자 한다.Also, it is an object of embodiments of the present invention to provide a non-human body position estimation apparatus based on a graph structure capable of more accurately estimating a position of a non-human body in a shadow area of a GPS using multiple sensors.
또한, 본 발명의 실시예들의 목적은 무인체의 위치를 추정하여 무인체의 자율운행 성능을 향상시킬 수 있는 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법을 제공하고자 한다.Also, an object of embodiments of the present invention is to provide a non-human body position estimation apparatus based on a graph structure capable of improving autonomous driving performance of a human body by estimating the position of a human body, and a method thereof.
본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 다중 센서를 이용하여 무인체의 이동 경로에 따른 데이터를 측정하는 단계, 상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에서의 노드(node), 및 각 노드 간의 구속 조건(constraint)으로부터 그래프 구조(Graph structure)를 구축하는 단계 및 상기 그래프 구조를 기반으로 무인체의 위치를 추정하는 단계를 포함한다.The non-human body position estimation method based on a graph structure according to an embodiment of the present invention includes the steps of measuring data according to a moving path of a human body using multiple sensors, Constructing a graph structure from a node, a constraint between each node, and estimating a position of a human body based on the graph structure.
상기 데이터를 측정하는 단계는 상기 무인체에 장착된 가속도 센서와 자이로 센서를 구비한 IMU(Inertial Measurement Unit)로부터의 센서 데이터를 기반으로 생성된 속도 데이터 및 초기 위치 데이터(Initial pose)를 측정하고, 상기 무인체에 장착된 GPS(Global Positioning System)로부터의 위치 데이터를 측정하는 단계일 수 있다.The step of measuring the data may include measuring velocity data and initial position data generated based on sensor data from an IMU (Inertial Measurement Unit) having an acceleration sensor and a gyro sensor mounted on the human body, And measuring position data from a Global Positioning System (GPS) mounted on the human body.
상기 데이터를 측정하는 단계는 카메라로부터 무인체의 오도메트리 데이터(Visual odometry)를 측정하고, 3D 라이더(LiDAR; Light Detection And Ranging)를 기반으로 3D ICP(Iterative Closest Point fitting) 알고리즘을 통해 무인체의 이동 데이터를 측정하는 단계일 수 있다.The step of measuring the data may include measuring a visual odometry of a human body from a camera and measuring a human body by using a 3D rider (LiDAR; Light Detection And Ranging) and a 3D ICP (Iterative Closest Point Fitting) Of the moving image data.
상기 그래프 구조를 구축하는 단계는 IMU, GPS, 카메라 및 3D 라이더를 포함하는 상기 다중 센서로부터 상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에 따른 각 위치를 나타내는 상기 노드, 및 상기 노드의 연결을 나타내는 상기 구속 조건을 획득할 수 있다.Wherein the step of constructing the graph structure comprises: the node representing each position along the movement path of the human body based on the measured data from the multiple sensors including the IMU, the GPS, the camera and the 3D rider; Can be obtained.
상기 그래프 구조를 구축하는 단계는 상기 무인체의 이동 경로에 따른 상기 노드, 및 상기 구속 조건에 기초한 SLAM(Simultaneous Localization and Mapping)을 통해 상기 그래프 구조를 구축할 수 있다.The step of constructing the graph structure may construct the graph structure through SLAM (Simultaneous Localization and Mapping) based on the node according to the moving path of the human body and the constraint condition.
상기 무인체의 위치를 추정하는 단계는 상기 구축된 그래프 구조를 기반으로 그래프 최적화 기법(Graph optimization)을 이용하여 상기 무인체의 위치를 추정할 수 있다.The step of estimating the position of the non-human body may estimate the position of the non-human body using graph optimization based on the constructed graph structure.
본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 장치는 다중 센서를 이용하여 무인체의 이동 경로에 따른 데이터를 측정하는 측정부, 상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에서의 노드(node) 및 각 노드 간의 구속 조건(constraint)으로부터 그래프 구조(Graph structure)를 구축하는 그래프 구조 구축부 및 상기 그래프 구조를 기반으로 무인체의 위치를 추정하는 위치 추정부를 포함한다.The non-human body position estimation apparatus based on a graph structure according to an embodiment of the present invention includes a measurement unit for measuring data according to a moving path of a human body using multiple sensors, A graph structure constructing unit for constructing a graph structure from nodes of the nodes and constraints between the nodes, and a position estimator for estimating the position of the human body based on the graph structure.
상기 측정부는 상기 무인체에 장착된 가속도 센서와 자이로 센서를 구비한 IMU(Inertial Measurement Unit)로부터의 센서 데이터를 기반으로 생성된 속도 데이터 및 초기 위치 데이터(Initial pose)를 측정하고, 상기 무인체에 장착된 GPS(Global Positioning System)으로부터의 위치 데이터를 측정할 수 있다.The measurement unit measures velocity data and initial position data (initial position) generated based on sensor data from an IMU (Inertial Measurement Unit) equipped with an acceleration sensor and a gyro sensor mounted on the human body, It is possible to measure position data from a mounted Global Positioning System (GPS).
상기 측정부는 카메라로부터 무인체의 오도메트리 데이터(Visual odometry)를 측정하고, 3D 라이더(LiDAR; Light Detection And Ranging)를 기반으로 3D ICP(Iterative Closest Point fitting) 알고리즘을 통해 무인체의 이동 데이터를 측정할 수 있다.The measurement unit measures the visual odometry of a human body from a camera and measures movement data of a human body through a 3D ICP (Iterative Closest Point Fitting) algorithm based on a 3D rider (LiDAR; Light Detection And Ranging) Can be measured.
상기 그래프 구조 구축부는 IMU, GPS, 카메라 및 3D 라이더를 포함하는 상기 다중 센서로부터 상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에 따른 각 위치를 나타내는 상기 노드, 및 상기 노드의 연결을 나타내는 상기 구속 조건을 획득할 수 있다.Wherein the graph structure construction unit comprises: a node representing each position according to a moving path of the human body based on the measured data from the multiple sensors including an IMU, a GPS, a camera, and a 3D rider; Constraints can be obtained.
상기 그래프 구조 구축부는 상기 무인체의 이동 경로에 따른 상기 노드, 및 상기 구속 조건에 기초한 SLAM(Simultaneous Localization and Mapping)을 통해 상기 그래프 구조를 구축할 수 있다.The graph structure constructing unit may construct the graph structure through SLAM (Simultaneous Localization and Mapping) based on the node according to the moving path of the human body and the constraint condition.
상기 위치 추정부는 상기 구축된 그래프 구조를 기반으로 그래프 최적화 기법(Graph optimization)을 이용하여 상기 무인체의 위치를 추정할 수 있다. The position estimating unit may estimate the position of the non-human body using graph optimization based on the constructed graph structure.
본 발명의 실시예에 따르면, 대형 구조물 하부에서도 무인체의 위치를 추정할 수 있다.According to the embodiment of the present invention, the position of the non-human body can be estimated even under the large structure.
또한, 본 발명의 실시예에 따르면, 다중 센서를 이용하여 GPS 음영 지역에서의 무인체의 위치를 보다 정확하게 추정할 수 있다.Also, according to the embodiment of the present invention, it is possible to more accurately estimate the position of a non-human body in a shadow area of a GPS using multiple sensors.
또한, 본 발명의 실시예에 따르면, 무인체의 위치를 추정하여 무인체의 자율운행 성능을 향상시킬 수 있다.In addition, according to the embodiment of the present invention, it is possible to improve autonomous driving performance of a human body by estimating the position of a human body.
도 1은 본 발명의 실시예에 따른 대형 구조물 진단을 위한 무인체의 이동 경로의 예를 도시한 것이다.
도 2는 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법의 흐름도를 도시한 것이다.
도 3은 본 발명의 실시예에 따른 그래프 구조를 이용한 위치 추정 알고리즘의 예를 도시한 것이다.
도 4a 내지 도 4d는 본 발명의 실시예에 따른 그래프 구조의 예를 도시한 것이다.
도 5는 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법을 이용하여 무인체의 위치를 추정한 결과를 도시한 것이다.
도 6은 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 장치의 구성을 설명하기 위해 도시한 것이다.1 shows an example of a moving path of a human body for diagnosing a large structure according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating a non-human body position estimation method based on a graph structure according to an embodiment of the present invention.
FIG. 3 illustrates an example of a position estimation algorithm using a graph structure according to an embodiment of the present invention.
4A to 4D show an example of a graph structure according to an embodiment of the present invention.
FIG. 5 shows a result of estimating the position of a human body using a graph-based non-human body position estimation method according to an embodiment of the present invention.
FIG. 6 is a block diagram of a non-human body position estimation apparatus based on a graph structure according to an embodiment of the present invention.
이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. In addition, the same reference numerals shown in the drawings denote the same members.
또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Also, terminologies used herein are terms used to properly represent preferred embodiments of the present invention, which may vary depending on the viewer, the intention of the operator, or the custom in the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification.
도 1은 본 발명의 실시예에 따른 대형 구조물 진단을 위한 무인체의 이동 경로의 예를 도시한 것이다.1 shows an example of a moving path of a human body for diagnosing a large structure according to an embodiment of the present invention.
도 1을 참조하면, 무인체(10)는 대형 구조물 또는 콘크리트 구조물 각각에 부착된 센서의 위치를 따라 이동하며 구조물을 모니터링 및 진단할 수 있다.Referring to FIG. 1, the
종래의 기술은 무인체가 대형 구조물 또는 콘크리트 구조물 하부에서 진단 임무를 수행하는 경우, GPS 음영지역에서의 무인체의 위치를 추정하지 못한다는 한계가 존재하였다.There is a limit in that the conventional technique can not estimate the position of the non-human body in the shadow area of the GPS when the unmanned person carries out the diagnosis task under the large structure or the concrete structure.
이에 따른 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법은 대형 구조물 또는 콘크리트 구조물 하부인 GPS 음영지역에서의 무인체의 이동을 보다 정확하게 추정할 수 있다.Accordingly, the non-human body position estimation apparatus and method based on a graph structure according to an embodiment of the present invention can more accurately estimate movement of a human body in a shadow area of a GPS, which is a large structure or a concrete structure.
상기 대형 구조물 또는 콘크리트 구조물은 장대교량 주탑, 고층건물, 건축물, 건물 또는 댐 등의 하단부를 일컫을 수 있으나, 대형 구조물 또는 콘크리트 구조물의 구조, 형태 및 위치는 이에 한정되지 않으며, GPS를 통해 무인체의 위치가 감지되지 않거나 취약한 지역이면 가능하다.The large structure or concrete structure may refer to a lower end of a pylon, a high-rise building, a building, a building or a dam, but the structure, shape and position of the large structure or concrete structure are not limited thereto, Is not detected or is in a vulnerable area.
이하, 위에서 상술한 대형 구조물 또는 콘크리트 구조물 하부의 GPS 음영지역에서, 무인체의 위치를 추정하는 방법을 기재하기로 한다.Hereinafter, a method for estimating the position of a non-human body in a GPS shaded area below the large structure or the concrete structure described above will be described.
도 2는 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법의 흐름도를 도시한 것이다.FIG. 2 is a flowchart illustrating a non-human body position estimation method based on a graph structure according to an embodiment of the present invention.
도 2를 참조하면, 단계 210에서 다중 센서를 이용하여 무인체의 이동 경로에 따른 데이터를 측정한다.Referring to FIG. 2, in
예를 들면, 다중 센서는 IMU, GPS, 카메라(camera) 및 3D 라이더(LiDAR) 중 적어도 어느 하나 이상을 포함할 수 있으며, 단계 210은 다중 센서를 이용하여 무인체의 움직임에 따른 이동 경로의 데이터를 측정하는 단계일 수 있다.For example, the multiple sensors may include at least one of an IMU, a GPS, a camera, and a 3D rider (LiDAR). In
보다 구체적으로, 단계 210은 무인체에 장착된 가속도 센서와 자이로 센서를 구비한 IMU(Inertial Measurement Unit)로부터의 센서 데이터를 기반으로 생성된 속도 데이터 및 초기 위치 데이터(Initial pose)를 측정하고, 무인체에 장착된 GPS(Global Positioning System)로부터의 위치 데이터를 측정하는 단계일 수 있다.More specifically,
또한, 단계 210은 카메라로부터 무인체의 오도메트리 데이터(Visual odometry)를 측정하고, 3D 라이더(LiDAR; Light Detection And Ranging)를 기반으로 3D ICP(Iterative Closest Point fitting) 알고리즘을 통해 무인체의 이동 데이터를 측정하는 단계일 수 있다.In
여기서, IMU(Inertial Measurement Unit)는 관성 측정 수단으로서 자이로 센서(자이로스코프)를 이용한다. 예를 들면, IMU는 무인체의 회전각으로서 전진방향(Roll축 방향), 전진방향의 우측방향(Pitch 축 방향), 중력 방향(Yaw 축 방향) 각각의 각속도 중분치 등의 자세 관련 센서 데이터를 생성하고, 가속도 센서를 이용하여 무인체 속도 중분치 등의 가속도 관련 센서 데이터를 생성할 수 있다. Here, the IMU (Inertial Measurement Unit) uses a gyro sensor (gyroscope) as inertial measurement means. For example, the IMU calculates attitude-related sensor data such as forward rotation angle (roll axis direction), rightward direction (pitch axis direction) and gravity direction (yaw axis direction) Acceleration sensor data such as an inhuman body speed middle value can be generated using an acceleration sensor.
다만, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 이에 한정되지 않으며 다양한 관성 측정 수단을 이용하여 속도 데이터, 초기 위치 데이터 및 자세 데이터를 획득할 수 있다. However, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention is not limited to this, and velocity data, initial position data, and attitude data can be acquired using various inertial measurement means.
또한, GPS(Global Position System)는 위성과 통신하여 위치 데이터(예를 들어, WGS84좌표계의 측지좌표로서, 위도, 경도 및 타원체고 등)를 획득할 수 있다. In addition, GPS (Global Position System) can acquire position data (e.g., latitude, longitude and ellipsoid height as geodesic coordinates of a WGS84 coordinate system) by communicating with a satellite.
또한, 카메라는 CMOS, CCD(Charge Coupled Device) 이미지 센서 등을 이용하여 영상을 촬영하여 영상 데이터 및 무인체의 오도메트리 데이터(Visual odometry)를 획득할 수 있다.In addition, the camera can acquire image data and visual odometry data of a human body by capturing an image using a CMOS or a CCD (Charge Coupled Device) image sensor.
실시예에 따라서, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 Point Grey Flea3의 RGB 카메라를 이용할 수 있으나, 카메라의 종류는 한정되지 않으며 다양한 영상 촬영 카메라가 이용될 수 있다.According to the embodiment, the RGB camera of Point Gray Flea3 can be used as the method for estimating the non-human body position based on the graph structure according to the embodiment of the present invention, but the type of the camera is not limited and various image photographing cameras can be used.
또한, 3D LiDAR(Light Detection And Ranging)은 레이저 펄스를 반사체(무인체)에 조사하고, 반사체로부터 반사되어 돌아오는 시간을 측정해서 반사체의 위치좌표를 측정하는 레이더 시스템일 수 있다. 공지된 바와 같이, 3D LiDAR는 반사강도로부터 측정 및 연산한 위치좌표를 측정 데이터로 저장하며, 측정 데이터는 3D 그래프 구조를 이미지화하기 위한 기초정보로 활용될 수 있다. 상기 3D LiDAR는 해당 기술분야에서 이미 널리 활용되고 있는 장치로서, 그 구조와 동작원리에 대해서는 설명을 생략한다. Also, 3D LiDAR (Light Detection And Ranging) can be a radar system that irradiates laser pulses to a reflector (human body) and measures the position coordinates of the reflector by measuring the return time from the reflector. As is well known, 3D LiDAR stores position coordinates measured and calculated from reflection intensity as measurement data, and measurement data can be utilized as basic information for
실시예에 따라서, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 Velodyne VLP16의 3D LiDAR를 이용할 수 있으나, 3D LiDAR의 종류는 이에 한정되지 않는다.According to the embodiment, 3DLDAR of Velodyne VLP16 may be used for the non-human body position estimation method based on the graph structure according to the embodiment of the present invention, but the type of 3D LiDAR is not limited thereto.
실시예에 따라서, 전술한 다중 센서의 종류는 한정되지 않으며, IMU, GPS, Camera 및 3D LiDAR의 다중 센서는 무인체 및 대형 구조물 각각의 내부 또는 외부에 위치할 수 있으며, 위치되는 센서의 종류 및 개수는 한정하지 않는다.According to embodiments, the types of the above-described multiple sensors are not limited, and the multiple sensors of IMU, GPS, Camera, and 3D LiDAR can be located inside or outside each of a human body and a large structure, The number is not limited.
단계 220에서 측정된 데이터를 기반으로 무인체의 이동 경로에서의 노드(node), 및 각 노드 간의 구속 조건(constraint)으로부터 그래프 구조(Graph structure)를 구축한다.A graph structure is constructed from the nodes in the moving path of the human body and the constraints between the nodes based on the measured data in
예를 들면, 단계 220은 IMU, GPS, 카메라 및 3D 라이더를 포함하는 다중 센서로부터 측정된 데이터를 기반으로 무인체의 이동 경로에 따른 각 위치를 나타내는 노드, 및 노드의 연결을 나타내는 구속 조건을 획득할 수 있다. For example, step 220 may include obtaining a node representing each location along the moving path of the human body based on the measured data from multiple sensors including IMU, GPS, camera and 3D rider, can do.
이에 따라서, 단계 220은 무인체의 이동 경로에 따른 노드, 및 구속 조건에 기초한 SLAM(Simultaneous Localization and Mapping)을 통해 그래프 구조를 구축하는 단계일 수 있다. Accordingly, the
상기 SLAM은 다중 센서로부터 무인체 및 무인체의 주변 환경 정보를 검출하고 측정된 데이터를 가공하여 무인체의 이동 및 위치에 대응되는 맵을 작성함과 동시에 무인체의 절대 위치를 추정하는 방법을 일컫는다.The SLAM refers to a method of detecting the non-human and non-human surroundings information from multiple sensors and processing the measured data to create a map corresponding to the movement and position of the human body and estimating the absolute position of the human body .
본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 단계 220에서, 무인체의 실시간 위치 및 최종 위치를 인식하는 구성 수단으로, 다중 센서에 의해 획득된 측정 데이터에 기초한 SLAM 과정을 통해 무인체의 이동 경로 또는 이동 궤적에 따른 그래프 구조를 구축할 수 있다.The non-human body position estimation method based on the graph structure according to the embodiment of the present invention is a means for recognizing the real-time position and the final position of a human body in
실시예에 따라서, 단계 220은 다중 센서로부터 측정된 데이터에 기초하여 지정된 시간에서의 무인체의 위치를 나타내는 노드(node) 및 각 노드 간의 구속 조건(constraint)으로부터 무인체의 위치 추정 값을 실시간 업데이트할 수 있고, 무인체의 거리 측정 값을 획득할 수 있다. According to an embodiment, step 220 may include updating the real-time location estimate of the inhuman body from a constraint between a node and a node indicating the location of the human body at a specified time based on data measured from multiple sensors And the distance measurement value of the human body can be obtained.
본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 다중 센서를 이용함으로써, SLAM을 수행하는 과정에서 어느 하나의 센서가 페일(fail)되는 경우, 나머지 센서를 이용하여 SLAM 과정을 수행할 수 있기 때문에 SLAM에 대한 성능을 향상시킬 수 있다. In the non-human body position estimation method based on the graph structure according to the embodiment of the present invention, when one sensor fails in the course of performing SLAM by using multiple sensors, the SLAM process is performed using the remaining sensors This can improve performance for SLAM.
단계 230에서 그래프 구조를 기반으로 무인체의 위치를 추정한다.In
단계 230은 구축된 그래프 구조를 기반으로 그래프 최적화 기법(Graph optimization)을 이용하여 무인체의 위치를 추정하는 단계일 수 있다. Step 230 may be a step of estimating the position of a human body using graph optimization based on the constructed graph structure.
예를 들면, 단계 230에서 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 노드 및 구속 조건으로 형성된 그래프 구조에서 무인체의 이동 경로 및 시간에 따라 최종 위치를 추정할 수 있는 상기 그래프 최적화 기법을 이용하여 무인체의 위치를 추정할 수 있다. For example, in
다만, 구축된 그래프 구조에서 무인체의 실시간 위치, 이동 경로 및 최종 위치를 획득하는 기법은 전술한 그래프 최적화 기법 외에 다양하게 적용 가능하므로 이에 한정되는 것은 아니다. However, the technique of acquiring the real-time position, the moving path, and the final position of the human body in the constructed graph structure can be applied variously in addition to the above-described graph optimization technique, and thus is not limited thereto.
도 3은 본 발명의 실시예에 따른 그래프 구조를 이용한 위치 추정 알고리즘의 예를 도시한 것이다.FIG. 3 illustrates an example of a position estimation algorithm using a graph structure according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 IMU(310), GPS(320), Camera(330) 및 3D LiDAR(340)의 다중 센서를 이용하여 그래프 구조(360)를 구축하고, 구축된 그래프 구조(360)를 기반으로 무인체의 위치를 추정하는 알고리즘을 제공한다.Referring to FIG. 3, a graph-based non-human body position estimation method according to an exemplary embodiment of the present invention is a method for estimating a human body position based on a graph using a plurality of sensors of an
IMU(Inertial Measurement Unit, 310)는 관성 측정 수단으로서 자이로 센서(자이로스코프)를 이용한다. 예를 들면, IMU(310)는 무인체의 회전각으로서 전진방향(Roll축 방향), 전진방향의 우측방향(Pitch 축 방향), 중력 방향(Yaw 축 방향) 각각의 각속도 중분치 등의 자세 관련 센서 데이터와 무인체 속도 중분치 등의 가속도 관련 센서 데이터를 생성할 수 있다. The IMU (Inertial Measurement Unit) 310 uses a gyro sensor (gyroscope) as inertial measurement means. For example, the
이에 따라서, IMU(310)는 무인체에 장착된 가속도 센서와 자이로 센서로부터의 센서 데이터를 기반으로 무인체의 속도 데이터 및 초기 위치 데이터(Initial pose, 311)를 측정할 수 있다. Accordingly, the
GPS(Global Position System, 320)는 위성과 통신하여 위치 데이터(예를 들어, WGS84좌표계의 측지좌표로서, 위도, 경도 및 타원체고 등)를 측정할 수 있다.GPS (Global Position System) 320 may communicate with the satellite to measure position data (e.g., latitude, longitude, and ellipsoid height as geodesic coordinates of a WGS84 coordinate system).
카메라(Camera, 330)는 CMOS, CCD(Charge Coupled Device) 이미지 센서 등을 이용하여 영상을 촬영하여 무인체의 오도메트리 데이터(Visual odometry, 331)를 측정할 수 있으며, 오도메트리 데이터(331)는 무인체의 x축 좌표와 y축 좌표, 진행 방향의 각도를 포함하며, 추정된 변위를 포함할 수 있다. The
3D LiDAR(Light Detection And Ranging, 340)은 레이저 펄스를 무인체에 조사하고, 무인체로부터 반사되어 돌아오는 시간을 측정하여 3D ICP(Iterative Closest Point fitting, 341) 알고리즘을 통해 무인체의 이동 데이터를 측정할 수 있다.The 3D LiDAR (Light Detection And Ranging) 340 irradiates a laser pulse to a human body, measures the return time from the human body, and calculates movement data of the human body through the 3D ICP (Iterative Closest Point Fitting, 341) Can be measured.
3D ICP(341) 알고리즘은 3D LiDAR(340)로 측정한 2D 또는 3D 포인트 데이터를 그래프 구조(360)에 매칭하기 위해 사용될 수 있다. The
이후, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 IMU(310), GPS(320), Camera(330) 및 3D LiDAR(340)의 다중 센서로부터 측정된 데이터를 기반으로 무인체의 이동 경로에서의 노드(node) 및 구속 조건(350)으로부터 그래프 구조(360)를 구축할 수 있다.Thereafter, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention is based on data measured from multiple sensors of the
실시예에 따라서, 무인체의 이동 경로에서의 노드(node)는 IMU(310)로부터 측정된 초기 위치(311)일 수 있다.Depending on the embodiment, the node in the moving path of the human body may be the
예를 들면, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 무인체의 이동 경로에 따른 초기 위치(311)인 노드(node)를 기준으로 IMU(310), GPS(320), 오도메트리 데이터(331) 및 3D ICP(341)를 이용하여 노드의 연결을 나타내는 구속 조건(350)을 구성할 수 있고, 노드(node) 및 구속 조건(350)으로부터 그래프 구조(360)를 구축할 수 있다. For example, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention includes the
이후, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 구축된 그래프 구조(360)를 기반으로 그래프 최적화 기법(370)을 적용하여 무인체의 위치를 추정(380)할 수 있다. Hereinafter, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention can estimate (380) the position of a human body by applying a
도 4a 내지 도 4d는 본 발명의 실시예에 따른 그래프 구조의 예를 도시한 것이다.4A to 4D show an example of a graph structure according to an embodiment of the present invention.
보다 구체적으로, 도 4a는 카메라에 의한 오도메트리 데이터를 포함하는 그래프 구조의 예를 도시한 것이고, 도 4b는 IMU 및 GPS에 의한 데이터를 포함하는 그래프 구조의 예를 도시한 것이며, 도 4c는 3D LiDAR에 의한 3D ICP의 데이터를 포함하는 그래프 구조의 예를 도시한 것이다.More specifically, FIG. 4A shows an example of a graph structure including odometry data by a camera, FIG. 4B shows an example of a graph structure including data by IMU and GPS, and FIG. And an example of a graph structure including data of 3D ICP by 3D LiDAR.
또한, 도 4d는 도 4a 내지 도 4c를 통합한 그래프 구조의 예를 도시한 것이다. FIG. 4D shows an example of a graph structure incorporating FIGS. 4A to 4C.
본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 무인체의 이동 경로에 따른 노드(node, 위치)를 형성할 수 있다. 예를 들면, 초기 시간을 기준으로 xi 위치에서의 무인체의 노드(410)를 형성하고, 일정 시간 후 xi+1 위치에서의 무인체의 노드(420), xi+2 위치에서의 무인체의 노드(430), xi+3 위치에서의 무인체의 노드(440) 및 xi+4 위치에서의 무인체의 노드(450)를 형성할 수 있다. The non-human body position estimation method based on the graph structure according to the embodiment of the present invention can form nodes (positions) according to the moving path of the human body. For example, in the basis of the initial time x i form a
이후, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 카메라로부터 측정되는 무인체의 오도메트리 데이터(visual odometry), GPS와 IMU로부터 측정되는 데이터, 3D LiDAR에 의해 측정되는 3D ICP의 데이터를 이용하여 무인체의 각 노드(410, 420, 430, 440, 450)를 연결하는 구속 조건을 형성할 수 있다.Hereinafter, a graph-based non-human body position estimation method according to an embodiment of the present invention includes a visual odometry of a human body measured from a camera, data measured from the GPS and the IMU, 3D data measured by 3D LiDAR Constraint conditions connecting the
도 4a를 참조하면, 카메라로부터 측정되는 무인체의 오도메트리 데이터(visual odometry)로 형성된 구속 조건(constraint)은 xi(410)과 xi+ 1(420)를 연결하는 , xi+1(420)과 xi+2(430)를 연결하는 , xi+2(430)과 xi+ 3(440)를 연결하는 , xi+3(440)과 xi+4(450)를 연결하는 이다.Referring to FIG. 4A, a constraint formed by a visual odometry of a human body measured from a camera connects x i (410) and x i + 1 (420) , connecting x i + 1 (420) and x i + 2 (430) , connecting x i + 2 (430) and x i + 3 (440) , connecting x i + 3 (440) and x i + 4 (450) to be.
또한 도 4b를 참조하면, GPS 및 IMU로부터 측정되는 데이터로 형성된 구속 조건(constraint)은 xi(410)과 xi+2(430)를 연결하는 , xi(410)과 xi+ 3(440)를 연결하는 , xi(410)과 xi+4(450)를 연결하는 이다.Referring to FIG. 4B, constraints formed by data measured from the GPS and the IMU are used to connect x i (410) and x i + 2 (430) , connecting x i (410) and x i + 3 (440) , connecting x i (410) and x i + 4 (450) to be.
또한 도 4c를 참조하면, 3D LiDAR에 의해 측정되는 3D ICP의 데이터로 형성된 구속 조건(constraint)은 xi+1(420)과 xi+ 3(440)를 연결하는 , xi+2(430)과 xi+4(450)를 연결하는 이다.Referring to FIG. 4C, the constraint formed by the data of the 3D ICP measured by the 3D LiDAR connects x i + 1 (420) and x i + 3 (440) , connecting x i + 2 (430) and x i + 4 (450) to be.
도 4d를 참조하면, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 IMU, GPS, Camera 및 3D LiDAR의 다중 센서를 이용하여 무인체의 이동 경로에 따른 각 노드(410, 420, 430, 440, 450)에 대한 구속 조건(constraint)을 형성하여 그래프 구조를 구축할 수 있다.4D, a non-human body position estimation method based on a graph structure according to an exemplary embodiment of the present invention includes estimating a position of each of the
이에 따라서, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 구축된 그래프 구조를 기반으로 무인체의 위치를 추정할 수 있다.Accordingly, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention can estimate the position of a human body based on the constructed graph structure.
실시예에 따라서, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 노드의 형성 이후 구속 조건을 형성하여 그래프 구조를 구축할 수 있고, 구속 조건을 기반으로 노드를 형성하는 그래프 구조를 구축할 수도 있다. 또한, 그래프 구조를 구축하기 위한 다중 센서의 측정 데이터는 기 설정된 시간에서 수신되는 데이터를 기반으로 한다.According to the embodiment, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention can construct a graph structure by forming a constraint condition after the formation of a node, . In addition, the measurement data of the multiple sensors for constructing the graph structure is based on the data received at a predetermined time.
도 5는 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법을 이용하여 무인체의 위치를 추정한 결과를 도시한 것이다.FIG. 5 shows a result of estimating the position of a human body using a graph-based non-human body position estimation method according to an embodiment of the present invention.
보다 구체적으로, 도 5(a)는 실제 무인체의 이동 경로와 본 발명의 실시예에 따른 방법을 이용하여 추정한 무인체의 위치를 X축에서 비교한 결과를 도시한 것이고, 도 5(b)는 실제 무인체의 이동 경로와 본 발명의 실시예에 따른 방법을 이용하여 추정한 무인체의 위치를 Y축에서 비교한 결과를 도시한 것이며, 도 5(c)는 실제 무인체의 이동 경로와 본 발명의 실시예에 따른 방법을 이용하여 추정한 무인체의 위치를 Z축에서 비교한 결과를 도시한 것이다.More specifically, Fig. 5 (a) shows the results obtained by comparing the positions of the non-human body estimated using the actual moving body of the human body and the method according to the embodiment of the present invention on the X axis, 5C shows a result obtained by comparing the position of a non-human body estimated using a method according to an embodiment of the present invention with the actual moving body of a non-human body, And the position of a human body estimated using the method according to the embodiment of the present invention in the Z axis.
도 5(a)를 참조하면, 실제 무인체의 이동 경로와 본 발명의 실시예에 따른 방법을 이용하여 추정한 무인체의 위치를 X축에서 비교한 결과, 평균 오차(mean error/m)는 0.1706를 나타내며, 평균 제곱근 오차(Root Mean Square Error; RMSE)는 0.4161을 나타낸다.Referring to FIG. 5 (a), when the positions of the unthinking body estimated using the actual moving body of the human body and the method according to the embodiment of the present invention are compared in the X axis, the mean error / m is 0.1706, and the root mean square error (RMSE) is 0.4161.
또한 도 5(b)를 참조하면, 실제 무인체의 이동 경로와 본 발명의 실시예에 따른 방법을 이용하여 추정한 무인체의 위치를 Y축에서 비교한 결과, 평균 오차(mean error/m)는 0.0997를 나타내며, 평균 제곱근 오차(Root Mean Square Error; RMSE)는 0.4625를 나타낸다.Referring to FIG. 5 (b), when the positions of the unthinking body estimated using the actual moving body of the human body and the method according to the embodiment of the present invention are compared in the Y axis, the mean error / 0.0997, and a root mean square error (RMSE) of 0.4625.
또한 도 5(c)를 참조하면, 실제 무인체의 이동 경로와 본 발명의 실시예에 따른 방법을 이용하여 추정한 무인체의 위치를 Z축에서 비교한 결과, 평균 오차(mean error/m)는 0.3363를 나타내며, 평균 제곱근 오차(Root Mean Square Error; RMSE)는 0.6290를 나타낸다.Referring to FIG. 5 (c), when the positions of the unthinking body estimated using the actual moving body of the human body and the method according to the embodiment of the present invention are compared in the Z axis, the mean error / Represents 0.3363, and the root mean square error (RMSE) represents 0.6290.
이에 따라서, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 다중 센서를 이용하여 구축한 그래프 구조를 이용함으로써, 안정적인 무인체의 위치를 추정하는 것을 확인할 수 있으며, 왜곡, 오차 및 오류가 현저하게 낮은 위치 추정 결과를 획득할 수 있다. Accordingly, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention can confirm that a stable non-human body position is estimated by using the graph structure constructed using multiple sensors, and the distortion, It is possible to obtain a position estimation result with a significantly low error.
도 6은 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 장치의 구성을 설명하기 위해 도시한 것이다.FIG. 6 is a block diagram of a non-human body position estimation apparatus based on a graph structure according to an embodiment of the present invention.
도 6을 참조하면, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 장치(600)는 다중 센서로부터 무인체의 이동 경로에 따른 데이터를 측정하고, 측정된 데이터를 기반으로 한 노드 및 구속 조건으로부터 그래프 구조를 구축하여 무인체의 위치를 추정한다.Referring to FIG. 6, the non-human body
이를 위해, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 장치(600)는 측정부(610), 그래프 구조 구축부(620) 및 위치 추정부(630)를 포함한다.For this, the non-human body
측정부(610)는 다중 센서를 이용하여 무인체의 이동 경로에 따른 데이터를 측정한다.The measuring
예를 들면, 측정부(610)는 무인체에 장착된 가속도 센서와 자이로 센서를 구비한 IMU(Inertial Measurement Unit)로부터의 센서 데이터를 기반으로 생성된 속도 데이터 및 초기 위치 데이터(Initial pose)를 측정하고, 무인체에 장착된 GPS(Global Positioning System)으로부터의 위치 데이터를 측정할 수 있다.For example, the measuring
또한, 측정부(610)는 카메라로부터 무인체의 오도메트리 데이터(Visual odometry)를 측정하고, 3D 라이더(LiDAR; Light Detection And Ranging)를 기반으로 3D ICP(Iterative Closest Point fitting) 알고리즘을 통해 무인체의 이동 데이터를 측정할 수 있다. The measuring
여기서, IMU(Inertial Measurement Unit)는 관성 측정 수단으로서 자이로 센서(자이로스코프)를 이용한다. 예를 들면, IMU는 무인체의 회전각으로서 전진방향(Roll축 방향), 전진방향의 우측방향(Pitch 축 방향), 중력 방향(Yaw 축 방향) 각각의 각속도 중분치 등의 자세 관련 센서 데이터를 생성하고, 가속도 센서를 이용하여 무인체 속도 중분치 등의 가속도 관련 센서 데이터를 생성할 수 있다. Here, the IMU (Inertial Measurement Unit) uses a gyro sensor (gyroscope) as inertial measurement means. For example, the IMU calculates attitude-related sensor data such as forward rotation angle (roll axis direction), rightward direction (pitch axis direction) and gravity direction (yaw axis direction) Acceleration sensor data such as an inhuman body speed middle value can be generated using an acceleration sensor.
또한, GPS(Global Position System)는 위성과 통신하여 위치 데이터(예를 들어, WGS84좌표계의 측지좌표로서, 위도, 경도 및 타원체고 등)를 획득할 수 있다. In addition, GPS (Global Position System) can acquire position data (e.g., latitude, longitude and ellipsoid height as geodesic coordinates of a WGS84 coordinate system) by communicating with a satellite.
또한, 카메라는 CMOS, CCD(Charge Coupled Device) 이미지 센서 등을 이용하여 영상을 촬영하여 무인체의 오도메트리 데이터(Visual odometry)를 획득할 수 있다.In addition, the camera can acquire visual odometry data of a human body by capturing an image using CMOS or a CCD (Charge Coupled Device) image sensor.
또한, 3D LiDAR(Light Detection And Ranging)은 레이저 펄스를 반사체(무인체)에 조사하고, 반사체로부터 반사되어 돌아오는 시간을 측정해서 반사체의 위치좌표를 측정하는 레이더 시스템일 수 있다. 공지된 바와 같이, 3D LiDAR는 반사강도로부터 측정 및 연산한 위치좌표를 측정 데이터로 저장하며, 측정 데이터는 3D 그래프 구조를 이미지화하기 위한 기초정보로 활용될 수 있다. 상기 3D LiDAR는 해당 기술분야에서 이미 널리 활용되고 있는 장치로서, 그 구조와 동작원리에 대해서는 설명을 생략한다. Also, 3D LiDAR (Light Detection And Ranging) can be a radar system that irradiates laser pulses to a reflector (human body) and measures the position coordinates of the reflector by measuring the return time from the reflector. As is well known, 3D LiDAR stores position coordinates measured and calculated from reflection intensity as measurement data, and measurement data can be utilized as basic information for
실시예에 따라서, IMU, GPS, Camera 및 3D LiDAR의 다중 센서는 무인체 및 대형 구조물 각각의 내부 또는 외부에 위치할 수 있으며, 위치되는 센서의 종류 및 개수는 한정하지 않는다. Depending on the embodiment, the multiple sensors of the IMU, GPS, Camera and 3D LiDAR may be located inside or outside each of the non-human body and the large structure, and the type and number of sensors to be located are not limited.
그래프 구조 구축부(620)는 측정된 데이터를 기반으로 무인체의 이동 경로에서의 노드(node) 및 각 노드 간의 구속 조건(constraint)으로부터 그래프 구조(Graph structure)를 구축한다. The graph
그래프 구조 구축부(620)는 IMU, GPS, 카메라 및 3D 라이더를 포함하는 다중 센서로부터 측정된 데이터를 기반으로 무인체의 이동 경로에 따른 각 위치를 나타내는 노드, 및 노드의 연결을 나타내는 구속 조건을 획득할 수 있다.The graph
그래프 구조 구축부(620)는 무인체의 이동 경로에 따른 노드, 및 구속 조건에 기초한 SLAM(Simultaneous Localization and Mapping)을 통해 그래프 구조를 구축할 수 있다. The graph
상기 SLAM은 다중 센서로부터 무인체 및 무인체의 주변 환경 정보를 검출하고 측정된 데이터를 가공하여 무인체의 이동 및 위치에 대응되는 맵(MAP)을 작성함과 동시에 무인체의 절대 위치를 추정하는 방법을 일컫는다.The SLAM detects the surrounding environment information of the human body and the human body from multiple sensors and processes the measured data to create a map (MAP) corresponding to the movement and position of the human body and estimates the absolute position of the human body .
예를 들면, 그래프 구조 구축부(620)는 무인체의 실시간 위치 및 최종 위치를 인식하는 구성 수단으로, 다중 센서에 의해 획득된 측정 데이터에 기초한 SLAM 과정을 통해 무인체의 이동 경로 또는 이동 궤적에 따른 그래프 구조를 구축할 수 있다.For example, the graph
위치 추정부(630)는 그래프 구조를 기반으로 무인체의 위치를 추정한다. The
위치 추정부(630)는 구축된 그래프 구조를 기반으로 그래프 최적화 기법(Graph optimization)을 이용하여 무인체의 위치를 추정할 수 있다. The
예를 들면, 위치 추정부(630)는 노드 및 구속 조건으로 형성된 그래프 구조에서 무인체의 이동 경로 및 시간에 따라 최종 위치를 추정할 수 있는 상기 그래프 최적화 기법을 이용하여 무인체의 위치를 추정할 수 있다. For example, the
다만, 구축된 그래프 구조에서 무인체의 실시간 위치, 이동 경로 및 최종 위치를 획득하는 기법은 전술한 그래프 최적화 기법 외에 다양하게 적용 가능하므로 이에 한정되는 것은 아니다. However, the technique of acquiring the real-time position, the moving path, and the final position of the human body in the constructed graph structure can be applied variously in addition to the above-described graph optimization technique, and thus is not limited thereto.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, 이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments may be implemented by any suitable means, including, for example, a processor, a controller, a device described above, a hardware component, a software component, and / or a combination of hardware components and software components Lt; / RTI > For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기광 매체(magnetooptical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CDROMs and DVDs, magnetic optical media such as floppy disks, magnetooptical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
10: 무인체(또는 드론)
410, 420, 430, 440, 450: 노드(node)10: human body (or drone)
410, 420, 430, 440, 450:
Claims (13)
상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에서의 노드(node), 및 각 노드 간의 구속 조건(constraint)으로부터 그래프 구조(Graph structure)를 구축하는 단계; 및
상기 그래프 구조를 기반으로 무인체의 위치를 추정하는 단계를 포함하되,
상기 그래프 구조를 구축하는 단계는
카메라로부터 측정되는 무인체의 오도메트리 데이터로 형성된 구속 조건, GPS 및 IMU로부터 측정되는 속도 데이터, 초기 위치 데이터 및 위치 데이터로 형성된 구속 조건, 및 3D 라이더에 의해 측정되는 3D ICP(Iterative Closest Point fitting) 데이터로 형성된 구속 조건 각각을 이용하여 각 노드에 대한 구속 조건을 최적화한 후, 상기 그래프 구조를 구축하고,
상기 무인체의 위치를 추정하는 단계는
상기 구축된 그래프 구조를 기반으로 그래프 최적화 기법(Graph optimization)을 이용하여 상기 무인체의 위치를 추정하는 구축된 상기 그래프 구조에 대한 최적화를 진행하는 것을 특징으로 하는 그래프 구조 기반의 무인체 위치 추정 방법. Measuring data according to a moving path of a human body using multiple sensors such as an IMU (Inertial Measurement Unit), a GPS (Global Positioning System), a camera, and a 3D rider (LiDAR; Light Detection And Ranging);
Constructing a graph structure based on the measured data based on a node in the path of the human body and a constraint between the nodes; And
Estimating a position of a human body based on the graph structure,
The step of constructing the graph structure
Constraint conditions formed by the human body's odometry data measured from the camera, velocity data measured from the GPS and the IMU, constraints formed by initial position data and position data, and 3D ICP (Iterative Closest Point fitting ) Constraint conditions for each node are optimized using constraint conditions formed by the data, the graph structure is constructed,
The step of estimating the position of the human body
Wherein the optimization of the constructed graph structure for estimating the position of the non-human body using graph optimization is performed based on the constructed graph structure, .
상기 데이터를 측정하는 단계는
상기 무인체에 장착된 가속도 센서와 자이로 센서를 구비한 IMU(Inertial Measurement Unit)로부터의 센서 데이터를 기반으로 생성된 상기 속도 데이터 및 상기 초기 위치 데이터(Initial pose)를 측정하고, 상기 무인체에 장착된 GPS(Global Positioning System)로부터의 상기 위치 데이터를 측정하는 그래프 구조 기반의 무인체 위치 추정 방법. The method according to claim 1,
The step of measuring the data
The velocity data and the initial position data generated based on the sensor data from the IMU (Inertial Measurement Unit) equipped with the acceleration sensor and the gyro sensor mounted on the human body are measured, Wherein the position data is measured from a GPS (Global Positioning System).
상기 데이터를 측정하는 단계는
카메라로부터 무인체의 상기 오도메트리 데이터(Visual odometry)를 측정하고, 3D 라이더(LiDAR; Light Detection And Ranging)를 기반으로 3D ICP(Iterative Closest Point fitting) 알고리즘을 통해 무인체의 이동 데이터를 측정하는 그래프 구조 기반의 무인체 위치 추정 방법. 3. The method of claim 2,
The step of measuring the data
The visual odometry of the human body is measured from a camera and the movement data of the human body is measured through a 3D ICP (Iterative Closest Point Fitting) algorithm based on a 3D rider (LiDAR; Light Detection And Ranging) Non - body position estimation based on graph structure.
상기 그래프 구조를 구축하는 단계는
IMU, GPS, 카메라 및 3D 라이더를 포함하는 상기 다중 센서로부터 상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에 따른 각 위치를 나타내는 상기 노드, 및 상기 노드의 연결을 나타내는 상기 구속 조건을 획득하는 것을 특징으로 하는 그래프 구조 기반의 무인체 위치 추정 방법.The method of claim 3,
The step of constructing the graph structure
The node representing each position along the movement path of the human body based on the measured data from the multiple sensors including the IMU, the GPS, the camera and the 3D rider, and the constraint condition indicating the connection of the node Wherein the non-human body position estimation method is based on a graph structure.
상기 그래프 구조를 구축하는 단계는
상기 무인체의 이동 경로에 따른 상기 노드, 및 상기 구속 조건에 기초한 SLAM(Simultaneous Localization and Mapping)을 통해 상기 그래프 구조를 구축하는 것을 특징으로 하는 그래프 구조 기반의 무인체 위치 추정 방법. 5. The method of claim 4,
The step of constructing the graph structure
Wherein the graph structure is constructed through the node according to the moving path of the human body, and SLAM (Simultaneous Localization and Mapping) based on the constraint condition.
상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에서의 노드(node) 및 각 노드 간의 구속 조건(constraint)으로부터 그래프 구조(Graph structure)를 구축하는 그래프 구조 구축부; 및
상기 그래프 구조를 기반으로 무인체의 위치를 추정하는 위치 추정부를 포함하되,
상기 그래프 구조 구축부는
카메라로부터 측정되는 무인체의 오도메트리 데이터로 형성된 구속 조건, GPS 및 IMU로부터 측정되는 속도 데이터, 초기 위치 데이터 및 위치 데이터로 형성된 구속 조건, 및 3D 라이더에 의해 측정되는 3D ICP(Iterative Closest Point fitting) 데이터로 형성된 구속 조건 각각을 이용하여 각 노드에 대한 구속 조건을 최적화한 후, 상기 그래프 구조를 구축하고,
상기 위치 추정부는
상기 구축된 그래프 구조를 기반으로 그래프 최적화 기법(Graph optimization)을 이용하여 상기 무인체의 위치를 추정하는 구축된 상기 그래프 구조에 대한 최적화를 진행하는 것을 특징으로 하는 그래프 구조 기반의 무인체 위치 추정 장치. A measuring unit for measuring data according to a moving path of a human body using multiple sensors of an IMU (Inertial Measurement Unit), a GPS (Global Positioning System), a camera, and a 3D rider (LiDAR; Light Detection And Ranging);
A graph structure constructing unit for constructing a graph structure from a node and a constraint between nodes in the moving path of the human body based on the measured data; And
And a position estimator for estimating a position of a human body based on the graph structure,
The graph structure constructing unit
Constraint conditions formed by the human body's odometry data measured from the camera, velocity data measured from the GPS and the IMU, constraints formed by initial position data and position data, and 3D ICP (Iterative Closest Point fitting ) Constraint conditions for each node are optimized using constraint conditions formed by the data, the graph structure is constructed,
The position estimating unit
Wherein the optimization of the constructed graph structure for estimating the position of the non-human body is performed using a graph optimization method based on the constructed graph structure, .
상기 측정부는
상기 무인체에 장착된 가속도 센서와 자이로 센서를 구비한 IMU(Inertial Measurement Unit)로부터의 센서 데이터를 기반으로 생성된 상기 속도 데이터 및 상기 초기 위치 데이터(Initial pose)를 측정하고, 상기 무인체에 장착된 GPS(Global Positioning System)으로부터의 상기 위치 데이터를 측정하는 그래프 구조 기반의 무인체 위치 추정 장치. 9. The method of claim 8,
The measuring unit
The velocity data and the initial position data generated based on the sensor data from the IMU (Inertial Measurement Unit) equipped with the acceleration sensor and the gyro sensor mounted on the human body are measured, Wherein the position data is measured from a GPS (Global Positioning System).
상기 측정부는
카메라로부터 무인체의 상기 오도메트리 데이터(Visual odometry)를 측정하고, 3D 라이더(LiDAR; Light Detection And Ranging)를 기반으로 3D ICP(Iterative Closest Point fitting) 알고리즘을 통해 무인체의 이동 데이터를 측정하는 그래프 구조 기반의 무인체 위치 추정 장치. 10. The method of claim 9,
The measuring unit
The visual odometry of the human body is measured from a camera and the movement data of the human body is measured through a 3D ICP (Iterative Closest Point Fitting) algorithm based on a 3D rider (LiDAR; Light Detection And Ranging) Non - human body position estimator based on graph structure.
상기 그래프 구조 구축부는
IMU, GPS, 카메라 및 3D 라이더를 포함하는 상기 다중 센서로부터 상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에 따른 각 위치를 나타내는 상기 노드, 및 상기 노드의 연결을 나타내는 상기 구속 조건을 획득하는 것을 특징으로 하는 그래프 구조 기반의 무인체 위치 추정 장치. 11. The method of claim 10,
The graph structure constructing unit
The node representing each position along the movement path of the human body based on the measured data from the multiple sensors including the IMU, the GPS, the camera and the 3D rider, and the constraint condition indicating the connection of the node Wherein the non-human body position estimating apparatus is based on a graph structure.
상기 그래프 구조 구축부는
상기 무인체의 이동 경로에 따른 상기 노드, 및 상기 구속 조건에 기초한 SLAM(Simultaneous Localization and Mapping)을 통해 상기 그래프 구조를 구축하는 것을 특징으로 하는 그래프 구조 기반의 무인체 위치 추정 장치. 12. The method of claim 11,
The graph structure constructing unit
Wherein the graph structure is constructed through the node according to the moving path of the human body, and SLAM (Simultaneous Localization and Mapping) based on the constraint condition.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170050976A KR101956447B1 (en) | 2017-04-20 | 2017-04-20 | Method and apparatus for position estimation of unmanned vehicle based on graph structure |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170050976A KR101956447B1 (en) | 2017-04-20 | 2017-04-20 | Method and apparatus for position estimation of unmanned vehicle based on graph structure |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180117879A KR20180117879A (en) | 2018-10-30 |
KR101956447B1 true KR101956447B1 (en) | 2019-03-12 |
Family
ID=64101011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170050976A KR101956447B1 (en) | 2017-04-20 | 2017-04-20 | Method and apparatus for position estimation of unmanned vehicle based on graph structure |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101956447B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020197297A1 (en) * | 2019-03-27 | 2020-10-01 | Lg Electronics Inc. | Mobile robot and method of controlling the same |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102243649B1 (en) * | 2018-12-14 | 2021-04-22 | 건국대학교 산학협력단 | Unmanned aerial vehicle ad-hoc location estimation system in urban environment |
KR102135443B1 (en) * | 2019-01-28 | 2020-07-17 | 네이버랩스 주식회사 | Method for position estimation of vehicle based on graph structure and vehicld using the same |
KR102288609B1 (en) * | 2019-03-12 | 2021-08-11 | 한국과학기술원 | Method and system for position estimation of unmanned aerial vehicle using graph structure based on multi module |
US11960297B2 (en) | 2019-05-03 | 2024-04-16 | Lg Electronics Inc. | Robot generating map based on multi sensors and artificial intelligence and moving based on map |
KR20210155833A (en) | 2019-05-16 | 2021-12-24 | 엘지전자 주식회사 | A method to create a map based on multiple sensors and artificial intelligence, establish correlation between nodes, and create a robot and map that travel using the map |
WO2020241934A1 (en) * | 2019-05-30 | 2020-12-03 | 엘지전자 주식회사 | Method for estimating position by synchronizing multi-sensor, and robot for implementing same |
US11554495B2 (en) | 2019-05-30 | 2023-01-17 | Lg Electronics Inc. | Method of localization using multi sensor and robot implementing same |
KR102206314B1 (en) * | 2019-10-08 | 2021-01-22 | 전남대학교산학협력단 | Apparatus and method for processing outlier |
KR20220001396A (en) * | 2020-06-29 | 2022-01-05 | 김경식 | Map producing system |
KR102550255B1 (en) * | 2020-12-18 | 2023-07-03 | 한서대학교 산학협력단 | Rental Service Method for Generating Machinery of Geospatial Information |
KR102550510B1 (en) * | 2020-12-18 | 2023-06-30 | 한서대학교 산학협력단 | Generating System for Geographical Information |
KR102268980B1 (en) * | 2020-12-31 | 2021-06-24 | 주식회사 위즈윙 | Location estimation apparatus for autonomous driving of drones in GPS shaded areas |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009053561A (en) | 2007-08-28 | 2009-03-12 | Panasonic Electric Works Co Ltd | Map creating system and map creating method for autonomous moving apparatus |
JP2015025753A (en) * | 2013-07-26 | 2015-02-05 | 積水化学工業株式会社 | Measurement instrument of buried piping and measurement method of buried piping |
JP5930346B2 (en) | 2012-11-19 | 2016-06-08 | 株式会社日立製作所 | Autonomous mobile system and control device |
JP2016540211A (en) | 2013-11-27 | 2016-12-22 | ザ トラスティーズ オブ ザ ユニバーシティー オブ ペンシルバニア | Multi-sensor fusion for stable autonomous flight in indoor and outdoor environments on a rotary airfoil (MAV) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101472392B1 (en) | 2013-08-01 | 2014-12-15 | 한국항공우주산업 주식회사 | UAV System having an Accuracy Position Tracking Function and Controlling Method for the Same |
KR101831028B1 (en) | 2015-07-03 | 2018-02-21 | 한국과학기술원 | Method and apparatus for relocation of mobile robot in indoor environment |
-
2017
- 2017-04-20 KR KR1020170050976A patent/KR101956447B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009053561A (en) | 2007-08-28 | 2009-03-12 | Panasonic Electric Works Co Ltd | Map creating system and map creating method for autonomous moving apparatus |
JP5930346B2 (en) | 2012-11-19 | 2016-06-08 | 株式会社日立製作所 | Autonomous mobile system and control device |
JP2015025753A (en) * | 2013-07-26 | 2015-02-05 | 積水化学工業株式会社 | Measurement instrument of buried piping and measurement method of buried piping |
JP2016540211A (en) | 2013-11-27 | 2016-12-22 | ザ トラスティーズ オブ ザ ユニバーシティー オブ ペンシルバニア | Multi-sensor fusion for stable autonomous flight in indoor and outdoor environments on a rotary airfoil (MAV) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020197297A1 (en) * | 2019-03-27 | 2020-10-01 | Lg Electronics Inc. | Mobile robot and method of controlling the same |
US11400600B2 (en) | 2019-03-27 | 2022-08-02 | Lg Electronics Inc. | Mobile robot and method of controlling the same |
Also Published As
Publication number | Publication date |
---|---|
KR20180117879A (en) | 2018-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101956447B1 (en) | Method and apparatus for position estimation of unmanned vehicle based on graph structure | |
Kang et al. | Autonomous UAVs for structural health monitoring using deep learning and an ultrasonic beacon system with geo‐tagging | |
CN109887057B (en) | Method and device for generating high-precision map | |
KR102463176B1 (en) | Device and method to estimate position | |
JP6029446B2 (en) | Autonomous flying robot | |
JP7404010B2 (en) | Position estimation device and method | |
EP3158293B1 (en) | Sensor fusion using inertial and image sensors | |
EP3158417B1 (en) | Sensor fusion using inertial and image sensors | |
JP6599143B2 (en) | Autonomous mobile robot | |
KR20200044420A (en) | Method and device to estimate position | |
WO2016187760A1 (en) | Sensor fusion using inertial and image sensors | |
JP6195450B2 (en) | Autonomous flying robot | |
TWI827649B (en) | Apparatuses, systems and methods for vslam scale estimation | |
JP2015006874A (en) | Systems and methods for autonomous landing using three dimensional evidence grid | |
WO2016187758A1 (en) | Sensor fusion using inertial and image sensors | |
CA3177161A1 (en) | Object detection and tracking for automated operation of vehicles and machinery | |
JP2009266224A (en) | Method and system for real-time visual odometry | |
JP6140458B2 (en) | Autonomous mobile robot | |
CN111338383A (en) | Autonomous flight method and system based on GAAS and storage medium | |
KR102288609B1 (en) | Method and system for position estimation of unmanned aerial vehicle using graph structure based on multi module | |
CN111308415A (en) | Online pose estimation method and device based on time delay | |
CN115249066A (en) | Quantile neural network | |
JP6469492B2 (en) | Autonomous mobile robot | |
WO2020088399A1 (en) | Information processing device, flight control method, and flight control system | |
JP2016181178A (en) | Autonomous mobile robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |