KR101956447B1 - Method and apparatus for position estimation of unmanned vehicle based on graph structure - Google Patents

Method and apparatus for position estimation of unmanned vehicle based on graph structure Download PDF

Info

Publication number
KR101956447B1
KR101956447B1 KR1020170050976A KR20170050976A KR101956447B1 KR 101956447 B1 KR101956447 B1 KR 101956447B1 KR 1020170050976 A KR1020170050976 A KR 1020170050976A KR 20170050976 A KR20170050976 A KR 20170050976A KR 101956447 B1 KR101956447 B1 KR 101956447B1
Authority
KR
South Korea
Prior art keywords
human body
data
graph structure
measured
gps
Prior art date
Application number
KR1020170050976A
Other languages
Korean (ko)
Other versions
KR20180117879A (en
Inventor
명현
오택준
정성욱
송승원
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020170050976A priority Critical patent/KR101956447B1/en
Publication of KR20180117879A publication Critical patent/KR20180117879A/en
Application granted granted Critical
Publication of KR101956447B1 publication Critical patent/KR101956447B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/03Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers
    • G01S19/10Cooperating elements; Interaction or communication between different cooperating elements or between cooperating elements and receivers providing dedicated supplementary positioning signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M1/00Testing static or dynamic balance of machines or structures
    • G01M1/14Determining imbalance
    • G01S17/023

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Abstract

본 발명은 다중 센서 및 그래프 구조를 이용하여 무인체의 위치를 추정하는 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법에 관한 것으로서, 대형 구조물 하부에서도 무인체의 위치를 추정할 수 있다.The present invention relates to a non-human body position estimation apparatus based on a graph structure for estimating a position of a human body using multiple sensors and a graph structure, and a method thereof, and can estimate the position of a human body even under a large structure.

Description

그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법{METHOD AND APPARATUS FOR POSITION ESTIMATION OF UNMANNED VEHICLE BASED ON GRAPH STRUCTURE}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and method for estimating a position of a human body based on a graph structure,

본 발명은 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법에 관한 것으로서, 보다 상세하게는 다중 센서 및 그래프 구조를 이용하여 무인체의 위치를 추정하는 기술에 관한 것이다. The present invention relates to a non-human body position estimation apparatus based on a graph structure and a method thereof, and more particularly, to a technique for estimating a position of a human body using multiple sensors and a graph structure.

국민의 삶의 질 향상 및 복지사회 구현의 가장 근본적인 전제 조건은 안전사회 구축이며, 이는 안전한 사회기반시설(안전인프라) 확보로부터 시작된다.The most fundamental prerequisite for improving the quality of life of the people and realizing a welfare society is building a safe society, which starts with securing a safe infrastructure (safety infrastructure).

하지만, 연이은 구조물 사고 발생으로 국민들의 부정적 시각과 불신이 팽배한 상황이며, 더욱이 사회기반시설물의 노후화로 인해 사회적 불안감이 높아지고 있다. However, due to the occurrence of subsequent structural accidents, the people have become negative viewpoints and distrust, and social anxiety is increasing due to the aging of infrastructure.

교량과 같은 대형 구조물의 사고 예방을 위하여 전문기업을 통한 안전진단이 수행되고 있지만, 관리주체의 투자 및 관리 감독 부족, 관련분야 기술자의 전문성 미흡 및 열악한 업무환경과, 저가수주에 따른 품질 저하, 접근의 비용이성으로 인한 외관조사의 어려움, 및 검사자의 주관적인 판단 개입에 의한 신뢰도 확보 어려움 등 다양하고 많은 문제점이 존재하였다.In order to prevent accidents of large structures such as bridges, safety diagnosis is carried out through specialized companies. However, there is a lack of investment and management supervision by the management, lack of expertise of the related field engineers, poor working environment, The difficulty of the appearance inspection due to the cost inconvenience, and the difficulty in securing the reliability by the subjective judgment intervention of the inspector.

이러한 문제점을 해결하기 위해, 구조물에 여러 종류의 계측기를 설치하여 감시하는 구조물 건전도 모니터링 시스템에 대한 연구가 활발히 진행되고 있다. 다만, 기존의 구조물 건전도 모니터링 시스템은 주로 육안점검 및 비파괴 검사로 수행되며, 광범위한 면적에 대한 적용 기술이 미흡하며 점검 대상 시설물의 위치 및 조건에 따른 점검 수행의 한계가 존재하였다.In order to solve these problems, researches on a structure health monitoring system that monitors and installs various kinds of measuring instruments on a structure are actively conducted. However, the existing structural health monitoring system is mainly performed by visual inspection and non-destructive inspection, and there are insufficient application techniques for a wide area and there are limitations in performing inspection according to the location and condition of the inspection target facility.

최근에는 이러한 한계를 극복하기 위한 방안으로 무인체를 활용하는 방법이 연구되고 있다.In recent years, a method of using a human body as a means to overcome this limitation has been studied.

현재까지 국내 무인기 기술은 정찰, 감시, 폭격 등의 임무를 수행하기 위한 군사목적으로 발전해 왔다. Until now, domestic UAV technology has been developed for military purposes to perform missions such as reconnaissance, surveillance and bombing.

상기 국내 무인기 기술은 다양한 민수 분야에 적용이 가능할 것으로 전망된다. 민수용 무인기 시장은 주로 공공분야 수요를 중심으로 발전될 것으로 전망되며, 활용도 여하에 따라 영상, 농업, 환경감시 등 다양한 분야로 확대될 것으로 전망되고 있다.The above UAV technology is expected to be applicable to various civilian fields. The civilian UAV market is expected to be developed mainly in the public sector, and it is expected to expand into various fields such as video, agriculture, and environmental monitoring depending on the utilization.

국내 무인기 기술을 기반으로 하는 무인체를 활용한 구조물 진단은 검사자가 직접 접근하기 어려운 부분에 대해서도 효과적으로 점검을 수행할 수 있다. 다만, 무인체를 이용한 구조물 검사 및 모니터링과 같은 분야는 초기 기술 단계이며, 구조물 검사, 모니터링에 적합한 무인체 및 관련기술에 대한 개발이 필요한 상황이다.The structure diagnosis using the unmanned human body based on the domestic unmanned aerial vehicle technology can effectively perform the inspection even in areas where the inspector can not access directly. However, such areas as the inspection and monitoring of structures using the human body are in the early stage of the technology, and it is necessary to develop the human body and related technologies suitable for structural inspection and monitoring.

현재 국내 무인체 기술 수준은 우수하지만 핵심부품을 수입에 의존하기 때문에 경쟁력이 떨어진다. At present, the level of non-human body technology is excellent, but its competitiveness deteriorates because it relies on imports of core parts.

또한, 기존의 무인체를 이용한 구조물 모니터링 기술은 무인체가 대형 구조물 하부에서 진단 임무를 수행할 경우 GPS 음영지역이 발생하며, 위치 추정이 불가능하다는 한계가 존재하였다. In addition, the existing structure monitoring technology using the human body has a limitation that it is impossible to estimate the location due to the shadow area of GPS when the unmanned person carries out the diagnosis task under the large structure.

이에 본 명세서에서는 대형 구조물 하부에서도 위치를 추정할 수 있는 기술을 제안한다.Therefore, this specification proposes a technique for estimating the position even under a large structure.

한국등록특허 제10­1472392호(2014.12.08 등록), "정밀위치추적기능이 구비된 무인기시스템 및 그 제어방법"Korean Registered Patent No. 101472392 (Registered on December 31, 2014), "UAV System with Precise Position Tracking Function and Control Method Thereof" 한국공개특허 제10­2017­0004556호(2017.01.11 공개), "실내 환경에서 이동 로봇의 리로케이션 방법 및 장치"Korean Patent Publication No. 1020170004556 (published on Jan. 11, 2017), "Relocation method and apparatus of mobile robot in indoor environment"

본 발명의 실시예들의 목적은 대형 구조물 하부에서도 무인체의 위치를 추정할 수 있는 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법을 제공하고자 한다.It is an object of embodiments of the present invention to provide a non-human body position estimation apparatus and a method thereof based on a graph structure capable of estimating the position of a non-human body even under a large structure.

또한, 본 발명의 실시예들의 목적은 다중 센서를 이용하여 GPS 음영 지역에서의 무인체의 위치를 보다 정확하게 추정할 수 있는 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법을 제공하고자 한다.Also, it is an object of embodiments of the present invention to provide a non-human body position estimation apparatus based on a graph structure capable of more accurately estimating a position of a non-human body in a shadow area of a GPS using multiple sensors.

또한, 본 발명의 실시예들의 목적은 무인체의 위치를 추정하여 무인체의 자율운행 성능을 향상시킬 수 있는 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법을 제공하고자 한다.Also, an object of embodiments of the present invention is to provide a non-human body position estimation apparatus based on a graph structure capable of improving autonomous driving performance of a human body by estimating the position of a human body, and a method thereof.

본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 다중 센서를 이용하여 무인체의 이동 경로에 따른 데이터를 측정하는 단계, 상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에서의 노드(node), 및 각 노드 간의 구속 조건(constraint)으로부터 그래프 구조(Graph structure)를 구축하는 단계 및 상기 그래프 구조를 기반으로 무인체의 위치를 추정하는 단계를 포함한다.The non-human body position estimation method based on a graph structure according to an embodiment of the present invention includes the steps of measuring data according to a moving path of a human body using multiple sensors, Constructing a graph structure from a node, a constraint between each node, and estimating a position of a human body based on the graph structure.

상기 데이터를 측정하는 단계는 상기 무인체에 장착된 가속도 센서와 자이로 센서를 구비한 IMU(Inertial Measurement Unit)로부터의 센서 데이터를 기반으로 생성된 속도 데이터 및 초기 위치 데이터(Initial pose)를 측정하고, 상기 무인체에 장착된 GPS(Global Positioning System)로부터의 위치 데이터를 측정하는 단계일 수 있다.The step of measuring the data may include measuring velocity data and initial position data generated based on sensor data from an IMU (Inertial Measurement Unit) having an acceleration sensor and a gyro sensor mounted on the human body, And measuring position data from a Global Positioning System (GPS) mounted on the human body.

상기 데이터를 측정하는 단계는 카메라로부터 무인체의 오도메트리 데이터(Visual odometry)를 측정하고, 3D 라이더(LiDAR; Light Detection And Ranging)를 기반으로 3D ICP(Iterative Closest Point fitting) 알고리즘을 통해 무인체의 이동 데이터를 측정하는 단계일 수 있다.The step of measuring the data may include measuring a visual odometry of a human body from a camera and measuring a human body by using a 3D rider (LiDAR; Light Detection And Ranging) and a 3D ICP (Iterative Closest Point Fitting) Of the moving image data.

상기 그래프 구조를 구축하는 단계는 IMU, GPS, 카메라 및 3D 라이더를 포함하는 상기 다중 센서로부터 상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에 따른 각 위치를 나타내는 상기 노드, 및 상기 노드의 연결을 나타내는 상기 구속 조건을 획득할 수 있다.Wherein the step of constructing the graph structure comprises: the node representing each position along the movement path of the human body based on the measured data from the multiple sensors including the IMU, the GPS, the camera and the 3D rider; Can be obtained.

상기 그래프 구조를 구축하는 단계는 상기 무인체의 이동 경로에 따른 상기 노드, 및 상기 구속 조건에 기초한 SLAM(Simultaneous Localization and Mapping)을 통해 상기 그래프 구조를 구축할 수 있다.The step of constructing the graph structure may construct the graph structure through SLAM (Simultaneous Localization and Mapping) based on the node according to the moving path of the human body and the constraint condition.

상기 무인체의 위치를 추정하는 단계는 상기 구축된 그래프 구조를 기반으로 그래프 최적화 기법(Graph optimization)을 이용하여 상기 무인체의 위치를 추정할 수 있다.The step of estimating the position of the non-human body may estimate the position of the non-human body using graph optimization based on the constructed graph structure.

본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 장치는 다중 센서를 이용하여 무인체의 이동 경로에 따른 데이터를 측정하는 측정부, 상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에서의 노드(node) 및 각 노드 간의 구속 조건(constraint)으로부터 그래프 구조(Graph structure)를 구축하는 그래프 구조 구축부 및 상기 그래프 구조를 기반으로 무인체의 위치를 추정하는 위치 추정부를 포함한다.The non-human body position estimation apparatus based on a graph structure according to an embodiment of the present invention includes a measurement unit for measuring data according to a moving path of a human body using multiple sensors, A graph structure constructing unit for constructing a graph structure from nodes of the nodes and constraints between the nodes, and a position estimator for estimating the position of the human body based on the graph structure.

상기 측정부는 상기 무인체에 장착된 가속도 센서와 자이로 센서를 구비한 IMU(Inertial Measurement Unit)로부터의 센서 데이터를 기반으로 생성된 속도 데이터 및 초기 위치 데이터(Initial pose)를 측정하고, 상기 무인체에 장착된 GPS(Global Positioning System)으로부터의 위치 데이터를 측정할 수 있다.The measurement unit measures velocity data and initial position data (initial position) generated based on sensor data from an IMU (Inertial Measurement Unit) equipped with an acceleration sensor and a gyro sensor mounted on the human body, It is possible to measure position data from a mounted Global Positioning System (GPS).

상기 측정부는 카메라로부터 무인체의 오도메트리 데이터(Visual odometry)를 측정하고, 3D 라이더(LiDAR; Light Detection And Ranging)를 기반으로 3D ICP(Iterative Closest Point fitting) 알고리즘을 통해 무인체의 이동 데이터를 측정할 수 있다.The measurement unit measures the visual odometry of a human body from a camera and measures movement data of a human body through a 3D ICP (Iterative Closest Point Fitting) algorithm based on a 3D rider (LiDAR; Light Detection And Ranging) Can be measured.

상기 그래프 구조 구축부는 IMU, GPS, 카메라 및 3D 라이더를 포함하는 상기 다중 센서로부터 상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에 따른 각 위치를 나타내는 상기 노드, 및 상기 노드의 연결을 나타내는 상기 구속 조건을 획득할 수 있다.Wherein the graph structure construction unit comprises: a node representing each position according to a moving path of the human body based on the measured data from the multiple sensors including an IMU, a GPS, a camera, and a 3D rider; Constraints can be obtained.

상기 그래프 구조 구축부는 상기 무인체의 이동 경로에 따른 상기 노드, 및 상기 구속 조건에 기초한 SLAM(Simultaneous Localization and Mapping)을 통해 상기 그래프 구조를 구축할 수 있다.The graph structure constructing unit may construct the graph structure through SLAM (Simultaneous Localization and Mapping) based on the node according to the moving path of the human body and the constraint condition.

상기 위치 추정부는 상기 구축된 그래프 구조를 기반으로 그래프 최적화 기법(Graph optimization)을 이용하여 상기 무인체의 위치를 추정할 수 있다. The position estimating unit may estimate the position of the non-human body using graph optimization based on the constructed graph structure.

본 발명의 실시예에 따르면, 대형 구조물 하부에서도 무인체의 위치를 추정할 수 있다.According to the embodiment of the present invention, the position of the non-human body can be estimated even under the large structure.

또한, 본 발명의 실시예에 따르면, 다중 센서를 이용하여 GPS 음영 지역에서의 무인체의 위치를 보다 정확하게 추정할 수 있다.Also, according to the embodiment of the present invention, it is possible to more accurately estimate the position of a non-human body in a shadow area of a GPS using multiple sensors.

또한, 본 발명의 실시예에 따르면, 무인체의 위치를 추정하여 무인체의 자율운행 성능을 향상시킬 수 있다.In addition, according to the embodiment of the present invention, it is possible to improve autonomous driving performance of a human body by estimating the position of a human body.

도 1은 본 발명의 실시예에 따른 대형 구조물 진단을 위한 무인체의 이동 경로의 예를 도시한 것이다.
도 2는 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법의 흐름도를 도시한 것이다.
도 3은 본 발명의 실시예에 따른 그래프 구조를 이용한 위치 추정 알고리즘의 예를 도시한 것이다.
도 4a 내지 도 4d는 본 발명의 실시예에 따른 그래프 구조의 예를 도시한 것이다.
도 5는 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법을 이용하여 무인체의 위치를 추정한 결과를 도시한 것이다.
도 6은 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 장치의 구성을 설명하기 위해 도시한 것이다.
1 shows an example of a moving path of a human body for diagnosing a large structure according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating a non-human body position estimation method based on a graph structure according to an embodiment of the present invention.
FIG. 3 illustrates an example of a position estimation algorithm using a graph structure according to an embodiment of the present invention.
4A to 4D show an example of a graph structure according to an embodiment of the present invention.
FIG. 5 shows a result of estimating the position of a human body using a graph-based non-human body position estimation method according to an embodiment of the present invention.
FIG. 6 is a block diagram of a non-human body position estimation apparatus based on a graph structure according to an embodiment of the present invention.

이하, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to or limited by the embodiments. In addition, the same reference numerals shown in the drawings denote the same members.

또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 시청자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. Also, terminologies used herein are terms used to properly represent preferred embodiments of the present invention, which may vary depending on the viewer, the intention of the operator, or the custom in the field to which the present invention belongs. Therefore, the definitions of these terms should be based on the contents throughout this specification.

도 1은 본 발명의 실시예에 따른 대형 구조물 진단을 위한 무인체의 이동 경로의 예를 도시한 것이다.1 shows an example of a moving path of a human body for diagnosing a large structure according to an embodiment of the present invention.

도 1을 참조하면, 무인체(10)는 대형 구조물 또는 콘크리트 구조물 각각에 부착된 센서의 위치를 따라 이동하며 구조물을 모니터링 및 진단할 수 있다.Referring to FIG. 1, the human body 10 moves along the position of a sensor attached to each of a large structure or a concrete structure, and can monitor and diagnose the structure.

종래의 기술은 무인체가 대형 구조물 또는 콘크리트 구조물 하부에서 진단 임무를 수행하는 경우, GPS 음영지역에서의 무인체의 위치를 추정하지 못한다는 한계가 존재하였다.There is a limit in that the conventional technique can not estimate the position of the non-human body in the shadow area of the GPS when the unmanned person carries out the diagnosis task under the large structure or the concrete structure.

이에 따른 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 장치 및 그 방법은 대형 구조물 또는 콘크리트 구조물 하부인 GPS 음영지역에서의 무인체의 이동을 보다 정확하게 추정할 수 있다.Accordingly, the non-human body position estimation apparatus and method based on a graph structure according to an embodiment of the present invention can more accurately estimate movement of a human body in a shadow area of a GPS, which is a large structure or a concrete structure.

상기 대형 구조물 또는 콘크리트 구조물은 장대교량 주탑, 고층건물, 건축물, 건물 또는 댐 등의 하단부를 일컫을 수 있으나, 대형 구조물 또는 콘크리트 구조물의 구조, 형태 및 위치는 이에 한정되지 않으며, GPS를 통해 무인체의 위치가 감지되지 않거나 취약한 지역이면 가능하다.The large structure or concrete structure may refer to a lower end of a pylon, a high-rise building, a building, a building or a dam, but the structure, shape and position of the large structure or concrete structure are not limited thereto, Is not detected or is in a vulnerable area.

이하, 위에서 상술한 대형 구조물 또는 콘크리트 구조물 하부의 GPS 음영지역에서, 무인체의 위치를 추정하는 방법을 기재하기로 한다.Hereinafter, a method for estimating the position of a non-human body in a GPS shaded area below the large structure or the concrete structure described above will be described.

도 2는 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법의 흐름도를 도시한 것이다.FIG. 2 is a flowchart illustrating a non-human body position estimation method based on a graph structure according to an embodiment of the present invention.

도 2를 참조하면, 단계 210에서 다중 센서를 이용하여 무인체의 이동 경로에 따른 데이터를 측정한다.Referring to FIG. 2, in step 210, data according to a moving path of a human body is measured using multiple sensors.

예를 들면, 다중 센서는 IMU, GPS, 카메라(camera) 및 3D 라이더(LiDAR) 중 적어도 어느 하나 이상을 포함할 수 있으며, 단계 210은 다중 센서를 이용하여 무인체의 움직임에 따른 이동 경로의 데이터를 측정하는 단계일 수 있다.For example, the multiple sensors may include at least one of an IMU, a GPS, a camera, and a 3D rider (LiDAR). In step 210, data of movement paths . ≪ / RTI >

보다 구체적으로, 단계 210은 무인체에 장착된 가속도 센서와 자이로 센서를 구비한 IMU(Inertial Measurement Unit)로부터의 센서 데이터를 기반으로 생성된 속도 데이터 및 초기 위치 데이터(Initial pose)를 측정하고, 무인체에 장착된 GPS(Global Positioning System)로부터의 위치 데이터를 측정하는 단계일 수 있다.More specifically, step 210 measures velocity data and initial position data (initial position) generated based on sensor data from an IMU (Inertial Measurement Unit) equipped with an acceleration sensor and a gyro sensor mounted on a human body, It may be a step of measuring position data from a GPS (Global Positioning System) mounted on the human body.

또한, 단계 210은 카메라로부터 무인체의 오도메트리 데이터(Visual odometry)를 측정하고, 3D 라이더(LiDAR; Light Detection And Ranging)를 기반으로 3D ICP(Iterative Closest Point fitting) 알고리즘을 통해 무인체의 이동 데이터를 측정하는 단계일 수 있다.In step 210, the visual odometry data of a human body is measured from a camera, and based on a 3D rider (Light Detection And Ranging), a human body is moved through a 3D ICP (Iterative Closest Point Fitting) And measuring the data.

여기서, IMU(Inertial Measurement Unit)는 관성 측정 수단으로서 자이로 센서(자이로스코프)를 이용한다. 예를 들면, IMU는 무인체의 회전각으로서 전진방향(Roll축 방향), 전진방향의 우측방향(Pitch 축 방향), 중력 방향(Yaw 축 방향) 각각의 각속도 중분치 등의 자세 관련 센서 데이터를 생성하고, 가속도 센서를 이용하여 무인체 속도 중분치 등의 가속도 관련 센서 데이터를 생성할 수 있다. Here, the IMU (Inertial Measurement Unit) uses a gyro sensor (gyroscope) as inertial measurement means. For example, the IMU calculates attitude-related sensor data such as forward rotation angle (roll axis direction), rightward direction (pitch axis direction) and gravity direction (yaw axis direction) Acceleration sensor data such as an inhuman body speed middle value can be generated using an acceleration sensor.

다만, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 이에 한정되지 않으며 다양한 관성 측정 수단을 이용하여 속도 데이터, 초기 위치 데이터 및 자세 데이터를 획득할 수 있다. However, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention is not limited to this, and velocity data, initial position data, and attitude data can be acquired using various inertial measurement means.

또한, GPS(Global Position System)는 위성과 통신하여 위치 데이터(예를 들어, WGS84좌표계의 측지좌표로서, 위도, 경도 및 타원체고 등)를 획득할 수 있다. In addition, GPS (Global Position System) can acquire position data (e.g., latitude, longitude and ellipsoid height as geodesic coordinates of a WGS84 coordinate system) by communicating with a satellite.

또한, 카메라는 CMOS, CCD(Charge Coupled Device) 이미지 센서 등을 이용하여 영상을 촬영하여 영상 데이터 및 무인체의 오도메트리 데이터(Visual odometry)를 획득할 수 있다.In addition, the camera can acquire image data and visual odometry data of a human body by capturing an image using a CMOS or a CCD (Charge Coupled Device) image sensor.

실시예에 따라서, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 Point Grey Flea3의 RGB 카메라를 이용할 수 있으나, 카메라의 종류는 한정되지 않으며 다양한 영상 촬영 카메라가 이용될 수 있다.According to the embodiment, the RGB camera of Point Gray Flea3 can be used as the method for estimating the non-human body position based on the graph structure according to the embodiment of the present invention, but the type of the camera is not limited and various image photographing cameras can be used.

또한, 3D LiDAR(Light Detection And Ranging)은 레이저 펄스를 반사체(무인체)에 조사하고, 반사체로부터 반사되어 돌아오는 시간을 측정해서 반사체의 위치좌표를 측정하는 레이더 시스템일 수 있다. 공지된 바와 같이, 3D LiDAR는 반사강도로부터 측정 및 연산한 위치좌표를 측정 데이터로 저장하며, 측정 데이터는 3D 그래프 구조를 이미지화하기 위한 기초정보로 활용될 수 있다. 상기 3D LiDAR는 해당 기술분야에서 이미 널리 활용되고 있는 장치로서, 그 구조와 동작원리에 대해서는 설명을 생략한다. Also, 3D LiDAR (Light Detection And Ranging) can be a radar system that irradiates laser pulses to a reflector (human body) and measures the position coordinates of the reflector by measuring the return time from the reflector. As is well known, 3D LiDAR stores position coordinates measured and calculated from reflection intensity as measurement data, and measurement data can be utilized as basic information for imaging 3D graph structure. The 3D LiDAR is widely used in the related art, and its structure and operation principle will not be described.

실시예에 따라서, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 Velodyne VLP­16의 3D LiDAR를 이용할 수 있으나, 3D LiDAR의 종류는 이에 한정되지 않는다.According to the embodiment, 3DLDAR of Velodyne VLP16 may be used for the non-human body position estimation method based on the graph structure according to the embodiment of the present invention, but the type of 3D LiDAR is not limited thereto.

실시예에 따라서, 전술한 다중 센서의 종류는 한정되지 않으며, IMU, GPS, Camera 및 3D LiDAR의 다중 센서는 무인체 및 대형 구조물 각각의 내부 또는 외부에 위치할 수 있으며, 위치되는 센서의 종류 및 개수는 한정하지 않는다.According to embodiments, the types of the above-described multiple sensors are not limited, and the multiple sensors of IMU, GPS, Camera, and 3D LiDAR can be located inside or outside each of a human body and a large structure, The number is not limited.

단계 220에서 측정된 데이터를 기반으로 무인체의 이동 경로에서의 노드(node), 및 각 노드 간의 구속 조건(constraint)으로부터 그래프 구조(Graph structure)를 구축한다.A graph structure is constructed from the nodes in the moving path of the human body and the constraints between the nodes based on the measured data in step 220.

예를 들면, 단계 220은 IMU, GPS, 카메라 및 3D 라이더를 포함하는 다중 센서로부터 측정된 데이터를 기반으로 무인체의 이동 경로에 따른 각 위치를 나타내는 노드, 및 노드의 연결을 나타내는 구속 조건을 획득할 수 있다. For example, step 220 may include obtaining a node representing each location along the moving path of the human body based on the measured data from multiple sensors including IMU, GPS, camera and 3D rider, can do.

이에 따라서, 단계 220은 무인체의 이동 경로에 따른 노드, 및 구속 조건에 기초한 SLAM(Simultaneous Localization and Mapping)을 통해 그래프 구조를 구축하는 단계일 수 있다. Accordingly, the step 220 may be a step of constructing a graph structure through a node according to the moving path of the human body and SLAM (Simultaneous Localization and Mapping) based on the constraint.

상기 SLAM은 다중 센서로부터 무인체 및 무인체의 주변 환경 정보를 검출하고 측정된 데이터를 가공하여 무인체의 이동 및 위치에 대응되는 맵을 작성함과 동시에 무인체의 절대 위치를 추정하는 방법을 일컫는다.The SLAM refers to a method of detecting the non-human and non-human surroundings information from multiple sensors and processing the measured data to create a map corresponding to the movement and position of the human body and estimating the absolute position of the human body .

본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 단계 220에서, 무인체의 실시간 위치 및 최종 위치를 인식하는 구성 수단으로, 다중 센서에 의해 획득된 측정 데이터에 기초한 SLAM 과정을 통해 무인체의 이동 경로 또는 이동 궤적에 따른 그래프 구조를 구축할 수 있다.The non-human body position estimation method based on the graph structure according to the embodiment of the present invention is a means for recognizing the real-time position and the final position of a human body in step 220, wherein the SLAM process based on the measurement data acquired by the multiple sensors It is possible to construct a graph structure according to a movement path or movement trajectory of a human body.

실시예에 따라서, 단계 220은 다중 센서로부터 측정된 데이터에 기초하여 지정된 시간에서의 무인체의 위치를 나타내는 노드(node) 및 각 노드 간의 구속 조건(constraint)으로부터 무인체의 위치 추정 값을 실시간 업데이트할 수 있고, 무인체의 거리 측정 값을 획득할 수 있다. According to an embodiment, step 220 may include updating the real-time location estimate of the inhuman body from a constraint between a node and a node indicating the location of the human body at a specified time based on data measured from multiple sensors And the distance measurement value of the human body can be obtained.

본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 다중 센서를 이용함으로써, SLAM을 수행하는 과정에서 어느 하나의 센서가 페일(fail)되는 경우, 나머지 센서를 이용하여 SLAM 과정을 수행할 수 있기 때문에 SLAM에 대한 성능을 향상시킬 수 있다. In the non-human body position estimation method based on the graph structure according to the embodiment of the present invention, when one sensor fails in the course of performing SLAM by using multiple sensors, the SLAM process is performed using the remaining sensors This can improve performance for SLAM.

단계 230에서 그래프 구조를 기반으로 무인체의 위치를 추정한다.In step 230, the position of the human body is estimated based on the graph structure.

단계 230은 구축된 그래프 구조를 기반으로 그래프 최적화 기법(Graph optimization)을 이용하여 무인체의 위치를 추정하는 단계일 수 있다. Step 230 may be a step of estimating the position of a human body using graph optimization based on the constructed graph structure.

예를 들면, 단계 230에서 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 노드 및 구속 조건으로 형성된 그래프 구조에서 무인체의 이동 경로 및 시간에 따라 최종 위치를 추정할 수 있는 상기 그래프 최적화 기법을 이용하여 무인체의 위치를 추정할 수 있다. For example, in step 230, a non-human body position estimation method based on a graph structure according to an embodiment of the present invention includes a step of estimating a final position according to a moving path and time of a human body in a graph structure formed by nodes and constraints, The position of the human body can be estimated using the graph optimization technique.

다만, 구축된 그래프 구조에서 무인체의 실시간 위치, 이동 경로 및 최종 위치를 획득하는 기법은 전술한 그래프 최적화 기법 외에 다양하게 적용 가능하므로 이에 한정되는 것은 아니다. However, the technique of acquiring the real-time position, the moving path, and the final position of the human body in the constructed graph structure can be applied variously in addition to the above-described graph optimization technique, and thus is not limited thereto.

도 3은 본 발명의 실시예에 따른 그래프 구조를 이용한 위치 추정 알고리즘의 예를 도시한 것이다.FIG. 3 illustrates an example of a position estimation algorithm using a graph structure according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 IMU(310), GPS(320), Camera(330) 및 3D LiDAR(340)의 다중 센서를 이용하여 그래프 구조(360)를 구축하고, 구축된 그래프 구조(360)를 기반으로 무인체의 위치를 추정하는 알고리즘을 제공한다.Referring to FIG. 3, a graph-based non-human body position estimation method according to an exemplary embodiment of the present invention is a method for estimating a human body position based on a graph using a plurality of sensors of an IMU 310, a GPS 320, a camera 330, and a 3D LiDAR 340 Constructs a structure 360, and provides an algorithm for estimating the position of a human body based on the constructed graph structure 360.

IMU(Inertial Measurement Unit, 310)는 관성 측정 수단으로서 자이로 센서(자이로스코프)를 이용한다. 예를 들면, IMU(310)는 무인체의 회전각으로서 전진방향(Roll축 방향), 전진방향의 우측방향(Pitch 축 방향), 중력 방향(Yaw 축 방향) 각각의 각속도 중분치 등의 자세 관련 센서 데이터와 무인체 속도 중분치 등의 가속도 관련 센서 데이터를 생성할 수 있다. The IMU (Inertial Measurement Unit) 310 uses a gyro sensor (gyroscope) as inertial measurement means. For example, the IMU 310 can be used as a rotational angle of a human body such as a posture relating to the forward direction (Roll axis direction), the rightward direction of the advancing direction (the pitch axis direction), the gravity direction Acceleration-related sensor data such as sensor data and no-body speed middle value can be generated.

이에 따라서, IMU(310)는 무인체에 장착된 가속도 센서와 자이로 센서로부터의 센서 데이터를 기반으로 무인체의 속도 데이터 및 초기 위치 데이터(Initial pose, 311)를 측정할 수 있다. Accordingly, the IMU 310 can measure the speed data of the human body and the initial position data (initial position) 311 based on the sensor data from the acceleration sensor and the gyro sensor mounted on the human body.

GPS(Global Position System, 320)는 위성과 통신하여 위치 데이터(예를 들어, WGS84좌표계의 측지좌표로서, 위도, 경도 및 타원체고 등)를 측정할 수 있다.GPS (Global Position System) 320 may communicate with the satellite to measure position data (e.g., latitude, longitude, and ellipsoid height as geodesic coordinates of a WGS84 coordinate system).

카메라(Camera, 330)는 CMOS, CCD(Charge Coupled Device) 이미지 센서 등을 이용하여 영상을 촬영하여 무인체의 오도메트리 데이터(Visual odometry, 331)를 측정할 수 있으며, 오도메트리 데이터(331)는 무인체의 x축 좌표와 y축 좌표, 진행 방향의 각도를 포함하며, 추정된 변위를 포함할 수 있다. The camera 330 can measure a visual odometry 331 of a human body by capturing an image using a CMOS or a CCD (Charge Coupled Device) image sensor. The omometry data 331 ) Includes the x-axis coordinate of the human body, the y-axis coordinate, and the angle of the heading direction, and may include the estimated displacement.

3D LiDAR(Light Detection And Ranging, 340)은 레이저 펄스를 무인체에 조사하고, 무인체로부터 반사되어 돌아오는 시간을 측정하여 3D ICP(Iterative Closest Point fitting, 341) 알고리즘을 통해 무인체의 이동 데이터를 측정할 수 있다.The 3D LiDAR (Light Detection And Ranging) 340 irradiates a laser pulse to a human body, measures the return time from the human body, and calculates movement data of the human body through the 3D ICP (Iterative Closest Point Fitting, 341) Can be measured.

3D ICP(341) 알고리즘은 3D LiDAR(340)로 측정한 2D 또는 3D 포인트 데이터를 그래프 구조(360)에 매칭하기 위해 사용될 수 있다. The 3D ICP 341 algorithm can be used to match the 2D or 3D point data measured with the 3D LiDAR 340 to the graph structure 360.

이후, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 IMU(310), GPS(320), Camera(330) 및 3D LiDAR(340)의 다중 센서로부터 측정된 데이터를 기반으로 무인체의 이동 경로에서의 노드(node) 및 구속 조건(350)으로부터 그래프 구조(360)를 구축할 수 있다.Thereafter, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention is based on data measured from multiple sensors of the IMU 310, the GPS 320, the camera 330 and the 3D LiDAR 340 A graph structure 360 can be constructed from nodes and constraints 350 in the path of the human body.

실시예에 따라서, 무인체의 이동 경로에서의 노드(node)는 IMU(310)로부터 측정된 초기 위치(311)일 수 있다.Depending on the embodiment, the node in the moving path of the human body may be the initial position 311 measured from the IMU 310.

예를 들면, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 무인체의 이동 경로에 따른 초기 위치(311)인 노드(node)를 기준으로 IMU(310), GPS(320), 오도메트리 데이터(331) 및 3D ICP(341)를 이용하여 노드의 연결을 나타내는 구속 조건(350)을 구성할 수 있고, 노드(node) 및 구속 조건(350)으로부터 그래프 구조(360)를 구축할 수 있다. For example, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention includes the IMU 310, the GPS 320, and the GPS 320 based on a node, which is an initial position 311 according to a moving path of a human body. Constraints 350 indicating the connection of the nodes can be constructed using the geometry data 331 and the 3D ICP 341 and the graph structure 360 can be constructed from the nodes and constraints 350. [ Can be constructed.

이후, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 구축된 그래프 구조(360)를 기반으로 그래프 최적화 기법(370)을 적용하여 무인체의 위치를 추정(380)할 수 있다. Hereinafter, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention can estimate (380) the position of a human body by applying a graph optimization technique 370 based on the constructed graph structure 360 .

도 4a 내지 도 4d는 본 발명의 실시예에 따른 그래프 구조의 예를 도시한 것이다.4A to 4D show an example of a graph structure according to an embodiment of the present invention.

보다 구체적으로, 도 4a는 카메라에 의한 오도메트리 데이터를 포함하는 그래프 구조의 예를 도시한 것이고, 도 4b는 IMU 및 GPS에 의한 데이터를 포함하는 그래프 구조의 예를 도시한 것이며, 도 4c는 3D LiDAR에 의한 3D ICP의 데이터를 포함하는 그래프 구조의 예를 도시한 것이다.More specifically, FIG. 4A shows an example of a graph structure including odometry data by a camera, FIG. 4B shows an example of a graph structure including data by IMU and GPS, and FIG. And an example of a graph structure including data of 3D ICP by 3D LiDAR.

또한, 도 4d는 도 4a 내지 도 4c를 통합한 그래프 구조의 예를 도시한 것이다. FIG. 4D shows an example of a graph structure incorporating FIGS. 4A to 4C.

본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 무인체의 이동 경로에 따른 노드(node, 위치)를 형성할 수 있다. 예를 들면, 초기 시간을 기준으로 xi 위치에서의 무인체의 노드(410)를 형성하고, 일정 시간 후 xi+1 위치에서의 무인체의 노드(420), xi+2 위치에서의 무인체의 노드(430), xi+3 위치에서의 무인체의 노드(440) 및 xi+4 위치에서의 무인체의 노드(450)를 형성할 수 있다. The non-human body position estimation method based on the graph structure according to the embodiment of the present invention can form nodes (positions) according to the moving path of the human body. For example, in the basis of the initial time x i form a free node 410 of the human body in position, and after a predetermined time x i + 1 where no human body in the node (420), x i + 2 position in The non-human body node 430, the human body node 440 at the x i + 3 position, and the human body node 450 at the x i + 4 position can be formed.

이후, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 카메라로부터 측정되는 무인체의 오도메트리 데이터(visual odometry), GPS와 IMU로부터 측정되는 데이터, 3D LiDAR에 의해 측정되는 3D ICP의 데이터를 이용하여 무인체의 각 노드(410, 420, 430, 440, 450)를 연결하는 구속 조건을 형성할 수 있다.Hereinafter, a graph-based non-human body position estimation method according to an embodiment of the present invention includes a visual odometry of a human body measured from a camera, data measured from the GPS and the IMU, 3D data measured by 3D LiDAR Constraint conditions connecting the nodes 410, 420, 430, 440 and 450 of the human body can be formed by using the ICP data.

도 4a를 참조하면, 카메라로부터 측정되는 무인체의 오도메트리 데이터(visual odometry)로 형성된 구속 조건(constraint)은 xi(410)과 xi+ 1(420)를 연결하는

Figure 112017038789153-pat00001
, xi+1(420)과 xi+2(430)를 연결하는
Figure 112017038789153-pat00002
, xi+2(430)과 xi+ 3(440)를 연결하는
Figure 112017038789153-pat00003
, xi+3(440)과 xi+4(450)를 연결하는
Figure 112017038789153-pat00004
이다.Referring to FIG. 4A, a constraint formed by a visual odometry of a human body measured from a camera connects x i (410) and x i + 1 (420)
Figure 112017038789153-pat00001
, connecting x i + 1 (420) and x i + 2 (430)
Figure 112017038789153-pat00002
, connecting x i + 2 (430) and x i + 3 (440)
Figure 112017038789153-pat00003
, connecting x i + 3 (440) and x i + 4 (450)
Figure 112017038789153-pat00004
to be.

또한 도 4b를 참조하면, GPS 및 IMU로부터 측정되는 데이터로 형성된 구속 조건(constraint)은 xi(410)과 xi+2(430)를 연결하는

Figure 112017038789153-pat00005
, xi(410)과 xi+ 3(440)를 연결하는
Figure 112017038789153-pat00006
, xi(410)과 xi+4(450)를 연결하는
Figure 112017038789153-pat00007
이다.Referring to FIG. 4B, constraints formed by data measured from the GPS and the IMU are used to connect x i (410) and x i + 2 (430)
Figure 112017038789153-pat00005
, connecting x i (410) and x i + 3 (440)
Figure 112017038789153-pat00006
, connecting x i (410) and x i + 4 (450)
Figure 112017038789153-pat00007
to be.

또한 도 4c를 참조하면, 3D LiDAR에 의해 측정되는 3D ICP의 데이터로 형성된 구속 조건(constraint)은 xi+1(420)과 xi+ 3(440)를 연결하는

Figure 112017038789153-pat00008
, xi+2(430)과 xi+4(450)를 연결하는
Figure 112017038789153-pat00009
이다.Referring to FIG. 4C, the constraint formed by the data of the 3D ICP measured by the 3D LiDAR connects x i + 1 (420) and x i + 3 (440)
Figure 112017038789153-pat00008
, connecting x i + 2 (430) and x i + 4 (450)
Figure 112017038789153-pat00009
to be.

도 4d를 참조하면, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 IMU, GPS, Camera 및 3D LiDAR의 다중 센서를 이용하여 무인체의 이동 경로에 따른 각 노드(410, 420, 430, 440, 450)에 대한 구속 조건(constraint)을 형성하여 그래프 구조를 구축할 수 있다.4D, a non-human body position estimation method based on a graph structure according to an exemplary embodiment of the present invention includes estimating a position of each of the nodes 410 and 420 according to a moving path of a human body using IMU, GPS, , 430, 440, 450) to form a graph structure.

이에 따라서, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 구축된 그래프 구조를 기반으로 무인체의 위치를 추정할 수 있다.Accordingly, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention can estimate the position of a human body based on the constructed graph structure.

실시예에 따라서, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 노드의 형성 이후 구속 조건을 형성하여 그래프 구조를 구축할 수 있고, 구속 조건을 기반으로 노드를 형성하는 그래프 구조를 구축할 수도 있다. 또한, 그래프 구조를 구축하기 위한 다중 센서의 측정 데이터는 기 설정된 시간에서 수신되는 데이터를 기반으로 한다.According to the embodiment, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention can construct a graph structure by forming a constraint condition after the formation of a node, . In addition, the measurement data of the multiple sensors for constructing the graph structure is based on the data received at a predetermined time.

도 5는 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법을 이용하여 무인체의 위치를 추정한 결과를 도시한 것이다.FIG. 5 shows a result of estimating the position of a human body using a graph-based non-human body position estimation method according to an embodiment of the present invention.

보다 구체적으로, 도 5(a)는 실제 무인체의 이동 경로와 본 발명의 실시예에 따른 방법을 이용하여 추정한 무인체의 위치를 X축에서 비교한 결과를 도시한 것이고, 도 5(b)는 실제 무인체의 이동 경로와 본 발명의 실시예에 따른 방법을 이용하여 추정한 무인체의 위치를 Y축에서 비교한 결과를 도시한 것이며, 도 5(c)는 실제 무인체의 이동 경로와 본 발명의 실시예에 따른 방법을 이용하여 추정한 무인체의 위치를 Z축에서 비교한 결과를 도시한 것이다.More specifically, Fig. 5 (a) shows the results obtained by comparing the positions of the non-human body estimated using the actual moving body of the human body and the method according to the embodiment of the present invention on the X axis, 5C shows a result obtained by comparing the position of a non-human body estimated using a method according to an embodiment of the present invention with the actual moving body of a non-human body, And the position of a human body estimated using the method according to the embodiment of the present invention in the Z axis.

도 5(a)를 참조하면, 실제 무인체의 이동 경로와 본 발명의 실시예에 따른 방법을 이용하여 추정한 무인체의 위치를 X축에서 비교한 결과, 평균 오차(mean error/m)는 0.1706를 나타내며, 평균 제곱근 오차(Root Mean Square Error; RMSE)는 0.4161을 나타낸다.Referring to FIG. 5 (a), when the positions of the unthinking body estimated using the actual moving body of the human body and the method according to the embodiment of the present invention are compared in the X axis, the mean error / m is 0.1706, and the root mean square error (RMSE) is 0.4161.

또한 도 5(b)를 참조하면, 실제 무인체의 이동 경로와 본 발명의 실시예에 따른 방법을 이용하여 추정한 무인체의 위치를 Y축에서 비교한 결과, 평균 오차(mean error/m)는 ­0.0997를 나타내며, 평균 제곱근 오차(Root Mean Square Error; RMSE)는 0.4625를 나타낸다.Referring to FIG. 5 (b), when the positions of the unthinking body estimated using the actual moving body of the human body and the method according to the embodiment of the present invention are compared in the Y axis, the mean error / 0.0997, and a root mean square error (RMSE) of 0.4625.

또한 도 5(c)를 참조하면, 실제 무인체의 이동 경로와 본 발명의 실시예에 따른 방법을 이용하여 추정한 무인체의 위치를 Z축에서 비교한 결과, 평균 오차(mean error/m)는 0.3363를 나타내며, 평균 제곱근 오차(Root Mean Square Error; RMSE)는 0.6290를 나타낸다.Referring to FIG. 5 (c), when the positions of the unthinking body estimated using the actual moving body of the human body and the method according to the embodiment of the present invention are compared in the Z axis, the mean error / Represents 0.3363, and the root mean square error (RMSE) represents 0.6290.

이에 따라서, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 방법은 다중 센서를 이용하여 구축한 그래프 구조를 이용함으로써, 안정적인 무인체의 위치를 추정하는 것을 확인할 수 있으며, 왜곡, 오차 및 오류가 현저하게 낮은 위치 추정 결과를 획득할 수 있다. Accordingly, the non-human body position estimation method based on the graph structure according to the embodiment of the present invention can confirm that a stable non-human body position is estimated by using the graph structure constructed using multiple sensors, and the distortion, It is possible to obtain a position estimation result with a significantly low error.

도 6은 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 장치의 구성을 설명하기 위해 도시한 것이다.FIG. 6 is a block diagram of a non-human body position estimation apparatus based on a graph structure according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 장치(600)는 다중 센서로부터 무인체의 이동 경로에 따른 데이터를 측정하고, 측정된 데이터를 기반으로 한 노드 및 구속 조건으로부터 그래프 구조를 구축하여 무인체의 위치를 추정한다.Referring to FIG. 6, the non-human body position estimating apparatus 600 based on a graph structure according to the present invention measures data according to a moving path of a human body from multiple sensors, Construct a graph structure from constraints to estimate the position of the human body.

이를 위해, 본 발명의 실시예에 따른 그래프 구조 기반의 무인체 위치 추정 장치(600)는 측정부(610), 그래프 구조 구축부(620) 및 위치 추정부(630)를 포함한다.For this, the non-human body position estimating apparatus 600 based on a graph structure according to an embodiment of the present invention includes a measuring unit 610, a graph structure constructing unit 620, and a position estimating unit 630.

측정부(610)는 다중 센서를 이용하여 무인체의 이동 경로에 따른 데이터를 측정한다.The measuring unit 610 measures data according to the moving path of the human body using multiple sensors.

예를 들면, 측정부(610)는 무인체에 장착된 가속도 센서와 자이로 센서를 구비한 IMU(Inertial Measurement Unit)로부터의 센서 데이터를 기반으로 생성된 속도 데이터 및 초기 위치 데이터(Initial pose)를 측정하고, 무인체에 장착된 GPS(Global Positioning System)으로부터의 위치 데이터를 측정할 수 있다.For example, the measuring unit 610 measures velocity data and initial position data (initial position) generated based on sensor data from an IMU (Inertial Measurement Unit) equipped with an acceleration sensor and a gyro sensor mounted on a human body , And can measure position data from a GPS (Global Positioning System) mounted on a human body.

또한, 측정부(610)는 카메라로부터 무인체의 오도메트리 데이터(Visual odometry)를 측정하고, 3D 라이더(LiDAR; Light Detection And Ranging)를 기반으로 3D ICP(Iterative Closest Point fitting) 알고리즘을 통해 무인체의 이동 데이터를 측정할 수 있다. The measuring unit 610 measures the visual odometry of the human body from the camera and measures the visual odometry of the human body through a 3D ICP (Iterative Closest Point Fitting) algorithm based on a 3D rider (LiDAR; Light Detection And Ranging) The movement data of the human body can be measured.

여기서, IMU(Inertial Measurement Unit)는 관성 측정 수단으로서 자이로 센서(자이로스코프)를 이용한다. 예를 들면, IMU는 무인체의 회전각으로서 전진방향(Roll축 방향), 전진방향의 우측방향(Pitch 축 방향), 중력 방향(Yaw 축 방향) 각각의 각속도 중분치 등의 자세 관련 센서 데이터를 생성하고, 가속도 센서를 이용하여 무인체 속도 중분치 등의 가속도 관련 센서 데이터를 생성할 수 있다. Here, the IMU (Inertial Measurement Unit) uses a gyro sensor (gyroscope) as inertial measurement means. For example, the IMU calculates attitude-related sensor data such as forward rotation angle (roll axis direction), rightward direction (pitch axis direction) and gravity direction (yaw axis direction) Acceleration sensor data such as an inhuman body speed middle value can be generated using an acceleration sensor.

또한, GPS(Global Position System)는 위성과 통신하여 위치 데이터(예를 들어, WGS84좌표계의 측지좌표로서, 위도, 경도 및 타원체고 등)를 획득할 수 있다. In addition, GPS (Global Position System) can acquire position data (e.g., latitude, longitude and ellipsoid height as geodesic coordinates of a WGS84 coordinate system) by communicating with a satellite.

또한, 카메라는 CMOS, CCD(Charge Coupled Device) 이미지 센서 등을 이용하여 영상을 촬영하여 무인체의 오도메트리 데이터(Visual odometry)를 획득할 수 있다.In addition, the camera can acquire visual odometry data of a human body by capturing an image using CMOS or a CCD (Charge Coupled Device) image sensor.

또한, 3D LiDAR(Light Detection And Ranging)은 레이저 펄스를 반사체(무인체)에 조사하고, 반사체로부터 반사되어 돌아오는 시간을 측정해서 반사체의 위치좌표를 측정하는 레이더 시스템일 수 있다. 공지된 바와 같이, 3D LiDAR는 반사강도로부터 측정 및 연산한 위치좌표를 측정 데이터로 저장하며, 측정 데이터는 3D 그래프 구조를 이미지화하기 위한 기초정보로 활용될 수 있다. 상기 3D LiDAR는 해당 기술분야에서 이미 널리 활용되고 있는 장치로서, 그 구조와 동작원리에 대해서는 설명을 생략한다. Also, 3D LiDAR (Light Detection And Ranging) can be a radar system that irradiates laser pulses to a reflector (human body) and measures the position coordinates of the reflector by measuring the return time from the reflector. As is well known, 3D LiDAR stores position coordinates measured and calculated from reflection intensity as measurement data, and measurement data can be utilized as basic information for imaging 3D graph structure. The 3D LiDAR is widely used in the related art, and its structure and operation principle will not be described.

실시예에 따라서, IMU, GPS, Camera 및 3D LiDAR의 다중 센서는 무인체 및 대형 구조물 각각의 내부 또는 외부에 위치할 수 있으며, 위치되는 센서의 종류 및 개수는 한정하지 않는다. Depending on the embodiment, the multiple sensors of the IMU, GPS, Camera and 3D LiDAR may be located inside or outside each of the non-human body and the large structure, and the type and number of sensors to be located are not limited.

그래프 구조 구축부(620)는 측정된 데이터를 기반으로 무인체의 이동 경로에서의 노드(node) 및 각 노드 간의 구속 조건(constraint)으로부터 그래프 구조(Graph structure)를 구축한다. The graph structure construction unit 620 constructs a graph structure from nodes and constraints between nodes on the moving path of the human body based on the measured data.

그래프 구조 구축부(620)는 IMU, GPS, 카메라 및 3D 라이더를 포함하는 다중 센서로부터 측정된 데이터를 기반으로 무인체의 이동 경로에 따른 각 위치를 나타내는 노드, 및 노드의 연결을 나타내는 구속 조건을 획득할 수 있다.The graph structure construction unit 620 constructs a graph structure based on measured data from multiple sensors including an IMU, a GPS, a camera, and a 3D lidar, a node representing each position along a moving path of the human body, Can be obtained.

그래프 구조 구축부(620)는 무인체의 이동 경로에 따른 노드, 및 구속 조건에 기초한 SLAM(Simultaneous Localization and Mapping)을 통해 그래프 구조를 구축할 수 있다. The graph structure construction unit 620 can construct a graph structure through nodes based on the moving path of the human body and SLAM (Simultaneous Localization and Mapping) based on constraint conditions.

상기 SLAM은 다중 센서로부터 무인체 및 무인체의 주변 환경 정보를 검출하고 측정된 데이터를 가공하여 무인체의 이동 및 위치에 대응되는 맵(MAP)을 작성함과 동시에 무인체의 절대 위치를 추정하는 방법을 일컫는다.The SLAM detects the surrounding environment information of the human body and the human body from multiple sensors and processes the measured data to create a map (MAP) corresponding to the movement and position of the human body and estimates the absolute position of the human body .

예를 들면, 그래프 구조 구축부(620)는 무인체의 실시간 위치 및 최종 위치를 인식하는 구성 수단으로, 다중 센서에 의해 획득된 측정 데이터에 기초한 SLAM 과정을 통해 무인체의 이동 경로 또는 이동 궤적에 따른 그래프 구조를 구축할 수 있다.For example, the graph structure construction unit 620 is a means for recognizing a real-time position and a final position of a human body. The graph structure construction unit 620 constructs a graph structure by using a SLAM process based on measurement data acquired by multiple sensors, Can be constructed.

위치 추정부(630)는 그래프 구조를 기반으로 무인체의 위치를 추정한다. The position estimation unit 630 estimates the position of the human body based on the graph structure.

위치 추정부(630)는 구축된 그래프 구조를 기반으로 그래프 최적화 기법(Graph optimization)을 이용하여 무인체의 위치를 추정할 수 있다. The position estimation unit 630 can estimate the position of a human body using graph optimization based on the constructed graph structure.

예를 들면, 위치 추정부(630)는 노드 및 구속 조건으로 형성된 그래프 구조에서 무인체의 이동 경로 및 시간에 따라 최종 위치를 추정할 수 있는 상기 그래프 최적화 기법을 이용하여 무인체의 위치를 추정할 수 있다. For example, the position estimating unit 630 estimates the position of a human body using the graph optimization technique that can estimate a final position according to a moving path and a time of a human body in a graph structure formed by nodes and constraints .

다만, 구축된 그래프 구조에서 무인체의 실시간 위치, 이동 경로 및 최종 위치를 획득하는 기법은 전술한 그래프 최적화 기법 외에 다양하게 적용 가능하므로 이에 한정되는 것은 아니다. However, the technique of acquiring the real-time position, the moving path, and the final position of the human body in the constructed graph structure can be applied variously in addition to the above-described graph optimization technique, and thus is not limited thereto.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, 이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments may be implemented by any suitable means, including, for example, a processor, a controller, a device described above, a hardware component, a software component, and / or a combination of hardware components and software components Lt; / RTI > For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD­ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기­광 매체(magneto­optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CDROMs and DVDs, magnetic optical media such as floppy disks, magnetooptical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

10: 무인체(또는 드론)
410, 420, 430, 440, 450: 노드(node)
10: human body (or drone)
410, 420, 430, 440, 450:

Claims (13)

IMU(Inertial Measurement Unit), GPS(Global Positioning System), 카메라(Camera) 및 3D 라이더(LiDAR; Light Detection And Ranging)의 다중 센서를 이용하여 무인체의 이동 경로에 따른 데이터를 측정하는 단계;
상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에서의 노드(node), 및 각 노드 간의 구속 조건(constraint)으로부터 그래프 구조(Graph structure)를 구축하는 단계; 및
상기 그래프 구조를 기반으로 무인체의 위치를 추정하는 단계를 포함하되,
상기 그래프 구조를 구축하는 단계는
카메라로부터 측정되는 무인체의 오도메트리 데이터로 형성된 구속 조건, GPS 및 IMU로부터 측정되는 속도 데이터, 초기 위치 데이터 및 위치 데이터로 형성된 구속 조건, 및 3D 라이더에 의해 측정되는 3D ICP(Iterative Closest Point fitting) 데이터로 형성된 구속 조건 각각을 이용하여 각 노드에 대한 구속 조건을 최적화한 후, 상기 그래프 구조를 구축하고,
상기 무인체의 위치를 추정하는 단계는
상기 구축된 그래프 구조를 기반으로 그래프 최적화 기법(Graph optimization)을 이용하여 상기 무인체의 위치를 추정하는 구축된 상기 그래프 구조에 대한 최적화를 진행하는 것을 특징으로 하는 그래프 구조 기반의 무인체 위치 추정 방법.
Measuring data according to a moving path of a human body using multiple sensors such as an IMU (Inertial Measurement Unit), a GPS (Global Positioning System), a camera, and a 3D rider (LiDAR; Light Detection And Ranging);
Constructing a graph structure based on the measured data based on a node in the path of the human body and a constraint between the nodes; And
Estimating a position of a human body based on the graph structure,
The step of constructing the graph structure
Constraint conditions formed by the human body's odometry data measured from the camera, velocity data measured from the GPS and the IMU, constraints formed by initial position data and position data, and 3D ICP (Iterative Closest Point fitting ) Constraint conditions for each node are optimized using constraint conditions formed by the data, the graph structure is constructed,
The step of estimating the position of the human body
Wherein the optimization of the constructed graph structure for estimating the position of the non-human body using graph optimization is performed based on the constructed graph structure, .
제1항에 있어서,
상기 데이터를 측정하는 단계는
상기 무인체에 장착된 가속도 센서와 자이로 센서를 구비한 IMU(Inertial Measurement Unit)로부터의 센서 데이터를 기반으로 생성된 상기 속도 데이터 및 상기 초기 위치 데이터(Initial pose)를 측정하고, 상기 무인체에 장착된 GPS(Global Positioning System)로부터의 상기 위치 데이터를 측정하는 그래프 구조 기반의 무인체 위치 추정 방법.
The method according to claim 1,
The step of measuring the data
The velocity data and the initial position data generated based on the sensor data from the IMU (Inertial Measurement Unit) equipped with the acceleration sensor and the gyro sensor mounted on the human body are measured, Wherein the position data is measured from a GPS (Global Positioning System).
제2항에 있어서,
상기 데이터를 측정하는 단계는
카메라로부터 무인체의 상기 오도메트리 데이터(Visual odometry)를 측정하고, 3D 라이더(LiDAR; Light Detection And Ranging)를 기반으로 3D ICP(Iterative Closest Point fitting) 알고리즘을 통해 무인체의 이동 데이터를 측정하는 그래프 구조 기반의 무인체 위치 추정 방법.
3. The method of claim 2,
The step of measuring the data
The visual odometry of the human body is measured from a camera and the movement data of the human body is measured through a 3D ICP (Iterative Closest Point Fitting) algorithm based on a 3D rider (LiDAR; Light Detection And Ranging) Non - body position estimation based on graph structure.
제3항에 있어서,
상기 그래프 구조를 구축하는 단계는
IMU, GPS, 카메라 및 3D 라이더를 포함하는 상기 다중 센서로부터 상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에 따른 각 위치를 나타내는 상기 노드, 및 상기 노드의 연결을 나타내는 상기 구속 조건을 획득하는 것을 특징으로 하는 그래프 구조 기반의 무인체 위치 추정 방법.
The method of claim 3,
The step of constructing the graph structure
The node representing each position along the movement path of the human body based on the measured data from the multiple sensors including the IMU, the GPS, the camera and the 3D rider, and the constraint condition indicating the connection of the node Wherein the non-human body position estimation method is based on a graph structure.
제4항에 있어서,
상기 그래프 구조를 구축하는 단계는
상기 무인체의 이동 경로에 따른 상기 노드, 및 상기 구속 조건에 기초한 SLAM(Simultaneous Localization and Mapping)을 통해 상기 그래프 구조를 구축하는 것을 특징으로 하는 그래프 구조 기반의 무인체 위치 추정 방법.
5. The method of claim 4,
The step of constructing the graph structure
Wherein the graph structure is constructed through the node according to the moving path of the human body, and SLAM (Simultaneous Localization and Mapping) based on the constraint condition.
삭제delete 제1항 내지 제5항 중 어느 한 항의 방법을 수행하기 위하여 컴퓨터로 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable medium for performing the method of any one of claims 1 to 5. IMU(Inertial Measurement Unit), GPS(Global Positioning System), 카메라(Camera) 및 3D 라이더(LiDAR; Light Detection And Ranging)의 다중 센서를 이용하여 무인체의 이동 경로에 따른 데이터를 측정하는 측정부;
상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에서의 노드(node) 및 각 노드 간의 구속 조건(constraint)으로부터 그래프 구조(Graph structure)를 구축하는 그래프 구조 구축부; 및
상기 그래프 구조를 기반으로 무인체의 위치를 추정하는 위치 추정부를 포함하되,
상기 그래프 구조 구축부는
카메라로부터 측정되는 무인체의 오도메트리 데이터로 형성된 구속 조건, GPS 및 IMU로부터 측정되는 속도 데이터, 초기 위치 데이터 및 위치 데이터로 형성된 구속 조건, 및 3D 라이더에 의해 측정되는 3D ICP(Iterative Closest Point fitting) 데이터로 형성된 구속 조건 각각을 이용하여 각 노드에 대한 구속 조건을 최적화한 후, 상기 그래프 구조를 구축하고,
상기 위치 추정부는
상기 구축된 그래프 구조를 기반으로 그래프 최적화 기법(Graph optimization)을 이용하여 상기 무인체의 위치를 추정하는 구축된 상기 그래프 구조에 대한 최적화를 진행하는 것을 특징으로 하는 그래프 구조 기반의 무인체 위치 추정 장치.
A measuring unit for measuring data according to a moving path of a human body using multiple sensors of an IMU (Inertial Measurement Unit), a GPS (Global Positioning System), a camera, and a 3D rider (LiDAR; Light Detection And Ranging);
A graph structure constructing unit for constructing a graph structure from a node and a constraint between nodes in the moving path of the human body based on the measured data; And
And a position estimator for estimating a position of a human body based on the graph structure,
The graph structure constructing unit
Constraint conditions formed by the human body's odometry data measured from the camera, velocity data measured from the GPS and the IMU, constraints formed by initial position data and position data, and 3D ICP (Iterative Closest Point fitting ) Constraint conditions for each node are optimized using constraint conditions formed by the data, the graph structure is constructed,
The position estimating unit
Wherein the optimization of the constructed graph structure for estimating the position of the non-human body is performed using a graph optimization method based on the constructed graph structure, .
제8항에 있어서,
상기 측정부는
상기 무인체에 장착된 가속도 센서와 자이로 센서를 구비한 IMU(Inertial Measurement Unit)로부터의 센서 데이터를 기반으로 생성된 상기 속도 데이터 및 상기 초기 위치 데이터(Initial pose)를 측정하고, 상기 무인체에 장착된 GPS(Global Positioning System)으로부터의 상기 위치 데이터를 측정하는 그래프 구조 기반의 무인체 위치 추정 장치.
9. The method of claim 8,
The measuring unit
The velocity data and the initial position data generated based on the sensor data from the IMU (Inertial Measurement Unit) equipped with the acceleration sensor and the gyro sensor mounted on the human body are measured, Wherein the position data is measured from a GPS (Global Positioning System).
제9항에 있어서,
상기 측정부는
카메라로부터 무인체의 상기 오도메트리 데이터(Visual odometry)를 측정하고, 3D 라이더(LiDAR; Light Detection And Ranging)를 기반으로 3D ICP(Iterative Closest Point fitting) 알고리즘을 통해 무인체의 이동 데이터를 측정하는 그래프 구조 기반의 무인체 위치 추정 장치.
10. The method of claim 9,
The measuring unit
The visual odometry of the human body is measured from a camera and the movement data of the human body is measured through a 3D ICP (Iterative Closest Point Fitting) algorithm based on a 3D rider (LiDAR; Light Detection And Ranging) Non - human body position estimator based on graph structure.
제10항에 있어서,
상기 그래프 구조 구축부는
IMU, GPS, 카메라 및 3D 라이더를 포함하는 상기 다중 센서로부터 상기 측정된 데이터를 기반으로 상기 무인체의 이동 경로에 따른 각 위치를 나타내는 상기 노드, 및 상기 노드의 연결을 나타내는 상기 구속 조건을 획득하는 것을 특징으로 하는 그래프 구조 기반의 무인체 위치 추정 장치.
11. The method of claim 10,
The graph structure constructing unit
The node representing each position along the movement path of the human body based on the measured data from the multiple sensors including the IMU, the GPS, the camera and the 3D rider, and the constraint condition indicating the connection of the node Wherein the non-human body position estimating apparatus is based on a graph structure.
제11항에 있어서,
상기 그래프 구조 구축부는
상기 무인체의 이동 경로에 따른 상기 노드, 및 상기 구속 조건에 기초한 SLAM(Simultaneous Localization and Mapping)을 통해 상기 그래프 구조를 구축하는 것을 특징으로 하는 그래프 구조 기반의 무인체 위치 추정 장치.
12. The method of claim 11,
The graph structure constructing unit
Wherein the graph structure is constructed through the node according to the moving path of the human body, and SLAM (Simultaneous Localization and Mapping) based on the constraint condition.
삭제delete
KR1020170050976A 2017-04-20 2017-04-20 Method and apparatus for position estimation of unmanned vehicle based on graph structure KR101956447B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170050976A KR101956447B1 (en) 2017-04-20 2017-04-20 Method and apparatus for position estimation of unmanned vehicle based on graph structure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170050976A KR101956447B1 (en) 2017-04-20 2017-04-20 Method and apparatus for position estimation of unmanned vehicle based on graph structure

Publications (2)

Publication Number Publication Date
KR20180117879A KR20180117879A (en) 2018-10-30
KR101956447B1 true KR101956447B1 (en) 2019-03-12

Family

ID=64101011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170050976A KR101956447B1 (en) 2017-04-20 2017-04-20 Method and apparatus for position estimation of unmanned vehicle based on graph structure

Country Status (1)

Country Link
KR (1) KR101956447B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020197297A1 (en) * 2019-03-27 2020-10-01 Lg Electronics Inc. Mobile robot and method of controlling the same

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102243649B1 (en) * 2018-12-14 2021-04-22 건국대학교 산학협력단 Unmanned aerial vehicle ad-hoc location estimation system in urban environment
KR102135443B1 (en) * 2019-01-28 2020-07-17 네이버랩스 주식회사 Method for position estimation of vehicle based on graph structure and vehicld using the same
KR102288609B1 (en) * 2019-03-12 2021-08-11 한국과학기술원 Method and system for position estimation of unmanned aerial vehicle using graph structure based on multi module
US11960297B2 (en) 2019-05-03 2024-04-16 Lg Electronics Inc. Robot generating map based on multi sensors and artificial intelligence and moving based on map
KR20210155833A (en) 2019-05-16 2021-12-24 엘지전자 주식회사 A method to create a map based on multiple sensors and artificial intelligence, establish correlation between nodes, and create a robot and map that travel using the map
WO2020241934A1 (en) * 2019-05-30 2020-12-03 엘지전자 주식회사 Method for estimating position by synchronizing multi-sensor, and robot for implementing same
US11554495B2 (en) 2019-05-30 2023-01-17 Lg Electronics Inc. Method of localization using multi sensor and robot implementing same
KR102206314B1 (en) * 2019-10-08 2021-01-22 전남대학교산학협력단 Apparatus and method for processing outlier
KR20220001396A (en) * 2020-06-29 2022-01-05 김경식 Map producing system
KR102550255B1 (en) * 2020-12-18 2023-07-03 한서대학교 산학협력단 Rental Service Method for Generating Machinery of Geospatial Information
KR102550510B1 (en) * 2020-12-18 2023-06-30 한서대학교 산학협력단 Generating System for Geographical Information
KR102268980B1 (en) * 2020-12-31 2021-06-24 주식회사 위즈윙 Location estimation apparatus for autonomous driving of drones in GPS shaded areas

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009053561A (en) 2007-08-28 2009-03-12 Panasonic Electric Works Co Ltd Map creating system and map creating method for autonomous moving apparatus
JP2015025753A (en) * 2013-07-26 2015-02-05 積水化学工業株式会社 Measurement instrument of buried piping and measurement method of buried piping
JP5930346B2 (en) 2012-11-19 2016-06-08 株式会社日立製作所 Autonomous mobile system and control device
JP2016540211A (en) 2013-11-27 2016-12-22 ザ トラスティーズ オブ ザ ユニバーシティー オブ ペンシルバニア Multi-sensor fusion for stable autonomous flight in indoor and outdoor environments on a rotary airfoil (MAV)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101472392B1 (en) 2013-08-01 2014-12-15 한국항공우주산업 주식회사 UAV System having an Accuracy Position Tracking Function and Controlling Method for the Same
KR101831028B1 (en) 2015-07-03 2018-02-21 한국과학기술원 Method and apparatus for relocation of mobile robot in indoor environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009053561A (en) 2007-08-28 2009-03-12 Panasonic Electric Works Co Ltd Map creating system and map creating method for autonomous moving apparatus
JP5930346B2 (en) 2012-11-19 2016-06-08 株式会社日立製作所 Autonomous mobile system and control device
JP2015025753A (en) * 2013-07-26 2015-02-05 積水化学工業株式会社 Measurement instrument of buried piping and measurement method of buried piping
JP2016540211A (en) 2013-11-27 2016-12-22 ザ トラスティーズ オブ ザ ユニバーシティー オブ ペンシルバニア Multi-sensor fusion for stable autonomous flight in indoor and outdoor environments on a rotary airfoil (MAV)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020197297A1 (en) * 2019-03-27 2020-10-01 Lg Electronics Inc. Mobile robot and method of controlling the same
US11400600B2 (en) 2019-03-27 2022-08-02 Lg Electronics Inc. Mobile robot and method of controlling the same

Also Published As

Publication number Publication date
KR20180117879A (en) 2018-10-30

Similar Documents

Publication Publication Date Title
KR101956447B1 (en) Method and apparatus for position estimation of unmanned vehicle based on graph structure
Kang et al. Autonomous UAVs for structural health monitoring using deep learning and an ultrasonic beacon system with geo‐tagging
CN109887057B (en) Method and device for generating high-precision map
KR102463176B1 (en) Device and method to estimate position
JP6029446B2 (en) Autonomous flying robot
JP7404010B2 (en) Position estimation device and method
EP3158293B1 (en) Sensor fusion using inertial and image sensors
EP3158417B1 (en) Sensor fusion using inertial and image sensors
JP6599143B2 (en) Autonomous mobile robot
KR20200044420A (en) Method and device to estimate position
WO2016187760A1 (en) Sensor fusion using inertial and image sensors
JP6195450B2 (en) Autonomous flying robot
TWI827649B (en) Apparatuses, systems and methods for vslam scale estimation
JP2015006874A (en) Systems and methods for autonomous landing using three dimensional evidence grid
WO2016187758A1 (en) Sensor fusion using inertial and image sensors
CA3177161A1 (en) Object detection and tracking for automated operation of vehicles and machinery
JP2009266224A (en) Method and system for real-time visual odometry
JP6140458B2 (en) Autonomous mobile robot
CN111338383A (en) Autonomous flight method and system based on GAAS and storage medium
KR102288609B1 (en) Method and system for position estimation of unmanned aerial vehicle using graph structure based on multi module
CN111308415A (en) Online pose estimation method and device based on time delay
CN115249066A (en) Quantile neural network
JP6469492B2 (en) Autonomous mobile robot
WO2020088399A1 (en) Information processing device, flight control method, and flight control system
JP2016181178A (en) Autonomous mobile robot

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant