KR20130046741A - Autonomous topological mapping method of medium-large size space using upward single camera - Google Patents

Autonomous topological mapping method of medium-large size space using upward single camera Download PDF

Info

Publication number
KR20130046741A
KR20130046741A KR1020110111288A KR20110111288A KR20130046741A KR 20130046741 A KR20130046741 A KR 20130046741A KR 1020110111288 A KR1020110111288 A KR 1020110111288A KR 20110111288 A KR20110111288 A KR 20110111288A KR 20130046741 A KR20130046741 A KR 20130046741A
Authority
KR
South Korea
Prior art keywords
robot
node
landmark
nodes
phase map
Prior art date
Application number
KR1020110111288A
Other languages
Korean (ko)
Other versions
KR101286135B1 (en
Inventor
오세영
안수용
이래경
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Priority to KR1020110111288A priority Critical patent/KR101286135B1/en
Publication of KR20130046741A publication Critical patent/KR20130046741A/en
Application granted granted Critical
Publication of KR101286135B1 publication Critical patent/KR101286135B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0217Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE: An autonomous phase map generating method in a medium and large sized space using a bottom-up signal camera is provided to reduce map making errors caused by the height of a ceiling by extracting a landmark not influenced by the height of the ceiling. CONSTITUTION: A landmark in a current position of a robot extracted from an input image is matched with a preregistered landmark to obtain landmark difference information(S10). Sub nodes in a predetermined distance from a base node are generated to be registered in a phase map(S20). Landmark difference information is applied to a Kalman filter to correct positions of the registered nodes(S30). [Reference numerals] (AA) Start; (BB) End; (S10) Obtain landmark difference information by matching a landmark in the current position of a robot extracted from an input image with a preregistered landmark; (S20) Generate sub nodes in a predetermined distance from a base node through self-driving of the robot and register in a phase map; (S30) Correct the position of the robot and the positions of the nodes registered in the phase map by applying the landmark difference information to a Kalman filter

Description

상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법{AUTONOMOUS TOPOLOGICAL MAPPING METHOD OF MEDIUM-LARGE SIZE SPACE USING UPWARD SINGLE CAMERA}AUTOOMOUS TOPOLOGICAL MAPPING METHOD OF MEDIUM-LARGE SIZE SPACE USING UPWARD SINGLE CAMERA}

본 발명은 상향식 단일 카메라를 이용하여 일반 가정환경이 아닌 중대형 공간에서의 자율적 위상지도 작성 및 위치인식을 동시에 수행할 수 있는 방법에 대한 것이다. 보다 구체적으로, 중대형 공간은 그 특성상, 다양한 형태의 정적, 동적 장애물과 다양한 형태의 환경 구조를 가지는데, 본 발명은 이러한 환경에 대응하기 위해 카메라와 레이저 스캐너를 함께 이용하여 주어진 환경에 대한 위상지도 생성과정에 있어 사용자의 설정 및 조작 없이 자율적인 환경 탐색과 장애물 인식 과정을 동시에 수행함으로써 보다 지능적이고 효율적인 환경 위상지도를 작성할 수 있는 방법을 제안한다.The present invention relates to a method capable of simultaneously performing autonomous phase mapping and position recognition in a medium-large space using a bottom-up single camera. More specifically, the medium-to-large space has various types of static and dynamic obstacles and various types of environmental structures due to its characteristics, and the present invention uses a camera and a laser scanner together to cope with such environments. In the generation process, we propose a method to create a more intelligent and efficient environment topology map by performing autonomous environment search and obstacle recognition process simultaneously without user setting and manipulation.

이동 로봇의 지도 작성 및 위치인식(Simultaneous Localization and Mapping, SLAM) 기술은 최근 20년 동안 많은 연구가 진행되었다. 연구 초기에는 초음파 센서나 레이저 스캐너와 같은 거리센서 기반의 확장 칼만 필터(Extended Kalman Filter, EKF)를 이용한 지도 작성 방법이 주를 이루었고, 최근에는 카메라와 같은 비전센서를 이용한 지도 작성 방법이 활발히 연구되고 있다.Simultaneous Localization and Mapping (SLAM) technology of mobile robots has been studied in recent 20 years. In the early stages of research, mapping methods using extended Kalman Filters (EKF) based on distance sensors such as ultrasonic sensors and laser scanners were mainly used. Recently, mapping methods using vision sensors such as cameras have been actively studied. have.

비전 센서는 거리 센서와는 달리 풍부한 환경 정보를 획득할 수 있기 때문에, SLAM에서 아주 중요한 데이터 연관(Data association) 처리에 많은 도움을 준다. 특히 가격대 성능비가 우수하며, 모바일 로봇에 특별한 장치 없이 바로 적용 가능하여 청소로봇에도 적용되고 있다. SLAM 분야에서 단일카메라를 사용한 연구는 대표적으로 Monocular SLAM(MonoSLAM), Ceiling-View SLAM(CV-SLAM) 등이 있으며 MonoSLAM은 휴머노이드 로봇의 위치 인식에서도 사용되며, CV-SLAM은 실제 가정환경용 로봇 청소기 제품에 적용된 상용화 기술의 주요 사례로서, 기존 로봇 청소의 효율 증대에 주요한 역할을 하였다.Unlike distance sensors, vision sensors can acquire a wealth of environmental information, which greatly assists in data association processing, which is very important in SLAM. In particular, the price-performance ratio is excellent, and it can be applied directly to a mobile robot without any special device. Representative researches using single cameras in the SLAM field include Monocular SLAM (MonoSLAM) and Ceiling-View SLAM (CV-SLAM). MonoSLAM is also used for location recognition of humanoid robots, and CV-SLAM is a real-world robot cleaner. As a major example of commercialization technology applied to the product, it played a major role in increasing the efficiency of existing robot cleaning.

위와 같은 종래의 기술들은 대부분 일반 가정환경 또는 실내 좁은 영역의 지도 작성을 다루기 때문에, 최근 사회적으로 로봇의 활용도가 높은 건물 로비, 박물관, 전시장과 같은 중대형공간에서 안내/홍보, 경비서비스 등과 같은 역할을 수행하는 로봇으로의 기술 적용에 있어서 환경적 변수와 기능적 제약으로 인해 기존 기술의 적용이 어려운 현실이다. 일반적으로, 중대형공간은 4m 레이저 스캐너로 탐지할 수 없는 넓은 공간, 천장이 높고 (높이 10m 이상) 동적 장애물이 많은 공간으로 정의할 수 있다. 이런 공간에서는 천장이 아주 높고 다양한 천장 패턴 및 구조를 가지므로 기존의 CV-SLAM 알고리즘을 그대로 적용하면 위치인식에 필요한 특징점의 높이를 정확히 측정하기 어렵기 때문에 지도 작성시에 문제점이 발생한다.Most of the above-mentioned conventional technologies deal with mapping in a narrow area of a general home environment or indoors, and thus have recently played a role of information / promotion, security services, etc. in medium / large spaces such as building lobby, museum, and exhibition hall where the robot is highly utilized. It is difficult to apply existing technology due to environmental variables and functional constraints in applying technology to performing robots. In general, a medium-large space can be defined as a large space that cannot be detected by a 4m laser scanner, a space with a high ceiling (10m or more in height), and a lot of dynamic obstacles. In such a space, the ceiling is very high and has various ceiling patterns and structures. Therefore, if the existing CV-SLAM algorithm is applied as it is, it is difficult to accurately measure the height of the feature points required for location recognition, which causes problems in the mapping.

종래의 기술에서는 대상 환경 내 로봇의 수동 조작을 통한 지도 작성법이 주를 이루었는데 중대형공간은 공간이 넓고 동적 장애물이 많기 때문에, 사용자에 의한 수동 지도 작성 방법은 작업의 일관성 유지가 어려우며, 지도 작성시 빈번하게 발생되는 다양한 환경 변수 예를 들어, 장애물, 조명변화 등에 따른 상당한 시간 지연 및 인적/물리적 비용을 초래함으로써 작업의 효율성이 저하되는 문제점이 있다.In the prior art, the method of mapping through the manual operation of the robot in the target environment is mainly used, but since the medium-large space has a large space and many dynamic obstacles, the manual mapping method by the user is difficult to maintain the consistency of work. Various environmental variables that occur frequently, for example, there is a problem that the efficiency of the work is reduced by causing significant time delay and human / physical costs due to obstacles, lighting changes, and the like.

이런 문제점들을 해결하기 위해 본 발명은 자율적 환경 탐사/인식을 통한 주행 알고리즘을 바탕으로 중대형 공간에 대한 자동 위상 지도 작성 알고리즘을 제안함으로써 전체 지도 작성 수행과정의 단순화를 통한 작업 효율의 극대화와 더불어 실제 환경 적용에 있어서도 별다른 제약 없이 우수한 성능의 지도 작성 능력을 가지는 방법을 제안하고자 한다.In order to solve these problems, the present invention proposes an automatic phase mapping algorithm for medium and large spaces based on a driving algorithm through autonomous environment exploration / recognition, thereby maximizing the work efficiency and simplifying the overall mapping process. In the application, we propose a method that has excellent mapping ability without any limitation.

또한, 본 발명은 시스템적 부하 증대 및 소요 비용 등의 문제에 대한 원활한 해결을 위해, 지도작성을 위해 필요한 H/W사양을 최소화하는 동시에 비전 센서를 사용함으로써 발생되는 환경 변화에 강인한 영상처리과정에 필요한 계산량을 최소화하였으며, 넓은 공간에 대한 지도 작성 중 필연적으로 빈번하게 발생되는 특징점 추출, 노드 등록/삭제 등과 같은 지도 작성 프로세스를 효율적으로 관리함으로써 제안된 지도 작성 알고리즘의 수행에 필요한 소프트웨어 및 하드웨어적 사양을 최소화 할 수 있는 방법을 제안하고자 한다.In addition, the present invention minimizes the H / W specification required for the mapping for the smooth solution to problems such as system load increase and cost, and at the same time the image processing process that is robust to environmental changes generated by using a vision sensor The software and hardware specifications necessary for the execution of the proposed mapping algorithm are minimized by minimizing the amount of computation required and efficiently managing the mapping process such as feature point extraction and node registration / deletion, which are inevitably frequently occurred during the mapping of large spaces. We propose a method to minimize the problem.

보다 구체적으로, 본 발명은 사용자의 수동 조작이 전혀 필요 없이 로봇이 자율적으로 환경을 탐색하여 주어진 환경의 위상지도 작성을 가능하게 하는 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법을 제공하는 것을 기술적 과제로 한다.More specifically, the present invention provides a method for generating an autonomous phase map in a medium-to-large space using a bottom-up single camera that enables a robot to autonomously search for an environment and create a phase map of a given environment without requiring any manual operation by a user. Let it be technical problem.

또한, 본 발명은 입력영상에서 천장의 높이에 영향을 받지 않는 랜드마크 추출 및 매칭을 가능하게 하여 천장 높이에 의한 지도 작성 오차를 줄일 수 있는 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법을 제공하는 것을 기술적 과제로 한다.In addition, the present invention provides a method for generating autonomous phase maps in a medium-to-large space using a bottom-up single camera capable of extracting and matching landmarks that are not affected by the height of the ceiling in the input image, thereby reducing the mapping error caused by the ceiling height. To provide a technical problem.

또한, 본 발명은 로봇의 주행 중 장애물이 탐지되면 자율적으로 회피 경로를 생성하여 주위의 사람이나 구조물에 부딪힘 없이 안전하게 주행이 가능하도록 하는 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법을 제공하는 것을 기술적 과제로 한다.In addition, the present invention provides a method for generating an autonomous phase map in a medium-to-large space using a bottom-up single camera to generate a avoidance path autonomously when the obstacle is detected while driving the robot to safely travel without hitting the surrounding people or structures. It is technical problem to do.

또한, 본 발명은 로봇이 지도 상에 일정한 거리로 등록된 노드들을 따라 주행하여 노드에 도달할 때마다 로봇의 위치를 보정하도록 하여 주행 중 로봇이 자기 자신의 위치를 잃어버리지 않도록 함으로써 중대형 공간에서의 서비스에 특히 적합한 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법을 제공하는 것을 기술적 과제로 한다.In addition, the present invention allows the robot to follow the nodes registered at a certain distance on the map to correct the position of the robot each time it reaches the node so that the robot does not lose its own position while driving. It is a technical problem to provide a method for generating an autonomous phase map in a medium-to-large space using a bottom-up single camera which is particularly suitable for a service.

또한, 본 발명은 로봇의 자율 주행을 통해 작성된 지도는 위상 지도의 형식을 갖도록 하여, 지도에 저장되는 데이터량과 지도 갱신에 필요한 계산량을 줄일 수 있으며, 이에 따라 알고리즘의 경량화가 가능하도록 하여, 저가격의 임베디드 보드에 탑재될 수 있는 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법을 제공하는 것을 기술적 과제로 한다.In addition, the present invention is to map the map created through the autonomous driving of the robot to have the form of a phase map, it is possible to reduce the amount of data stored in the map and the amount of calculation required to update the map, thereby making it possible to reduce the weight of the algorithm, low cost It is a technical task to provide a method for generating an autonomous phase map in a medium-to-large space using a bottom-up single camera that can be mounted on an embedded board.

이러한 과제를 해결하기 위한 본 발명에 따른 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법은 상기 중대형 공간을 자율 주행하는 로봇에 설치된 상향식 단일 카메라로 획득한 상기 중대형 공간의 천장영상인 입력영상으로부터 추출한 상기 로봇의 현재 위치에서의 랜드마크(landmark)와 미리 등록되어 있는 랜드마크를 매칭시켜 상기 로봇의 현재 위치에서의 랜드마크와 등록되어 있는 랜드마크 간의 차이인 랜드마크 차이 정보를 획득하는 랜드마크 추출/매칭 단계, 상기 로봇에 부착된 전후방 레이저 스캐너를 이용하여 주위 환경 정보를 획득하고, 자율 주행을 통하여 상기 로봇의 출발점인 베이스 노드로부터 일정 거리 떨어진 보조 노드들을 생성하여 위상 지도에 등록하는 노드 생성/등록 단계 및 상기 랜드마크 차이 정보를 확장 칼만 필터(Extended Kalman Filter)에 적용하여 상기 로봇의 위치와 상기 위상 지도에 등록된 노드의 위치를 보정하는 위치 보정 단계를 포함하는 것을 특징으로 한다.In order to solve this problem, the method for generating an autonomous phase map in a medium-large space using a bottom-up single camera according to the present invention is an input image that is a ceiling image of the medium-large space obtained by a bottom-up single camera installed in a robot that autonomously runs the medium-large space. A land that obtains landmark difference information which is a difference between a landmark at the current location of the robot and a registered landmark by matching a landmark at a current location of the robot extracted from the landmark with a previously registered landmark Mark extraction / matching step, node for acquiring surrounding environment information using front and rear laser scanner attached to the robot, and generating auxiliary nodes away from the base node which is the starting point of the robot through autonomous driving and registering them in the phase map Creation / Registration Step and the Landmark Difference The information characterized in that it comprises a position correcting step of applying to correct the position of the node registered with the positions and the phase map of the robot in extended Kalman filter (Extended Kalman Filter).

상기 랜드마크는 그레이(Gray) 레벨을 갖는 상기 입력영상으로부터 x, y축 방향의 그래디언트(gradient) 및 그 크기를 계산하고, 일정 크기 이상의 값을 갖는 픽셀에 대한 샘플링 과정을 통해 얻어진 에지 포인트들의 집합인 에지 포인트 리스트(Edge point list)로 구성되고, 상기 랜드마크는 로봇의 현재 위치와 연계하여 상기 입력영상의 2차원 정보를 이용하여 정의되며, 상기 로봇의 현재 위치에서의 랜드마크와 등록되어 있는 랜드마크 간의 매칭방법은 ICP(Iterative Closest Point) 알고리즘을 이용하여 최적의 매칭 정보를 획득하는 것을 특징으로 한다.The landmark is a set of edge points obtained by calculating gradients in the x and y-axis directions and their sizes from the input image having a gray level and sampling a pixel having a value greater than or equal to a predetermined size. It is composed of an edge point list (Edge point list), the landmark is defined using the two-dimensional information of the input image in association with the current position of the robot, and registered with the landmark at the current position of the robot The matching method between landmarks is characterized by obtaining optimal matching information using an iterative closest point (ICP) algorithm.

상기 위상 지도의 기본적 요소는 노드와 노드간의 연결 요소인 에지(Edge)로 구성되며, 상기 위상 지도의 기본적 요소 중 상기 노드는 로봇의 위치 인식과 최단거리 경로 계획 시 이용되는 보조 노드, 상기 위상 지도의 경계를 이루는 경계 노드, 환경 탐색을 위한 상기 로봇의 주행 시 출발점으로 사용되는 베이스 노드를 포함하여 구성되는 것을 특징으로 한다.The basic element of the phase map is composed of an edge which is a connection element between nodes, and among the basic elements of the phase map, the node is an auxiliary node used for the position recognition of the robot and the shortest distance path planning, and the phase map. A boundary node forming a boundary of the, characterized in that it comprises a base node used as a starting point when the robot is running for the environment search.

신규로 생성되는 노드는 상기 로봇의 현재 위치를 기반으로 생성된 로컬 지도와 현재까지 등록된 노드의 위치 정보를 고려하여 최고의 적합도를 가지는 위치로 선정되는 것을 특징으로 한다.The newly created node is selected as the location having the best suitability in consideration of the local map generated based on the current location of the robot and the location information of the node registered to date.

상기 노드 생성/등록 단계는 탐색 단계와 이용 단계로 구성되고, 상기 탐색 단계에서 로봇은 베이스 노드에서 출발하여 N개의 보조 노드들을 등록하고, 상기 이용 단계에서 로봇은 초기 출발 시작점인 베이스 노드로 복귀하여 상기 랜드마크 차이 정보를 이용하여 상기 로봇의 위치와 노드들의 위치를 보정하며, 생성된 위상 지도의 형태는 N+1개의 노드를 포함하는 다각형 구조들의 반복과 점진적 확장 형식을 가지는 것을 특징으로 한다.The node creation / registration step includes a search step and a use step. In the search step, the robot registers N auxiliary nodes starting from the base node, and in the use step, the robot returns to the base node, which is an initial starting point. The position of the robot and the position of the nodes are corrected by using the landmark difference information, and the shape of the generated phase map has a form of repetition and gradual expansion of polygonal structures including N + 1 nodes.

상기 로봇이 현재 주행 중인 베이스 노드를 기준으로 더 이상 새로운 보조 노드를 생성할 수 없는 경우, 상기 위상 지도의 경계를 이루는 경계 노드들 중 불확실성이 가장 낮은 노드를 다음 베이스 노드로 선택하고, 모든 경계 노드를 베이스 노드로 가정했을 때, 더 이상 새로운 보조 노드를 생성할 수 없는 경우 상기 위상 지도의 작성을 종료하는 것을 특징으로 한다.When the robot can no longer generate a new auxiliary node based on the base node currently running, the node having the lowest uncertainty among the boundary nodes forming the boundary of the phase map is selected as the next base node, and all boundary nodes are selected. When assuming a base node, when the new secondary node can no longer be generated, the creation of the phase map is finished.

보조 노드 구조 생성 조건인 상기 N이 2인 경우 상기 위상 지도 내에 생성된 노드들은 들로네 삼각화 (Delaunay Triangulation) 알고리즘을 이용하여 서로 연결되어 에지(edge)를 구성하고, 새로운 노드가 추가적으로 등록될 때마다 에지 연결 과정이 수행되고, 노드간의 연결 강도는 주위 환경 특성에 따라 0과 1사이의 값을 갖고, 해당 노드간의 연결 정보를 이용하여 상기 로봇의 최적 경로 계획 및 자율 환경 탐색을 수행하고 노드 위치를 갱신하며, 상기 로봇은 전체 중대형 공간 탐사를 위해 기준 베이스 노드를 중심으로 방사 형태로 영역을 확장하면서 전체 공간에 대한 탐색 과정을 수행하고, 노드간의 이동 중 장애물이 감지 될 경우, 자율적으로 장애물 회피 동작을 수행하는 것을 특징으로 한다.When N, the secondary node structure generation condition, is 2, the nodes generated in the topology map are connected to each other using a Delaunay triangulation algorithm to form an edge, and each time a new node is additionally registered. The edge connection process is performed, and the connection strength between nodes has a value between 0 and 1 according to the characteristics of the surrounding environment, and the optimal path planning and autonomous environment search of the robot are performed by using the connection information between the nodes, and the node position is determined. The robot performs an exploration process on the entire space while radially expanding the area around the reference base node for the entire medium and large space exploration, and autonomously avoids obstacles when an obstacle is detected during the movement between nodes. It characterized in that to perform.

노드간의 에지 연결정보 및 그 강도를 기반으로 최적의 경로 선택 및 주행을 수행하는 상기 로봇은 로봇에 장착된 레이저 스캐너를 이용하여 주변 환경을 탐지하며, 상기 에지의 주위에 장애물이 있는 경우 해당 에지에 대한 연결강도를 점진적으로 감소시키고, 상기 에지의 주위에 장애물이 없는 경우 해당 연결강도를 증가시키도록 하는 에지 갱신 과정을 수행 하고, 해당 에지의 연결 강도가 임계값 이하가 되면 두 노드를 연결하는 에지는 단절되도록 처리하는 경로 관리 과정을 수행하는 것을 특징으로 한다.The robot, which performs optimal path selection and driving based on edge connection information between nodes and its strength, detects the surrounding environment using a laser scanner mounted on the robot, and if there is an obstacle around the edge, The edge update process to gradually reduce the strength of the connection and increase the connection strength when there are no obstacles around the edge, and when the connection strength of the edge is less than the threshold, the edge connecting the two nodes. Characterized in that the path management process for processing to be disconnected.

본 발명에 따르면, 사용자의 수동 조작이 전혀 필요 없이 로봇이 자율적으로 환경을 탐색하여 주어진 환경의 위상지도 작성이 가능한 효과가 있다.According to the present invention, there is an effect that the robot can autonomously search for an environment and create a phase map of a given environment without any manual operation of a user.

또한, 입력영상에서 천장의 높이에 영향을 받지 않는 랜드마크 추출 및 매칭이 가능하므로 천장 높이에 의한 지도 작성 오차를 줄일 수 있는 효과가 있다.In addition, it is possible to extract and match landmarks that are not affected by the height of the ceiling in the input image, thereby reducing the mapping error due to the height of the ceiling.

또한, 로봇의 주행 중 장애물이 탐지되면 자율적으로 회피 경로를 생성하여 주위의 사람이나 구조물에 부딪힘 없이 안전하게 주행이 가능한 효과가 있다.In addition, when obstacles are detected while the robot is running, an autonomous path is generated autonomously to safely drive without hitting the surrounding people or structures.

또한, 로봇이 지도 상에 일정한 거리로 등록된 노드들을 따라 주행하여 노드에 도달할 때마다 로봇의 위치를 보정하기 때문에 주행 중 로봇이 자기 자신의 위치를 잃어버리지 않으므로 중대형 공간에서 서비스를 주로 하는 로봇의 위치인식방법에 바로 적용될 수 있는 효과가 있다.In addition, since the robot travels along nodes registered at a certain distance on the map and corrects the position of the robot each time it reaches the node, the robot does not lose its position while driving, so the robot mainly serves in the medium-to-large space. There is an effect that can be applied directly to the position recognition method of.

또한, 로봇의 자율 주행을 통해 작성된 지도는 위상 지도의 형식을 갖기 때문에, 지도에 저장되는 데이터량과 지도 갱신에 필요한 계산량을 줄일 수 있으며, 이에 따라 알고리즘의 경량화가 가능하기 때문에, 저가격의 임베디드 보드에 탑재될 수 있는 효과가 있다.In addition, since maps created through autonomous driving of robots have the form of a phase map, the amount of data stored in the map and the amount of calculation required for map updating can be reduced, and accordingly, the algorithm can be reduced in weight, thereby providing a low-cost embedded board. There is an effect that can be mounted on.

도 1은 본 발명의 일 실시 예에 따른 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법이 수행되는 로봇 시스템을 간략히 나타낸 도면이다.
도 2는 본 발명의 일 실시 예에 따른 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법이 수행되는 로봇 시스템에서의 데이터 입출력을 나타낸 도면이다.
도 3은 본 발명의 일 실시 예에서 노드의 생성과 등록 과정에서 적용되는 탐색(Exploration)과 이용(Exploitation)을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 있어서 보조 노드의 수에 따른 위상지도의 형태를 나타낸 도면이다.
도 5는 본 발명의 일 실시 예에 따른 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법을 나타낸 도면이다.
도 6은 본 발명의 일 실시 예에 따라 입력영상으로부터 그래디언트(gradient) 영상을 구하고, 에지 포인트(edge point)를 샘플링하여 하나의 랜드마크)를 정의하는 과정을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예에 있어서 두 개의 영상에서 각각 하나의 랜드마크를 추출한 후 ICP(Iterative Closest Point) 알고리즘을 이용하여 이를 매칭시켜 그 결과인 랜드마크 차이 정보를 획득하는 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에서의 노드의 생성과 등록 과정의 예를 나타낸 도면이다.
도 9는 본 발명의 일 실시 예에서의 위상지도를 구성하는 각 노드의 종류와 특징을 나타낸 도면이다.
도 10은 본 발명의 일 실시 예에 있어서 전후방 레이저 스캐너로 탐지한 로봇 주위의 환경을 이미지로 나타내고, 새로운 노드의 후보 위치에 대한 적합도(fitness) 값을 계산하여 이미지로 나타낸 도면이다.
도 11은 본 발명의 일 실시 예에 있어서 로봇의 주행 중에 레이저 스캐너로 장애물을 감지한 경우의 로컬 지도와 생성된 장애물 회피 경로를 나타낸 도면이다.
도 12는 실험환경1에서의 실험 결과를 나타낸 도면이다.
도 13은 실험환경2에서의 실험 결과를 나타낸 도면이다.
1 is a diagram schematically illustrating a robot system in which an autonomous phase map generation method is performed in a medium-large space using a bottom-up single camera according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating data input / output in a robot system in which an autonomous phase map generation method is performed in a medium-large space using a bottom-up single camera according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating exploration and exploitation applied in a process of creating and registering a node in an embodiment of the present invention.
4 is a diagram illustrating a shape of a phase map according to the number of auxiliary nodes according to an embodiment of the present invention.
5 is a diagram illustrating a method of generating an autonomous phase map in a medium-large space using a bottom-up single camera according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating a process of obtaining a gradient image from an input image and defining one landmark by sampling an edge point according to an embodiment of the present invention.
FIG. 7 illustrates a process of extracting one landmark from each of two images and then matching them using an iterative closed point (ICP) algorithm to obtain landmark difference information as a result. It is for the drawing.
8 is a diagram illustrating an example of a node creation and registration process in an embodiment of the present invention.
FIG. 9 is a diagram illustrating the types and features of each node constituting a phase map in an embodiment of the present invention.
FIG. 10 is a view showing an image of an environment around a robot detected by the front and rear laser scanners, and calculating a fitness value for a candidate position of a new node according to an embodiment of the present invention.
FIG. 11 is a diagram illustrating a local map and a generated obstacle avoidance path when an obstacle is detected by a laser scanner while the robot is driving according to an embodiment of the present disclosure.
12 is a diagram showing the results of experiments in Experimental Environment 1. FIG.
FIG. 13 is a diagram showing the results of experiments in Experimental Environment 2. FIG.

이하에서는 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법이 수행되는 로봇 시스템을 간략히 나타낸 도면이고, 도 2는 본 발명의 일 실시 예에 따른 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법이 수행되는 로봇 시스템에서의 데이터 입출력을 나타낸 도면이다.1 is a diagram schematically illustrating a robot system in which an autonomous phase map generation method is performed in a medium-large space using a bottom-up single camera according to an embodiment of the present invention, and FIG. 2 is a bottom-up single camera according to an embodiment of the present invention. Is a diagram illustrating data input / output in a robot system in which an autonomous phase map generation method in a medium-to-large space is performed.

도 1과 도 2를 참조하면, 본 발명이 수행되는 로봇 시스템은 크게 상향식 단일카메라, 전후방 레이저 스캐너, 로봇 플랫폼 및 SLAM(Simultaneous Localization and Mapping, SLAM) 모듈로 구성되어 있다. 상향식 단일 카메라는 로봇의 상방을 향하도록 설치되어 있으며 로봇의 주행중에 실시간으로 중대형 공간의 천장 영상을 입력받아 이 영상으로부터 랜드마크를 추출하는 부분에 쓰이고, 전방 및 후방 레이저 스캐너는 로봇의 주행 중 로컬 지도 작성 및 장애물 회피를 수행하는데 이용되며, 로봇 플랫폼은 로봇 몸체와 모바일 플랫폼으로 구성되며 로봇의 이동을 제어하며 이동거리를 예측할 수 있는 데이터를 제공하는 기능을 수행한다. 로봇의 이동거리는 로봇의 바퀴에 엔코더를 장착하여 바퀴의 회전수를 카운트하는 방식으로 측정할 수 있다.1 and 2, the robot system in which the present invention is performed is largely composed of a bottom-up single camera, a front and rear laser scanner, a robot platform, and a SLAM (Simultaneous Localization and Mapping (SLAM) module. The bottom-up single camera is installed to face upward of the robot and is used to extract the landmark image from the large and large space ceiling in real time while the robot is driving. Used for mapping and obstacle avoidance, the robot platform is composed of a robot body and a mobile platform, and controls the movement of the robot and provides data for predicting the moving distance. The moving distance of the robot can be measured by counting the number of revolutions of the wheel by mounting an encoder on the wheel of the robot.

본 발명의 일 실시 예에 따른 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법을 설명하기에 앞서 먼저 본 발명의 기본이 되는 원리를 설명한다.Before describing a method of generating an autonomous phase map in a medium-large space using a bottom-up single camera according to an embodiment of the present invention, the principle underlying the present invention will be described.

본 발명에 적용되는 알고리즘은 크게, 탐색(Exploration)과 이용(Exploitation) 전략을 통한 위상지도 생성 및 자율 주행의 두 부분으로 나뉜다.Algorithms applied to the present invention are largely divided into two parts: phase map generation and exploration through exploration and exploitation strategies.

탐색(Exploration)과 이용(Exploitation) 전략을 통한 위상지도생성 알고리즘은, 입력영상에서의 랜드마크 추출 및 매칭, 노드 등록, 확장칼만필터(Extended Kalman Filter, EKF) SLAM을 통한 위치 보정의 세부 알고리즘으로 나뉘고, 자율 주행은 일반주행모드, 장애물 회피모드로 나뉜다.The phase map generation algorithm through exploration and exploitation strategy is a detailed algorithm for location correction through landmark extraction and matching, node registration, and Extended Kalman Filter (EKF) SLAM. The autonomous driving is divided into the normal driving mode and the obstacle avoidance mode.

<탐색(Exploration)과 이용(Exploitation) 전략을 통한 위상지도생성><Phase Map Generation through Exploration and Exploitation Strategy>

1. 탐색과 이용 전략1. Explore and Use Strategies

로봇이 자율적인 주행을 통하여 환경 정보를 획득하고 등록하는 일은 미지의 환경에서 동작하는 로봇에 있어 필수 기능이다. 본 발명은 탐색과 이용이라는 전략을 통하여 탐색되지 않은 영역을 점진적으로 탐색하며, 동시에 로봇의 자기 위치를 정확히 예측하는 알고리즘에 관한 것이다.Acquiring and registering environmental information through autonomous driving is an essential function for a robot operating in an unknown environment. The present invention relates to an algorithm for progressively searching the unexplored area through the strategy of searching and using, and at the same time accurately predicting the magnetic position of the robot.

1.1 탐색(Exploration)1.1 Exploration

먼저 도3의 (a)를 참조하면, 탐색의 출발점이 되는 노드 즉, 베이스 노드에서 일정거리 떨어진 N개의 미지의 노드 즉, 보조 노드를 등록하는 과정이 수행된다. 새롭게 등록되는 보조 노드와 베이스 노드는 서로 일정거리 떨어져 있어야 하며, 주위 장애물과도 일정거리를 유지하여야 한다. 베이스 노드와 N개의 보조 노드는 (N+1)개의 변을 가지는 다각형을 이루게 되는데, 이때 다각형의 내각의 최소값이 180*(N-1)/(N+1)에 가깝도록 보조 노드를 등록하게 된다. 이것은 다각형의 한 변의 길이를 최대한 동일하게 만들어주기 위함인데, 변의 길이가 길어질수록 즉, 내각의 최소값이 작아질수록 로봇이 모바일 플랫폼이 제공하는 주행 거리 측정(odometry) 데이터만 이용하여 주행해야 하는 구간이 길어지며, 이 경우 로봇의 위치에 대한 오차가 커지게 된다.First, referring to FIG. 3A, a process of registering N nodes, that is, an auxiliary node, a predetermined distance away from a base node, that is, a base node of a search, is performed. The newly registered auxiliary node and the base node should be separated from each other by a certain distance, and maintained at a certain distance from the surrounding obstacles. The base node and the N secondary nodes form a polygon with (N + 1) sides, where the secondary node is registered such that the minimum angle of the polygon's cabinet is close to 180 * (N-1) / (N + 1). do. This is to make the length of one side of the polygon as the same as possible.The longer the length of the side, i.e., the smaller the minimum value of the cabinet, is the section that the robot must drive using only the odometry data provided by the mobile platform. This becomes long, and in this case, the error about the position of the robot becomes large.

1.2. 이용(Exploitation )1.2. Exploitation

도 3의 (b)를 참조하면, 로봇이 N개의 보조 노드를 등록한 후 다시 베이스 노드로 복귀하는 과정이 수행된다. 로봇은 보조 노드를 등록하는 동안 주행 데이터만을 이용하여 노드와 자신의 위치를 예측하였으므로 실제 위치와는 오차가 발생한다. 이 오차를 줄이기 위해서, 로봇에 장착된 비전 센서인 상향식 단일 카메라를 이용하여 베이스 노드에 정확히 도착하였다는 판단을 하고, 예측된 로봇의 위치와 베이스 노드의 위치 차이를 이용하여 최종 로봇의 위치와 노드의 위치를 보정한다.Referring to (b) of FIG. 3, the robot registers N auxiliary nodes and then returns to the base node again. Since the robot predicts the node and its position using only driving data while registering the auxiliary node, an error occurs from the actual position. In order to reduce this error, it is determined that the robot arrives at the base node correctly using a single bottom-up camera, which is a vision sensor mounted on the robot, and the position and node of the final robot are determined by using the predicted position of the robot and the difference of the position of the base node. Correct the position of.

1.3. 위상지도의 구조1.3. Structure of the phase map

도 4를 참조하면, 보조 노드의 개수를 N개라고 가정하면, 작성된 위상지도는 (N+1)각형의 패턴이 연속되는 구조를 가진다. 각각의 노드는 노드를 설명하는 랜드마크가 존재하며, 이것은 사용되는 센서에 따라 다르게 정의할 수 있다.Referring to FIG. 4, assuming that the number of auxiliary nodes is N, the prepared phase map has a structure in which (N + 1) square patterns are continuous. Each node has a landmark that describes the node, which can be defined differently depending on the sensor used.

주행 데이터의 정확도와 지도 작성 시간의 효율을 고려할 때 N=2일 때가 최적이라고 판단되며, 따라서 이하 상세 설명에는 N=2일 때를 가정하여 기술한다.In consideration of the accuracy of the driving data and the efficiency of the mapping time, it is determined that N = 2 is optimal. Therefore, the following detailed description assumes N = 2.

도 5는 본 발명의 일 실시 예에 따른 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법을 나타낸 도면이다.5 is a diagram illustrating a method of generating an autonomous phase map in a medium-large space using a bottom-up single camera according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시 예에 따른 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법은 랜드마크 추출/매칭 단계(S10), 노드 생성/등록 단계(S20) 및 위치 보정 단계(S30)를 포함하여 구성된다.Referring to FIG. 5, an autonomous phase map generation method in a medium-large space using a bottom-up single camera according to an embodiment of the present invention includes a landmark extraction / matching step S10, a node generation / registration step S20, and a position correction It comprises a step S30.

랜드마크 추출/매칭 단계(S10)에서는, 입력영상으로부터 추출한 로봇의 현재 위치에서의 랜드마크(landmark)와 미리 등록되어 있는 랜드마크를 매칭시켜 두 랜드마크 간의 차이인 랜드마크 차이 정보를 획득하는 과정이 수행된다. 입력영상은 중대형 공간을 자율 주행하는 로봇에 설치된 상향식 단일 카메라로 획득한 중대형 공간의 천장영상이다.In the landmark extraction / matching step (S10), a process of acquiring landmark difference information, which is a difference between two landmarks, by matching a landmark at a current position of a robot extracted from an input image with a landmark registered in advance This is done. The input image is a ceiling image of a medium-large space obtained by a single bottom-up camera installed in a robot that autonomously runs a medium-large space.

예를 들어, 랜드마크는 그레이(Gray) 레벨을 갖는 입력영상으로부터 x, y축 방향의 그래디언트(gradient) 및 그 크기를 계산하고, 일정 크기 이상의 값을 갖는 픽셀에 대한 샘플링을 통해 얻어진 에지 포인트들의 집합인 에지 포인트 리스트(Edge point list)로 구성될 수 있으며, 이러한 랜드마크는 로봇의 현재 위치와 연계하여 입력영상의 2차원 정보를 이용하여 정의될 수 있으며, 로봇의 현재 위치에서의 랜드마크와 등록되어 있는 랜드마크의 매칭은 ICP(Iterative Closest Point) 알고리즘을 통해 수행될 수 있다.For example, a landmark calculates a gradient and its magnitude in the x- and y-axis directions from an input image having a gray level, and calculates a gradient of edge points obtained by sampling a pixel having a predetermined value or more. It can be composed of an edge point list, which is a set, and these landmarks can be defined by using two-dimensional information of the input image in association with the current position of the robot, and the landmarks at the current position of the robot Matching of the registered landmarks may be performed through an iterative closest point (ICP) algorithm.

이러한 랜드마크의 추출과 매칭 과정을 보다 구체적으로 설명하면 다음과 같다.The extraction and matching process of such landmarks will be described in more detail as follows.

본 실시 예는 상향식 단일 카메라를 이용하므로 위상지도 상에 등록되는 노드는 그 위치에서 얻은 천장영상으로부터 추출된 랜드마크와 연관된다. 비전 센서인 상향식 단일 카메라를 이용할 경우 발생하는 다양한 영상조건의 변화를 고려하기 위해 획득한 영상의 로 데이터(raw data)를 이용하지 않고, 조명 변화에 민감하지 않은 에지 포인트 셋(edge point set)을 추출하여 랜드마크를 정의하였고, ICP 알고리즘을 이용하여 두 랜드마크 즉, 로봇의 현재 위치에서의 랜드마크와 등록되어 있는 랜드마크의 매칭 정도를 계산한다.Since the present embodiment uses a bottom-up single camera, nodes registered on the phase map are associated with landmarks extracted from the ceiling image obtained at the location. In order to take into account changes in various image conditions that occur when using a bottom-up single camera as a vision sensor, an edge point set that is not sensitive to changes in illumination is used without using raw data of the acquired image. The landmark is defined by extraction, and the matching degree between the two landmarks, that is, the landmark at the current position of the robot and the registered landmark, is calculated using the ICP algorithm.

먼저 도 6을 참조하여 랜드마크의 추출 과정의 예를 설명한다.First, an example of a process of extracting a landmark will be described with reference to FIG. 6.

도 6의 도면부호 (a)는 입력영상이고, (b)는 그래디언트 이미지(gradient image)이고, (c) 에지 포인트(edge point)가 샘플링되어 정의된 랜드마크이다.6, reference numeral (a) is an input image, (b) is a gradient image, and (c) an edge point is sampled and defined.

현재 입력된 입력영상에서 랜드마크를 추출하기 위해 먼저 그래디언트 이미지(gradient image)를 구한다. 이미지 좌표계의 x, y축 각 방향으로 그래디언트(gradient)를 구하고, 그 값을 제곱하여 각 픽셀(pixel)에서의 크기(magnitude)를 계산한다. 일정 값 이상의 크기(magnitude) 값을 갖는 픽셀을 추출하면 추출되는 포인트(point)의 수가 많아지므로 크기(magnitude)가 Local maximum인 픽셀들만을 추출한다. Local maximum 계산을 간단히 하기 위하여 먼저 적분 이미지(Integral image)를 만들어 둔다. 추출 조건은 아래의 수학식 1과 같다.To extract a landmark from the currently input image, a gradient image is obtained first. The gradient is calculated in each direction of the x and y axes of the image coordinate system, and the magnitude is squared to calculate the magnitude at each pixel. Extracting a pixel having a magnitude value greater than or equal to a predetermined value increases the number of extracted points, and thus extracts only pixels having a local maximum of magnitude. To simplify local maximum calculations, we first create an integral image. The extraction condition is shown in Equation 1 below.

Figure pat00001
Figure pat00001

M(i,j)는 픽셀(i,j)에서의 크기(magnitude)이며, S는 local neighbor (nh)의 윈도우 사이즈(window_size)이다. 따라서 v값이 일정 임계값 이상이면 픽셀(i,j)를 추출하여 랜드마크를 이루는 하나의 에지 포인트(edge point)로 등록시킨다. 영상에서 추출된 최종 랜드마크는 Np개의 포인트(point)를 가지는 에지 포인트(edge point)의 집합 (

Figure pat00002
)으로 정의되며, 도 6의 도면부호 (c)는 이 랜드마크를 나타낸다.M (i, j) is the magnitude in pixel i, j and S is the window size (window_size) of the local neighbor (nh). Therefore, if the value of v is greater than or equal to a predetermined threshold, the pixels i and j are extracted and registered as one edge point forming a landmark. The final landmark extracted from the image is a set of edge points with N p points (
Figure pat00002
And reference numeral (c) of FIG. 6 denotes this landmark.

다음으로 도 7을 참조하여 랜드마크의 매칭 과정의 예를 설명한다.Next, an example of a landmark matching process will be described with reference to FIG. 7.

도 7을 참조하면, 등록된 랜드마크는 에지 포인트(edge point)들의 집합이다. 따라서 점 대 점(point-to-point) 매칭을 통하여 현재 추출된 랜드마크 P1과 등록된 랜드마크 P2의 매칭을 판단할 수 있다. 본 실시 예에서는 ICP(Iterative Closest Point) 매칭 기법을 이용하여 두 랜드마크의 매칭을 수행하였다. 다음의 표 1은 ICP 매칭 과정을 요약한 것이다.Referring to FIG. 7, a registered landmark is a set of edge points. Accordingly, it is possible to determine matching between the currently extracted landmark P1 and the registered landmark P2 through point-to-point matching. In this embodiment, two landmarks are matched using an iterative closest point (ICP) matching technique. Table 1 below summarizes the ICP matching process.

Input (Two Point Sets; P1, P2)
e = infinity
iteration = 0
Repeat until e < eth or iteration > Niter
1. P1의 모든 point에 대하여 거리가 가장 가까운 point를 P2에서 찾는다.
2. 거리가 일정 이상이면 correspondence에서 제외한다.
3. 매칭된 두 point set (P1’, P2’)을 이용하여 Rotation 과 Translation 성분을 구한다.
4. 변환 후 각 correspondence의 Euclidean distance error (e)를 합한다.
5. iteration 증가
Output (Error, dx, dy, dth)
Input (Two Point Sets; P1, P2)
e = infinity
iteration = 0
Repeat until e <eth or iteration> Niter
1. Find the point in P2 that is closest to all points in P1.
2. If distance is more than certain, exclude from correspondence.
3. Rotation and translation components are obtained using two matched point sets (P1 ', P2').
4. After conversion, add the Euclidean distance error (e) for each correspondence.
5. Increase iteration
Output (Error, dx, dy, dth)

ICP 매칭 에러가 일정값 이내가 되면 두 랜드마크는 매칭되었다고 판단된다. 또한 ICP 매칭의 결과로서 두 랜드마크의 회전 정도(dth), x, y축의 이동 정도 (dx, dy)를 알 수 있으며, 이 정보는 후에 이용 단계에서 로봇의 비주얼 서보잉(visual servoing)에 이용된다.When the ICP matching error is within a certain value, it is determined that the two landmarks match. In addition, as a result of ICP matching, the rotation degree (dth) of the two landmarks and the movement degree (dx, dy) of the x and y axes can be known, and this information is later used for visual servoing of the robot in the use step. do.

노드 생성/등록 단계(S20)에서는, 로봇의 자율 주행을 통하여 로봇의 출발점인 베이스 노드로부터 일정 거리 떨어진 보조 노드들을 생성하여 위상 지도에 등록하는 과정이 수행된다.In the node generation / registration step (S20), a process of generating auxiliary nodes away from a base node, which is a starting point of the robot, by a predetermined distance, and registering them on a phase map through autonomous driving of the robot is performed.

예를 들어 도 8을 참조하면, 노드 생성/등록 단계(S20)는 탐색 단계와 이용 단계로 구성되고, 탐색 단계에서 로봇은 베이스 노드에서 출발하여 N개의 보조 노드들을 등록하고, 이용 단계에서 로봇은 베이스 노드로 복귀하여 랜드마크 차이 정보를 이용하여 로봇의 위치와 노드들의 위치를 보정하도록 구성될 수 있으며, 생성된 위상지도의 형태는 N+1개의 변을 가지는 다각형 구조의 반복 패턴을 갖도록 구성될 수 있다. 또한 신규로 생성되는 노드는 로봇의 현재 위치를 기반으로 생성된 로컬 지도와 현재까지 등록된 노드의 위치 정보를 고려하여 최고의 적합도를 가지는 위치로 선정되도록 구성될 수 있다.For example, referring to FIG. 8, the node generation / registration step S20 is composed of a search step and a use step. In the search step, the robot registers N auxiliary nodes starting from the base node. It may be configured to return to the base node to correct the position of the robot and the position of the nodes by using the landmark difference information, and the shape of the generated phase map may be configured to have a repeating pattern of a polygonal structure having N + 1 sides. Can be. In addition, the newly created node may be configured to be selected as the location having the best suitability in consideration of the local map generated based on the current location of the robot and the location information of the node registered so far.

이러한 노드의 생성 및 등록 알고리즘을 구체적으로 설명하면 다음과 같다.The generation and registration algorithm of such a node will be described in detail as follows.

현재의 베이스 노드를 기준으로, 새로운 보조 노드의 등록은 이전까지 등록된 노드들과의 거리와 장애물과의 거리 정보를 이용하여 최적의 후보 위치 (Maximum fitness node)를 선정 후 등록된다. 무한히 새로운 노드를 등록시키는 것이 아니라 N개의 노드를 등록한 후(본 실시 예에서는 N이 2인 경우를 기준으로 설명함.), 다시 베이스 노드로 돌아오는 이유는 주기적인 루프 클로징(Loop closing)을 위해서이며, 이런 주행 전략은 로봇의 위치와 노드의 위치를 정확히 예측하기 위한 것이다.On the basis of the current base node, registration of a new auxiliary node is registered after selecting an optimal candidate position (Maximum fitness node) using distance information with previously registered nodes and distance information with obstacles. After registering N nodes (in this embodiment, based on the case where N is 2) instead of registering a new node indefinitely, the reason for returning to the base node again is for periodic loop closing. This driving strategy is to accurately predict the position of the robot and the position of the node.

먼저 본 실시 예에서의 위상지도의 구성요소에 대하여 설명한다.First, the components of the phase map in the present embodiment will be described.

도 9는 본 발명의 일 실시 예에서의 위상지도를 구성하는 각 노드의 종류와 특징을 나타낸 도면이다.FIG. 9 is a diagram illustrating the types and features of each node constituting a phase map in an embodiment of the present invention.

도 9를 참조하면, 로봇의 자율 주행을 통하여 작성된 위상지도는 시각적 이해를 돕기 위해 퍼스널컴퓨터(PC)상의 3차원 환경으로 나타내며, 그 세부 항목들은 노드의 위치 및 그의 불확실성(Uncertainty), 노드의 연결정보, 노드의 속성, 노드와 연관된 랜드마크로 구성된다. 이러한 위상지도의 구성요소에 대한 설명은 다음 표 2와 같다.Referring to FIG. 9, a phase map created through autonomous driving of a robot is represented as a three-dimensional environment on a personal computer (PC) to aid visual understanding, and the detailed items are the location of the node, its uncertainty, and the connection of the nodes. It consists of information, attributes of a node, and landmarks associated with the node. Description of the components of such a phase map is shown in Table 2 below.

구성 요소Component 설명Explanation 노드의 위치The location of the node 1. 전역 좌표계에서 예측된 각 노드의 평균 위치 (xi, yi, thi)
2. 노드의 방향(thi)은 연관된 랜드마크의 방향과 일치
1. Mean position (x i , y i , th i ) of each predicted node in the global coordinate system
2. The direction th i of the node matches the direction of the associated landmark
노드의 불확실성Node Uncertainty 1. 3 by 3 matrix (Pi)로 표현
2. Diagonal term은 불확실성 (uncertainty) 정도를 표현
1.3 expressed as 3 by 3 matrix (P i )
2. Diagonal term expresses the degree of uncertainty
노드의 연결 정보Node's connection information 1. 등록된 노드는 Delaunay Triangulation 알고리즘을 이용하여 서로 연결됨
2. 최단거리 경로 계획 및 자동 환경 탐색 시 노드 연결 정보 이용
3. 노드와 노드의 연결 강도 (Correlation) 를 이용하여 노드 위치 업데이트
1. Registered nodes are connected to each other using Delaunay Triangulation algorithm
2. Using node connection information for shortest path planning and automatic environment search
3. Update node position using node-to-node correlation
노드의 속성The attributes of the node 1. 각 노드는 일반 (Normal), 경계(Boundary), 베이스(Base) 중 한 개의 속성을 가짐
2. 일반 노드 - 위치인식 및 최단거리 경로 계획 시 이용
3. 경계 노드 - 지도의 경계를 이루는 노드, 환경 탐색의 출발점으로 설정 가능
4. 베이스 노드 - 현재 환경 탐색의 출발점 노드
Each node has one of the following properties: normal, boundary, and base
2. General Node-Used for location recognition and shortest path planning
3. Boundary node-Node that forms the boundary of the map, can be set as the starting point of environment search
4. Base node-the starting node of the current environment search
랜드마크land mark 1. 노드 등록 당시의 로봇의 위치에서 얻은 영상을 이용하여 랜드마크 추출
2. 지도를 구성하는 각 노드는 하나의 랜드마크를 가짐
3. 랜드마크는 에지 포인트 셋(edge point set)으로 구성
4. 에지 포인트(edge point)는 이미지상의 (x, y)로 정의
1. Extracting landmarks using images obtained from the location of the robot at the time of node registration
2. Each node constituting the map has one landmark
3. Landmarks consist of an edge point set
4. The edge point is defined as (x, y) on the image

다음으로 노드의 생성 과정에 대하여 보다 구체적으로 설명한다.Next, the generation process of the node will be described in more detail.

앞서 간략히 설명하였지만, 신규로 생성되는 노드는 로봇의 현재 위치를 기반으로 생성된 로컬 지도와 현재까지 등록된 노드의 위치 정보를 고려하여 최고의 적합도를 가지는 위치로 선정된다. 즉, 탐색 단계에서 새롭게 등록할 보조 노드는 최고 적합도(maximum fitness) 선택 규칙에 기반하여 선정된다.As briefly described above, the newly created node is selected as the location having the best suitability in consideration of the local map generated based on the current location of the robot and the location information of the node registered so far. That is, the secondary node to be newly registered in the search phase is selected based on the maximum fitness selection rule.

이를 보다 구체적으로 설명하면 다음과 같다.This will be described in more detail as follows.

(a) 최고 적합도(Maximum fitness) 노드 선정(a) Selecting the maximum fitness node

새로운 노드를 선정할 때 2가지 사항이 고려된다. 첫째는 기존에 등록된 노드들과 일정 거리 이상을 가져야 한다는 것과, 두번째는 후보 노드와 가장 가까운 장애물과의 거리가 일정 거리 이상이어야 한다는 것이다. 이 조건을 수식으로 나타내면 다음 수학식 2와 같다.Two factors are considered when selecting a new node. The first is that it should be more than a certain distance from the previously registered nodes, and the second is that the distance to the obstacle closest to the candidate node should be more than a certain distance. This condition is expressed by the following equation.

Figure pat00003
Figure pat00003

, 수학식 2에서 fitness는 적합도이고, dist_node는 노드와의 거리이고, dist_obstacle는 장애물과의 거리이고, α는 가중치 팩터(weight factor)이다.In Equation 2, fitness is goodness of fit, dist_node is distance from a node, dist_obstacle is distance from an obstacle, and α is a weight factor.

즉, 기존에 등록된 노드와의 중복을 최소화하고 장애물과 일정거리 떨어진, 위치적으로 안전한 노드에 높은 적합도(fitness)를 주는 방식으로써, 확장성과 안정성을 동시에 확보하는 전략이다. 가중치 팩터 α는 확장성과 안정성 중 어디에 더 중점을 둘 것이냐에 따라 그 값을 다르게 할 수 있다.In other words, it minimizes redundancy with previously registered nodes and gives high fitness to positionally secure nodes that are separated from obstacles by a certain distance, thereby securing scalability and stability at the same time. The weight factor α can vary in value depending on where to focus more on scalability and stability.

이를 도 10을 참조하여 보다 구체적으로 설명한다.This will be described in more detail with reference to FIG. 10.

도 10은 본 발명의 일 실시 예에 있어서 전후방 레이저 스캐너로 탐지한 로봇 주위의 환경을 이미지로 나타내고, 새로운 노드의 후보 위치에 대한 적합도(fitness) 값을 계산하여 이미지로 나타낸 도면이다.FIG. 10 is a view showing an image of an environment around a robot detected by the front and rear laser scanners, and calculating a fitness value for a candidate position of a new node according to an embodiment of the present invention.

먼저 도 10의 (a)를 참조하면, 장애물과의 거리를 계산하기 위하여 먼저 전방 및 후방 레이저 스캐너를 이용하여 로봇 주위의 8 × 8 m 공간을 탐지한 후 이진화된 이미지 형태의 지역지도를 만든다. 이 이미지에 거리 변환(Distance transform) 알고리즘을 적용하면 지역 지도내의 특정 위치에서 가장 가까운 장애물과의 거리 값을 구할 수 있다.Referring first to (a) of FIG. 10, in order to calculate a distance from an obstacle, first, a 8 × 8 m space around a robot is detected by using a front and rear laser scanner, and a local map in the form of a binary image is created. By applying the distance transform algorithm to this image, you can find the distance value of the closest obstacle to a specific location in a local map.

다음으로, 수학식 2를 통하여 모든 후보 위치에서의 적합도(fitness)를 그레이 레벨(grey level)로 표시하면 도 10의 (b)와 같다. 도 10(a)에서 왼쪽 상단부와 중앙 하단부는 장애물이 로봇에 가깝게 감지되는 부분이므로 적합도(fitness)가 낮은 검은색으로 표시되며, 높은 적합도(fitness)를 가지는 영역은 흰색으로 표시된다. 이 정보를 바탕으로 도 10의 (b)에서와 같이, 최종적인 노드 후보군은 흰색 띠 영역으로 나타나게 된다.Next, the fitness at all candidate positions is expressed by gray level through Equation 2, as shown in FIG. In FIG. 10A, the upper left and lower center portions are portions in which obstacles are detected close to the robot, and thus the fitness is low in black, and the region having high fitness is shown in white. Based on this information, as shown in FIG. 10B, the final node candidate group is represented by a white band region.

(b) 베이스 노드 변경 조건(b) Base Node Change Condition

현재의 베이스 노드를 기준으로 더 이상 새로운 보조 노드를 생성할 수 없는 경우 위상 지도의 경계를 이루는 경계 노드들 중 불확실성이 가장 낮은 노드를 다음 베이스 노드로 선택하도록 구성될 수 있다.If a new secondary node can no longer be generated based on the current base node, the node having the lowest uncertainty among the boundary nodes forming the boundary of the phase map may be selected as the next base node.

즉, 현재의 베이스 노드에서 새로운 후보 노드의 적합도(fitness)를 구했을 때 일정값 이상의 적합도(fitness)를 가지는 후보 노드가 없으면 베이스 노드를 변경하여 그 베이스 노드에서 다시 새로운 후보 노드를 찾아 등록하게 된다. 다음 베이스 노드는 현재까지 등록된 모든 노드가 아닌, 오직 경계 노드 (boundary node)들 중에서 선택될 수 있다. 베이스 노드의 선택은 후보 베이스 노드의 불확실성 정도를 이용하여 결정된다. 이를 수식으로 표현하면 다음 수학식 3과 같다.That is, when a fitness of a new candidate node is obtained from a current base node, if there is no candidate node having a fitness of a predetermined value or more, the base node is changed to find and register a new candidate node again. The next base node can be selected from only boundary nodes, not all nodes registered to date. The choice of base node is determined using the degree of uncertainty of the candidate base node. If this is expressed as an expression, Equation 3 is obtained.

Figure pat00004
Figure pat00004

, 수학식 3에서 3 x 3 행렬의 Pi 는 각 경계노드가 가지는 불확실성 정도를 나타내며 행렬의 대각 성분을 합한 값이 그 노드의 불확실성을 결정한다. 따라서 다음 베이스 노드는 불확실성이 가장 작은 경계노드가 된다.In Equation 3, Pi of the 3 x 3 matrix represents the degree of uncertainty of each boundary node, and the sum of the diagonal components of the matrix determines the uncertainty of the node. Therefore, the next base node becomes the boundary node with the least uncertainty.

다음 베이스 노드가 선정되면 그 노드에서 다시 탐색과 이용 루틴을 반복 수행한다.When the next base node is selected, the node repeats the search and use routines again.

(c) 지도 작성 종료 규칙(c) Mapping Termination Rules

모든 경계 노드를 베이스 노드로 가정했을 때, 더 이상 새로운 보조 노드를 생성할 수 없는 경우 위상 지도의 작성을 종료하도록 구성될 수 있다.Assuming all boundary nodes as base nodes, it can be configured to terminate the creation of the phase map when it is no longer possible to create a new secondary node.

이를 보다 구체적으로 설명하면 다음과 같다.This will be described in more detail as follows.

현재의 베이스 노드에서 더 이상 등록할 노드가 없다면 베이스 노드를 변경하여 다시 새로운 노드를 등록하는 절차를 반복하게 된다. 이 경우, 한번 선택된 베이스 노드는 다음 베이스 노드로 선택되지 못한다. 따라서 닫힌 공간에서의 지도 작성을 하는 경우라면 언젠가는 더 이상 선택할 수 있는 베이스 노드가 없어지는 시점이 발생하는데, 이때 지도작성이 완료되었다고 판단한다. 즉, 로봇은 모든 경계노드로 최소 한번 이상 방문하여 베이스 노드가 될 수 없다는 것을 확인한 후 지도 작성을 자동 완료하게 된다.If there are no more nodes to register in the current base node, the procedure of changing the base node and registering a new node again is repeated. In this case, the base node once selected cannot be selected as the next base node. Therefore, when mapping in a closed space, there is a point in time when the base node that can be selected no longer exists. At this point, it is determined that the mapping is completed. That is, the robot visits all boundary nodes at least once and confirms that it cannot be a base node, and then automatically completes the mapping.

위치 보정 단계(S30)에서는, 앞서 설명한 랜드마크 추출/매칭 단계(S10)에서 획득한 랜드마크 차이 정보를 확장 칼만 필터(Extended Kalman Filter, EKF)에 적용하여 로봇의 위치와 위상 지도에 등록된 노드의 위치를 보정하는 과정이 수행된다.In the position correction step (S30), the node registered in the position and phase map of the robot by applying the landmark difference information obtained in the landmark extraction / matching step (S10) described above to the Extended Kalman Filter (EKF) The process of correcting the position of is performed.

이를 보다 구체적으로 설명하면 다음과 같다.This will be described in more detail as follows.

보조 노드를 등록시킨 후 다시 베이스 노드로 돌아오게 되면 EKF 업데이트(update)를 통하여 현재 로봇의 위치와 현재까지 등록된 노드의 위치를 보정하게 된다. EKF SLAM에서는 현재 로봇의 위치(x, y, th)와 등록된 노드들의 위치(xn, yn, thn)를 상태(state) 변수에 저장하고, 각 상태(state)가 가지는 불확실성을 공분산(covariance) 행렬로 표현한다. 이를 수식으로 표현하면 다음 수학식 4와 같다.When the auxiliary node is registered and returned to the base node again, the position of the current robot and the node registered so far are corrected through the EKF update. In EKF SLAM, the position of the current robot (x, y, th) and the positions of registered nodes (x n , y n , th n ) are stored in state variables, and covariance of the uncertainty of each state Expressed as a (covariance) matrix. If this is expressed as an expression, Equation 4 is obtained.

Figure pat00005
Figure pat00005

EKF SLAM 은 크게 예측(Prediction)과 갱신(Update)의 두 단계로 이루어진다. 노드와 노드 사이를 주행할 때에는 예측(Prediction) 단계만 수행되며, 노드에 정확히 도달하였다고 판단되는 경우에만 갱신(Update) 단계가 수행된다.EKF SLAM consists of two phases, Prediction and Update. When driving between nodes, only a prediction step is performed, and an update step is performed only when it is determined that the node is reached correctly.

(a) 예측(Prediction)(a) Prediction

이 예측 단계에서는 로봇 플랫폼에서 제공되는 주행 거리 측정 (odometry) 데이터를 이용하여 현재의 로봇 위치를 예측한다. 이를 수식으로 표현하면 다음 수학식 5와 같다.In this prediction step, the current robot position is predicted by using odometry data provided by the robot platform. If this is expressed as an expression, Equation 5 is obtained.

Figure pat00006
Figure pat00006

, 식 5에서, Fx와 Fu는 모션 모델 F 를 xt와 ut에 대하여 미분하여 구한 자코비안(Jacobian) 행렬이며, vt는 공분산(covariance) Qt를 가지는 프로세스 노이즈이다. 모든 등록된 노드는 로봇의 이동과 무관하게 정적이므로 예측(prediction) 단계에서는 변함이 없으며, 로봇과 관계된 상태(state)와 공분산(covariance)만 로봇의 이동량에 따라 갱신된다.In Equation 5, F x and F u are Jacobian matrices obtained by differentiating the motion model F with respect to x t and u t , and v t is process noise having a covariance Q t . Since all registered nodes are static regardless of the movement of the robot, there is no change in the prediction stage, and only state and covariance related to the robot are updated according to the movement amount of the robot.

(b) 갱신(Update)(b) Update

로봇이 노드에 정확히 도착하였다고 판단되면, 현재 영상에서 추출한 랜드마크와 등록된 노드의 랜드마크와의 매칭을 통하여 이노베이션 벡터(innovation vector)

Figure pat00007
를 구하게 된다. 이노베이션 벡터(innovation vector)를 이용하여 로봇의 현재 위치와 현재까지 등록된 노드의 위치를 갱신한다. 이를 수식으로 표현하면 다음 수학식 6과 같다.When it is determined that the robot arrives at the node correctly, an innovation vector is obtained by matching the landmark extracted from the current image with the landmark of the registered node.
Figure pat00007
Will be obtained. Update the current position of the robot and the position of the node registered so far by using an innovation vector. If this is expressed as an expression, Equation 6 is obtained.

Figure pat00008
Figure pat00008

, 수학식 6에서, Ht는 관측 함수 H를 xt에 대하여 미분하여 얻은 자코비안(Jacobian) 행렬이며, wt는 공분산(covariance) Rt를 가지는 관측 노이즈이고, Kt는 갱신(update) 정도를 결정하는 칼만 게인(Kalman gain)이다.In Equation 6, H t is a Jacobian matrix obtained by differentiating an observation function H with respect to x t , w t is observation noise having a covariance R t , and K t is an update. Kalman gain to determine the degree.

본 실시 예에 있어서, 보조 노드의 개수인 N이 2인 경우, 위상 지도 내에 생성된 노드들은 들로네 삼각화(Delaunay Triangulation) 알고리즘을 이용하여 서로 연결된 구조를 가지며, 해당 노드간의 연결 정보를 이용하여 로봇의 최단거리 경로 계획 및 자율 환경 탐색을 수행하고 노드 위치를 갱신하도록 구성될 수 있다.In the present embodiment, when N, the number of auxiliary nodes, is 2, the nodes generated in the phase map have a structure connected to each other using a Delaunay triangulation algorithm, and the robots are connected using the connection information between the nodes. It may be configured to perform a shortest path planning and autonomous environment search of and update node location.

또한, 로봇은 전체 중대형 공간 탐사를 위해 기준 베이스 노드를 중심으로 방사형태로 영역을 확장하면서 전체 공간에 대한 탐색을 수행하고, 현재까지 작성된 노드 정보와 상기 로봇에 전방 및 후방을 향하도록 장착된 레이저 스캐너들을 이용하여 설정된 노드 정보들을 기반으로 최단 경로를 주행하되, 노드간의 이동 중 장애물이 감지되면 장애물 회피 동작을 수행하도록 구성될 수 있다.In addition, the robot performs exploration of the entire space while radially expanding the area around the reference base node for the entire medium-to-large space exploration, and the node information created so far and the laser mounted to face the robot forward and backward The apparatus may be configured to drive a shortest path based on node information set using scanners, and perform an obstacle avoidance operation when an obstacle is detected during movement between nodes.

또한, 등록된 각 노드들은 들로네 삼각화 알고리즘을 이용하여 서로 연결되어 에지(edge)를 구성하고, 새로운 노드가 등록될 때마다 에지 연결이 수행되고, 노드간의 연결 강도는 0과 1사이의 값을 갖도록 구성될 수 있다.In addition, each registered node is connected to each other using a Delaunay triangulation algorithm to form an edge, and each time a new node is registered, edge connection is performed, and the connection strength between nodes is a value between 0 and 1. It can be configured to have.

또한, 주행중인 로봇에 장착된 레이저 스캐너를 이용하여 주행 환경을 탐지하며, 에지의 주위에 장애물이 있는 경우 노드 간의 연결 강도는 점진적으로 작아지고, 노드 간의 연결 강도가 임계값 이하가 되면 두 노드를 연결하는 에지는 단절되도록 구성될 수 있다.In addition, the driving environment is detected by using a laser scanner mounted on the robot that is running. If there is an obstacle around the edge, the connection strength between nodes gradually decreases. The connecting edges can be configured to be disconnected.

또한, 장애물이 단절된 에지 주위에 없다는 관측값을 연속적으로 수신하는 경우 점진적으로 단절된 에지를 구성하는 두 노드 간의 연결 강도가 커지고, 두 노드 간의 연결 강도가 상기 임계치를 초과하는 경우 상기 두 노드가 다시 연결되어 에지를 재구성하도록 구성될 수 있다.In addition, when continuously receiving an observation that an obstacle is not around a disconnected edge, the connection strength between two nodes constituting the progressively disconnected edge increases, and the two nodes reconnect when the connection strength between the two nodes exceeds the threshold. And to reconstruct the edge.

이하에서는 로봇의 구체적인 주행에 대하여 설명한다.Hereinafter, specific driving of the robot will be described.

로봇의 주행은 크게 일반 주행모드와 장애물 회피모드로 구분된다.The robot's driving is divided into general driving mode and obstacle avoidance mode.

(a) 일반 주행모드(a) Normal driving mode

로봇의 일반 주행에는 목표 추종(Goal following)과 노드 추종(Node following)의 두 가지 모드가 있다. 새로운 보조 노드를 선택했을 때 그 노드까지 직진 주행을 하게 되는데, 이때 목표 추종(goal following) 모드가 되며 새롭게 등록할 노드에 근접하면 노드 추종(Node following) 모드가 된다. 주행 시 장애물이 감지되면 후술하는 장애물 회피 모드로 변환되며, 회피 경로를 생성하여 그 경로를 따라가게 된다.There are two modes of normal driving of the robot: goal following and node following. When a new auxiliary node is selected, it will go straight to that node. At this time, it will be in target following mode, and when it is close to a node to be newly registered, it will be in node following mode. When an obstacle is detected during driving, the obstacle is converted to an obstacle avoidance mode to be described later, and an obstacle path is generated to follow the path.

노드 추종(Node following) 시 ICP 매칭 결과를 이용하여 비주얼 서보잉(visual servoing)을 통하여 노드에 접근하게 된다. ICP 매칭결과는 이미지 상에서의 두 랜드마크의 x, y축 차이 (dx, dy)및 회전량 (dth) 이며 이 값을 이용하여 일시적인 목표점(goal)을 생성한다. 이를 수식으로 표현하면 다음 수학식 7과 같다.When following a node, the node is accessed through visual servoing using the ICP matching result. The ICP matching result is the x, y-axis difference (dx, dy) and rotation amount (dth) of two landmarks on the image, and this value is used to generate a temporary goal. If this is expressed as an equation, Equation 7 is obtained.

Figure pat00009
Figure pat00009

ICP 매칭을 통하여 결과가 매번 바뀔 때 마다 목표점(goal)은 일시적으로 바뀌며 노드(Node)에 아주 근접하였다고 판단 즉, dx, dy, ICP 매칭 에러가 지정된 값보다 작아지면 노드 추종(Node following) 모드를 종료하고 다시 목표 추종(Goal following) 모드로 변환된다.Every time the result changes through ICP matching, the goal changes temporarily and is determined to be very close to the node.If the dx, dy, and ICP matching errors are smaller than the specified value, the node following mode is changed. Exit and switch back to Goal following mode.

(b) 장애물 회피모드(b) obstacle avoidance mode

일반 주행모드 중에 로봇 주위에 장애물이 나타나면 장애물 회피 모드로 변환된다. 장애물의 감지는 로봇에 장착된 전방 및 후방 레이져 스캐너로 수행되며, 결과는 도11의 (a)와 같이 검은색으로 표시된다. 로컬 지도의 중심이 로봇의 위치가 되며 회피 경로의 마지막 점이 임시 목표점이 된다. 거리 변환(Distance transform) 알고리즘을 이용하여 장애물 회피 경로를 생성하며, 도 11의 (b)에 생성된 회피 경로를 빨간색 선으로 나타내었다.If an obstacle appears around the robot during normal driving mode, it is converted to obstacle avoidance mode. The detection of the obstacle is performed by the front and rear laser scanners mounted on the robot, and the result is displayed in black as shown in FIG. The center of the local map is the robot's position, and the last point of the avoidance path is the temporary target. An obstacle avoidance path is generated using a distance transform algorithm, and the avoidance path generated in FIG. 11B is represented by a red line.

(c) 노드에서 임의의 노드까지 최단 거리 경로 생성(c) Create shortest distance path from node to any node

베이스 노드를 변경했을 경우, 현재의 노드에서 베이스 노드까지의 최단 거리 경로를 생성하여 주행하게 된다. 이때 현재까지 등록된 노드간의 연결 정보와 Dijkstra 최단거리 경로 생성 알고리즘을 이용하여 목표 베이스 노드로 가기 위하여 거쳐야하는 중간 노드들을 찾는다.When the base node is changed, the shortest distance path from the current node to the base node is generated and traveled. At this time, it finds the intermediate nodes to go to the target base node by using the connection information between the nodes registered so far and the Dijkstra shortest path generation algorithm.

본 실시 예의 평가를 위하여 예시적인 중대형 공간 2곳을 선정하여 실제 현장 실험을 실시하였고, 해당 환경에 대한 안정적인 위상 지도 생성 결과를 증명하였다.For the evaluation of the present embodiment, two exemplary medium-large spaces were selected and actual field experiments were conducted, and the result of generating a stable phase map for the environment was proved.

도 12는 실험환경1에서의 실험 결과를 나타낸 도면이다.12 is a diagram showing the results of experiments in Experimental Environment 1. FIG.

도 12의 실험환경1에서의 공간은 가로, 세로, 높이가 각각 15m, 20m, 20m 이며 중앙에 아무런 장애물이 없는 구조이다. 공간의 중앙에 로봇을 위치시킨 후 자율 주행을 통하여 노드를 등록하였고, 총 주행시간은 약 15분이다. 총 생성된 노드의 개수는 26개이며 노드간의 평균거리는 2.7m 이다.In the experimental environment 1 of FIG. 12, the spaces are 15 m, 20 m, and 20 m in width, length, and height, respectively, and have no obstacle in the center. After placing the robot in the center of the space, the node was registered through autonomous driving, and the total driving time is about 15 minutes. The total number of nodes created is 26 and the average distance between nodes is 2.7m.

도 13은 실험환경2에서의 실험 결과를 나타낸 도면이다.FIG. 13 is a diagram showing the results of experiments in Experimental Environment 2. FIG.

도 13의 실험환경2에서의 공간은 가로, 세로, 높이가 각각 14m, 16m, 7m 이며, 사람들이 수시로 지나가는 환경이다. 지도 작성 중 로봇 주위의 사람들이 동적 장애물로 인식되어 장애물 회피 경로를 생성하여 주행한 구간도 있으며, 회피 경로를 생성하지 못해 일시 대기 상태를 지속한 구간도 존재하였다. 공간의 중앙에 로봇을 위치시킨 후 자율 주행을 통하여 노드를 등록하였고, 총 주행시간은 약 24분이다. 총 생성된 노드의 개수는 19개이며 노드간의 평균거리는 2.8m 이다.The space in Experimental Environment 2 of FIG. 13 is 14 m, 16 m, and 7 m in width, length, and height, respectively. There were sections in which people around the robot were recognized as dynamic obstacles while creating a map and made obstacle avoidance paths and traveled. Some sections remained in a temporary waiting state because they could not create escape paths. After placing the robot in the center of the space, the node was registered through autonomous driving and the total running time is about 24 minutes. The total number of nodes created is 19 and the average distance between nodes is 2.8m.

이상에서 상세히 설명한 바와 같이 본 발명에 따르면, 사용자의 수동 조작이 전혀 필요 없이 로봇이 자율적으로 환경을 탐색하여 주어진 환경의 위상지도 작성이 가능한 효과가 있다.As described in detail above, according to the present invention, a robot can autonomously search for an environment without any manual manipulation of a user, and thus, a phase map of a given environment can be created.

또한, 입력영상에서 천장의 높이에 영향을 받지 않는 랜드마크 추출 및 매칭이 가능하므로 천장 높이에 의한 지도 작성 오차를 줄일 수 있는 효과가 있다.In addition, it is possible to extract and match landmarks that are not affected by the height of the ceiling in the input image, thereby reducing the mapping error due to the height of the ceiling.

또한, 로봇의 주행 중 장애물이 탐지되면 자율적으로 회피 경로를 생성하여 주위의 사람이나 구조물에 부딪힘 없이 안전하게 주행이 가능한 효과가 있다.In addition, when obstacles are detected while the robot is running, an autonomous path is generated autonomously to safely drive without hitting the surrounding people or structures.

또한, 로봇이 지도 상에 일정한 거리로 등록된 노드들을 따라 주행하여 노드에 도달할 때마다 로봇의 위치를 보정하기 때문에 주행 중 로봇이 자기 자신의 위치를 잃어버리지 않으므로 중대형 공간에서 서비스를 주로 하는 로봇의 위치인식방법에 바로 적용될 수 있는 효과가 있다.In addition, since the robot travels along nodes registered at a certain distance on the map and corrects the position of the robot each time it reaches the node, the robot does not lose its position while driving, so the robot mainly serves in the medium-to-large space. There is an effect that can be applied directly to the position recognition method of.

또한, 로봇의 자율 주행을 통해 작성된 지도는 위상 지도의 형식을 갖기 때문에, 지도에 저장되는 데이터량과 지도 갱신에 필요한 계산량을 줄일 수 있으며, 이에 따라 알고리즘의 경량화가 가능하기 때문에, 저가격의 임베디드 보드에 탑재될 수 있는 효과가 있다.In addition, since maps created through autonomous driving of robots have the form of a phase map, the amount of data stored in the map and the amount of calculation required for map updating can be reduced, and accordingly, the algorithm can be reduced in weight, thereby providing a low-cost embedded board. There is an effect that can be mounted on.

이상에서 본 발명에 대한 기술 사상을 첨부 도면과 함께 서술하였지만, 이는 본 발명의 바람직한 실시예를 예시적으로 설명한 것이지 본 발명을 한정하는 것은 아니다. 또한, 이 기술 분야의 통상의 지식을 가진 자라면 누구나 본 발명의 기술 사상의 범주를 이탈하지 않는 범위 내에서 다양한 변형 및 모방이 가능함은 명백한 사실이다.Although the preferred embodiments of the present invention have been disclosed for illustrative purposes, those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. In addition, it is obvious that any person skilled in the art may make various modifications and imitations without departing from the scope of the technical idea of the present invention.

S10: 랜드마크 추출/매칭 단계
S20: 노드 생성/등록 단계
S30: 위치 보정 단계
S10: Landmark Extraction / Matching Step
S20: Node Creation / Registration Step
S30: Position correction step

Claims (8)

상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법에 있어서,
상기 중대형 공간을 자율 주행하는 로봇에 설치된 상향식 단일 카메라로 획득한 상기 중대형 공간의 천장영상인 입력영상으로부터 추출한 상기 로봇의 현재 위치에서의 랜드마크(landmark)와 미리 등록되어 있는 랜드마크를 매칭시켜 상기 로봇의 현재 위치에서의 랜드마크와 등록되어 있는 랜드마크 간의 차이인 랜드마크 차이 정보를 획득하는 랜드마크 추출/매칭 단계;
상기 로봇에 부착된 전후방 레이저 스캐너를 이용하여 주위 환경 정보를 획득하고, 자율 주행을 통하여 상기 로봇의 출발점인 베이스 노드로부터 일정 거리 떨어진 보조 노드들을 생성하여 위상 지도에 등록하는 노드 생성/등록 단계; 및
상기 랜드마크 차이 정보를 확장 칼만 필터(Extended Kalman Filter)에 적용하여 상기 로봇의 위치와 상기 위상 지도에 등록된 노드의 위치를 보정하는 위치 보정 단계를 포함하는 것을 특징으로 하는, 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법.
An autonomous phase map generation method in a medium-large space using a bottom-up single camera,
By matching a landmark registered in advance with the landmark at the current position of the robot extracted from the input image which is the ceiling image of the medium-large space obtained by a single camera up-down installed in the robot that autonomously runs the medium-large space, A landmark extraction / matching step of acquiring landmark difference information which is a difference between the landmark at the current position of the robot and the registered landmark;
A node generation / registration step of acquiring surrounding environment information using front and rear laser scanners attached to the robot, and generating auxiliary nodes spaced from a base node which is a starting point of the robot by autonomous driving and registering them in a phase map; And
And a position correction step of correcting the position of the robot and the position of the node registered in the phase map by applying the landmark difference information to an extended Kalman filter. Autonomous Phase Map Generation Method in Medium to Large Spaces.
제1 항에 있어서,
상기 랜드마크는 그레이(Gray) 레벨을 갖는 상기 입력영상으로부터 x, y축 방향의 그래디언트(gradient) 및 그 크기를 계산하고, 일정 크기 이상의 값을 갖는 픽셀에 대한 샘플링 과정을 통해 얻어진 에지 포인트들의 집합인 에지 포인트 리스트(Edge point list)로 구성되고,
상기 랜드마크는 로봇의 현재 위치와 연계하여 상기 입력영상의 2차원 정보를 이용하여 정의되며,
상기 로봇의 현재 위치에서의 랜드마크와 등록되어 있는 랜드마크 간의 매칭방법은 ICP(Iterative Closest Point) 알고리즘을 이용하여 최적의 매칭 정보를 획득하는 것을 특징으로 하는, 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법.
The method according to claim 1,
The landmark is a set of edge points obtained by calculating gradients in the x and y-axis directions and their sizes from the input image having a gray level and sampling a pixel having a value greater than or equal to a predetermined size. Consists of an edge point list,
The landmark is defined using two-dimensional information of the input image in association with the current position of the robot,
The matching method between the landmark at the current position of the robot and the registered landmark may be obtained by using an ICP (Iterative Closest Point) algorithm to obtain optimal matching information. Autonomous phase map generation method.
제1 항에 있어서,
상기 위상 지도의 기본적 요소는 노드와 노드간의 연결 요소인 에지(Edge)로 구성되며, 상기 위상 지도의 기본적 요소 중 상기 노드는 로봇의 위치 인식과 최단거리 경로 계획 시 이용되는 보조 노드, 상기 위상 지도의 경계를 이루는 경계 노드, 환경 탐색을 위한 상기 로봇의 주행 시 출발점으로 사용되는 베이스 노드를 포함하여 구성되는 것을 특징으로 하는, 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법.
The method according to claim 1,
The basic element of the phase map is composed of an edge which is a connection element between nodes, and among the basic elements of the phase map, the node is an auxiliary node used for the position recognition of the robot and the shortest distance path planning, and the phase map. Method for generating an autonomous phase map in a medium-to-large space using a bottom-up single camera, characterized in that it comprises a boundary node forming a boundary of, a base node used as a starting point when the robot for driving the environment.
제1 항 또는 3항에 있어서,
신규로 생성되는 노드는 상기 로봇의 현재 위치를 기반으로 생성된 로컬 지도와 현재까지 등록된 노드의 위치 정보를 고려하여 최고의 적합도를 가지는 위치로 선정되는 것을 특징으로 하는, 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법.
The method of claim 1 or 3,
The newly created node is selected as the location having the best suitability in consideration of the local map generated based on the current position of the robot and the location information of the node registered so far, the medium-large space using a bottom-up single camera. Autonomous Phase Map Generation Method in.
제1 항 또는 4항에 있어서,
상기 노드 생성/등록 단계는 탐색 단계와 이용 단계로 구성되고,
상기 탐색 단계에서 로봇은 베이스 노드에서 출발하여 N개의 보조 노드들을 등록하고,
상기 이용 단계에서 로봇은 초기 출발 시작점인 베이스 노드로 복귀하여 상기 랜드마크 차이 정보를 이용하여 상기 로봇의 위치와 노드들의 위치를 보정하며,
생성된 위상 지도의 형태는 N+1개의 노드를 포함하는 다각형 구조들의 반복과 점진적 확장 형식을 가지는 것을 특징으로 하는, 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법.
The method according to claim 1 or 4,
The node creation / registration step includes a search step and a use step,
In the searching step, the robot registers N auxiliary nodes starting from the base node,
In the use step, the robot returns to the base node, which is an initial starting point, and corrects the position of the robot and the position of the nodes by using the landmark difference information.
The shape of the generated phase map has a form of repetition and incremental expansion of polygonal structures including N + 1 nodes.
제5 항에 있어서,
상기 로봇이 현재 주행 중인 베이스 노드를 기준으로 더 이상 새로운 보조 노드를 생성할 수 없는 경우, 상기 위상 지도의 경계를 이루는 경계 노드들 중 불확실성이 가장 낮은 노드를 다음 베이스 노드로 선택하고,
모든 경계 노드를 베이스 노드로 가정했을 때, 더 이상 새로운 보조 노드를 생성할 수 없는 경우 상기 위상 지도의 작성을 종료하는 것을 특징으로 하는, 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법.
6. The method of claim 5,
If the robot can no longer create a new auxiliary node based on the base node currently running, the node having the lowest uncertainty among the boundary nodes forming the boundary of the phase map is selected as the next base node.
Assuming that all boundary nodes are base nodes, when a new auxiliary node can no longer be generated, the generation of the phase map is terminated.
제6 항에 있어서,
보조 노드 구조 생성 조건인 상기 N이 2인 경우 상기 위상 지도 내에 생성된 노드들은 들로네 삼각화 (Delaunay Triangulation) 알고리즘을 이용하여 서로 연결되어 에지(edge)를 구성하고, 새로운 노드가 추가적으로 등록될 때마다 에지 연결 과정이 수행되고, 노드간의 연결 강도는 주위 환경 특성에 따라 0과 1사이의 값을 갖고,
해당 노드간의 연결 정보를 이용하여 상기 로봇의 최적 경로 계획 및 자율 환경 탐색을 수행하고 노드 위치를 갱신하며,
상기 로봇은 전체 중대형 공간 탐사를 위해 기준 베이스 노드를 중심으로 방사 형태로 영역을 확장하면서 전체 공간에 대한 탐색 과정을 수행하고,
노드간의 이동 중 장애물이 감지 될 경우, 자율적으로 장애물 회피 동작을 수행하는 것을 특징으로 하는, 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법.
The method of claim 6,
When N, the secondary node structure generation condition, is 2, the nodes generated in the topology map are connected to each other using a Delaunay triangulation algorithm to form an edge, and each time a new node is additionally registered. Edge connection process is performed, and the connection strength between nodes has a value between 0 and 1 depending on the environment characteristics.
Perform the optimal path planning and autonomous environment search of the robot using the connection information between the nodes, update the node location,
The robot performs an exploration process on the entire space while expanding the region radially around the reference base node for the entire medium-large space exploration,
When an obstacle is detected during movement between nodes, the obstacle avoidance operation is autonomously characterized in that the autonomous phase map generation method in a medium-to-large space using a bottom-up single camera.
제7 항에 있어서,
노드간의 에지 연결정보 및 그 강도를 기반으로 최적의 경로 선택 및 주행을 수행하는 상기 로봇은 로봇에 장착된 레이저 스캐너를 이용하여 주변 환경을 탐지하며, 상기 에지의 주위에 장애물이 있는 경우 해당 에지에 대한 연결강도를 점진적으로 감소시키고, 상기 에지의 주위에 장애물이 없는 경우 해당 연결강도를 증가시키도록 하는 에지 갱신 과정을 수행 하고, 해당 에지의 연결 강도가 임계값 이하가 되면 두 노드를 연결하는 에지는 단절되도록 처리하는 경로 관리 과정을 수행하는 것을 특징으로 하는, 상향식 단일 카메라를 이용한 중대형 공간에서의 자율적 위상지도 생성 방법.
The method of claim 7, wherein
The robot, which performs optimal path selection and driving based on edge connection information between nodes and its strength, detects the surrounding environment using a laser scanner mounted on the robot, and if there is an obstacle around the edge, The edge update process to gradually reduce the strength of the connection and increase the connection strength when there are no obstacles around the edge, and when the connection strength of the edge is less than the threshold, the edge connecting the two nodes. The method for generating an autonomous phase map in a medium-to-large space using a bottom-up single camera is characterized by performing a path management process for processing to be disconnected.
KR1020110111288A 2011-10-28 2011-10-28 Autonomous topological mapping method of medium-large size space using upward single camera KR101286135B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110111288A KR101286135B1 (en) 2011-10-28 2011-10-28 Autonomous topological mapping method of medium-large size space using upward single camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110111288A KR101286135B1 (en) 2011-10-28 2011-10-28 Autonomous topological mapping method of medium-large size space using upward single camera

Publications (2)

Publication Number Publication Date
KR20130046741A true KR20130046741A (en) 2013-05-08
KR101286135B1 KR101286135B1 (en) 2013-07-15

Family

ID=48658347

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110111288A KR101286135B1 (en) 2011-10-28 2011-10-28 Autonomous topological mapping method of medium-large size space using upward single camera

Country Status (1)

Country Link
KR (1) KR101286135B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101468545B1 (en) * 2013-07-10 2014-12-03 연세대학교 산학협력단 Apparatus and method for global localization and map update for mobile robot
KR101502071B1 (en) * 2013-07-05 2015-03-12 충남대학교산학협력단 Camera Data Generator for Landmark-based Vision Navigation System and Computer-readable Media Recording Program for Executing the Same
KR20150144729A (en) * 2014-06-17 2015-12-28 주식회사 유진로봇 Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
KR20150144728A (en) * 2014-06-17 2015-12-28 주식회사 유진로봇 Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
CN107567405A (en) * 2015-05-12 2018-01-09 大众汽车有限公司 It is determined that the track for vehicle
CN111473785A (en) * 2020-06-28 2020-07-31 北京云迹科技有限公司 Method and device for adjusting relative pose of robot to map
KR20220078172A (en) * 2020-12-03 2022-06-10 재단법인 경북자동차임베디드연구원 Body temperature measuring apparatus and method for non face-to-face
KR102649303B1 (en) * 2024-01-09 2024-03-20 국방과학연구소 Electronic device and multirobot exploring area management method thereof

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102047664B1 (en) * 2016-12-23 2019-11-25 전자부품연구원 A position recognition system and method for a plurality of ground vehicle, and ground vehicle and control device thereof
KR102149502B1 (en) * 2016-12-23 2020-09-01 한국전자기술연구원 A position recognition system using the power of the light emitiing device for a plurality of ground vehicle
US10901425B2 (en) 2018-11-30 2021-01-26 Honda Motor Co., Ltd. Systems and methods for navigational planning
KR102252295B1 (en) * 2019-11-07 2021-05-14 선문대학교 산학협력단 Method and autonomous mobile robot for generating indoor topology map
KR102253621B1 (en) * 2019-11-07 2021-05-18 선문대학교 산학협력단 Method and autonomous mobile robot for generating indoor map

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101167627B1 (en) * 2010-02-25 2012-07-23 연세대학교 산학협력단 Apparatus and Method for Double-Updating in simultaneous localization and mapping for a mobile robot

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101502071B1 (en) * 2013-07-05 2015-03-12 충남대학교산학협력단 Camera Data Generator for Landmark-based Vision Navigation System and Computer-readable Media Recording Program for Executing the Same
KR101468545B1 (en) * 2013-07-10 2014-12-03 연세대학교 산학협력단 Apparatus and method for global localization and map update for mobile robot
KR20150144729A (en) * 2014-06-17 2015-12-28 주식회사 유진로봇 Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
KR20150144728A (en) * 2014-06-17 2015-12-28 주식회사 유진로봇 Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
US10133278B2 (en) 2014-06-17 2018-11-20 Yujin Robot Co., Ltd. Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof
US10133279B2 (en) 2014-06-17 2018-11-20 Yujin Robot Co., Ltd. Apparatus of updating key frame of mobile robot and method thereof
CN107567405A (en) * 2015-05-12 2018-01-09 大众汽车有限公司 It is determined that the track for vehicle
CN111473785A (en) * 2020-06-28 2020-07-31 北京云迹科技有限公司 Method and device for adjusting relative pose of robot to map
CN111473785B (en) * 2020-06-28 2020-09-25 北京云迹科技有限公司 Method and device for adjusting relative pose of robot to map
KR20220078172A (en) * 2020-12-03 2022-06-10 재단법인 경북자동차임베디드연구원 Body temperature measuring apparatus and method for non face-to-face
KR102649303B1 (en) * 2024-01-09 2024-03-20 국방과학연구소 Electronic device and multirobot exploring area management method thereof

Also Published As

Publication number Publication date
KR101286135B1 (en) 2013-07-15

Similar Documents

Publication Publication Date Title
KR101286135B1 (en) Autonomous topological mapping method of medium-large size space using upward single camera
KR101202695B1 (en) Autonomous movement device
Churchill et al. Practice makes perfect? managing and leveraging visual experiences for lifelong navigation
CN109813319B (en) Open loop optimization method and system based on SLAM (Simultaneous localization and mapping) mapping
KR100843085B1 (en) Method of building gridmap in mobile robot and method of cell decomposition using it
KR101913332B1 (en) Mobile apparatus and localization method of mobile apparatus
Rekleitis Cooperative localization and multi-robot exploration
CN110118556A (en) A kind of robot localization method and device based on covariance mixing together SLAM
CN104374395A (en) Graph-based vision SLAM (simultaneous localization and mapping) method
CN106444757B (en) EKF-SLAM method based on linear feature map
KR20120036207A (en) Moving robot and map-building method thereof
CN108981701A (en) A kind of indoor positioning and air navigation aid based on laser SLAM
JP2019207678A (en) Unsupervised learning of metric representations from slow features
CN110260866A (en) A kind of robot localization and barrier-avoiding method of view-based access control model sensor
TWI772743B (en) Information processing device and mobile robot
Liu et al. An enhanced lidar inertial localization and mapping system for unmanned ground vehicles
Jiang et al. A lidar-inertial odometry with principled uncertainty modeling
Setalaphruk et al. Robot navigation in corridor environments using a sketch floor map
Zhang et al. Lidar-inertial 3d slam with plane constraint for multi-story building
Lee et al. SLAM of a mobile robot using thinning-based topological information
CN115962773A (en) Method, device and equipment for synchronous positioning and map construction of mobile robot
CN116429112A (en) Multi-robot co-location method and device, equipment and storage medium
US11898869B2 (en) Multi-agent map generation
Chen et al. ARMSAINTS: An AR-based Real-time Mobile System for Assistive Indoor Navigation with Target Segmentation
Michalicek et al. A 3D simultaneous localization and mapping exploration system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160704

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee