KR20130056586A - Method and apparatus for building map by using collective intelligent robots - Google Patents

Method and apparatus for building map by using collective intelligent robots Download PDF

Info

Publication number
KR20130056586A
KR20130056586A KR1020110122262A KR20110122262A KR20130056586A KR 20130056586 A KR20130056586 A KR 20130056586A KR 1020110122262 A KR1020110122262 A KR 1020110122262A KR 20110122262 A KR20110122262 A KR 20110122262A KR 20130056586 A KR20130056586 A KR 20130056586A
Authority
KR
South Korea
Prior art keywords
robot
map
block
intelligent robot
feature points
Prior art date
Application number
KR1020110122262A
Other languages
Korean (ko)
Inventor
이창은
임현자
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020110122262A priority Critical patent/KR20130056586A/en
Priority to JP2012220206A priority patent/JP2013109325A/en
Publication of KR20130056586A publication Critical patent/KR20130056586A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping

Abstract

PURPOSE: A method and a device for building a map using an assembly intelligent robot are provided to effectively suppress to take investigation time by reducing range of investigation for mapping in atypical environment. CONSTITUTION: A method for building a map using an assembly intelligent robot comprises: a step of detecting relative position between each robot by measuring relative distance between each robot; a step of dividing investigation area of each robot based on the relative position; a step of transferring each investigation area information to each robot; a step of obtaining local information used for mapping from each robot; and a step of generating entire environment map by integrating each local information. [Reference numerals] (202) Interface block; (204) Relative position obtaining block; (206) Investigation area dividing block; (208) Local information collecting block; (2102) Feature point extracting block; (2104) Merging and matching block; (2106) Map drawing block

Description

군집 지능 로봇을 이용한 지도 구축 방법 및 그 장치{METHOD AND APPARATUS FOR BUILDING MAP BY USING COLLECTIVE INTELLIGENT ROBOTS}Map building method using cluster intelligent robot and its device {METHOD AND APPARATUS FOR BUILDING MAP BY USING COLLECTIVE INTELLIGENT ROBOTS}

본 발명은 군집 지능 로봇을 이용하여 지도를 구축하는 기법에 관한 것으로, 더욱 상세하게는 지도를 작성하고자 하는 전체 구역(전체 영역)을 다수의 각 로봇별의 탐색 구역으로 각각 분할하고, 각 탐색 구역으로부터 획득한 로컬 정보들을 이용하여 전체 환경 지도를 생성하는데 적합한 군집 지능 로봇을 이용한 지도 구축 방법 및 그 장치에 관한 것이다.
The present invention relates to a technique for constructing a map by using a cluster intelligent robot, and more particularly, dividing an entire area (total area) to create a map into a plurality of search areas for each robot, and each search area. The present invention relates to a method and apparatus for constructing a map using a cluster intelligent robot suitable for generating a whole environment map using local information obtained from the system.

잘 알려진 바와 같이, 자율 이동 로봇과 같은 이동체의 가장 기본적인 기능은 이동체가 원하는 목표 지점까지 충돌 없이 이동할 수 있어야 한다는 것이며, 이러한 기능들은 자율 이동 로봇의 위치 측정 기술 및 맵(지도) 구성 기술에 의해 수행되어진다.As is well known, the most basic function of a moving object such as an autonomous mobile robot is that the moving object must be able to move to the desired target point without collision, and these functions are performed by the positioning technology and the map construction technology of the autonomous mobile robot. It is done.

여기에서, 맵 구성과 이동체 자신의 위치를 인식하는 방법으로는, 예컨대 SLAM(simultaneous localization and mapping) 알고리즘을 이용하는 것이 알려져 있다.Here, as a method of recognizing the map configuration and the position of the moving object itself, it is known to use a SLAM (simultaneous localization and mapping) algorithm, for example.

이와 같이 SLAM 알고리즘을 이용하는 종래의 전형적인 기술에서는 2차원 정형 환경 내에서 위치를 인식하고 환경을 인식하는 연구가 주류를 이루고 있으며, 이러한 종래 기술은 실제 제품으로의 적용도 시작되고 있는 실정이다.
As described above, in the conventional typical technology using the SLAM algorithm, researches for recognizing the location and the environment in the two-dimensional shaping environment have become mainstream, and the conventional technology has also begun to be applied to actual products.

대한민국 공개특허 제2010-0005488호(공개일 : 2010. 01. 15.)Republic of Korea Patent Publication No. 2010-0005488 (published: 2010. 01. 15.)

그러나, SLAM 알고리즘을 이용하여 이동체의 위치와 주위 환경을 인식하는 종래 기술은 정형 환경에 국한되어 있기 때문에 비정형 환경에 적용할 경우 그 범위가 넓고 방대하여 많은 탐색 시간이 소요된다는 문제가 있다.
However, since the prior art of recognizing the position of the moving object and the surrounding environment by using the SLAM algorithm is limited to the fixed environment, when applied to the atypical environment, the range is large and vast, so that a lot of searching time is required.

본 발명은, 일 관점에 따라, 각 로봇 간의 상대 거리를 측정하여 상기 각 로봇 간의 상대 위치를 검출하는 과정과, 검출된 상대 위치에 기반으로 각 로봇별의 탐색 구역을 분할하는 과정과, 분할된 각 탐색 구역 정보를 대응하는 상기 각 로봇에게 전송하는 과정과, 상기 각 로봇으로부터 지도 생성을 위해 사용될 로컬 정보들을 각각 획득하는 과정과, 획득된 각 로컬 정보들을 융합하여 전체 환경 지도를 생성하는 과정을 포함하는 군집 지능 로봇을 이용한 지도 구축 방법을 제공한다.According to an aspect of the present invention, a process of detecting a relative position between each robot by measuring a relative distance between each robot, dividing a search area for each robot based on the detected relative position, and divided Transmitting each search zone information to each corresponding robot, obtaining local information to be used for map generation from each robot, and fusing each of the obtained local information to generate a whole environment map. It provides a map building method using a clustered intelligent robot including.

본 발명은, 다른 관점에 따라, 각 로봇 간의 상대 위치를 검출하여 공유하는 상대 위치 획득 블록과, 상기 검출된 상대 위치를 기반으로 각 로봇별의 탐색 구역을 분할하는 탐색 구역 분할 블록과, 상기 각 로봇으로부터 지도 생성을 위해 사용될 로컬 정보들을 각각 획득하는 로컬 정보 수집 블록과, 획득된 각 로컬 정보들을 융합하여 전체 환경 지도를 생성하는 통합 환경 지도 생성 블록을 포함하는 군집 지능 로봇을 이용한 지도 구축 장치를 제공한다.
According to another aspect of the present invention, a relative position acquisition block for detecting and sharing a relative position between each robot, a search zone division block for dividing a search zone for each robot based on the detected relative position, The apparatus for constructing a map using a clustered intelligent robot includes a local information collection block for obtaining local information to be used for map generation from a robot, and an integrated environment map generation block for fusing each obtained local information to generate an entire environment map. to provide.

본 발명은, 지도를 작성하고자 하는 탐색 범위를 자율 주행하는 각 로봇 간의 상대 위치를 검출하고, 검출된 상대 위치에 기반으로 각 로봇별의 탐색 구역을 분할하며, 각 로봇으로부터 지도 생성을 위해 사용될 탐색 구역들에 대한 로컬 정보들을 각각 획득한 후 이 정보들을 융합하여 전체 환경 지도를 생성하도록 함으로써, 비정형 환경에서 지도 작성을 위한 탐색 범위를 줄여 탐색 시간이 과다하게 소요되는 것을 효과적으로 억제할 수 있으며, 선택적인 매칭을 통해 각 로봇으로부터 획득한 로컬 정보들의 병합시간을 절감할 수 있다.
The present invention is to detect the relative position between each robot autonomously running the search range to create a map, to divide the search area for each robot based on the detected relative position, the search to be used for map generation from each robot By acquiring local information about the zones individually and fusing them, the entire environment map can be generated to reduce the search scope for mapping in an unstructured environment, effectively suppressing excessive search time. Through the matching, it is possible to reduce the merge time of the local information obtained from each robot.

도 1은 본 발명에 따라 탐색 범위를 다수의 각 로봇별의 탐색 구간으로 분할한 후 각 로봇으로부터 획득되는 로컬 정보들을 이용하여 전체 환경 지도를 생성하는 예를 설명하기 위한 개념도,
도 2는 본 발명에 따른 군집 지능 로봇을 이용한 지도 구축 장치의 블록구성도,
도 3은 본 발명에 따라 탐색 범위를 각 로봇별의 탐색 구간으로 분할하여 할당하는 예를 설명하기 위한 탐색 구역 분할 예시도,
도 4는 본 발명에 따라 군집 지능 로봇을 이용하여 지도를 구축하는 주요 과정들을 도시한 순서도.
1 is a conceptual diagram illustrating an example of generating a whole environment map using local information obtained from each robot after dividing a search range into search sections for each robot according to the present invention;
2 is a block diagram of a map building device using a cluster intelligent robot according to the present invention;
3 is a diagram illustrating a search zone division for explaining an example of dividing and allocating a search range into search sections for each robot according to the present invention;
Figure 4 is a flow chart showing the main process of building a map using a cluster intelligent robot in accordance with the present invention.

본 발명의 기술요지는, 정형 환경에서 SLAM 알고리즘을 이용하여 이동체의 위치와 주위 환경을 인식하는 전술한 종래 기술과는 달리, 지도를 작성하고자 하는 탐색 범위(탐색 영역)를 자율 주행하는 각 로봇 간의 상대 위치를 검출하고, 검출된 상대 위치에 기반으로 각 로봇별의 탐색 구역을 분할하며, 각 로봇으로부터 지도(맵) 생성을 위해 사용될 탐색 구역들에 대한 로컬 정보들을 각각 획득한 후 이 정보들을 융합하여 전체 환경 지도를 생성한다는 것으로, 본 발명은 이러한 기술적 수단을 통해 목적으로 하는 바를 실현함으로써 종래 방식의 문제점을 효과적으로 개선할 수 있다.The technical gist of the present invention is different from the above-described conventional technique of recognizing the position of the moving object and the surrounding environment by using the SLAM algorithm in a fixed environment, and between each robot autonomously traveling the search range (search area) to be made a map. Detect the relative position, divide the search zone for each robot based on the detected relative position, and obtain local information about the search zones to be used for map generation from each robot, and then merge the information. By generating the entire environment map, the present invention can effectively solve the problems of the conventional method by realizing the purpose through these technical means.

여기에서, 분할된 각 탐색 구역의 로컬 정보들을 병합하여 전체 환경 지도를 작성하는 것은, 예컨대 SLAM(simultaneous localization and mapping) 알고리즘을 이용하여 실행될 수 있다.Here, merging local information of each divided search zone to create a whole environment map may be performed using, for example, a simulaneous localization and mapping (SLAM) algorithm.

아울러, 아래의 본 발명을 설명함에 있어서 공지 기능 또는 구성 등에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들인 것으로, 이는 사용자, 운용자 등의 의도 또는 관례 등에 따라 달라질 수 있음은 물론이다. 그러므로, 그 정의는 본 명세서의 전반에 걸쳐 기술되는 기술사상을 토대로 이루어져야 할 것이다.In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, terms to be described below are terms defined in consideration of functions in the present invention, which may be changed according to intention or custom of a user, an operator, or the like. Therefore, the definition should be based on the technical idea described throughout this specification.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대하여 상세하게 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따라 탐색 범위를 다수의 각 로봇별의 탐색 구간으로 분할한 후 각 로봇으로부터 획득되는 로컬 정보들을 이용하여 전체 환경 지도를 생성하는 예를 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating an example of generating a whole environment map using local information obtained from each robot after dividing a search range into search sections for each robot according to the present invention.

도 1을 참조하면, 개념도에서는 탐색 범위(탐색 영역)의 전체 환경 지도를 작성(생성)하는 하나의 로봇(111)과 전체의 탐색 범위에 4개의 군집 지능을 갖는 로봇들(112 - 115)이 구비되어 있으며, 로봇(111)은 각 로봇(112 - 115)간의 상대 거리를 측정하여 각 로봇 간의 상대 위치를 검출하고, 이와 같이 검출된 상태 위치에 기반하여 각 로봇별로 탐색 구간을 분할한다. 여기에서, 각 로봇은 탐색 범위를 주행하는 중에 획득하는 로컬 정보(예컨대 초음파, 적외선, 레이저, 카메라, 오도메트리(odometry) 등)를 무선 전송하는 무선 통신 수단이 구비된 이동체로서 정의될 수 있다. 그리고, 초음파, 적외선, 레이저, 카메라, 오도메트리 등의 센서정보는 통칭하여 영상 데이터로 정의(표현)될 수 있다.Referring to FIG. 1, in the conceptual diagram, one robot 111 for creating (generating) an entire environment map of a search range (search area) and robots 112-115 having four cluster intelligences in the entire search range are shown. The robot 111 measures relative distances between the robots 112 and 115 to detect relative positions between the robots, and divides the search section for each robot based on the detected position positions. Here, each robot may be defined as a mobile body equipped with wireless communication means for wirelessly transmitting local information (eg, ultrasonic waves, infrared rays, lasers, cameras, odometry, etc.) acquired while driving the search range. . In addition, sensor information such as an ultrasonic wave, an infrared ray, a laser, a camera, and an odometry may be collectively defined (expressed) as image data.

예컨대, 로봇(112)에는 탐색 구간(121)이 할당되고, 로봇(113)에는 탐색 구간(122)이 할당되며, 로봇(114)에는 탐색 구간(123)이 할당되고, 로봇(115)에는 탐색 구간(124)이 할당될 수 있으며, 각 로봇들(112 - 115)은 자신에게 할당된 탐색 구간을 탐색하여 획득하는 로컬 정보들을 로봇(111)으로 무선 전송하게 된다. 여기에서, 각 로봇들(112 - 115)이 획득하여 로봇(111)에게 무선 전송하는 로컬 정보는, 예컨대 초음파 정보, 적외선 정보, 레이저 정보, 카메라 정보, 오도메트리 등을 포함할 수 있다.For example, a search section 121 is assigned to the robot 112, a search section 122 is assigned to the robot 113, a search section 123 is assigned to the robot 114, and a search is assigned to the robot 115. The section 124 may be allocated, and each of the robots 112 to 115 wirelessly transmits local information obtained by searching for the search section assigned to the robot 111 to the robot 111. Here, the local information acquired by each of the robots 112 to 115 and wirelessly transmitted to the robot 111 may include, for example, ultrasound information, infrared information, laser information, camera information, and odometry.

이때, 탐색 범위의 지도 작성에 참여하는 로봇들의 수는, 탐색 시간이 과다하게 소요되는 것을 방지할 수 있도록, 탐색 범위의 넓이에 비례하여 증감시키는 것이 바람직할 것이다.In this case, it may be desirable to increase or decrease the number of robots participating in the mapping of the search range in proportion to the width of the search range to prevent excessive search time.

도 2는 본 발명에 따른 군집 지능 로봇을 이용한 지도 구축 장치의 블록구성도로서, 인터페이스 블록(202), 상대 위치 획득 블록(204), 탐색 구역 분할 블록(206), 로컬 정보 수집 블록(208) 및 통합 환경 지도 생성 블록(210) 등을 포함할 수 있으며, 통합 환경 지도 생성 블록(210)은 특징점 추출 블록(2102), 병합 매칭 블록(2104) 및 지도 작성 블록(2106) 등을 포함할 수 있다.2 is a block diagram of an apparatus for constructing a map using a cluster intelligent robot according to the present invention, which includes an interface block 202, a relative position acquisition block 204, a search area partitioning block 206, and a local information collection block 208. And an integrated environment map generation block 210, and the like. The integrated environment map generation block 210 may include a feature point extraction block 2102, a merge matching block 2104, a mapping block 2106, and the like. have.

도 2를 참조하면, 상대 위치 획득 블록(204)은 인터페이스 블록(202)을 통해 각 로봇(112 - 115)과의 무선 데이터 송수신을 수행하여 로봇(111)을 기준으로 각 로봇(112 - 115)의 상대 거리를 측정하고, 이 측정된 상대 거리에 따른 각 로봇 간의 상대 위치(각 로봇 간의 상대 거리를 기반으로 생성한 상대적인 좌표 값)를 검출(인식)하여 공유하는 기능을 제공할 수 있는데, 이때 검출되는 각 로봇 간의 상대 위치 정보는 탐색 구역 분할 블록(206)으로 전달된다.Referring to FIG. 2, the relative position acquisition block 204 performs wireless data transmission / reception with each of the robots 112 through 115 through the interface block 202, and each robot 112 through 115 based on the robot 111. It is possible to provide a function of measuring the relative distance of and detecting (recognizing) and sharing the relative position (relative coordinate value generated based on the relative distance between each robot) between each robot according to the measured relative distance. The relative position information between each detected robot is transmitted to the search zone dividing block 206.

여기에서, 각 로봇 간의 상대 거리는, 예컨대 네트워크 기반의 WPAN 또는 WLAN 신호를 이용한 RTT(round trip time) 기법의 하나인 TWR(two way ranging) 기법을 이용하여 측정될 수 있다.Here, the relative distance between each robot may be measured using, for example, a two way ranging (TWR) technique, which is one of a round trip time (RTT) technique using a network-based WPAN or WLAN signal.

다음에, 탐색 구역 분할 블록(206)은 상대 위치 획득 블록(204)으로부터 전달된 상대 위치를 기반으로 전체 탐색 범위를 각 로봇별의 탐색 구역으로 분할, 일예로서 도 3에 도시된 바와 같이, 전체의 탐색 범위(320)에 전체 환경 지도의 작성을 위한 하나의 로봇(311)과 4개의 군집 지능 로봇들(312 - 315)이 속해 있는 경우라고 가정할 때, 로봇(312)에는 탐색 구역(321)이 분할(할당)되고, 로봇(313)에는 탐색 구역(322)이 분할(할당)되며, 로봇(314)에는 탐색 구역(323)이 분할(할당)되고, 로봇(315)에는 탐색 구역(324)이 분할(할당)될 수 있다.Next, the search zone dividing block 206 divides the entire search range into search zones for each robot based on the relative position transmitted from the relative position acquisition block 204, as shown in FIG. 3 as an example. Assuming that one robot 311 and four clustered intelligent robots 312-315 for generating the entire environment map belong to the search range 320 of the robot 312, the search area 321 is included in the robot 312. ) Is divided (assigned), the navigation zone 322 is divided (assigned) in the robot 313, the navigation zone 323 is divided (assigned) in the robot 314, and the navigation zone (assigned in the robot 315). 324 may be partitioned (assigned).

여기에서, 탐색 구간은 해당 로봇의 위치에서 상대적으로 가까운 영역으로 지정되며, 인접하는 탐색 구역끼리는 일정 영역만큼 오버랩되도록 지정될 수 있는데, 이것은 작성 지도의 정밀도를 증진시키기 위해서이다. 즉, 도 3에 있어서, 참조부호 OL1은 로봇(312)과 로봇(313)의 탐색 구간이 오버랩되는 중첩 영역을, 참조부호 OL2는 로봇(313)과 로봇(314)의 탐색 구간이 오버랩되는 중첩 영역을, 참조부호 OL3은 로봇(314)과 로봇(315)의 탐색 구간이 오버랩되는 중첩 영역을 각각 나타낸다.Here, the search section may be designated as an area relatively close to the position of the robot, and adjacent search areas may be designated to overlap by a predetermined area, in order to increase the accuracy of the preparation map. That is, in FIG. 3, reference numeral OL1 denotes an overlapping region where the search sections of the robot 312 and the robot 313 overlap, and reference numeral OL2 denotes an overlapping region where the search sections of the robot 313 and the robot 314 overlap. The area OL3 represents an overlapping area where the search sections of the robot 314 and the robot 315 overlap each other.

또한, 탐색 구역 분할 블록(206)은, 각 로봇들이 자신에게 할당된 탐색 구역을 탐색할 수 있도록, 각 로봇들에 대해 각각 할당한 각각의 탐색 구역 정보들을 인터페이스 블록(202)을 통해 해당하는 각 로봇들에게 무선 전송할 수 있으며, 각 로봇별의 탐색 구간 정보를 로컬 정보 수집 블록(208)으로 전달할 수 있다.In addition, the search zone dividing block 206 is configured to correspond to each search zone information allocated for each robot through the interface block 202 so that each robot can search the search zone assigned to it. The robot may be wirelessly transmitted to the robots, and the search section information for each robot may be transmitted to the local information collection block 208.

그리고, 로컬 정보 수집 블록(208)은 각 로봇(112 - 115)으로부터 지도 생성을 위해 사용될 로컬 정보(예컨대, 초음파 정보, 적외선 정보, 레이저 정보, 카메라 정보, 오도메트리 등)들을 각각 획득, 즉 각 로봇(112 - 115)들이 자신에게 각각 할당된 탐색 구역에서의 주행을 통해 획득한 로컬 정보들을 인터페이스 블록(202)을 통해 수집하여 각 로봇별의 구분자 정보 및 탐색 구간 정보와 함께 통합 환경 지도 생성 블록(210)으로 전달하는 등의 기능을 제공할 수 있다.In addition, the local information collecting block 208 obtains local information (eg, ultrasonic information, infrared information, laser information, camera information, odometry, etc.) to be used for map generation from each robot 112-115, respectively. The robots 112-115 collect local information acquired through driving in the search zone assigned to each robot through the interface block 202 to generate an integrated environment map along with the identifier information and the search section information for each robot. Provide to block 210, and the like.

다음에, 통합 환경 지도 생성 블록(210)은, 예컨대 SLAM 알고리즘의 실행을 통해 로컬 정보 수집 블록(208)으로부터 전달되는 각 로봇별의 로컬 정보들을 병합하여 전체 환경 지도를 생성하는 등의 기능을 제공할 수 있는 것으로, 이를 위하여 특징점 추출 블록(2102), 병합 매칭 블록(2104) 및 지도 작성 블록(2106) 등을 포함할 수 있다.Next, the integrated environment map generation block 210 provides functions such as merging local information for each robot transmitted from the local information collection block 208 through execution of the SLAM algorithm to generate a full environment map. As such, the feature point extraction block 2102, the merge matching block 2104, and the mapping block 2106 may be included.

먼저, 특징점 추출 블록(2102)은, 예컨대 분리와 결합(split and merge) 알고리즘 및/또는 SIRF(scale invarant feature transform) 알고리즘을 이용함으로써, 각 로컬 정보로부터 특징점들(예컨대, 직선, 곡선, 특정 패턴 등)을 추출하는 기능을 제공할 수 있는데, 여기에서 추출되는 특징점들은 랜드 마크 또는 특정 패턴에 대한 특징점들을 의미할 수 있다.First, feature point extraction block 2102 uses feature points (eg, straight lines, curves, specific patterns) from each local information, for example, by using a split and merge algorithm and / or a scale invarant feature transform (SIRF) algorithm. Etc.), and the feature points extracted here may mean feature points for a landmark or a specific pattern.

다음에, 병합 매칭 블록(2104)은 로컬 정보가 근처 로봇의 정보인지를 판단, 즉 각 로봇별의 탐색 구간 정보와 각 로봇별의 로컬 정보들 간의 매칭을 통해, 도 3에 일예로서 도시된 바와 같이, 중첩 영역(OL1, OL2, OL3)에 해당되는 영상 정보인지를 판단하고, 중첩 영역에 해당하는 영상 정보인 것으로 판단될 때 해당 로봇간의 매칭을 수행하여 서로 일치하는 부분의 특징점들을 병합시키는 등의 기능을 제공한다. 여기에서, 매칭 작업을 통해 서로 일치하는 부분의 특징점들을 병합시키는 것은 지도 작성에서의 계산량을 절감시키기 위해서이다. 즉, 병합 매칭 블록(2104)은 매칭 작업을 통해 같은 정보에 대한 영상 정보의 존재 여부를 확인한 후 같은 정보일 때 이를 하나로 병합시키고, 그렇지 않을 경우 병합 대상에서 제외시킨다.Next, the merge matching block 2104 determines whether the local information is information of a neighboring robot, that is, as shown as an example in FIG. 3 through matching between search section information for each robot and local information for each robot. Similarly, it is determined whether the image information corresponds to the overlapping areas OL1, OL2, and OL3, and when it is determined that the image information corresponds to the overlapping area, matching between the corresponding robots is performed to merge the feature points of the corresponding parts. Provides the functionality of Here, merging the feature points of the parts that coincide with each other through the matching operation is to reduce the amount of computation in the mapping. That is, the merge matching block 2104 checks the existence of the image information for the same information through a matching operation and merges them when they are the same information, and otherwise excludes them from the merge target.

마지막으로, 지도 작성 블록(2106)은 특징점 추출 블록(2102)을 통해 추출된 특징점들 및 병합 매칭 블록(2104)을 통해 병합된 특징점들을 이용하여 각 로봇들이 획득한 로컬 정보들을 융합함으로써 탐색 범위에 대한 전체 환경 지도를 작성하는 등의 기능을 제공할 수 있다.Finally, the mapping block 2106 uses the feature points extracted through the feature point extraction block 2102 and the feature points merged through the merge matching block 2104 to fuse local information obtained by each robot to the search range. Provide a full environment map of the environment.

다음에, 상술한 바와 같은 구성을 갖는 지도 구축 장치를 통해 군집 지능 로봇을 이용하여 전체 환경 지도를 작성하는 일련의 과정들에 대하여 설명한다.Next, a series of processes for creating an entire environment map using a cluster intelligent robot through a map construction device having the above-described configuration will be described.

도 4는 본 발명에 따라 군집 지능 로봇을 이용하여 지도를 구축하는 주요 과정들을 도시한 순서도이다.4 is a flowchart illustrating main processes of constructing a map using a cluster intelligent robot according to the present invention.

도 4를 참조하면, 상대 위치 획득 블록(204)에서는 인터페이스 블록(202)을 통해 각 로봇(112 - 115)과의 무선 데이터 송수신을 수행하여 로봇(111)을 기준으로 각 로봇(112 - 115)의 상대 거리를 측정하고, 이 측정된 상대 거리에 따른 각 로봇 간의 상대 위치(각 로봇 간의 상대 거리를 기반으로 생성한 상대적인 좌표 값)를 검출하여 탐색 구간 분할 블록(206)으로 전달한다(단계 402). 여기에서, 각 로봇 간의 상대 거리는, 예컨대 네트워크 기반의 WPAN 또는 WLAN 신호를 이용한 RTT(round trip time) 기법의 하나인 TWR(two way ranging) 기법을 이용하여 측정될 수 있다.Referring to FIG. 4, the relative position acquisition block 204 performs wireless data transmission / reception with each of the robots 112 through 115 through the interface block 202, and thus each robot 112 through 115 based on the robot 111. Relative distance is measured, and the relative position between each robot (relative coordinate value generated based on the relative distance between each robot) according to the measured relative distance is detected and transferred to the search section dividing block 206 (step 402). ). Here, the relative distance between each robot may be measured using, for example, a two way ranging (TWR) technique, which is one of a round trip time (RTT) technique using a network-based WPAN or WLAN signal.

이에 응답하여, 탐색 구역 분할 블록(206)에서는 검출된 각 로봇간의 상대 위치를 기반으로 전체 탐색 범위를 각 로봇별의 탐색 구역으로 분할한다(단계 404). 일예로서, 도 3에 도시된 바와 같이, 전체의 탐색 범위(320)에 전체 환경 지도의 작성을 위한 하나의 로봇(311)과 4개의 군집 지능 로봇들(312 - 315)이 속해 있는 경우라고 가정할 때, 로봇(312)에는 탐색 구역(321)을 분할(할당)하고, 로봇(313)에는 탐색 구역(322)을 분할(할당)하며, 로봇(314)에는 탐색 구역(323)을 분할(할당)하고, 로봇(315)에는 탐색 구역(324)을 분할(할당)할 수 있다. 여기에서, 탐색 구간은 해당 로봇의 위치에서 상대적으로 가까운 영역으로 지정되며, 인접하는 탐색 구역끼리는 일정 영역만큼 오버랩되도록 지정될 수 있다.In response, the search zone dividing block 206 divides the entire search range into search zones for each robot based on the detected relative positions between the robots (step 404). As an example, as shown in FIG. 3, it is assumed that one robot 311 and four clustered intelligent robots 312 to 315 belong to the entire search range 320 to create an entire environment map. In this case, the navigation area 321 is divided (assigned) into the robot 312, the navigation area 322 is divided into (allocated) to the robot 313, and the navigation area 323 is divided into the robot 314. And the search zone 324 can be divided (assigned) to the robot 315. Here, the search section may be designated as an area relatively close to the position of the robot, and adjacent search areas may be designated to overlap by a predetermined area.

다음에, 탐색 구역 분할 블록(206)에서는 각 로봇들에 대해 각각 할당한 각각의 탐색 구역 정보들을 인터페이스 블록(202)을 통해 해당하는 각 로봇들에게 무선 전송하며(단계 406), 그 결과 각 로봇들은 자신에게 할당된 탐색 구간을 주행하면서 로컬 정보들을 수집하게 될 것이다.Next, the search zone dividing block 206 wirelessly transmits respective search zone information each allocated for each robot through the interface block 202 to the corresponding robots (step 406), and as a result, each robot. They will collect local information as they drive the search section assigned to them.

즉, 탐색 범위에 있는 각 로봇들은 자신에게 할당된 탐색 구간을 주행하면서 로컬 정보들(예컨대, 초음파 정보, 적외선 정보, 레이저 정보, 카메라 정보, 오도메트리 등)을 수집하고, 이 수집된 로컬 정보들을 전체 환경 지도를 작성하는 로봇에게 무선 전송하는데, 이러한 각 로봇별의 로컬 정보들은 인터페이스 블록(202)을 통해 로컬 정보 수집 블록(208)으로 수신(로컬 정보의 획득)된다(단계 408).That is, each robot in the search range collects local information (eg, ultrasonic information, infrared information, laser information, camera information, odometry, etc.) while driving the search section assigned to the robot, and the collected local information. These robots are wirelessly transmitted to a robot creating an entire environment map, where local information for each robot is received (obtained local information) to the local information collection block 208 via the interface block 202 (step 408).

그리고, 로컬 정보 수집 블록(208)에서는 각 로봇으로부터 획득한 로컬 정보들을 각 로봇별의 구분자 정보 및 탐색 구간 정보와 함께 통합 환경 지도 생성 블록(210)으로 전달하는 데, 먼저 특징점 추출 블록(2102)에서는 각 로컬 정보로부터 특징점들(예컨대, 직선, 곡선, 특정 패턴 등)을 추출하는데(단계 410), 이러한 특징점의 추출은, 예컨대 분리와 결합(split and merge) 알고리즘 및/또는 SIRF(scale invarant feature transform) 알고리즘을 이용하여 수행될 수 있다.In the local information collecting block 208, local information obtained from each robot is transmitted to the integrated environment map generation block 210 together with the delimiter information and the search section information for each robot. Extracts feature points (e.g., straight lines, curves, specific patterns, etc.) from each local information (step 410), the extraction of these feature points, for example, a split and merge algorithm and / or a scale invarant feature transform) algorithm.

다음에, 병합 매칭 블록(2104)에서는 로컬 정보가 근처 로봇의 정보인지를 판단, 즉 각 로봇별의 탐색 구간 정보와 각 로봇별의 로컬 정보들 간의 매칭을 통해, 도 3에 일예로서 도시된 바와 같이, 중첩 영역(OL1, OL2, OL3)에 해당되는 영상 정보인지를 판단하는데(단계 412), 여기에서의 판단 결과, 로컬 정보가 근처 로봇의 정보(중첩 영역의 영상 정보)가 아닌 것으로 판단되면 해당 정보를 병합 대상에서 제외시킨다(단계 414).Next, the merge matching block 2104 determines whether the local information is information of a neighboring robot, that is, as shown as an example in FIG. 3 through matching between search section information for each robot and local information for each robot. Likewise, it is determined whether the image information corresponds to the overlapping areas OL1, OL2, and OL3 (step 412). If the determination result here is determined that the local information is not information of the neighboring robot (image information of the overlapping area), The information is excluded from the merge target (step 414).

상기 단계(412)에서의 판단 결과, 로컬 정보가 근처 로봇의 정보(중첩 영역의 영상 정보)인 것으로 판단되면, 병합 매칭 블록(2104)에서는 해당 로봇간의 로컬 정보 매칭을 수행하여 서로 일치하는 부분의 특징점들을 병합시키는 병합 매칭을 수행한다(단계 416). 즉, 병합 매칭 블록(2104)은 매칭 작업을 통해 같은 정보에 대한 영상 정보의 존재 여부를 확인한 후 같은 정보일 때 이를 하나로 병합시키고, 그렇지 않을 경우 병합 대상에서 제외시킨다.As a result of the determination in step 412, if it is determined that the local information is the information of the neighboring robot (image information of the overlapping region), the merge matching block 2104 performs local information matching between the corresponding robots to match the portions of each other. Merge matching is performed to merge the feature points (step 416). That is, the merge matching block 2104 checks the existence of the image information for the same information through a matching operation and merges them when they are the same information, and otherwise excludes them from the merge target.

이어서, 지도 작성 블록(2106)에서는 추출된 특징점들 및 병합된 특징점들을 이용하여 각 로봇들이 획득한 로컬 정보들을 융합함으로써 탐색 범위에 대한 전체 환경 지도를 작성한다(단계 418).Subsequently, the mapping block 2106 generates the entire environment map for the search range by fusing local information obtained by each robot using the extracted feature points and the merged feature points (step 418).

이상의 설명에서는 본 발명의 바람직한 실시 예들을 제시하여 설명하였으나 본 발명이 반드시 이에 한정되는 것은 아니며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능함을 쉽게 알 수 있을 것이다.
In the above description, the present invention has been described with reference to preferred embodiments, but the present invention is not necessarily limited thereto, and a person having ordinary skill in the art to which the present invention pertains can make various changes without departing from the technical spirit of the present invention. It will be readily appreciated that branch substitutions, modifications and variations are possible.

202 : 인터페이스 블록 204 : 상대 위치 획득 블록
206 : 탐색 구간 분할 블록 208 : 로컬 정보 수집 블록
210 : 통합 환경 지도 생성 블록 2102 : 특징점 추출 블록
2104 : 병합 매칭 블록 2106 : 지도 작성 블록
202: interface block 204: relative position acquisition block
206: Search section partition block 208: Local information collection block
210: integrated environment map generation block 2102: feature point extraction block
2104 merge matching block 2106: mapping block

Claims (20)

각 로봇 간의 상대 거리를 측정하여 상기 각 로봇 간의 상대 위치를 검출하는 과정과,
검출된 상대 위치에 기반으로 각 로봇별의 탐색 구역을 분할하는 과정과,
분할된 각 탐색 구역 정보를 대응하는 상기 각 로봇에게 전송하는 과정과,
상기 각 로봇으로부터 지도 생성을 위해 사용될 로컬 정보들을 각각 획득하는 과정과,
획득된 각 로컬 정보들을 융합하여 전체 환경 지도를 생성하는 과정
을 포함하는 군집 지능 로봇을 이용한 지도 구축 방법.
Detecting a relative position between each robot by measuring a relative distance between each robot;
Dividing the search area for each robot based on the detected relative position;
Transmitting each divided search zone information to the corresponding robots;
Obtaining local information to be used for map generation from each robot;
Process of creating a complete environment map by fusing each of the acquired local informations
Map construction method using a cluster intelligent robot including a.
제 1 항에 있어서,
상기 상대 거리는,
TWR(two way ranging) 기법을 통해 측정되는
군집 지능 로봇을 이용한 지도 구축 방법.
The method of claim 1,
The relative distance is,
Measured using two way ranging (TWR)
Map building method using cluster intelligent robot.
제 2 항에 있어서,
상기 상대 위치는,
상기 각 로봇 간의 상대 거리를 기반으로 생성한 상대적인 좌표 값인
군집 지능 로봇을 이용한 지도 구축 방법.
3. The method of claim 2,
The relative position is,
Relative coordinate values generated based on the relative distances between the robots.
Map building method using cluster intelligent robot.
제 1 항에 있어서,
분할된 각 탐색 구역 각각은,
인접하는 구역끼리 오버랩 지정되는
군집 지능 로봇을 이용한 지도 구축 방법.
The method of claim 1,
Each segmented search zone is
Adjacent sections are overlapped
Map building method using cluster intelligent robot.
제 1 항에 있어서,
상기 로컬 정보는,
초음파, 적외선, 레이저, 카메라, 오도메트리를 포함하는
군집 지능 로봇을 이용한 지도 구축 방법.
The method of claim 1,
The local information is,
Including ultrasonic, infrared, laser, camera, odometry
Map building method using cluster intelligent robot.
제 1 항에 있어서,
상기 전체 환경 지도를 생성하는 과정은,
각 로컬 정보로부터 특징점들을 추출하는 과정과,
상기 각 로컬 정보가 근처 로봇의 로컬 정보인지를 체크하는 과정과,
상기 근처 로봇의 정보일 때 해당 로봇간의 매칭을 수행하여 서로 일치하는 부분의 특징점들을 병합하는 과정과,
추출된 특징점들 및 병합된 특징점들을 이용하여 상기 전체 환경 지도를 작성하는 과정
을 포함하는 군집 지능 로봇을 이용한 지도 구축 방법.
The method of claim 1,
The process of generating the entire environment map,
Extracting feature points from each local information,
Checking whether each of the local information is local information of a nearby robot;
Merging the feature points of the corresponding portions by performing matching between the corresponding robots when the information of the nearby robots is provided;
Process of creating the entire environment map using the extracted feature points and the merged feature points
Map construction method using a cluster intelligent robot including a.
제 6 항에 있어서,
상기 특징점들의 추출은,
분리와 결합(split and merge) 알고리즘을 통해 수행되는
군집 지능 로봇을 이용한 지도 구축 방법.
The method according to claim 6,
Extraction of the feature points,
Performed through split and merge algorithms
Map building method using cluster intelligent robot.
제 6 항에 있어서,
상기 특징점들의 추출은,
SIRF(scale invarant feature transform) 알고리즘을 통해 수행되는
군집 지능 로봇을 이용한 지도 구축 방법.
The method according to claim 6,
Extraction of the feature points,
Is performed through a scale invarant feature transform (SIRF) algorithm.
Map building method using cluster intelligent robot.
제 7 항 또는 제 8 항에 있어서,
상기 특징점들은,
랜드 마크 또는 특정 패턴에 대한 특징점들인
군집 지능 로봇을 이용한 지도 구축 방법.
9. The method according to claim 7 or 8,
The feature points,
Feature points for a landmark or a specific pattern,
Map building method using cluster intelligent robot.
제 1 항에 있어서,
상기 전체 환경 지도는,
SLAM(simultaneous localization and mapping) 알고리즘을 이용하여 작성되는
군집 지능 로봇을 이용한 지도 구축 방법.
The method of claim 1,
The overall environment map,
Written using the SLAM (simultaneous localization and mapping) algorithm
Map building method using cluster intelligent robot.
각 로봇 간의 상대 위치를 검출하여 공유하는 상대 위치 획득 블록과,
상기 검출된 상대 위치를 기반으로 각 로봇별의 탐색 구역을 분할하는 탐색 구역 분할 블록과,
상기 각 로봇으로부터 지도 생성을 위해 사용될 로컬 정보들을 각각 획득하는 로컬 정보 수집 블록과,
획득된 각 로컬 정보들을 융합하여 전체 환경 지도를 생성하는 통합 환경 지도 생성 블록
을 포함하는 군집 지능 로봇을 이용한 지도 구축 장치.
A relative position acquisition block that detects and shares a relative position between each robot,
A search zone partitioning block for dividing a search zone for each robot based on the detected relative position;
A local information collection block for respectively obtaining local information to be used for map generation from each robot;
An integrated environment map generation block that fuses each of the acquired local information to generate a full environment map
Map building apparatus using a swarm intelligent robot including a.
제 11 항에 있어서,
상기 상대 위치 획득 블록은,
TWR(two way ranging) 기법을 통해 측정되는 상대 거리를 통해 상기 상대 위치를 검출하는
군집 지능 로봇을 이용한 지도 구축 장치.
The method of claim 11,
The relative position acquisition block,
Detecting the relative position through a relative distance measured through a two way ranging (TWR) technique
Map building device using cluster intelligent robot.
제 12 항에 있어서,
상기 상대 위치는,
상기 각 로봇 간의 상대 거리를 기반으로 생성한 상대적인 좌표 값인
군집 지능 로봇을 이용한 지도 구축 장치.
13. The method of claim 12,
The relative position is,
Relative coordinate values generated based on the relative distances between the robots.
Map building device using cluster intelligent robot.
제 11 항에 있어서,
상기 탐색 구역 분할 블록은,
인접하는 구역끼리 오버랩되도록 상기 각 탐색 구역을 지정하는
군집 지능 로봇을 이용한 지도 구축 장치.
The method of claim 11,
The search zone partition block,
Specifying each of the search zones so that adjacent zones overlap
Map building device using cluster intelligent robot.
제 11 항에 있어서,
상기 로컬 정보는,
초음파, 적외선, 레이저, 카메라, 오도메트리를 포함하는
군집 지능 로봇을 이용한 지도 구축 장치.
The method of claim 11,
The local information is,
Including ultrasonic, infrared, laser, camera, odometry
Map building device using cluster intelligent robot.
제 11 항에 있어서,
상기 통합 환경 지도 생성 블록은,
상기 각 로컬 정보로부터 특징점들을 추출하는 특징점 추출 블록과,
로컬 정보가 근처 로봇의 정보일 때 해당 로봇간의 매칭을 수행하여 서로 일치하는 부분의 특징점들을 병합하는 병합 매칭 블록과,
추출된 특징점들 및 병합된 특징점들을 이용하여 상기 전체 환경 지도를 작성하는 지도 작성 블록
을 포함하는 군집 지능 로봇을 이용한 지도 구축 장치.
The method of claim 11,
The integrated environment map generation block,
A feature point extraction block for extracting feature points from each local information;
A merge matching block that merges feature points of a matching part by performing matching between the corresponding robots when local information is information of nearby robots,
Mapping block for creating the entire environment map using the extracted feature points and the merged feature points
Map building apparatus using a swarm intelligent robot including a.
제 16 항에 있어서,
상기 특징점 추출 블록은,
분리와 결합(split and merge) 알고리즘을 통해 상기 특징점들을 추출하는
군집 지능 로봇을 이용한 지도 구축 장치.
17. The method of claim 16,
The feature point extraction block,
Extracting the feature points through a split and merge algorithm
Map building device using cluster intelligent robot.
제 16 항에 있어서,
상기 특징점 추출 블록은,
SIRF(scale invarant feature transform) 알고리즘을 통해 상기 특징점들을 추출하는
군집 지능 로봇을 이용한 지도 구축 장치.
17. The method of claim 16,
The feature point extraction block,
The feature points are extracted through a scale invarant feature transform (SIRF) algorithm.
Map building device using cluster intelligent robot.
제 17 항 또는 제 18 항에 있어서,
상기 특징점들은,
랜드 마크 또는 특정 패턴에 대한 특징점들인
군집 지능 로봇을 이용한 지도 구축 장치.
The method according to claim 17 or 18,
The feature points,
Feature points for a landmark or a specific pattern,
Map building device using cluster intelligent robot.
제 11 항에 있어서,
상기 통합 환경 지도 생성 블록은,
SLAM(simultaneous localization and mapping) 알고리즘을 이용하여 상기 전체 환경 지도를 생성하는
군집 지능 로봇을 이용한 지도 구축 장치.
The method of claim 11,
The integrated environment map generation block,
Generating the entire environment map using a SLAM (simultaneous localization and mapping) algorithm
Map building device using cluster intelligent robot.
KR1020110122262A 2011-11-22 2011-11-22 Method and apparatus for building map by using collective intelligent robots KR20130056586A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110122262A KR20130056586A (en) 2011-11-22 2011-11-22 Method and apparatus for building map by using collective intelligent robots
JP2012220206A JP2013109325A (en) 2011-11-22 2012-10-02 Map creation method using group of intelligent robots and device for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110122262A KR20130056586A (en) 2011-11-22 2011-11-22 Method and apparatus for building map by using collective intelligent robots

Publications (1)

Publication Number Publication Date
KR20130056586A true KR20130056586A (en) 2013-05-30

Family

ID=48664576

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110122262A KR20130056586A (en) 2011-11-22 2011-11-22 Method and apparatus for building map by using collective intelligent robots

Country Status (2)

Country Link
JP (1) JP2013109325A (en)
KR (1) KR20130056586A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150007808A (en) 2013-07-12 2015-01-21 인하대학교 산학협력단 Complex scaffold comprising nanofiber with nanoparticle to drug-delivery for artificial skin and filler, and method for preparing the same
KR101505129B1 (en) * 2013-08-19 2015-03-23 부경대학교 산학협력단 Method for location recognization using system for location recognization and mapping using laser scanner
KR20170088228A (en) * 2016-01-22 2017-08-01 경희대학교 산학협력단 Map building system and its method based on multi-robot localization
KR20180037855A (en) * 2016-10-05 2018-04-13 엘지전자 주식회사 Airport robot and airport robot system
KR20180125587A (en) 2016-04-25 2018-11-23 엘지전자 주식회사 Mobile Robot, Multiple Mobile Robot System and Map Learning Method of Mobile Robot
WO2020139029A1 (en) * 2018-12-28 2020-07-02 Lg Electronics Inc. Mobile robot
KR102177164B1 (en) 2019-05-28 2020-11-11 경북대학교 산학협력단 modular unit mobile robot system and automatic combination method therefor
CN112617672A (en) * 2020-12-16 2021-04-09 美的集团股份有限公司 Sweeping method and device of sweeping robot
KR20230079670A (en) 2021-11-29 2023-06-07 전진택 Path tracking device and method for agricultural self-driving robot.

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6762148B2 (en) * 2015-07-09 2020-09-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Map generation method, mobile robot and map generation system
CN105729474A (en) * 2016-04-26 2016-07-06 昆山易捷联控制系统研发科技有限公司 Intelligent carrying robot
JP7032062B2 (en) * 2017-06-02 2022-03-08 株式会社Ihi Point cloud data processing device, mobile robot, mobile robot system, and point cloud data processing method
KR102031348B1 (en) 2018-04-13 2019-11-08 주식회사 랜도르아키텍쳐 Autonomous Working System, Method and Computer Readable Recording Medium
CN109212540A (en) * 2018-09-12 2019-01-15 百度在线网络技术(北京)有限公司 Distance measuring method, device and readable storage medium storing program for executing based on laser radar system
JP7466144B2 (en) 2020-03-25 2024-04-12 Tis株式会社 PROGRAM, AUTONOMOUS MOBILE DEVICE MANAGEMENT DEVICE, MANAGEMENT METHOD AND MANAGEMENT SYSTEM
CN111813102B (en) * 2020-06-06 2023-11-21 浙江中力机械股份有限公司 Distributed autonomous robot environment map construction method
CN114383611A (en) * 2021-12-30 2022-04-22 华南智能机器人创新研究院 Multi-machine cooperative laser SLAM method, device and system for mobile robot

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150007808A (en) 2013-07-12 2015-01-21 인하대학교 산학협력단 Complex scaffold comprising nanofiber with nanoparticle to drug-delivery for artificial skin and filler, and method for preparing the same
KR101505129B1 (en) * 2013-08-19 2015-03-23 부경대학교 산학협력단 Method for location recognization using system for location recognization and mapping using laser scanner
KR20170088228A (en) * 2016-01-22 2017-08-01 경희대학교 산학협력단 Map building system and its method based on multi-robot localization
DE112017002156B4 (en) * 2016-04-25 2020-11-26 Lg Electronics Inc. MOBILE ROBOT, SYSTEM FOR MULTIPLE MOBILE ROBOTS, AND CARD LEARNING PROCEDURE FOR MOBILE ROBOTS
KR20180125587A (en) 2016-04-25 2018-11-23 엘지전자 주식회사 Mobile Robot, Multiple Mobile Robot System and Map Learning Method of Mobile Robot
DE112017002156T5 (en) 2016-04-25 2019-01-10 Lg Electronics Inc. MOBILE ROBOT, SYSTEM FOR MULTIPLE MOBILE ROBOTS, AND CARD PROCESSING FOR MOBILE ROBOTS
KR20180037855A (en) * 2016-10-05 2018-04-13 엘지전자 주식회사 Airport robot and airport robot system
KR20200087301A (en) * 2018-12-28 2020-07-21 엘지전자 주식회사 Moving robot
WO2020139029A1 (en) * 2018-12-28 2020-07-02 Lg Electronics Inc. Mobile robot
TWI739255B (en) * 2018-12-28 2021-09-11 南韓商Lg電子股份有限公司 Mobile robot
US20220061617A1 (en) * 2018-12-28 2022-03-03 Lg Electronics Inc. Mobile robot
KR102177164B1 (en) 2019-05-28 2020-11-11 경북대학교 산학협력단 modular unit mobile robot system and automatic combination method therefor
CN112617672A (en) * 2020-12-16 2021-04-09 美的集团股份有限公司 Sweeping method and device of sweeping robot
KR20230079670A (en) 2021-11-29 2023-06-07 전진택 Path tracking device and method for agricultural self-driving robot.

Also Published As

Publication number Publication date
JP2013109325A (en) 2013-06-06

Similar Documents

Publication Publication Date Title
KR20130056586A (en) Method and apparatus for building map by using collective intelligent robots
Li et al. Top 10 technologies for indoor positioning on construction sites
KR101948728B1 (en) Method and system for collecting data
EP3391166B1 (en) Autonomous visual navigation
Rivard et al. Ultrasonic relative positioning for multi-robot systems
KR101077967B1 (en) Apparatus and method for surveillance and tracking
JP2020021326A (en) Information processing method, information processing apparatus and program
AU2023254997A1 (en) Recharging Control Method of Desktop Robot
CN109084784B (en) Method for creating a digital map for an automated vehicle
CN103926925A (en) Improved VFH algorithm-based positioning and obstacle avoidance method and robot
KR20180038879A (en) Robot for airport and method thereof
CN109917788A (en) A kind of control method and device of Robot wall walking
EP3205127B1 (en) A method of setting up a tracking system
KR20210116415A (en) LiDAR system design to mitigate lidar crosstalk
JP6584048B2 (en) Route generation apparatus and route generation method
WO2017167246A1 (en) Data processing method and device, and storage medium
KR20210055429A (en) Apparatus and method for providing indoor location information
CN106325268A (en) Mobile control device and mobile control method
JP2019075037A (en) Information processing apparatus, information processing method, and program
US11898869B2 (en) Multi-agent map generation
JP2014145697A (en) Radar control device
JP2013073250A (en) Self position estimation device, method, and program
JP7062138B2 (en) Information processing equipment, information processing method, and information processing program
KR102068688B1 (en) location recognition system of multi-robot
US20210263531A1 (en) Mapping and simultaneous localisation of an object in an interior environment

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination