KR102162439B1 - Supporting apparatus for autonomous mobile, and control method thereof - Google Patents
Supporting apparatus for autonomous mobile, and control method thereof Download PDFInfo
- Publication number
- KR102162439B1 KR102162439B1 KR1020190169018A KR20190169018A KR102162439B1 KR 102162439 B1 KR102162439 B1 KR 102162439B1 KR 1020190169018 A KR1020190169018 A KR 1020190169018A KR 20190169018 A KR20190169018 A KR 20190169018A KR 102162439 B1 KR102162439 B1 KR 102162439B1
- Authority
- KR
- South Korea
- Prior art keywords
- map
- lidar sensor
- coordinates
- recognition
- camera
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
본 발명은, 자율이동로봇(AMR, Autonomous Mobile Robot)에 관한 것으로서, 라이다(LIDAR) 센서 이외에 360카메라를 추가 적용하여 자율이동로봇의 위치 인식 및 주변 환경 관측을 지원하기 위한 방안에 관한 것이다.The present invention relates to an Autonomous Mobile Robot (AMR), and to a method for supporting position recognition and observation of the surrounding environment of an autonomous mobile robot by additionally applying a 360 camera in addition to a LIDAR sensor.
자율이동로봇(AMR, Autonomous Mobile Robot)은 산업분야에 널리 사용되고 발전되어온 로봇(Robot)이 응용 발전된 것으로, 근래에는 관공서, 오피스, 각 가정 등에 널리 사용되고 있다.Autonomous Mobile Robot (AMR) is an application developed by a robot that has been widely used and developed in the industrial field, and in recent years, it is widely used in government offices, offices, and homes.
다만, 지금까지의 자율이동로봇은 단순한 작업을 반복 수행하는 기능에 한정되는 것이 대부분인 관계로, 자율이동로봇의 작업공간은 매우 제한적이며, 특정한 목적의 작업을 수행하게 제작되어 그 활용의 범위가 매우 한정되는 단점이 있다.However, since most of the autonomous mobile robots so far are limited to functions that perform simple tasks repeatedly, the work space of autonomous mobile robots is very limited, and the range of use is very limited because they are designed to perform tasks for specific purposes. There are limited drawbacks.
이러한 단점을 극복하기 위해, 미지의 환경에서 사전지식 없이 스스로 그 환경에 대처할 수 있는 기능이 탑재된 자율이동로봇이 출시되고 있으며, 이와 같은 다양한 기능을 갖는 자율이동로봇은 이동이 가능하기 때문에 작업영역이 넓으며, 특정 기능을 추가하여 보다 많은 서비스 분야에 적용할 수 있다.In order to overcome these shortcomings, autonomous mobile robots equipped with functions that can cope with the environment by themselves without prior knowledge in unknown environments are being released, and autonomous mobile robots with such various functions can move, so the work area It is wide and can be applied to more service fields by adding specific functions.
한편, 이처럼 진일보된 자율이동로봇은 자율이동이 가장 주된 기능으로서 이를 위해선 현재 위치를 인지하는 것이 필수적이다.On the other hand, for the advanced autonomous mobile robot, autonomous movement is the main function, and for this purpose, it is essential to recognize the current location.
이와 관련하여, 자율이동로봇에서는 라이다(LIDAR) 센서를 이용하여 지도를 작성하고 이를 토대로 현재 위치를 파악하는 SLAM(Simultaneous Localization And Mapping) 방식이 적용되는 것이 일반적이었다.In this regard, it was common for autonomous mobile robots to use a LIDAR sensor to create a map and to use the SLAM (Simultaneous Localization And Mapping) method to determine the current location based on this.
그러나, 이처럼 라이다 센서만을 이용하는 SLAM 방식은 주변 환경이 조금만 변해도 지도를 다시 작성해야 하며, 이로 인해 지도 작성을 위한 학습에 과도한 시간 및 비용이 소요되는 문제점이 있다.However, in the SLAM method using only the LiDAR sensor, the map needs to be rewritten even if the surrounding environment changes slightly, and thus, there is a problem that excessive time and cost are required for learning to create a map.
이에, 본 발명에서는, 라이다 센서만을 이용한 SLAM 방식이 가지는 위 문제점을 해결할 수 있는 새로운 방안을 제안하고자 한다.Accordingly, in the present invention, a new method for solving the above problem of the SLAM method using only the lidar sensor is proposed.
본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명에서 도달하고자 하는 목적은, 라이다(LIDAR) 센서 이외에 360카메라를 추가 적용하여 자율이동로봇의 위치 인식 및 주변 환경 관측을 효과적으로 지원하는데 있다.The present invention was created in view of the above circumstances, and an object to be reached in the present invention is to effectively support the position recognition of the autonomous mobile robot and observation of the surrounding environment by additionally applying a 360 camera in addition to the LIDAR sensor. .
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 자율이동지원장치는, 360카메라의 직선왜곡(rectilinear distortion) 특성에 따라 라이다(LIDAR) 센서를 통해 인식된 직선 좌표를 360카메라에서의 곡선 좌표로 변환하기 위한 매핑테이블을 생성하는 생성부; 관측 영역에 대해 상기 라이다 센서를 이용하여 작성된 제1객체인식지도가 존재하는 경우, 상기 매핑테이블을 기초로, 상기 제1객체인식지도 내 좌표를 360카메라에서의 좌표로 변환하여 제2객체인식지도를 생성하는 변환부; 및 상기 라이다 센서를 통해서 관측되는 상기 제1객체인식지도 내 자율이동로봇의 위치를 상기 제2객체인식지도 내 위치로 매칭시켜, 상기 자율이동로봇으로 하여금 상기 제1객체인식지도 및 상기 제2객체인식지도 중 적어도 하나를 참조로 상기 관측 영역 내 위치를 인식할 수 있도록 하는 매칭부를 포함하는 것을 특징으로 한다.In an autonomous movement support apparatus according to an embodiment of the present invention for achieving the above object, the linear coordinates recognized through the LIDAR sensor according to the rectilinear distortion characteristic of the 360 camera are converted to the curve in the 360 camera. A generator for generating a mapping table for converting to coordinates; When there is a first object-type map created using the lidar sensor for the observation area, based on the mapping table, the coordinates in the first object-recognition map are converted into coordinates from 360 cameras, A conversion unit for generating a map; And by matching the position of the autonomous mobile robot observed through the lidar sensor in the first object-type map with the location in the second object-type map, the autonomous mobile robot causes the first object-type map and the second And a matching unit configured to recognize a location within the observation area with reference to at least one of the object recognition maps.
구체적으로, 상기 생성부는, 상기 라이다 센서를 중심으로 한 양측 직선 상에 객체를 배치한 테스트 영역에서, 상기 라이다 센서에 대해 설정 각도로 배치된 각 객체의 직선 좌표를 상기 360카메라가 촬영한 상기 테스트 영역 내 동일한 각 객체의 곡선 좌표로 매핑시킬 수 있다.Specifically, the generation unit, in a test area in which objects are arranged on both straight lines centered on the lidar sensor, the 360 camera captures the linear coordinates of each object arranged at a set angle with respect to the lidar sensor. It can be mapped to the curve coordinates of the same object in the test area.
구체적으로, 상기 생성부는, 상기 라이다 센서에 대해 설정 각도의 간격으로 하나의 직선 상에 이웃하게 배치된 두 객체 사이의 눈금 별 직선 좌표를, 상기 360카메라가 촬영한 상기 텍스트 영역 내 동일한 두 객체 사이의 각각의 곡선 좌표로 매핑시킬 수 있다.Specifically, the generation unit calculates linear coordinates for each scale between two objects adjacent to each other on one straight line at intervals of a set angle with respect to the lidar sensor, and two identical objects in the text area photographed by the 360 camera. It can be mapped to the coordinates of each curve in between.
구체적으로, 상기 자율이동지원장치는, 상기 관측 영역 내 특정 객체의 위치 변화가 관측되는 경우, 상기 특정 객체를 제외한 나머지 객체의 위치 변화를 기초로 상기 관측 영역에 대한 지도의 부분 갱신 또는 재 생성을 판별하는 판별부를 더 포함할 수 있다.Specifically, when a change in the location of a specific object in the observation area is observed, the autonomous movement support device performs partial update or regeneration of the map for the observation area based on the change in the location of other objects except the specific object. It may further include a determining unit to determine.
구체적으로, 상기 판별부는, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 상기 나머지 객체의 위치가 상기 제1객체인식지도 및 상기 제2객체인식지도 내 객체의 좌표와 일치되고, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 위치 간의 차이가 기 설정된 오차범위 이내인 경우, 상기 제1객체인식지도 및 상기 제2객체인식지도에 대해 상기 특정 객체의 좌표만을 갱신하는 것으로 판별하며, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 상기 나머지 객체의 위치가 상기 제1객체인식지도 및 상기 제2객체인식지도 내 객체의 좌표와 일치되지 않거나, 기 설정된 오차범위를 초과하는 경우에는, 상기 제1객체인식지도 및 상기 제2객체인식지도를 재 생성하는 것으로 판별할 수 있다.Specifically, the determination unit, the position of the remaining object observed using each of the lidar sensor and the 360 camera coincides with the coordinates of the object in the first object recognition map and the second object recognition map, and the If the difference between the position observed using each of the sensor and the 360 camera is within a preset error range, it is determined that only the coordinates of the specific object are updated with respect to the first object recognition map and the second object recognition map, and , The position of the remaining object observed using each of the lidar sensor and the 360 camera does not match the coordinates of the object in the first object recognition map and the second object recognition map, or exceeds a preset error range In this case, it can be determined by regenerating the first object recognition map and the second object recognition map.
구체적으로, 상기 오차범위는, 상기 제1객체인식지도, 및 상기 제2객체인식지도가 존재하는 테스트 영역에 테스트 객체를 임의로 배치하여, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 상기 테스트 객체의 위치 차이를 기초로 설정될 수 있다.Specifically, the error range is determined by randomly arranging a test object in a test area in which the first object-recognition map and the second object-recognition map exist, and the observed using each of the lidar sensor and the 360 camera. It can be set based on the position difference of the test object.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 자율이동지원장치의 동작 방법은, 360카메라의 직선왜곡(rectilinear distortion) 특성에 따라 라이다(LIDAR) 센서를 통해 인식된 직선 좌표를 360카메라에서의 곡선 좌표로 변환하기 위한 매핑테이블을 생성하는 생성단계; 관측 영역에 대해 상기 라이다 센서를 이용하여 작성된 제1객체인식지도가 존재하는 경우, 상기 매핑테이블을 기초로, 상기 제1객체인식지도 내 좌표를 360카메라에서의 좌표로 변환하여 제2객체인식지도를 생성하는 변환단계; 및 상기 라이다 센서를 통해서 관측되는 상기 제1객체인식지도 내 자율이동로봇의 위치를 상기 제2객체인식지도 내 위치로 매칭시켜, 상기 자율이동로봇으로 하여금 상기 제1객체인식지도 및 상기 제2객체인식지도 중 적어도 하나를 참조로 상기 관측 영역 내 위치를 인식할 수 있도록 하는 매칭단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, a method of operating an autonomous movement support device according to an embodiment of the present invention includes a linear coordinate recognized by a LIDAR sensor according to a rectilinear distortion characteristic of a 360 camera. A generating step of generating a mapping table for converting to curve coordinates in When there is a first object-type map created using the lidar sensor for the observation area, based on the mapping table, the coordinates in the first object-recognition map are converted into coordinates from 360 cameras, A conversion step of generating a map; And by matching the position of the autonomous mobile robot observed through the lidar sensor in the first object-type map with the location in the second object-type map, the autonomous mobile robot causes the first object-type map and the second And a matching step of recognizing a location within the observation area with reference to at least one of the object recognition maps.
구체적으로, 상기 생성단계는, 상기 라이다 센서를 중심으로 한 양측 직선 상에 객체를 배치한 테스트 영역에서, 상기 라이다 센서에 대해 설정 각도로 배치된 각 객체의 직선 좌표를 상기 360카메라가 촬영한 상기 테스트 영역 내 동일한 각 객체의 곡선 좌표로 매핑시킬 수 있다.Specifically, in the generation step, the 360 camera photographs the linear coordinates of each object arranged at a set angle with respect to the lidar sensor in a test area in which objects are arranged on both straight lines centered on the lidar sensor. It can be mapped to the curve coordinates of each object in the same test area.
구체적으로, 상기 생성단계는, 상기 라이다 센서에 대해 설정 각도의 간격으로 하나의 직선 상에 이웃하게 배치된 두 객체 사이의 눈금 별 직선 좌표를, 상기 360카메라가 촬영한 상기 텍스트 영역 내 동일한 두 객체 사이의 각각의 곡선 좌표로 매핑시킬 수 있다.Specifically, in the generating step, the linear coordinates for each scale between two objects arranged adjacent to each other on one straight line at intervals of a set angle with respect to the LiDAR sensor, and the same two in the text area photographed by the 360 camera. You can map the coordinates of each curve between objects.
구체적으로, 상기 방법은, 상기 관측 영역 내 특정 객체의 위치 변화가 관측되는 경우, 상기 특정 객체를 제외한 나머지 객체의 위치 변화를 기초로 상기 관측 영역에 대한 지도의 부분 갱신 또는 재 생성을 판별하는 판별단계를 더 포함할 수 있다.Specifically, the method, when a change in the location of a specific object in the observation area is observed, discriminating a partial update or regeneration of the map for the observation area based on the change in the location of other objects excluding the specific object It may further include a step.
구체적으로, 상기 판별단계는, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 상기 나머지 객체의 위치가 상기 제1객체인식지도 및 상기 제2객체인식지도 내 객체의 좌표와 일치되고, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 위치 간의 차이가 기 설정된 오차범위 이내인 경우, 상기 제1객체인식지도 및 상기 제2객체인식지도에 대해 상기 특정 객체의 좌표만을 갱신하는 것으로 판별하며, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 상기 나머지 객체의 위치가 상기 제1객체인식지도 및 상기 제2객체인식지도 내 객체의 좌표와 일치되지 않거나, 기 설정된 오차범위를 초과하는 경우에는, 상기 제1객체인식지도 및 상기 제2객체인식지도를 재 생성하는 것으로 판별할 수 있다.Specifically, in the determining step, the position of the remaining object observed using each of the LiDAR sensor and the 360 camera coincides with the coordinates of the object in the first object recognition map and the second object recognition map, and the When the difference between the positions observed using the lidar sensor and each of the 360 cameras is within a preset error range, it is determined that only the coordinates of the specific object are updated with respect to the first object recognition map and the second object recognition map. And, the position of the remaining object observed using each of the lidar sensor and the 360 camera does not coincide with the coordinates of the object in the first object-recognition map and the second object-recognition map, or exceeds a preset error range If so, it can be determined by regenerating the first object recognition map and the second object recognition map.
구체적으로, 상기 오차범위는, 상기 제1객체인식지도, 및 상기 제2객체인식지도가 존재하는 테스트 영역에 테스트 객체를 임의로 배치하여, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 상기 테스트 객체의 위치 차이를 기초로 설정될 수 있다.Specifically, the error range is determined by randomly arranging a test object in a test area in which the first object-recognition map and the second object-recognition map exist, and the observed using each of the lidar sensor and the 360 camera. It can be set based on the position difference of the test object.
이에, 본 발명의 자율이동지원장치 및 자율이동지원장치의 동작 방법에 의하면, 라이다(LIDAR) 센서를 이용하여 작성된 지도(제1객체인식지도)를 360카메라를 위한 지도(제2객체인식지도)로 변환하여 라이다 센서 이외에 360카메라를 탑재한 자율이동로봇의 위치 인식 및 주변 환경 관측을 지원함으로써, 자율이동로봇 위치 인식의 정확도 제고할 수 있으며, 또한, 자율이동로봇의 주변 환경 변동 시 라이다(LIDAR) 센서를 이용하여 작성된 지도(제1객체인식지도)와 360카메라를 위한 지도(제2객체인식지도)를 활용한 크로스 체크를 통해 동일한 지도의 불필요한 반복 생성(작성)을 방지할 수 있다.Accordingly, according to the operation method of the autonomous movement support device and the autonomous movement support device of the present invention, a map (a first object-type map) created using a LIDAR sensor is a map for a 360 camera (a second object-type map). ) To recognize the location of the autonomous mobile robot equipped with a 360 camera in addition to the lidar sensor and observe the surrounding environment, thereby improving the accuracy of the autonomous mobile robot's position recognition. It is possible to prevent unnecessary repetitive generation (creation) of the same map through cross-check using maps created using the LIDAR sensor (first object map) and map for 360 cameras (second object map). have.
도 1은 본 발명의 일 실시예에 따른 자율 이동 지원 환경을 설명하기 위한 예시도.
도 2는 본 발명의 일 실시예에 따른 자율이동지원장치의 개략적인 구성도.
도 3은 본 발명의 일 실시예에 따른 매핑테이블을 설명하기 위한 예시도.
도 4는 본 발명의 일 실시예에 따른 관측 영역 내 객체의 위치 변화를 설명하기 위한 예시도.
도 5 내지 도 7은 본 발명의 일 실시예에 따른 자율이동지원장치의 동작 방법을 설명하기 위한 순서도.1 is an exemplary view for explaining an autonomous movement support environment according to an embodiment of the present invention.
2 is a schematic configuration diagram of an autonomous movement support device according to an embodiment of the present invention.
3 is an exemplary diagram for explaining a mapping table according to an embodiment of the present invention.
4 is an exemplary view for explaining a change in a position of an object in an observation area according to an embodiment of the present invention.
5 to 7 are flow charts for explaining a method of operating an autonomous movement support device according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 자율 이동 지원 환경을 보여주고 있다.1 shows an environment for supporting autonomous movement according to an embodiment of the present invention.
본 발명의 일 실시예에서는 주변 환경에 대처할 수 있는 기능이 탑재된 자율이동로봇(1)의 자율이동을 지원하기 위한 기술을 다룬다.In one embodiment of the present invention, a technology for supporting autonomous movement of the autonomous
이러한, 자율이동로봇(1)에는 라이다(LIDAR) 센서가 탑재되며, 이를 토대로 현재 위치를 파악하는 SLAM(Simultaneous Localization And Mapping) 방식이 적용될 수 있다.The autonomous
이처럼, 라이다 센서를 이용하는 SLAM 방식에서는, 라이다 센서를 통해 주변 환경을 인식 및 학습하여 지도를 작성하여, 자율이동로봇(1)으로 하여금 작성된 지도를 참조로 영역 내 위치 인식 및 객체를 관측할 수 있도록 지원할 수 있다.In this way, in the SLAM method using the LiDAR sensor, the LIDAR sensor recognizes and learns the surrounding environment to create a map, so that the autonomous
헌데, 라이다 센서를 이용하는 SLAM 방식에서는 주변 환경이 조금만 변해도 지도를 다시 작성하는 것이 요구되며, 이로 인해 지도 작성을 위한 학습에 과도한 시간 및 비용이 소요되는 문제점이 있다.However, in the SLAM method using the lidar sensor, it is required to rewrite the map even if the surrounding environment changes slightly, and thus, there is a problem that excessive time and cost are required for learning for the map creation.
이에, 본 발명의 일 실시예에서는, 시야각(FOV, Field of View)이 크고 실시간성이 보장되는 5G 기반 360카메라를 위치 인식 및 주변 환경 관측을 위해 적용하게 된다.Accordingly, in an embodiment of the present invention, a 5G-based 360 camera having a large field of view (FOV) and guaranteed real-time is applied for location recognition and observation of the surrounding environment.
따라서, 본 발명의 일 실시예에 따른 자율이동로봇(1)에는 라이다 센서 이외에 360카메라가 추가 탑재된다.Therefore, in addition to the lidar sensor, the autonomous
한편, 본 발명의 일 실시예에 따른 자율 이동 지원 환경에서는, 이처럼, 라이다(LIDAR) 센서 이외에 360카메라를 추가 탑재하게 되는 자율이동로봇(1)의 위치 인식 및 주변 환경 관측을 지원하기 위한 구성인 자율이동지원장치(100)를 포함한다.On the other hand, in the autonomous movement support environment according to an embodiment of the present invention, as described above, a configuration for supporting position recognition and observation of the surrounding environment of the autonomous
이러한, 자율이동지원장치(100)는 자율이동로봇(1)과 일체화된 컴퓨팅 디바이스 형태로 구현되거나, 자율이동로봇(1)과는 별도의 컴퓨팅 디바이스 또는 별도의 서버의 형태로 구현될 수 있다.The autonomous
결국, 본 발명의 일 실시예에 따른 자율 이동 지원 환경에서는 전술한 구성을 통해 라이다 센서 이외에 360카메라를 위치 인식에 추가 적용하여 자율이동로봇(1)의 위치 인식 및 주변 환경 관측을 효과적으로 지원할 수 있는데, 이하에서는 이를 실현하기 위한 자율이동지원장치(100)의 구성에 대해 보다 구체적인 설명을 이어 가기로 한다.After all, in the autonomous movement support environment according to an embodiment of the present invention, a 360 camera in addition to the lidar sensor is additionally applied to position recognition through the above-described configuration to effectively support the position recognition of the autonomous
도 2는 본 발명의 일 실시예에 따른 자율이동지원장치(100)의 구성을 개략적으로 보여주고 있다.2 schematically shows the configuration of the autonomous
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 자율이동지원장치(100)는 매핑테이블을 생성하는 생성부(10), 좌표를 변환하는 변환부(20), 위치를 매칭시키는 매칭부(30)를 포함하는 구성을 가질 수 있다.As shown in Fig. 2, the autonomous
또한, 본 발명의 일 실시예에 따른 자율이동지원장치(100)는 전술한 구성 이외에, 지도의 갱신 또는 재 생성(작성)을 판별하는 판별부(40)를 더 포함할 수 있다.In addition, the autonomous
이러한, 자율이동지원장치(100)의 전체 구성 내지는 적어도 일부의 구성은 하드웨어 모듈 형태 또는 소프트웨어 모듈 형태로 구현되거나, 내지는 하드웨어 모듈과 소프트웨어 모듈이 조합된 형태로도 구현될 수 있다.The entire configuration or at least a portion of the configuration of the autonomous
여기서, 소프트웨어 모듈이란, 예컨대, 자율이동지원장치(100) 내에서 연산을 처리하는 프로세서에 의해 실행되는 명령어로 이해될 수 있으며, 이러한 명령어는 자율이동지원장치(100) 내 별도의 메모리에 탑재된 형태를 가질 수 있다.Here, the software module may be understood as, for example, an instruction executed by a processor that processes an operation in the autonomous
한편, 본 발명의 일 실시예에 따른 자율이동지원장치(100)는 자율이동로봇(1)과는 별도의 컴퓨팅 디바이스 또는 별도의 서버 형태로 구현되는 경우, 자율이동로봇(1)과의 실질적인 통신 기능을 담당하는 RF 모듈인 통신부(50)를 더 포함하는 구성을 가질 수 있다.On the other hand, when the autonomous movement support
이상 본 발명의 일 실시예에 따른 자율이동지원장치(100)는 전술한 구성을 통해 라이다 센서 이외에 360카메라를 위치 인식에 추가 적용하여 자율이동로봇(1)의 위치 인식 및 주변 환경 관측을 효과적으로 지원할 수 있는데, 이하에서는 이를 실현하기 위한 자율이동지원장치(100) 내 각 구성에 대해 보다 구체적으로 설명하기로 한다.As described above, the autonomous movement support
생성부(10)는 지도 변환을 위한 매핑테이블을 생성하는 기능을 수행한다.The
보다 구체적으로, 생성부(10)는 라이다 센서와 360카메라 간 지도 변환을 위한 매핑테이블을 생성하게 된다.More specifically, the
이하에서 서술되지만, 본 발명의 일 실시예에서는 360카메라를 이용한 위치 인식을 위해 라이다 센서를 이용하여 작성한 지도(이하, 제1객체인식지도)를 변환하여 360카메라를 위한 지도(이하, 제2객체인식지도)를 생성하는 방식을 채택하게 된다.Although described below, in an embodiment of the present invention, a map created using a lidar sensor (hereinafter, a first object-recognition map) is converted to recognize a location using a 360 camera, and the map for the 360 camera (hereinafter, referred to as the second Object recognition map) is created.
이를 위해선, 제1객체인식지도 내 좌표를 360카메라에서의 좌표로 변환할 필요가 있으며, 이러한 좌표 변환을 위해선 매핑테이블이 요구된다.To this end, it is necessary to convert coordinates in the first object-type map into coordinates at 360 cameras, and a mapping table is required for such coordinate conversion.
즉, 360카메라의 경우, 어안렌즈를 사용함에 따라 직선이 곡선으로 보이는 직선왜곡(rectilinear distortion) 특성을 가지게 되며, 이로 인해 라이다 센서를 통해 인식된 직선 좌표를 360카메라의 곡선 좌표로 변환하기 위해서는 어안렌즈의 직선왜곡 특성을 고려한 직선 좌표 별 매핑값이 기록된 매핑테이블이 요구되는 것이다.That is, in the case of a 360 camera, as a fisheye lens is used, a straight line has a characteristic of rectilinear distortion that looks like a curve, and for this reason, in order to convert the linear coordinates recognized through the lidar sensor into the curved coordinates of the 360 camera The mapping table in which the mapping values for each linear coordinate considering the linear distortion characteristics of the fisheye lens are recorded is required.
이를 위해, 생성부(10)는 라이다 센서를 중심으로 한 양측 직선 상에 객체를 배치한 테스트 영역에서, 라이다 센서에 대해 설정 각도(예: 0°, 45°, 135°, 및 180°)로 배치된 각 객체의 직선 좌표를 상기 360카메라가 촬영한 상기 테스트 영역 내 동일한 각 객체의 곡선 좌표로 매핑시키는 방식을 통해 매핑테이블의 매핑값을 기록한다.To this end, the
예를 들어, 도 3 (a)에서와 같이, 테스트 영역에서 라이다 센서에 대해 각각 0°와 180°의 위치에 객체 A와, D를 배치시키고, 객체 A와, D의 직선 좌표를 도 3 (B)에서와 같이, 360카메라가 촬영한 테스트 영역 내 동일한 각 객체 A'와, D'의 곡선 좌표로 매핑시킬 수 있다.For example, as shown in FIG. 3 (a), objects A and D are placed at positions of 0° and 180° with respect to the lidar sensor in the test area, and linear coordinates of objects A and D are shown in FIG. 3 As in (B), the same object A'and D'in the test area captured by the 360 camera can be mapped to the curved coordinates.
또한, 테스트 영역에서 라이다 센서의 위치에 대해 0°와 180°에 위치한의 객체 A와, D에 대한 곡선 좌표의 매핑이 완료되면, 도 3 (a)에서와 같이, 테스트 영역에서 라이다 센서에 대해 45°와 135°의 위치에 객체 B와, C를 배치시켜, 객체 B와, C의 직선 좌표를 도 3 (B)에서와 같이, 360카메라가 촬영한 테스트 영역 내 동일한 각 객체 B'와, C'의 곡선 좌표로 매핑시킬 수 있다.In addition, when the mapping of the curve coordinates for objects A and D located at 0° and 180° with respect to the position of the lidar sensor in the test area is completed, as shown in FIG. 3(a), the lidar sensor in the test area Objects B and C are placed at positions 45° and 135° for each of the same objects B'in the test area captured by the 360 camera, as shown in FIG. 3(B), by placing the objects B and C. Wow, it can be mapped to C'curve coordinates.
또한, 생성부(10)는 라이다 센서에 대해 설정 각도(예: 0°, 45°, 135°, 및 180°)로 배치된 각 객체에 대한 곡선 좌표로의 매핑이 완료되면, 라이다 센서에 대해 설정 각도의 간격으로 하나의 직선 상에 이웃하게 배치된 두 객체 사이의 눈금 별 직선 좌표를, 360카메라가 촬영한 텍스트 영역 내 동일한 두 객체 사이의 각각의 곡선 좌표로 추가 매핑시키는 방식을 통해서 매핑테이블의 매핑값 기록을 완료할 수 있다.In addition, when the mapping to the curve coordinates for each object arranged at a set angle (eg, 0°, 45°, 135°, and 180°) with respect to the LiDAR sensor is completed, the
예를 들어, 앞서 예시한 도 3 (a)에서와 같이, 라이다 센서에 대해 45°의 간격으로 하나의 직선 상에 이웃하게 배치된 두 객체 A와, B 사이를 1°씩 구분하는 눈금(S)을 배치시키고, 이러한 눈금(S)에 의해 구분되는 각 지점의 직선 좌표를 앞서 예시한 도 3 (B)에서와 같이 360카메라가 촬영한 테스트 영역 내 동일한 각 객체 A'와, B' 사이의 눈금(S')에 의해 1°씩 구분되는 각 지점의 곡선 좌표로 매핑시킬 수 있는 것이다.For example, as illustrated in FIG. 3 (a) illustrated above, a scale that divides the lidar sensor by 1° between two objects A and B arranged adjacent to each other on a straight line at an interval of 45° ( S) is placed, and the linear coordinates of each point separated by this scale (S) are shown between the same objects A'and B'in the test area taken by the 360 camera as in Fig. 3 (B) exemplified above. It can be mapped to the curve coordinates of each point separated by 1° by the scale (S') of.
변환부(20)는 제1객체인식지도를 제2객체인식지도로 변환하는 기능을 수해한다.The
보다 구체적으로, 변환부(20)는 관측 영역에 대해 라이다 센서를 이용하여 작성된 제1객체인식지도가 존재하는 경우, 제1객체인식지도를 360카메라를 위한 제2객체인식지도로 변환하게 된다.More specifically, the
이때, 변환부(20)는 제1객체인식지도 내 직선 좌표를 전술한 매핑테이블 내 매핑값을 이용하여 360카메라에서의 곡선 좌표로 변환함으로써, 360카메라를 위한 제2객체인식지도를 생성할 수 있다.At this time, the
매칭부(30)는 자율이동로봇(1)의 위치를 매칭시키는 기능을 수행한다.The matching
보다 구체적으로, 매칭부(30)는 360카메라를 위한 제2객체인식지도가 생성되면, 제1객체인식지도 내 자율이동로봇(1)의 위치를 제2객체인식지도 내 위치로 매칭시키게 된다.More specifically, when a second object-recognized map for 360 cameras is generated, the matching
이때, 매칭부(30)는 라이다 센서를 통해서 관측되는 제1객체인식지도 내 자율이동로봇(1)의 위치를 매핑테이블을 참조로 제2객체인식지도 내 위치로 매칭시킴으로써, 자율이동로봇(1)으로 하여금 제1객체인식지도 및 제2객체인식지도 중 적어도 하나를 참조로 관측 영역 내 위치를 인식하고, 주변 환경을 관측할 수 있도록 지원할 수 있다.At this time, the matching
한편, 본 발명의 일 실시예에는 제1객체인식지도 내 자율이동로봇(1)의 위치를 제2객체인식지도 내 위치로 매칭시켜 관측 영역 내 위치를 인식하고, 주변 환경을 관측을 지원하는 과정에서, 예컨대, 도 4에 도시된 바와 같이 관측 영역 내 특정 객체(b-b')의 위치 변화가 관측되는 경우를 고려할 수 있다.Meanwhile, in an embodiment of the present invention, a process of recognizing the location in the observation area by matching the location of the autonomous
이처럼, 관측 영역 내 특정 객체의 위치 변화가 관측되는 경우 본 발명의 일 실시예에서는, 관측 영역에 대해 기 생성(작성)된 제1객체인식지도와 제2객체인식지도를 부분 갱신하거나, 혹은 재 생성(작성)이 필요한지 여부를 판별할 필요가 있다.As described above, when a change in the position of a specific object in the observation area is observed, in an embodiment of the present invention, the first object-recognition map and the second object-recognition map previously created (created) for the observation area are partially updated, or It is necessary to determine whether or not generation (creation) is necessary.
이에, 판별부(40)는 관측 영역에 대한 지도 갱신 또는 재 생성(작성)을 판별하는 기능을 수행한다.Accordingly, the
보다 구체적으로, 판별부(40)는 관측 영역 내 특정 객체의 위치 변화가 관측되는 경우, 해당 객체를 제외한 나머지 객체의 위치 변화를 기초로 관측 영역에 대한 지도의 부분 갱신 또는 재 생성을 판별하게 된다.More specifically, when a change in the location of a specific object in the observation area is observed, the
이때, 판별부(40)는 라이다 센서 및 360카메라 각각을 이용하여 나머지 객체의 위치가 제1객체인식지도 및 제2객체인식지도 내 객체의 좌표와 일치되고, 또한 라이다 센서 및 360카메라 각각을 이용하여 관측된 위치 간의 차이가 기 설정된 오차범위 이내인 경우, 제1객체인식지도 및 상기 제2객체인식지도에 대해 위치 변화가 관측된 특정 객체의 좌표만을 갱신하는 것으로 판별할 수 있다.At this time, the
여기서, 나머지 객체의 위치가 제1객체인식지도 및 제2객체인식지도 내 객체의 좌표와 일치된다는 것은, 앞서 예시한 도 4에서 위치 변화가 관측된 특정 객체(b-b')를 제외한 나머지 객체(a-a', c-c', d-d')의 위치 변화가 관측되지 않으며, 나머지 객체(a-a', c-c', d-d') 중 적어도 일부 객체의 위치 변화가 일부 관측된다 하더라도 그 위치 변화의 정도가 전체 비율에서 임계치(%) 이하인 것을 의미할 수 있다.Here, the fact that the location of the remaining objects coincides with the coordinates of the objects in the first object-recognition map and the second object-recognition map, except for the specific object (b-b') where the position change is observed in FIG. The position change of (a-a', c-c', d-d') is not observed, and the position change of at least some of the remaining objects (a-a', c-c', d-d') Even if some are observed, it may mean that the degree of the position change is less than or equal to the critical value (%) in the total ratio.
반면, 판별부(40)는 라이다 센서 및 360카메라 각각을 이용하여 관측된 나머지 객체의 위치가 제1객체인식지도 및 상기 제2객체인식지도 내 객체의 좌표와 일치되지 않거나, 또는 라이다 센서 및 360카메라 각각을 이용하여 관측된 위치 간의 차이가 기 설정된 오차범위를 초과하는 경우에는, 제1객체인식지도 및 제2객체인식지도를 재 생성하는 것으로 판별할 수 있다.On the other hand, the
여기서, 나머지 객체의 위치가 제1객체인식지도 및 제2객체인식지도 내 객체의 좌표로 변동된다는 것은, 앞서 예시한 도 4에서 위치 변화가 관측된 특정 객체(b-b')를 제외한 나머지 객체(a-a', c-c', d-d') 중 적어도 일부의 위치 변화가 관측되며, 그 위치 변화의 정도가 전체 비율에서 임계치(%)를 초과하는 것을 의미할 수 있다.Here, that the position of the remaining objects is changed to the coordinates of the objects in the first object-recognition map and the second object-recognition map, except for the specific object (b-b') where the position change is observed in FIG. It may mean that at least some of the positional changes of (a-a', c-c', d-d') are observed, and the degree of the positional change exceeds the threshold (%) in the total ratio.
한편, 전술한 바와 같이, 지도의 부분 갱신 또는 재 생성을 판별함에 있어서, 라이다 센서 및 360카메라 각각을 이용하여 관측된 위치 차이에 대한 기준인 오차범위의 경우 라이다 센서와 360카메라 간 위치 인식의 오차율을 고려한 것으로서 예컨대, 다음의 방식을 통해 그 값이 설정될 수 있다.On the other hand, as described above, in determining the partial update or regeneration of the map, in the case of the error range, which is the reference for the position difference observed using each of the lidar sensor and 360 camera, the position recognition between the lidar sensor and the 360 camera Considering the error rate of, for example, the value may be set through the following method.
즉, 판별부(40)는 제1객체인식지도와 제2객체인식지도가 존재하는 테스트 영역에 테스트 객체를 임의로 배치하는 경우, 라이다 센서 및 360카메라 각각을 이용하여 관측된 테스트 객체의 위치를 확인하게 된다.That is, when the test object is arbitrarily placed in the test area in which the first object-recognition map and the second object-recognition map exist, the
이때, 라이다 센서 및 360카메라 각각을 이용하여 관측된 테스트 객체의 위치 간에는 차이가 발생할 수 있으며, 이러한 위치 차이는 라이다 센서와 360카메라 간 위치 인식의 오차율을 의미하게 된다.In this case, a difference may occur between the position of the test object observed using each of the lidar sensor and the 360 camera, and this position difference means an error rate of position recognition between the lidar sensor and the 360 camera.
이에, 판별부(40)는 라이다 센서 및 360카메라 각각을 이용하여 관측된 테스트 객체의 위치를 비교한 결과, 라이다 센서와 360카메라 간에 위치 인식의 오차율이 확인되는 경우, 해당 오차율에 해당하는 값을 지도의 부분 갱신 또는 재 생성을 판별하기 위한 기준 중 하나인 오차범위로 설정하여 관리한다.Accordingly, the
결국, 본 발명의 일 실시예서는, 관측 영역 내 특정 객체의 위치 변화가 관측되는 경우, 라이다 센서 기반의 제1객체인식지도와, 360카메라 기반의 제2객체인식지도를 모두 활용한 크로스 체크를 통해 지도의 부분 갱신 또는 재 생성을 판별함으로써, 판별의 정확도 제고 및 관측 영역에 대한 지도가 불필요하게 반복 생성되는 것을 방지할 수 있는 것이다.After all, in an embodiment of the present invention, when a change in the location of a specific object in the observation area is observed, a cross check using both the first object recognition map based on the lidar sensor and the second object recognition map based on 360 cameras. By determining the partial update or regeneration of the map, it is possible to improve the accuracy of the discrimination and prevent unnecessary repetitive generation of the map for the observation area.
이상에서 살펴본 바와 같이 본 발명의 일 실시예에 따른 자율이동지원장치(100)의 구성에 따르면, 라이다(LIDAR) 센서를 이용하여 작성된 제1객체인식지도를 360카메라를 위한 제2객체인식지도로 변환하여 라이다 센서 이외에 360카메라를 탑재한 자율이동로봇(1)의 위치 인식 및 주변 환경 관측을 지원함으로써, 자율이동로봇(1) 위치 인식의 정확도 제고할 수 있으며, 또한, 자율이동로봇(1)의 주변 환경 변동 시 라이다(LIDAR) 센서를 이용하여 작성된 제1객체인식지도와 360카메라를 위한 제2객체인식지도를 활용한 크로스 체크를 통해 동일한 지도의 불필요한 반복 생성(작성)을 방지할 수 있다.As described above, according to the configuration of the autonomous
이하에서는, 도 5를 참조하여 본 발명의 일 실시예에 따른 자율이동지원장치(100)의 동작 방법을 설명하기로 한다.Hereinafter, a method of operating the autonomous
먼저, 변환부(20)는 관측 영역에 대해 라이다 센서를 이용하여 작성된 제1객체인식지도가 존재하는 경우, 제1객체인식지도를 360카메라를 위한 제2객체인식지도로 변환한다(S11).First, the
이때, 변환부(20)는 제1객체인식지도 내 직선 좌표를 기 정의된 매핑테이블 내 매핑값을 이용하여 360카메라에서의 곡선 좌표로 변환함으로써, 360카메라를 위한 제2객체인식지도를 생성할 수 있다.At this time, the
그런 다음, 매칭부(30)는 360카메라를 위한 제2객체인식지도가 생성되면, 제1객체인식지도 내 자율이동로봇(1)의 위치를 제2객체인식지도 내 위치로 매칭시킨다(S12).Then, when the second object-recognized map for the 360 camera is generated, the matching
이때, 매칭부(30)는 라이다 센서를 통해서 관측되는 제1객체인식지도 내 자율이동로봇(1)의 위치를 매핑테이블을 참조로 제2객체인식지도 내 위치로 매칭시킴으로써, 자율이동로봇(1)으로 하여금 제1객체인식지도 및 제2객체인식지도 중 적어도 하나를 참조로 관측 영역 내 위치를 인식하고, 주변 환경을 관측할 수 있도록 지원할 수 있다.At this time, the matching
한편, 본 발명의 일 실시예에는 제1객체인식지도 내 자율이동로봇(1)의 위치를 제2객체인식지도 내 위치로 매칭시켜 관측 영역 내 위치를 인식하고, 주변 환경을 관측을 지원하는 과정에서, 앞서 예시한 도 4에 도시된 바와 같이 관측 영역 내 특정 객체(b-b')의 위치 변화가 관측되는 경우를 고려할 수 있다.Meanwhile, in an embodiment of the present invention, a process of recognizing the location in the observation area by matching the location of the autonomous
이처럼, 관측 영역 내 특정 객체의 위치 변화가 관측되는 경우 본 발명의 일 실시예에서는, 관측 영역에 대해 기 생성(작성)된 제1객체인식지도와 제2객체인식지도를 부분 갱신하거나, 혹은 재 생성(작성)이 필요한지 여부를 판별할 필요가 있다.As described above, when a change in the position of a specific object in the observation area is observed, in an embodiment of the present invention, the first object-recognition map and the second object-recognition map previously created (created) for the observation area are partially updated, or It is necessary to determine whether or not generation (creation) is necessary.
이에, 판별부(40)는 관측 영역 내 특정 객체의 위치 변화가 관측되는 경우, 해당 객체를 제외한 나머지 객체의 위치 변화를 기초로 관측 영역에 대한 지도의 부분 갱신 또는 재 생성을 판별하게 된다(S13).Accordingly, when a change in the location of a specific object in the observation area is observed, the
이때, 판별부(40)는 라이다 센서 및 360카메라 각각을 이용하여 나머지 객체의 위치가 제1객체인식지도 및 제2객체인식지도 내 객체의 좌표와 일치되고, 또한 라이다 센서 및 360카메라 각각을 이용하여 관측된 위치 간의 차이가 기 설정된 오차범위 이내인 경우, 제1객체인식지도 및 상기 제2객체인식지도에 대해 위치 변화가 관측된 특정 객체의 좌표만을 갱신하는 것으로 판별할 수 있다(S14-S18).At this time, the
여기서, 나머지 객체의 위치가 제1객체인식지도 및 제2객체인식지도 내 객체의 좌표와 일치된다는 것은, 앞서 예시한 도 4에서 위치 변화가 관측된 특정 객체(b-b')를 제외한 나머지 객체(a-a', c-c', d-d')의 위치 변화가 관측되지 않으며, 나머지 객체(a-a', c-c', d-d') 중 적어도 일부 객체의 위치 변화가 일부 관측된다 하더라도 그 위치 변화의 정도가 전체 비율에서 임계치(%) 이하인 것을 의미할 수 있다.Here, the fact that the location of the remaining objects coincides with the coordinates of the objects in the first object-recognition map and the second object-recognition map, except for the specific object (b-b') where the position change is observed in FIG. The position change of (a-a', c-c', d-d') is not observed, and the position change of at least some of the remaining objects (a-a', c-c', d-d') Even if some are observed, it may mean that the degree of the position change is less than or equal to the critical value (%) in the total ratio.
반면, 판별부(40)는 단계 'S15'에서 라이다 센서 및 360카메라 각각을 이용하여 관측된 나머지 객체의 위치가 제1객체인식지도 및 상기 제2객체인식지도 내 객체의 좌표와 일치되지 않거나, 또는 단계 'S17'에서 라이다 센서 및 360카메라 각각을 이용하여 관측된 위치 간의 차이가 기 설정된 오차범위를 초과하는 경우에는, 제1객체인식지도 및 제2객체인식지도를 재 생성하는 것으로 판별할 수 있다(S19).On the other hand, in step'S15', the position of the remaining object observed using each of the lidar sensor and the 360 camera does not match the coordinates of the object in the first object recognition map and the second object recognition map, or Or, if the difference between the positions observed using each of the lidar sensors and 360 cameras in step'S17' exceeds the preset error range, it is determined that the first object-recognition map and the second object-recognition map are regenerated. Can do it (S19).
여기서, 나머지 객체의 위치가 제1객체인식지도 및 제2객체인식지도 내 객체의 좌표로 변동된다는 것은, 앞서 예시한 도 4에서 위치 변화가 관측된 특정 객체(b-b')를 제외한 나머지 객체(a-a', c-c', d-d') 중 적어도 일부의 위치 변화가 관측되며, 그 위치 변화의 정도가 전체 비율에서 임계치(%)를 초과하는 것을 의미할 수 있다.Here, that the position of the remaining objects is changed to the coordinates of the objects in the first object-recognition map and the second object-recognition map, except for the specific object (b-b') where the position change is observed in FIG. It may mean that at least some of the positional changes of (a-a', c-c', d-d') are observed, and the degree of the positional change exceeds the threshold (%) in the total ratio.
결국, 본 발명의 일 실시예서는, 관측 영역 내 특정 객체의 위치 변화가 관측되는 경우, 라이다 센서 기반의 제1객체인식지도와, 360카메라 기반의 제2객체인식지도를 모두 활용한 크로스 체크를 통해 지도의 부분 갱신 또는 재 생성을 판별함으로써, 판별의 정확도 제고 및 관측 영역에 대한 지도가 불필요하게 반복 생성되는 것을 방지할 수 있는 것이다.After all, in an embodiment of the present invention, when a change in the location of a specific object in the observation area is observed, a cross check using both the first object recognition map based on the lidar sensor and the second object recognition map based on 360 cameras. By determining the partial update or regeneration of the map, it is possible to improve the accuracy of the discrimination and prevent unnecessary repetitive generation of the map for the observation area.
한편, 앞서 도 5를 참조하여 설명한 단계 'S11'과 관련하여 본 발명의 일 실시예에서는 360카메라를 이용한 위치 인식을 위해 라이다 센서를 이용하여 작성한 제1객체인식지도를 변환하여 360카메라를 위한 제2객체인식지도를 생성하는 방식이 채택되고 있는 것을 확인할 수 있다.Meanwhile, in relation to step'S11' described with reference to FIG. 5 above, in an embodiment of the present invention, in order to recognize a location using a 360 camera, a first object-recognition map created using a lidar sensor is converted to It can be seen that the method of generating the second object-recognized map is being adopted.
이를 위해선, 제1객체인식지도 내 좌표를 360카메라에서의 좌표로 변환할 필요가 있으며, 이러한 좌표 변환을 위해선 전술한 바와 같이, 매핑테이블이 요구된다.To this end, it is necessary to convert the coordinates in the first object-type map into coordinates at the 360 camera, and for this coordinate conversion, as described above, a mapping table is required.
이와 관련하여 도 6을 참조하여 본 발명의 일 실시예에 따른 매핑테이블의 생성 과정을 살펴보면 다음과 같다.In this regard, a process of generating a mapping table according to an embodiment of the present invention will be described with reference to FIG. 6.
먼저, 생성부(10)는 라이다 센서를 중심으로 한 양측 직선 상에 객체를 배치한 테스트 영역에서, 라이다 센서에 대해 설정 각도(예: 0°, 45°, 135°, 및 180°)로 배치된 각 객체의 직선 좌표를 상기 360카메라가 촬영한 상기 테스트 영역 내 동일한 각 객체의 곡선 좌표로 매핑시키는 방식을 통해 매핑테이블의 매핑값을 기록한다(S21).First, the
예를 들어, 앞서 예시한 도 3 (a)에서와 같이, 테스트 영역에서 라이다 센서에 대해 각각 0°와 180°의 위치에 객체 A와, D를 배치시키고, 객체 A와, D의 직선 좌표를 도 3 (B)에서와 같이, 360카메라가 촬영한 테스트 영역 내 동일한 각 객체 A'와, D'의 곡선 좌표로 매핑시킬 수 있는 것이다.For example, as illustrated in FIG. 3 (a) illustrated above, objects A and D are placed at positions of 0° and 180°, respectively, with respect to the lidar sensor in the test area, and the linear coordinates of the objects A and D As shown in FIG. 3(B), the same object A'and D'in the test area captured by the 360 camera can be mapped to the curved coordinates.
또한, 테스트 영역에서 라이다 센서의 위치에 대해 0°와 180°에 위치한의 객체 A와, D에 대한 곡선 좌표의 매핑이 완료되면, 도 3 (a)에서와 같이, 테스트 영역에서 라이다 센서에 대해 45°와 135°의 위치에 객체 B와, C를 배치시켜, 객체 B와, C의 직선 좌표를 도 3 (B)에서와 같이, 360카메라가 촬영한 테스트 영역 내 동일한 각 객체 B'와, C'의 곡선 좌표로 매핑시킬 수 있다.In addition, when the mapping of the curve coordinates for objects A and D located at 0° and 180° with respect to the position of the lidar sensor in the test area is completed, as shown in FIG. 3(a), the lidar sensor in the test area Objects B and C are placed at positions 45° and 135° for each of the same objects B'in the test area captured by the 360 camera, as shown in FIG. 3(B), by placing the objects B and C. Wow, it can be mapped to C'curve coordinates.
나아가, 생성부(10)는 라이다 센서에 대해 설정 각도(예: 0°, 45°, 135°, 및 180°)로 배치된 각 객체에 대한 곡선 좌표로의 매핑이 완료되면, 라이다 센서에 대해 설정 각도의 간격으로 하나의 직선 상에 이웃하게 배치된 두 객체 사이의 눈금 별 직선 좌표를, 360카메라가 촬영한 텍스트 영역 내 동일한 두 객체 사이의 각각의 곡선 좌표로 추가 매핑시키는 방식을 통해서 매핑테이블의 매핑값 기록을 완료할 수 있다(S22).Furthermore, when the mapping to the curved coordinates for each object arranged at a set angle (eg, 0°, 45°, 135°, and 180°) with respect to the LiDAR sensor is completed, the
앞서 예시한 도 3 (a)에서와 같이, 라이다 센서에 대해 45°의 간격으로 하나의 직선 상에 이웃하게 배치된 두 객체 A와, B 사이를 1°씩 구분하는 눈금(S)을 배치시키고, 이러한 눈금(S)에 의해 구분되는 각 지점의 직선 좌표를 앞서 예시한 도 3 (B)에서와 같이 360카메라가 촬영한 테스트 영역 내 동일한 각 객체 A'와, B' 사이의 눈금(S')에 의해 1°씩 구분되는 각 지점의 곡선 좌표로 매핑시킬 수 있는 것이다.As shown in Fig. 3 (a) illustrated above, two objects A adjacent to each other on one straight line at 45° intervals with respect to the LiDAR sensor and a scale S that divides B by 1° And, as shown in Fig. 3 (B) exemplified above, the linear coordinates of each point separated by this scale (S) are scaled between the same objects A'and B'in the test area photographed by the 360 camera (S ') can be mapped to the curve coordinates of each point separated by 1°.
또한, 앞서 도 5를 참조하여 설명한 단계 'S17'과 관련하여, 라이다 센서 및 360카메라 각각을 이용하여 관측된 위치 차이에 대한 기준인 오차범위의 경우 라이다 센서와 360카메라 간 위치 인식의 오차율을 고려한 것으로서 이러한, 오차범위의 설정 방법은, 도 7을 참조하여 설명될 수 있다.In addition, in relation to step'S17' described with reference to FIG. 5, in the case of an error range that is a reference for the position difference observed using each of the lidar sensor and the 360 camera, the error rate of position recognition between the lidar sensor and the 360 camera In consideration of this, the method of setting the error range may be described with reference to FIG. 7.
먼저, 제1객체인식지도와 제2객체인식지도가 존재하는 테스트 영역에 테스트 객체를 임의로 배치하는 경우, 라이다 센서 및 360카메라 각각을 이용하여 관측된 테스트 객체의 위치를 확인한다(S31-S32).First, when a test object is arbitrarily placed in a test area in which the first and second object maps exist, the position of the observed test object is checked using each of the lidar sensors and 360 cameras (S31-S32). ).
이때, 라이다 센서 및 360카메라 각각을 이용하여 관측된 해당 테스트 객체의 위치 간에는 차이가 발생할 수 있으며, 이러한 위치 차이는 라이다 센서와 360카메라 간 위치 인식의 오차율을 의미한다.At this time, a difference may occur between the position of the test object observed using each of the lidar sensor and the 360 camera, and this position difference means an error rate of position recognition between the lidar sensor and the 360 camera.
이에, 판별부(40)는 라이다 센서 및 360카메라 각각을 이용하여 관측된 테스트 객체의 위치를 비교한 결과, 라이다 센서와 360카메라 간에 위치 인식의 오차율이 확인되는 경우, 해당 오차율에 해당하는 값을 지도의 부분 갱신 또는 재 생성을 판별하기 위한 기준 중 하나인 오차범위로 설정하여 관리한다(S33).Accordingly, the
이상에서 살펴본 바와 같이 본 발명의 일 실시예에 따른 자율이동지원장치(100)의 동작 방법에 따르면, 라이다(LIDAR) 센서를 이용하여 작성된 제1객체인식지도를 360카메라를 위한 제2객체인식지도로 변환하여 라이다 센서 이외에 360카메라를 탑재한 자율이동로봇(1)의 위치 인식 및 주변 환경 관측을 지원함으로써, 자율이동로봇(1) 위치 인식의 정확도 제고할 수 있으며, 또한, 자율이동로봇(1)의 주변 환경 변동 시 라이다(LIDAR) 센서를 이용하여 작성된 제1객체인식지도와 360카메라를 위한 제2객체인식지도를 활용한 크로스 체크를 통해 동일한 지도의 불필요한 반복 생성(작성)을 방지할 수 있다.As described above, according to the operation method of the autonomous
한편, 본 발명의 일 실시예에 따른 자율이동지원장치(100)의 동작 방법은, 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Meanwhile, the operation method of the autonomous
지금까지 본 발명을 바람직한 실시 예를 참조하여 상세히 설명하였지만, 본 발명이 상기한 실시 예에 한정되는 것은 아니며, 이하의 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 또는 수정이 가능한 범위까지 본 발명의 기술적 사상이 미친다 할 것이다.Although the present invention has been described in detail with reference to preferred embodiments so far, the present invention is not limited to the above-described embodiments, and the technical field to which the present invention belongs without departing from the gist of the present invention claimed in the following claims. Anyone of ordinary skill in the art will say that the technical idea of the present invention extends to the range in which various modifications or modifications are possible.
본 발명에 따른 자율이동지원장치 및 자율이동지원장치의 동작 방법에 따르면, 라이다(LIDAR) 센서 이외에 360카메라를 추가 적용하여 자율이동로봇의 위치 인식 및 주변 환경 관측을 지원할 수 있다는 점에서, 기존 기술의 한계를 뛰어 넘음에 따라 관련 기술에 대한 이용만이 아닌 적용되는 장치의 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있는 발명이다.According to the operation method of the autonomous movement support device and the autonomous movement support device according to the present invention, a 360 camera may be additionally applied in addition to the LIDAR sensor to support the position recognition of the autonomous mobile robot and the observation of the surrounding environment. As the technology exceeds the limits, it is an invention that has industrial applicability because the possibility of marketing or sales of the applied device is sufficient as well as the degree to be practically obvious.
100: 자율이동지원장치
10: 생성부 20: 변환부
30: 매칭부 40: 판별부100: autonomous movement support device
10: generation unit 20: conversion unit
30: matching unit 40: discrimination unit
Claims (12)
관측 영역에 대해 상기 라이다 센서를 이용하여 작성된 제1객체인식지도가 존재하는 경우, 상기 매핑테이블을 기초로, 상기 제1객체인식지도 내 좌표를 360카메라에서의 좌표로 변환하여 제2객체인식지도를 생성하는 변환부;
상기 라이다 센서를 통해서 관측되는 상기 제1객체인식지도 내 자율이동로봇의 위치를 상기 제2객체인식지도 내 위치로 매칭시켜, 상기 자율이동로봇으로 하여금 상기 제1객체인식지도 및 상기 제2객체인식지도 중 적어도 하나를 참조로 상기 관측 영역 내 위치를 인식할 수 있도록 하는 매칭부; 및
상기 관측 영역 내 특정 객체의 위치 변화가 관측되는 경우, 상기 특정 객체를 제외한 나머지 객체의 위치 변화를 기초로 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 상기 나머지 객체의 위치가 상기 제1객체인식지도 및 상기 제2객체인식지도 내 객체의 좌표와 일치되고, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 위치 간의 차이가 기 설정된 오차범위 이내인 경우, 상기 제1객체인식지도 및 상기 제2객체인식지도에 대해 상기 특정 객체의 좌표만을 갱신하는 것으로 판별하며, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 상기 나머지 객체의 위치가 상기 제1객체인식지도 및 상기 제2객체인식지도 내 객체의 좌표와 일치되지 않거나, 기 설정된 오차범위를 초과하는 경우에는, 상기 제1객체인식지도 및 상기 제2객체인식지도를 재 생성하는 것으로 판별하는 판별부를 포함하는 것을 특징으로 하는 자율이동지원장치.A generator for generating a mapping table for converting linear coordinates recognized through a LIDAR sensor into curved coordinates in 360 cameras according to rectilinear distortion characteristics of 360 cameras;
When there is a first object-type map created using the lidar sensor for the observation area, based on the mapping table, the coordinates in the first object-recognition map are converted into coordinates from 360 cameras, A conversion unit for generating a map;
The position of the autonomous mobile robot observed through the lidar sensor in the first object-type map is matched with the position in the second object-type map, and the autonomous mobile robot causes the first object-type map and the second object. A matching unit configured to recognize a location in the observation area with reference to at least one of the recognition maps; And
When a position change of a specific object in the observation area is observed, the position of the remaining object observed using each of the lidar sensor and the 360 camera is determined based on the position change of the other object except the specific object. When the coordinates of the object in the object recognition map and the second object recognition map coincide, and the difference between the locations observed using the lidar sensor and each of the 360 cameras is within a preset error range, the first object recognition map And determining that only the coordinates of the specific object are updated with respect to the second object-recognition map, and the position of the remaining object observed using each of the lidar sensor and the 360 camera is determined by the first object-recognition map and the 2 In case the coordinates of the object in the object-recognition map do not coincide or exceed a preset error range, the first object-recognition map and the second object-recognition map are regenerated, and a discrimination unit comprising a Autonomous movement support device.
상기 생성부는,
상기 라이다 센서를 중심으로 한 양측 직선 상에 객체를 배치한 테스트 영역에서, 상기 라이다 센서에 대해 설정 각도로 배치된 각 객체의 직선 좌표를 상기 360카메라가 촬영한 상기 테스트 영역 내 동일한 각 객체의 곡선 좌표로 매핑시키는 것을 특징으로 하는 자율이동지원장치.The method of claim 1,
The generation unit,
In a test area in which objects are arranged on both straight lines centered on the lidar sensor, the linear coordinates of each object arranged at a set angle with respect to the lidar sensor are captured by the 360 camera and the same object in the test zone Autonomous movement support device, characterized in that mapping to the curve coordinates of.
상기 생성부는,
상기 라이다 센서에 대해 설정 각도의 간격으로 하나의 직선 상에 이웃하게 배치된 두 객체 사이의 눈금 별 직선 좌표를, 상기 360카메라가 촬영한 상기 테스트 영역 내 동일한 두 객체 사이의 각각의 곡선 좌표로 매핑시키는 것을 특징으로 하는 자율이동지원장치.The method of claim 2,
The generation unit,
The linear coordinates for each scale between two objects adjacent to each other on one straight line at an interval of a set angle with respect to the lidar sensor, as respective curve coordinates between two identical objects in the test area photographed by the 360 camera. Autonomous movement support device, characterized in that the mapping.
상기 오차범위는,
상기 제1객체인식지도, 및 상기 제2객체인식지도가 존재하는 테스트 영역에 테스트 객체를 임의로 배치하여, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 상기 테스트 객체의 위치 차이를 기초로 설정되는 것을 특징으로 하는 자율이동지원장치.The method of claim 1,
The error range is,
Based on the position difference of the test object observed using each of the lidar sensor and the 360 camera by arbitrarily arranging a test object in the test area in which the first object recognition map and the second object recognition map exist Autonomous movement support device, characterized in that set.
관측 영역에 대해 상기 라이다 센서를 이용하여 작성된 제1객체인식지도가 존재하는 경우, 상기 매핑테이블을 기초로, 상기 제1객체인식지도 내 좌표를 360카메라에서의 좌표로 변환하여 제2객체인식지도를 생성하는 변환단계;
상기 라이다 센서를 통해서 관측되는 상기 제1객체인식지도 내 자율이동로봇의 위치를 상기 제2객체인식지도 내 위치로 매칭시켜, 상기 자율이동로봇으로 하여금 상기 제1객체인식지도 및 상기 제2객체인식지도 중 적어도 하나를 참조로 상기 관측 영역 내 위치를 인식할 수 있도록 하는 매칭단계; 및
상기 관측 영역 내 특정 객체의 위치 변화가 관측되는 경우, 상기 특정 객체를 제외한 나머지 객체의 위치 변화를 기초로 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 상기 나머지 객체의 위치가 상기 제1객체인식지도 및 상기 제2객체인식지도 내 객체의 좌표와 일치되고, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 위치 간의 차이가 기 설정된 오차범위 이내인 경우, 상기 제1객체인식지도 및 상기 제2객체인식지도에 대해 상기 특정 객체의 좌표만을 갱신하는 것으로 판별하며, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 상기 나머지 객체의 위치가 상기 제1객체인식지도 및 상기 제2객체인식지도 내 객체의 좌표와 일치되지 않거나, 기 설정된 오차범위를 초과하는 경우에는, 상기 제1객체인식지도 및 상기 제2객체인식지도를 재 생성하는 것으로 판별하는 판별단계를 포함하는 것을 특징으로 하는 자율이동지원장치의 동작 방법.A generating step of generating a mapping table for converting linear coordinates recognized through a LIDAR sensor into curved coordinates in a 360 camera according to a rectilinear distortion characteristic of a 360 camera;
When there is a first object-type map created using the lidar sensor for the observation area, based on the mapping table, the coordinates in the first object-recognition map are converted into coordinates from 360 cameras, A conversion step of generating a map;
The position of the autonomous mobile robot observed through the lidar sensor in the first object-type map is matched with the position in the second object-type map, and the autonomous mobile robot causes the first object-type map and the second object. A matching step of recognizing a location in the observation area with reference to at least one of the recognition maps; And
When a position change of a specific object in the observation area is observed, the position of the remaining object observed using each of the lidar sensor and the 360 camera is determined based on the position change of the other object except the specific object. When the coordinates of the object in the object recognition map and the second object recognition map coincide, and the difference between the locations observed using the lidar sensor and each of the 360 cameras is within a preset error range, the first object recognition map And determining that only the coordinates of the specific object are updated with respect to the second object-recognition map, and the position of the remaining object observed using each of the lidar sensor and the 360 camera is determined by the first object-recognition map and the 2 If the coordinates of the object in the object-recognition map are not coincident or exceeds a preset error range, a determination step of determining that the first object-recognition map and the second object-recognition map are regenerated How to operate the autonomous mobility support device.
상기 생성단계는,
상기 라이다 센서를 중심으로 한 양측 직선 상에 객체를 배치한 테스트 영역에서, 상기 라이다 센서에 대해 설정 각도로 배치된 각 객체의 직선 좌표를 상기 360카메라가 촬영한 상기 테스트 영역 내 동일한 각 객체의 곡선 좌표로 매핑시키는 것을 특징으로 하는 자율이동지원장치의 동작 방법.The method of claim 7,
The generation step,
In a test area in which objects are arranged on both straight lines centered on the lidar sensor, the linear coordinates of each object arranged at a set angle with respect to the lidar sensor are captured by the 360 camera and the same object in the test zone The operation method of the autonomous movement support device, characterized in that mapping to the curve coordinates of.
상기 생성단계는,
상기 라이다 센서에 대해 설정 각도의 간격으로 하나의 직선 상에 이웃하게 배치된 두 객체 사이의 눈금 별 직선 좌표를, 상기 360카메라가 촬영한 상기 테스트 영역 내 동일한 두 객체 사이의 각각의 곡선 좌표로 매핑시키는 것을 특징으로 하는 자율이동지원장치의 동작 방법.The method of claim 8,
The generation step,
The linear coordinates for each scale between two objects adjacent to each other on one straight line at an interval of a set angle with respect to the lidar sensor, as respective curve coordinates between two identical objects in the test area photographed by the 360 camera. The operation method of the autonomous movement support device, characterized in that the mapping.
상기 오차범위는,
상기 제1객체인식지도, 및 상기 제2객체인식지도가 존재하는 테스트 영역에 테스트 객체를 임의로 배치하여, 상기 라이다 센서 및 상기 360카메라 각각을 이용하여 관측된 상기 테스트 객체의 위치 차이를 기초로 설정되는 것을 특징으로 하는 자율이동지원장치의 동작 방법The method of claim 7,
The error range is,
Based on the position difference of the test object observed using each of the lidar sensor and the 360 camera by arbitrarily arranging a test object in the test area in which the first object recognition map and the second object recognition map exist An operation method of an autonomous movement support device, characterized in that it is set
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190169018A KR102162439B1 (en) | 2019-12-17 | 2019-12-17 | Supporting apparatus for autonomous mobile, and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190169018A KR102162439B1 (en) | 2019-12-17 | 2019-12-17 | Supporting apparatus for autonomous mobile, and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102162439B1 true KR102162439B1 (en) | 2020-10-06 |
Family
ID=72826187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190169018A KR102162439B1 (en) | 2019-12-17 | 2019-12-17 | Supporting apparatus for autonomous mobile, and control method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102162439B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220051697A (en) * | 2020-10-19 | 2022-04-26 | 농업회사법인 한국도시농업 주식회사 | System for Autonomous Communication Synchronization and Method for Autonomous Communication Synchronization |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140003987A (en) * | 2012-06-25 | 2014-01-10 | 서울대학교산학협력단 | Slam system for mobile robot based on vision sensor data and motion sensor data fusion |
KR20180039438A (en) * | 2016-10-10 | 2018-04-18 | 엘지전자 주식회사 | Guidance robot for airport and method thereof |
KR102029850B1 (en) * | 2019-03-28 | 2019-10-08 | 세종대학교 산학협력단 | Object detecting apparatus using camera and lidar sensor and method thereof |
KR20190131402A (en) * | 2018-05-16 | 2019-11-26 | 주식회사 유진로봇 | Moving Object and Hybrid Sensor with Camera and Lidar |
-
2019
- 2019-12-17 KR KR1020190169018A patent/KR102162439B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140003987A (en) * | 2012-06-25 | 2014-01-10 | 서울대학교산학협력단 | Slam system for mobile robot based on vision sensor data and motion sensor data fusion |
KR20180039438A (en) * | 2016-10-10 | 2018-04-18 | 엘지전자 주식회사 | Guidance robot for airport and method thereof |
KR20190131402A (en) * | 2018-05-16 | 2019-11-26 | 주식회사 유진로봇 | Moving Object and Hybrid Sensor with Camera and Lidar |
KR102029850B1 (en) * | 2019-03-28 | 2019-10-08 | 세종대학교 산학협력단 | Object detecting apparatus using camera and lidar sensor and method thereof |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220051697A (en) * | 2020-10-19 | 2022-04-26 | 농업회사법인 한국도시농업 주식회사 | System for Autonomous Communication Synchronization and Method for Autonomous Communication Synchronization |
KR102495292B1 (en) * | 2020-10-19 | 2023-02-06 | 농업회사법인 한국도시농업 주식회사 | System for Autonomous Communication Synchronization and Method for Autonomous Communication Synchronization |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11644338B2 (en) | Ground texture image-based navigation method and device, and storage medium | |
Premebida et al. | Segmentation and geometric primitives extraction from 2d laser range data for mobile robot applications | |
US11331806B2 (en) | Robot control method and apparatus and robot using the same | |
KR20040029493A (en) | Landmark, apparatus and method for determining position of autonomous vehicles effectively | |
US10611028B1 (en) | Map building and positioning of robot | |
US9591228B2 (en) | Method for the localization of a tool in a workplace, corresponding system and computer program product | |
US20110194755A1 (en) | Apparatus and method with traveling path planning | |
CN110009718A (en) | A kind of three-dimensional high-precision ground drawing generating method and device | |
CN107728619B (en) | Planning method for robot teaching path | |
JP2020518925A (en) | System and method for controlling vehicle motion | |
JP2018051652A (en) | Robot system | |
KR102162439B1 (en) | Supporting apparatus for autonomous mobile, and control method thereof | |
WO2021103824A1 (en) | Key point position determining method and device in robot hand-eye calibration based on calibration block | |
US20230095552A1 (en) | Map construction method, robot and medium | |
Wen et al. | Indoor SLAM Using Laser and Camera with Closed‐Loop Controller for NAO Humanoid Robot | |
CN113319859A (en) | Robot teaching method, system and device and electronic equipment | |
Burlacu et al. | Predictive control architecture for real-time image moments based servoing of robot manipulators | |
CN105479431A (en) | Inertial navigation type robot demonstration equipment | |
CN113009908B (en) | Motion control method, device and equipment of unmanned equipment and storage medium | |
CN109934155B (en) | Depth vision-based collaborative robot gesture recognition method and device | |
CN114001728A (en) | Control method and device for mobile robot, storage medium and electronic equipment | |
CN112683273A (en) | Adaptive incremental mapping method, system, computer equipment and storage medium | |
CN117140517A (en) | High-precision automatic hand-eye calibration method and system for mechanical arm | |
KR102009479B1 (en) | Apparatus and method for controlling mobile robot | |
Balkenius et al. | Elastic template matching as a basis for visual landmark recognition and spatial navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |