KR20150042040A - 정찰 로봇의 제어 방법 - Google Patents

정찰 로봇의 제어 방법 Download PDF

Info

Publication number
KR20150042040A
KR20150042040A KR20130120766A KR20130120766A KR20150042040A KR 20150042040 A KR20150042040 A KR 20150042040A KR 20130120766 A KR20130120766 A KR 20130120766A KR 20130120766 A KR20130120766 A KR 20130120766A KR 20150042040 A KR20150042040 A KR 20150042040A
Authority
KR
South Korea
Prior art keywords
reconnaissance
robot
zone
scouting
information
Prior art date
Application number
KR20130120766A
Other languages
English (en)
Inventor
최락현
최재성
손병락
이동하
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR20130120766A priority Critical patent/KR20150042040A/ko
Publication of KR20150042040A publication Critical patent/KR20150042040A/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명의 실시예는 정찰 로봇의 제어 방법에 관한 것이다. 본 실시예에서는 정찰 로봇의 이동 경로에 따른 정찰 구역을 개별적으로 설정하여 정찰 로봇이 정찰 구역만을 선별적으로 정찰할 수 있다. 따라서, 정찰 로봇은 정찰 구역만을 더욱 정밀하게 정찰할 수 있고, 정찰 로봇의 정찰 시간도 획기적으로 감소시킬 수 있다.

Description

정찰 로봇의 제어 방법 {CONTROL METHOD FOR PATROL ROBOT}
본 발명은 자율 주행 가능한 정찰 로봇의 제어 방법에 관한 것으로서, 더 상세하게는 정찰 로봇의 이동 경로에 따라 정찰 구역을 미리 설정하여 정찰 로봇의 정찰 효율을 높일 수 있는 정찰 로봇의 제어 방법에 관한 것이다.
정찰이란, 시각 관측이나 기타 탐지방법에 의하여 적이나 특정 장소에 관한 정보를 입수하거나 특정 지역의 기상, 수로 또는 지리적 특성에 관한 정보를 획득하는 행위이다. 특히, 정찰 행위는 군사 분야, 경비 분야, 또는 탐사 분야 등에서 자주 활용되고 있다.
로봇 기술의 발달과 함께 정찰용 로봇도 개발되고 있다. 정찰 로봇을 사용하면, 사람이 정찰하기 어렵거나 위험한 장소를 정찰 로봇으로 안전하게 정찰할 수 있다. 특히, 자율 주행하는 무인 정찰 로봇을 사용하면, 통제실에 소수의 인원만 배치하여도 다수의 장소를 지속적으로 정찰할 수 있다.
최근에는 자율 주행되는 정찰 로봇과 지도정보를 이용하여 정찰하는 기술이 활발히 개발되고 있다. 기존의 정찰 로봇은 다양한 센서들을 이용해 주변 상황을 감지하고 있다.
하지만, 일반적인 이동 경로를 설정하여 정찰 로봇을 주행시키면, 센서들의 센싱 범위 한계로 인해서 주변의 모든 지점에 대한 정보를 획득하지 못하고 일부 특정 지점의 정보를 자세히 확보하는데 어려움이 있다.
또한, 정찰 로봇의 이동 경로 중에 나타나는 주변정보를 모두 인식하므로 정찰이 필요 없는 지점의 정찰 정보까지 모두 획득되어 처리되고 있다. 따라서, 기존에는 정찰 정보의 처리에 많은 시간이 소모될 뿐만 아니라 정찰 정보를 처리하기 위해 고성능의 처리장치가 추가로 필요하다.
예를 들면, 한국공개특허 제2013-0097832호(발명의 명칭: 발명의 명칭 오염지역의 윤곽을 탐지하기 위하여 이동로봇의 경로를 설정하는 방법 및 이동로봇에 의해 탐지된 데이터를 이용하여 시간에 따라 확산되는 오염지역의 윤곽을 예측하는 방법, 공개일: 2013.09.04)에는 오염지역을 탐지하는 이동 로봇의 경로 설정 방법이 개시되어 있다. 상기와 같은 한국공개특허 제2013-0097832호에 개시된 이동 로봇도 이동 경로를 따라 이동되면서 주변의 모든 정보를 획득하고 있다.
본 발명의 실시예는 정찰 로봇의 이동 경로에 따라 정찰 구역을 미리 설정하여 정찰 로봇의 정찰 효율을 높일 수 있는 정찰 로봇의 제어 방법을 제공한다.
또한, 본 발명의 실시예는 정찰 구역의 정찰 영상 정보를 3차원 이미지로 획득하여 정찰 구역을 용이하게 정찰할 수 있는 정찰 로봇의 제어 방법을 제공한다.
또한, 본 발명의 실시예는 정찰이 필요한 특정 구역만을 세밀하게 정찰할 수 있는 정찰 로봇의 제어 방법을 제공한다.
본 발명의 일실시예에 따르면, 지도 정보를 이용하여 정찰 로봇의 이동 경로를 설정하는 단계, 상기 이동 경로 및 상기 지도 정보를 이용하여 상기 정찰 로봇의 정찰 구역을 설정하는 단계, 상기 이동 경로를 따라 상기 정찰 로봇을 이동시키는 단계, 및 상기 정찰 로봇의 위치에 따라 상기 정찰 구역을 정찰하는 단계를 포함하는 정찰 로봇의 제어 방법을 제공한다.
즉, 본 실시예에서는 정찰 로봇의 이동 경로와 별개로 정찰 구역이 설정되어 있으므로, 정찰 로봇이 이동 경로를 따라 이동하는 과정에서 정찰 구역만 집중적으로 정찰을 수행할 수 있다. 따라서, 정찰 로봇은 정찰 구역을 매우 신속하고 상세하게 정찰할 수 있으며, 정찰 로봇에 의해 처리되는 정찰 영상의 정보도 크게 감소시킬 수 있다.
일측에 따르면, 상기 정찰 구역을 설정하는 단계에서는, 상기 이동 경로 상에 존재하는 복수의 위치에 대하여 상기 정찰 구역을 개별적으로 설정할 수 있다.
상기 정찰 구역은 상기 정찰 로봇의 수평 정찰 각도, 수직 정찰 각도, 정찰 높이 또는 정찰 거리 중 적어도 어느 하나의 정보로 형성될 수 있다.
일측에 따르면, 상기 정찰 로봇을 이동시키는 단계는, 상기 정찰 로봇에 구비된 GPS 모듈을 이용하여 상기 정찰 로봇의 현재 위치를 실시간으로 감지하는 단계, 및 상기 정찰 로봇의 현재 위치를 상기 이동 경로와 비교하여 상기 정찰 로봇의 이동을 제어하는 단계를 구비할 수 있다.
일측에 따르면, 상기 정찰 구역을 정찰하는 단계는, 상기 정찰 구역을 설정하는 단계에서 설정된 상기 정찰 구역 중에서 상기 정찰 로봇의 현재 위치에 대응하는 정찰 구역을 로딩하는 단계, 상기 정찰 로봇에 구비된 거리 측정기 또는 카메라를 회전 또는 이동시켜 상기 정찰 구역을 정찰하는 단계, 및 상기 거리 측정기 또는 상기 카메라의 감지값을 이용하여 상기 정찰 구역의 정찰 영상 정보를 생성 및 저장하는 단계를 구비할 수 있다.
상기 정찰 영상 정보를 생성 및 저장하는 단계에서는 상기 정찰 로봇의 현재 위치를 중심으로 하는 3차원 좌표계를 이용하여 상기 정찰 영상 정보를 원기둥 형상의 3차원 영상 정보로 생성할 수 있다.
상기 정찰 구역을 정찰하는 단계는, 상기 정찰 영상 정보를 생성 및 저장하는 단계에서 생성된 상기 정찰 영상 정보를 상기 정찰 로봇에 구비된 디스플레이 모듈에 표시하는 단계, 및 상기 정찰 로봇에 구비된 통신 모듈을 이용하여 상기 정찰 영상 정보를 외부로 전송하는 단계를 더 구비할 수 있다.
본 발명의 실시예에 따른 정찰 로봇의 제어 방법은, 정찰 로봇의 이동 경로에 따라 정찰 구역을 미리 설정하여 정찰이 필요한 구역만을 더욱 신속하고 정밀하게 정찰할 수 있다. 즉, 본 실시예에서는 정찰할 필요가 없는 구역을 정찰하지 않으므로, 불필요한 영상 정보의 획득 및 그 영상 정보의 처리 과정을 생략할 수 있다.
또한, 본 발명의 실시예에 따른 정찰 로봇의 제어 방법은, 정찰 로봇을 중심으로 하는 원기둥 형상의 3차원 영상 정보로 정찰 구역의 정찰 영상 정보를 획득하므로, 정찰 구역에 대한 전방위 정찰이 가능하며, 기존의 2차원 영상보다 정찰 구역의 현지 상황을 더욱 빠르게 파악하여 정찰 효율을 높일 수 있다.
도 1은 본 발명의 일실시예에 따른 정찰 로봇의 제어 방법을 위한 주요 구성이 개략적으로 도시된 도면이다.
도 2는 본 발명의 일실시예에 따른 정찰 로봇의 제어 방법이 도시된 순서도이다.
도 3은 도 2에 도시된 정찰 로봇의 제어 방법에 관한 일예를 나타낸 도면이다.
이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일실시예에 따른 정찰 로봇(100)의 제어 방법을 위한 주요 구성이 개략적으로 도시된 도면이다. 도 1에는 본 발명의 일실시예에 따른 정찰 로봇(100)의 제어 방법에 따라 정찰을 수행하는 정찰 로봇(100)의 주요 구성이 개략적으로 개시되어 있다.
도 1를 참조하면, 본 실시예에 따른 정찰 로봇(100)은 제어 모듈(110), 구동 모듈(120), GPS 모듈(130), 카메라(140), LRF(150), 디스플레이 모듈(160), 및 통신 모듈(170)를 포함한다.
제어 모듈(110)은 정찰 로봇(100)의 작동을 제어하는 모듈이다. 즉, 제어 모듈(110)은 구동 모듈(120), GPS모듈(130), 카메라(140), LRF(laser range finder)(150), 디스플레이 모듈(160), 또는 통신 모듈(170)과 신호 전달 가능하게 연결될 수 있으며, 상기 구성들의 작동 및 현재 상태 등을 적절히 제어할 수 있다.
구동 모듈(120)은 정찰 로봇(100)을 이동시키는 모듈이고, GPS 모듈(130)은 정찰 로봇(100)의 실외에서의 위치를 감지하는 모듈이다. GPS 모듈(130)은 위성항법시스템(global positioning system, GPS)을 이용하여 정찰 로봇의 현재 위치를 실시간으로 감지할 수 있다. 이하, 본 실시예에서는 정찰 로봇(100)이 무인 자율 주행하는 로봇으로 형성된 것으로 설명한다. 예를 들면, 제어 모듈(110)은 지도 정보를 이용하여 구동 모듈(120)의 작동을 제어할 수 있으며, GPS 모듈(130)의 현재 위치를 통해 구동 모듈(120)의 작동을 조정할 수 있다.
카메라(140)는 정찰 로봇(100)의 정찰 구역을 촬영하는 모듈이다. 카메라(140)는 정찰 구역의 정찰 영상 정보를 사용자의 관점에서 획득할 수 있다.
LRF (150)은 레이저를 이용하여 거리를 측정하는 모듈이다. LRF(150)는 이동 경로 또는 정찰 구역에 존재하는 구조물과의 거리 정보를 획득할 수 있다. 그로 인해서, LRF(150)는 3차원의 지형 정보를 획득하거나, 주변 지형과 정찰 로봇(100) 간의 거리를 확보하거나, 또는 실내외에서의 위치를 인식하는데 사용될 수 있다.
이하, 본 실시예에서는 거리 측정을 위하여 LRF(150)만 사용되는 것으로 설명하지만, 이에 한정되는 것은 아니며 다양한 종류의 거리 측정기가 복합적으로 사용될 수 있다. 예를 들면, 정찰 로봇(100)에는 LRF(150)와 별도로 거리 측정기가 추가로 설치될 수 있다. 이 경우에, LRF(150)는 3차원의 지형 정보를 획득하는데에만 사용될 수 있고, 별도의 거리 측정기는 주변 지형과 정찰 로봇(100) 간의 거리를 확보하거나 실내외에서의 위치를 인식하는데 사용될 수 있다.
여기서, 카메라(140)와 LRF(150)는 정찰 로봇(100)에 회전 또는 병진 이동되는 구조로 구비될 수 있다. 예를 들면, 본 실시예에서는 카메라(140)와 LRF(150)는 정찰 로봇(100)을 중심으로 수평 방향과 수직 방향으로 회전되도록 정찰 로봇(100)에 구비될 수 있으며, 소정의 높이로 승강되도록 정찰 로봇(100)에 구비될 수 있다.
디스플레이 모듈(160)은 정찰 로봇(100)의 작동 상태, 정찰 로봇(100)의 위치, 정찰 영상 정보를 표시하는 모듈이다. 따라서, 디스플레이 모듈(160)을 통해서 정찰 로봇(100)의 디버깅을 실현할 수 있다. 상기와 같은 디스플레이 모듈(160)은 정찰 로봇(100)의 주면에 있는 사람에게 필요한 정보를 제공하도록 정찰 로봇(100)에 구비될 수 있다. 뿐만 아니라, 디스플레이 모듈(160)은 통신 모듈(170)을 통해서 정찰 로봇(100)과 통신을 주고 받는 관제탑에도 구비될 수 있으며, 그로 인하여 관제탑에서는 디스플레이 모듈(160)을 통해서 정찰 로봇(100)과 정찰 구역에 대한 정보가 육안으로 간편하게 확보될 수 있다.
통신 모듈(170)은 정찰 로봇(100)과 관제탑 사이에 각종 정보를 송수신하는 모듈이다. 관제탑은 복수개의 정찰 로봇(100)의 정찰 활동을 관리할 수 있다. 즉, 관제탑은 정찰 로봇(100)으로부터 전송되는 정찰 영상 정보를 분석하여 정찰 구역의 이상 유무를 판단하거나, 정찰 로봇(100)의 제어 프로그램을 수정 및 업데이트할 수 있다. 이하, 본 실시예에서는 통신 모듈(170)이 무선 방식으로 관제탑과 통신을 수행하는 것으로 설명하지만, 이에 한정되는 것은 아니며 정찰 로봇(100)의 설계 조건 및 상황에 다라 다양한 변형이 가능할 수 있다. 예를 들면, 통신 모듈(170)은 유선으로 신호를 송수신할 수 있으며, 관제탑 이외의 개인 단말기 또는 주변의 가까운 관측소 등과 송수신할 수도 있다.
여기서, 통신 모듈(170)은 정찰 로봇(100)의 작동 정보, GPS 모듈(130)의 위치 정보, 카메라(140)의 영상 정보, LRF(150)의 감지값 등을 관제탑으로 전송할 수 있다. 또한, 통신 모듈(170)은 지도 정보, 이동 경로와 정찰 구역에 관한 정보, 제어 모듈(110)의 제어 프로그램 등을 관제탑으로부터 전송 받을 수 있다.
도 2는 본 발명의 일실시예에 따른 정찰 로봇(100)의 제어 방법이 도시된 순서도이고, 도 3은 도 2에 도시된 정찰 로봇(100)의 제어 방법에 관한 일예를 나타낸 도면이다. 이하, 본 실시예에서는 도 3을 참조하여 정찰 로봇(100)의 제어 방법을 보다 상세하게 설명하기로 한다.
도 1 내지 도 3를 참조하면, 본 발명의 일실시예에 따른 정찰 로봇(100)의 제어 방법은, 지도 정보(M)를 이용하여 정찰 로봇(100)의 이동 경로(T1, T2)를 설정하는 단계(10), 이동 경로(T1, T2)와 지도 정보(M)를 이용하여 정찰 로봇(100)의 정찰 구역(A1, A2)을 설정하는 단계(20), 이동 경로(T1, T2)를 따라 정찰 로봇(100)을 이동시키는 단계(30, 40), 및 정찰 로봇(100)의 위치에 따라 정찰 구역(A1, A2)을 정찰하는 단계(50, 60, 70, 80, 90)를 포함할 수 있다.
정찰 로봇(100)의 이동 경로(T1, T2)를 설정하는 단계(10)에서는 정찰이 필요한 지역의 지도 정보(M)를 이용하여 정찰 로봇(100)이 이동되는 이동 경로(T1, T2)를 설정할 수 있다.
도 3에 도시된 바와 같이, 정찰 로봇(100)의 이동 경로(T1, T2)를 설정하는 단계(10)에서는 정찰 로봇(100)이 출발 지점(S)에서 출발한 후 제1 정찰 지점(P1)과 제2 정찰 지점(P2)을 차례로 통과하는 제1 이동 경로(T1)와 제2 이동 경로(T2)를 설정할 수 있다.
정찰 로봇(100)의 정찰 구역(A1, A2)을 설정하는 단계(20)에서는 지도 정보(M) 및 이동 경로(T1, T2)를 이용하여 정찰이 필요한 정찰 구역(A1, A2)을 설정할 수 있다. 여기서, 정찰 구역(A1, A2)은 이동 경로(T1, T2) 상에 존재하는 복수의 위치에서 개별적으로 설정될 수 있다. 또는 상기와 다르게, 정찰 구역(A1, A2)은 이동 경로(T1, T2)를 따라 연속적으로 설정될 수도 있다.
도 3에 도시된 바와 같이, 정찰 로봇(100)의 정찰 구역(A1, A2)을 설정하는 단계(20)에서는 제1 정찰 지점(P1)에 대하여 제1 정찰 구역(A1)을 설정할 수 있으며, 제2 정찰 지점(P2)에 대하여 제2 정찰 구역(A2)을 설정할 수 있다. 상기와 같은 정찰 구역(A1, A2)은 정찰 로봇(100)의 수평 정찰 각도(R1), 수직 정찰 각도(미도시), 정찰 높이(미도시) 또는 정찰 거리(D1) 중 적어도 어느 하나의 정보로 형성될 수 있다. 정찰 로봇(100)의 수평 정찰 각도(R1)는 정찰 로봇(100)을 중심으로 카메라(140)와 LRF(150)를 수평 방향으로 회전시키기 위한 각도이며, 정찰 로봇(100)의 수직 정찰 각도는 정찰 로봇(100)을 중심으로 카메라(140)와 LRF(150)를 수직 방향으로 회전시키기 위한 각도이다. 정찰 로봇(100)의 정찰 높이는 카메라(140)와 LRF(150)를 수직 방향으로 승강시키기 위한 높이이며, 정찰 로봇(100)의 정찰 거리(D1)는 카메라(140)와 LRF(150)에 의해 정찰되는 거리이다.
정찰 로봇(100)을 이동시키는 단계(30, 40)는, 정찰 로봇(100)에 구비된 GPS 모듈(130)을 이용하여 정찰 로봇(100)의 현재 위치를 실시간으로 감지하는 단계(30), 및 정찰 로봇(100)의 현재 위치를 이동 경로(T1, T2)와 비교하여 정찰 로봇(100)의 이동을 제어하는 단계(40)를 구비할 수 있다. 따라서, 정찰 로봇(100)을 이동시키는 단계(30, 40)에서는 GPS 모듈(130)의 실제 위치를 이동 경로(T1, T2)에 일치시키도록 제어 모듈(110)이 구동 모듈(120)의 작동 여부 및 작동 방향 등을 제어할 수 있다.
도 3에 도시된 바와 같이, 제어 모듈(110은 GPS 모듈(130)의 현재 위치와 이동 경로(T1, T2)를 이용하여 정찰 로봇(100)을 제1 이동 경로(T1)와 제2 이동 경로(T2)에 따라서 이동시킬 수 있다.
정찰 구역(A1, A2)을 정찰하는 단계(50, 60, 70, 80, 90)는, 앞서 설정된 정찰 구역(A1, A2) 중에서 정찰 로봇(100)의 현재 위치에 대응하는 정찰 구역(A1, A2)을 로딩하는 단계(50), 정찰 로봇(100)에 구비된 LRF(150) 또는 카메라(140)를 회전 또는 이동시켜 정찰 구역(A1, A2)을 정찰하는 단계(60), 및 LRF(150) 또는 카메라(140)의 감지값을 이용하여 정찰 구역(A1, A2)의 정찰 영상 정보를 생성 및 저장하는 단계(70)를 구비할 수 있다.
여기서, 정찰 영상 정보를 생성 및 저장하는 단계(70)에서는 정찰 로봇(100)의 현재 위치를 중심으로 하는 3차원 좌표계를 이용하여 정찰 영상 정보를 원기둥 형상의 3차원 영상 정보로 생성할 수 있다. 따라서, 정찰 영상 정보가 정찰 구역(A1, A2)을 2차원이 아닌 3차원적으로 나타내므로, 정찰 구역(A1, A2)의 전방위 정찰이 가능할 뿐만 아니라 사람이 육안으로 직접보는 것과도 유사한 정찰이 가능할 수 있다.
도 3에 도시된 바와 같이, 정찰 구역(A1, A2)을 정찰하는 단계(50, 60, 70, 80, 90)에서는, 정찰 로봇(100)이 제1 정찰 지점(P1) 또는 제2 정찰 지점(P2)에 도달되면 제1 정찰 구역(A1) 또는 제2 정찰 구역(A2)의 정찰 정보를 로딩한 후 그 정보에 따라서 제1 정찰 구역(A1) 또는 제2 정찰 구역(A2)을 정찰할 수 있다. 이때, 제1 정찰 구역(A1)과 제2 정찰 구역(A2)은 제1 정찰 지점(P1) 또는 제2 정찰 지점(P2)을 중심으로 하는 3차원 좌표계를 기준으로 원기둥 형상의 3차원 공간에 대하여 정찰이 이루어질 수 있다.
전술한 바와 같이, 본 실시예에서는 정찰 로봇(100)의 이동 경로(T1, T2)와 별개로 정찰 구역(A1, A2)이 설정되어 있으므로, 정찰 로봇(100)이 이동 경로(T1, T2)를 따라 이동하는 과정에서 기설정된 정찰 구역(A1, A2)만 집중적으로 정찰할 수 있다. 따라서, 정찰 로봇(100)은 정찰 구역(A1, A2)을 매우 신속하고 상세하게 정찰할 수 있으며, 정찰 로봇(100)이 처리해야만 되는 정찰 영상의 정보를 감소시킬 수 있다.
한편, 본 실시예에 따른 정찰 구역을 정찰하는 단계(50, 60, 70, 80, 90)는, 앞서 생성된 정찰 영상 정보를 정찰 로봇(100)에 구비된 디스플레이 모듈(160)에 표시하는 단계(80), 및 정찰 로봇(100)에 구비된 통신 모듈(170)을 이용하여 정찰 영상 정보를 외부로 전송하는 단계(90)를 더 구비할 수 있다.
정찰 영상 정보를 디스플레이 모듈(160)에 표시하는 단계(80)에서는, 정찰 로봇(100)의 디스플레이 모듈(160)에 정찰 로봇(100)의 정찰 영상 정보 및 작동 상태가 표시될 수 있다. 따라서, 주위 사람들은 디스플레이 모듈(160)을 통해서 정찰 로봇(100)의 정찰 영상 정보를 육안으로 간편하게 확인할 수 있으며, 뿐만 아니라 정찰 로봇(100)의 작동 상태 확인 및 디버깅 작업에 활용할 수 있다.
정찰 영상 정보를 외부로 전송하는 단계(90)에서는, 통신 모듈(170)을 통해서 정찰 로봇(100)의 카메라(140)와 LRF(150)에 감지된 정찰 구역(A1, A2)의 3차원 영상 정보를 관제탑으로 전송할 수 있으며, 통신 모듈(170)을 통해서 관제탑에서 전송하는 각종 정보를 전달 받아 제어 모듈(110)의 각종 데이터 및 프로그램을 수정할 수 있다.
이상과 같이 본 발명의 실시예에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
100: 정찰 로봇
110: 제어 모듈
120: 구동 모듈
130: GPS 모듈
140: 카메라
150: LRF
160: 디스플레이 모듈
170: 통신 모듈
T1, T2: 이동 경로
A1, A2: 정찰 구역
M: 지도 정보

Claims (7)

  1. 지도 정보를 이용하여 정찰 로봇의 이동 경로를 설정하는 단계;
    상기 이동 경로 및 상기 지도 정보를 이용하여 상기 정찰 로봇의 정찰 구역을 설정하는 단계;
    상기 이동 경로를 따라 상기 정찰 로봇을 이동시키는 단계; 및
    상기 정찰 로봇의 위치에 따라 상기 정찰 구역을 정찰하는 단계;
    를 포함하는 정찰 로봇의 제어 방법.
  2. 제1항에 있어서,
    상기 정찰 구역을 설정하는 단계에서는, 상기 이동 경로 상에 존재하는 복수의 위치에 대하여 상기 정찰 구역을 개별적으로 설정하는 정찰 로봇의 제어 방법.
  3. 제2항에 있어서,
    상기 정찰 구역은 상기 정찰 로봇의 수평 정찰 각도, 수직 정찰 각도, 정찰 높이 또는 정찰 거리 중 적어도 어느 하나의 정보로 형성된 정찰 로봇의 제어 방법.
  4. 제1항에 있어서,
    상기 정찰 로봇을 이동시키는 단계는,
    상기 정찰 로봇에 구비된 GPS 모듈을 이용하여 상기 정찰 로봇의 현재 위치를 실시간으로 감지하는 단계; 및
    상기 정찰 로봇의 현재 위치를 상기 이동 경로와 비교하여 상기 정찰 로봇의 이동을 제어하는 단계;
    를 구비하는 정찰 로봇의 제어 방법.
  5. 제1항에 있어서,
    상기 정찰 구역을 정찰하는 단계는,
    상기 정찰 구역을 설정하는 단계에서 설정된 상기 정찰 구역 중에서 상기 정찰 로봇의 현재 위치에 대응하는 정찰 구역을 로딩하는 단계;
    상기 정찰 로봇에 구비된 거리 측정기 또는 카메라를 회전 또는 이동시켜 상기 정찰 구역을 정찰하는 단계; 및
    상기 거리 측정기 또는 상기 카메라의 감지값을 이용하여 상기 정찰 구역의 정찰 영상 정보를 생성 및 저장하는 단계;
    을 구비하는 정찰 로봇의 제어 방법.
  6. 제5항에 있어서,
    상기 정찰 영상 정보를 생성 및 저장하는 단계에서는 상기 정찰 로봇의 현재 위치를 중심으로 하는 3차원 좌표계를 이용하여 상기 정찰 영상 정보를 원기둥 형상의 3차원 영상 정보로 생성하는 정찰 로봇의 제어 방법.
  7. 제5항에 있어서,
    상기 정찰 구역을 정찰하는 단계는,
    상기 정찰 영상 정보를 생성 및 저장하는 단계에서 생성된 상기 정찰 영상 정보를 상기 정찰 로봇에 구비된 디스플레이 모듈에 표시하는 단계; 및
    상기 정찰 로봇에 구비된 통신 모듈을 이용하여 상기 정찰 영상 정보를 외부로 전송하는 단계;
    를 더 구비한 정찰 로봇의 제어 방법.
KR20130120766A 2013-10-10 2013-10-10 정찰 로봇의 제어 방법 KR20150042040A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130120766A KR20150042040A (ko) 2013-10-10 2013-10-10 정찰 로봇의 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130120766A KR20150042040A (ko) 2013-10-10 2013-10-10 정찰 로봇의 제어 방법

Publications (1)

Publication Number Publication Date
KR20150042040A true KR20150042040A (ko) 2015-04-20

Family

ID=53035302

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130120766A KR20150042040A (ko) 2013-10-10 2013-10-10 정찰 로봇의 제어 방법

Country Status (1)

Country Link
KR (1) KR20150042040A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101998741B1 (ko) * 2019-04-22 2019-07-10 주식회사 미래와도전 시설 표면 오염도 자동 측정 시스템
CN110221608A (zh) * 2019-05-23 2019-09-10 中国银联股份有限公司 一种巡检设备的方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101998741B1 (ko) * 2019-04-22 2019-07-10 주식회사 미래와도전 시설 표면 오염도 자동 측정 시스템
CN110221608A (zh) * 2019-05-23 2019-09-10 中国银联股份有限公司 一种巡检设备的方法及装置

Similar Documents

Publication Publication Date Title
US10414494B2 (en) Systems and methods for reliable relative navigation and autonomous following between unmanned aerial vehicle and a target object
EP3168705B1 (en) Domestic robotic system
KR101703177B1 (ko) 차량 위치 인식 장치 및 방법
KR101776823B1 (ko) 외부 감시카메라를 이용한 모바일 로봇의 위치인식 방법 및 시스템
JP6083520B2 (ja) ロボット誘導方法と装置
US20160217578A1 (en) Systems and methods for mapping sensor feedback onto virtual representations of detection surfaces
CN110221623A (zh) 一种空地协同作业系统及其定位方法
CN106291535A (zh) 一种障碍物检测装置、机器人及避障系统
US20220161430A1 (en) Recharging Control Method of Desktop Robot
CN104777835A (zh) 一种全向自动叉车及3d立体视觉导航定位方法
CN106796112A (zh) 检测车辆控制设备、控制方法和计算机程序
CN105486311A (zh) 室内机器人定位导航方法及装置
CN104718561A (zh) 基于消失点确定的传感器校准和位置估计
WO2011040239A1 (ja) 広角撮像装置及び測定システム
EP3594112B1 (en) Control system for a flying object, control device therefor, and marker thereof
CN106352871A (zh) 一种基于天花板人工信标的视觉室内定位系统和方法
US11820001B2 (en) Autonomous working system, method and computer readable recording medium
US20230064071A1 (en) System for 3d surveying by an autonomous robotic vehicle using lidar-slam and an estimated point distribution map for path planning
CN115597659A (zh) 一种变电站智能安全管控方法
CN106370160A (zh) 一种机器人室内定位系统和方法
CN115793649B (zh) 一种电缆沟自动巡检装置及巡检方法
KR20150042040A (ko) 정찰 로봇의 제어 방법
JP2021131762A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6368503B2 (ja) 障害物監視システム及びプログラム
RU139478U1 (ru) Система управления роботизированным объектом

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application