KR20200080421A - 재난 구조 로봇 및 이의 동작 방법 - Google Patents

재난 구조 로봇 및 이의 동작 방법 Download PDF

Info

Publication number
KR20200080421A
KR20200080421A KR1020180165408A KR20180165408A KR20200080421A KR 20200080421 A KR20200080421 A KR 20200080421A KR 1020180165408 A KR1020180165408 A KR 1020180165408A KR 20180165408 A KR20180165408 A KR 20180165408A KR 20200080421 A KR20200080421 A KR 20200080421A
Authority
KR
South Korea
Prior art keywords
disaster rescue
robot
rescue robot
disaster
control unit
Prior art date
Application number
KR1020180165408A
Other languages
English (en)
Inventor
이승진
백지훈
오현택
김상훈
Original Assignee
이승진
오현택
김상훈
백지훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이승진, 오현택, 김상훈, 백지훈 filed Critical 이승진
Priority to KR1020180165408A priority Critical patent/KR20200080421A/ko
Publication of KR20200080421A publication Critical patent/KR20200080421A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명의 일 실시 예에 의한 재난 구조 로봇은, 전 방향으로 이동 가능한 메카넘 휠; 과 객체 습득 및 운반을 수행하는 로봇 팔; 과 상기 로봇 팔에 연결되어 전방에 대해 전후로 이동 가능한 카메라; 및 목표 지점까지 자율 주행하도록 상기 메카넘 휠을 제어하고, 상기 객체에 접근하면 상기 카메라가 상기 객체를 포함하는 복수개의 영상을 획득하도록 상기 로봇 팔을 제어하고, 상기 영상에 기초하여 분석한 상기 객체와 상기 재난 구조 로봇과의 거리가 임계값 미만이면 상기 객체를 습득하도록 상기 로봇 팔을 제어하는 제어부를 포함한다.

Description

재난 구조 로봇 및 이의 동작 방법{DISASTER RELIEF ROBOT AND OPERATING METHOD OF THEREOF}
본 발명은 재난 구조 로봇 및 이의 동작 방법에 관한 것으로서, 보다 구체적으로 재난 지역에서 효율적으로 이동하고 급박한 재난 현장에 최적화된 자율주행 알고리즘을 가진 재난 구조 로봇 및 이의 동작 방법에 관한 것이다.
일반적으로 재난 지역의 재난환경 탐사 및 인명 구조를 위해 구조 요원이 투입된다. 인적 재해 또는 자연적 재해에 의한 재난 사고는 매년 증가하는 추세이다. 따라서, 구조 요원의 인적 사고 및 손해 또한 기하급수적으로 증가하고 있다.
이러한 문제점을 해결하기 위해 구조 요원 대신 로봇을 투입하는 방안이 고려될 수 있다. 이를 위해서는, 로봇이 재난 지역을 자율주행 하면서 재난 환경을 탐사하고 인명을 스스로 구조할 수 있어야 한다. 그러나, 기존의 로봇의 자율주행 알고리즘은 재난 지역에서 비효율적인 움직임을 보여주고 있으며, 급박한 재난 현장에 최적화되어 있지 않다.
본 발명은 재난 지역에서 효율적으로 이동하고 급박한 재난 현장에 최적화된 자율주행 알고리즘을 가진 재난 구조 로봇 및 이의 동작 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명은 기존의 자율주행 알고리즘에 DQN을 이용한 머신 러닝 기법을 적용시켜 보다 실내 재난 환경에 최적화된 재난 구조 로봇 및 이의 동작 방법을 제공하는 것을 목적으로 한다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재에 의해 제안되는 실시 예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시 예에 의한 재난 구조 로봇은, 전 방향으로 이동 가능한 메카넘 휠; 과 객체 습득 및 운반을 수행하는 로봇 팔; 과 상기 로봇 팔에 연결되어 전방에 대해 전후로 이동 가능한 카메라; 및 목표 지점까지 자율 주행하도록 상기 메카넘 휠을 제어하고, 상기 객체에 접근하면 상기 카메라가 상기 객체를 포함하는 복수개의 영상을 획득하도록 상기 로봇 팔을 제어하고, 상기 영상에 기초하여 분석한 상기 객체와 상기 재난 구조 로봇과의 거리가 임계값 미만이면 상기 객체를 습득하도록 상기 로봇 팔을 제어하는 제어부를 포함한다.
본 발명의 다른 실시 예에 의한 재난 구조 로봇의 동작 방법은, 전 방향으로 이동 가능한 메카넘 휠을 제어하여 목표 지점까지 자율 주행하는 단계; 와 객체에 접근하면, 로봇 팔을 제어하여 상기 로봇 팔에 연결된 카메라를 전방에 대해 전후로 이동시키는 단계; 와 상기 카메라에 의해 상기 객체를 포함하는 복수개의 영상을 획득하는 단계; 및 상기 영상에 기초하여 분석한 상기 객체와 상기 재난 구조 로봇과의 거리가 임계값 미만이면, 상기 객체를 습득하도록 상기 로봇 팔을 제어하는 단계를 포함한다.
본 발명에 따른 실시 예들에 의하면, 재난 위험 지역에 구조요원 대신 로봇이 투입되어 재난환경 탐사 및 인명 구조를 수행함으로써, 구조 활동의 효율 및 안정성을 상승시키고 재난으로 인한 인명피해를 줄일 수 있다.
또한, 본 발명에 따른 실시 예들에 의하면, 재난 현장에 로봇이 선 진입하여 재난 구역 탐사를 통해서 실내 지도, 내부 환경 정보 습득을 하여 구조활동의 효율 및 안정성을 상승시킬 수 있다.
도 1은 본 발명의 일 실시 예에 의한 재난 구조 로봇의 외관을 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 의한 재난 구조 로봇에 포함되는 메카넘 휠을 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 의한 재난 구조 로봇의 구성을 도시한 블록도이다.
도 4는 본 발명의 일 실시 예에 의한 재난 구조 로봇의 동작 과정을 도시한 도면이다.
도 5는 본 발명의 다른 실시 예에 의한 재난 구조 로봇의 동작 과정을 도시한 도면이다.
도 6은 본 발명의 일 실시 예에 의한 재난 구조 로봇이 정의하는 행동 패턴을 도시한다.
이하에서는 본 발명의 구체적인 실시예를 도면을 참조하여 상세히 설명한다. 그러나 본 발명의 기술적 사상이 이하에서 기술되는 실시예들에 의하여 제한되는 것은 아니며, 또 다른 구성요소의 추가, 변경 및 삭제 등에 의해서 퇴보적인 다른 발명이나 본 발명의 기술적 사상의 범위 내에 포함되는 다른 실시예들을 용이하게 제안할 수 있다.
본 발명에서 사용되는 용어는 가능한 한 현재 해당 기술과 관련하여 널리 사용되는 일반적인 용어를 선택하였으나, 특별한 경우에는 출원인이 임의로 선정한 용어도 있으며 이 경우 해당되는 발명의 설명 부분에서 그 의미를 상세히 기재하였다. 그러므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 함을 미리 밝혀둔다. 이하에서 기술하는 설명에 있어서, 단어 '포함하는'은 열거된 것과 다른 구성요소들 또는 단계들의 존재를 배제하지 않는다.
도 1은 본 발명의 일 실시 예에 의한 재난 구조 로봇의 외관을 도시한 도면이다.
본 발명의 일 실시 예에 의한 재난 구조 로봇(100)은 재난 현장에 진입하여 자율주행 함으로써, 재난 환경을 탐사하고 인명 구조활동을 수행할 수 있다. 이를 위해, 재난 구조 로봇(100)은 1) 재난환경의 지도 작성 및 딥러닝을 이용한 자율주행, 2) 목적지까지의 최단 경로 추출, 3) 주변 환경을 인식하여 스스로 장애물을 회피하며 목적지까지 주행, 4) 도착 시간 최소화 등의 기능을 수행할 수 있다.
기존의 로봇은 DWA(Dynamic window approach), Potential field 등의 자율주행 알고리즘을 사용하여 목적지까지 자율주행 한다. 그러나, 상기와 같은 자율주행 알고리즘은 본 발명에서 재난 구조 로봇(100)이 수행하는 상기와 같은 기능들을 모두 충족시킬 수 없어, 재난 현장에서 구조 활동을 하기에 적합하지 않다.
따라서, 본 발명에서는 움직임의 자유도를 개선해주는 전 방향 이동 바퀴인메카넘 휠(Mecanum Wheel)을 장착하고, 자율주행 로봇에서 주로 사용되는 기존의 최단 경로 탐색을 위한 다익스트라(Dijkstra) 알고리즘에 인공신경망을 결합하여 학습을 통해 재난 구조를 위해 필요한 상기 기능들을 수행하기 위한 최적의 행동을 수행하도록 설계하였다.
이 경우, 재난 구조 로봇(100)은 재난 현장을 주행하며 SLAM을 통해서 지도를 작성하고, 이를 기반으로 자율주행의 기존 알고리즘에 머신러닝 기술을 결합하여 보다 동적인 환경을 스스로 판단하여 헤쳐 나갈 수 있다.
도 1을 참조하면, 재난 구조 로봇(100)은 본체(110)와 로봇 팔(120) 및 이동 바퀴(130)를 포함하여 구성될 수 있다.
본체(110)는 소정 형태의 외관을 가지는 프레임 들로 구성될 수 있다. 프레임에 의해 형성되는 내부 공간에는 재난 구조 로봇(100)의 구성요소 및 부품들이 내장될 수 있다.
본체(110)는 재난 환경에서의 화기나 열 또는 풍력 등에 의한 외부 충격을 견딜 수 있도록 내구성 있는 재질의 소재로 구성될 수 있다. 이를 위해, 본체(110)는 견고한 재질로 구성되어 재난 구조 로봇(100)을 외부로부터 보호하는 보호 프레임을 포함할 수 있다.
본체(110)에는 인명 구조 시 구조한 사람을 적재할 수 있는 내부 공간이 마련될 수 있다.
로봇 팔(120)은 객체 습득 및 운반을 수행할 수 있다. 재난 구조 로봇(100)이 영상 처리를 통해 검출한 객체를 물리적으로 습득하기 위하여, 로봇 팔(120)이 사용될 수 있다.
검출한 객체를 물리적으로 습득할 수 있도록, 로봇 팔(120)에는 그리퍼가 장착될 수 있다.
이동 바퀴(130)는 재난 구조 로봇(100)을 이동시킬 수 있다.
구체적으로, 이동 바퀴(130)는 재난 구조 로봇(100)을 전후 방향, 좌우 방향 또는 상하 방향으로 이동시킴으로써, 재난 구조 로봇(100)을 목적지까지 주행 경로에 따라 자율주행 시킬 수 있다.
일 실시 예에 의하면, 이동 바퀴(130)는 메카넘 휠로 구현될 수 있다. 이에 대해서는 도 2을 참조하여 상세히 설명한다.
도 2는 본 발명의 일 실시 예에 의한 재난 구조 로봇에 포함되는 메카넘 휠을 도시한 도면이다.
본 발명의 일 실시 예에 의한 재난 구조 로봇(100)은 전 방향 이동 가능한 4륜 메카넘 휠(Mecanum Wheel)(200)을 장착할 수 있다.
재난 현장은 재난 사고에 의한 장애물이 일반 환경에 비해 상대적으로 많이 존재하고, 주행 경로 상에 실시간으로 장애물이 출현하는 특성을 가진다. 따라서, 재난 현장을 자율 주행하는 재난 구조 로봇(100)은 주행 중 갑자기 출현하는 장애물을 회피하여야 한다.
장애물 회피 능력 향상을 위해, 재난 구조 로봇(100)은 메카넘 휠(200)을 장착할 수 있다. 이에 의해, 재난 구조 로봇(100)은 이동 및 움직임의 자유도를 높일 수 있다.
재난 구조 로봇(100)은 원 운동보다 직선 운동을 하는 경우, 이동 및 움직임의 자유도가 높아질 수 있다. 예를 들어, 장애물을 발견했을 때 현재 위치에서 원 운동을 하여 장애물을 회피하는 것보다, 현재 위치에서 장애물을 피해 바로 방향을 전환하는 것이 훨씬 효율적이다. 따라서, 메카넘 휠(200)은 직선 이동할 수 있도록 구성될 수 있다. 이를 위해, 메카넘 휠(200)은 원 운동으로 이동하는 것이 아닌 옆으로 직선적으로 이동할 수 있도록, 지름과 각도가 설계될 수 있다.
도 3은 본 발명의 일 실시 예에 의한 재난 구조 로봇의 구성을 도시한 블록도이다.
본 발명의 일 실시 예에 의한 재난 구조 로봇(100)은 전원부(310), 측정부(320), 이동부(330), 통신부(340) 및 제어부(350)를 포함할 수 있다.
전원부(310)는 재난 구조 로봇(100)을 동작시키기 위한 전력을 공급할 수 있다. 이를 위해, 전원부(310)는 배터리, DC 컨버터, 스위치 및 보호회로를 포함할 수 있다.
배터리는 충전된 전력을 방전한다. 이 경우, 본체(110)의 메인 보드에의 전력 공급을 위해서는 14.8V 3200mAh 리튬-폴리머 배터리가 사용되고, 모터와 로봇 팔(120) 및 모터 드라이버에의 전력 공급을 위해서는 14.8V 5000mAh 리튬-폴리머 배터리가 사용될 수 있다.
DC 컨버터는 과전류를 방지할 수 있다. 이를 위해, DC 컨버터는 배터리로부터 공급되는 14.8V의 전력을 5V로 감압할 수 있다.
스위치는 전력의 공급을 스위칭 할 수 있다. 이를 위해, 스위치는 트랜지스터로 구현될 수 있다.
보호회로는 배터리의 과방전을 방지하는 회로이다.
측정부(320)는 재난 구조 로봇(100)의 자율주행 시 주변 객체를 측정하고, 이에 기초하여 재난 환경을 인식할 수 있다.
이를 위해, 측정부(320)는 카메라, 라이다(Light Detection And Ranging: LiDAR) 센서, 관성센서, 거리측정센서(Position Sensitive Device: PSD), 모터 엔코더(encoder) 등의 다양한 센서들을 포함할 수 있다.
카메라는 재난 구조 로봇(100)의 주행 환경에 대한 영상데이터를 획득할 수 있다. 일 실시 예에 의하면, 카메라는 USB 카메라(Ocam)일 수 있다. 이 경우, 카메라는 재난 구조 로봇(100)의 전면에 배치되어 전방의 영상 데이터를 획득할 수 있다.
본 발명에서는 습득할 객체와의 거리를 인식하는 경우, 깊이(depth) 카메라를 이용하는 대신 USB 카메라만을 이용한다. 구체적으로, USB 카메라와 로봇 팔을 이용하여 영상데이터를 획득하고, 마커(marker)의 크기에 대응하여 USB 카메라와 마커가 부착된 객체의 상대적인 거리를 측정하고 이를 지도상의 절대 좌표로 나타낼 수 있다. USB 카메라는 로봇 팔(120)에 부착되어 전후로 이동할 수 있으므로, 깊이 카메라의 역할을 수행할 수 있다.
라이다 센서는 레이저를 목표물에 비추어 사물과의 거리 및 다양한 물성을 감지하는 센서이다. 이 경우, 라이다 센서는 적외선 센서를 기반으로 360°2D 거리 데이터를 습득할 수 있다.
관성센서는 재난 구조 로봇(100)의 중심에 배치되어, 재난 구조 로봇(100)의 자세(pose) 및 각속도를 계측할 수 있다.
거리측정센서는 적외선이나 레이저, 전하결합소자(Charge Coupled Device: CCD)등을 이용하여 객체까지의 거리를 측정할 수 있다.
모터 엔코더(Rotary encoder 또는 Shaft encoder 라고도 함)는 축이 얼마나 회전했는지를 감지할 수 있다. 이 경우, 모터 엔코더는 모터에 부착되어 메인 보드의 MCU를 통해 모터의 회전수에 따른 펄스를 카운트할 수 있다.
이동부(330)는 재난 구조 로봇(100)을 목표좌표까지 주행 시킬 수 있다. 이를 위해, 이동부(330)는 제어부(350)로부터 수신한 제어 신호에 따라, 재난 구조 로봇(100)의 주행 또는 회전 방향과 속도를 조절할 수 있다.
이동부(330)는 로봇 팔(120)이 객체를 습득하도록 로봇 팔(120)을 동작 시킬 수 있다. 이를 위해, 이동부(330)는 제어부(350)로부터 수신한 제어 신호에 따라, 로봇 팔(120)의 이동과 회전 방향 및 속도를 조절하고 그리퍼의 동작을 제어할 수 있다.
이동부(330)는 무게를 지탱하고 동력에 따른 이동성을 확보하기 위하여, 본체(110) 하부에 메카넘 휠, DC 모터, 모터 드라이브, 액츄에이터 등을 구비할 수 있다.
통신부(340)는 재난 구조 로봇(100)의 구성 요소들과 통신을 수행할 수 있다. 이 경우, 통신부(340)는 7구 USB 허브를 포함하여, USB 허브를 이용하여 로봇 팔(120) 및 측정부(320)의 다양한 센서들과 시리얼 통신을 수행할 수 있다.
제어부(350)는 재난 환경에 대한 지도 작성 및 위치 인식을 수행할 수 있다.
구체적으로, 제어부(350)는 위치 인식과 목적지까지의 전역 경로 탐색을 위해, SLAM 알고리즘을 사용하여 지도를 작성하고 재난 구조 로봇(100)의 위치를 인식할 수 있다. 이 경우, 위치인식 성능을 높일 수 있도록, 2D 거리 정보만을 가지고 위치를 인식하는 Hector Slam 알고리즘 대신, 2D 거리 정보와 주행거리 정보를 참조하여 보다 정확한 위치 인식이 가능한 Gmapping 알고리즘을 사용할 수 있다.
또한, 제어부(350)는 전역경로 탐색을 수행하는 경우, 향상된 다익스트라 알고리즘을 통해 지도상에서 목적지까지의 전체 경로를 탐색할 수 있다.
제어부(350)는 재난 구조 로봇(100)을 자율주행 시킬 수 있다.
이를 위해, 제어부(350)는 가상 환경과 강화학습 방식을 이용하여, DQN에 기반한 자율주행에 대한 학습을 수행할 수 있다. 여기서, DQN(Deep Q Network)은 목적에 대해 상태에 따른 최적의 행동을 학습할 수 있는 인공신경망이다. 학습을 위해 입력되는 데이터는, 장애물, 경로, 재난 구조 로봇(100)의 자세 정보 등을 포함할 수 있다. 이 경우, 제어부(350)는 주어진 환경에서 상태와 행동에 따르는 보상에 대해 신경망 가중치를 업데이트함으로써, 사용자의 개입 없이도 스스로 학습을 진행할 수 있다. 예를 들어, 상태 보상(Reward)은 다음과 같이 정해질 수 있다.
1. 장애물에 대한 음의 보상으로 충돌 시 -500점
2. 시간에 대한 음의 보상으로 100 [msec]당 -0.6점
3. 경로 추종에 대한 보상으로 재난 구조 로봇(100)으로부터 1m 지점의 최단 경로에 대하여 이전 프레임보다 얼마나 가까워졌는가에 대해 가까워졌다면 양의 보상을, 멀어 졌다면 음의 보상을 획득 (-6점 ~ +6점)
4. 목적지 도착 시 +100점
또한, 제어부(350)는 목적지에 도착하거나 장애물에 충돌하더라도 자동으로 재난환경을 초기화하여 계속해서 학습을 수행할 수 있다.
제어부(350)는 센서를 통해 계측한 재난 구조 로봇(100)의 현재 선속도 값 및 각속도 값과 인공신경망에서 판단하는 최적의 행동에 대한 목표 선속도 값 및 각속도 값을 통해 PID 자동제어 알고리즘을 적용하여 실제 재난 구조 로봇(100)의 이동 궤도를 자동적으로 제어할 수 있다.
제어부(350)는 로봇 팔(120)을 제어할 수 있다.
구체적으로, 제어부(350)는 객체 검출을 통해 파악된 정보에 기초하여, 객체를 습득할 수 있도록 로봇 팔(120)의 각 모터의 회전 각도를 제어하고, 그리퍼를 통해 사물을 습득할 수 있도록 로봇 팔(120)을 제어할 수 있다. 이 경우, 제어부(350)는 객체와의 상대 거리 정보 및 절대 위치 변환을 수행할 수 있다.
도 4는 본 발명의 일 실시 예에 의한 재난 구조 로봇의 동작 과정을 도시한 도면이다.
지도를 작성한다(S401).
재난 구조 로봇(100)의 제어부(350)는 재난 환경에 대한 지도를 작성할 수 있다. 구체적으로, 제어부(350)는 SLAM 알고리즘을 사용하여 지도를 작성하고 재난 구조 로봇(100)의 위치를 인식할 수 있다. 이 경우, 위치인식 성능을 높일 수 있도록, 2D 거리 정보만을 가지고 위치를 인식하는 Hector Slam 알고리즘 대신, 2D 거리 정보와 주행거리 정보를 참조하여 보다 정확한 위치 인식이 가능한 Gmapping 알고리즘을 사용할 수 있다.
지도상 목적지를 선택한다(S402).
재난 구조 로봇(100)의 제어부(350)는 작성된 지도상에서 목적지를 설정하고, 목적지의 목표 좌표를 인식할 수 있다. 이 경우, 제어부(350)는 주행의 목적, 재난의 종류 등에 기초하여 목적지를 선택할 수 있다.
최단 경로를 설정한다(S403).
재난 구조 로봇(100)의 제어부(350)는 전역 경로를 탐색하고, 목표 좌표까지의 최단 경로를 설정할 수 있다. 전역경로 탐색을 수행하는 경우, 제어부(350)는 향상된 다익스트라 알고리즘을 통해 지도상에서 목적지까지의 전체 경로를 탐색할 수 있다.
경로데이터와 자세데이터 및 장애물 데이터를 획득한다(S404).
여기서, 경로데이터는 목적지까지의 최단 경로일 수 있다. 자세데이터는 재난 구조 로봇(100)의 자세(pose) 및 각속도 등으로, 측정부(320)에 포함되는 관성 센서를 통해 측정될 수 있다. 장애물 데이터는 재난 구조 로봇(100)이 주행하는 재난 환경에 배치된 장애물의 유무, 위치, 종류 등에 대한 데이터로, 측정부(320)에 포함된 라이다 센서, 거리측정센서 등을 통해 측정될 수 있다.
인공신경망 입력데이터를 가공한다(S405).
제어부(350)는 인공신경망 학습을 위해 입력되는 데이터를 가공할 수 있다. 구체적으로, 인공신경망 학습에는 경로데이터와 자세데이터 및 장애물 데이터가 사용된다. 따라서, 제어부(350)는 경로, 재난 구조 로봇(100)의 자세 및 장애물 데이터들을 서로 연관이 있는 입력 데이터로 가공하고, 인공신경망 학습에 사용될 수 있는 형태로 변환한다.
자율주행 경로를 학습한다(S406).
제어부(350)는 가상 환경과 강화학습 방식을 이용하여, DQN에 기반한 자율주행 경로에 대한 학습을 수행할 수 있다. 이 경우, 제어부(350)는 본 발명에서 정의되는 15개의 행동 패턴 중 강화 학습 방법을 통해 가장 보상이 높은 행동을 스스로 선택하고 학습할 수 있다.
최적 이동 궤적을 출력한다(S407).
제어부(350)는 자율주행 경로의 학습 결과에 기반하여 최적 이동 궤적을 설정할 수 있다. 최적 이동 궤적은 최단 경로로 주행하되 장애물을 회피할 수 있는 경로로 설정될 수 있다.
목표 궤적을 설정한다(S408).
제어부(350)는 최적 이동 궤적에 기초하여, 목표 좌표까지의 목표 궤적을 설정한다.
PID 자동 제어를 수행한다(S409).
제어부(350)는 목표 궤적까지 최적 이동 궤적을 따라 이동할 수 있도록, 이동부(330)를 제어할 수 있다. 이 경우, 제어부(350)는 측정부(320)가 계측한 재난 구조 로봇(100)의 선속도와 각속도에 기초하여, 최적 이동 궤적과의 오차를 줄여 목표 좌표에 도달할 수 있도록 PID 제어 알고리즘을 사용하여 이동부(330)의 모터를 제어할 수 있다.
주행한다(S410).
제어부(350)는 재난 구조 로봇(100)이 목표 좌표까지 자율주행 할 수 있도록, 이동부(330)에 계속적으로 주행 명령을 하달한다.
도 5는 본 발명의 다른 실시 예에 의한 재난 구조 로봇의 동작 과정을 도시한 도면이다.
주행한다(S501).
재난 구조 로봇(100)은 재난 현장을 자율 주행할 수 있다. 이 경우, 재난 구조 로봇(100)은 목표 좌표를 향하여 최적 이동 궤적을 따라 주행할 수 있다.
목적지에 도착하였는지 판단한다(S502).
재난 구조 로봇(100)의 제어부(350)는 현재 위치의 절대 좌표를 파악하고, 이를 목표 좌표를 비교하여 목적지에 도착하였는지 판단할 수 있다.
만일, 목적지에 도착하지 않았으면(S502-No), 재난 구조 로봇(100)은 S501 단계로 되돌아가 주행을 계속한다.
반면, 목적지에 도착하였으면(S502-Yes), 재난 구조 로봇(100)은 마커를 발견한다(S503). 이 경우, 재난 구조 로봇(100)의 측정부(320)는 로봇 팔(120)에 부착된 USB 카메라를 사용하여, 마커를 인식할 수 있다. 여기서, 마커는 객체에 가상으로 또는 물리적으로 부착된 표지로서, 해당 객체를 식별하기 위해 사용될 수 있다. 예를 들어, 마커는 객체에 증강 현실(AR)에 의해 가상으로 부착될 수 있다.
마커 검출 및 상대 거리를 계측한다(S504).
재난 구조 로봇(100)의 제어부(350)는 마커를 검출하고, 마커와 재난 구조 로봇(100) 간의 상대 거리를 계측할 수 있다.
절대 좌표 데이터를 수신한다(S505).
재난 구조 로봇(100)의 통신부(340)는 GPS 서버나 원격 서버로부터 재난 환경에 대한 절대 좌표 데이터를 수신할 수 있다.
지도상 절대 좌표를 계산한다(S506).
제어부(350)는 마커와 재난 구조 로봇(100) 간의 상대 거리, 절대 좌표 데이터에 기초하여. 재난 구조 로봇(100)과 마커의 절대 좌표를 계산할 수 있다.
마커의 절대 위치를 출력한다(S507).
제어부(350)는 마커의 절대 좌표에 기초하여 마커의 절대 위치를 출력한다.
마커와 근접하였는지 판단한다(S508).
제어부(350)는 재난 구조 로봇(100)이 마커와 근접한 위치에 있는지 판단한다.
만일, 마커와 근접한 위치에 있으면(S508-Yes), 로봇 팔(120)을 동작한다(S509). 이 경우, 마커가 부착된 사물을 습득한다(S510). 구체적으로, 제어부(350)는 로봇 팔(120)의 속도와 가속도 및 방향을 제어하여 마커가 부착된 사물을 습득한다.
반면, 마커와 근접한 위치에 있지 않으면(S508-No), 재난 구조 로봇(100)은 S501 단계로 되돌아가 주행을 계속한다.
도 6은 본 발명의 일 실시 예에 의한 재난 구조 로봇이 정의하는 행동 패턴을 도시한다.
재난 구조 로봇(100)의 제어부(350)는 가상 환경과 강화학습 방식을 이용하여, DQN에 기반한 자율주행 경로에 대한 학습을 수행할 수 있다. 이 경우, 제어부(350)는 도 6에 도시된 재난 환경에 최적화된 15개의 행동 패턴을 정의하고, 강화 학습 방법을 통해 이들 중 가장 보상이 높은 행동을 스스로 선택하고 학습할 수 있다.
한편, 전술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터 판독 가능 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터 판독 가능 매체에 여러 수단을 통하여 기록될 수 있다. 본 발명의 다양한 방법들을 수행하기 위한 실행 가능한 컴퓨터 프로그램이나 코드를 기록하는 기록 매체는, 반송파(carrier waves)나 신호들과 같이 일시적인 대상들은 포함하지 않는 것으로 이해되어야 한다. 상기 컴퓨터 판독 가능 매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디 롬, DVD 등)와 같은 저장 매체를 포함할 수 있다.
이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위 내에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
100: 재난 구조 로봇 110: 본체
120: 로봇 팔 130: 이동 바퀴
200: 메카넘 휠 310: 전원부
320: 측정부 330: 이동부
340: 통신부 350: 제어부

Claims (10)

  1. 재난 구조 로봇에 있어서,
    전 방향으로 이동 가능한 메카넘 휠;
    객체 습득 및 운반을 수행하는 로봇 팔;
    상기 로봇 팔에 연결되어 전방에 대해 전후로 이동 가능한 카메라; 및
    목표 지점까지 자율 주행하도록 상기 메카넘 휠을 제어하고, 상기 객체에 접근하면 상기 카메라가 상기 객체를 포함하는 복수개의 영상을 획득하도록 상기 로봇 팔을 제어하고, 상기 영상에 기초하여 분석한 상기 객체와 상기 재난 구조 로봇과의 거리가 임계값 미만이면 상기 객체를 습득하도록 상기 로봇 팔을 제어하는 제어부를 포함하는 재난 구조 로봇.
  2. 제1항에 있어서,
    상기 메카넘 휠은,
    직선 운동을 수행할 수 있는 지름과 각도를 가지는 재난 구조 로봇.
  3. 제1항에 있어서,
    상기 제어부는,
    상기 객체에 증강 현실(Augmented Reality: AR)에 의해 마커를 부착하고, 상기 마커의 크기에 대응하여 상기 객체와 상기 재난 구조 로봇과의 거리를 판단하는 재난 구조 로봇.
  4. 제1항에 있어서,
    상기 제어부는,
    가상 환경과 강화 학습 방식을 이용하여, 목적에 대해 상태에 따른 최적의 행동을 학습할 수 있는 인공신경망인 DQN(Deep Q Network)에 기반한 자율 주행에 대한 학습을 수행하는 재난 구조 로봇.
  5. 제4항에 있어서,
    상기 제어부는,
    상기 재난 구조 로봇의 자세, 장애물 및 주행 경로 중 적어도 하나에 대한 데이터에 기초하여 상기 자율 주행에 대한 학습을 수행하는 재난 구조 로봇.
  6. 재난 구조 로봇의 동작 방법에 있어서,
    전 방향으로 이동 가능한 메카넘 휠을 제어하여 목표 지점까지 자율 주행하는 단계;
    객체에 접근하면, 로봇 팔을 제어하여 상기 로봇 팔에 연결된 카메라를 전방에 대해 전후로 이동시키는 단계;
    상기 카메라에 의해 상기 객체를 포함하는 복수개의 영상을 획득하는 단계; 및
    상기 영상에 기초하여 분석한 상기 객체와 상기 재난 구조 로봇과의 거리가 임계값 미만이면, 상기 객체를 습득하도록 상기 로봇 팔을 제어하는 단계를 포함하는 재난 구조 로봇의 동작 방법.
  7. 제6항에 있어서,
    상기 메카넘 휠은,
    직선 운동을 수행할 수 있는 지름과 각도를 가지는 재난 구조 로봇의 동작 방법.
  8. 제6항에 있어서,
    상기 객체에 증강 현실(Augmented Reality: AR)에 의해 마커를 부착하고, 상기 마커의 크기에 대응하여 상기 객체와 상기 재난 구조 로봇과의 거리를 판단하는 재난 구조 로봇의 동작 방법.
  9. 제6항에 있어서,
    가상 환경과 강화 학습 방식을 이용하여, 목적에 대해 상태에 따른 최적의 행동을 학습할 수 있는 인공신경망인 DQN(Deep Q Network)에 기반한 자율 주행에 대한 학습을 수행하는 재난 구조 로봇의 동작 방법.
  10. 제9항에 있어서,
    상기 재난 구조 로봇의 자세, 장애물 및 주행 경로 중 적어도 하나에 대한 데이터에 기초하여 상기 자율 주행에 대한 학습을 수행하는 재난 구조 로봇의 동작 방법.
KR1020180165408A 2018-12-19 2018-12-19 재난 구조 로봇 및 이의 동작 방법 KR20200080421A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180165408A KR20200080421A (ko) 2018-12-19 2018-12-19 재난 구조 로봇 및 이의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180165408A KR20200080421A (ko) 2018-12-19 2018-12-19 재난 구조 로봇 및 이의 동작 방법

Publications (1)

Publication Number Publication Date
KR20200080421A true KR20200080421A (ko) 2020-07-07

Family

ID=71602834

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180165408A KR20200080421A (ko) 2018-12-19 2018-12-19 재난 구조 로봇 및 이의 동작 방법

Country Status (1)

Country Link
KR (1) KR20200080421A (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113110481A (zh) * 2021-04-26 2021-07-13 上海智蕙林医疗科技有限公司 一种应急避让实现方法、系统、机器人和存储介质
CN113370224A (zh) * 2021-05-25 2021-09-10 西安工程大学 一种超视距vr智能搜救系统及方法
CN113580025A (zh) * 2021-07-14 2021-11-02 中国长江三峡集团有限公司 受力均匀的麦克纳姆轮闸门面板喷涂装置及控制方法
KR20220031287A (ko) * 2020-09-04 2022-03-11 선문대학교 산학협력단 자동 배달 장치 및 방법
KR102545587B1 (ko) * 2021-12-29 2023-06-20 한국로봇융합연구원 구조 로봇 시스템
CN116774218A (zh) * 2023-08-18 2023-09-19 山东建筑大学 一种巡逻式校射雷达及其使用方法
CN117506852A (zh) * 2023-11-03 2024-02-06 武汉理工大学 一种遥控救援机器人的灵活机械臂结构
CN117506852B (zh) * 2023-11-03 2024-06-04 武汉理工大学 一种遥控救援机器人的灵活机械臂结构

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220031287A (ko) * 2020-09-04 2022-03-11 선문대학교 산학협력단 자동 배달 장치 및 방법
CN113110481A (zh) * 2021-04-26 2021-07-13 上海智蕙林医疗科技有限公司 一种应急避让实现方法、系统、机器人和存储介质
CN113110481B (zh) * 2021-04-26 2024-02-06 上海智蕙林医疗科技有限公司 一种应急避让实现方法、系统、机器人和存储介质
CN113370224A (zh) * 2021-05-25 2021-09-10 西安工程大学 一种超视距vr智能搜救系统及方法
CN113580025A (zh) * 2021-07-14 2021-11-02 中国长江三峡集团有限公司 受力均匀的麦克纳姆轮闸门面板喷涂装置及控制方法
KR102545587B1 (ko) * 2021-12-29 2023-06-20 한국로봇융합연구원 구조 로봇 시스템
CN116774218A (zh) * 2023-08-18 2023-09-19 山东建筑大学 一种巡逻式校射雷达及其使用方法
CN116774218B (zh) * 2023-08-18 2023-11-14 山东建筑大学 一种巡逻式校射雷达及其使用方法
CN117506852A (zh) * 2023-11-03 2024-02-06 武汉理工大学 一种遥控救援机器人的灵活机械臂结构
CN117506852B (zh) * 2023-11-03 2024-06-04 武汉理工大学 一种遥控救援机器人的灵活机械臂结构

Similar Documents

Publication Publication Date Title
KR20200080421A (ko) 재난 구조 로봇 및 이의 동작 방법
US10901419B2 (en) Multi-sensor environmental mapping
ES2770730T3 (es) Localización dentro de un entorno usando fusión de sensores
CA2950978C (en) Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot
JP6863991B2 (ja) 自律的な移動ロボットのための仮想的なライン追従方法及び改造方法並びに移動ロボット
KR102090590B1 (ko) 장애물 회피에 기반하여 경유 지점을 주행하는 로봇 및 주행하는 방법
KR20220012921A (ko) 3차원 라이다를 갖는 로봇 구성
JP6828579B2 (ja) 環境整備ロボットおよびその制御プログラム
ES2914630T3 (es) Sistema y método para la operación autónoma de maquinaria pesada
Song et al. Navigation control design of a mobile robot by integrating obstacle avoidance and LiDAR SLAM
US11347226B2 (en) Method of redefining position of robot using artificial intelligence and robot of implementing thereof
KR20210004674A (ko) 이동 로봇 및 그 제어방법
AU2018311699B2 (en) Systems and methods for navigation path determination for unmanned vehicles
KR20210058998A (ko) 웨이포인트 매칭을 이용한 자율적 맵 주행
CN114072255A (zh) 移动机器人传感器配置
Alves et al. Localization and navigation of a mobile robot in an office-like environment
Asadi et al. An integrated aerial and ground vehicle (UAV-UGV) system for automated data collection for indoor construction sites
Wang et al. A real-time robotic indoor 3D mapping system using duel 2D laser range finders
CN108700877A (zh) 用于在存在活动物体时控制无人载运工具的系统和方法
JP2020095339A (ja) 移動体、移動体の制御方法及びプログラム
CN114845841A (zh) 控制方法、控制装置、机器人系统、程序及记录介质
CN116358522A (zh) 局部地图生成方法和装置、机器人、计算机可读存储介质
WO2019138640A1 (ja) 情報処理装置、情報処理方法、および、プログラム
Nakamura et al. Validation of SLAM without odometry in outdoor environment
Schueftan et al. Indoor mapping using SLAM for applications in Flexible Manufacturing Systems