KR101487681B1 - 로봇 주행경로 가이드장치 - Google Patents

로봇 주행경로 가이드장치 Download PDF

Info

Publication number
KR101487681B1
KR101487681B1 KR20130114347A KR20130114347A KR101487681B1 KR 101487681 B1 KR101487681 B1 KR 101487681B1 KR 20130114347 A KR20130114347 A KR 20130114347A KR 20130114347 A KR20130114347 A KR 20130114347A KR 101487681 B1 KR101487681 B1 KR 101487681B1
Authority
KR
South Korea
Prior art keywords
robot
actual robot
route
travel
travel route
Prior art date
Application number
KR20130114347A
Other languages
English (en)
Inventor
이동건
송영은
손형일
이민수
정회룡
Original Assignee
삼성중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성중공업 주식회사 filed Critical 삼성중공업 주식회사
Priority to KR20130114347A priority Critical patent/KR101487681B1/ko
Application granted granted Critical
Publication of KR101487681B1 publication Critical patent/KR101487681B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B59/00Hull protection specially adapted for vessels; Cleaning devices specially adapted for vessels
    • B63B59/06Cleaning devices for hulls
    • B63B59/10Cleaning devices for hulls using trolleys or the like driven along the surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Combustion & Propulsion (AREA)
  • Ocean & Marine Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

로봇 주행경로 가이드장치가 개시된다. 본 발명의 실시 예에 따른 로봇 주행경로 가이드장치는 선체 외벽 상에서 주행하는 실제로봇으로부터 실제로봇의 주행정보를 수신하는 로봇정보수신부; 수신한 주행정보를 기초로, 실제로봇이 선체 외벽 상의 현재위치에서 주행해야 하는 미리 설정된 제1주행경로와, 실제로봇이 현재 주행하고 있는 제2주행경로와, 제1주행경로를 따라 주행하도록 실제로봇의 조종방향을 가이드하기 위한 가이드경로를 그래픽이미지로 생성하여 화면에 표시하는 표시부; 및 조종핸들로부터 실제로봇 조종을 위한 조종정보를 입력받아 실제로봇으로 전달하는 인터페이스부;를 포함하되, 표시부는 조종정보에 의해 가이드경로가 표시된 방향으로 실제로봇의 조종이 수행되어 실제로봇이 제1주행경로 쪽으로 이동하는 경우, 제2주행경로가 제1주행경로 쪽으로 접근하도록 표시한다.

Description

로봇 주행경로 가이드장치{APPARATUS FOR GUIDE MOVING PATH OF ROBOT}
본 발명은 로봇 주행경로 가이드장치에 관한 것이다.
수중의 선체 외벽에는 따개비, 물이끼 등 각종 이물질이 들러붙어 외관을 해치거나 선박의 효율적인 운항에 지장을 줄 수 있으므로 청소작업이 필요하다. 작업자가 수중에서 수도구나 맨손을 이용하여 청소작업을 수행할 경우, 매우 비효율적일 뿐 아니라 청소작업의 신뢰도 및 작업자의 안전성 등을 보장하기 힘들다. 이에 최근에는 다양한 종류의 청소로봇이 사용되고 있다.
청소로봇은 자성을 갖는 구동휠을 구비하여 선체 외벽에 부착된 상태에서 주행할 수 있다. 또 청소로봇에는 카메라가 구비되어 주행하면서 선저 상태 등을 촬영하여 원격지의 운용시스템으로 전송할 수 있다. 통상적으로 사용자는 운용시스템에 연결된 모니터 화면을 통해 촬영된 영상을 확인하면서, 조종핸들을 이용하여 청소로봇의 주행방향을 조종하게 된다. 이때, 사용자는 청소로봇 조종에 앞서서 일정 기간 동안 시뮬레이션 프로그램 등을 이용한 조종훈련을 받게 된다.
그러나, 청소로봇 조종훈련을 받았다고 할지라도, 선체 외벽이 곡면을 갖도록 형성되어 있고 바람이나 파도 등의 외력이 청소로봇에 작용할 경우, 사용자가 화면을 보면서 청소로봇을 일정한 방향으로 이동시키는 것은 매우 어렵다.
또, 수중에서 청소로봇을 이동시킬 경우에는 수중 상태(물의 투명도 등), 기후 조건 등에 따라 청소로봇에 부착된 카메라에 의해 촬영된 영상이 흐릿하게 보여 제대로 청소로봇을 의도하는 경로대로 주행시키기란 쉽지 않다.
이와 관련하여 한국공개특허 제2008-0093536호(2008.10.22 공개)는 선체 외벽에 부착된 따개비 및 물이끼 등을 신속하게 청소하고, 카메라에 의해 선저의 상태를 촬영하면서 이동하는 청소로봇에 관한 기술을 공개한 바 있다.
한국공개특허 제2008-0093536호(2008.10.22 공개)
본 발명의 실시 예는 실제로봇이 현재위치에서 주행해야 하는 미리 설정된 제1주행경로와, 실제로봇이 현재 주행하고 있는 제2주행경로와, 실제로봇이 제1주행경로를 따라 주행하도록 실제로봇의 조종방향을 가이드하기 위한 가이드경로를 그래픽이미지로 생성하여 화면에 표시하여, 실제로봇을 간편하고 효율적으로 조종할 수 있는 로봇 주행경로 가이드장치를 제공하고자 한다.
또, 제1 및 제2주행경로, 가이드경로 등을 그래픽이미지를 화면에 제공함으로써, 실제로봇으로부터 전송되는 영상의 선명도에 상관없이 실제로봇을 용이하게 조종할 수 있는 로봇 주행경로 가이드장치를 제공하고자 한다.
본 발명의 일 측면에 따르면, 선체 외벽 상에서 주행하는 실제로봇으로부터 상기 실제로봇의 주행정보를 수신하는 로봇정보수신부; 상기 수신한 주행정보를 기초로, 상기 실제로봇이 상기 선체 외벽 상의 현재위치에서 주행해야 하는 미리 설정된 제1주행경로와, 상기 실제로봇이 현재 주행하고 있는 제2주행경로와, 상기 제1주행경로를 따라 주행하도록 상기 실제로봇의 조종방향을 가이드하기 위한 가이드경로를 그래픽이미지로 생성하여 화면에 표시하는 표시부; 및 조종핸들로부터 상기 실제로봇 조종을 위한 조종정보를 입력받아 상기 실제로봇으로 전달하는 인터페이스부;를 포함하되, 상기 표시부는 상기 조종정보에 의해 상기 가이드경로가 표시된 방향으로 상기 실제로봇의 조종이 수행되어 상기 실제로봇이 상기 제1주행경로 쪽으로 이동하는 경우, 상기 제2주행경로가 상기 제1주행경로 쪽으로 접근하도록 표시하는 로봇 주행경로 가이드장치가 제공될 수 있다.
상기 표시부는 상기 제1주행경로 상의 미리 설정된 위치에 고정된 정자세를 갖는 가상로봇을 더 표시할 수 있다.
상기 표시부는 상기 실제로봇의 자세가 출발위치에서 일정 각도로 틀어져 있는 경우, 상기 가상로봇을 기준으로 상기 제1주행경로를 상기 각도에 비례하여 기울어지게 표시할 수 있다.
상기 표시부는 상기 실제로봇이 상기 제1주행경로 쪽으로 이동하여 상기 제1주행경로와 상기 제2주행경로가 겹쳐진 상태에서, 상기 외력이 상기 실제로봇에 기준치 범위 내에서 작용하는 경우 상기 가이드경로를 상기 화면에서 제거하고, 상기 외력이 상기 실제로봇에 기준치 범위를 초과하여 작용하는 경우 상기 외력의 크기 및 방향 중 하나 이상을 기초로 상기 가이드경로를 그래픽이미지로 생성하여 상기 화면에 표시할 수 있다.
상기 주행정보는 상기 실제로봇에 장착된 센서모듈로부터 수신된 촬영 영상, 상기 실제로봇의 위치, 자세 및 상기 실제로봇에 작용하는 외력의 크기와 방향에 대한 정보 중 하나 이상을 포함할 수 있다.
상기 주행정보, 복수의 영역으로 구분된 상기 선체 외벽의 각 영역별 정보, 및 각각의 상기 영역에 대응되는 주행경로를 저장하는 저장부와, 저장된 상기 영역 중 상기 실제로봇의 출발위치가 속한 영역에 대응되는 상기 주행경로를 검색하는 검색부를 더 포함할 수 있다.
상기 표시부는 상기 촬영 영상을 기초로 상기 배경이미지를 생성하고, 상기 검색된 주행경로와 상기 실제로봇의 현재위치를 기초로 상기 제1주행경로 및 상기 제2주행경로를 각각 생성하고, 상기 제1주행경로를 기준으로 상기 제2주행경로의 기울어진 정도, 상기 실제로봇에 작용하는 상기 외력의 크기 및 방향 중 하나 이상을 기초로 상기 가이드경로를 생성하되, 상기 배경이미지 위에 상기 제1주행경로를 기준으로 상기 제2주행경로, 및 상기 가이드경로가 오버랩되도록 생성하는 이미지생성부를 더 포함할 수 있다.
상기 이미지생성부는 상기 제1주행경로를 기준으로 상기 제2주행경로의 기울어진 방향과 반대되는 방향으로 상기 가이드경로를 기울어지게 생성하되, 상기 제2주행경로의 기울어진 정도에 비례하게 상기 가이드경로를 생성할 수 있다.
상기 이미지생성부는 상기 제1주행경로를 기준으로 상기 외력이 상기 실제로봇에 작용하는 방향과 반대되는 방향으로 상기 가이드경로를 기울어지게 생성하되, 상기 외력의 크기에 비례하게 상기 가이드경로를 생성할 수 있다.
본 발명의 실시 예에 따른 로봇 주행경로 가이드장치는 실제로봇이 현재위치에서 주행해야 하는 미리 설정된 제1주행경로와, 실제로봇이 현재 주행하고 있는 제2주행경로와, 실제로봇이 제1주행경로를 따라 주행하도록 실제로봇의 조종방향을 가이드하기 위한 가이드경로를 그래픽이미지로 생성하여 화면에 표시하여, 실제로봇을 간편하고 효율적으로 조종할 수 있다.
또, 제1 및 제2주행경로, 가이드경로 등을 그래픽이미지를 화면에 제공함으로써, 실제로봇으로부터 전송되는 영상의 선명도에 상관없이 실제로봇을 용이하게 조종할 수 있다.
또, 제1주행경로 상의 미리 설정된 위치에 고정된 정자세를 갖는 가상로봇을 표시하고, 실제로봇의 자세가 출발위치에서 일정 각도로 틀어져 있는 경우, 가상로봇을 기준으로 제1주행경로를 각도에 비례하여 기울어지게 표시함으로써, 주행 전에 실제로봇의 자세를 인지하고 바로 잡을 수 있다.
또, 실제로봇이 제1주행경로 쪽으로 이동하여 제1주행경로와 제2주행경로가 겹쳐진 상태에서, 외력이 실제로봇에 기준치 범위를 초과하여 작용하는 경우 외력의 크기 및 방향 중 하나 이상을 기초로 가이드경로를 그래픽이미지로 생성하여 화면에 표시함으로써, 외력에 적절하게 대응하면서 실제로봇에 대한 조종을 수행할 수 있도록 할 수 있다.
또, 복수의 영역으로 구분된 선체 외벽의 각 영역별 정보와, 각각의 영역에 대응되는 주행경로를 저장하고, 저장된 영역 중 실제로봇의 출발위치가 속한 영역에 대응되는 주행경로를 검색하여 현재 실제로봇이 주행해야 하는 제1주행경로로 화면에 그래픽이미지로 표시함으로써, 통상적으로 곡면 형태로 이루어진 선체 외벽 위에서 실제로봇이 주행해야 하는 주행경로를 간편하고 효율적으로 추출하여 제공할 수 있다.
또, 제1주행경로를 기준으로 제2주행경로의 기울어진 방향과 반대되는 방향으로 가이드경로를 기울어지게 생성하되, 제2주행경로의 기울어진 정도에 비례하게 가이드경로를 생성함으로써, 조종핸들의 조종방향 및 크기를 사용자가 직관적으로 인식할 수 있도록 할 수 있다.
도 1은 본 발명의 실시 예에 따른 로봇 주행경로 가이드장치에 대한 블록도이다.
도 2는 도 1에 도시된 가이드장치에 의해 제1 및 제2주행경로, 가이드경로 등이 그래픽이미지로 표시된 화면을 도시한다.
도 3은 도 1에 도시된 저장부에 저장된 미리 설정된 주행경로를 선체 외벽의 각 영역별로 표시한 것이다.
도 4는 출발위치에서 실제로봇의 자세가 정자세가 아닌 경우, 도 1에 도시된 가이드장치에 의해 제1주행경로가 화면에 표시되는 형태를 도시한 것이다.
도 5는 도 2에 도시된 제2주행경로가 조종핸들의 조종방향에 따라 제1주행경로로 이동하도록 화면에 그래픽이미지로 생성된 형태를 도시한 것이다.
도 6은 도 5에 제2주행경로가 제1주행경로에 겹쳐진 상태에서 외력이 작용하는 경우 화면에 가이드경로가 표시된 형태를 도시한 것이다.
이하에서는 본 발명의 실시 예들을 첨부 도면을 참조하여 상세히 설명한다. 이하에 소개되는 실시 예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 본 발명은 이하 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 도면에서 생략하였으며 도면들에 있어서, 구성요소의 폭, 길이, 두께 등은 편의를 위하여 과장되어 표현될 수 있다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다.
도 1과 도 2를 참조하면, 본 발명의 실시 예에 따른 로봇 주행경로 가이드장치(100)(이하, “가이드장치”라고도 함)는 선체 외벽 위에서 이동하는 실제로봇(10)의 주행경로를 가이드한다. 이를 위해 가이드장치(100)는 화면(3)에 배경이미지(G1,G2)와, 실제로봇(10)이 현재위치에서 주행해야 하는 미리 설정된 제1주행경로(G3)와, 실제로봇(10)이 현재 주행하고 있는 제2주행경로(G4)와, 실제로봇(10)이 제1주행경로(G3)를 따라 주행하도록 실제로봇(10)의 조종방향을 가이드하기 위한 가이드경로(G5)를 그래픽이미지로 생성하여 표시한다.
이러한 가이드장치(100)는 실제로봇(10) 및 실제로봇(10)을 조종하는 조종핸들(20)과 데이터통신을 수행하며, 실제로봇(10)의 동작제어, 각 기기 간의 통합 운용, 모니터링 등을 위한 운용시스템(미도시) 내에 모듈 형태로 설치될 수 있다. 조종핸들(20) 또한 가이드장치(100)와 전기적으로 연결되도록 모듈 형태로 제작될 수 있다.
실제로봇(10)은 선체 외벽 위에서 주행하면서 브러시를 이용하여 청소작업을 수행하는 청소로봇을 포함할 수 있다. 또, 실제로봇(10)은 선체 외벽을 주행하면서 도장, 용접, 수리 등의 작업을 수행하는 실제로봇을 포함할 수 있다. 이외에도 실제로봇(10)은 일정경로를 이동하면서 특정작업을 수행하는 다양한 형태의 실제로봇을 포함할 수 있다. 이하에서는 실제로봇(10)이 선체 외벽을 주행하면서 청소작업을 수행하는 청소로봇으로 가정하고 설명한다.
실제로봇(10)은 자성을 갖는 구동휠(11)을 구비하여 선체 외벽에 부착된 상태에서 주행할 수 있다. 또, 실제로봇(10)은 실시간 촬영 영상, 실제로봇(10)의 위치, 자세 및 실제로봇(10)에 작용하는 외력에 대한 정보 등을 획득하기 위한 복수의 센서를 포함하는 센서모듈(12)을 구비할 수 있다. 센서모듈(12)은 카메라(13), 위치/자세측정센서(15), 및 외력측정센서(17) 등을 포함할 수 있다.
카메라(13)는 실제로봇(10)에 부착되어 주행경로 상의 주변 영상을 촬영한다. 예컨대 실제로봇(10)이 선미에서 선수 방향으로 주행할 경우, 카메라(13)는 실제로봇(10) 전방의 선체 외벽과, 이에 맞닿아 경계를 이루는 바다를 촬영할 수 있다. 이러한 카메라(13)는 레이저, 초음파 등을 이용하여 전방 물체의 형체 및 거리 등을 감지하는 장치들과 연동되어 동작할 수 있다.
위치/자세측정센서(15)는 실제로봇(10)의 위치 및 자세를 측정한다. 예컨대, 위치/자세측정센서(15)는 실제로봇(10)의 수심을 감지하는 압력센서, 실제로봇(10)의 방위각을 감지하는 관성센서를 포함할 수 있으며, 감지된 수심과 방위각을 이용하여 실제로봇(10)의 현재위치 및 자세를 측정할 수 있다. 관성센서는 실제로봇(10)의 가속도, 속도, 방향, 거리 등 다양한 항법 관련 정보를 제공할 수 있고, (광섬유) 자이로 센서, AHRS(Attitude and Heading Reference System) 등을 포함할 수 있다. 다른 예로서, 위치/자세측정센서(15)는 GPS, 전자 나침반(electric compass), 휠 센서 및 LBL(Long Base Line) 장치 등을 포함할 수 있으며, 이를 이용하여 실제로봇(10)의 위치 및 자세 정보를 획득할 수 있다. 이외에도 위치/자세측정센서(15)는 공지된 다양한 수단을 통해 실제로봇(10)의 위치 및 자세를 측정할 수 있다.
외력측정센서(17)는 예컨대 파도, 바람 등에 의한 파 또는 풍압의 크기 및 작용방향을 측정한다. 또, 외력측정센서(17)는 선박을 세로방향으로 굽히려는 힘, 선박의 횡단면을 변형시키려는 힘, 선박을 비틀려고 하는 힘 등을 측정할 수 있다. 외력측정센서(17)는 실제로봇(10)에 작용하는 외력의 크기 및 방향을 합산한 결과값을 산출할 수 있다. 이러한 외력은 선체 외벽 위를 주행하는 실제로봇(10)의 주행방향에 영향을 주어 실제로봇(10)이 본래의 주행경로에서 벗어나도록 할 수 있다.
상술한 본 발명의 실시 예에 따른 로봇 주행경로 가이드장치(100)는 로봇정보수신부(110), 인터페이스부(120), 주행정보저장부(130), 검색부(140), 표시부(150) 및 제어부(160)를 포함한다.
로봇정보수신부(110)는 선체 외벽 상에서 주행하는 실제로봇(10)으로부터 실제로봇(10)의 주행정보를 수신한다. 여기서, 주행정보는 실제로봇(10)에 장착된 센서모듈(12)로부터 수신한 실시간 촬영 영상, 실제로봇(10)의 위치, 자세 및 실제로봇(10)에 작용하는 외력의 크기와 방향에 대한 정보 중 하나 이상을 포함할 수 있다. 로봇정보수신부(110)는 실제로봇(10)과 유선 또는 무선 통신을 수행할 수 있다.
인터페이스부(120)는 실제로봇(10)을 조종하는 조종핸들(20)로부터 실제로봇(10) 조종을 위한 조종정보를 입력받아 실제로봇(10)으로 전달한다. 조종정보는 조종방향, 주행속도 등에 대한 정보를 포함할 수 있다. 또 이뿐 아니라, 조종정보는 청소 브러시 동작, 헤드라이트 온/오프, 카메라 동작 등 실제로봇(10) 및 이에 장착된 장비 등의 제어와 관련된 다양한 정보를 포함할 수 있다.
주행정보저장부(130)는 로봇정보수신부(110)가 수신한 주행정보, 그래픽이미지 생성을 위한 알고리즘, 각종 설정값, 실제로봇(10) 제어 및 각 장치간의 통신을 위한 알고리즘, 선체 외벽과 관련된 설계 정보를 포함하는 캐드(CAD) 데이터, 복수의 영역으로 구분된 선체 외벽의 각 영역별 정보와, 각각의 영역에 대응되는 미리 설정된 주행경로 등을 저장할 수 있다. 복수의 영역으로 구분된 선체 외벽과, 각 영역별 주행경로에 대한 내용은 도 3에서 후술하기로 한다. 주행정보저장부(130)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.
검색부(140)는 주행정보저장부(130)에 저장된 선체 외벽의 각 영역 중 실제로봇(10)의 출발위치가 속한 영역에 대응되는 미리 설정된 주행경로를 검색한다.
도 3에 도시한 바와 같이, 선체 외벽(1)은 펼쳐졌을 때 기준선(X)을 중심으로 좌현과 우현의 좌우 측벽영역(S1~S4)과, 좌우 선저부영역(S5,S6)으로 구분될 수 있다. 이는 선체 외벽(1)과 관련된 캐드 데이터를 기초로 구분될 수 있다. 캐드 데이터는 선체 외벽(1)과 관련된 설계 정보를 포함하고 있다. 각 영역(S1~S6)은 실제로봇(10)이 주행 가능한 청소 영역으로 사각 형태로 구분될 수 있으며, 각 영역(S1~S6)별 정보는 각각 대응되는 주행경로(P1~P6) 정보와 함께 상술한 주행정보저장부(130)에 저장될 수 있다. 이때, 주행경로(P1~P6) 정보는 실제로봇(10)이 주행해야 하는 경로를 알려주기 위해 좌표값 형태로 상술한 주행정보저장부(130)에 저장될 수 있다. 주행경로(P1~P6) 정보는 장애물(7a,7b)을 회피하는 방향으로 설정될 수 있으며, 사전에 실제로봇(10)을 수 차례 실험적으로 진행시키면서 장애물(7a,7b) 등을 감지하고, 실제로봇(10) 테스트 주행에 따른 축척된 실험 데이터를 기반으로 주행경로(P1~P6) 정보가 미리 설정되어 저장될 수 있다. 다른 예로서, 주행경로(P1~P6) 정보와 장애물(7a,7b)에 대한 정보가 대응되는 영역(P1,P2) 정보와 함께 저장될 수도 있다.
예컨대 실제로봇(10)이 선수 쪽 좌측 측벽영역(S1)의 A지점에서 출발할 경우, 상술한 검색부(140)는 실제로봇(10)의 출발위치(A)가 속한 영역에 대응되는 주행경로(P1) 정보를 주행정보저장부(130)에서 검색한다. 실제로봇(10)의 출발위치(A)가 속한 영역은 실제로봇(10)의 출발위치(A)에 가장 근접한 영역을 포함할 수 있다. 즉, 검색부(140)는 출발위치(A)를 검색조건으로 하여, 출발위치(A)가 속한 영역 S1과, 해당 영역 S1에 대응되는 주행경로 P1을 주행정보저장부(130)에서 검색한다. 출발위치(A)의 좌표값을 알고 있으므로, 검색부(140)는 해당 좌표값을 이용하여 그 속한 영역 또는 가장 근접한 영역을 용이하게 검색할 수 있다.
각 영역(S1~S6)에 대응되는 주행경로(P1~P6)는 이해를 돕기 위해 도 3에 이미지 형태로 표시하였으나, 주행정보저장부(130)에는 각 주행경로(P1~P6)가 좌표값을 기초로 한 경로 맵(map) 형태로 저장될 수 있다. 예컨대 주행경로 P1은 실제로봇(10)이 선수 쪽에서 선체 외벽(1)의 기준선(X) 부근까지 지그재그 방식으로 하방향으로 주행하도록 미리 설정된 맵 형태로 주행정보저장부(130)에 저장될 수 있다.
도 1과 도 2를 참조하면, 표시부(150)는 로봇정보수신부(110)로부터 수신한 주행정보 중 하나 이상을 기초로, 상술한 배경이미지(G1,G2)와, 실제로봇(10)이 현재위치에서 주행해야 하는 미리 설정된 제1주행경로(G3)와, 실제로봇(10)이 현재 주행하고 있는 제2주행경로(G4)와, 실제로봇(10)이 제1주행경로(G3)를 따라 주행하도록 실제로봇(10)의 조종방향을 가이드하기 위한 가이드경로(G5)를 그래픽이미지로 생성하여 화면(3)에 표시한다. 제1주행경로(G3), 제2주행경로(G4), 가이드경로(G5)는 구분을 위해 다른 색상으로 표시되거나, 실선, 점선, 쇄선 등의 다른 모양으로 표시될 수 있다. 또 배경이미지(G1,G2) 위에 제1주행경로(G3)를 기준으로 제2주행경로(G4), 및 가이드경로(G5)가 오버랩되도록 표시되되 원근감을 갖도록 표시될 수 있다.
또, 표시부(150)는 화면(3) 상단에 외력의 크기, 작용방향, 실제로봇(10)의 현재위치, 속력, 기후 등을 표시할 수 있다.
또, 표시부(150)는 제1주행경로(G3) 상의 미리 설정된 위치에 고정된 정자세를 갖는 가상로봇(4)을 표시할 수 있다. 표시부(150)는 실제로봇(10)의 자세가 출발위치에서 일정 각도로 틀어져 있는 경우, 가상로봇(4)을 기준으로 제1주행경로(G3)를 해당 각도에 비례하여 기울어지게 표시할 수 있다.
즉, 도 4의 (a)에 도시한 바와 같이, 실제로봇(10)이 실제 선체 외벽(1)의 출발위치에서 일정 각도로 V1 방향으로 틀어져 있다고 가정한다. 여기서, 실제로봇(10)이 현재 주행해야 하는 미리 설정된 주행경로는 P1(도 3 참조 바람)이라 가정하며, 설명의 편의상 도면에 나타내었다.
이 경우, 도 4의 (b)에 도시한 바와 같이, 화면(3)에는 고정된 정자세를 갖는 가상로봇(4)을 기준으로 제1주행경로(G3)를 실제로봇(10)의 틀어진 방향(V1)과 반대되는 방향으로 실제로봇(10)의 틀어진 각도에 비례하여 기울어지게 표시된다. 이때, 가상로봇(4)은 제1주행경로(G3) 상의 미리 설정된 위치에 고정된 정자세를 가지며, 정방향(V2)을 향하고 있다. 제1주행경로(G3)는 주행경로 P1을 그래픽 처리한 것이다.
이와 같이, 제1주행경로(G3)를 실제로봇(10)의 틀어진 방향과 반대되는 방향으로 표시함으로써, 사용자에게 해당 방향으로 조종핸들(20)을 조작해야 한다는 사실을 알리는 동시에, 실제로봇(10)의 자세가 틀어졌음을 알릴 수 있다. 다른 예로서, 제1주행경로(G3)가 실제로봇(10)의 틀어진 방향과 동일한 방향으로 표시될 수도 있다. 이 경우, 사용자에게 출발위치에서 실제로봇(10)이 제1주행경로(G3) 방향으로 틀어져 있음을 알릴 수 있다. 사용자는 제1주행경로(G3)가 기울어진 방향과 반대 방향으로 조종핸들(20)을 조종함으로써, 실제로봇(10)의 자세를 바로 잡을 수 있다.
도 4의 (c)에 도시한 바와 같이, 사용자가 제1주행경로(G3)의 기울어진 방향으로 조종핸들(20)을 조종하면, 실제로봇(10)의 자세는 정자세에 가까워지고, 제1주행경로(G3)는 화면(3) 상에서 가상로봇(4)을 기준으로 수평에 가까워지도록 정위치된다. 실제로봇(10)의 자세가 정자세가 되어 제1주행경로(G3)가 정위치되면, 예컨대 알림수단(미도시)을 통해 신호음을 발생시키거나 조종핸들(20)에 진동을 발생시켜 청각 및 촉각 등으로 사용자에게 알릴 수 있다.
도 4의 (b)와 (c)에서 제2주행경로(G4)는 아직 실제로봇(10)이 주행하기 전의 상태이므로, 화면(3)에 나타나지 않거나 제1주행경로(G3)에 겹쳐져 표시될 수 있다. 가이드경로(G5)는 외력이 작용할 경우에 외력이 작용하는 방향과 반대되는 방향으로 화면(3)에 표시될 수 있다.
도 1과 도 2를 참조하면, 표시부(150)는 상술한 그래픽이미지를 생성하는 이미지생성부(151)를 포함할 수 있다. 이미지생성부(151)는 공개된 다양한 방법으로 2차원, 3차원 형태의 그래픽이미지를 생성할 수 있다.
이미지생성부(151)는 실제로봇(10)으로부터 수신한 영상을 기초로 배경이미지(G1,G2)를 생성할 수 있다. 예컨대 이미지생성부(151)는 실제로봇(10)으로부터 수신한 영상의 에지(edge)를 추출하는 알고리즘을 이용하여 영상의 윤곽 정보를 획득하고, 이를 그래픽이미지로 생성할 수 있다. 수중에서 실제로봇(10)에 부착된 카메라(13)를 이용하여 촬영을 수행할 경우, 물의 투명도, 기후 조건 등이 좋지 않은 경우, 깨끗한 영상을 얻기가 힘들다. 이는 모니터 화면을 통해 실제로봇(10)을 조종하는 사용자에게 실제로봇(10)을 정상적으로 제어하기 힘들도록 한다.
예컨대 실제로봇(10)이 선체의 측면 외벽 위를 선미에서 선수 방향으로 주행할 경우, 이미지생성부(151)는 카메라(13)가 촬영한 영상으로부터 실제로봇(10) 전방의 선체 외벽과, 이에 맞닿아 경계를 이루는 바다를 그래픽 처리된 배경이미지(G1,G2)로 화면(3)에 표시할 수 있다. 이에 사용자는 카메라(13)의 촬영 환경에 관계없이 실제로봇(10) 조종을 효율적으로 그래픽 화면을 통해 수행할 수 있게 된다.
또, 이미지생성부(151)는 상술한 검색부(140)에 의해 검색된 주행경로를 기초로 제1주행경로(G3)를 생성할 수 있다. 이때, 상술한 바와 같이 출발위치에서 실제로봇(10)의 자세가 틀어진 경우에는 제1주행경로(G3)를 틀어진 각도만큼 기울어지게 생성하여 사용자에게 실제로봇(10)의 자세가 틀어졌음을 알릴 수 있다.
이미지생성부(151)는 실제로봇(10)이 주행함에 따라 검색부(140)에 의해 검색된 주행경로를 기초로 실제로봇(10)이 현재위치에서 주행해야 하는 제1주행경로(G3)를 그래픽이미지로 생성하여 제공하게 된다. 이때, 이미지생성부(151)는 선체 외벽 위를 주행하고 있는 실제로봇(10)의 현재위치 좌표값과 맵(map) 형태로 저장된 주행경로에 포함된 좌표값을 이용하여 실제로봇(10)이 현재위치에서 주행해야 하는 제1주행경로(G3)를 그래픽이미지로 생성할 수 있다. 따라서, 화면(3)에는 실시간으로 갱신되는 제1주행경로(G3)가 표시된다.
또, 이미지생성부(151)는 제1주행경로(G3)를 기준으로 실제로봇(10)의 현재위치를 기초로 실제로봇(10)이 실제로 주행하고 있는 제2주행경로(G4)를 생성할 수 있다. 이를 통해, 사용자는 실제로봇(10)이 주행해야 하는 제1주행경로(G3)로부터 실제로봇(10)이 얼마나 벗어났는지 여부를 알 수 있어 조종핸들(20)을 이용하여 경로조정을 수행할 수 있게 된다. 이때, 사용자의 실수나 외력에 의해 실제로봇(10)이 주행해야 하는 제1주행경로(G3)로부터 벗어나 다른 방향으로 주행할 수 있다.
또, 이미지생성부(151)는 제2주행경로(G4)의 기울어진 정도(예컨대 각도)와, 제1주행경로(G3)를 기준으로 실제로봇(10)에 작용하는 외력의 크기 및 방향 중 하나 이상을 기초로 가이드경로(G5)를 생성할 수 있다. 이미지생성부(151)는 배경이미지(G1,G2) 위에 제1주행경로(G3)를 기준으로 제2주행경로(G4), 및 가이드경로(G5)가 오버랩되도록 생성할 수 있다.
도 2에 도시한 바와 같이, 이미지생성부(151)는 제1주행경로(G3)를 기준으로 제2주행경로(G4)의 기울어진 방향과 반대되는 방향으로 가이드경로(G5)를 기울어지게 생성하되, 제2주행경로(G4)의 기울어진 정도에 비례하게 가이드경로(G5)를 생성할 수 있다.
이 경우, 도 5에 도시한 바와 같이, 조종핸들(20)에 의해 가이드경로(G5)가 표시된 방향으로 조종이 수행되어 실제로봇(10)이 제1주행경로(G3) 쪽으로 이동하는 경우, 이미지생성부(151)는 제2주행경로(G4)가 제1주행경로(G3) 쪽으로 접근하도록 갱신된 그래픽이미지를 생성한다. 도 2와 도 5를 비교하면, 도 5에서 제2주행경로(G4)가 제1주행경로(G3) 쪽으로 더 가까이 접근하였음을 알 수 있다.
사용자는 화면(3)을 통해 점차적으로 제2주행경로(G4)가 제1주행경로(G3) 쪽으로 접근하는 모습을 실시간으로 확인할 수 있다. 여기서 실제로봇(10)은 조종핸들(20)의 조종방향을 상술한 인터페이스부(120)로부터 전달받아 해당 조종방향으로 주행하게 된다.
또 도 6에 도시한 바와 같이, 이미지생성부(151)는 제1주행경로(G3)와 제2주행경로(G4)가 겹쳐지더라도 외력이 실제로봇(10)에 기준치 범위를 초과하여 작용하는 경우에는 외력의 크기 및 방향 중 하나 이상을 기초로 가이드경로(G5)를 다른 주행경로((G3,G4))와 함께 그래픽이미지로 생성할 수 있다.
또, 이미지생성부(151)는 실제로봇(10)이 제1주행경로(G3) 쪽으로 이동하여 제1주행경로(G3)와 제2주행경로(G4)가 겹쳐진 상태에서, 바람, 파도, 조류 등과 같은 외력이 실제로봇(10)에 기준치 범위 내에서 작용하는 경우에는 가이드경로(G5)를 제거한 주행경로(G3,G4)를 그래픽이미지를 생성할 수 있다. 이는, 제1주행경로(G3)와 제2주행경로(G4)가 겹쳐지면 조종핸들(20)을 풀어 정위치시킨 후 실제로봇(10)을 조종하면 되기 때문이다.
외력으로서 풍압을 예로 들면, 풍압이 실제로봇(10)에 기준치 범위 내에서 작용하는 경우는 전혀 바람이 불지 않거나, 실제로봇(10)의 주행을 방해하지 않을 정도의 미풍인 경우를 나타낸다. 풍압이 실제로봇(10)에 기준치 범위를 초과하는 경우는 실제로봇(10)의 주행에 영향을 줄 정도를 나타낸다. 따라서, 사용자는 조종핸들(20)을 실제로봇(10)에 작용하는 바람의 방향과 반대되는 방향으로 계속 유지해야 하며, 이는 화면(3) 상에 가이드경로(G5)를 표시함으로써, 사용자에게 해당 사실을 알릴 수 있다.
제어부(160)는 상술한 각 구성요소(110~150) 간의 동작을 제어한다. 예컨대 제어부(160)는 주행정보저장부(130)에 저장된 알고리즘을 이용하여 촬영 영상을 기초로 배경이미지가 생성되도록 하거나, 상술한 제1주행경로(G3), 제2주행경로(G4), 가이드경로(G5)를 그래픽이미지로 생성하도록 이미지생성부(151)의 동작을 제어할 수 있다. 또, 제어부(160)는 조종핸들(20)에 의해 입력된 정보를 인터페이스부(120)를 통해 실제로봇(10)으로 전달하거나, 변경된 실제로봇(10)의 주행경로에 따라 화면(3)에 표시되는 그래픽이미지가 갱신되도록 할 수 있다.
한편, 도 1에서 도시된 각각의 구성요소는 일종의 '모듈'로 구성될 수 있다. 상기 '모듈'은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 구성요소들과 모듈들에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다.
이상에서는 특정의 실시 예에 대하여 도시하고 설명하였다. 그러나, 본 발명은 상기한 실시 예에만 한정되지 않으며, 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 이하의 청구범위에 기재된 발명의 기술적 사상의 요지를 벗어남이 없이 얼마든지 다양하게 변경 실시할 수 있을 것이다.
4: 가상로봇 10: 실제로봇
20: 조종핸들 100: 로봇 주행경로 가이드장치
110: 로봇정보수신부 120: 인터페이스부
130: 주행정보저장부 140: 검색부
150: 표시부 151: 이미지생성부
160: 제어부 G3: 제1주행경로
G4: 제2주행경로 G5: 가이드경로

Claims (9)

  1. 선체 외벽 상에서 주행하는 실제로봇으로부터 상기 실제로봇의 주행정보를 수신하는 로봇정보수신부;
    상기 수신한 주행정보를 기초로, 상기 실제로봇이 상기 선체 외벽 상의 현재위치에서 주행해야 하는 미리 설정된 제1주행경로와, 상기 실제로봇이 현재 주행하고 있는 제2주행경로와, 상기 제1주행경로를 따라 주행하도록 상기 실제로봇의 조종방향을 가이드하기 위한 가이드경로를 그래픽이미지로 생성하여 화면에 표시하는 표시부; 및
    조종핸들로부터 상기 실제로봇 조종을 위한 조종정보를 입력받아 상기 실제로봇으로 전달하는 인터페이스부;를 포함하되,
    상기 표시부는 상기 조종정보에 의해 상기 가이드경로가 표시된 방향으로 상기 실제로봇의 조종이 수행되어 상기 실제로봇이 상기 제1주행경로 쪽으로 이동하는 경우, 상기 제2주행경로가 상기 제1주행경로 쪽으로 접근하도록 표시하는 로봇 주행경로 가이드장치.
  2. 제1항에 있어서,
    상기 표시부는 상기 제1주행경로 상의 미리 설정된 위치에 고정된 정자세를 갖는 가상로봇을 더 표시하는 로봇 주행경로 가이드장치.
  3. 제2항에 있어서,
    상기 표시부는 상기 실제로봇의 자세가 출발위치에서 일정 각도로 틀어져 있는 경우, 상기 가상로봇을 기준으로 상기 제1주행경로를 상기 각도에 비례하여 기울어지게 표시하는 로봇 주행경로 가이드장치.
  4. 제1항에 있어서,
    상기 표시부는 상기 실제로봇이 상기 제1주행경로 쪽으로 이동하여 상기 제1주행경로와 상기 제2주행경로가 겹쳐진 상태에서, 외력이 상기 실제로봇에 기준치 범위 내에서 작용하는 경우 상기 가이드경로를 상기 화면에서 제거하고, 상기 외력이 상기 실제로봇에 기준치 범위를 초과하여 작용하는 경우 상기 외력의 크기 및 방향 중 하나 이상을 기초로 상기 가이드경로를 그래픽이미지로 생성하여 상기 화면에 표시하는 로봇 주행경로 가이드장치.
  5. 제1항에 있어서,
    상기 주행정보는 상기 실제로봇에 장착된 센서모듈로부터 수신된 촬영 영상, 상기 실제로봇의 위치, 자세 및 상기 실제로봇에 작용하는 외력의 크기와 방향에 대한 정보 중 하나 이상을 포함하는 로봇 주행경로 가이드장치.
  6. 제5항에 있어서,
    상기 주행정보, 복수의 영역으로 구분된 상기 선체 외벽의 각 영역별 정보, 및 각각의 상기 영역에 대응되는 미리 설정된 주행경로를 저장하는 저장부와,
    저장된 상기 영역 중 상기 실제로봇의 출발위치가 속한 영역에 대응되는 상기 주행경로를 검색하는 검색부를 더 포함하는 로봇 주행경로 가이드장치.
  7. 제6항에 있어서,
    상기 표시부는
    상기 촬영 영상을 기초로 배경이미지를 생성하고,
    상기 검색된 주행경로와 상기 실제로봇의 현재위치를 기초로 상기 제1주행경로 및 상기 제2주행경로를 각각 생성하고,
    상기 제1주행경로를 기준으로 상기 제2주행경로의 기울어진 정도, 상기 실제로봇에 작용하는 외력의 크기 및 방향 중 하나 이상을 기초로 상기 가이드경로를 생성하되, 상기 배경이미지 위에 상기 제1주행경로를 기준으로 상기 제2주행경로, 및 상기 가이드경로가 오버랩되도록 생성하는 이미지생성부를 더 포함하는 로봇 주행경로 가이드장치.
  8. 제7항에 있어서,
    상기 이미지생성부는 상기 제1주행경로를 기준으로 상기 제2주행경로의 기울어진 방향과 반대되는 방향으로 상기 가이드경로를 기울어지게 생성하되, 상기 제2주행경로의 기울어진 정도에 비례하게 상기 가이드경로를 생성하는 로봇 주행경로 가이드장치.
  9. 제7항에 있어서,
    상기 이미지생성부는 상기 제1주행경로를 기준으로 상기 외력이 상기 실제로봇에 작용하는 방향과 반대되는 방향으로 상기 가이드경로를 기울어지게 생성하되, 상기 외력의 크기에 비례하게 상기 가이드경로를 생성하는 로봇 주행경로 가이드장치.
KR20130114347A 2013-09-26 2013-09-26 로봇 주행경로 가이드장치 KR101487681B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130114347A KR101487681B1 (ko) 2013-09-26 2013-09-26 로봇 주행경로 가이드장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130114347A KR101487681B1 (ko) 2013-09-26 2013-09-26 로봇 주행경로 가이드장치

Publications (1)

Publication Number Publication Date
KR101487681B1 true KR101487681B1 (ko) 2015-01-29

Family

ID=52593005

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130114347A KR101487681B1 (ko) 2013-09-26 2013-09-26 로봇 주행경로 가이드장치

Country Status (1)

Country Link
KR (1) KR101487681B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101516545B1 (ko) * 2013-10-31 2015-05-04 삼성중공업 주식회사 로봇 촬영영상 표시장치
KR101864645B1 (ko) 2016-11-29 2018-07-04 삼성중공업 주식회사 선체면을 주행하는 로봇의 로봇 정보 출력 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100974543B1 (ko) 2008-06-09 2010-08-11 삼성중공업 주식회사 도장 시뮬레이션 시스템 및 방법과 이를 위한 기록매체
KR20130027526A (ko) * 2010-05-17 2013-03-15 레이던 컴퍼니 선박 선체 로봇 네비게이션 서브시스템
KR101291649B1 (ko) 2010-12-24 2013-08-01 삼성중공업 주식회사 작업 로봇의 제어 방법 및 작업 로봇 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100974543B1 (ko) 2008-06-09 2010-08-11 삼성중공업 주식회사 도장 시뮬레이션 시스템 및 방법과 이를 위한 기록매체
KR20130027526A (ko) * 2010-05-17 2013-03-15 레이던 컴퍼니 선박 선체 로봇 네비게이션 서브시스템
KR101291649B1 (ko) 2010-12-24 2013-08-01 삼성중공업 주식회사 작업 로봇의 제어 방법 및 작업 로봇 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101516545B1 (ko) * 2013-10-31 2015-05-04 삼성중공업 주식회사 로봇 촬영영상 표시장치
KR101864645B1 (ko) 2016-11-29 2018-07-04 삼성중공업 주식회사 선체면을 주행하는 로봇의 로봇 정보 출력 장치 및 방법

Similar Documents

Publication Publication Date Title
KR102468668B1 (ko) 자동 위치 배치 시스템
JP7083081B2 (ja) 自動着岸装置
JP6147037B2 (ja) 建設機械制御システム
JP5054718B2 (ja) 水中移動体の位置検知装置及び位置検知方法
KR101703177B1 (ko) 차량 위치 인식 장치 및 방법
JP4440310B2 (ja) 水中対象体を検出および無力化する方法
JP6280147B2 (ja) 無人走行作業車
JP6302660B2 (ja) 情報取得システム、無人飛行体制御装置
JP6243944B2 (ja) 無人走行作業車
US20130222544A1 (en) Parallel Online-Offline Reconstruction for Three-Dimensional Space Measurement
US11977378B2 (en) Virtual path guidance system
KR20200090565A (ko) 3자 시점 카메라를 갖는 스마트 수중 드론 시스템
KR101487681B1 (ko) 로봇 주행경로 가이드장치
JP7021259B2 (ja) 映像生成装置及び映像生成方法
KR101475207B1 (ko) 로봇조종 훈련용 시뮬레이션장치
KR101475196B1 (ko) 로봇위치측정장치
KR101487684B1 (ko) 청소상태 측정장치 및 그 방법
JP2017168055A (ja) 無人走行作業車
KR101516545B1 (ko) 로봇 촬영영상 표시장치
KR101516540B1 (ko) 선박용 로봇 및 로봇 주행구간 설정장치
JP6942972B2 (ja) 水中捜索方法および水中捜索システム
JP6966473B2 (ja) 移動体システム
KR20150049793A (ko) 로봇 주행경로 가이드장치
WO2014184748A1 (en) Method for determining the orientation of a submerged surface and apparatus that carries out this method
KR101702519B1 (ko) 이동체의 위치 및 자세 측정 장치

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190102

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200102

Year of fee payment: 6