KR20170129496A - 이동 로봇 - Google Patents

이동 로봇 Download PDF

Info

Publication number
KR20170129496A
KR20170129496A KR1020160060273A KR20160060273A KR20170129496A KR 20170129496 A KR20170129496 A KR 20170129496A KR 1020160060273 A KR1020160060273 A KR 1020160060273A KR 20160060273 A KR20160060273 A KR 20160060273A KR 20170129496 A KR20170129496 A KR 20170129496A
Authority
KR
South Korea
Prior art keywords
unit
remote control
control device
mobile terminal
mobile robot
Prior art date
Application number
KR1020160060273A
Other languages
English (en)
Inventor
함준석
김재영
김아람
신윤호
박은지
김충식
정성재
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160060273A priority Critical patent/KR20170129496A/ko
Publication of KR20170129496A publication Critical patent/KR20170129496A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1615Programme controls characterised by special kind of manipulator, e.g. planar, scara, gantry, cantilever, space, closed chain, passive/active joints and tendon driven manipulators
    • B25J9/162Mobile manipulator, movable base with manipulator arm mounted on it
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 이동 로봇에 관한 것이다. 본 발명의 실시예에 따른 이동 로봇은, 본체를 이동시키는 주행부와, 자기장 기반의 지자기 센서를 구비하며, 위치 정보 또는 이동 정보를 센싱하는 센서부와, 주행부의 동작에 의한 제1 공간 영역에 대한 주행 중, 센서부로부터 획득되는 위치 정보 또는 이동 정보, 및 주행부의 주행 경로에 기초하여, 제1 공간 영역에 대한 자기장 맵을 생성하는 제어부를 포함한다. 이에 따라, 주행에 기초하여 자기장 맵을 간단하게 생성할 수 있게 된다.

Description

이동 로봇{Mobile robot}
본 발명은 이동 로봇에 관한 것으로, 더욱 상세하게는, 주행에 기초하여 자기장 맵을 간단하게 생성할 수 있는 이동 로봇에 관한 것이다.
일반적으로, 이동 로봇은, 주행을 통해, 원하는 방향으로 이동하는 로봇을 의미한다. 이동 로못의 일예로, 로봇 청소기 등의 예시될 수 있다.
한편, 최근, 사용자의 편의를 위해, 이동 로봇에, 사용자를 위한 다양한 기능들이 부가되고 있는 추세이다.
본 발명의 목적은, 주행에 기초하여 자기장 맵을 간단하게 생성할 수 있는 이동 로봇을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 실시예에 따른 이동 로봇은, 본체를 이동시키는 주행부와, 자기장 기반의 지자기 센서를 구비하며, 위치 정보 또는 이동 정보를 센싱하는 센서부와, 주행부의 동작에 의한 제1 공간 영역에 대한 주행 중, 센서부로부터 획득되는 위치 정보 또는 이동 정보, 및 주행부의 주행 경로에 기초하여, 제1 공간 영역에 대한 자기장 맵을 생성하는 제어부를 포함한다.
또한, 상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 이동 로봇은, 본체를 이동시키는 주행부와, 자기장 기반의 지자기 센서를 구비하며, 위치 정보 또는 이동 정보를 센싱하는 센서부와, 원격제어장치 또는 이동 단말기와 데이터를 교환하는 통신부와, 영상 투사부와, 원격제어장치 또는 이동 단말기로부터, 제2 위치에 대한 포인팅 신호와, 영상 투사 입력을 수신하는 경우, 포인팅 신호 및 영상 투사 입력에 기초하여, 영상 투사부를 통해, 제2 위치에, 제1 영상을 투사하도록 제어하는 제어부를 포함한다.
본 발명의 일실시예에 따르면, 이동 로봇은, 본체를 이동시키는 주행부와, 자기장 기반의 지자기 센서를 구비하며, 위치 정보 또는 이동 정보를 센싱하는 센서부와, 주행부의 동작에 의한 제1 공간 영역에 대한 주행 중, 센서부로부터 획득되는 위치 정보 또는 이동 정보, 및 주행부의 주행 경로에 기초하여, 제1 공간 영역에 대한 자기장 맵을 생성하는 제어부를 포함함으로써, 특정 공간에 대한 자기장 맵을 간단하게 생성할 수 있게 된다.
특히, 센서부로부터 획득되는 위치 정보 또는 이동 정보, 및 주행부의 주행 경로에 기초하여, 제1 공간 영역에 대한 자기장 맵을 생성함으로써, 특정 공간에 대한 자기장 맵을 간단하게 생성할 수 있게 된다.
한편, 원격제어장치 또는 이동 단말기로부터, 제1 위치로의 이동 신호를, 통신부를 통해, 수신하고, 이동 신호에 기초하여, 제1 위치로 이동함으로써, 사용자가 원하는 대로, 이동 로봇이 이동할 수 있게 된다.
한편, 원격제어장치 또는 이동 단말기로부터, 제2 위치에 대한 포인팅 신호와, 영상 투사 입력을 수신하는 경우, 포인팅 신호 및 영상 투사 입력에 기초하여, 영상 투사부를 통해, 제2 위치에, 제1 영상을 투사함으로써, 사용자가 원하는 영역에, 영상을 간편하게 투사할 수 있게 된다.
한편, 영상 투사부의 높이 정보, 및 제2 위치와의 거리에 기초하여, 투사되는 영상의 해상도, 밝기, 배율, 틸팅 각도 중 적어도 하나를 조정함으로써, 사용자가 원하는 영역에, 영상을 정확하게 투사할 수 있게 된다.
한편, 영상 투사시, 줌 인 또는 줌 아웃 입력에 기초하여, 줌 인 또는 줌 아웃을 수행하되, 소정 조건에서, 이동 로봇의 위치를 가변함으로써, 줌인 또는 줌 아웃을 정확하게 수행할 수 있게 된다.
도 1은 본 발명의 일실시예에 따른 로봇 시스템 구성도의 일예이다.
도 2a는 도 1의 이동 로봇을 도시한 사시도이다.
도 2b는 도 2a의 이동 로봇의 저면도이다.
도 3은 도 1의 이동 로봇의 간략한 내부 블록도이다.
도 4는 도 3의 영상 투사부의 내부 블록도이다.
도 5는 도 1의 원격제어장치의 내부 블록도이다.
도 6은 도 1의 이동 단말기의 내부 블록도이다.
도 7은 본 발명의 일실시예에 따른 이동 로봇의 동작방법을 도시한 순서도이다.
도 8a 내지 도 12는 도 6의 동작방법의 설명에 참조되는 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
도 1은 본 발명의 일실시예에 따른 로봇 시스템 구성도의 일예이다.
도면을 참조하면, 본 발명의 일실시예에 따른 로봇 시스템(10)은, 이동 로봇(100), 원격제어장치(200), 이동 단말기(600), 스크린(300)을 포함할 수 있다.
이동 로봇(100)은, 사용자 입력에 의해, 특정 공간을 주행할 수 있다. 또는, 이동 로봇(100)은, 임의의 경로로, 자율 주행할 수 있다.
한편, 이동 로봇(100)은, 원격제어장치(200), 또는 이동 단말기(600)와 데이터를 교환할 수 있으며, 원격제어장치(200), 이동 단말기(600)의 원격제어입력에 기초하여, 특정 위치로 주행하거나, 스크린(300)에 영상을 투사할 수 있다.
이를 위해, 이동 로봇(100)은, 영상 투사부(130)를 구비할 수 있다.
한편, 이동 로봇(100)의 특정 공간에서의 주행을 위해, 이동 로봇(100) 내에, 특정 공간에 대한, 2차원 맵이 저장되는 것이 바람직하다.
카메라를 기반으로 한 이동 로봇(100)의 경우, 카메라로부터 획득되는 이미지에 기초하여, 이미지 기반 맵을 생성할 수 있다. 그러나, 카메라로부터의 이미지 신호 처리 등이 복잡하므로, 본 발명에서는, 보다 간단하게, 특정 공간의 맵을 생성할 수 있는 방안을 제시한다.
이를 위해, 본 발명의 일실시예에 따른, 이동 로봇(100)은, 본체를 이동시키는 주행부(도 3의 185)와, 자기장 기반의 지자기 센서를 구비하며, 위치 정보 또는 이동 정보를 센싱하는 센서부(도 3의 120)와, 주행부(도 3의 185)의 동작에 의한 제1 공간 영역에 대한 주행 중, 센서부(도 3의 120)로부터 획득되는 위치 정보 또는 이동 정보, 및 주행부(도 3의 185)의 주행 경로에 기초하여, 제1 공간 영역에 대한 자기장 맵을 생성하는 제어부(도 3의 170)를 포함할 수 있다. 이에 따라, 특정 공간에 대한 자기장 맵을 간단하게 생성할 수 있게 된다.
특히, 이동 로봇(100)은, 센서부(120)로부터 획득되는 위치 정보 또는 이동 정보, 및 주행부(185)의 주행 경로에 기초하여, 제1 공간 영역에 대한 자기장 맵을 생성함으로써, 특정 공간에 대한 자기장 맵을 간단하게 생성할 수 있게 된다.
한편, 이동 로봇(100)은, 원격제어장치(200) 또는 이동 단말기(600)로부터, 제1 위치로의 이동 신호를, 통신부(도 3의 122)를 통해, 수신하고, 이동 신호에 기초하여, 제1 위치로 이동함으로써, 사용자가 원하는 대로, 이동 로봇(100)이 이동할 수 있게 된다.
한편, 이동 로봇(100)은, 원격제어장치(200) 또는 이동 단말기(600)로부터, 제2 위치에 대한 포인팅 신호와, 영상 투사 입력을 수신하는 경우, 포인팅 신호 및 영상 투사 입력에 기초하여, 영상 투사부(130)를 통해, 제2 위치에, 제1 영상을 투사함으로써, 사용자가 원하는 영역에, 영상을 간편하게 투사할 수 있게 된다.
한편, 이동 로봇(100)은, 영상 투사부(130)의 높이 정보, 및 제2 위치와의 거리에 기초하여, 투사되는 영상의 해상도, 밝기, 배율, 틸팅 각도 중 적어도 하나를 조정함으로써, 사용자가 원하는 영역에, 영상을 정확하게 투사할 수 있게 된다.
한편, 이동 로봇(100)은, 영상 투사시, 줌 인 또는 줌 아웃 입력에 기초하여, 줌 인 또는 줌 아웃을 수행하되, 소정 조건에서, 이동 로봇(100)의 위치를 가변함으로써, 줌인 또는 줌 아웃을 정확하게 수행할 수 있게 된다.
한편, 이동 로봇(100)은, 유/무선 네트워크를 제공하기 위한, AP 장치의 기능을 수행할 수도 있다. 예를 들어, WiFi와 같은, 무선 통신의 억세스 포인트 장치로서 동작할 수 있으며, 건물 내의, 무선 네트워크를 제공할 수 있다.
또는, 이동 로봇(100)은, AP 중계기로서의 기능을 수행할 수 있으며, 건물 내, 무선 통신의 세기가 약한 곳, 또는 사용자 주변으로 이동하여, 무선 네트워크를 제공할 수 있다.
한편, 이동 로봇(100)은, 집안 내의, 서버로서 동작할 수 있다. 예를 들어, NAS 서버일 수 있다. 이에 따라, 집안 내의, 다양한 전자기기(TV, 이동 단말기, 컴퓨터, 노트북, 태블릿, 웨어러블 기기, 사운드 출력장치)에, 다양한 컨텐츠를 저장하고, 해당하는 컨텐츠를 스트리밍(streaming) 등의 기법으로, 제공할 수도 있다.
상술한 이동 로봇(100)의 동작, 또는 이동 로봇(100)과 원격제어장치(200) 간의 동작 등에 대해서는, 도 7 이하를 참조하여 보다 상세히 기술한다.
도 2a는 본 발명의 일 실시예에 따른 이동 로봇을 도시한 사시도이고, 도 2b는 도 2a의 이동 로봇의 저면도이다.
도 2a 내지 도 2b를 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(100)은 바닥을 향해 개구된 하방 개구부(110h)가 형성된 본체(110)를 포함한다.
본체(110)는 좌륜(161a)과 우륜(162a)이 회전함에 따라 구역을 이동한다.
한편, 좌륜(161a)과 우륜(162a)을 구동시키는 주행 구동부(미도시)가 구비될 수 있다. 특히, 주행 구동부(미도시)는, 좌륜(161a)을 구동하는 좌륜 구동부(미도시)와, 우륜(162a)을 구동하는 우륜 구동부(미도시)를 포함할 수 있다.
한편, 주행 구동부(미도시)는, 좌륜(161a)과 우륜(162a)을 구동시키는 모터를 구비할 수 있다.
한편, 주행 구동부(미도시), 좌륜(161a)과 우륜(162a)등은 후술하는 주행부(185) 내에 포함되는 개념일 수 있다.
한편, 제어부(도 3의 170) 제어에 의해 좌륜 구동부(미도시)와 우륜 구동부(미도시)의 작동이 독립적으로 제어됨으로써 본체(110)의 직진, 후진 또는 선회가 이루어질 수 있다.
예를 들어, 좌륜 구동부(미도시)에 의해 좌륜(161a)이 정방향으로 회전되고, 우륜 구동부(미도시)에 의해 우륜(162a)은 역방향으로 회전되는 경우 본체(110)가 좌측 또는 우측으로 회전된다.
한편, 제어부(도 3의 170)는 좌륜 구동부(미도시)와 우륜 구동부(미도시)의 회전 속도에 차이가 있도록 제어함으로써, 직진운동과 회전운동을 겸하는 본체(110)의 병진운동을 유도하는 것도 가능하다.
이와 같은 제어부(도 3의 170) 제어를 통한 본체(110)의 운동은 장애물에 대한 회피 또는 선회를 가능하게 한다.
한편, 본체(110)의 안정적인 지지를 위한 적어도 하나의 보조바퀴(113)가 더 구비될 수 있다.
본체(110)는 회전 구동부(미도시), 주행 구동부(미도시) 등을 수용하는 본체 하부(111)와, 본체 하부(111)를 덮는 본체 상부(112)를 포함할 수 있다.
본체 상부(112)에는, 영상 투사를 위한, 영상 투사부(130)가 배치될 수 있다. 또한, 원격제어장치(200) 또는 이동 단말기(600)와의 통신을 위한, 통신부(도 3의 122)가 배치될 수도 있다.
한편, 이동 로봇(100)의 위치 정보 또는 이동 정보를 센싱하는, 센서부(도 3의 120)는, 본체 하부(111)에 배치될 수 있으나, 이에 한정되지 않으며, 본체 상부(112) 내에 배치되는 것도 가능하다.
센서부(도 3의 120)는, 장애물을 향해 광을 출사하여 장애물의 위치 또는 거리를 감지할 수 있다.
한편, 센서부(도 3의 120)는 본체(110)에 회전 가능하게 구비된다.
한편, 센서부(도 3의 120)는 광을 출력하는 송광부(미도시)와, 광을 수신하는 수광부(미도시)를 포함할 수 있다. 발광부(미도시)는, LED, 레이저 다이오드 등을 포함할 수 있다.
도 3은 도 1의 이동 로봇의 간략한 내부 블록도이다.
도면을 참조하면, 이동 로봇(100)은, 센서부(120), 다른 외부 장치와의 통신을 위한 통신부(122), 영상 투사부(130), 이동 로봇의 동작 상태 등을 표시하는 표시부(180), 메모리(143), 오디오 입력부(152), 오디오 출력부(154), 내부 제어를 위한 제어부(170), 이동 로봇을 주행시키는 주행부(185), 사용자 입력을 위한 입력부(195)를 포함할 수 있다.
통신부(122)는, 원격제어장치(200) 또는 이동 단말기(600)와 데이터를 교환할 수 있다.
예를 들어, 통신부(122)는, 적외선 기반의 IR 통신, RF 통신 등을 수행할 수 있다. RF 통신으로서, 예를 들어, 지그비 통신, Wifi 통신, 블루투스 통신 등이 예시될 수 있다.
한편, 통신부(122)는, 원격제어장치(200)로부터의 포인팅 신호를 수신할 수 있다.
예를 들어, 원격제어장치(200)가 포인터 표시를 위한, LED, 또는 레이저 다이오드을 구비하는 발광부(미도시)를 구비하는 경우, 이에 대응하여, 통신부(122)는, 포토 다이오드와 같은, 수광부(미도시)를 구비할 수 있다.
센서부(120)는, 이동 로봇(100)의 위치 정보 또는 이동 정보를 센싱할 수 있따.
이를 위해, 센서부(120)는, 9축 센서(125)를 구비할 수 있다.
9축 센서(125)는, 가속도 센서(acceleration sensor), 자이로 센서(gyro sensor), 지자기 센서(terrestrial magnetism sensor) 등을 구비할 수 있으며, x,y,z 축 방향의 가속도, 각속도, 자기장 기반의 방위 정보 등을 센싱할 수 있다.
한편, 제어부(170)는, 센서부(120)에서, 센싱한 가속도, 각속도, 자기장 기반의 방위 정보 등에 기초하여, 이동 로봇(100)의 위치 정보 또는 이동 정보를 연산할 수 있다.
영상 투사부(130)는, 이동 로봇(100) 전방에, 영상을 투사하기 위해, 본체 상부(112)에 배치될 수 있다.
영상 투사부(130)는, 투사 영상에 대응하는 가시광을 출력하는 광원부(도 4의 310)를 구비할 수 있다. 한편, 투사 영상의 출력 방향, 출력 각도, 출력 거리 등의 조정을 위해, 가시광을 스캐닝 방식에 의해 외부로 출력하는 스캐너(도 4의 340)를 더 포함할 수 있다. 영상 투사부(130)에 대해서는, 도 4를 참조하여 보다 상세히 기술한다.
메모리(143)는, 이동 로봇(100)의 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 한편, 메모리(143)는, 음성 인식 알고리즘을 구비하는 것도 가능하다.
특히, 메모리(143)는, 이동 로봇(100)의 주행을 위한 맵 정보를 저장할 수 있다.
오디오 입력부(152)는, 사용자 음성을 입력받을 수 있다. 이를 위해, 마이크를 구비할 수 있다. 수신되는 음성은, 전기 신호로 변환하여, 제어부(170)로 전달될 수 있다.
오디오 출력부(154)는, 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 스피커 등을 구비할 수 있다.
제어부(170)는, 이동 로봇의 전반적인 동작을 제어할 수 있다. 제어부(170)는, 센서부(120), 통신부(122), 영상 투사부(130), 표시부(180), 메모리(143), 오디오 입력부(152), 오디오 출력부(154), 주행부(185), 입력부(195) 등의 동작을 제어할 수 있다.
주행부(185)는, 이동 로봇을 주행시킬 수 있다. 이를 위해, 주행부(185)는, 도 2a 내지 도 2b 및 그에 대한 설명에서 기술한 바와 같이, 좌륜(161a)과 우륜(162a), 좌륜(161a)과 우륜(162a)을 구동시키는 주행 구동부(미도시)를 구비할 수 있다. 특히, 주행 구동부(미도시)는, 좌륜(161a)을 구동하는 좌륜 구동부(미도시)와, 우륜(162a)을 구동하는 우륜 구동부(미도시)를 포함할 수 있다.
한편, 주행부(185)는, 제어부(170) 제어에 의해, 좌륜(161a)과 우륜(162a)의 각각의 정회전 또는 역회전 중 어느 하나를 하도록 제어함으로써, 본체(110)의 직진, 후진 또는 선회 등이 수행되도록 할 수 있다.
예를 들어, 좌륜(161a)이 정방향으로 회전되고, 우륜(162a)은 역방향으로 회전되는 경우 본체(110)가 좌측 또는 우측으로 회전된다. 한편, 제어부(170)는 좌륜(161a)과 우륜(162a)의 회전 속도에 차이가 있도록 제어함으로써, 직진운동과 회전운동을 겸하는 본체(110)의 병진운동을 유도하는 것도 가능하다.
입력부(195)는, 사용자 입력을 위한 로컬키를 구비할 수 있다.
한편, 도면에서느 도시하지 않았지만, 영상 투사부(130) 외에, 별도의 디스플레이(미도시)를 구비하는 것도 가능하다.
이러한 디스플레이(미도시)를 통해, 이동 로봇(100)의 동작 상태 등의 각 종 정보가 표시될 수 있다. 또한, 디스플레이(미도시)는 터치 스크린으로 구현될 수 있으며, 각 종 사용자 입력을 위해, 사용될 수도 있다.
도 4는 도 3의 영상 투사부의 내부 블록도이다.
도면을 참조하면, 도 4의 영상 투사부(130)는, 광학부(305)와, 구동부(386)를 구비할 수 있다.
광학부(305)는, 복수의 광원을 구비하는 광원부(310)를 구비할 수 있다. 즉, 적색 광원부(310R), 녹색 광원부(310G), 청색 광원부(310B)를 구비할 수 있다. 이때, 적색 광원부(310R), 녹색 광원부(310G), 청색 광원부(310B)는, 각각 적색, 녹색, 청색 광원을 구비할 수 있다. 예를 들어, 각 광원은, 레이저 다이오드를 구비할 수 있다.
한편, 각 광원부(310R,310G,310B)는, 구동부(386)로부터의 각 전기 신호에 의해, 구동될 수 있으며, 이러한 구동부(386)의 전기 신호는, 제어부(170)의 제어에 의해, 생성될 수 있다.
각 광원부(310R,310G,310B)에서 출력되는 잭색,녹색,청색광들은, 집광부(312) 내의 각 집광 렌즈(collimator lens)를 통해, 시준된다(collimate).
광합성부(320)는, 각 광원부(310R,310G,310B)에서에서 출력되는 광을 합성하여 일 방향으로 출력한다. 이를 위해, 광합성부(320)는, 3개의 2D MEMS 미러(mirror)(320a,320b,320c)를 구비할 수 있다.
즉, 제1 광합성부(320a), 제2 광합성부(320b), 제3 광합성부(320c)는, 각각, 적색 광원부(310R)에서 출력되는 적색광, 녹색 광원부(310G)에서 출력되는 녹색광, 청색 광원부(310B)에서 출력되는 청색광을, 스캐너(340) 방향으로 출력하도록 한다.
광반사부(356)는, 광합성부(320)를 통과한 적색광,녹색광,청색광을 스캐너(340) 방향으로 반사시킨다. 광반사부(356)는, 다양한 파장의 광을 반사시키며, 이를 위해, Total Mirror(TM)로 구현될 수 있다.
한편, 스캐너(340)는, 광원부(310)으로부터의 적색광,녹색광,청색광에 기초한 가시광(RGB)을, 입력받아, 외부로 제1 방향 스캐닝 및 제2 방향 스캐닝을 순차적으로, 그리고 반복적으로 수행할 수 있다. 이와 같은 스캐닝 동작을, 외부 스캔 영역의 전체에 대해, 반복하여 수행한다. 이에 의해, 외부로 가시광(RGB)에 대응하는 투사 영상이 표시될 수 있다.
도 5는 도 1의 원격제어장치의 내부 블록도이다.
도 5은 도 1의 원격제어장치의 내부 블록도이다.
도면을 참조하여 설명하면, 원격제어장치(200)는, 무선통신부(220), 키 입력부(230), 마이크(235), 센서부(240), 출력부(250), 전원공급부(260), 메모리(265), 제어부(270)를 포함할 수 있다.
무선통신부(220)는 전술하여 설명한 바와 같이, 이동 로봇(100)을 비롯한 디바이스와 신호를 송수신할 수 있다. 이를 위해, 무선 통신부(220)는, 수신부(223)와, 송신부(221)를 구비할 수 있다.
송신부(221)는, 적외선(Infra Red) 신호, RF(Radio Frequency) 신호, 와이파이 (Wi-Fi)신호, 지그비(ZigBee) 신호, 블루투스(bluetooth) 신호, 레이저 신호, UWB(Ultra Wideband) 신호, 광신호(적외선광 등) 중 어느 하나의, 송신 신호를 출력할 수 있다.
한편, 송신부(221)는, 적외선(Infra Red) 신호, RF(Radio Frequency) 신호, 와이파이 (Wi-Fi)신호, 지그비(ZigBee) 신호, 블루투스(bluetooth) 신호, 레이저 신호, UWB(Ultra Wideband) 신호, 광신호(적외선광 등) 중 어느 하나의, 원격제어신호를, 출력할 수 있다.
예를 들어, 송신부(221)는, IR 모듈(221a)을 구비하고, 적외선 신호 기반의 송신 신호 또는 광신호를 출력할 수 있다.
한편, 송신부(221)는, RF 모듈(221b)을 구비하고, RF 기반의 원격제어신호 를 출력할 수 있다.
수신부(223)는, 적외선(Infra Red) 신호, RF(Radio Frequency) 신호, 와이파이 (Wi-Fi)신호, 지그비(ZigBee) 신호, 블루투스(bluetooth) 신호, 레이저 신호, UWB(Ultra Wideband) 신호, 광신호(적외선광 등) 중 어느 하나의, 수신 신호를, 수신할 수 있다.
한편, 원격제어장치(200)는, 이동 로봇(100)에 포인팅 신호를 전송할 수 있다. 이때, 포인팅 신호 내에, 원격제어장치(200)의 포인팅 정보, 예를 들어, 움직임 등에 관한 정보가 포함될 수 있다.
키 입력부(230)는 복수의 키를 구비할 수 있다. 복수의 키는, 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구현 가능하다.
마이크(235)는, 사용자의 음성을 수신하고, 수신된 사용자 음성을 전기 신호로 변환하여, 제어부(270)에 전달할 수 있다.
센서부(240)는, 원격제어장치(200)의 움직임에 대응하여, 가속도 정보, 회전 각도 정보를 센싱할 수 있다.
이를 위해, 센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있다. 자이로 센서(241)와 가속도 센서(2430)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다.
일예로, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있다. 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다.
한편, 센서부(240)는, 상술한 9축 센서를 구비할 수도 있다.
출력부(250)는 키 입력부(230)의 조작에 대응하는 진동 또는 사운드 신호를 출력하거나 LED를 발광할 수 있다. 출력부(250)를 통하여 사용자는 키 입력부(230)의 조작 여부를 인지할 수 있다.
일예로, 출력부(250)는 키 입력부(230)가 조작되거나 무선 통신부(225)을 통하여 IR 신호가 송신 또는 수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255)을 구비할 수 있다.
전원공급부(260)는 원격제어장치(200)로 전원을 공급한다. 전원공급부(260)는 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로서 전원 낭비를 줄일 수 있다. 전원공급부(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
메모리(265)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다.
제어부(270)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다.
한편, 제어부(270)는, 지향되는 방향으로, 포인팅 신호가 출력되도록 제어할 수 있다.
한편, 제어부(270)는, 소정 영역으로의 영상 투사를 위한, 투사 입력 등이, 이동 로봇(100)에 전송되도록 제어할 수 있다.
도 6은 도 1의 이동 단말기의 내부 블록도이다.
도 5를 참조하면, 이동 단말기(600)는, 무선 통신부(610), A/V(Audio/Video) 입력부(620), 사용자 입력부(630), 센싱부(640), 출력부(650), 메모리(660), 인터페이스부(670), 제어부(680), 및 전원 공급부(690)를 포함할 수 있다.
본 발명의 실시예에 따른 무선 통신부(610)는, 네트워크 공유기(550)를 통해, 전력 관리부(500)와 무선으로 데이터를 교환할 수 있다. 예를 들어, 이동 단말기(100)가 내부 전력망에 대한 전력 모니터링 모드인 경우, 무선 통신부(610)는, 전력 모니터링 요청을 송신할 수 있으며, 그에 따라, 모니터링 정보를 수신할 수 있다. 다른 예로, 이동 단말기(100)가 내부 전력망에 대한 원격 제어 모드인 경우, 무선 통신부(610)는, 원격제어신호를 송신할 수 있다. 그리고, 원격제어에 대한 결과 정보를 수신할 수 있다.
한편, 무선 통신부(610)는, 방송수신 모듈(611), 이동통신 모듈(613), 무선 인터넷 모듈(615), NFC 모듈(617), 및 GPS 모듈(619) 등을 포함할 수 있다.
방송수신 모듈(611)은 방송 채널을 통하여 외부의 방송관리 서버로부터 방송 신호 및 방송관련 정보 중 적어도 하나를 수신할 수 있다. 이때, 방송 채널은 위성 채널, 지상파 채널 등을 포함할 수 있다.
방송수신 모듈(611)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(660)에 저장될 수 있다.
이동통신 모듈(613)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(615)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(615)은 이동 단말기(600)에 내장되거나 외장될 수 있다. 예를 들어, 무선 인터넷 모듈(615)은, WiFi 기반의 무선 통신 또는 WiFi Direct 기반의 무선 통신을 수행할 수 있다.
NFC 모듈(617)은 근거리 자기장 통신을 수행할 수 있다. NFC 모듈(617)은, NFC 태그 또는 NFC 모듈이 탑재된 전자장치와 소정 거리 이내로 접근하는 경우, 즉 태깅하는 경우, 해당 전자장치로부터 데이터를 수신하거나, 해당 전자장치로 데이터를 전송할 수 있다.
그 외, 근거리 통신 기술로서, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등이 이용될 수 있다.
GPS(Global Position System) 모듈(619)은 복수 개의 GPS 인공위성으로부터 위치 정보를 수신할 수 있다.
A/V(Audio/Video) 입력부(620)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(621)와 마이크(623) 등이 포함될 수 있다.
사용자 입력부(630)는 사용자가 단말기의 동작 제어를 위하여 입력하는 키 입력 데이터를 발생시킨다. 이를 위해, 사용자 입력부(630)는, 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(정압/정전) 등으로 구성될 수 있다. 특히, 터치 패드가 디스플레이(651)와 상호 레이어 구조를 이룰 경우, 이를 터치스크린(touch screen)이라 부를 수 있다.
센싱부(640)는 이동 단말기(600)의 개폐 상태, 이동 단말기(600)의 위치, 사용자 접촉 유무 등과 같이 이동 단말기(600)의 현 상태를 감지하여 이동 단말기(600)의 동작을 제어하기 위한 센싱 신호를 발생시킬 수 있다.
센싱부(640)는, 감지센서(641), 압력센서(643), 및 모션 센서(645) 등을 포함할 수 있다. 모션 센서(645)는 가속도 센서, 자이로 센서, 중력 센서 등을 이용하여 이동 단말기(600)의 움직임이나 위치 등을 감지할 수 있다. 특히, 자이로 센서는 각속도를 측정하는 센서로서, 기준 방향에 대해 돌아간 방향(각도)을 감지할 수 있다.
출력부(650)는 디스플레이(651), 음향출력 모듈(653), 알람부(655), 및 햅틱 모듈(657) 등을 포함할 수 있다.
디스플레이(651)는 이동 단말기(600)에서 처리되는 정보를 표시 출력한다.
한편, 전술한 바와 같이, 디스플레이(651)와 터치패드가 상호 레이어 구조를 이루어 터치스크린으로 구성되는 경우, 디스플레이(651)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다.
음향출력 모듈(653)은 무선 통신부(610)로부터 수신되거나 메모리(660)에 저장된 오디오 데이터를 출력한다. 이러한 음향출력 모듈(653)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(655)는 이동 단말기(600)의 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. .
햅틱 모듈(haptic module)(657)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(657)이 발생시키는 촉각 효과의 대표적인 예로는 진동 효과가 있다.
메모리(660)는 제어부(680)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다.
인터페이스부(670)는 이동 단말기(600)에 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. 인터페이스부(670)는 이러한 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 이동 단말기(600) 내부의 각 구성 요소에 전달할 수 있고, 이동 단말기(600) 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.
제어부(680)는 통상적으로 상기 각부의 동작을 제어하여 이동 단말기(600)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행할 수 있다. 또한, 제어부(680)는 멀티 미디어 재생을 위한 멀티미디어 재생 모듈(681)을 구비할 수도 있다. 멀티미디어 재생 모듈(681)은 제어부(680) 내에 하드웨어로 구성될 수도 있고, 제어부(680)와 별도로 소프트웨어로 구성될 수도 있다.
전원 공급부(690)는, 제어부(680)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
한편, 도 5에 도시된 이동 단말기(600)의 블록도는 본 발명의 일실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 이동 단말기(600)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 7은 본 발명의 일실시예에 따른 이동 로봇의 동작방법을 도시한 순서도이고, 도 8a 내지 도 12는 도 6의 동작방법의 설명에 참조되는 도면이다.
먼저, 도 7을 참조하여 설명하면, 이동 로봇(100)은, 제1 공간 영역에 대한 주행을 수행할 수 있다(S710).
상술한 바와 같이, 이동 로봇(100)의 제어부(170)는, 주행 구동부(미도시)를 구비하는 주행부(185)를 제어하여, 좌륜(161a)과 우륜(162a)이 구동하도록 제어할 수 있다.
예를 들어, 이동 로봇(100)의 제어부(170)는, 좌륜(161a)과 우륜(162a)을, 동일 속도로 제1 방향 회전시켜, 이동 로봇(100)이 전진 주행하도록 제어할 수 있다.
한편, 이동 로봇(100)의 제어부(170)는, 좌륜(161a)과 우륜(162a)을, 동일 속도로 제2 방향 회전시켜, 이동 로봇(100)이 후진 주행하도록 제어할 수 있다.
이동 로봇(100)의 제어부(170)는, 좌륜(161a)과 우륜(162a)을, 서로 다른 속도로 회전시켜, 이동 로봇(100)이 선회 또는 회전 하도록 제어할 수 있다.
한편, 이동 로봇(100)의 제어부(170)는, 내부 센서부(120)에 의해 센싱된 위치 정보가, 기존에 주행하던 위치와 다른 경우, 자기장 맵 생성을 위해, 임의 주행하도록 제어할 수 있다.
다음, 이동 로봇(100)의 제어부(170)는, 주행 중 경로를 학습하고(S720), 학습된 경로에 기초하여, 자기장 맵을 형성할 수 있다(S730).
다음, 이동 로봇(100)의 제어부(170)는, 자기장 맵 생성이 완료되었는 지 여부를 판단하고, 해당하지 않는 경우, 제710 단계 내지 제730 단계(S710~S730)를 반복할 수 있다.
한편, 이동 로봇(100)의 제어부(170)는, 주행부(185)의 동작에 의한 제1 공간 영역에 대한 주행 중, 센서부(120)로부터 획득되는 위치 정보 또는 이동 정보, 및 주행부(185)의 주행 경로에 기초하여, 제1 공간 영역에 대한 자기장 맵을 생성할 수 있다.
이때, 이동 로봇(100)의 제어부(170)는, 센서부(120)로부터 획득되는 위치 정보 또는 이동 정보, 및 주행부(185)의 주행 경로에 기초하여, 제1 공간 영역에 대한 자기장 맵을 생성할 수도 있다.
구체적으로, 이동 로봇(100)의 제어부(170)는, 센서부(120) 내의 9축 센서에서 센싱되는, 가속도 정보, 각속도 정보, 방위 정보와, 주행에 의한 경로 정보를, 계속 매칭하면서, 제1 공간 영역에 대한 자기장 맵을 생성할 수 있다.
특히, 이동 로봇(100)의 제어부(170)는, 9축 센서 중 지자기 센서로부터의 방위 정보를, 경로에 각각 매칭시켜, 자기장 맵을 생성할 수 있다.
한편, 이동 로봇(100)의 제어부(170)는, 주행 중에, 생성되는 자기장 맵을 계속 업데이트할 수 있다.
한편, 이동 로봇(100)의 제어부(170)는, 임의 주행 중, 기존에 주행하였던 위치를, 기준 횟수 이상 주행하는 경우, 자기장 맵 생성이 완료된 것으로 판단할 수 있다.
여기서, 기준 횟수는, 임의 주행 패턴에 따라, 가변될 수 있다. 임의 주행 패턴이 복잡할수록, 기준 횟수가 작아지는 것이 바람직하다.
이와 같이, 제1 공간 영역에 대한 자기장 맵을 생성함에 따라, 기존의 카메라를 기반으로 한 이동 로봇에서, 이미지에 대한, 신호 처리 부담이 경감되므로, 간단하고, 신속하게, 특정 공간의 맵을 생성할 수 있게 된다.
도 8a는 제1 공간의 일예를 도시한 도면이다.
도면을 참조하면, 제1 공간(30)은, 집안 내부로서, 방, 거실, 부엌, 화장실 등으로 구분될 수 있다.
이동 로봇(100)은, 화장실을 제외하고, 집안 내부로서, 방, 거실, 부엌 등을 주행할 수 있다.
예를 들어, 이동 로봇(100)의 제어부(170)는, 도 8b와 같은, 제1 주행 패턴(Path1)으로, 주행하도록 제어할 수 있다.
이동 로봇(100)의 제어부(170)는, 제1 주행 패턴(Path1)으로 주행 중, 센서부(120) 내의 9축 센서에서 센싱되는, 가속도 정보, 각속도 정보, 방위 정보와, 주행에 의한 경로 정보를, 계속 매칭하면서, 제1 공간 영역에 대한 자기장 맵을 생성할 수 있다.
도 8b는, 제1 주행 패턴(Path1)으로 주행 중, 제1 위치에서의 방위 정보(MFa), 제2 위치에서의 방위 정보(MFb)를 예시한다.
도 8c는, 제1 공간(30)에 대한, 주행을 모두 완료한 경우를 예시한다.
상술한 바와 같이, 이동 로봇(100)의 제어부(170)는, 주행 중 자기장 맵을 생성하므로, 주행 경로(path)에 대한 주행 완료시, 이동 로봇(100)의 제어부(170)는, 제1 공간(30)에 대한, 자기장 맵(Mamap)을 생성할 수 있다. 이에 따라, 특정 공간에 대한 자기장 맵을 간단하게 생성할 수 있게 된다.
한편, 이동 로봇(100)의 제어부(170)는, 자기장 맵 생성 완료 후, 자기장 맵에 기초하여, 주행을 수행할 수 있다. 이에 따라, 원하는 위치로, 신속하고 안전하게 이동할 수 있게 된다.
한편, 이동 로봇(100)의 제어부(170)는, 이동 로봇(100)의 제어부(170)는, 원격제어장치(200) 또는 이동 단말기(600)로부터, 제1 위치로의 이동 신호를, 통신부(122)를 통해, 수신하고, 이동 신호에 기초하여, 제1 위치로 이동하도록 제어할 수 있다.
예를 들어, 도 11a를 참조하면, 사용자(20)에 의한, 원격제어장치(200) 또는 이동 단말기(600)로부터의 제1 위치로의 이동 신호가 입력되는 경우, 이동 로봇(100)의 제어부(170)는, 벽(290)에 설치된 스크린(300)의 중앙 영역인 제1 위치로 이동하도록 제어할 수 있다.
한편, 제1 위치에서, 영상 투사 입력이 있는 경우, 이동 로봇(100)의 제어부(170)는, 제1 위치에서, 스크린(300)을 향해, 투사 영상이 출력되도록 제어할 수 있다.
이때, 제1 위치에서의 영상 투사 이력이 있는 경우, 이동 로봇(100)의 제어부(170)는, 메모리(143)에 저장된, 제1 위치에서의 영상 투사시의, 투사방향, 포커스, 줌상태, 키스톤을 활용하여, 영상이 투사되도록 제어할 수 있다.
한편, 이동 로봇(100)의 제어부(170)는, 원격제어장치(200) 또는 이동 단말기(600)로부터, 제2 위치에 대한 포인팅 신호와, 영상 투사 입력을 수신하는 경우, 포인팅 신호 및 영상 투사 입력에 기초하여, 영상 투사부(130)를 통해, 제2 위치에, 제1 영상을 투사하도록 제어할 수 있다.
예를 들어, 도 11a를 참조하면, 사용자(20)에 의한, 원격제어장치(200) 또는 이동 단말기(600)로부터, 제2 위치에 대한 포인팅 신호와, 영상 투사 입력을 수신하는 경우, 이동 로봇(100)의 제어부(170)는, 벽(290)에 설치된 스크린(300)의 중앙 영역인 제1 위치에서, 측면 영역인 제2 위치로 이동하도록 제어할 수 있다.
그리고, 이동 로봇(100)의 제어부(170)는, 제2 위치에서, 스크린(300)을 향해, 투사 영상이 출력되도록 제어할 수 있다.
이때, 이동 로봇(100)의 제어부(170)는, 자기장 맵을 활용하여, 제2 위치에서, 스크린(300)까지의 거리, 각도 등을 연산하고, 연산된 거리, 각도에 기초하여, 제2 위치에서의 영상 투사시의, 투사방향, 포커스, 줌상태, 키스톤을 설정할 수 있다.
그리고, 이동 로봇(100)의 제어부(170)는, 설정된 투사방향, 포커스, 줌상태, 키스톤에 따라, 영상이 투사되도록 제어할 수 있다.
한편, 이동 로봇(100)의 제어부(170)는, 설정된 투사방향, 포커스, 줌상태, 키스톤을, 메모리(143)에 저장되도록 제어할 수 있다.
도 11b는, 영상 투사시, 시청자의 위치를 고려하여, 시청자의 시청 영역 외에, 이동 로봇(100)이 위치하면서, 영상을 투사하는 것을 예시한다.
도면을 참조하면, 이동 로봇(100)의 제어부(170)는, 영상 투사시, 시청자의 위치를 고려하여, 시청자의 시청 영역 외에, 이동 로봇(100)이 위치하면서, 영상을 투사하도록 제어할 수 있다.
즉, 도 11b와 같이, 이동 로봇(100)의 제어부(170)는, 이동 로봇(100)을 좌측에서 우측으로 순차 이동시키면서, 영상을 투사하도록 제어할 수 있다.
한편, 도 11c는, 스크린(300)으로의 영상 투사시, 사용자(20), 이동 로봇, 스크린(300) 사이의 각도를 연산하는 것을 예시한다.
여기서, 사용자(20)는, 원격제어장치(200) 또는 이동 단말기(600)를 가지고 있는 것으로 가정하며, 이동 로봇(100)는, 원격제어장치(200) 또는 이동 단말기(600)로부터 위치 정보를 수신하는 것으로 가정한다.
이동 로봇(100)의 제어부(170)는, 원격제어장치(200) 또는 이동 단말기(600)로부터 위치 정보, 생성된 자기장 맵에 기초하여, 사용자(20), 이동 로봇, 스크린(300) 사이의, 거리 정보, 및 각도 정보를 연산할 수 있다.
특히, 다음의 수학식 1에 의해, θ2를 연산하며, 다음의 수학식 2에 의해, d3를 연산할 수 있다.
Figure pat00001
Figure pat00002
여기서, d1은 이동 로봇(100)과 사용자(20) 사이의 거리, d2은 사용자(20)와 스크린(300) 사이의 거리, d3은 이동 로봇(100)과 스크린(300) 사이의 거리, θ1은 사용자(20) 기준의 이동 로봇(100)과 스크린(300) 사이의 각도, θ2은 이동 로봇(100) 기준의 사용자(20)와 스크린(300) 사이의 각도를 나타낸다.
한편, 이동 로봇(100)의 제어부(170)는, 이동 로봇(100) 기준의 사용자(20)와 스크린(300) 사이의 각도(θ2)와, 이동 로봇(100)과 스크린(300) 사이의 거리(d3)를 이용하여, 투사 영상의 포커스를 조절할 수 있다.
한편, 이동 로봇(100)의 제어부(170)는, 원격제어장치(200) 또는 이동 단말기(600)로부터 레이저 포인터 신호에 기초하여, 투사 위치, 이동 위치를 결정할 수 있다.
예를 들어, 이동 로봇(100)의 제어부(170)는, 원격제어장치(200)로부터의 레이저 포인터 신호에 의한 드래그 앤 드랍 입력이 수신되는 경우, 구체적으로, 이동 로봇(100)가 드래그 되어, 스크린(300) 위치로 드랍되는 경우, 이동 로봇(100)에서, 스크린(300)으로 영상을 투사하는 것으로 결정할 수 있다.
이때, 사용자에 대한 피드백으로, 드래그 앤 드랍 입력에 대한 인식 완료로서, 진동 발생 신호가, 이동 로봇(100)에서 원격제어장치(200)로 전송되어, 원격제어장치(200)에서 진동이 발생할 수도 있다.
한편, 이동 로봇(100)의 제어부(170)는, 원격제어장치(200) 또는 이동 단말기(600)로부터, 원격제어장치(200) 또는 이동 단말기(600)의, 위치 정보 또는 이동 정보를 수신 한 후, 제2 위치에 대한 포인팅 신호와, 영상 투사 입력을 수신하는 경우, 원격제어장치(200) 또는 이동 단말기(600)의, 위치 정보 또는 이동 정보와, 로봇(100)의 위치 정보 또는 이동 정보에 기초하여, 로봇(100)과, 원격제어장치(200) 또는 이동 단말기(600)와의 거리를 연산하며, 제2 위치에 대한 포인팅 신호, 및 자기장 맵에 기초하여, 로봇(100)과, 제2 위치와의 거리를 연산하고, 제2 위치와의 거리에 기초하여, 투사되는 영상의 해상도, 밝기, 배율, 틸팅 각도 중 적어도 하나를 조정할 수 있다.
한편, 이동 로봇(100)의 제어부(170)는, 영상 투사부(130)의 높이 정보, 및 제2 위치와의 거리에 기초하여, 투사되는 영상의 해상도, 밝기, 배율, 틸팅 각도 중 적어도 하나를 조정할 수 있다.
한편, 이동 로봇(100)의 제어부(170)는, 원격제어장치(200) 또는 이동 단말기(600)의 앞, 뒤 이동에 기초한, 줌 인 또는 줌 아웃 입력을 수신하고, 줌 인 또는 줌 아웃 입력에 기초하여, 제1 영상을 줌 인 또는 줌 아웃되도록 제어할 수 있다.
한편, 이동 로봇(100)의 제어부(170)는, 줌 인 또는 줌 아웃시, 제1 위치에서 제2 위치로 이동하도록 제어할 수 있다.
특히, 제1 위치에서의 줌인 또는 줌 아웃 수행시, 입력된 대로, 줌인 또는 줌 아웃이 수행되기 힘든 경우, 이동 로봇(100)의 제어부(170)는, 본체(110)가, 스크린(300)에서 멀어지거나 가까워지도록 제어함으로써, 줌 인 또는 줌 아웃이 수행되도록 제어할 수 있다.
한편, 도 12는, 사용자(20)가 들고 있는 원격제어장치(200)의 높이와, 이동 로봇(200)의 영상 투사부(130)의 높이가 다른 경우, 이에 대한 보정을 통한, 영상 투사를 수행하는 것을 설명하기 위해 참조되는 도면이다.
도면을 참조하면, 원격제어장치(200)의 높이는 h1+h2이고, 영상 투사부(130)의 높이누느 h2로서 다르다.
이에 따라, 이동 로봇(100)의 제어부(170)는, 원격제어장치(200)의 높이와, 이동 로봇(200)의 영상 투사부(130)의 높이가 다른 경우, 높이 차를 고려하여, 스크린(300)으로의 영상 투사시, 영상의 해상도, 밝기, 배율, 틸팅 각도 중 적어도 하나를 조정할 수 있다.
도면에서, 이동 로봇(100)의 제어부(170)는, 원격제어장치(200)의 위치 정보와 이동 로봇(100)의 센서부(120)로부터의 위치 정보에 기초하여, d1을, 산출헐 수 있다.
다음, 이동 로봇(100)의 제어부(170)는, 이동 로봇(100)의 설계사양으로서, h2를 획득할 수 있다.
다음, 이동 로봇(100)의 제어부(170)는, 원격제어장치(200)의 각도 정보, 가속도 정보 등에 기초하여, 각도 g1을, 산출할 수 있으며, 90도- g1에 의해, 각도 g'1을, 산출될 수 있다.
이에 따라, 이동 로봇(100)의 제어부(170)는, 직각삼각형 내의 h1을 산출할 수 있다.
그리고, 이동 로봇(100)의 제어부(170)는, 산출된 h1을 고려하여, 스크린(300)으로의 영상 투사시, 영상의 해상도, 밝기, 배율, 틸팅 각도 중 적어도 하나를 조정할 수 있다. 이에 따라, 정확한 영상 투사가 가능하게 된다.
본 발명에 따른 이동 로봇은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명의 이동 로봇의 동작방법은, 이동 로봇에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (10)

  1. 본체를 이동시키는 주행부;
    자기장 기반의 지자기 센서를 구비하며, 위치 정보 또는 이동 정보를 센싱하는 센서부;
    상기 주행부의 동작에 의한 제1 공간 영역에 대한 주행 중, 상기 센서부로부터 획득되는 위치 정보 또는 이동 정보, 및 상기 주행부의 주행 경로에 기초하여, 상기 제1 공간 영역에 대한 자기장 맵을 생성하는 제어부;를 포함하는 것을 특징으로 하는 이동 로봇.
  2. 제1항에 있어서,
    상기 제어부는,
    상기 센서부로부터 획득되는 위치 정보 또는 이동 정보, 및 상기 주행부의 주행 경로에 기초하여, 상기 제1 공간 영역에 대한 자기장 맵을 생성하는 것을 특징으로 하는 이동 로봇.
  3. 제1항에 있어서,
    상기 제어부는,
    상기 자기장 맵 생성 완료 후, 상기 자기장 맵에 기초하여, 주행을 수행하는 것을 특징으로 하는 이동 로봇.
  4. 제1항에 있어서,
    원격제어장치 또는 이동 단말기와 데이터를 교환하는 통신부;를 더 포함하고,
    상기 제어부는,
    상기 원격제어장치 또는 상기 이동 단말기로부터, 제1 위치로의 이동 신호를, 상기 통신부를 통해, 수신하고,
    상기 이동 신호에 기초하여, 상기 제1 위치로 이동하도록 제어하는 것을 특징으로 하는 이동 로봇.
  5. 제1항에 있어서,
    원격제어장치 또는 이동 단말기와 데이터를 교환하는 통신부;
    영상 투사부;를 더 포함하고,
    상기 제어부는,
    상기 원격제어장치 또는 상기 이동 단말기로부터, 제2 위치에 대한 포인팅 신호와, 영상 투사 입력을 수신하는 경우, 상기 포인팅 신호 및 상기 영상 투사 입력에 기초하여, 상기 영상 투사부를 통해, 상기 제2 위치에, 제1 영상을 투사하도록 제어하는 것을 특징으로 하는 이동 로봇.
  6. 제5항에 있어서,
    상기 제어부는,
    상기 원격제어장치 또는 상기 이동 단말기로부터, 상기 원격제어장치 또는 상기 이동 단말기의, 위치 정보 또는 이동 정보를 수신 한 후, 상기 제2 위치에 대한 포인팅 신호와, 상기 영상 투사 입력을 수신하는 경우,
    상기 원격제어장치 또는 상기 이동 단말기의, 위치 정보 또는 이동 정보와, 상기 로봇의 위치 정보 또는 이동 정보에 기초하여, 상기 로봇과, 상기 원격제어장치 또는 상기 이동 단말기와의 거리를 연산하며,
    상기 제2 위치에 대한 포인팅 신호, 및 상기 자기장 맵에 기초하여, 상기 로봇과, 상기 제2 위치와의 거리를 연산하고,
    상기 제2 위치와의 거리에 기초하여, 상기 투사되는 영상의 해상도, 밝기, 배율, 틸팅 각도 중 적어도 하나를 조정하는 것을 특징으로 하는 이동 로봇.
  7. 제7항에 있어서,
    상기 제어부는,
    상기 영상 투사부의 높이 정보, 및 상기 제2 위치와의 거리에 기초하여, 상기 투사되는 영상의 해상도, 밝기, 배율, 틸팅 각도 중 적어도 하나를 조정하는 것을 특징으로 하는 이동 로봇.
  8. 제5항에 있어서,
    상기 제어부는,
    상기 원격제어장치 또는 상기 이동 단말기의 앞, 뒤 이동에 기초한, 줌 인 또는 줌 아웃 입력을 수신하고, 상기 줌 인 또는 줌 아웃 입력에 기초하여, 상기 제1 영상을 줌 인 또는 줌 아웃되도록 제어하는 것을 특징으로 하는 이동 로봇.
  9. 본체를 이동시키는 주행부;
    자기장 기반의 지자기 센서를 구비하며, 위치 정보 또는 이동 정보를 센싱하는 센서부;
    원격제어장치 또는 이동 단말기와 데이터를 교환하는 통신부;
    영상 투사부;
    상기 원격제어장치 또는 상기 이동 단말기로부터, 제2 위치에 대한 포인팅 신호와, 영상 투사 입력을 수신하는 경우, 상기 포인팅 신호 및 상기 영상 투사 입력에 기초하여, 상기 영상 투사부를 통해, 상기 제2 위치에, 제1 영상을 투사하도록 제어하는 제어부;를 포함하는 것을 특징으로 하는 이동 로봇.
  10. 제9항에 있어서,
    상기 제어부는,
    상기 원격제어장치 또는 상기 이동 단말기로부터, 상기 원격제어장치 또는 상기 이동 단말기의, 위치 정보 또는 이동 정보를 수신 한 후, 상기 제2 위치에 대한 포인팅 신호와, 상기 영상 투사 입력을 수신하는 경우,
    상기 원격제어장치 또는 상기 이동 단말기의, 위치 정보 또는 이동 정보와, 상기 로봇의 위치 정보 또는 이동 정보에 기초하여, 상기 로봇과, 상기 원격제어장치 또는 상기 이동 단말기와의 거리를 연산하며,
    상기 제2 위치에 대한 포인팅 신호, 및 상기 자기장 맵에 기초하여, 상기 로봇과, 상기 제2 위치와의 거리를 연산하고,
    상기 제2 위치와의 거리에 기초하여, 상기 투사되는 영상의 해상도, 밝기, 배율, 틸팅 각도 중 적어도 하나를 조정하는 것을 특징으로 하는 이동 로봇.
KR1020160060273A 2016-05-17 2016-05-17 이동 로봇 KR20170129496A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160060273A KR20170129496A (ko) 2016-05-17 2016-05-17 이동 로봇

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160060273A KR20170129496A (ko) 2016-05-17 2016-05-17 이동 로봇

Publications (1)

Publication Number Publication Date
KR20170129496A true KR20170129496A (ko) 2017-11-27

Family

ID=60810685

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160060273A KR20170129496A (ko) 2016-05-17 2016-05-17 이동 로봇

Country Status (1)

Country Link
KR (1) KR20170129496A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109648563A (zh) * 2019-01-02 2019-04-19 南京邮电大学 串联机器人运动控制方法及计算机存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109648563A (zh) * 2019-01-02 2019-04-19 南京邮电大学 串联机器人运动控制方法及计算机存储介质
CN109648563B (zh) * 2019-01-02 2021-10-29 南京邮电大学 串联机器人运动控制方法及计算机存储介质

Similar Documents

Publication Publication Date Title
JP6177883B2 (ja) Asrおよびht入力を有する補助ディスプレイとしてのヘッドセットコンピュータ(hsc)
US10110830B2 (en) Multiple streaming camera navigation interface system
KR102176365B1 (ko) 이동 단말기 및 그것의 제어방법
KR20170005649A (ko) 3차원 깊이 카메라 모듈 및 이를 구비하는 이동 단말기
KR20160085613A (ko) 이동단말기 및 그 제어방법
KR20160147555A (ko) 이동 단말기 및 그 제어 방법
KR20180000255A (ko) 이동 단말기 및 그 이동 단말기의 제어 방법
KR20170059760A (ko) 이동단말기 및 그 제어방법
KR20160085191A (ko) 기기 간 무선 연결 방법 및 그 디바이스
US10506290B2 (en) Image information projection device and projection device control method
KR20130074902A (ko) 랩어라운드 영상을 이용한 로봇 원격 제어를 위한 방법 및 이를 위한 장치
KR20180038326A (ko) 이동 로봇
KR20170129496A (ko) 이동 로봇
KR20160001229A (ko) 이동단말기 및 그 제어방법
KR20210066546A (ko) 이동 단말기 및 이동 단말기 제어 방법
KR101632002B1 (ko) 이동단말기 및 그 제어방법
KR101549027B1 (ko) 이동 단말기 및 이동 단말기의 제어방법
US20180024696A1 (en) Image projection apparatus and operation method thereof
KR20160019305A (ko) 이동 단말기 및 그 제어방법
JP6382772B2 (ja) 視線誘導装置、視線誘導方法、および視線誘導プログラム
US10939091B1 (en) Projector device for augmented reality and method for controlling the same
KR102360628B1 (ko) 영상 투사 장치 및 그의 동작 방법
KR20170023648A (ko) 이동 단말기 및 이의 제어방법
KR101632015B1 (ko) 이동 단말기 및 그 제어 방법
KR20150139235A (ko) 전자 기기 및 그 제어 방법