KR102070213B1 - 이동 로봇의 동작 방법 - Google Patents

이동 로봇의 동작 방법 Download PDF

Info

Publication number
KR102070213B1
KR102070213B1 KR1020180007775A KR20180007775A KR102070213B1 KR 102070213 B1 KR102070213 B1 KR 102070213B1 KR 1020180007775 A KR1020180007775 A KR 1020180007775A KR 20180007775 A KR20180007775 A KR 20180007775A KR 102070213 B1 KR102070213 B1 KR 102070213B1
Authority
KR
South Korea
Prior art keywords
mobile robot
distance
display
person
user
Prior art date
Application number
KR1020180007775A
Other languages
English (en)
Other versions
KR20190095578A (ko
Inventor
정재식
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020180007775A priority Critical patent/KR102070213B1/ko
Priority to US16/490,497 priority patent/US20200341480A1/en
Priority to PCT/KR2018/014174 priority patent/WO2019143010A1/ko
Publication of KR20190095578A publication Critical patent/KR20190095578A/ko
Application granted granted Critical
Publication of KR102070213B1 publication Critical patent/KR102070213B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1651Programme controls characterised by the control loop acceleration, rate control

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본 발명의 일 측면에 따른 이동 로봇의 동작 방법은, 기설정된 제1 거리 이내에 사람이 있는지 판별하는 단계, 제1 거리 이내에 사람이 존재하면, 이동 속도를 감소시키는 단계, 제1 거리보다 짧게 설정된 제2 거리 이내에 사람이 있는지 판별하는 단계, 제2 거리 이내에 사람이 존재하면, 이동을 정지하는 단계, 언어 선택 입력을 수신하는 단계, 및, 언어 선택 입력에 대응하는 언어에 기초한 메뉴 화면을 표시하는 단계를 포함함으로써, 서비스 이용을 유도할 수 있고, 사용자 편의성을 향상할 수 있다.

Description

이동 로봇의 동작 방법{Method for operating moving robot}
본 발명은 이동 로봇 및 그 동작 방법에 관한 것으로, 더욱 상세하게는 공공장소에서 사람들에게 안내 및 다양한 서비스를 제공할 수 있는 이동 로봇 및 그 동작 방법에 관한 것이다.
공항, 기차역, 항만, 백화점, 공연장 등 공공장소에서는 전광판, 안내 표시판 등을 통하여 이용자에게 정보를 제공하고 있다. 하지만, 전광판, 안내 표시판 등은 서비스 제공자가 선정한 일부 정보만을 일방적으로 전달할 뿐으로, 개별 이용 자의 요구에 부응하지 못하는 문제점이 있었다.
한편, 최근에는 디스플레이 수단, 터치스크린, 스피커 등 멀티미디어 기기를 활용하여 이용 고객에게 정보 및 서비스를 제공하는 키오스크의 도입이 증가하고 있다. 하지만, 이 경우에도, 이용자가 직접 키오스크를 조작해야 하므로, 기기 사용에 어려움이 있는 사람은 사용하는데 불편함이 있고, 이용자의 요구에 능동적으로 대응할 수 없다는 문제점이 있었다.
한편, 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.
따라서, 로봇을 이용하여 공공장소에서 안내, 광고 등 다양한 서비스를 제공할 수 있는 방안에 대한 연구가 증가하고 있다.
한편, 이동 로봇은, 스스로 이동이 가능하여 이동이 자유롭고, 주행 중 장애물 등을 피하기 위한 다수의 수단을 구비하여 장애물, 낭떠러지를 피해 주행할 수 있다.
예를 들어, 한국공개특허 10-2013-0141979호는 십자 패턴의 광을 조사하는 광원부과 전방의 영상을 획득하는 카메라부을 구비하는 이동 로봇을 개시하고 있다.
이동 로봇의 장애물 감지를 위해 적외선 센서 또는 초음파 센서 등이 이용될 수 있다. 이동 로봇은, 적외선 센서를 통해 장애물의 존재와 거리를 판단하고, 초음파 센서는 소정 주기를 가지는 초음파를 발산하여 장애물에 의해 반사되는 초음파가 있을 경우 초음파 발산 시간과 장애물에 반사되어 되돌아오는 순간의 시간차를 이용하여 장애물과의 거리를 판단할 수 있다.
많은 사람들이 체류하거나 이동하는 공항, 기차역, 백화점, 항만 등 공공장소에서 운용되는 이동 로봇은 사람과 장애물을 인식하며 자율 주행할 수 있고 다양한 서비스를 제공할 수 있다.
따라서, 이동 로봇이 사람, 장애물을 인식하여 안전을 확보하면서 자동으로 주행하는 방안뿐만 아니라, 이동 로봇의 자율 주행 중 주변의 사람 또는 특정한 사용자의 사용 의도를 파악하거나, 사용을 유도할 수 있는 방안이 요구된다.
본 발명의 목적은, 공공장소에서 안내 서비스 등 다양한 서비스를 제공할 수 있는 이동 로봇 및 그 동작 방법을 제공함에 있다.
본 발명의 목적은, 길 안내 등 서비스 제공 과정에서 디스플레이에 표시되는 정보를 용이하게 제공할 수 있는 이동 로봇 및 그 동작 방법을 제공함에 있다.
본 발명의 목적은, 정보의 종류, 정보의 양, 로봇과 사용자 사이의 인터랙션(Interaction) 거리, 디스플레이의 크기에 따라 다양한 방식으로 2개의 디스플레이를 활용함으로써 정보 제공 방식의 효율성 및 사용자 편의성을 향상할 수 있는 이동 로봇 및 그 동작 방법을 제공함에 있다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇의 동작 방법은, 기설정된 제1 거리 이내에 사람이 있는지 판별하는 단계, 제1 거리 이내에 사람이 존재하면, 이동 속도를 감소시키는 단계, 제1 거리보다 짧게 설정된 제2 거리 이내에 사람이 있는지 판별하는 단계, 제2 거리 이내에 사람이 존재하면, 이동을 정지하는 단계, 언어 선택 입력을 수신하는 단계, 및, 언어 선택 입력에 대응하는 언어에 기초한 메뉴 화면을 표시하는 단계를 포함함으로써, 서비스 이용을 유도할 수 있고, 사용자 편의성을 향상할 수 있다.
본 발명의 실시예들 중 적어도 하나에 의하면, 공공장소에서 안내 서비스 등 다양한 서비스를 제공할 수 있다.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 길 안내 등 서비스 제공 과정에서 디스플레이에 표시되는 정보를 용이하게 제공할 수 있다.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 정보의 종류, 정보의 양, 로봇과 사용자 사이의 인터랙션(Interaction) 거리, 디스플레이의 크기에 따라 다양한 방식으로 2개의 디스플레이를 활용함으로써 정보 제공 방식의 효율성 및 사용자 편의성을 향상할 수 있다.
한편, 그 외의 다양한 효과는 후술될 본 발명의 실시예에 따른 상세한 설명에서 직접적 또는 암시적으로 개시될 것이다.
도 1은 본 발명의 일 실시예에 따른 이동 로봇의 사시도이다.
도 2는 본 발명의 일 실시예에 따른 이동 로봇을 저면에서 바라본 저면 사시도이다.
도 3은 본 발명의 일 실시예에 따른 이동 로봇의 측면도이다.
도 4는 본 발명의 일 실시예에 따라 이동 로봇의 디스플레이들이 정렬한 도면이다.
도 5는 본 발명의 일 실시예에 따른 이동 로봇의 주요 구성들 간의 제어관계를 도시한 블록도이다.
도 6은 본 발명의 일 실시예에 따른 이동 로봇의 동작 방법을 도시한 순서도이다.
도 7은 본 발명의 실시예에 따른 이동 로봇의 대기 주행에 관한 설명에 참조되는 도면이다.
도 8은 본 발명의 실시예에 따른 이동 로봇의 사용자 감지 거리, 영역 별 동작에 관한 설명에 참조되는 도면이다.
도 9는 본 발명의 일 실시예에 따른 이동 로봇의 동작 방법을 도시한 순서도이다.
도 10 내지 도 12는 본 발명의 실시예에 따른 이동 로봇의 동작 방법에 관한 설명에 참조되는 도면이다.
이하에서는 첨부한 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나 본 발명이 이러한 실시예에 한정되는 것은 아니며 다양한 형태로 변형될 수 있음은 물론이다.
도면에서는 본 발명을 명확하고 간략하게 설명하기 위하여 설명과 관계없는 부분의 도시를 생략하였으며, 명세서 전체를 통하여 동일 또는 극히 유사한 부분에 대해서는 동일한 도면 참조부호를 사용한다.
한편, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
도 1은 본 발명의 일 실시예에 따른 이동 로봇의 사시도이고, 도 2는 상기 이동 로봇을 저면에서 바라본 저면 사시도이며, 도 3은 상기 이동 로봇의 측면도이다.
도 1 내지 도 3을 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(1)은 외관을 형성하고 그 내부에 각종 부품을 수납하는 본체(10)를 포함할 수 있다.
상기 본체(10)는 상하 방향으로 길이가 길게 형성되며, 전체적으로 하부에서 상부 방향으로 올라갈수록 슬림해지는 오뚝이 형상을 가질 수 있다.
상기 본체(10)는 상기 이동 로봇(1)의 외관을 형성하는 케이스(30)를 포함할 수 있다. 상기 케이스(30)는 상측에 배치되는 탑 커버(31), 상기 탑 커버(31)의 하측에 배치되는 제1 미들 커버(32), 상기 제1 미들 커버(32)의 하측에 배치되는 제2 미들 커버(33) 및 상기 제2 미들 커버(33)의 하측에 배치되는 바텀 커버(34)를 포함할 수 있다. 여기서 상기 제1 미들 커버(32)와 상기 제2 미들 커버(33)는 하나의 미들 커버로 이루어질 수 있다.
상기 탑 커버(31)는 상기 이동 로봇(1)의 최상단에 위치되며, 반구 또는 돔 형상을 가질 수 있다. 상기 탑 커버(31)는 사용자로부터 명령을 용이하게 입력 받기 위하여 성인의 키보다 낮은 높이에 위치될 수 있다. 그리고 상기 탑 커버(31)는 소정각도 회전 가능하도록 구성될 수 있다.
한편, 상기 탑 커버(31)는, 이동 로봇(1)의 최상단에 배치되고, 그 내부에 각종 부품을 수납하여, 사람의 헤드(head)와 유사한 형상과 기능을 가지고 사용자와의 인터랙션(interaction)을 담당할 수 있다. 따라서, 상기 탑 커버(31)와 그 내부에 배치되는 부품들은 헤드(head)로 명명될 수 있다. 또한, 상기 탑 커버(31)의 내부에 수납되거나 외부에 배치되는 부품들의 구성을 헤드부로 명명할 수 있다. 한편, 상기 헤드의 하측에 배치되는 나머지 부분은 바디(body)로 명명될 수 있다.
상기 탑 커버(31)는 전면 일측에 조작부(311)를 포함할 수 있다. 상기 조작부(311)는 사용자로부터 명령을 입력받는 기능을 수행할 수 있다. 이를 위하여, 상기 조작부(311)는 사용자로부터 터치 입력을 받기 위한 디스플레이(312)를 포함할 수 있다.
상기 조작부(311)에 배치되는 디스플레이(312)는 제1 디스플레이 또는 헤드 디스플레이(312)로 명명하고, 바디에 배치되는 디스플레이부(20)에 포함되는 디스플레이는 제2 디스플레이 또는 바디 디스플레이(21)로 명명할 수 있다.
상기 헤드 디스플레이(312)는 터치패드와 상호 레이어 구조를 이루어 터치스크린으로 구성될 수 있다. 이 경우에, 상기 헤드 디스플레이(312)는 출력 장치 이외에 사용자의 터치에 의한 정보의 입력이 가능한 입력 장치로도 사용될 수 있다.
또한, 상기 조작부(311)는 사용자가 상기 헤드 디스플레이(312)를 아래로 내려다보면서 쉽게 조작할 수 있도록 일정각도 상측을 향할 수 있다. 예를 들어, 상기 조작부(311)는 상기 탑 커버(31)의 일부가 절단되어 형성되는 면에 배치될 수 있다. 따라서, 상기 헤드 디스플레이(312)는 경사지도록 배치될 수 있다.
또한, 상기 조작부(311)는 전체적으로 원형 또는 타원형의 외형을 가질 수 있다. 이러한 상기 조작부(311)는 사람의 얼굴 형상과 유사하게 구현될 수 있다.
일례로, 상기 조작부(311)는 원형 형상을 가지며, 상기 조작부(311) 상에는 사람의 눈, 코, 입, 눈썹 등을 표현하기 위한 구조물이 하나 이상 위치될 수 있다.
즉, 상기 조작부(311) 상에는 사람의 눈, 코, 입, 눈썹 등을 표현하기 위하여 특정 구조물이 배치될 수 있고 또는 특정 페인트가 도색될 수 있다. 따라서, 상기 조작부(311)는 사람의 얼굴 형상을 가짐으로써, 사용자에게 감성적인 느낌을 제공할 수 있다. 더욱이, 사람의 얼굴 형상을 가지는 로봇이 주행하는 경우, 마치 사람이 움직이는 것과 같은 느낌을 줄 수 있어 로봇에 대한 거부감을 해소할 수 있다.
다른 예로, 상기 헤드 디스플레이(312) 상에는 사람의 눈, 코, 입, 눈썹 등을 표현하기 위한 이미지가 하나 이상 표시될 수 있다.
즉, 상기 헤드 디스플레이(312) 상에는 길 안내 서비스에 관련된 정보뿐만 아니라, 사람의 얼굴 형상을 표현하기 위한 다양한 이미지가 표시될 수 있다. 그리고 상기 헤드 디스플레이(312) 상에는 일정 시간 간격 또는 특정 시각에 정해진 얼굴 표정을 표현하기 위한 이미지가 표시될 수도 있다.
한편, 도 1을 기준으로 상기 바디 디스플레이(21)가 향하는 방향을 "후방"이라고 정의한다. 그리고 "후방"의 반대 방향을 "전방"이라고 정의한다.
또한, 상기 조작부(311)는 사람과 사물 인식을 위한 헤드 카메라부(313)가 배치될 수 있다.
상기 헤드 카메라부(313)는 상기 헤드 디스플레이(312)의 상측에 배치될 수 있다. 상기 헤드 카메라부(313)는 2D 카메라(313a) 및 RGBD 센서(313b, 313c)를 포함할 수 있다.
상기 2D 카메라(313a)는 2차원 영상을 기반으로 사람 또는 사물을 인식하기 위한 센서일 수 있다.
또한, 상기 RGBD 센서(Red, Green, Blue, Distance)(313b, 313c)는 사람의 위치 또는 얼굴 이미지를 획득하기 위한 센서일 수 있다. 상기 RGBD 센서(313b, 313c)는 RGBD 센서들을 갖는 카메라 또는 다른 유사한 3D 이미징 장치로부터 획득되는 깊이(Depth) 데이터를 갖는 캡쳐된 이미지들을 이용하여 사람 또는 사물을 검출하기 위한 센서일 수 있다.
사람의 위치 또는 얼굴 이미지를 정확히 검출하기 위하여, 상기 RGBD 센서(313b, 313c)는 복수 개로 이루어질 수 있다. 일례로, 상기 RGBD 센서(313b, 313c)는 2개로 구성되어, 상기 2D 카메라(313a)의 좌측 및 우측에 각각 배치될 수 있다.
상기 헤드 카메라부(313)는, RGBD 카메라 센서 등 3D 비전 센서로 구성될 수 있고, 소정 거리 이내에 사람의 존재 여부, 안내 모드에서 안내 대상의 존재 여부, 사람과 이동 로봇(1)과의 거리, 사람의 이동 속도 등을 센싱할 수 있다.
한편, 도시되진 않았으나, 상기 조작부(311)는 사용자로부터 명령을 직접 입력 받기 위한 물리적 버튼을 더 포함할 수 있다.
또한, 상기 탑 커버(31)는 마이크(314)를 더 포함할 수 있다.
상기 마이크(314)는 사용자로부터 오디오 신호의 명령을 입력 받기위한 기능을 수행할 수 있다. 일례로, 상기 마이크(314)는 사용자로부터 음성 명령을 정확히 수신하기 위하여, 상기 탑 커버(31)의 상단부 어느 지점에 4개소가 형성될 수 있다. 따라서, 상기 이동 로봇(1)이 주행 중이거나 또는 상기 탑 커버(31)가 회전 중에도, 사용자로부터 음성의 길 안내 요청을 정확히 수신할 수 있다.
본 발명의 일 실시예에서 상기 탑 커버(31)는, 상기 이동 로봇(1)이 주행 중에는 상기 조작부(311)가 주행 방향을 향하도록 회전될 수 있다. 그리고 상기 탑 커버(31)는 상기 이동 로봇(1)이 주행 중에 사용자로부터 명령(예: 음성 명령 등)을 수신하면, 상기 조작부(311)가 사용자가 위치한 방향을 향하도록 회전될 수 있다.
이와는 다르게, 상기 탑 커버(31)는 상기 이동 로봇(1)이 주행 중에 사용자로부터 명령을 수신하면, 상기 이동 로봇(1)의 주행 방향의 반대되는 방향으로 회전될 수 있다. 즉, 상기 탑 커버(31)는 상기 바디 디스플레이부(20)가 향하는 방향으로 회전될 수 있다. 따라서, 사용자는 상기 바디 디스플레이부(20)에 표시되는 길 안내 서비스 정보 등을 보면서 상기 조작부(311)를 효과적으로 조작할 수 있다.
도 4는 본 발명의 일 실시예에 따라 이동 로봇(1)의 디스플레이들(312, 20)이 정렬한 도면이다.
도 4를 참조하면, 이동 로봇(1)은 인터랙션(interaction) 상태에서 사용자로부터 명령을 수신하거나 대기 중일 때, 디스플레이들(312, 20)이 일방향으로 정렬하여 사용자 또는 공공장소의 이용자들이 두 디스플레이들(312, 20)에 표시되는 정보를 더 쉽게 볼 수 있도록 할 수 있다.
인터랙션 상태는, 이동 로봇(1)이, 소정 사용자에게 음성 안내, 메뉴 화면 등을 제공하거나, 사용자로부터 터치, 음성 입력을 수신하거나, 안내 서비스 제공 중인 경우 등이 해당될 수 있다.
한편, 상기 조작부(311)와 상기 바디 디스플레이부(20)가 바라보는 방향은 서로 반대일 수 있다. 이러한 경우, 예를 들어 상기 조작부(311)는 일 방향을 향하여 바라보고, 상기 디스플레이부(20)는 일 방향과 반대되는 타 방향을 향하여 바라볼 수 있으므로, 상기 조작부(311) 또는 상기 바디 디스플레이부(20)에 표시되는 정보를 양 방향에서 볼 수 있는 장점이 있다.
바람직하게는, 상기 이동 로봇(1)이 주행 중이거나 정지한 상태에서, 상기 조작부(311)와 상기 바디 디스플레이부(20)가 바라보는 방향이 달라질 수 있다.
예를 들어, 상기 이동 로봇(1)이 주행 중인 경우에는 도 1에서 예시된 것과 같이, 상기 조작부(311)와 상기 바디 디스플레이부(20)가 바라보는 방향은 서로 반대일 수 있다.
또한, 상기 이동 로봇(1)이 대기 중인 경우에는 도 4에서 예시된 것과 같이, 상기 조작부(311)와 상기 바디 디스플레이부(20)가 바라보는 방향은 서로 동일할 수 있다.
또한, 상기 탑 커버(31)는 비상 조작 버튼(315)을 더 포함할 수 있다. 상기 비상 조작 버튼(315)은 상기 이동 로봇(1)이 정지해 있거나 주행 중에, 상기 이동 로봇(1)의 작동을 즉시 정지시키는 기능을 수행할 수 있다. 일례로, 상기 비상 조작 버튼(315)은 상기 이동 로봇(1)이 전방을 향하여 주행하더라도, 상기 비상 조작 버튼(315)을 용이하게 조작할 수 있도록 상기 이동 로봇(1)의 후방에 위치될 수 있다.
상기 제1 미들 커버(32)는 상기 탑 커버(31)의 하측에 배치될 수 있다. 상기 제1 미들 커버(33)의 내부에는 기판을 포함한 각종 전자부품이 위치될 수 있다. 그리고 상기 제1 미들 커버(32)는 상부에서 하부 방향으로 내려갈수록 직경이 커지는 원통 형상을 가질 수 있다.
더욱 바람직하게는, 상기 제1 미들 커버(32)는 RGBD 센서(321)를 포함할 수 있다.
상기 RGBD 센서(321)는 상기 이동 로봇(1)이 주행 중에, 상기 이동 로봇(1)과 장애물 사이의 충돌을 감지하는 기능을 수행할 수 있다. 이를 위하여, 상기 RGBD 센서(321)는 상기 이동 로봇(1)이 주행하는 방향, 즉 상기 제1 미들 커버(32)의 전방에 위치될 수 있다. 일례로, 상기 RGBD 센서(321)는 상기 이동 로봇(1)의 전방에 존재하는 장애물 또는 사람의 키를 고려하여, 상기 제1 미들 커버(32)의 상단부에 위치될 수 있다. 그러나 이에 한정되지는 않으며, 상기 RGBD 센서(321)는 상기 제1 미들 커버(32)의 전방의 다양한 위치에 배치될 수 있다.
실시예에 따라서, 상기 RGBD 센서(321)는 3D 비전 센서로 구성될 수 있고, 소정 거리 이내에 사람의 존재 여부, 안내 모드에서 안내 대상의 존재 여부, 사람과 이동 로봇(1)과의 거리, 사람의 이동 속도 등을 센싱할 수 있다.
실시예에 따라서는, 상기 제1 미들 커버(32)에 RGBD 센서(321)가 배치되지 않고, RGBD 센서(321)의 기능도 헤드 카메라부(313)에서 수행할 수 있다.
또한, 상기 제1 미들 커버(32)는 스피커용 홀(322)을 더 포함할 수 있다.
상기 스피커용 홀(322)은 스피커에서 발생하는 소리를 외부로 전달하기 위한 홀일 수 있다. 상기 스피커용 홀(322)은 상기 제1 미들 커버(32)의 외주면에 형성될 수 있으며, 단수 개로 형성될 수 있다. 그러나 이와는 다르게, 상기 스피커용 홀(322)은 복수 개로 형성되어 상기 제1 미들 커버(32)의 외주면에 서로 이격되게 형성될 수 있다.
또한, 상기 제1 미들 커버(32)는 스테레오 카메라용 홀(323)을 더 포함할 수 있다.
상기 스테레오 카메라용 홀(323)은 상기 본체(10)의 내부에 설치된 스테레오 카메라(미도시)의 작동을 위한 홀일 수 있다. 일례로, 상기 스테레오 카메라용 홀(323)은 상기 제1 미들 커버(32)의 전방 하단에 형성될 수 있다. 이에 따라, 상기 스테레오 카메라는 상기 스테레오 카메라용 홀(323)을 통해 상기 이동 로봇(1)의 전방 영역을 촬영할 수 있다.
상기 제2 미들 커버(33)는 상기 제1 미들 커버(32)의 하측에 배치될 수 있다. 상기 제2 미들 커버(33)의 내부에는 배터리와, 자율 주행을 위한 라이더 등이 위치될 수 있다. 상기 제2 미들 커버(33)는 상기 제1 미들 커버(32)와 마찬가지로 상부에서 하부 방향으로 내려갈수록 직경이 커지는 원통 형상을 가질 수 있다. 그리고 상기 제2 미들 커버(33)의 외측은 상기 제1 미들 커버(32)의 외측과 단차없이 연결될 수 있다. 즉, 상기 제2 미들 커버(33)의 외측과 상기 제1 미들 커버(32)의 외측은 매끄럽게 연결될 수 있으므로 외관이 미려해 보일 수 있다.
또한, 상기 제1 미들 커버(32)와 상기 제2 미들 커버(33)는 상부에서 하부 방향으로 내려갈수록 직경이 커지는 원통 형상을 가지므로, 전체적으로 오뚝이 형상을 가질 수 있다. 따라서, 상기 본체(10)가 사람 또는 장애물과 충돌하는 경우 발생되는 충격을 완화시킬 수 있다.
상세히, 상기 제2 미들 커버(33)는 제1 절개부(331)를 포함할 수 있다.
상기 제1 절개부(331)는 상기 제2 미들 커버(33)의 외주면의 전방에서 측방에 걸쳐 형성될 수 있다. 상기 제1 절개부(331)는 후술될 전방 라이더(136)가 동작 가능하도록 상기 제2 미들 커버(33)에서 절개되는 부분이다.
구체적으로, 상기 제1 절개부(331)는 상기 제2 미들 커버(33)의 전방 외주면에서 반경 방향으로 소정길이로 절개될 수 있다. 여기서, 상기 전방 라이더(136)는 상기 제2 미들 커버(33)의 내부에 위치된다. 그리고 상기 제1 절개부(331)는 상기 전방 라이더(136)의 위치에 대응되는 상기 제2 미들 커버(33)의 외주면에서 상기 제2 미들 커버(33)의 둘레를 따라 절개되어 형성될 수 있다. 즉, 상기 제1 절개부(331)와 상기 전방 라이더(136)는 마주볼 수 있다. 따라서, 상기 전방 라이더(136)는 상기 제1 절개부(331)에 의해 외부로 노출될 수 있다.
일례로, 상기 제1 절개부(331)는 상기 제2 미들 커버(33)의 전방에서 둘레를 따라 270도만큼 절개될 수 있다. 상기 제1 절개부(331)가 상기 제2 미들 커버(33)에 형성되어야 하는 이유는, 상기 전방 라이더(136)에서 방출된 레이저가 성인의 눈 또는 어린이의 눈으로 직접 조사되는 것을 방지하기 위함이다.
또한, 상기 제2 미들 커버(33)는 제2 절개부(332)를 더 포함할 수 있다.
상기 제2 절개부(332)는 상기 제2 미들 커버(33)의 외주면의 후방에서 측방에 걸쳐 형성될 수 있다. 상기 제2 절개부(332)는 후술될 후방 라이더(118)가 동작 가능하도록 상기 제2 미들 커버(33)에서 절개되는 부분이다.
구체적으로, 상기 제2 절개부(332)는 상기 제2 미들 커버(33)의 후방 외주면에서 반경 방향으로 소정길이로 절개될 수 있다. 여기서, 상기 후방 라이더(118)는 상기 제2 미들 커버(33)의 내부에 위치된다. 그리고 상기 제2 절개부(332)는 상기 후방 라이더(118)의 위치에 대응되는 지점에서 상기 제2 미들 커버(33)의 둘레를 따라 절개되어 형성될 수 있다. 따라서, 상기 후방 라이더(118)는 상기 제2 절개부(332)에 의해 외부로 노출될 수 있다. 일례로, 상기 제2 절개부(332)는 상기 제2 미들 커버(33)의 후방에서 둘레를 따라 130도만큼 절개될 수 있다.
본 실시예에서 상기 제1 절개부(331)는 상기 제2 절개부(332)와 연결되지 않도록 상하 방향으로 이격될 수 있다. 그리고 상기 제1 절개부(331)는 상기 제2 절개부(332) 보다 상측에 위치될 수 있다.
만약, 상기 제1 절개부(331)와 상기 제2 절개부(332)가 동일선상에 위치되면, 일 이동 로봇의 라이더에서 방출된 레이저가 타 이동 로봇의 라이더에 조사될 수 있다. 그러면, 각각의 이동 로봇의 라이더에서 방출된 레이저가 상호 간섭을 일으켜 정확한 거리 검출이 어려워질 수 있다. 이러한 경우 이동 로봇과 장애물과의 거리 검출이 불가능해지므로, 정상적인 주행이 어렵고 이동 로봇과 장애물이 부딪히는 문제가 발생할 수 있다.
또한, 상기 제2 미들 커버(33)에는 초음파 센서(333)가 더 배치될 수 있다.
상기 초음파 센서(333)는 초음파 신호를 이용하여 장애물과 상기 이동 로봇(1) 사이의 거리를 측정하기 위한 센서일 수 있다. 상기 초음파 센서(333)는 상기 이동 로봇(1)과 근접한 장애물을 감지하기 위한 기능을 수행할 수 있다.
일례로, 상기 초음파 센서(333)는 상기 이동 로봇(1)에 근접한 모든 방향의 장애물을 감지하기 위하여 다수 개로 구성될 수 있다. 그리고 상기 다수 개의 초음파 센서(333)는 상기 제2 미들 커버(33)의 하단 둘레를 따라 서로 이격되게 위치될 수 있다.
상기 바텀 커버(34)는 상기 제2 미들 커버(33)의 하측에 배치될 수 있다. 상기 바텀 커버(34)의 내부에는 휠(112) 및 캐스터(112a) 등이 위치될 수 있다. 그리고 상기 바텀 커버(34)는 상기 제1 미들 커버(32) 및 상기 제2 미들 커버(33)와는 다르게 상부에서 하부 방향으로 내려갈수록 직경이 작아지는 원통 형상을 가질 수 있다. 즉, 상기 본체(10)는 전체적으로 오뚝이 형상을 가져서 로봇의 충돌 시 가해지는 충격량을 감소시키고, 상기 본체(10)의 하단부는 안쪽으로 들어가는 구조를 가져서 사람의 발이 로봇의 바퀴에 끼이는 것을 방지할 수 있다.
상세히, 상기 바텀 커버(34)의 내측에는 베이스(111)가 위치될 수 있다.
상기 베이스(111)는 상기 이동 로봇(1)의 바닥면을 형성할 수 있다.
그리고 상기 베이스(111)에는 상기 이동 로봇(1)의 주행을 위한 휠(112)이 구비될 수 있다. 상기 휠(112)은 상기 베이스(111)의 좌측 및 우측에 각각 하나가 위치될 수 있다.
또한, 상기 베이스(111)에는 상기 이동 로봇(1)의 주행을 보조하기 위한 캐스터(112a)가 구비될 수 있다. 여기서, 상기 캐스터(112a)는 상기 이동 로봇(1)의 수동 이동을 위하여 복수 개로 구성될 수 있다. 일례로, 상기 캐스터(112a)는 상기 베이스(111)의 전방 및 후방에 각각 두 개가 위치될 수 있다.
상술한 캐스터 구조에 의하면, 상기 이동 로봇(1)의 전원이 오프되거나 또는 상기 이동 로봇(1)을 수동으로 이동시켜야 할 경우, 큰 힘을 들이지 않고 상기 이동 로봇(1)을 밀어 이동시킬 수 있는 장점이 있다.
상기 바텀 커버(34)에는, 각각 하나 이상의 발광다이오드(LED)를 포함하는 발광모듈들(40)이 배치될 수 있고, 발광모듈들(40) 중 적어도 하나는 이동 로봇의 동작 상태에 따라 켜지거나 꺼질 수 있다. 예를 들어, 발광모듈들(40) 중 적어도 하나는 이동 로봇의 동작 상태에 따라 소정 색상의 광을 출력하거나, 소정 주기로 점멸할 수 있다. 또한, 발광모듈들(40) 중 2이상의 발광모듈이 이동 로봇의 동작 상태에 따라 소정 패턴으로 광을 출력할 수 있다.
발광모듈들(40)은 각각 광원으로 하나 이상의 발광다이오드를 포함할 수 있다. 광원이 복수개 구비되는 경우에, 복수개의 광원은 균일한 광 공급을 위하여 일정한 피치(Pitch)를 가지고 배열될 수 있다. 광도를 고려하여 광원의 개수와 피치 가 설정될 수 있다. 또한, 복수개의 광원은 색은 모두 백색일 수도 있고, 인접한 광원들의 색이 혼색되어 백색을 출광할 수도 있다.
광원은 발광다이오드가 1개의 단일체 뿐만 아니라, 복수의 발광다이오드가 근접해서 배치된 집합체인 경우도 포함할 수 있다. 또, 예를 들면 광의 삼원색인 적색, 청색, 녹색의 발광다이오드를 근접 배치한 경우도 포함할 수 있다.
바람직하게는 상기 발광모듈들(40)은 상기 바텀 커버(34)의 둘레를 따라 배치될 수 있다. 예를 들어, 수평 방향으로 상기 바텀 커버(34)의 둘레를 감싸는 임의의 원 상에 상기 발광모듈들(40)이 배치될 수 있다.
상기 발광모듈들(40)이 이동 로봇(1)의 하단인 상기 바텀 커버(34)에 배치됨으로써, 사람의 눈높이보다 상당히 낮은 위치에 배치될 수 있다. 이에 따라, 상기 발광모듈들(40)이 특정 광을 지속적으로 출력하거나 점멸할 때, 사람들이 눈부심을 덜 느낄 수 있다.
상기 발광모듈들(40)이 수평 방향으로 상기 바텀 커버(34)의 둘레를 감싸도록 배치됨으로써, 사람들은 360도 어느 방향에서나 상기 발광모듈들(40)에서 출력되는 광을 볼 수 있다.
상기 발광모듈들(40)이 상기 바텀 커버(34)에 배치됨으로써, 소정 영상을 표시하는 대화면의 바디 디스플레이(21)와 소정 거리 이격된다. 이에 따라, 상기 발광모듈들(40)의 출력 광과 바디 디스플레이(21)의 출력 영상이 서로의 시인성을 떨어뜨리는 것을 방지할 수 있다.
또한, 상기 발광모듈들(40)이 복수의 행(row)을 가지고, 다단으로 배치될 수 있다. 이에 따라, 상기 발광모듈들(40)이 출력하는 광의 시인성을 더욱 높일 수 있다.
예를 들어, 상기 발광모듈들(40)은, 서로 다른 길이를 가지는 3개의 행(41, 42, 43)으로 배치될 수 있다. 이 경우에, 상기 3개의 행(41, 42, 43) 중에서 최하단에 위치하는 행(41)의 길이가 가장 짧을 수 있다.
더욱 바람직하게는, 상기 발광모듈들(40)은, 복수의 행(row)과 열(column)을 가지도록 배치될 수 있다. 예를 들어, 상기 발광모듈들(40)은 3개의 행(41, 42, 43)으로 배치되고, 각 행(41, 42, 43)은 독립적으로 제어 가능한 복수의 발광모듈을 포함할 수 있다. 이에 따라, 발광모듈들(40)은, 복수의 행(row)과 열(column)을 가질 수 있고, 전체 발광모듈들(40)을 펼쳐 보았을 때, M*N의 매트릭스(matrix) 형태로 배치될 수 있다.
상기 바디 디스플레이부(20)는 상기 이동 로봇(1)의 일측에서 상하 방향으로 길게 형성될 수 있다.
상세히, 상기 바디 디스플레이부(20)는 바디 디스플레이(21), 지지부(22)를 포함할 수 있다.
상기 바디 디스플레이(21)는 상기 제1 미들 커버(32)의 후방에 위치될 수 있다. 상기 바디 디스플레이(21)는 현재 제공 중인 서비스와 관련된 시각 정보(예: 공항 게이트 질의 정보, 길 안내 서비스 정보 등)를 출력하는 기능을 수행할 수 있다.
또한, 상기 바디 디스플레이(21)는 외측으로 소정 곡률 휘어진 형상을 가지는 곡면 디스플레이로 구성될 수 있다. 즉, 상기 바디 디스플레이(21)는 전체적으로 오목한 형상을 가질 수 있다. 그리고 상기 바디 디스플레이(21)는 상부에서 하부 방향으로 내려갈수록 후방으로 더욱 기울어지는 형상을 가질 수 있다. 다시 말하면, 상기 바디 디스플레이(21)는 상부에서 하부 방향으로 내려갈수록 상기 케이스(30)로부터 점점 멀어지도록 형성될 수 있다.
상술한 디스플레이부 구조에 의하면, 상기 이동 로봇(1)과 멀리 떨어진 위치에서도 상기 바디 디스플레이(21)에 표시된 정보가 잘 보일 뿐만 아니라, 다양한 각도에서도 상기 바디 디스플레이(21)에 표시된 정보가 왜곡되어 보이지 않는 장점이 있다.
또한, 본 발명의 실시예에 의하면, 상기 이동 로봇(1)은 사용자에게 길을 안내하기 위하여 설정된 경로를 따라 먼저 이동할 수 있다. 그리고 사용자는 상기 이동 로봇(1)을 따라 이동하면서 상기 이동 로봇(1)의 후방에 설치된 바디 디스플레이부(20)를 볼 수 있다. 즉, 상기 이동 로봇(1)이 길 안내를 위하여 주행하더라도, 사용자는 상기 이동 로봇(1)을 따라다니면서 상기 바디 디스플레이부(20)에 표시된 정보를 용이하게 볼 수 있다.
또한, 상기 바디 디스플레이(21)의 상단은 상기 제1 미들 커버(32)의 상단까지 연장될 수 있고, 상기 바디 디스플레이(21)의 하단은 상기 제2 절개부(332)까지 연장될 수 있다. 본 실시예에서 상기 바디 디스플레이(21)의 하단은 상기 제2 절개부(332)를 넘지 않도록 형성되어야 한다. 만약, 상기 바디 디스플레이(21)가 상기 제2 절개부(332)를 가리도록 형성되면, 상기 후방 라이더(118)에서 방출된 레이저가 상기 바디 디스플레이(21)의 하단에 부딪히게 된다. 이에 따라, 상기 이동 로봇(1)은 후방에 위치된 장애물과의 거리 검출이 불가능해지는 문제가 발생할 수 있다.
한편, 지지부(22)는 상기 바디 디스플레이(21)가 상기 제1 미들 커버(32)의 후방에 위치되도록 유지하는 기능을 수행할 수 있다. 상기 지지부(22)는 상기 바디 디스플레이부(21)의 배면에서 연장 형성될 수 있다. 상기 지지부(22)는 상기 바디 디스플레이(21)의 배면에서 상하 방향으로 길게 형성될 수 있으며, 상부에서 하부 방향으로 내려갈수록 더 돌출될 수 있다.
또한, 상기 지지부(22)는 상기 제1 미들 커버(32)의 후방을 관통하여 상기 제1 미들 커버(32) 내부에 삽입될 수 있다. 이를 위하여, 상기 제1 미들 커버(32)의 후방에는 상기 지지부(22)가 관통될 수 있는 관통홀(미도시)이 형성될 수 있다. 상기 관통홀은 상기 제1 미들 커버(32)의 외주면 후방 일부가 절개되어 형성될 수 있다.
그리고 상기 바디 디스플레이부(20)는 별도의 고정 부재(138)에 의해 상기 본체(10)의 내부에 고정될 수 있다.
상기 본체(10)의 내부에는 상기 바디 디스플레이부(20)를 상기 본체(10)에 고정시키기 위한 고정 부재(138)가 제공될 수 있다. 상기 고정 부재(138)는 일측이 상기 본체(10)에 고정되고, 타측이 상기 바디 디스플레이부(20)에 고정될 수 있다. 이를 위하여, 상기 고정 부재(138)의 타측은 상기 관통홀을 관통하여 상기 케이스(30)의 외부로 돌출될 수 있다. 즉, 상기 관통홀 내에는 상기 지지부(22)와, 상기 고정 부재(138)가 함께 위치될 수 있다.
본 실시예에서 상기 바디 디스플레이부(20)는 체결 수단에 의해 상기 고정 부재(138)에 체결될 수 있다. 이때, 상기 바디 디스플레이부(20)의 지지부(22)는 상기 고정 부재(138)의 상측에 올려질 수 있다. 다시 말하면, 상기 고정 부재(138)의 상측에는 상기 지지부(22)가 올려지고, 상기 고정 부재(138)의 일부는 상기 바디 디스플레이부(20)의 일부와 고정될 수 있다. 이러한 디스플레이부 고정 구조에 의해서, 상기 바디 디스플레이부(20)는 상기 제1 미들 커버(32)의 후방에 안정적으로 위치될 수 있다.
한편, 상기 바디 디스플레이부(20)는 티켓(ticket) 투입구(50)를 더 포함할 수 있다. 본 실시예에서는 상기 티켓 투입구(50)가 상기 바디 디스플레이부(20)에 배치되는 예를 도시하였으나, 본 발명은 이에 한정되지 않고, 상기 티켓 투입구(50)는 이동 로봇(1)의 다른 부위에 배치될 수도 있다.
본 발명의 일 실시예에 따르면, 이동 로봇(1)은, 상기 티켓 투입구(50)로 항공권 등 티켓이 투입되면, 티켓에 포함되는 바코드, QR 코드 등을 스캔할 수 있다.
또한, 이동 로봇(1)은 바디 디스플레이(21)에 스캔 결과를 표시하고, 사용자에게 스캔 결과에 따른 게이트 정보, 카운터 정보 등을 제공할 수 있다.
한편, 상기 바디 디스플레이부(20)는 안내 대상의 식별 및 추적을 위한 바디 카메라부(25)를 더 포함할 수 있다.
상기 바디 카메라부(25)는, RGBD 카메라 센서 등 3D 비전 센서로 구성될 수 있고, 소정 거리 이내에 사람의 존재 여부, 안내 모드에서 안내 대상의 존재 여부, 사람과 이동 로봇(1)과의 거리, 사람의 이동 속도 등을 센싱할 수 있다.
실시예에 따라서는, 이동 로봇(1)은 상기 바디 카메라부(25)를 포함하지 않고, 다른 부위에 배치되는 안내 대상 식별 및 추적용 센서를 더 포함할 수도 있다.
도 5는 본 발명의 일 실시예에 따른 이동 로봇의 주요 구성들 간의 제어관계를 도시한 블록도이다.
도 5를 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(1)은, 마이크(314)를 통하여 사용자의 음성 입력을 수신하는 음성 입력부(725), 각종 데이터를 저장하는 저장부(730), 서버(미도시) 등 다른 전자 기기와 데이터를 송수신하는 통신부(790), 광을 외부로 출력하는 발광모듈을 하나 이상 포함하는 발광부(750), 이동 로봇(1)의 전반적인 동작을 제어하는 제어부(740)를 포함할 수 있다.
음성 입력부(725)는, 아날로그 소리를 디지털 데이터로 변환하는 처리부를 포함하거나 처리부에 연결되어, 사용자 입력 음성 신호를 제어부(740) 또는 서버(미도시)에서 인식할 수 있도록 데이터화할 수 있다.
제어부(740)는, 이동 로봇(1)을 구성하는 음성 입력부(725), 저장부(730), 발광부(750), 통신부(790) 등을 제어하여, 이동 로봇(1)의 동작 전반을 제어할 수 있다.
저장부(730)는 이동 로봇(1)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 기록 매체는 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장한 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함할 수 있다.
또한, 저장부(730)는 이동 로봇(1)이 안내 서비스를 제공하는데 필요한 각종 데이터를 저장할 수 있다.
또한, 제어부(740)는 통신부(790)를 통해 이동 로봇(1)의 동작상태 또는 사용자 입력 등을 서버 등으로 전송할 수 있다.
통신부(790)는 적어도 하나의 통신모듈을 포함하여 이동 로봇(1)이 인터넷, 또는 소정의 네트워크에 연결되도록 한다.
한편, 저장부(730)에는 음성 인식을 위한 데이터가 저장될 수 있고, 상기 제어부(740)는 음성 입력부(725)를 통하여 수신되는 사용자의 음성 입력 신호를 처리하고 음성 인식 과정을 수행할 수 있다.
한편, 제어부(740)는 음성 인식 결과에 기초하여 이동 로봇(1)이 소정 동작을 수행하도록 제어할 수 있다.
예를 들어, 제어부(740)는 음성 신호에 포함되는 명령이 비행기 출발 정보, 관광 안내 정보 등 소정 정보를 요청하는 명령인 경우, 비행기 출발 정보, 관광 안내 정보 등 소정 정보를 디스플레이부(710)에 표시하도록 제어할 수 있다.
또한, 사용자의 안내 요청이 있으면, 제어부(740)는 사용자가 선택한 안내 목적지까지 사용자를 에스코트(escort)하도록 제어할 수 있다.
한편, 음성 인식 과정은 이동 로봇(1) 자체에서 실시되지 않고 서버에서 수행될 수 있다.
이 경우에, 제어부(740)는 사용자 입력 음성 신호가 상기 서버로 송신되도록 통신부(790)를 제어할 수 있고, 통신부(790)를 통하여, 상기 서버로부터 상기 음성 신호에 대한 인식 결과를 수신할 수 있다.
또는, 호출어 인식 등 간단한 음성 인식은 이동 로봇(1)이 수행하고, 자연어 처리 등 고차원의 음성 인식은 서버에서 수행될 수 있다.
한편, 이동 로봇(1)은 소정 정보를 영상으로 표시하는 디스플레이부(710)와소정 정보를 음향으로 출력하는 음향 출력부(780)를 포함할 수 있다.
디스플레이부(710)는 사용자의 요청 입력에 대응하는 정보, 사용자의 요청 입력에 대응하는 처리 결과, 동작모드, 동작상태, 에러상태 등을 영상으로 표시할 수 있다.
도 1 내지 도 4를 참조하여 상술한 것과 같이, 상기 디스플레이부(710)는 헤드 디스플레이(312)와 바디 디스플레이(21)를 포함할 수 있다. 상기 바디 디스플레이(21)는 상대적으로 상기 헤드 디스플레이(312)보다 대화면으로 구현되므로, 상기 바디 디스플레이(21)에 정보를 대화면으로 표시하는 것이 더 바람직할 수 있다.
또한, 음향 출력부(780)는 제어부(740)의 제어에 따라 경고음, 동작모드, 동작상태, 에러상태 등의 알림 메시지, 사용자의 요청 입력에 대응하는 정보, 사용자의 요청 입력에 대응하는 처리 결과 등을 음향으로 출력할 수 있다. 음향 출력부(780)는, 제어부(740)로부터의 전기 신호를 오디오 신호로 변환하여 출력할 수 있다. 이를 위해, 스피커 등을 구비할 수 있다.
한편, 이동 로봇(1)은 소정 범위를 촬영할 수 있는 영상 획득부(720)를 포함할 수 있다.
영상 획득부(720)는 이동 로봇(1) 주변, 외부 환경 등을 촬영하는 것으로, 카메라 모듈을 포함할 수 있다. 이러한 카메라는 촬영 효율을 위해 각 부위별로 여러 개가 설치될 수도 있다.
예를 들어, 도 1 내지 도 4를 참조하여 상술한 것과 같이, 상기 영상 획득부(720)는, 사람과 사물 인식을 위한 헤드 카메라부(313)와 안내 대상의 식별 및 추적을 위한 바디 카메라부(25)를 포함할 수 있다. 하지만, 영상 획득부(720)가 구비하는 카메라의 개수, 배치, 종류, 촬영범위가 반드시 이에 한정되어야 하는 것은 아니다.
영상 획득부(720)는, 사용자 인식용 영상을 촬영할 수 있다. 제어부(740)는 상기 영상 획득부(720)가 촬영하여 획득된 영상에 기초하여 외부 상황을 판단하거나, 사용자(안내 대상)를 인식할 수 있다.
또한, 상기 제어부(740)는, 상기 영상 획득부(720)가 촬영하여 획득하는 영상에 기초하여 이동 로봇(1)이 주행하도록 제어할 수 있다.
한편, 상기 영상 획득부(720)가 촬영하여 획득된 영상은 저장부(730)에 저장될 수 있다.
한편, 이동 로봇(1)은 이동을 위한 구동부(760)를 포함할 수 있고, 상기 구동부(760)는 제어부(740)의 제어에 따라, 본체(10)를 이동시킬 수 있다.
구동부(760)는 이동 로봇(1)은 본체(10)를 이동시키는 적어도 하나의 구동 바퀴(112)를 포함한다. 구동부(760)는 구동 바퀴(112)에 연결되어 구동 바퀴를 회전시키는 구동 모터(미도시)를 포함할 수 있다. 구동 바퀴(112)는 본체(10)의 좌, 우 측에 각각 구비될 수 있으며, 이하, 각각 좌륜과 우륜이라고 한다.
좌륜과 우륜은 하나의 구동 모터에 의해 구동될 수도 있으나, 필요에 따라 좌륜을 구동시키는 좌륜 구동 모터와 우륜을 구동시키는 우륜 구동 모터가 각각 구비될 수도 있다. 좌륜과 우륜의 회전 속도에 차이를 두어 좌측 또는 우측으로 본체(10)의 주행방향을 전환할 수 있다.
한편, 이동 로봇(1)은 이동 로봇(1)의 동작, 상태와 관련된 각종 데이터를 센싱하는 센서들을 포함하는 센서부(770)를 포함할 수 있다.
상기 센서부(770)는 장애물을 감지하는 장애물 감지 센서를 포함할 수 있고, 상기 장애물 감지 센서는, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서, PSD(Position Sensitive Device) 센서 등을 포함할 수 있다. 예를 들어. 상기 장애물 감지 센서는 도 1 내지 도 4를 참조하여 상술한 초음파 센서(333), RGBD 센서(321) 등이 해당될 수 있다.
또한, 상기 센서부(770)는 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 절벽 감지 센서(113)를 더 포함할 수 있다.
실시예에 따라서는, 상기 센서부(770)는 마이크(314)를 통해 획득되는 소리의 크기를 감지하는 센서를 더 포함할 수 있고, 이에 따라, 사용자가 발화하는 음성의 크기, 주변 소음의 크기를 센싱할 수 있다.
또는, 별도의 센서를 더 포함하지 않고, 음성 입력부(725)가 마이크(314)를 통해 획득되는 신호의 처리 과정에서 사용자의 음성, 주변 소음의 크기를 판별할 수 있다.
또한, 상기 센서부(770)는 라이더(light detection and ranging: Lidar, 136, 118)를 포함할 수 있다.
라이더(136, 118)는, 레이저(Laser) 광을 매개로, 송신 신호와 수신 신호의 TOF(Time of Flight) 또는 송신 신호와 수신 신호의 위상차(phase difference)를 기초로, 장애물 등 오브젝트를 검출할 수 있다.
또한, 상기 라이더(132a, 132b)는, 오브젝트와의 거리, 오브젝트와의 상대 속도 및 오브젝트의 위치를 검출할 수 있다.
상기 라이더(132a, 132b)는, 상기 장애물 감지 센서의 구성 중 일부로써 구비될 수 있다. 또한, 상기 라이더(132a, 132b)는, 맵(map) 작성을 위한 센서로써 구비될 수도 있다.
한편, 상기 장애물 감지 센서는 이동 로봇의 주행(이동) 방향에 존재하는 물체, 특히 장애물을 감지하여 장애물 정보를 제어부(740)에 전달한다. 이때, 제어부(740)는, 감지된 장애물의 위치에 따라 이동 로봇(1)의 움직임을 제어할 수 있다.
한편, 상기 센서부(770)는 본체(101)의 구동에 따른 이동 로봇(1)의 동작을 감지하고 동작 정보를 출력하는 동작 감지 센서를 더 포함할 수 있다. 예를 들어, 동작 감지 센서로는, 자이로 센서(Gyro Sensor), 휠 센서(Wheel Sensor), 가속도 센서(Acceleration Sensor) 등을 사용할 수 있다.
자이로 센서는, 이동 로봇(1)이 운전 모드에 따라 움직일 때 회전 방향을 감지하고 회전각을 검출한다. 자이로 센서는, 이동 로봇(1)의 각속도를 검출하여 각속도에 비례하는 전압 값을 출력한다. 제어부(740)는 자이로 센서로부터 출력되는 전압 값을 이용하여 회전 방향 및 회전각을 산출한다.
휠 센서는, 좌륜과 우륜에 연결되어 바퀴의 회전수를 감지한다. 여기서, 휠 센서는 로터리 엔코더(Rotary Encoder)일 수 있다. 로터리 엔코더는 좌륜과 우륜의 회전수를 감지하여 출력한다.
제어부(740)는 회전수를 이용하여 좌, 우측 바퀴의 회전 속도를 연산할 수 있다. 또한, 제어부(740)는 좌륜과 우륜의 회전수 차이를 이용하여 회전각을 연산할 수 있다.
가속도 센서는, 이동 로봇(1)의 속도 변화, 예를 들어, 출발, 정지, 방향 전환, 물체와의 충돌 등에 따른 이동 로봇(1)의 변화를 감지한다. 가속도 센서는 주 바퀴나 보조바퀴의 인접 위치에 부착되어, 바퀴의 미끄러짐이나 공회전을 검출할 수 있다.
또한, 가속도 센서는 제어부(740)에 내장되어 이동 로봇(1)의 속도 변화를 감지할 수 있다. 즉, 가속도 센서는 속도 변화에 따른 충격량을 검출하여 이에 대응하는 전압 값을 출력한다. 따라서, 가속도 센서는 전자식 범퍼의 기능을 수행할 수 있다.
제어부(740)는 동작 감지 센서로부터 출력된 동작 정보에 기초하여 이동 로봇(1)의 위치 변화를 산출할 수 있다. 이러한 위치는 영상 정보를 이용한 절대 위치에 대응하여 상대 위치가 된다. 이동 로봇은 이러한 상대 위치 인식을 통해 영상 정보와 장애물 정보를 이용한 위치 인식의 성능을 향상시킬 수 있다.
발광부(750)는, 복수의 발광모듈을 포함할 수 있다. 예를 들어, 도 1 내지 도 4를 참조하여 설명한 것과 같이, 발광부(750)는, 각각 하나 이상의 발광다이오드(LED)를 포함하는 발광모듈들(40)을 포함할 수 있다.
또한, 상기 발광모듈들(40)은, 상기 바텀 커버(34)에 배치될 수 있고, 발광모듈들(40)은 제어부(740)의 제어에 따라 동작할 수 있다.
예를 들어, 제어부(740)는, 발광모듈들(40) 중 적어도 하나가, 이동 로봇의 동작 상태에 따라 소정 색상의 광을 출력하거나, 소정 주기로 점멸하도록 제어할 수 있다. 또한, 제어부(740)는, 발광모듈들(40) 중 2이상의 발광모듈이 이동 로봇의 동작 상태에 따라 소정 패턴으로 광을 출력하도록 제어할 수 있다.
도 1 내지 도 5를 참조하여 설명한 것과 같이, 본 발명의 일 실시예에 따른 이동 로봇(1)은, 회전 가능하도록 제공되는 탑 커버(31), 상기 탑 커버(31)에 배치되는 제1 디스플레이(312), 상기 제1 디스플레이(312)보다 큰 크기를 가지는 제2 디스플레이(21), 상기 제2 디스플레이(21) 및 상기 탑 커버(31)와 결합되는 미들 커버(32, 33), 상기 미들 커버(32, 33)의 하측에 위치되는 바텀 커버(34), 상기 바텀 커버(34)의 둘레를 따라 배치되는 발광모듈들(40)을 포함하는 발광부(750), 및, 이동 로봇(1)의 현재 상태에 기초하여, 상기 발광모듈들(40)을 제어하는 제어부(740)를 포함할 수 있다.
상기 발광부(750)의 발광모듈들(40)은, 각각 하나 이상의 광원을 포함할 수 있다. 예를 들어, 발광모듈들(40)은, 각각 하나 이상의 발광다이오드(Light Emitting Diode, LED)를 포함할 수 있다.
기존의 아날로그 방식의 조명은 조도를 정밀하게 제어하는데 한계가 있었으나, 발광다이오드(LED)는 인가되는 전류량과 구동펄스의 폭을 조절하여 조도를 정밀하게 조절할 수 있다. 또한, R, G, B 색상의 발광다이오드(LED)들이 조합되어 설치된 경우, 특정 색상의 광을 제공할 수 있고, 색 온도의 조절을 용이하게 할 수 있다.
발광다이오드(LED)는 적색(Red), 청색(Blue), 녹색(Green), 및 백색(White) 등의 단색 발광다이오드(LED)일 수도 있다. 실시예에 따라서는 발광다이오드(LED)는 복수의 색상 재현이 가능한 다색 발광다이오드(LED)일 수도 있다.
또한, 상기 발광모듈들(40)은 복수의 발광다이오드(LED)를 포함할 수 있고, 복수의 발광다이오드(LED)는 모두 백색광을 발광하여 백색의 조명을 제공할 수 있고, 적색(Red), 청색(Blue), 녹색(Green) 발광다이오드(LED)들을 조합하여 특정 색상의 조명 또는 백색의 조명을 제공할 수 있다.
예를 들어, 상기 발광모듈들(40)은, 정상 동작 상태를 나타내는 제1 색상(White), 일시 정지 상태를 나타내는 제2 색상(Yellow), 정지, 에러 상태를 나타내는 제3 색상(Red)의 광을 출력할 수 있다.
상기 발광모듈들(40)은, 출력하는 광을 색상, 패턴을 통해 현재 동작 상태를 표시하고, 사람들에게 이동 로봇(1)의 주행 상태, 동작 상태를 알리는 일종의 신호등 역할을 수행할 수 있다.
또한, 제어부(740)는 발광부(750)를 제어할 수 있다.
예를 들어, 상기 제어부(740)는, 이동 로봇(1)의 현재 상태에 따라 상기 발광모듈들(40) 중 적어도 하나가 소정 색상의 광을 출력하도록 제어할 수 있다. 또한, 상기 제어부(740)는, 상기 발광모듈들(40) 중 적어도 하나 소정 시간 동안 소정 주기로 점멸하도록 제어할 수 있다.
이동 로봇(1)이 이동(주행)할 때, 사용자가 정보 확인, 설정 입력, 기타 조작을 위해 이동 로봇(1)에 근접하거나, 어린이 등이 호기심에 이동 로봇(1)을 만질 때에도, 이동 로봇(1)이 계속 주행하면 충돌 등 안전사고가 발생할 수 있다.
특히, 공항, 기차역, 터미널, 백화점, 마트 등의 공공장소는 유동 인구가 많고, 그에 따른 돌발 변수도 많아 안전 사고 발생 위험이 더 크다.
따라서, 본 발명에 따른 이동 로봇(1)은, 공공장소에서 동작 시, 전발광부(750)를 통하여, 이동 로봇(1)의 현재 동작상태를 나타내는 광을 출력함으로써, 공공장소에 존재하는 사람들이 이동 로봇(1)의 현재 상태를 쉽게 알 수 있게 하는 신호 정보를 제공할 수 있다. 이에 따라 공공장소에서 사람과 이동 로봇(1) 간의 사고 가능성을 감소시킬 수 있다.
상기 발광모듈들(40)은, 이동 로봇(1)의 하단인 상기 바텀 커버(34)에 상기 제2 디스플레이(21)와 떨어져 배치됨으로써, 사람의 눈높이와 제2 디스플레이(21)에 비해 상대적으로 낮은 위치에 배치될 수 있다. 이에 따라, 상기 발광모듈들(40)이 특정 광을 지속적으로 출력하거나 점멸할 때, 사람들이 눈부심을 덜 느낄 수 있고, 상기 발광모듈들(40)의 출력 광과 바디 디스플레이(21)의 출력 영상이 서로의 시인성을 떨어뜨리는 것을 방지할 수 있다.
바람직하게는, 발광모듈들(40)은, 상기 바텀 커버(34)의 둘레를 따라 배치될 수 있다. 상기 발광모듈들(40)이 수평 방향으로 상기 바텀 커버(34)의 둘레를 감싸도록 배치됨으로써, 사람들은 360도 어느 방향에서나 상기 발광모듈들(40)에서 출력되는 광을 볼 수 있다.
한편, 상기 발광모듈들(40)이 복수의 행(row)을 가지고, 다단으로 배치될 수 있다. 이에 따라, 상기 발광모듈들(40)이 출력하는 광의 시인성을 더욱 높일 수 있다.
도 6은 본 발명의 일 실시예에 따른 이동 로봇의 동작 방법을 도시한 순서도이다.
본 발명의 일 실시예에 따른 이동 로봇은, 사람, 장애물을 식별할 수 있고, 사람, 장애물과의 거리를 판별할 수 있다.
영상 획득부(720)는, 비전(vision) 센서를 구비하여, 사람, 장애물을 인식할 수 있다. 예를 들어, 도 1 내지 도 4를 참조하여 상술한 것과 같이, 상기 영상 획득부(720)는, 사람과 사물 인식을 위한 헤드 카메라부(313)와 안내 대상의 식별 및 추적을 위한 바디 카메라부(25)를 포함할 수 있다.
또한, 센서부(770)가 구비하는 센서를 이용하여, 사람, 사물 등을 감지할 수 있다. 예를 들어, 상기 센서부(770)는 라이더(136, 118), 초음파 센서(333) 등을 포함할 수 있다.
제어부(740)는, 영상 획득부(720) 또는 센서부(770)의 감지 데이터에 기초하여, 이동 로봇(1)을 제어할 수 있다.
또한, 제어부(740)는, 영상 획득부(720)와 센서부(770)의 감지 데이터를 활용하여, 이동 로봇(1)을 제어할 수 있다.
예를 들어, 이동 로봇(1)은, 상대적으로 원거리 범위를 감지할 수 있는 라이더(136, 118)로 사람, 사물 등을 감지한 후, 추적하면서, 영상 획득부(720)가 획득하는 영상 데이터에 기초하여, 사람인지 여부 등을 판별하고, 이에 따라 동작할 수 있다.
한편, 복수의 기준 거리가 기설정될 수 있고, 제어부(740)는, 기설정된 기준 거리 범위 내에 사람이 감지되는 지 여부에 기초하여, 이동 로봇(1)을 제어할 수 있다.
예를 들어, 1단계의 기준 거리가 라이더(136, 118)의 센싱 가능 거리에 대응하여 설정되고, 2단계의 기준 거리가 영상 획득부(720)의 센싱 가능 거리에 대응하여 설정될 수 있다.
하지만, 라이더(136, 118)의 센싱 가능 거리는 상당히 크기 때문에, 복수의 기준 거리는 다른 기준에 따라 세밀하게 설정되는 것이 바람직하다.
예를 들어, 1단계의 기준 거리가 영상 획득부(720)의 센싱 가능 거리에 대응하여 설정되고, 2단계의 기준 거리가 사용자가 이동 로봇(1)을 터치하거나 이동 로봇(1)으로 음성을 입력할 수 있는 인터랙션 거리에 대응하여 설정될 수 있다.
이에 따라, 1단계의 기준 거리에서 사람인지 여부를 판별하고, 2단계의 기준 거리에서 서비스 제공을 위한 상세 안내를 제공할 수 있다.
도 6을 참조하면, 제어부(740)는, 영상 획득부(720)가 획득하는 영상 데이터에 기초하여, 기설정된 제1 거리 이내에 사람이 있는지 판별할 수 있다(S620).
한편, 본 명세서에서, 대기 상태는, 이동 로봇(1)이 명령을 수신하여 동작할 준비가 된 상태를 의미하며, 정지 여부는 무관하다.
예를 들어, 이동 로봇(1)은 소정 위치에 정지 상태로 대기할 수 있다. 제어부(740)는, 이동 로봇(1)이 정지 상태인 경우에, 이동 로봇(1)을 기준으로 제1 거리 이내로 접근하는 사람이 있는지 판별할 수 있다.
실시예에 따라서, 특정 사용자로부터 소정 입력을 수신하거나 특정 동작을 수행할 때까지, 이동 로봇(1)은, 지정된 소정 영역 내에서 주행하면서 대기하거나 지정된 패턴으로 주행하면서 대기할 수 있다(S610). 이동 로봇(1)이 지정된 소정 영역 내에서 주행하면서 대기하거나 지정된 패턴으로 주행하면서 대기하는 것을 대기 주행이라고 명명할 수 있다.
공공장소에서 안내 서비스 등을 제공하는 이동 로봇(1)은, 대기 상태에서 고정된 위치에 정지해 있지 않고, 대기 주행하면서 이동 로봇(1)이 동작 중임을 알리고, 안내 서비스 등의 이용을 유도하는 것이 바람직하다.
이동 로봇(1)이 계속 움직임으로써, 사람들의 호기심을 자극할 수 있고, 사람들이 적극적으로 이동 로봇(1)을 이용하거나, 이동 로봇(1)과 인터랙션하도록 유도할 수 있다.
본 발명의 일 실시예에 따른 이동 로봇(1)은, 지정된 소정 영역 내에서 주행하면서 대기하거나 지정된 패턴으로 주행하면서 대기할 수 있다(S610).
예를 들어, 제어부(740)는, 대기 주행 시(S610), 이동 로봇(1)이 시작 위치와 기설정된 탐색 위치들을 순차적으로 왕복하도록 제어할 수 있다.
실시예에 따라서, 상기 탐색 위치들은, 상기 시작 위치를 기준으로 방사형으로 설정될 수 있다.
도 7은 본 발명의 실시예에 따른 이동 로봇의 대기 주행에 관한 설명에 참조되는 도면이다.
도 7을 참조하면, 이동 로봇(1)은 시작 위치(Home)에서 대기 주행을 시작하거나 안내 서비스 종료 후에 시작 위치(Home)로 복귀할 수 있다.
한편, 대기 주행 시(S610), 이동 로봇(1)은, 시작 위치(Home)를 중심으로, 방사형으로 배치된 탐색 위치들(P1, P2, P3, P4, P5, P6)을 순차적으로 왕복할 수 있다.
이동 로봇(1)은, 시작 위치(Home)에서 제1 탐색 위치(P1)로 이동한 후에, 시작 위치(Home)로 복귀할 수 있다. 이후, 이동 로봇(1)은, 시작 위치(Home)에서 제2 탐색 위치(P2)로 이동한 후에, 시작 위치(Home)로 복귀할 수 있다. 이러한 방식으로 이동 로봇(1)이 시작 위치와 기설정된 탐색 위치들을 P1, P2, P3, P4, P5, P6 순서로 왕복할 수 있다.
이동 로봇(1)은, 제6 탐색 위치(P6)에서 시작 위치(Home)로 복귀한 후에, 다시 제1 탐색 위치(P1)로 이동할 수 있다.
한편, 도 7과 달리, 대기 주행 시(S610), 제어부(740)는, 이동 로봇(1)이 시작 위치(Home)에서 제1 탐색 위치(P1)로 이동하고, 시작 위치(Home)로 복귀하지 않도록 제어할 수 있다.
예를 들어, 이동 로봇(1)은, 시작 위치(Home)-제1 탐색 위치(P1)-제2 탐색 위치(P2)-제3 탐색 위치(P3)-제4 탐색 위치(P4)-제5 탐색 위치(P5)-제6 탐색 위치(P6)-시작 위치(Home) 순서로 이동할 수 있다.
한편, 이동 로봇(1)은 일정 거리 이내에 사람 접근시 안내대상을 인식할 수 있다.
제어부(740)는, 상기 제1 거리 이내에 사람이 존재하면, 이동 속도를 감소시킬 수 있다(S630).
상기 제1 거리 이내에 존재하는 사람은 안내 서비스 등을 이용할 수 있는 잠재 사용자로 볼 수 있다. 따라서, 사용자가 더 쉽고 안전하게 이동 로봇(1)에 접근할 수 있도록 이동 로봇(1)이 감속할 수 있다.
또한, 이동 중인 이동 로봇(1)으로부터 제1 거리 이내에 사람이 있으면, 이동 로봇(1) 및 사람의 이동 방향과 속도에 따라서 충돌 가능성이 있다. 따라서, 이동 로봇(1)이 감속하여 안전사고도 방지할 수 있다.
실시예에 따라서, 상기 제1 거리 이내에 사람이 존재하면, 제어부(740)는 인사말을 포함하는 제1 음성 안내를 발화하도록 음향 출력부(780)를 제어할 수 있다(S635). 이에 따라, 사람들은 이동 로봇(1)의 존재 및 접근을 인식하고, 이동 로봇(1)이 자신에게 서비스를 제공할 수 있는 상태임을 알 수 있다.
또한, 상기 제1 거리 이내에 사람이 존재하면, 제어부(740)는, 조작부(311) 및 제1 디스플레이(312)가 배치되는 일면이 감지된 사람을 향하도록 탑 커버(31)가 회전하게 제어할 수 있다.
즉, 제어부(740)는, 조작부(311) 및 제1 디스플레이(312)가 배치되는 일면이 감지된 사람을 향하도록, 이동 로봇(1)의 헤드를 회전시킬 수 있다. 이에 따라, 이동 로봇(1)이 자신을 인식하였고, 서비스를 제공할 준비가 되었음을 사람들이 직관적으로 알 수 있다.
이동 로봇(1)은 일정 거리 이내에 사람 접근시 안내대상을 인식할 수 있고, 이에 따라, 탑 커버(31)가 회전할 수 있다.
한편, 제어부(740)는, 영상 획득부(720)가 획득하는 영상 데이터에 기초하여, 상기 제1 거리보다 짧게 설정된 제2 거리 이내에 사람이 있는지 판별할 수 있다(S640).
제어부(740)는, 상기 제2 거리 이내에 사람이 존재하면, 이동 로봇(1)이 이동을 정지하도록 제어할 수 있다(S650).
예를 들어, 제어부(740)는, 인터랙션 거리인 제2 거리 이내에 사람이 있으면, 대기 주행을 종료하고 정지하도록 제어할 수 있다.
한편, 제어부(740)는, 사용자의 언어 선택을 유도하는 화면을 표시하고(S660), 사용자의 터치 입력 또는 음성 입력을 통한 언어 선택 입력을 수신한 경우에(S670), 복수의 메인 메뉴 항목을 포함하는 메인 화면을 표시할 수 있다(S680).
상기 언어 선택을 유도하는 언어 선택 화면, 메인 화면은, 제1 디스플레이(312) 및/또는 제2 디스플레이(21)에 표시될 수 있다.
상기 제어부(740)는, 상기 제1 디스플레이(312)에 사용자의 터치 조작이 가능한 화면을 표시하고, 상기 제2 디스플레이(21)에 상기 제1 디스플레이(312)에 표시된 화면과 연관된 상세 정보를 포함하는 상세 화면 또는 상기 제1 디스플레이(312)를 통한 조작을 유도하는 안내 화면을 표시하도록 제어할 수 있다.
예를 들어, 제어부(740)는, 상기 제1 디스플레이(312)에 터치 조작으로 소정 항목을 선택할 수 있는 메인 화면을 표시하고, 상기 제2 디스플레이(21)에 상기 제1 디스플레이(312)에 표시된 메인 화면을 통한 조작을 유도하는 안내 화면을 표시하도록 제어할 수 있다.
한편, 제어부(740)는 음성 입력부(725)를 통하여 입력되는 사용자의 음성 입력을 인식하고 처리할 수 있다.
또한, 제어부(740)는 메인 화면 내 소정 영역에 사용자의 음성 입력 가이드 정보를 표시할 수 있다.
한편, 상기 메인 화면은, 안내 가능한 목적지들이 소정 기준에 따라 분류된 카테고리 항목들을 포함할 수 있고, 상기 메인 화면은, 이동 로봇(1)이 배치된 장소에 따라 상이할 수 있다.
실시예에 따라서, 상기 제2 거리 이내에 사람이 존재하면, 제어부(740)는 언어 선택을 유도하는 제2 음성 안내를 발화하도록 음향 출력부(780)를 제어할 수 있다(S655). 이에 따라, 사람들은 터치 또는 음성으로 사용 언어를 선택할 수 있고, 어떤 입력으로 언어를 선택할 수 있는 지 쉽게 알 수 있다.
한편, 언어 선택 화면을 표시(S660)하기 전에, 사용자가 화면을 보기 쉽도록 제어부(740)는, 디스플레이들(312, 20) 중 적어도 하나가 감지된 사용자를 향하도록 제어할 수 있다.
상기 정지(S650) 후에, 제어부(740)는, 조작부(311) 및 제1 디스플레이(312)가 배치되는 일면이 상기 제2 거리 이내에서 감지된 사람을 향하도록 탑 커버(31)가 회전하게 제어할 수 있다.
즉, 제어부(740)는, 조작부(311) 및 제1 디스플레이(312)가 배치되는 일면이 감지된 사람을 향하도록, 이동 로봇(1)의 헤드를 회전시켜, 이동 로봇(1)이 자신에게 말을 걸고, 서비스를 제공할 준비가 되었음을 사람들이 직관적으로 알 수 있다.
또는, 정지(S650) 후에, 제어부(740)는, 상기 제1 디스플레이(312)보다 큰 크기를 가지는 제2 디스플레이(21)가 상기 제2 거리 이내에서 감지된 사람을 향하도록 본체(10)가 제자리에서 회전하도록 제어할 수 있다.
또는, 정지(S650) 후에, 제어부(740)는, 상기 제1 디스플레이(312)보다 큰 크기를 가지는 제2 디스플레이(21)가 상기 제2 거리 이내에서 감지된 사람을 향하도록 본체(10)를 회전시킨 후에, 조작부(311) 및 제1 디스플레이(312)가 배치되는 일면이 감지된 사람을 향하도록, 이동 로봇(1)의 헤드를 회전시켜, 상기 제1 디스플레이(312)와 제2 디스플레이(21)가 특정 사람을 향하도록 제어할 수 있다.
한편, 공공장소에서는 소정 공간에 많은 사람이 존재할 수 있다. 따라서, 동시 또는 소정 시간 이내에 다수의 사람이 감지되면, 어느 사용자를 기준으로, 이동 로봇(1)이 이동/정지하거나 화면을 표시할 지 선택해야 한다,
본 발명의 일 실시예에 따르면, 상기 제2 거리 이내에 복수의 사람이 존재하면, 이동 로봇(1)과의 거리 및 각도를 기준으로 선정되는 사람을 향하도록 회전할 수 있다. 이에 따라, 복수의 사람 접근시 이동 로봇(1)과의 거리 및 각도를 기준으로 안내대상을 인식할 수 있다.
예를 들어, 상기 제2 거리 이내에 복수의 사람이 존재하면, 제어부(740)는 이동 로봇(1)을 기준으로 가장 짧은 거리에 위치하는 사람을 향하여 회전하도록 제어할 수 있다.
여기서, 제어부(740)는 적어도 제1 디스플레이(312)가 이동 로봇(1)에 가장 가까운 사람을 향하도록 이동 로봇(1)을 제어할 수 있다.
제어부(740)는 제1 디스플레이(312)가 이동 로봇(1)에 가장 가까운 사람을 향하도록 탑 커버(31)를 회전시킬 수 있다.
또는, 제어부(740)는, 상기 제2 디스플레이(21)가 이동 로봇(1)에 가장 가까운 사람을 향하도록 본체(10)를 회전시킨 후에, 제1 디스플레이(312)가 동일한 사람을 향하도록 탑 커버(31)를 회전시킬 수 있다.
실시예에 따라서, 상기 제2 거리 이내에 복수의 사람이 존재하면, 제어부(740)는 이동 로봇(1)의 주행 방향에 가장 가깝게 위치하는 사람을 향하여 회전하도록 제어할 수 있다.
제어부(740)는 제1 디스플레이(312)가 이동 로봇(1)의 주행 방향 전면(front)에 가장 가까운 사람을 향하도록 탑 커버(31)를 회전시킬 수 있다.
또는, 제어부(740)는, 상기 제2 디스플레이(21)가 이동 로봇(1)의 주행 방향 전면에 가까운 사람을 향하도록 본체(10)를 회전시킨 후에, 제1 디스플레이(312)가 동일한 사람을 향하도록 탑 커버(31)를 회전시킬 수 있다.
만약 감지된 복수의 사람 중에서, 이동 로봇(1)의 주행 방향 전면에 사람이 없으면, 주행 방향 측면(side)에 위치하는 사람을 선택하고, 전면 및 측면에 위치하는 사람이 없으면, 주행 방향 후면(back)에 위치하는 사람을 선택할 수 있다.
또한, 측면 또는 후면에 위치하는 사람을 선택할 때도, 주행 방향을 기준으로 가장 적은 각도 범위에 위치하는 사람을 선택할 수 있다. 즉, 주행 방향 전면으로부터 회전을 가장 적게 수행할 수 있는 각도 범위에 위치하는 사람을 선택할 수 있다.
도 8은 본 발명의 실시예에 따른 이동 로봇의 사용자 감지 거리, 영역(Zone) 별 동작에 관한 설명에 참조되는 도면이다.
많은 사람이 존재하는 공공장소에서, 사람과의 인터랙션(interaction)을 통해, 정보, 안내 서비스 등을 제공하는 이동 로봇(1)은, 어떤 이용자를 서비스 제공 타겟(target)으로 할지에 대한 우선순위, 여러 상황에서의 반응(feedback) 우선순위가 필요하다.
본 발명의 일 실시예에 따르면, 이동 로봇(1) 주위를 거리를 기준으로 몇 개의 영역(Zone)으로 구분하고, 일정 수준 이상 이동 로봇(1)에 가까이 있는 대상과의 거리, 각도를 파악할 수 있다.
도 8을 참조하면, 이동 로봇(1)을 중심으로 제1 거리(d1) 이내에 대응하는 제1 영역(Zone B)과 이동 로봇(1)을 중심으로 제2 거리(d2) 이내에 대응하는 제2 영역(Zone A)이 설정될 수 있다.
본 발명의 일 실시예에 따르면, 제1 거리(d1) 이내에서 감지된 대상이 이동 로봇(1) 방향으로 가까워지는 사람으로 판단되는 경우, 이동 로봇(1) 사용을 유도하기 위해 이동 로봇(1)이 해당 사람을 향하도록 이동 및 회전할 수 있다.
사람이 이동 로봇(1)과 더 가까워져 제2 거리(d2) 이내에 들어온 경우, 이동 로봇(1)을 사용하려는 의도가 있다는 것으로 판단하고, 구체적 기능 및 서비스를 제공할 수 있다.
본 발명의 일 실시예에 따르면, 모든 사람을 대상으로 인터랙션하는 것이 아니라, 이동 로봇(1)에 근접하는 사람이 인터랙션 우선순위가 높게 된다.
또한, 이동 로봇(1)에 근접하는 사람이 다수(810, 840)인 경우에는 가장 근접한 사람(810)의 우선순위가 더 높게 된다. 또는, 이동 로봇(1)에 근접하는 사람이 다수(810, 820, 830)인 경우에, 이동 로봇(1)의 전면부(front)에서 접근하는 사람(810)의 우선순위가 더 높게 설정될 수 있다. 이 경우에, 이동 로봇(1)의 전면(front), 측면(side), 후면(back) 순서로 우선순위가 설정될 수 있다.
제2 영역(Zone A)에 복수의 사람이 존재하면, 이동 로봇(1)은, 정지 후, 복수의 사람 중 거리 및 각도를 기준으로 선정되는 사람을 향하도록 제자리에서 회전할 수 있다.
예를 들어, 제어부(740)는 적어도 제1 디스플레이(312)가 이동 로봇(1)에 가장 가까운 사람을 향하도록 이동 로봇(1)을 제어할 수 있다.
제어부(740)는 제1 디스플레이(312)가 이동 로봇(1)에 가장 가까운 사람을 향하도록 탑 커버(31)를 회전시킬 수 있다.
또는, 제어부(740)는, 상기 제2 디스플레이(21)가 이동 로봇(1)에 가장 가까운 사람을 향하도록 본체(10)를 회전시킨 후에, 제1 디스플레이(312)가 동일한 사람을 향하도록 탑 커버(31)를 회전시킬 수 있다.
실시예에 따라서, 제어부(740)는 제1 디스플레이(312)가 이동 로봇(1)의 주행 방향 전면(front)에 가장 가까운 사람을 향하도록 탑 커버(31)를 회전시킬 수 있다.
또는, 제어부(740)는, 상기 제2 디스플레이(21)가 이동 로봇(1)의 주행 방향 전면에 가까운 사람을 향하도록 본체(10)를 회전시킨 후에, 제1 디스플레이(312)가 동일한 사람을 향하도록 탑 커버(31)를 회전시킬 수 있다.
전면(front), 측면(side), 후면(back) 순서로 설정된 우선순위에 따라, 제어부(740)는, 복수의 사람 중 어느 한 사람을 선택할 수 있다.
이에 따라, 이동 로봇(1)에 별도의 구성을 추가하지 않고도, 인터랙션할 대상을 스스로 판단하게 할 수 있고, 공공장소의 사용자들에게 적극적으로 더 많은 사용 기회를 제공할 수 있다.
도 9는 본 발명의 일 실시예에 따른 이동 로봇의 동작 방법을 도시한 순서도로, 이동 로봇(1)이 대기 중 상태에서 사용자와 소정 목적지까지 이동하며 안내하는 로봇 안내모드 진입까지의 과정을 예시한다.
도 9를 참조하면, 이동 로봇(1)은 대기 중 상태에서 사람의 근접 여부를 감지하면서(S905), 제2 디스플레이(21)에 대기 중 화면을 표시할 수 있다(S910).
사람의 근접 여부의 감지는 초음파 센서(333), RGBD 센서(321) 등 장애물 감지 센서, 라이더(132a, 132b) 등을 포함하는 센서부(770)에서 수행될 수 있다.
또한, 소정 거리 이내의 사람 근접 여부는 헤드 카메라부(313), 바디 카메라부(25)를 포함하는 영상 획득부(720)에서 획득하는 영상에 기초하여 판별될 수 있다.
또한, 제어부(740)는 센서부(770) 및 영상 획득부(720)에서 획득되는 데이터를 조합하여, 이동 로봇(1)에 접근하는 사람의 존재 여부, 사람과 이동 로봇(1) 사이의 거리 등을 판별할 수 있다.
제어부(740)는, 기설정된 인터랙션(interaction) 거리 범위 이내로 어떤 사람이 진입했는지 판별할 수 있다(S905). 인터랙션(interaction) 거리 범위는, 이동 로봇(1)이 서비스를 사용할 사용자로부터 터치 입력 또는 음성 입력을 수신할 수 있는 거리에 기초하여 설정될 수 있다. 인터랙션(interaction) 거리 범위는, 이동 로봇(1)이 서비스를 사용할 사용자로부터 터치 입력 또는 음성 입력을 수신할 수 있는 거리에 기초하여 설정될 수 있다.
여기서, 인터랙션(interaction) 거리 범위는, 도 6 내지 도 8을 참조하여 설명한 제2 거리 및 제2 영역(Zone A)에 대응할 수 있다.
또한, 인터랙션(interaction) 거리 범위 이내 복수의 사람이 있는 경우에, 기설정된 우선 순위에 따라, 1인을 선정하고, 선정된 1인을 기준으로 인터랙션을 시작할 수 있다.
한편, 제어부(740)는, 기설정된 인터랙션(interaction) 거리 범위 이내에서 사용자가 감지되면(S905), 상기 제1 디스플레이(312)에 복수의 메뉴 항목을 포함하는 메인 화면이 표시되도록 제어할 수 있다(S930).
즉, 제어부(740)는, 소정 거리 이내에 사람이 존재하지 않는 경우에, 상기 제2 디스플레이(21)에 대기중 대기 중 화면이 표시되도록 제어하고, 소정 거리 이내에 사람이 존재하는 경우에, 상기 제1 디스플레이(312)에 복수의 메인 메뉴 항목을 포함하는 메인 화면이 표시되도록 제어할 수 있다.
또한, 상기 제어부(740)는, 상기 사용자와의 거리에 기초하여, 상기 제1 디스플레이(312) 또는 상기 제2 디스플레이(21)에 소정 정보를 표시하도록 제어할 수 있다.
본 발명에 따르면, 정보량에 따른 디스플레이(312, 21) 간의 화면 전환이 가능하고, 디스플레이(312, 21)에 표시되는 정보들은 맥락(context)이 연결되는 정보들이 나누어져 표시될 수 있다.
사용자는 이동 로봇(1) 가까이에서 손이 닿는 거리에 있는 제1 디스플레이(312)로 공항 내 장소를 검색할 수 있다. 이동 로봇(1)은, 검색결과 제공시 정보량에 따라 대형의 제2 디스플레이(21)와 연동하여 결과물을 보여줄 수 있다.
본 발명에 따르면, 이동 로봇과 사용자간 인터랙션(interaction) 거리에 적합한 디스플레이를 선택하여 이용할 수 있다.
예를 들어, 이동 로봇(1)과 사용자와의 거리가 먼 경우에는 대화면인 상기 제2 디스플레이(21)에 소정 정보를 표시하고, 가까운 경우에는 상기 제1 디스플레이(312)에 소정 정보를 표시할 수 있다.
또한, 사용자가 이동 로봇(1)에 가까운 거리에서 인터랙션 시 터치 및 음성인식으로 조작 가능하고, 제1 디스플레이(312)에는 간략한 정보가 표기될 수 있다.
또한, 사용자가 이동 로봇(1)에 먼 거리에서 인터랙션 시 제스처 및 음성인식으로 조작 가능하고, 대형 스크린으로 구성되는 제2 디스플레이(21)를 활용하여 구체적인 정보를 제공할 수 있다.
한편, 공항 등 공공장소는 여러 국적의 사람들이 이용할 수 있으므로, 사람들이 사용하는 언어의 종류도 다양하다.
따라서, 복수의 메인 메뉴 항목을 포함하는 메인 화면의 표시(S930)에 앞서, 사용자의 언어 선택을 유도하는 화면을 표시하고, 사용자의 터치 입력 또는 음성 입력을 인식하여(S915), 언어 선택이 이루어진 경우에(S920), 상기 복수의 메인 메뉴 항목을 포함하는 메인 화면을 표시할 수 있다(S930).
한편, 상기 제어부(740)는, 상기 제1 디스플레이(312)에 사용자의 터치 조작이 가능한 화면을 표시하고, 상기 제2 디스플레이(21)에 상기 제1 디스플레이(312)에 표시된 화면과 연관된 상세 정보를 포함하는 상세 화면 또는 상기 제1 디스플레이(312)를 통한 조작을 유도하는 안내 화면을 표시하도록 제어할 수 있다.
예를 들어, 제어부(740)는, 상기 제1 디스플레이(312)에 터치 조작으로 소정 항목을 선택할 수 있는 메인 화면을 표시하고, 상기 제2 디스플레이(21)에 상기 제1 디스플레이(312)에 표시된 메인 화면을 통한 조작을 유도하는 안내 화면을 표시하도록 제어할 수 있다.
한편, 제어부(740)는 음성 입력부(725)를 통하여 입력되는 사용자의 음성 입력을 인식하고 처리할 수 있다.
또한, 제어부(740)는 메인 화면 내 소정 영역에 사용자의 음성 입력 가이드 정보를 표시할 수 있다.
한편, 상기 메인 화면은, 안내 가능한 목적지들이 소정 기준에 따라 분류된 카테고리 항목들을 포함할 수 있고, 상기 메인 화면도 이동 로봇(1)이 배치된 장소에 따라 상이할 수 있다.
이후, 제어부(740)는, 사용자가 음성 입력 또는 터치 입력으로 소정 키워드를 입력하면(S935), 해당 키워드에 대응하는 목적지의 위치 정보를 안내하는 화면을 제공할 수 있다(S940).
상기 목적지의 위치 정보를 안내하는 화면은, 상기 제1 디스플레이(312) 또는 상기 제2 디스플레이(21) 중 적어도 하나를 통해 제공될 수 있다.
예를 들어, 상기 제1 디스플레이(312) 또는 상기 제2 디스플레이(21)에 목적지의 위치 정보를 안내하는 화면을 표시할 수 있다.
한편, 음성 입력 또는 터치 입력으로 목적지를 입력할 경우, 제1 디스플레이(312)에는 목적지 리스트, 지도상 위치, 현위치 등이 표시되고, 제2 디스플레이(21)에는, 공항 전체 지도, 경로, 거리, 도착까지 소요되는 예상 시간 등이 표시될 수 있다.
또한, 티켓을 투입하여 목적지를 입력할 경우, 제1 디스플레이(312)에는 간략화된 정보를 표시하고, 제2 디스플레이(21)에는, 큰 이미지와 구체화된 정보를 표시할 수 있다.
또한, 제어부(740)는, 음성 입력 또는 터치 입력으로 안내 목적지 입력이 수신되는 경우에, 상기 제2 디스플레이(21)에 입력된 안내 목적지에 대한 상세 화면을 표시하고, 상기 제1 디스플레이(312)에 상기 입력된 안내 목적지까지 이동하며 안내하는 안내 서비스(에스코트(escort) 서비스)를 요청할 수 있는 메뉴 항목과 상기 제2 디스플레이(21)에 표시된 목적지의 확인을 유도하는 안내 메시지를 표시하도록 제어할 수 있다.
즉, 상기 제1 디스플레이(312)는 터치 입력으로 안내 서비스를 요청할 수 있는 메뉴 항목 및 간략한 정보를 포함하는 화면을 표시하고, 상기 제2 디스플레이(21)는 안내 목적지를 포함하는 지도 화면과 안내 목적지의 명칭, 위치, 거리 등을 포함하는 상세 정보를 포함하는 상세 화면을 표시할 수 있다.
한편, 제어부(740)는, 상기 목적지의 위치 정보를 안내하는 화면이 표시된 상태에서 수신되는 사용자의 음성 입력 또는 터치 입력(S945)에 대응하는 동작을 수행하도록 제어할 수 있다.
예를 들어, 사용자가 에스코트(escort) 서비스를 요청하면(S950), 제어부(740)는. 이동 로봇(1)이 안내 목적지까지 이동하면서 안내하는 로봇 안내모드로 진입하도록 제어할 수 있다(S960).
또한, 제어부(740)는, 소정 시간 어떠한 입력도 없으면(S970), 다시 대기 중 화면이 상기 제2 디스플레이(21)에 표시되도록 제어할 수 있다(S990).
또한, 제어부(740)는, 사용자가 상기 목적지의 위치 정보를 안내하는 화면을 확인하고 닫으면, 다른 메뉴를 선택할 수 있도록 다시 메인 메뉴 항목들을 포함하는 메인 화면이 상기 제1 디스플레이(312)에 표시되도록 제어할 수 있다(S980).
도 10 내지 도 12는 본 발명의 실시예에 따른 이동 로봇의 동작 방법에 관한 설명에 참조되는 도면이다.
도 10은 대기 중 화면 또는 제1 음성 안내 발화시 표시되는 화면을 예시한다.
도 10을 참조하면, 대기 중 상태인 이동 로봇(1)은, 제1 디스플레이(312)에 대기 중 상태에 대응하는 표정을 나타내는 영상을 표시할 수 있다.
도 10을 참조하면, 대기 중 상태인 이동 로봇(1)은, 제2 디스플레이(21)의 사용 가이드 영역(1010)에 '안녕하세요. 정말 반가워요.' 등 인사말과 안내 기능에 관한 설명을 순차적으로 표시할 수 있다.
상기 인사말 및 설명은 다국어로 제공될 수 있다. 예를 들어, '즐거운 여행되세요', 'Have a nice trip'가 교대로 표시될 수 있다.
또한, 상기 인사말로 '행복한 하루되세요', 'Have a great day', '편안한 여행되세요.', 'Have a comfortable trip', '안녕하세요. 제이름은 에어스타입니다.', 'Hello, My name is AirStar.' 등의 다양한 표현이 사용될 수 있다.
또한, 상기 안내 기능에 관한 설명으로 '저는 공항 위치 안내를 도와드릴수있어요.', 'I can direct you to locations in the airport.', '저에게 말을 걸어보세요.', 'Hello. Ask me a question.' 등의 표현이 사용될 수 있다.
또한, 상기 인사말 및 설명은 한국어, 영어, 외에 중국어, 일어, 불어로도 제공될 수 있다.
한편, 대기 중 상태인 이동 로봇(1)은, 제2 디스플레이(21)의 정보 영역(1020)에 기설정된 목적지들의 안내 화면을 표시할 수 있다.
예를 들어, 상기 정보 영역(1020)에 표시되는 안내 화면은 보안게이트, 카운터, 출입문의 위치 정보를 포함하는 지도를 포함할 수 있다.
또한, 상기 정보 영역(1020)에는 보안게이트, 카운터, 출입문의 위치 정보를 포함하는 지도들이 순차적으로 표시될 수 있다.
한편, 이동 로봇(1)은 공항 내 배치 장소의 특성에 따라 다른 대기 중 화면을 표시할 수 있다.
제어부(740)는, 기설정된 인터랙션(interaction) 거리 범위 이내에서 사용자가 감지되면, 사용자의 언어 선택을 유도하는 화면이 상기 제1 디스플레이(312)에 표시되도록 제어할 수 있다.
도 11은 언어 선택 화면을 예시한다.
도 11을 참조하면, 상기 제1 디스플레이(312)에 '에어스타, 시작해'와 같은 한국어 텍스트와 동일한 뜻의 다른 언어로 작성된 텍스트가 표시될 수 있다.
또한, 상기 제2 디스플레이(21)에는 상기 제1 디스플레이(312)의 조작을 유도하는 화면(142)이 표시될 수 있다.
사용자가 표시된 텍스트 중 자신이 사용하는 언어에 대응하는 텍스트를 선택하면, 제어부(740)는, 선택된 텍스트에 대응하는 언어로 서비스를 제공할 수 있다.
또는, 사용자가 '에어스타, 시작해'와 같은 음성 입력을 발화하면, 제어부(740)는, 사용자가 발화한 언어의 종류를 인식하여, 인식된 언어로 서비스를 제공할 수 있다.
한편, 언어 선택 후, 이동 로봇(1)은, 복수의 메인 메뉴 항목을 포함하는 메인 화면을 상기 제1 디스플레이(312)에 표시할 수 있다.
도 12는 메인 화면들을 예시하는 도면으로, 도 12는 공항 내 에어 사이드(air side)에 배치된 이동 로봇이 표시하는 메인 화면을 예시한다.
도 12를 참조하면, 에어 사이드에 배치된 이동 로봇의 제1 디스플레이(312)에 표시되는 메인 화면(1200)은, 메인 메뉴 영역(1210)과 음성 인식 영역(1220)을 포함할 수 있다.
상기 메인 메뉴 영역(1210)은, 목적지들이 소정 기준에 따라 분류된 카테고리 항목들로 구성되는 메인 메뉴 항목들을 포함할 수 있다.
예를 들어, 메인 메뉴 항목들은, 쇼핑(1211), 탑승게이트(1212), 호텔/라운지(1213), 음식점(1214), 항공권 바코드 스캔(1215), 편의시설(1216)을 포함할 수 있다.
사용자는, 음성 입력 또는 터치 입력으로, 쇼핑(1211), 탑승게이트(1212), 호텔/라운지(1213), 음식점(1214), 항공권 바코드 스캔(1215), 편의시설(1216) 중 어느 하나를 선택한 후에, 해당 카테고리에 포함되는 목적지를 찾거나, 대응하는 서비스를 제공받을 수 있다.
상기 음성 인식 영역(1220)에는, 음성 인식 마이크 버튼과 호출어 유도 가이드가 표시될 수 있다. 예를 들어, 호출어로 '에어스타'가 설정된 경우에는, '에어스타'라고 부르거나 마이크 버튼을 터치해 달라는 호출어 유도 가이드가 표시될 수 있다.
제어부(740)는 사용자가 상기 음성 인식 영역(1220)의 마이크 버튼을 터치하거나 호출어를 발화하면 음성 인식 프로세스로 진입하도록 제어할 수 있다.
한편, 제2 디스플레이(21)에는 상기 제1 디스플레이(312)의 조작을 유도하는 화면(1530)이 표시될 수 있다.
본 발명의 실시예들 중 적어도 하나에 의하면, 공공장소에서 안내 서비스 등 다양한 서비스를 제공할 수 있다.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 길 안내 등 서비스 제공 과정에서 디스플레이에 표시되는 정보를 용이하게 제공할 수 있다.
또한, 본 발명의 실시예들 중 적어도 하나에 의하면, 정보의 종류, 정보의 양, 로봇과 사용자 사이의 인터랙션(Interaction) 거리, 디스플레이의 크기에 따라 다양한 방식으로 2개의 디스플레이를 활용함으로써 정보 제공 방식의 효율성 및 사용자 편의성을 향상할 수 있다.
본 발명에 따른 이동 로봇은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 발명의 실시예에 따른 이동 로봇의 동작 방법은, 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
이동 로봇: 1
디스플레이부: 710
영상획득부: 720
음성 입력부: 725
저장부: 730
제어부: 740
발광부: 750
구동부: 760
통신부: 790

Claims (11)

  1. 기설정된 제1 거리 이내에 사람이 있는지 판별하는 단계;
    상기 제1 거리 이내에 사람이 존재하면, 이동 속도를 감소시키는 단계;
    상기 제1 거리 이내에 사람이 존재하면, 인사말을 포함하는 제1 음성 안내를 발화하는 단계;
    상기 제1 거리보다 짧게 설정된 제2 거리 이내에 사람이 있는지 판별하는 단계;
    상기 제2 거리 이내에 사람이 존재하면, 이동을 정지하는 단계;
    상기 정지 후에, 조작부 및 제1 디스플레이가 배치되는 일면이 상기 제2 거리 이내에서 감지된 사람을 향하도록 탑 커버가 회전하는 단계;
    상기 정지 후에, 상기 제1 디스플레이보다 큰 크기를 가지는 제2 디스플레이가 상기 제2 거리 이내에서 감지된 사람을 향하도록 본체가 제자리에서 회전하는 단계;
    언어 선택 입력을 수신하는 단계; 및,
    상기 언어 선택 입력에 대응하는 언어에 기초한 메뉴 화면을 표시하는 단계;를 포함하는 이동 로봇의 동작 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 본체의 회전 단계는, 상기 제2 거리 이내에 복수의 사람이 존재하면, 이동 로봇을 기준으로 가장 짧은 거리에 위치하는 사람을 향하도록 회전하는 것을 특징으로 하는 이동 로봇의 동작 방법.
  6. 제1항에 있어서,
    상기 본체의 회전 단계는, 상기 제2 거리 이내에 복수의 사람이 존재하면, 이동 로봇의 주행 방향에 가장 가깝게 위치하는 사람을 향하도록 회전하는 것을 특징으로 하는 이동 로봇의 동작 방법.
  7. 제1항에 있어서,
    상기 본체의 회전 단계는, 상기 제2 거리 이내에 복수의 사람이 존재하면, 이동 로봇과의 거리 및 각도를 기준으로 선정되는 사람을 향하도록 회전하는 것을 특징으로 하는 이동 로봇의 동작 방법.
  8. 제1항에 있어서,
    상기 제2 거리 이내에 사람이 존재하면, 언어 선택을 유도하는 제2 음성 안내를 발화하는 단계;를 더 포함하는 이동 로봇의 동작 방법.
  9. 제1항에 있어서,
    시작 위치와 기설정된 탐색 위치들을 순차적으로 왕복하는 대기 주행하는 단계;를 더 포함하는 이동 로봇의 동작 방법.
  10. 제9항에 있어서,
    상기 탐색 위치들은, 상기 시작 위치를 기준으로 방사형으로 설정되는 것을 특징으로 하는 이동 로봇의 동작 방법.
  11. 제1항에 있어서.
    상기 언어 선택 입력은, 음성 입력 또는 터치 입력으로 수신되는 것을 특징으로 하는 이동 로봇의 동작 방법.



KR1020180007775A 2018-01-22 2018-01-22 이동 로봇의 동작 방법 KR102070213B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180007775A KR102070213B1 (ko) 2018-01-22 2018-01-22 이동 로봇의 동작 방법
US16/490,497 US20200341480A1 (en) 2018-01-22 2018-11-19 Operation method of moving robot
PCT/KR2018/014174 WO2019143010A1 (ko) 2018-01-22 2018-11-19 이동 로봇의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180007775A KR102070213B1 (ko) 2018-01-22 2018-01-22 이동 로봇의 동작 방법

Publications (2)

Publication Number Publication Date
KR20190095578A KR20190095578A (ko) 2019-08-16
KR102070213B1 true KR102070213B1 (ko) 2020-01-28

Family

ID=67806589

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180007775A KR102070213B1 (ko) 2018-01-22 2018-01-22 이동 로봇의 동작 방법

Country Status (1)

Country Link
KR (1) KR102070213B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102471163B1 (ko) 2022-09-15 2022-11-25 주식회사 라스테크 배터리 안전 교체 가능한 이동형 로봇
WO2024106552A1 (ko) * 2022-11-15 2024-05-23 한국전자기술연구원 비전 기반 사용자 인식 및 인터랙션 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102462634B1 (ko) * 2020-08-27 2022-11-03 네이버랩스 주식회사 공간을 주행하는 로봇을 관제하는 건물, 로봇 관제 방법 및 시스템
KR20220027746A (ko) 2020-08-27 2022-03-08 네이버랩스 주식회사 로봇 주행에 따른 안전 가이드 라인을 제공하는 건물
KR102292810B1 (ko) * 2021-01-11 2021-08-25 김종광 무인점포 운영 장치
KR102519599B1 (ko) * 2021-10-29 2023-04-11 주식회사 서큘러스 멀티모달 기반의 인터랙션 로봇, 및 그 제어 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011194507A (ja) * 2010-03-18 2011-10-06 Fujitsu Ltd サービス提供装置、サービス提供プログラム及びサービスロボット

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101496910B1 (ko) * 2009-01-22 2015-02-27 삼성전자 주식회사 로봇

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011194507A (ja) * 2010-03-18 2011-10-06 Fujitsu Ltd サービス提供装置、サービス提供プログラム及びサービスロボット

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102471163B1 (ko) 2022-09-15 2022-11-25 주식회사 라스테크 배터리 안전 교체 가능한 이동형 로봇
WO2024106552A1 (ko) * 2022-11-15 2024-05-23 한국전자기술연구원 비전 기반 사용자 인식 및 인터랙션 방법

Also Published As

Publication number Publication date
KR20190095578A (ko) 2019-08-16

Similar Documents

Publication Publication Date Title
KR102175298B1 (ko) 이동 로봇의 동작 방법
KR102070213B1 (ko) 이동 로봇의 동작 방법
KR102391322B1 (ko) 이동 로봇
US11285611B2 (en) Robot and method of controlling thereof
US11325260B2 (en) Method for operating moving robot
KR102391914B1 (ko) 이동 로봇의 동작 방법
US20200341480A1 (en) Operation method of moving robot
KR20190003122A (ko) 이동 로봇의 동작 방법
US11697211B2 (en) Mobile robot operation method and mobile robot
KR102314536B1 (ko) 로봇의 제어 방법
KR20190143524A (ko) 장애물 회피에 기반하여 경유 지점을 주행하는 로봇 및 주행하는 방법
KR20190003124A (ko) 이동 로봇의 동작 방법
US11766779B2 (en) Mobile robot for recognizing queue and operating method of mobile robot
KR20190143542A (ko) 이동 로봇
KR102241603B1 (ko) 이동 로봇
KR102069765B1 (ko) 이동 로봇
KR102350931B1 (ko) 이동 로봇
KR20190003125A (ko) 이동 로봇의 동작 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant