KR102565823B1 - 이동 로봇 및 그 이동 로봇의 제어 방법 - Google Patents
이동 로봇 및 그 이동 로봇의 제어 방법 Download PDFInfo
- Publication number
- KR102565823B1 KR102565823B1 KR1020160066716A KR20160066716A KR102565823B1 KR 102565823 B1 KR102565823 B1 KR 102565823B1 KR 1020160066716 A KR1020160066716 A KR 1020160066716A KR 20160066716 A KR20160066716 A KR 20160066716A KR 102565823 B1 KR102565823 B1 KR 102565823B1
- Authority
- KR
- South Korea
- Prior art keywords
- mobile robot
- pet
- user
- information
- image
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/0085—Cleaning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Toys (AREA)
Abstract
본 발명은 이동 로봇 및 그 이동 로봇의 제어 방법에 관한 것으로, 상기 로봇 본체와, 상기 로봇 주변에 위치한 대상을 식별하기 위한 영상을 센싱하는 적어도 하나의 카메라와, 서로 다른 기능을 포함하는 서로 다른 복수의 동작 모드에 대한 정보를 포함하는 메모리, 및, 상기 센싱된 영상으로부터 상기 대상의 신체 일부분의 영상 정보를 획득하고, 획득한 영상 정보에 근거하여 상기 대상을 식별하며, 상기 복수의 동작 모드 중 상기 식별된 대상에 따른 기능을 포함하는 동작 모드로 상기 이동 로봇의 동작 모드를 전환하는 제어부를 포함하는 것을 특징으로 한다.
Description
본 발명은 이동 가능한 로봇 및 그 로봇의 제어 방법에 관한 것이다.
현재 기술의 발달로 다양한 로봇이 등장하고 있다. 이러한 로봇은 단순히 고정된 장소에서 특정 작업을 반복 수행하는 것에서 벗어나, 프로그램에 따라 또는 주변의 상황에 따라 이동 가능한 다양한 형태의 로봇들이 등장하고 있는 추세이다. 그리고 이러한 로봇들은 사용자를 대신하여 다양한 기능을 수행하도록 형성될 수 있다.
한편 이러한 로봇들은 이동 단말기와 같은 연결 가능한 별도의 기기의 제어에 따라 특정 기능을 수행하도록 설계될 수도 있다. 이러한 경우 상기 로봇들은 사용자로부터 멀리 이격된 거리에서, 사용자의 제어에 따른 기능을 수행할 수 있다. 이러한 로봇의 원격 제어 기능을 이용하여 상기 로봇을 활용할 수 있는 다양한 방안들이 현재 활기차게 연구되고 있는 실정이다.
본 발명은, 사용자의 안면 영상의 획득이 어려운 근접 거리에서도 상기 이동 로봇에 접촉한 대상을 구분 및 식별하고, 식별된 대상에 따라 기 설정된 기능을 제공할 수 있는 이동 로봇 및 그 이동 로봇의 제어 방법을 제공하는 것을 그 목적으로 한다.
또한 본 발명은, 사용자가 부재중인 경우에도, 유아나 아동의 행동을 감지하고, 상기 유아나 아동이 위험에 빠지지 않도록 상기 유아나 아동을 보호할 수 있는 이동 로봇 및 그 이동 로봇의 제어 방법을 제공하는 것을 그 목적으로 한다.
또한 본 발명은, 홈 네트워크(home network)를 통해 서로 연결되지 않은 기기라고 할지라도, 사용자가 원격으로 그 기기를 제어할 수 있도록 하는 이동 로봇 및 그 이동 로봇의 제어 방법을 제공하는 것을 그 목적으로 한다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 이동 로봇은, 상기 로봇 본체와, 상기 로봇 주변에 위치한 대상을 식별하기 위한 영상을 센싱하는 적어도 하나의 카메라와, 서로 다른 기능을 포함하는 서로 다른 복수의 동작 모드에 대한 정보를 포함하는 메모리, 및, 상기 센싱된 영상으로부터 상기 대상의 신체 일부분의 영상 정보를 획득하고, 획득한 영상 정보에 근거하여 상기 대상을 식별하며, 상기 복수의 동작 모드 중 상기 식별된 대상에 따른 기능을 포함하는 동작 모드로 상기 이동 로봇의 동작 모드를 전환하는 제어부를 포함하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 영상 정보에 포함된 대상의 신체 일부분의 형상에 근거하여, 상기 영상 정보에 대응되는 대상이 사람인지 애완동물인지 여부를 판단 및, 판단 결과에 따라 애완동물과 관련된 기능을 수행하는 팻 케어 동작 모드로 상기 이동 로봇의 동작 모드를 전환하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 판단 결과 상기 영상 정보에 대응되는 대상이 사람인 경우, 상기 영상 정보에 포함된 신체 일부분의 길이 및 크기 중 적어도 하나에 근거하여 상기 영상 정보에 대응되는 사람을 연령 또는 성별에 따라 구분하며, 상기 영상 정보에 포함된 신체 일부분은, 상기 영상 정보에 포함된 사람의 손 또는 상기 손을 포함하는 팔의 일부, 또는 상기 영상 정보에 포함된 사람의 발 또는 상기 발을 포함하는 다리의 일부임을 특징으로 한다.
일 실시 예에 있어서, 상기 메모리는, 연령 및 성별에 따른 인체 각 부분의 평균 사이즈에 대한 정보를 더 포함하며, 상기 제어부는, 상기 획득된 영상 정보에 포함된 상기 신체 일부분의 길이 및 크기 중 적어도 하나와, 상기 연령 및 성별에 따른 인체 각 부분의 평균 사이즈에 대한 정보에 근거하여 상기 영상 정보에 대응되는 사람을 성인, 아동, 또는 유아로 구분하며, 구분 결과에 따라 각각 서로 다른 기능을 제공하는 동작 모드로 전환하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 카메라와 상기 영상 정보에 대응되는 사람간의 이격거리에 근거하여 상기 획득된 영상 정보에 포함된 신체 일부분의 길이 및 크기 중 적어도 하나를 산출하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 메모리는, 인체 각 부분의 모델링 데이터를 더 포함하며, 상기 제어부는, 상기 획득된 영상 정보에 포함된 신체 일부분의 형상 및, 상기 신체 일부분의 형상 각 부분과 상기 카메라 사이의 거리 차이에 근거하여, 상기 신체 일부분에 대응되는 3차원 정보를 획득하고, 획득된 3차원 정보에 근거하여 상기 신체 일부분의 길이 또는 크기를 산출하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 구분 결과, 상기 두드림을 인가한 사람이 성인으로 구분되는 경우 동영상 또는 음악 컨텐츠의 재생과 관련된 멀티미디어 기능을 포함하는 제1 동작 모드로 동작 모드를 전환하며, 상기 제어부는, 상기 연령 및 성별에 따른 인체 각 부분의 평균 사이즈에 대한 정보에 근거하여, 상기 영상 정보에 대응되는 사람의 성별을 더 구분하고, 상기 구분된 성별에 따라 서로 다른 컨텐츠 추천 목록을 제공하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제1 동작 모드는, 상기 이동 로봇과 연결된 이동 단말기를 통해 수신되는 제1 사용자의 음성을, 상기 이동 로봇을 통해 출력하는 워키토키(Walki-Talki) 기능을 더 포함하며, 상기 워키토키 기능은, 기 설정된 복수의 감정 상태를, 각 감정 상태에 대응되는 서로 다른 패턴의 움직임으로 표시하는 감정 표시 기능을 더 포함하고, 상기 제어부는, 상기 이동 로봇이 워키토키 기능을 수행하는 경우, 상기 이동 단말기를 통해 상기 제1 사용자로부터 어느 하나의 감정 상태가 선택되면, 선택된 감정 상태에 대응되는 기 설정된 움직임 패턴에 따라 상기 이동 로봇이 움직이도록 제어하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 구분 결과, 상기 영상 정보에 대응되는 사람이 아동으로 구분되는 경우, 아동과 관련된 기능을 포함하는 제2 동작 모드로 동작 모드를 전환하며, 상기 제2 동작 모드는, 현재 시각에 대응되는 상기 아동의 스케쥴 정보를 출력하는 기능 및, 상기 아동의 요구가 있는 경우 상기 아동의 요구에 대응되는 동영상 컨텐츠가 기 설정된 영상 표시 장치를 통해 출력되도록 상기 기 설정된 영상 표시 장치를 제어하는 기능을 포함하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 아동으로부터 동영상 컨텐츠의 출력 요구가 있는 경우, 기 설정된 조건의 충족 여부에 따라 상기 요구된 동영상 컨텐츠가 출력되도록 상기 영상 표시 장치를 제어하며, 상기 기 설정된 조건의 충족 여부는, 상기 동영상 컨텐츠의 출력 요구가 수신된 시각, 상기 아동과 상기 영상 표시 장치 사이의 이격 거리, 및 상기 아동의 위치 중 적어도 하나에 따라 결정되는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 구분 결과, 상기 영상 정보에 대응되는 사람이 유아로 구분되는 경우, 유아와 관련된 기능을 포함하는 제3 동작 모드로 동작 모드를 전환하며, 상기 제3 동작 모드는, 상기 유아가 기 설정된 위험 지역에 진입하는 것을 제한하거나 상기 유아가 기 설정된 위험물에 접근하는 것을 방지하는 기능을 포함하는 동작 모드임을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 유아와 기 설정된 위험물 사이의 이격거리가 일정 거리 이내인 경우, 상기 유아와 상기 위험물 사이로 이동하여 상기 유아의 이동 경로를 방해하도록 상기 이동 로봇을 제어하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 영상 정보에 대응되는 대상이 애완동물로 판단되는 경우, 상기 획득된 영상 정보에 포함된 털의 색상 및 형태 중 적어도 하나와, 상기 메모리에 기 저장된 애완동물 정보에 근거하여 상기 애완동물을 식별하고, 식별된 애완동물에 따라 서로 다른 펫 케어 기능을 수행하는 동작 모드로 전환하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 영상 정보에 대응되는 대상이 애완동물로 판단되는 경우, 상기 이동 로봇과 연결된 이동 단말기를 통해 상기 애완동물을 식별한 결과가 표시될 수 있도록, 상기 이동 단말기에 상기 식별된 애완동물에 대응되는 정보를 전송하며, 상기 식별된 애완동물에 대응되는 정보는, 상기 식별된 애완동물의 안면 영상 또는 상기 식별된 애완동물의 발 모양에 대응되는 그래픽 객체임을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 영상 정보에 대응되는 대상이 애완동물로 판단되는 경우, 상기 이동 로봇의 주변에 위치한 다른 사용자를 감지하고, 상기 이동 로봇의 주변에 다른 사용자가 있는 경우, 감지된 사용자에게 상기 펫 케어 기능을 수행하는 동작 모드로 전환할지 여부 확인을 요청 및, 확인 결과에 따라 상기 로봇의 동작 모드를 상기 펫 케어 기능을 수행하는 동작 모드로 전환하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 이동 로봇의 카메라에 센싱된 영상에 다른 사용자의 영상이 포함되어 있는지 여부, 상기 이동 로봇의 주변에 기 등록된 사용자의 웨어러블 디바이스나 이동 단말기가 있는지 여부, 및 기 등록된 사용자의 음성이 감지되는지 여부 중 적어도 하나에 따라 상기 이동 로봇의 주변에 다른 사용자가 있는지 여부를 감지하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 센싱된 영상에 포함된 피사체의 영상들 중, 상기 카메라로부터 가장 가까운 거리에 위치한 피사체의 영상을, 상기 로봇 주변에 위치한 대상의 신체 일부분의 영상 정보로 획득하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 이동 로봇의 온도 및 습도 중 적어도 하나를 센싱하기 위한 환경 센서를 더 포함하며, 상기 제어부는, 상기 카메라로부터 센싱되는 영상이 기 설정된 이동 단말기를 통해 표시되도록 상기 센싱되는 영상을 상기 이동 단말기에 전송하며, 상기 이동 로봇의 주변의 온도 및 습도 중 적어도 하나에 따라 상기 이동 단말기에서 표시되는 상기 영상이 다르게 표시되도록, 상기 환경 센서에서 감지되는 적어도 하나의 센싱 결과를 상기 이동 단말기에 더 전송하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 본체에 구비되며, 상기 본체에 인가되는 두드림을 감지하는 센싱부를 더 포함하며, 상기 제어부는, 상기 두드림이 감지되면, 상기 두드림이 감지된 방향의 영상을 센싱하도록 상기 카메라를 제어하며, 상기 센싱된 영상으로부터, 상기 두드림을 인가한 대상의 안면 영상이 검출되지 않는 경우, 상기 센싱된 영상에 포함된 상기 두드림을 인가한 대상의 신체 일부분의 영상을 상기 영상 정보로 획득 및, 획득된 영상 정보에 근거하여 상기 두드림을 인가한 대상을 식별하는 것을 특징으로 한다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 이동 로봇의 제어 방법은, 상기 로봇 주변에 위치한 대상을 식별하기 위한 영상을 센싱하는 단계와, 상기 센싱된 영상으로부터 상기 대상의 신체 일부분의 영상 정보를 획득하는 단계와, 상기 획득된 영상 정보에 근거하여 상기 영상 정보에 대응되는 대상을 식별하는 단계, 및, 상기 복수의 동작 모드 중 상기 식별된 대상에 따른 기능을 포함하는 동작 모드로 동작 모드를 전환하는 단계를 포함하는 것을 특징으로 한다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 이동 로봇 및 상기 이동 로봇을 제어하는 이동 단말기를 포함하는 기기 제어 시스템은, 특정 주변 기기의 제어를 위한 기능이 선택되면, 선택된 주변 기기가 수행 가능한 적어도 하나의 기능을 제어할 수 있는 제어 화면을 표시하고, 상기 제어 화면에 인가되는 사용자의 입력에 따른 상기 특정 주변 기기의 동작 상태에 관련된 제어 신호를 상기 이동 로봇에 전송하는 이동 단말기, 및, 상기 이동 단말기로부터 상기 제어 명령이 수신되면, 상기 특정 주변 기기의 위치로부터 기 설정된 거리 내의 영역으로 이동하고, 이동된 위치에서 상기 수신된 제어 명령에 따라 상기 특정 주변 기기를 제어 및, 상기 특정 주변 기기의 동작 상태에 관련된 정보를 상기 이동 단말기에 전송하는 이동 로봇을 포함하는 것을 특징으로 한다.
본 발명에 따른 이동 로봇 및 그 제어 방법의 효과에 대해 설명하면 다음과 같다.
본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 이동 로봇을 터치한 대상의 신체 일부의 영상을 이용하여 상기 이동 로봇을 터치한 대상이 식별될 수 있도록 함으로써, 사용자의 안면 영상 획득이 어려운 근접 거리에서도 사용자를 구분 및 식별할 수 있도록 한다는 장점이 있다.
또한 본 발명은 상기 근접 거리에서 상기 이동 로봇을 터치한 대상을 구분할 수 있도록 함으로써, 상기 이동 로봇에 관심을 가지는 대상을 식별하고, 식별된 대상에 적합한 이동 로봇의 기능이 수행되도록 할 수 있다는 장점이 있다.
또한 본 발명은, 유아나 아동의 행동을 감지하고, 상기 유아나 아동이 기 설정된 위험 지역이나 위험물에 접근하지 않도록 유도함으로써, 상기 위험 지역 또는 위험물로부터 상기 유아나 아동을 보호할 수 있다는 장점이 있다.
또한 본 발명은, 특정 기기와 통신이 가능한 위치로 이동하여 사용자가 상기 이동 로봇을 통해 특정 기기를 제어할 수 있도록 함으로써, 홈 네트워크로 연결되지 않은 기기라고 할지라도 사용자가 원거리에서 제어할 수 있도록 한다는 장점이 있다.
도 1a는 본 발명의 실시 예에 따른 이동 로봇의 구성을 설명하기 위한 블록도이다.
도 1b 및 1c는 본 발명의 실시 예에 따른 이동 로봇의 일 예를 서로 다른 방향에서 바라본 개념도이다.
도 2는 본 발명의 실시 예에 따른 이동 로봇을 제어하기 위한 인터페이스 및, 상기 이동 로봇이 사용자의 제어에 따라 이동하는 예를 도시한 개념도이다.
도 3은 본 발명의 실시 예에 따른 이동 로봇의 제어 인터페이스가, 이동 단말기가 파지된 상태에 따라 변경되는 예를 도시한 개념도이다.
도 4는 본 발명의 실시 예에 따른 이동 로봇의 주변 환경에 대한 정보가, 상기 제어 인터페이스를 통해 더 표시되는 예를 도시한 개념도이다.
도 5는 본 발명의 실시 예에 따른 이동 로봇이, 자신을 터치한 대상을 식별한 결과에 따라 다양한 동작 모드로 전환되는 동작 과정을 도시한 흐름도이다.
도 6은 본 발명의 실시 예에 따른 이동 로봇(100)이 사람에 의해 터치된 경우, 상기 이동 로봇의 카메라에 센싱된 상기 사람의 신체 일부분 영상의 예를 도시한 개념도이다.
도 7은 본 발명의 실시 예에 따른 이동 로봇이, 이동 로봇을 터치한 대상을 식별한 결과에 따른 동작 모드로 전환되는 동작 과정을 보다 자세히 도시한 흐름도이다.
도 8은 본 발명의 실시 예에 따른 이동 로봇이, 자신을 터치한 사람을 식별한 결과에 따라 서로 다른 동작 모드로 전환되는 동작 과정을 도시한 흐름도이다.
도 9a 및 도 9b는 본 발명의 실시 예에 따른 이동 로봇이, 기본 동작 모드로 동작하는 경우, 상기 기본 동작 모드에 포함된 주변 기기 원격 제어 기능을 수행하는 동작 과정을 도시한 흐름도들이다.
도 10은 본 발명의 실시 예에 따른 이동 로봇이, 펫 케어 동작 모드로 전환된 상태에서의 동작 과정을 도시한 흐름도이다.
도 11은 본 발명의 실시 예에 따른 이동 로봇이, 도어 센서와 연동하여 자택 내부에 진입한 진입자를 식별하는 동작 과정을 도시한 흐름도이다.
도 12는 본 발명의 실시 예에 따른 이동 로봇이 애완동물에 의해 터치된 경우, 식별된 애완동물의 정보를 표시하는 예를 도시한 예시도들이다.
도 13은 본 발명의 실시 예에 따른 이동 로봇이, 기본 동작 모드로 구동하는 경우, 워키토키 기능을 수행하는 동작 과정의 예를 도시한 예시도이다.
도 14는 본 발명의 실시 예에 따른 이동 로봇이, 자신을 터치한 대상이 아동인 경우, 아동과 관련된 기능을 수행하는 예를 도시한 예시도이다.
도 15는 본 발명의 실시 예에 따른 이동 로봇이, 유아 보호 동작 모드로 동작하는 중, 유아와 관련된 기능을 수행하는 예들을 도시한 예시도들이다.
도 16a 내지 도 16c는 본 발명의 실시 예에 따른 이동 로봇이, 펫 케어 동작 모드로 동작하는 중, 애완동물과 관련된 기능을 수행하는 예들을 도시하는 예시도들이다.
도 17은 본 발명의 실시 예에 따른 이동 로봇이, 펫 케어 동작 모드로 동작하는 중, 식별된 애완동물에 따라 서로 다른 기능을 수행하는 예를 도시한 예시도이다.
도 18a 내지 도 18c는 본 발명의 실시 예에 따른 이동 로봇이, 주변 기기 원격 제어 기능을 수행하는 실시 예들을 도시한 예시도들이다.
도 19는 본 발명의 실시 예에 따른 이동 로봇이, 자택 내부에 구비된 센서들과 연동하여 특정 기능을 수행하는 예를 도시한 예시도이다.
도 1b 및 1c는 본 발명의 실시 예에 따른 이동 로봇의 일 예를 서로 다른 방향에서 바라본 개념도이다.
도 2는 본 발명의 실시 예에 따른 이동 로봇을 제어하기 위한 인터페이스 및, 상기 이동 로봇이 사용자의 제어에 따라 이동하는 예를 도시한 개념도이다.
도 3은 본 발명의 실시 예에 따른 이동 로봇의 제어 인터페이스가, 이동 단말기가 파지된 상태에 따라 변경되는 예를 도시한 개념도이다.
도 4는 본 발명의 실시 예에 따른 이동 로봇의 주변 환경에 대한 정보가, 상기 제어 인터페이스를 통해 더 표시되는 예를 도시한 개념도이다.
도 5는 본 발명의 실시 예에 따른 이동 로봇이, 자신을 터치한 대상을 식별한 결과에 따라 다양한 동작 모드로 전환되는 동작 과정을 도시한 흐름도이다.
도 6은 본 발명의 실시 예에 따른 이동 로봇(100)이 사람에 의해 터치된 경우, 상기 이동 로봇의 카메라에 센싱된 상기 사람의 신체 일부분 영상의 예를 도시한 개념도이다.
도 7은 본 발명의 실시 예에 따른 이동 로봇이, 이동 로봇을 터치한 대상을 식별한 결과에 따른 동작 모드로 전환되는 동작 과정을 보다 자세히 도시한 흐름도이다.
도 8은 본 발명의 실시 예에 따른 이동 로봇이, 자신을 터치한 사람을 식별한 결과에 따라 서로 다른 동작 모드로 전환되는 동작 과정을 도시한 흐름도이다.
도 9a 및 도 9b는 본 발명의 실시 예에 따른 이동 로봇이, 기본 동작 모드로 동작하는 경우, 상기 기본 동작 모드에 포함된 주변 기기 원격 제어 기능을 수행하는 동작 과정을 도시한 흐름도들이다.
도 10은 본 발명의 실시 예에 따른 이동 로봇이, 펫 케어 동작 모드로 전환된 상태에서의 동작 과정을 도시한 흐름도이다.
도 11은 본 발명의 실시 예에 따른 이동 로봇이, 도어 센서와 연동하여 자택 내부에 진입한 진입자를 식별하는 동작 과정을 도시한 흐름도이다.
도 12는 본 발명의 실시 예에 따른 이동 로봇이 애완동물에 의해 터치된 경우, 식별된 애완동물의 정보를 표시하는 예를 도시한 예시도들이다.
도 13은 본 발명의 실시 예에 따른 이동 로봇이, 기본 동작 모드로 구동하는 경우, 워키토키 기능을 수행하는 동작 과정의 예를 도시한 예시도이다.
도 14는 본 발명의 실시 예에 따른 이동 로봇이, 자신을 터치한 대상이 아동인 경우, 아동과 관련된 기능을 수행하는 예를 도시한 예시도이다.
도 15는 본 발명의 실시 예에 따른 이동 로봇이, 유아 보호 동작 모드로 동작하는 중, 유아와 관련된 기능을 수행하는 예들을 도시한 예시도들이다.
도 16a 내지 도 16c는 본 발명의 실시 예에 따른 이동 로봇이, 펫 케어 동작 모드로 동작하는 중, 애완동물과 관련된 기능을 수행하는 예들을 도시하는 예시도들이다.
도 17은 본 발명의 실시 예에 따른 이동 로봇이, 펫 케어 동작 모드로 동작하는 중, 식별된 애완동물에 따라 서로 다른 기능을 수행하는 예를 도시한 예시도이다.
도 18a 내지 도 18c는 본 발명의 실시 예에 따른 이동 로봇이, 주변 기기 원격 제어 기능을 수행하는 실시 예들을 도시한 예시도들이다.
도 19는 본 발명의 실시 예에 따른 이동 로봇이, 자택 내부에 구비된 센서들과 연동하여 특정 기능을 수행하는 예를 도시한 예시도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일, 유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
우선 도 1a는 본 발명의 실시 예에 따른 이동 로봇(100)의 구성을 설명하기 위한 블록도이다.
상기 이동 로봇(100)은 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 주행부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 이동 로봇(100)을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 로봇(100)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중, 무선 통신부(110)는, 이동 로봇(100)과 무선 통신 시스템 사이, 이동 로봇(100)과 다른 기기 사이, 또는 이동 로봇(100)과 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 로봇(100)을 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
이러한 무선 통신부(110)는, 이동통신 모듈(111), 무선 인터넷 모듈(112), 근거리 통신 모듈(113), 위치정보 모듈(114) 중 적어도 하나를 포함할 수 있다.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122)을 포함할 수 있다. 또한 비록 도시되지는 않았으나, 사용자로부터 정보를 입력받기 위한 터치키(touch key), 푸시키(mechanical key) 등의 사용자 입력부를 포함할 수 있다. 한편 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 다른 기기로 전송되거나, 분석되어 다른 기능에 대한 제어명령으로 처리될 수 있다.
센싱부(140)는 이동 로봇(100) 내 정보, 이동 로봇(100)을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 가속도 센서(142, acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor) 등을 포함할 수 있다. 이러한 센서들은 이동 로봇(100)의 주변에 위치한 장애물을 감지하기 위해 사용되거나, 이동 로봇(100)의 이동시 상기 이동 로봇(100)이 이동하는 방향이나 속도 또는 상기 이동 로봇(100)의 자세를 측정하기 위해 사용될 수 있다.
한편 상기 센신부(140)는 RGB 센서, 광센서(optical sensor, 예를 들어, 카메라(121 참조)), 모션 센서(motion sensor) 등을 더 포함하여 상기 이동 로봇(100) 주변의 사물을 인식할 수 있으며, 마이크로폰(microphone, 122 참조)을 이용하여 이동 로봇(100) 주변의 소음 정보를 수집할 수 있다. 그리고 센신부(140)는 적외선 센서(IR 센서: infrared sensor), 초음파 센서(ultrasonic sensor)를 이용하여 다양한 적외선 또는 초음파 신호를 송출하거나 수신할 수 있으며, 상기 적외선 또는 초음파 신호의 감지 결과를 이용하여 이동 로봇(100)과 그 주변에 위치한 사물 사이의 이격 거리를 감지할 수도 있다.
뿐만 아니라, 상기 센신부(140)는 조도 센서(illumination sensor), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 더 포함하여 상기 이동 로봇(100) 주변의 다양한 환경 상태를 감지할 수도 있음은 물론이다. 한편, 본 명세서에 개시된 이동 로봇(100)은, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
한편 출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 음향 출력부(151), 진동부(152), 광 출력부(153) 중 적어도 하나를 포함할 수 있다.
한편 주행부(160)는 제어부(180)의 제어에 따라 이동 로봇(100)을 이동시킨다. 이를 위해 상기 주행부(160)는 이동 로봇(100)을 전후 또는 좌우로 이동시킬 수 있도록 하는 적어도 하나의 이동 수단을 포함할 수 있다. 여기서 상기 이동 수단은 회전 가능하며 지면과 마찰력을 발생시킬 수 있는 적어도 하나의 회전부를 포함할 수 있으며, 상기 회전부의 회전수를 제어하기 위한 적어도 하나의 모터(motor)를 포함할 수 있다. 여기서 제어부(180)는 각 회전부에 연결된 모터의 회전수를 서로 다르게 제어하여 이동 로봇(100)이 지향하는 방향을 전환(회전)하거나, 상기 이동 로봇(100)이 전진 또는 후진하도록 할 수 있다.
또한, 메모리(170)는 이동 로봇(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 로봇(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 로봇(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 로봇(100)의 기본적인 기능(예를 들어, 주행 기능, 홈 모니터링(home monitoring) 기능, 영상 저장 기능 등)을 위하여 출고 당시부터 이동 로봇(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 로봇(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 로봇(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 로봇(100)의 전반적인 동작을 제어한다. 제어부(180)는 상기 주행부(160)를 제어하여 이동 로봇(100)이 자율적으로 주행할 수 있도록 하고, 상기 센신부(140)에서 센싱되는 다양한 정보들을 기 설정된 다른 기기에 전송할 수 있다. 한편 제어부(180)는 이동 로봇(100)이, 연결된 다른 기기(예를 들어 사용자의 이동 단말기)를 통해 제어되는 경우, 상기 다른 기기를 통해 입력되는 제어 신호에 따라 이동 로봇(100)이 이동되도록 상기 주행부(160)를 제어할 수 있다. 또한 상기 다른 기기로부터 수신되는 제어 신호에 따라 영상의 저장이나 음향 정보의 출력 등, 이동 로봇(100)의 다양한 기능들을 제어할 수 있다.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 로봇(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원 공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 로봇(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원 공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 로봇(100)의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 로봇(100)의 동작, 제어, 또는 제어 방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다.
이하에서는, 위에서 살펴본 이동 로봇(100)을 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 1을 참조하여 보다 구체적으로 살펴본다.
먼저, 무선 통신부(110)에 대하여 살펴보면, 무선 통신부(110)의 이동 통신 모듈(111)은, 이동 통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(112)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 로봇(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(113)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(112)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선 인터넷 접속은 이동 통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동 통신망을 통해 무선 인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동 통신 모듈(112)의 일종으로 이해될 수도 있다.
근거리 통신 모듈(113)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(113)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 이동 로봇(100)과 무선 통신 시스템 사이, 이동 로봇(100)과 기 설정된 다른 기기 사이, 또는 이동 로봇(100)과 다른 기기(또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 상기 기 설정된 기기는 본 발명에 따른 이동 로봇(100)과 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트 와치(smart watch), 스마트 글래스(smart glass), HMD(head mounted display))가 될 수 있다. 근거리 통신 모듈(113)은, 이동 로봇(100) 주변에, 상기 이동 로봇(100)과 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 상기 감지된 웨어러블 디바이스가 본 발명에 따른 이동 로봇(100)과 통신하도록 인증된 디바이스인 경우, 이동 로봇(100)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(113)을 통해 웨어러블 디바이스로 전송할 수 있다. 따라서 웨어러블 디바이스의 사용자는, 이동 로봇(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다.
위치 정보 모듈(114)은 이동 로봇(100)의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 이동 로봇(100)은 GPS 모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 이동 로봇(100)의 위치를 획득할 수 있다. 다른 예로서, 이동 로봇(100)은 Wi-Fi 모듈을 활용하면, Wi-Fi 모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 이동 로봇(100)의 위치를 획득할 수 있다. 필요에 따라서, 위치 정보 모듈(114)은 치환 또는 부가적으로 이동 로봇(100)의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 적어도 하나의 기능을 수행할 수 있다. 위치 정보 모듈(114)은 이동 로봇(100)의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 이동 로봇(100)의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.
다음으로, 입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 이동 로봇(100)은 하나 또는 복수의 카메라(121)를 구비할 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 기 설정된 다른 기기(예를 들어 사용자의 이동 단말기)에 전송되거나 메모리(170)에 저장될 수 있다. 한편, 이동 로봇(100)에 구비되는 복수의 카메라(121)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(121)를 통하여, 이동 로봇(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상 정보가 입력될 수 있다. 여기서 상기 복수의 카메라(121)는 각각 서로 다른 방향을 지향하도록 형성될 수 있으며, 이러한 경우 상기 카메라(121)는 동시에 각각 서로 다른 방향의 영상 정보를 얻을 수 있다.
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동 로봇(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
한편, 센싱부(140)는 이동 로봇(100) 내 정보, 이동 로봇(100)을 둘러싼 주변 환경 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(180)는 이러한 센싱 신호에 기초하여, 이동 로봇(100)의 구동 또는 동작을 제어하거나, 이동 로봇(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 센싱부(140)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.
먼저, 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(141)는 위에서 살펴본 터치 스크린에 의해 감싸지는 이동 로봇(100)의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다.
초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(180)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.
한편, 입력부(120)의 구성으로 살펴본, 카메라(121)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.
한편 음향 출력부(151)는 무선 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. 이러한 음향 출력부(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
진동부(vibration module)(152)는 제어부(180)의 제어에 따라 그 세기 또는 진동 시간이 각각 다른 다양한 진동들을 발생시킬 수 있다. 예를 들어 제어부(180)는 애완동물이 상기 이동 로봇(100)을 건드리는 경우, 상기 애완동물의 흥미를 유발시키기 위해, 또는 상기 애완동물에게 접촉을 하지 말라는 경고를 하기 위해 진동을 발생시킬 수 있다.
광 출력부(153)는 이동 로봇(100)에 구비된 다양한 색상의 빛을 제어부(180)의 제어에 따라 출력한다. 예를 들어 광 출력부(153)는 LED(Light Emitted Diode) 또는 레이저 포인터를 구비하여, 다양한 색상의 빛을 출력하거나 저전력 레이저 빔의 가시광선을 출력할 수 있다. 이러한 다양한 색상의 빛 및 레이저 빔은 상기 이동 로봇(100)에서 발생한 다양한 이벤트를 사용자에게 알리기 위해 출력되거나 또는 애완동물의 흥미를 끌기 위해 출력될 수 있다. 또한 상기 레이저 포인터로부터 출력되는 레이저 빔은, 제어부(180)의 제어에 의한 이동 로봇(100)의 이동 또는 이동 로봇(100)이 지향하는 방향의 변경에 따라, 그 출력 방향이 변경될 수 있다.
메모리(170)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 제어 신호, 정지영상, 동영상 등)을 임시 저장할 수도 있다.
메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 로봇(100)은 인터넷(internet)상에서 상기 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.
한편 제어부(180)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 이동 로봇(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원 공급부(190)는 배터리를 포함하며, 배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 이동 로봇(100)의 바디에 착탈 가능하게 결합될 수 있다.
또한, 전원 공급부(190)는 연결포트를 구비할 수 있으며, 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스의 일예로서 구성될 수 있다.
다른 예로서, 전원 공급부(190)는 상기 연결포트를 이용하지 않고 무선방식으로 배터리를 충전하도록 이루어질 수 있다. 이 경우에, 전원공급부(190)는 외부의 무선 전력 전송장치로부터 자기 유도 현상에 기초한 유도 결합(Inductive Coupling) 방식이나 전자기적 공진 현상에 기초한 공진 결합(Magnetic Resonance Coupling) 방식 중 하나 이상을 이용하여 전력을 전달받을 수 있다.
한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
이하, 상기 도 1a에서 살펴본 본 발명의 일 실시예에 따른 이동 로봇(100)의 구조를 도 1b 및 1c를 참조하여 살펴보기로 한다.
도 1b 및 1c를 참조하면, 개시된 이동 로봇(100)은, 구 형태의 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고 다양한 구조에 적용될 수 있다. 이하의 설명은 이동 로봇의 특정 유형에 관련될 것이나, 이동 로봇의 특정유형에 관한 설명은 다른 형태의 이동 로봇에 일반적으로 적용될 수 있다.
여기에서, 바디는 이동 로봇(100)을 적어도 하나의 집합체로 보아 이를 지칭하는 개념으로 이해될 수 있다.
이동 로봇(100)은 외관을 이루는 케이스(예를 들면, 프레임, 하우징 등)를 포함한다. 도시된 바와 같이, 이동 로봇(100)은 회전 가능한 좌우측의 회전부(160a, 160b)와 회전되지 않는 중앙부(130)로 이루어질 수 있다.
한편 상기 회전부(160a, 160b)와 중앙부(130) 사이, 또는 상기 중앙부(130)의 내부 공간에는 각종 전자부품 및 다양한 센서들이 배치될 수 있다.
한편 상기 중앙부(130)의 전면, 즉 이동 로봇(100)의 전면에는 상기 이동 로봇(100)에 구비된 다양한 센서들이 노출되도록 형성될 수 있다. 즉, 도 1b에서 보이고 있는 바와 같이 중앙부(130)의 전면에는 상기 이동 로봇(100)이 지향하는 방향의 영상을 센싱할 수 있는 카메라(121)가 구비될 수 있으며, 상기 이동 로봇(100)의 전방에 위치한 주변 사물을 감지할 수 있는 적어도 하나의 센서(140a, 전방 센서)를 구비할 수 있다. 여기서 상기 전방 센서(140a)는 초음파 센서나 적외선 센서 또는 근접 센서를 적어도 하나 포함하여 구성될 수 있다. 한편 상기 중앙부(130)의 전면이 지향하는 방향으로 레이저 빔을 출력할 수 있도록 레이저 포인터(153b)가 상기 중앙부(130)의 전면에 구비될 수 있다.
한편 이외에도 다양한 전자부품들이 중앙부(130)의 전면에 배치될 수 있다. 예를 들어 도 1b에서 보이고 있는 것처럼, 다양한 색상의 빛을 출력할 수 있는 LED(153a), 적외선 신호를 출력할 수 있는 적외선 센서(140b), 또한 기 저장된 음향 신호를 출력할 수 있는 음향 출력부(151, 예를 들어 스피커), 및 이동 로봇(100) 주변의 음향 정보를 센싱할 수 있는 마이크(122) 등이 상기 중앙부(130)의 전면에 배치될 수 있다.
반면 중앙부(130)의 후면, 즉 이동 로봇(100)의 후면에는 도 1c에서 보이고 있는 바와 같이, 상기 이동 로봇(100)의 후방에 위치한 사물들을 감지할 수 있는 적어도 하나의 센서(140c, 후방 센서)가 구비될 수 있다. 그리고 상기 후방 센서(140c)는 초음파 센서나 적외선 센서 또는 근접 센서를 적어도 하나 포함하여 구성될 수 있다. 또한 다양한 저장 매체(예를 들어 카드 타입 메모리(170))를 삽입할 수 있는 인터페이스(131)가 형성될 수도 있다.
한편, 이동 로봇(100)은 단말기 바디 내부로 물이 스며들지 않도록 하는 방수부(미도시)를 구비할 수 있다. 예를 들어, 방수부는 양쪽 회전부(160a, 160b) 사이와 중앙부(130) 사이에 구비되어, 이들의 결합 시 내부 공간을 밀폐하는 방수부재를 포함할 수 있다.
다만, 이들 구성은 이러한 배치에 한정되는 것은 아니다. 이들 구성은 필요에 따라 제외 또는 대체되거나, 다른 면에 배치될 수 있다. 예를 들어, 중앙부(130)의 전면에는 음향 출력부(151), 마이크(122), LED(153a) 등이 구비되지 않을 수 있으며, 이러한 구성은 후면에 배치될 수도 있다. 한편 상기 인터페이스(131)는 이동 로봇(100)의 후면이 아니라, 이동 로봇(100)의 전면에 형성되거나 또는 제외될 수도 있다.
한편, 본 발명의 실시 예에 따른 이동 로봇(100)은 복수의 카메라를 포함하는 형태로 구현될 수도 있다. 여기서 상기 복수의 카메라는 각각 서로 다른 방향을 향하도록 형성될 수 있다. 즉, 상기 도 1b의 (a)에서 보이고 있는 바와 같이 이동 로봇(100)의 전면에 적어도 하나의 카메라(제1 카메라 : 121)가 구비될 수 있고, 상기 도 1b의 (b)에서 보이고 있는 이동 로봇(100)의 후면에 다른 카메라(제2 카메라 : 도시되지 않음)가 구비될 수 있다. 이러한 경우 이동 로봇(100)은 상기 제1 카메라(121) 및 제2 카메라로부터 센싱되는 영상 정보를 모두 획득할 수 있다. 그리고 상기 이동 로봇(100)이 다른 기기(예 : 이동 단말기)에 의해 제어되는 경우, 상기 다른 기기에 적어도 하나의 상기 획득된 영상 정보를 전송할 수 있다.
한편 이처럼 전면과 후면에 각각 카메라가 구비되는 경우, 본 발명의 실시 예에 따른 이동 로봇(100)은 중앙부(130)의 전면과 후면이 동일하게 형성될 수도 있다. 예를 들어 상기 중앙부(130)의 후면에도 상기 전면과 유사한 위치에 레이저 포인터 및 LED 등이 배치될 수 있다. 그러면 이동 로봇(100)의 전면과 후면은 동일한 구성을 가지게 되고, 이러한 경우 이동 로봇(100)이 주행하는 방향에 따라 상기 이동 로봇(100)의 전면 및 후면이 결정될 수 있다.
한편 상술한 바와 같이 본 발명의 실시 예에 따른 이동 로봇(100)은 다양한 다른 기기와 연결되어 상기 다른 기기의 제어에 따라 동작할 수 있다. 예를 들어 이동 로봇(100)은 사용자의 이동 단말기(200)에 연결될 수 있으며, 이러한 경우 상기 이동 단말기(200)는 상기 이동 로봇(100)의 이동을 제어할 수 있는 제어 장치의 역할을 수행할 수 있다.
도 2는 본 발명의 실시 예에 따른 이동 로봇을 제어하기 위한 인터페이스 및, 상기 이동 로봇이 사용자의 제어에 따라 이동하는 예를 도시한 개념도이다. 이하의 설명에서는, 사용자의 이동 단말기(200)이 이동 로봇(100)의 제어 장치로 사용되는 것을 예로 들어 설명하기로 한다. 이에 따라 상기 이동 로봇(100)의 제어와 관련된 인터페이스 화면이 상기 이동 단말기(200)의 터치 스크린(210) 상에 표시되는 것을 예로 들어 설명하기로 한다.
우선 도 2의 (a)를 참조하여 살펴보면, 도 2의 (a)는 이동 로봇(100) 및 상기 이동 로봇(100)과 연결된 이동 단말기(200)의 터치 스크린(210) 화면의 예를 보이고 있는 것이다. 이처럼 상기 이동 로봇(100)이 이동 단말기(200)와 연결되는 경우, 이동 단말기(200)의 제어부는, 상기 이동 로봇(100)을 제어하기 위한 사용자 인터페이스 화면(220)을 이동 단말기(200)의 터치 스크린(210) 상에 표시할 수 있다.
예를 들어 이러한 사용자 인터페이스 화면(220)은, 도 2의 (a)에서 보이고 있는 것과 같이 상기 이동 로봇(100)의 전면에서 감지되는 영상 정보를 포함할 수 있다. 즉, 이동 단말기(200)는 상기 이동 로봇(100)의 전면에 구비된 카메라로부터 센싱된 영상을 수신하고, 수신된 영상을 터치 스크린(210) 상에 출력할 수 있다. 그리고 상기 수신된 영상이 출력되고 있는 터치 스크린(210) 상에, 상기 이동 로봇(100)의 이동을 제어하기 위한 적어도 하나의 그래픽 객체를 표시할 수 있다.
여기서 상기 이동 로봇(100)의 이동을 제어하기 위한 그래픽 객체들은, 상기 이동 로봇(100)의 전진 또는 후진을 제어할 수 있는 주행 제어 객체(250)와 상기 이동 로봇(100)이 지향하는 방향을 제어하기 위한 방향 제어 객체(260)를 포함하여 구성될 수 있다. 여기서 상기 주행 제어 객체(250)는 도 2의 (a)에서 보이고 이는 것처럼 서로 반대인 두 방향 중 어느 하나를 사용자로부터 입력받도록 형성될 수 있으며, 상기 방향 제어 객체(260)는 360도 전방향 중 어느 하나의 방향을 사용자로부터 입력받도록 형성될 수 있다.
이동 단말기(200)의 제어부는, 상기 주행 제어 객체(250) 및 방향 제어 객체(260) 중 적어도 하나가 표시되는 터치 스크린(210) 상의 영역에, 인가되는 터치 입력 또는 터치 앤드 드래그 입력을 감지할 수 있다. 그리고 상기 터치 입력 또는 상기 드래그 입력이 인가되면, 상기 터치 입력이 인가된 지점 또는 상기 드래그 입력이 인가된 궤적에 따라 이동 로봇(100)의 지향 방향에 대한 방향 제어 신호 또는 상기 이동 로봇(100)의 전진 또는 후진을 제어하기 위한 주행 제어 신호를 전송할 수 있다. 한편 상기 이동 단말기(200)의 제어부(180)는 상기 주행 제어 객체(250)에 대해 터치 입력이 인가된 위치나 터치 입력이 인가된 시간, 또는 상기 주행 제어 객체(250)에 대해 드래그 입력이 인가된 길이에 따라 상기 이동 로봇(100)의 이동 속도를 결정하고, 결정된 이동 속도에 대한 정보를 함께 전송할 수도 있음은 물론이다. 이러한 경우 이동 단말기(200)의 제어부는 상기 이동 로봇(100)의 이동과 관련된 정보를 터치 스크린(210) 상에 더 표시할 수 있다. 여기서 상기 이동 로봇(100)의 이동과 관련된 정보는, 이동 로봇(100)의 현재 이동 속도, 이동 시간, 이동 거리일 수 있다. 또한 상기 이동 로봇(100)이 지향하는 방향이 전환(이동 로봇(100)의 회전)되는 경우, 기준 방향, 즉 현재 이동 로봇(100)이 지향하는 방향을 기준으로 측정된 상기 이동 로봇(100)의 회전각에 대한 정보일 수도 있다. 또는 상기 이동 로봇(100)이 이동과 관련된 정보는 상기 이동 로봇(100)이 360도 이상 회전하는 경우, 회전 방향과 회전 횟수에 대한 정보일 수도 있다.
한편 상기 이동 로봇(100)의 제어부(180)는 연결된 이동 단말기(200)로부터 제어 신호가 수신되는 경우, 수신된 제어 신호에 이동 로봇(100)의 각종 기능을 제어할 수 있다. 따라서 이동 로봇(100)의 지향 방향에 대한 방향 제어 신호 또는 이동 로봇(100)의 전진 또는 후진 및 그 이동 속도에 대한 주행 제어 신호가 수신되면, 제어부(180)는 수신된 제어 신호들에 따라 이동 로봇(100)이 지향하는 방향을 전환하고, 전환된 방향에 따라 상기 이동 로봇(100)이 이동되도록 할 수 있다.
이에 따라 도 2의 (a)에서 보이고 있는 바와 같이, 사용자가 이동 단말기(200)에 표시된 방향 제어 객체(260)에서 전면 방향에 대응되는 일 지점(262)에 인가된 터치 입력과 함께, 주행 제어 객체(250)에서 ‘전진’에 대응되는 일 영역(252)에 인가된 터치 입력을 인가하면, 이동 로봇(100)은 도 2의 (b)에서 보이고 있는 바와 같이, 현재 이동 로봇(100)이 지향하는 방향, 즉 전면 방향으로 이동할 수 있다.
한편, 상기 도 2의 (a)에서 보이고 있는 바와 같은 제어 인터페이스 화면은, 이동 단말기(200)를 사용자가 파지하고 있는 상태에 따라 변경될 수 있다. 즉, 사용자가 이동 단말기(200)를 양손으로 파지함에 따라, 화상 정보가 표시되는 디스플레이 영역이 횡 방향의 길이가 종 방향의 길이보다 더 긴 가로 모드(landscape mode)로 이동 단말기(200)가 동작하는 경우라면, 이동 단말기(200)의 제어부는 도 3의 (a)에서 보이고 있는 바와 같이, 양손으로 이동 로봇(100)을 제어할 수 있는 제어 인터페이스 화면을 터치 스크린(210) 상에 표시할 수 있다. 이에 따라 사용자는 도 3의 (a)에서 보이고 있는 바와 같이, 어느 한 손의 손가락으로는 이동 로봇(100)이 지향하는 방향을, 다른 손의 손가락으로는 이동 로봇(100)의 이동(전진 또는 후진)을 제어할 수 있다.
반면, 사용자가 이동 단말기(200)를 한 손으로 파지함에 따라, 디스플레이 영역이 횡 방향의 길이가 종 방향의 길이보다 더 짧은 세로 모드(portrait mode)로 이동 단말기(200)가 동작하는 경우라면, 이동 단말기(200)의 제어부는 도 3의 (b)에서 보이고 있는 바와 같이, 한손으로 이동 로봇(100)이 지향하는 방향 및 이동(전진 또는 후진)을 모두 제어할 수 있는 제어 인터페이스 화면을 터치 스크린(210) 상에 표시할 수 있다.
한편 상기 제어 인터페이스 화면(220)은 이동 로봇(100)의 주변 환경을 센싱한 결과를 반영하여 다양하게 표시될 수 있다. 예를 들어 상기 제어 인터페이스 화면(220)은 이동 로봇(100) 주변의 온도 및 습도에 따라 서로 다르게 표시될 수도 있다.
도 4는 본 발명의 실시 예에 따른 이동 로봇(100) 주변 환경에 대한 정보가, 상기 제어 인터페이스를 통해 더 표시되는 예를 도시한 개념도이다.
우선 도 4의 (a) 및 (b)를 참조하여 살펴보면, 도 4의 (a) 및 (b)는 이동 로봇(100) 주변의 온도에 따라 이동 단말기(200)에 서로 다르게 표시되는 제어 인터페이스 화면(220)의 예들을 도시한 것이다. 예를 들어 이동 로봇(100)은 카메라(121)에서 센싱된 영상 정보와 함께 주변의 온도를 센싱한 정보를 이동 단말기(200)로 전송할 수 있다. 여기서 상기 이동 로봇(100)으로부터 상기 이동 단말기(200)에 전송되는 정보는, 상기 주변 온도를 센싱한 정보 뿐만 아니라, 상기 이동 단말기(100)에서 상기 이동 로봇(100) 주변의 온도를 표시하기 위한 다양한 다른 정보들, 예를 들어 그래픽 객체들 또는 다양한 필터링 효과들에 대한 정보들을 더 포함할 수 있다.
그러면 이동 단말기(200)의 제어부는, 상기 이동 로봇(100)으로부터 수신된 영상 정보를, 상기 수신된 온도 정보에 따라 서로 다른 필터링 효과를 부가하여 터치 스크린(210) 상에 표시할 수 있다.
즉, 이동 로봇(100) 주변의 온도가 기 설정된 수준 이상인 경우, 이동 단말기(200)의 제어부는 왜곡(distort) 효과 필터 등을 이용하여 뜨거운 온도에 의해 아지랑이가 피어오르는 듯한 영상 효과를 부여할 수 있다. 이에 따라 도 4의 (a)에서 보이고 있는 바와 같이, 이동 로봇(100) 주변의 사물들로부터 아지랑이가 피어오르는 듯한 영상을 포함하는 제어 인터페이스 화면이 이동 단말기(200)의 터치 스크린(210) 상에 표시될 수 있다.
반면, 이동 로봇(100) 주변의 온도가 기 설정된 수준 미만인 경우, 이동 단말기(200)의 제어부는 이동 로봇(100)에서 센싱된 영상 정보에 다른 필터링 효과를 부여할 수 있다. 즉, 이동 단말기(200)의 제어부는 도 4의 (b)에서 보이고 있는 바와 같이, 이동 로봇(100)에서 수신된 영상 정보와 함께 서리 모양의 그래픽 객체들을 터치 스크린(210) 상에 더 표시할 수 있다. 이에 따라 도 4의 (a) 및 (b)에서 보이고 있는 바와 같이, 이동 단말기(200)의 제어부는 제어 인터페이스 화면을 통해 사용자가 이동 로봇(100) 주변의 온도를 직관적으로 인지하도록 할 수 있다.
뿐만 아니라, 이동 단말기(200)의 제어부는, 이동 로봇(100) 주변의 습도를 감지한 결과를 반영하여 또 다른 제어 인터페이스 화면을 표시할 수도 있다. 예를 들어 이동 로봇(100) 주변의 습도가 기 설정된 수준 이상인 경우, 이동 단말기(200)의 제어부는, 도 4의 (b)에서 보이고 있는 바와 같이 이동 로봇(100)에서 수신된 영상 정보와 함께 물방을 모양의 그래픽 객체들을 더 표시함으로써, 현재 이동 로봇(100) 주변의 습도가 일정 수준 이상임을 표시할 수도 있다.
이하의 설명에서는 위와 같이 구성된 이동 로봇(100)에서 구현될 수 있는 제어 방법과 관련된 다양한 실시 예들에 대해, 첨부된 도면을 참조하여 살펴보기로 한다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.
도 5는 본 발명의 실시 예에 따른 이동 로봇(100)이, 자신을 터치한 대상을 식별한 결과에 따라 다양한 동작 모드로 전환되는 동작 과정을 도시한 흐름도이다.
도 5를 참조하여 살펴보면, 본 발명의 실시 예에 따른 이동 로봇(100)의 제어부(180)는, 이동 로봇(100)에 인가되는 터치가 있는 경우 이를 감지하고, 상기 터치가 인가된 방향을 감지할 수 있다(S500). 여기서 상기 터치는, 이동 로봇(100)의 바디에서 감지되는 일정 수준 이상의 세기를 가지는 두드림일 수 있다. 상기 S500 단계에서 터치가 감지되는 경우, 제어부(180)는 현재 이동 로봇(100)에 관심을 가지는 사용자 또는 애완동물이 있는 것으로 판단할 수 있다.
한편 상기 S500 단계에서 제어부(180)는, 센싱부(140)에 포함된 근접 센서(141) 또는 가속도 센서(142)를 이용하여 이동 로봇(100)의 바디에서 감지되는 두드림, 즉 터치를 감지할 수 있다. 그리고 상기 터치에 따라 이동 로봇(100)에 힘이 인가되는 방향에 근거하여, 상기 두드림, 즉 터치가 인가된 방향을 감지할 수 있다. 이를 위해 제어부(180)는 가속도 센서 등 다양한 센서들의 감지값을 이용할 수 있다.
한편, 상기 S500 단계에서 터치 및 상기 터치가 인가된 방향이 감지되면, 제어부(180)는 상기 터치가 감지된 방향의 영상 정보를 획득할 수 있다(S502). 예를 들어 상기 터치가 인가된 방향이 이동 로봇(100)의 전면인 경우라면 제어부(180)는 상기 이동 로봇(100)에 구비된 카메라(121)에서 센싱된 영상을, 상기 이동 로봇(100)에 터치를 인가한 대상의 영상 정보로 획득할 수 있다.
이와 달리 상기 터치가 인가된 방향이 이동 로봇(100)의 전면이 아닌 경우라면 제어부(180)는 제자리 회전을 통해 상기 터치가 인가된 방향으로 상기 이동 로봇(100)이 지향하는 방향을 전환할 수 있다. 그리고 상기 카메라(121)로부터 센싱된 영상을 상기 이동 로봇(100)에 터치를 인가한 대상의 영상 정보로 획득할 수 있다. 여기서 상기 이동 로봇(100)의 제자리 회전은, 상기 이동 로봇(100)이 도 1b 및 도 1c에서 보이고 있는 바와 같이 중앙부(130)의 양 측면에 구비된 회전부들(160a, 160b)에 의해 이동이 이루어지는 경우, 상기 회전부들(160a, 160b)이 각각 서로 다른 방향으로 회전함으로써 이루어질 수 있다.
한편, 만약 상기 이동 로봇(100)이 복수의 카메라를 구비하고 있는 경우라면, 제어부(180)는 이동 로봇(100)을 회전시킬 필요 없이, 터치가 인가된 방향 또는 상기 터치가 인가된 방향에 해당되는 화각을 가지는 적어도 하나의 카메라로부터 센싱되는 영상을 상기 이동 로봇(100)에 터치를 인가한 대상의 영상 정보로 획득할 수 있다. 즉, 상기 이동 로봇(100)이 후면 카메라를 구비하고 있는 경우에 상기 이동 로봇(100)의 후면에 터치가 인가되면, 제어부(180)는 상기 후면 카메라를 통해 센싱되는 영상을 상기 이동 로봇(100)에 터치를 인가한 대상의 영상 정보로 획득할 수 있다.
한편 상기 S502 단계에서, 제어부(180)는 센싱된 영상으로부터 이동 로봇(100)에 가장 가까운 피사체의 영상을 상기 이동 로봇(100)을 터치한 대상의 영상 정보로 획득할 수 있다. 이는 이동 로봇(100)에 가까이 위치한 대상일수록, 상기 이동 로봇(100)을 터치한 대상이거나 또는 상기 이동 로봇(100)에 관심을 가지는 대상일 수 있기 때문이다.
예를 들어 상기 센싱된 영상을 구성하는 각각의 픽셀은, 각각 피사체까지의 거리를 포함하는 거리값을 포함할 수 있다. 그리고 제어부(180)는 상기 각 픽셀에 포함된 거리값에 근거하여, 각 피사체와 이동 로봇(100) 사이의 이격 거리를 추출할 수 있다. 그리고 상기 추출된 이격 거리에 따라 이동 로봇(100)에 가장 가까운 위치에 피사체를 식별 및, 식별된 피사체의 영상을 영상 정보로 획득할 수 있다. 예를 들어 이러한 거리값은 이동 로봇(100)에 구비된 적외선 센서, 초음파 센서 또는 레이저 센서 등의 센싱 결과 획득될 수 있다.
그리고 이동 로봇(100)의 제어부(180)는, 상기 S502 단계에서 획득된 영상 정보에 근거하여 이동 로봇(100)을 터치한 대상을 식별 및, 식별된 대상에 따라 서로 다른 기능을 수행할 수 있는 동작 모드로 전환할 수 있다(S054). 그리고 제어부(180)는 상기 S504 단계에서 전환된 동작 모드에 포함된 적어도 하나의 기능을 수행하도록 상기 이동 로봇(100)을 제어할 수 있다(S506).
여기서 상기 S502 단계에서 획득되는 영상 정보는, 상기 이동 로봇(100)을 터치한 대상의 신체 일부분의 영상일 수 있다. 여기서 상기 이동 로봇(100)을 터치한 대상은 사용자이거나 또는 상기 이동 로봇(100)에 관심을 보이는 애완동물일 수 있다. 이에 따라 상기 S502 단계에서 획득되는 영상 정보는, 상기 사용자의 신체 일부분의 영상 또는 애완동물의 신체 일부분의 영상을 포함할 수 있다.
한편 상기 획득된 영상 정보에는, 복수의 사용자 또는 애완동물, 또는 상기 사용자 또는 애완동물의 영상을 모두 포함할 수 있다.
그리고 애완동물이 상기 이동 로봇(100)을 터치하는 경우, 상기 S502 단계에서 획득되는 영상 정보는, 상기 이동 로봇(100)을 건드리는 애완동물의 신체 일부분의 영상일 수 있다. 따라서 제어부(180)는 상기 이동 로봇(100)을 터치한 대상이 애완동물인지 사람인지 여부를 먼저 구분할 수 있다. 그리고 구분 결과 상기 획득된 영상이 애완동물의 신체 일부분의 영상인 경우라면, 제어부(180)는 상기 S504 단계에서 애완동물과 관련된 기능들이 포함된 펫 케어 동작 모드로 이동 로봇(100)의 동작 모드를 전환할 수 있다.
반면 사람이 이동 로봇(100)을 터치하는 경우라면, 상기 S502 단계에서 획득되는 영상 정보는, 상기 이동 로봇(100)을 터치한 사람의 신체 일부분의 영상일 수 있다. 그리고 상기 신체 일부분의 영상은, 상기 이동 로봇(100)을 터치한 사용자의 손을 포함하는 팔의 적어도 일부 또는 발을 포함하는 다리의 적어도 일부의 영상일 수 있다. 이는 사용자가 이동 로봇(100)을 터치하는 것이 가능하려면, 이동 로봇(100)이 사용자가 신체 일부(예를 들어 손 또는 발)를 길게 뻗었을 때 사용자의 손 또는 발에 닿을 수 있는 위치에 위치하여야 하기 때문이다.
한편 이러한 경우 상기 이동 로봇(100)과 사용자 사이의 거리는, 상기 이동 로봇(100)의 카메라(121)가 상기 사용자의 안면 영상을 획득할 수 있는 최소 거리를 만족하지 못하는 거리일 수 있다. 일반적으로 그 크기가 소형화되어 구현되는 이동 로봇(100)의 특성상, 상기 이동 로봇(100)에 구비되는 카메라(121)의 위치는 상기 이동 로봇(100)의 높이 이내의 높이에 설치될 수밖에 없다. 따라서 상기 이동 로봇(100)이 사용자의 안면 영상을 획득하기 위해서는, 상기 이동 로봇(100)의 카메라(121) 화각이 사용자의 안면을 커버할 수 있는 최소한의 거리가 확보되어야 한다.
도 6은 이처럼 본 발명의 실시 예에 따른 이동 로봇(100)이 사람에 의해 터치된 경우, 상기 이동 로봇(100)의 카메라(121)에 센싱된 상기 사람의 신체 일부분 영상의 예를 도시한 개념도이다.
우선 도 6의 (a)을 참조하여 살펴보면, 도 6의 (a)는 이동 로봇(100)의 카메라(121)가 상기 사용자의 안면 영상을 획득할 수 있는 최소 거리의 예를 보이고 있는 것이다. 예를 들어 이동 로봇(100)으로부터 d2(612) 만큼 이격된 거리에 있는 제2 사용자(612)의 경우, 도 6의 (a)에서 보이고 있는 바와 같이, 이동 로봇(100)의 카메라(121)의 화각은 상기 제2 사용자(610)의 안면이 위치한 높이의 영상을 센싱할 수 있다. 이에 따라 이동 로봇(100)은 센싱된 제2 사용자(610)의 안면 영상을 이용하여 제2 사용자(610)를 식별할 수 있다.
반면, 이동 로봇(100)으로부터 d1(602) 만큼 이격된 거리에 있는 제1 사용자(600)의 경우, 도 6의 (a)에서 보이고 있는 바와 같이, 제1 사용자(600)의 안면은 상기 이동 로봇(100)의 카메라(121) 화각을 벗어나는 높이에 있다. 이에 따라 이동 로봇(100)은 도 6의 (a)에서 보이고 있는 바와 같이 제1 사용자(600)의 안면 영상을 획득할 수 없다.
한편, 도 6의 (b)는 이동 로봇(100)과 사용자 사이의 거리가 d1(602)인 경우, 즉 상기 제1 사용자(600)의 위치에 있는 경우 상기 이동 로봇(100)에 센싱된 영상의 예를 보이고 있는 것이다. 도 6의 (b)에서 보이고 있는 바와 같이 이동 로봇(100)과 사용자 사이의 이격 거리가, 상기 이동 로봇(100)이 사용자의 안면 영상을 획득할 수 있는 최소한의 거리를 만족하지 못하는 경우, 상기 S504 단계에서 획득된 영상 정보는, 사용자의 안면이 아닌, 신체 일부분의 영상 정보일 수 있다.
이러한 경우 상기 도 6의 (b)에서 보이고 있는 바와 같이, 획득되는 영상은 상기 이동 로봇(100)을 터치한 사용자의 손을 포함하는 팔의 적어도 일부, 또는 상기 이동 로봇(100)을 터치한 사용자의 발을 포함하는 다리의 적어도 일부의 영상일 수 있다. 또한 사용자가 의자에 앉아있거나 또는 상기 이동 로봇(100)을 터치하는 사용자의 신체 일부분(손 또는 발)에 의해 사용자의 안면이 가려짐에 따라 사용자의 안면 영상이 획득되지 않는 경우 역시, 상기 이동 로봇(100)을 터치한 사용자의 손 또는 발을 포함하는 신체 일부분의 영상 정보가 획득될 수 있음은 물론이다.
본 발명의 실시 예에 따른 이동 로봇(100)은, 이처럼 사용자의 안면이 포함되지 않는 영상 정보를 획득한 상태에서 상기 이동 로봇(100)을 터치한 사용자를 식별할 수 있도록, 상기 영상 정보에 포함된 신체 일부분의 영상을 이용할 수 있다. 예를 들어 제어부(180)는 획득된 영상에 포함된 사용자 신체의 특징점을 이용하여 상기 이동 로봇을 터치한 사용자를 식별할 수 있다. 여기서 상기 특징점은, 손이나 발의 크기. 또는 아래팔의 길이(손목에서 팔목까지의 길이)나 두께, 종아리의 길이(무릎에서 발목까지의 길이)나 두께 등이 될 수 있다. 이는 상기 손이나 발의 크기, 아래팔이나 종아리의 길이나 두께 등은 사용자의 연령이나 성별 등에 따라 각각 서로 다를 수 있기 때문이다. 그리고 하나의 가정을 구성하는 가족 구성원(예 : 아빠, 엄마, 아이, 아기로 구성되는 가족의 경우)은 그 성별 및 연령이 각각 다를 수 있기 때문이다.
또는 상기 특징점은 손(또는 손가락)이나 발(또는 발가락)의 모양 또는 상기 손 또는 발에 있는 점의 위치나 개수 등이 될 수 있다. 이러한 경우 상기 손이나 발의 크기나, 팔 또는 다리의 길이나 두께를 이용하여 1차 식별을 수행하고, 상기 손이나 발의 모양으로 2차 식별을 수행하는 경우 보다 정확하게 상기 이동 단말기를 터치한 사용자를 식별할 수도 있음은 물론이다. 이에 따라 본 발명은, 이동 로봇(100)을 터치한 사용자가, 사용자의 안면 영상을 획득하기 어려운 근접 거리에 있거나, 또는 가려짐 등으로 인해 상기 이동 로봇(100)을 터치한 사용자의 안면 영상을 획득하기 어려운 경우에도, 사용자의 안면 영상을 획득할 수 있는 거리를 확보하기 위해 이동하거나 또는 카메라(121)가 지향하는 방향을 변경하는 등의 부가적인 동작 없이도, 상기 이동 로봇(100)이 바로 상기 이동 로봇(100)을 터치한 사용자에 따른 동작 모드로 구동될 수 있도록 할 수 있다.
이처럼 본 발명의 실시 예에 따른 이동 로봇(100)이, 신체 일부분을 센싱한 영상에 근거하여 상기 이동 로봇(100)을 터치한 대상을 식별 및 식별된 결과에 따라 서로 다른 기능을 수행하는 동작 모드로 전환하는 상기 S504 단계의 동작 과정을 하기 도 7을 참조하여 보다 자세하게 살펴보기로 한다.
도 7은 상술한 바와 같이, 본 발명의 실시 예에 따른 이동 로봇(100)이, 이동 로봇(100)을 터치한 대상을 식별한 결과에 따른 동작 모드로 전환되는 동작 과정을 보다 자세히 도시한 흐름도이다.
도 7을 참조하여 살펴보면, 본 발명의 실시 예에 따른 이동 로봇(100)의 제어부(180)는 상기 획득된 영상 정보에 근거하여, 상기 이동 로봇(100)은 먼저 상기 이동 로봇(100)을 터치한 대상이 사람인지 애완동물인지 여부를 식별할 수 있다. 이를 위해 제어부(180)는 메모리(170)에 기 저장된 인체 모델링 데이터를 이용할 수 있다. 그리고 상기 획득된 영상 정보의 형상이, 상기 인체 모델링 데이터에 따른 사람의 손의 형상(예 : 복수의 손가락이 있는지 여부) 또는 발의 형상(예 : 발목 두께와 발 크기의 비율 등)에 매칭되는지 여부를 식별할 수 있다. 또는 제어부(180)는 상기 획득된 영상 정보의 형상에 포함된 털이 있는지 여부 또는 발톱이나 손톱의 형상에 근거하여 상기 획득된 영상 정보의 형상이 사람의 신체 일부인지 또는 사람이 아닌 애완동물의 신체 일부인지 여부를 구분할 수 있다.
한편, 상기 구분 결과, 제어부(180)는 상기 이동 로봇(100)을 터치한 대상이 애완동물인지 또는 사람인지 여부에 따라 서로 다른 기능을 수행하는 동작 모드로 동작 모드를 전환할 수 있다(S700). 그리고 상기 S700 단계의 구분 결과, 이동 로봇(100)을 터치한 대상이 사람인 경우라면, 제어부(180)는 상기 이동 로봇(100)을 터치한 사람, 즉 사용자를 식별할 수 있다(S702).
이러한 경우 제어부(180)는 상기 도 5의 S502 단계에서 획득된 영상 정보로부터 추출되는 특징점에 근거하여, 상기 영상 정보에 대응되는 사용자를 식별할 수 있다. 예를 들어 제어부(180)는 상기 영상 정보에 포함된 손의 크기 또는 발의 크기를 측정할 수 있다.
그리고 제어부(180)는 상기 추정된 손 또는 발의 크기에 따라 상기 이동 로봇(100)을 터치한 사용자를 4 가지(최대, 대, 중, 소)로 구분할 수 있다. 예를 들어 상기 손 또는 발의 크기가 상기 ‘최대’범위, 즉 기 설정된 제1 크기 이상인 경우라면, 제어부(180)는 상기 이동 로봇(100)을 터치한 사용자를, 일반적으로 손 또는 발의 크기가 가장 큰 ‘성인 남자’로 구분할 수 있다. 또는 상기 손 또는 발의 크기가 상기 ‘대’범위에 해당되는 경우라면, 즉 상기 제1 크기 미만, 기 설정된 제2 크기 이상인 경우라면 제어부(180)는 상기 이동 로봇(100)을 터치한 사용자를 ‘성인 여자’로 구분할 수 있다.
또한 상기 손 또는 발의 크기가 상기 ‘중’또는 ‘소’ 범위에 해당되는 경우라면, 즉, 상기 제2 크기 미만이고 기 설정된 제3 크기 이상인 경우 또는, 상기 제3 크기 미만인 경우라면 제어부(180)는 상기 이동 로봇(100)을 터치한 사용자를 각각 ‘아동’ 또는 ‘유아’로 구분할 수 있다.
한편 이처럼 성인 남자나 여자, 아동, 유아로 구분하는 것 외에, 본 발명의 실시 예에 따른 이동 로봇(100)은 상기 측정된 손 또는 발의 크기와, 기 저장된 인체 모델링 데이터 및, 연령 및 성별에 따른 인체 각 부분의 평균 사이즈에 대한 정보를 포함하는 데이터에 근거하여 상기 획득된 영상 정보에 대응되는 사용자의 연령 또는 성별을 추정할 수 있다.
여기서 상기 ‘연령 및 성별에 따른 인체 각 부분의 평균 사이즈에 대한 정보’는 무선 네트워크를 통해 연결 가능한 적어도 하나의 기 설정된 서버 등을 통해 획득한 빅 데이터(big data)일 수 있다.
그리고 제어부(180)는, 상기 추정 결과 및 메모리(170)에 기 등록된 사용자 정보에 따라 상기 영상 정보에 대응되는 사용자를 식별할 수 있다. 예를 들어 상기 메모리(170)에 기 등록된 사용자 정보는, 상기 이동 로봇(100)을 사용하는 사용자(예를 들어 가족 구성원)들의 연령 및 성별을 포함하는 정보일 수 있다. 이에 따라 제어부(180)는 상기 추정 결과에 매칭되는 사용자를 검출할 수 있으며, 검출된 사용자가 상기 이동 로봇(100)을 터치한 사용자라고 식별할 수도 있다.
한편 이동 로봇(100)은, 상기 손 또는 발의 크기를 산출함에 있어, 이동 로봇(100)과 상기 이동 로봇(100)을 터치한 사용자 사이의 이격 거리를 이용할 수도 있다. 즉, 이동 로봇(100)은 상기 카메라(121)에서 센싱된 영상의 각 픽셀에 포함된 거리 성분에 근거하여 상기 영상 정보에 대응되는 피사체까지의 거리를 추정할 수 있다. 그리고 추정된 거리에 따라 상기 획득된 영상 정보에 대응되는 사용자와 이동 로봇(100) 사이의 이격 거리를 추정할 수 있다. 그리고 이동 로봇(100)은 상기 추정된 거리에 근거하여 상기 측정된 손 또는 발의 크기를 산출할 수 있다.
한편, 본 발명의 실시 예에 따른 이동 로봇(100)은, 상기 이동 로봇(100)을 터치한 사용자의 신체 일부분의 크기를 측정하기 위하여, 상기 획득된 영상 정보에 대응되는 사용자의 신체 일부분의 3차원 입체 정보를 이용할 수도 있다. 예를 들어 상기 획득된 영상 정보에 대응되는 사용자의 신체 일부분이 ‘발’인 경우, 이동 로봇(100)은 기 저장된 인체의 발 모델링 데이터에 근거하여 상기 획득된 영상 정보가, ‘발’임을 식별할 수 있다.
또한 제어부(180)는 상기 획득된 영상 정보를 구성하는 각 픽셀의 거리 성분에 근거하여, 상기 ‘발’영상의 각 부분 중 이동 로봇(100)과 보다 가까이 있는 부분과 보다 멀리 있는 부분을 검출할 수 있다. 그리고 이러한 거리 성분 및 상기 인체의 발 모델링 데이터에 근거하여 상기 획득된 영상 정보, 즉 사용자의 ‘발’영상에 대응되는 3차원 영상 정보를 획득할 수 있다. 그리고 획득된 3차원 입체 정보에 근거하여 사용자의 발의 크기를 측정할 수도 있다.
한편 상술한 설명에서는, 획득된 영상 정보가 사용자의 ‘발’영상 또는 손의 영상임을 예로 들어 설명하였으나, 본 발명이 이에 한정되는 것이 아님은 물론이다. 예를 들어 상기 획득된 영상 정보가 ‘발’인 경우에, 획득된 거리 성분에 따라 보정 및 상기 ‘발’에 대응되는 3차원 입체 정보에 근거하여 그 크기를 측정하는 것과 유사하게, 상기 획득된 영상 정보에 포함된 아래팔이나 종아리의 길이 또는 두께를 측정할 수 있음은 물론이다. 그리고 측정된 결과와 연령 및 성별에 따른 인체 각 부분의 평균 사이즈에 대한 정보를 포함하는 데이터에 근거하여 상기 획득된 영상 정보에 대응되는 사용자를 식별할 수 있다.
그리고 상기 S702 단계에서 상기 획득된 영상 정보에 대응되는 사용자가 식별되면, 제어부(180)는 식별된 사용자에 따라 각각 서로 다른 기능을 수행하는 동작 모드로 전환할 수 있다(S704).
여기서 상기 각각 서로 다른 기능을 수행하는 동작 모드는, 식별된 사용자의 성별 또는 연령에 따라 서로 다른 기능을 수행하는 동작 모드일 수 있다. 예를 들어 제어부(180)는 상기 S704 단계의 식별 결과, 상기 이동 로봇(100)을 터치한 사람, 즉 사용자를 식별한 결과가 만 6세 미만의 유아인 경우, 제어부(180)는 상기 유아의 움직임 및 행동에 따라 상기 유아를 보호할 수 있는 다양한 기능 들을 수행할 수 있는 동작 모드(이하 유아 보호 모드)로 상기 이동 로봇(100)의 동작 모드를 전환할 수 있다. 반면, 상기 사용자를 식별한 결과가 만 13세 미만의 아동인 경우, 상기 아동을 돌봐줄 수 있는 기능들을 수행할 수 있는 동작 모드(이하 아이 돌보미 모드)로 상기 이동 로봇(100)의 동작 모드를 전환할 수 있다. 또한 상기 사용자를 식별한 결과가 만 20세 이상의 성인인 경우, 멀티미디어 기능 및 전화 기능과 무전기 기능 등의 이동 로봇(100)에 수행가능한 일반적인 기능들을 수행할 수 있는 동작 모드(이하 기본 동작 모드)로 상기 이동 로봇(100)의 동작 모드를 전환할 수 있다.
이하 상기 이동 로봇(100)을 터치한 대상이 사람인 경우에, 상기 이동 로봇(100)을 터치한 사람, 즉 사용자를 식별 및, 식별된 사용자에 따른 전환된 각각의 동작 모드에서 수행되는 다양한 기능들의 예를 하기 도 8을 참조하여 보다 자세하게 살펴보기로 한다.
한편 상기 S700 단계의 상기 구분 결과, 이동 로봇(100)을 터치한 대상이 애완동물인 경우라면, 제어부(180)는 복수의 펫 케어(Pet care) 기능을 포함하는 펫 케어 동작 모드로 전환할 수 있다.
여기서 펫 케어 기능은, 예를 들어 애완동물의 특성에 따라 애완동물의 흥미를 끌 수 있는 동작들과 관련된 기능, 애완동물에게 기 설정된 사운드 정보 또는 이동 단말기(200)를 통해 입력되는 사용자의 목소리를 들려주는 기능, 또는 애완동물의 영상을 획득하는 기능 및 애완동물의 사료를 배출하는 기능 등 상기 애완동물과 관련된 다양한 기능들을 의미하는 것일 수 있다.
한편, 본 발명의 실시 예에 따른 이동 로봇(100)은, 이동 로봇(100)을 터치한 대상이 애완동물인 경우, 상기 애완동물을 식별하고 식별된 애완동물에 따라 서로 다른 펫 케어 기능을 수행하는 동작 모드로 전환될 수 있다. 이를 위해 본 발명은, 상기 S700 단계의 구분 결과 이동 로봇(100)을 터치한 대상이 애완동물인 경우라면, 상기 도 5의 S502 단계에서 획득된 영상 정보에 대응되는 애완동물을 식별할 수 있다(S706).
예를 들어 상기 획득된 영상 정보는 특정 애완동물의 안면 영상의 적어도 일부일 수도 있다. 이는 애완동물의 경우 그 키가 사람에 비해 작기 때문에, 애완동물이 이동 로봇(100)을 터치하는 경우 상기 이동 로봇(100)의 카메라(121)에 상기 애완동물의 안면 영상이 센싱될 수 있기 때문이다. 이러한 경우 제어부(180)는 센싱된 안면 영상에 대응되는 애완동물이, 상기 이동 로봇(100)을 터치한 것으로 판단할 수 있다.
한편, 상기 이동 로봇(100)의 카메라(121)에 센싱되는 영상에, 상기 특정 애완동물의 안면 영상이 센싱되지 않을 수도 있음은 물론이다. 이는 애완동물이 이동 로봇(100)을 발로 터치할 때에, 상기 발이 애완동물의 안면을 가리거나, 또는 애완동물이 이동 로봇(100)에 너무 가까이 위치하는 경우일 수 있다. 이러한 경우 제어부(180)는 다양한 방법으로 상기 이동 로봇(100)을 터치한 애완동물을 식별할 수 있다.
예를 들어 제어부(180)는 마이크(122)로부터 수신되는 소리에 따라 상기 영상 정보에 대응되는 애완동물을 식별할 수 있다. 예를 들어 제어부(180)는 애완동물 특유의 소리(예 : 고양이 울음소리나 개 짖는 소리 또는 개가 으르렁대는 소리)가 감지되면 감지된 소리에 대응되는 애완동물이 상기 이동 로봇(100)을 터치한 것으로 판단할 수 있다.
또는 제어부(180)는 상기 획득된 영상 정보에 포함된 털의 색상에 따라 상기 영상 정보에 대응되는 애완동물을 식별할 수도 있음은 물론이다. 예를 들어 사용자가 흰색 털을 가진 고양이와, 갈색 털을 가진 개를 애완동물로 키우는 경우, 이동 로봇(100)은 상기 고양이와 개의 정보를 등록하면서, 상기 고양이와 개의 안면 영상과 함께, 각각의 털 색상에 대한 정보를 저장할 수 있다. 그리고 제어부(180)는 상기 도 5의 S502 단계에서 획득된 영상 정보의 털 색상이 하얀색인 경우 상기 영상 정보에 대응되는 애완동물을 고양이로, 털 색상이 갈색인 경우 상기 영상 정보에 대응되는 애완동물을 개로 식별할 수 있다.
한편 이와 유사하게, 제어부(180)는 상기 애완동물의의 털 모양에 따라 상기 영상 정보에 대응되는 애완동물을 식별할 수도 있음은 물론이다. 예를 들어 이러한 털 모양은, 털이 곱슬곱슬한 정도나 털의 두께나 길이 등이 될 수 있다. 이러한 경우 제어부(180)는, 획득된 영상 정보에 포함된 털 모양을, 사용자에 의해 기 등록된 다양한 애완동물의 털 모양과 비교하여, 상기 이동 로봇(100)을 터치한 애완동물을 식별할 수도 있다.
한편 상술한 설명에서는, 획득된 영상 정보에 근거하여 상기 이동 로봇(100)을 터치한 대상이 사람인지 애완동물인지 여부를 구분하는 것을 설명하였으나, 이와는 다른 방법을 이용할 수도 있음은 물론이다.
예를 들어 제어부(180)는 애완동물의 신체에 삽입된 식별칩 또는 애완동물의 목걸이로부터 애완동물의 식별 정보가 감지되는 경우, 상기 이동 로봇(100)을 터치한 대상이 상기 감지된 식별 정보에 대응되는 애완동물로 식별할 수도 있음은 물론이다. 또한 이러한 경우 제어부(180)는 상기 S502 단계로부터 영상 정보를 획득할 필요 없이, 상기 터치의 감지와 동시에 상기 이동 로봇을 터치한 대상을 바로 특정 애완동물로 식별할 수도 있다.
한편 상기 S706 단계에서, 이동 로봇(100)을 터치한 애완동물이 식별되면, 제어부(180)는 식별된 애완동물에 따라 서로 다른 펫 케어 기능을 포함하는 동작 모드로 이동 로봇(100)의 동작 모드를 전환할 수 있다. 이는 애완동물에 따라 먹는 사료가 서로 다르듯이, 애완동물에 따라 좋아하는 행동이나 습관이 서로 다르기 때문이다. 이에 따라 본 발명의 실시 예에 따른 이동 로봇(100)은, 이동 로봇(100)을 터치한 애완동물, 즉 이동 로봇(100)에 관심을 보이는 애완동물을 식별하고, 식별된 애완동물에 따라 보다 적합한 펫 케어 기능이 수행될 수 있도록 한다.
한편 도 8은 본 발명의 실시 예에 따른 이동 로봇(100)이, 자신을 터치한 사람을 식별한 결과에 따라 서로 다른 동작 모드로 전환되는 동작 과정을 도시한 흐름도이다.
예를 들어 제어부(180)는 상기 도 7의 S702 단계에서, 상기 획득된 사용자의 신체 일부분의 영상 정보에 근거하여, 상기 이동 로봇(100)을 터치한 사용자를 각각 성인 남자 또는 여자, 아동, 유아로 구분할 수 있다. 하기 도 8은 이처럼 사용자를 구분하는 경우에, 상기 도 7의 S702 단계에서 사용자의 연령 또는 성별을 식별한 결과에 따라 각각 서로 다른 기능을 수행하는 동작 모드로 전환되는 경우의 동작 과정을 도시한 것이다.
도 8을 참조하여 살펴보면, 상기 도 7의 S702 단계의 구분 결과, 이동 로봇(100)을 터치한 사용자가 ‘성인 남자’ 또는 ‘성인 여자’인 경우, 제어부(180)는 일정 관리 기능, 전화 기능, 주변 기기 원격 제어 기능, 워키토키(Walki-Talki) 기능, 및 멀티미디어 기능 등을 수행할 수 있는 기본 동작 모드로 이동 로봇(100)의 동작 모드를 전환할 수 있다.
여기서 상기 일정 관리 기능은, 식별된 사용자의 일정 정보에 따른 알람 정보를 제공하는 기능일 수 있다. 이러한 경우 이동 로봇(100)의 제어부(180)는 식별된 사용자의 웨어러블 디바이스 또는 이동 단말기와 연동될 수 있으며, 특정 시각에 상기 연동된 웨어러블 디바이스 또는 이동 단말기에 저장된 사용자의 스케쥴 정보를 출력할 수 있다.
이러한 경우 상기 이동 로봇(100)은 연동된 이동 단말기에 저장된 SMS, MMS 등을 통해, 특정 문자열을 가지는 메시지를 사용자의 스케쥴 정보로 추출할 수도 있음은 물론이다. 이에 따라 식별된 사용자의 이동 단말기로 특정 일정을 알리는 메시지(예를 들어 택배 도착 예정 시각 알림 메시지 등)가 수신되는 경우, 이동 로봇(100)은 상기 메시지로부터 스케줄 정보(택배 도착) 및, 스케줄 정보에 대응되는 시각 정보(도착 예정 시각)를 추출할 수 있다. 그리고 추출된 시각 정에 따라 상기 추출된 스케쥴 정보를 음성 안내 등으로 출력할 수 있다.
또한 상기 이동 로봇(100)은 스피커 폰 기능과 유사한 기능을 수행할 수 있다. 예를 들어 제어부(180)는 이동 단말기를 통해 전화 통화를 하고 있는 사용자가 이동 로봇(100)을 터치하는 경우, 상기 사용자를 식별할 수 있다. 그리고 사용자가 식별되면, 식별된 사용자의 이동 단말기와 연동될 수 있다. 이러한 경우 상기 이동 단말기(200)로 수신되는 통화 상대방의 음성 신호는 상기 이동 로봇(100)으로 전송될 수 있으며, 상기 이동 로봇(100)은 상기 수신된 음성 신호를 스피커(151)를 통해 출력할 수 있다.
뿐만 아니라, 이동 로봇(100)은 식별된 사용자의 제어에 따라 단방향 화상 통화 기능을 제공할 수도 있다. 예를 들어 상술한 바와 같이 전화 통화를 하고 있는 사용자가 이동 로봇(100)을 터치하는 경우, 제어부(180)는 사용자를 식별 및 식별된 사용자의 이동 단말기와 연동될 수 있다. 이러한 상태에서 사용자가 이동 로봇(100)을 이용한 화상 통화를 선택하는 경우, 상기 이동 로봇(100)의 카메라(121)를 통해 수신되는 영상이 현재 식별된 사용자의 이동 단말기와 연결된 통화 상대방의 이동 단말기로 전송될 수 있다. 이에 따라 이동 로봇(100)에서 센싱되는 영상은 통화 상대방의 이동 단말기로 전송되지만, 통화 상대방의 이동 단말기에서 수신되는 영상은 상기 이동 로봇(100)을 통해 출력되지 않는 단방향 영상 통화가 이루어질 수 있다.
한편 상기 멀티미디어 기능은, 이동 로봇(100)에 구비된 빔 프로젝터를 이용하여 기 설정된 서버 또는 이동 로봇(100)에 저장된 동영상 컨텐츠를 재생하는 기능 및, 기 설정된 서버 또는 기 저장된 음원 컨텐츠를 재생하는 기능일 수 있다.
이러한 멀티미디어 기능의 경우, 사용자의 요청에 따른 동영상 컨텐츠 또는 음원 컨텐츠를, 사용자로부터 요구된 시간에 재생하는 VOD(Video On Demand) 또는 MOD(Music On Demand 또는 AOD(Audio On Demand)) 서비스를 포함할 수 있다. 여기서 제어부(180)는 상기 식별된 사용자가 남성인지 여성인지 여부에 따라 서로 다른 추천 동영상 목록 또는 추천 음원 목록을 제공할 수도 있다. 즉, 제어부(180)는 현재의 날씨나 계절, 온도나 습도 또는 현재 시각 등에 기반하여, 사용자들이 가장 많이 감상하거나 추천된 횟수가 많은 순서대로 적어도 하나의 동영상 컨텐츠 또는 음원 컨텐츠를 검색할 수 있다. 여기서 제어부(180)는 성인 남성 또는 성인 여성 별로 각각 동영상 컨텐츠 또는 음원 컨텐츠를 검색할 수 있다.
그리고 제어부(180)는 상기 검색된 컨텐츠의 목록을 추천 컨텐츠 목록으로 음성 정보로 출력하거나 또는 기 연결된 이동 단말기(200)에 전송할 수 있다. 따라서 이러한 경우 상기 이동 로봇(100)을 추천한 사용자가 남성인지 여성인지 여부에 따라 서로 다른 추천 컨텐츠 목록이 사용자에게 제공될 수 있다.
한편 만약 제어부(180)가 상기 이동 로봇(100)을 터치한 사용자를 성인 남성이나 여성, 또는 아동이나 아이로 구분하는 것 외에, 사용자의 연령을 더 식별하는 경우(예 : 획득된 영상 정보에 근거하여 추정된 연령 및 성별과, 기 등록된 가족 구성원 정보를 이용하여, 이동 로봇(100)을 터치한 사용자를 특정 가족 구성원으로 식별하는 경우)라면, 이동 로봇(100)을 터치한 사용자의 성별 뿐만 아니라 연령도 상기 추천 동영상 또는 음원을 검출하기 위한 조건으로 더 포함될 수 있다. 이러한 경우 제어부(180)는 상기 이동 로봇(100)을 터치한 사용자의 연령 및 성별과 유사한 다른 사용자들에 의해 재생이 많이 선택된 순서 또는 추천수가 많은 순서대로 일정 개수의 컨텐츠를 검색 및 검색된 컨텐츠들의 목록을 출력 또는 전송할 수 있다.
한편 상술한 설명에서는 구분된 사용자의 성별에 따라 멀티미디어 기능에서 추천 동영상 컨텐츠 또는 음원 컨텐츠가 서로 다르게 검색되는 것을 예로 들었으나, 이는 본 발명의 실시 예에 따른 이동 로봇(100)의 일 예를 들어 설명한 것일 뿐, 얼마든지 구분된 성별에 따라 제공되는 서로 다르게 제공되는 다른 기능이 있을 수도 있음은 물론이다.
예를 들어 본 발명의 실시 예에 따른 이동 로봇(100)에서 출력되는 다양한 음성 출력 메시지의 음성이 식별된 사용자가 남성인지 여성인지에 따라 달라질 수 있다. 즉, 제어부(180)는 이동 로봇(100)을 터치한 사용자가, ‘성인 남성’으로 구분되는 경우, 여성의 목소리로 각종 음성 정보를 출력할 수 있다. 반면 상기 이동 로봇(100)을 터치한 사용자가 ‘성인 여성’으로 구분되는 경우, 남성의 목소리로 각종 음성 정보를 출력할 수도 있다.
한편 상기 워키토키 기능은, 기 등록된 이동 단말기(예 : 이동 단말기(200))로부터 수신되는 음성 신호를, 상기 이동 로봇(100)을 통해 출력하는 기능을 의미하는 것일 수 있다. 예를 들어 사용자(제1 사용자)가 이동 로봇(100)을 터치하면, 이동 로봇(100)은 상기 제1 사용자를 식별한 결과에 따라 상기 제1 사용자의 이동 단말기(예 : 이동 단말기(200))에 연결될 수 있다. 그러면 이동 로봇(100)은 제1 사용자의 제어에 따라 제1 사용자가 원하는 위치까지 이동할 수 있다.
이러한 방식으로 상기 이동 로봇(100)은 제2 사용자에 인접한 위치로 이동할 수 있다. 그리고 이러한 상태에서 제1 사용자가 워키토키 기능을 활성화하고 음성 신호를 입력하는 경우, 상기 이동 단말기(200)를 통해 입력된 음성 신호는 상기 이동 로봇(100)을 통해 음성 신호로 출력될 수 있다. 그리고 제2 사용자로부터 음성 신호를 수신하여, 이를 이동 단말기(200)로 전송할 수 있다. 그러면 이동 단말기(200)는 수신된 제2 사용자의 음성 신호를 출력할 수 있다. 따라서 이동 로봇(100)은 서로 이격된 거리에 위치한 제1 사용자와 제2 사용자 사이에 음성 대화가 이루어질 수 있도록 한다.
한편 이러한 워키토키 기능이 수행되는 경우, 이동 로봇(100)은 제1 사용자의 제어에 따라 상기 워키토키 기능과 관련된 다양한 부가 기능을 수행할 수 있다. 예를 들어 이러한 부가 기능은 감정 표시 기능을 포함할 수 있다.
상기 감정 표시 기능은, 기 설정된 감정 상태를 상기 이동 로봇(100)의 움직임을 통해 표현하는 기능일 수 있다. 일 예로 제1 사용자가 즐거움 감정 표시 기능을 선택하는 경우, 이동 로봇(100)은 상기 즐거움 표시 기능에 대응되는 기 설정된 움직임 패턴에 따라 움직일 수 있다. 이러한 경우‘즐거움 표시’ 에 대응되는 움직임 패턴은, 기 설정된 흥겨움 멜로디를 출력하면서, 제자리에서 기 설정된 횟수만큼 일정 속도로 회전하는 움직임 패턴일 수 있다.
한편 이동 로봇(100)은 상기 즐거움 뿐만 아니라, 화남, 수줍음, 슬픔 등 다양한 감정에 대응되는 표시 기능을 제공할 수 있다. 그리고 상기 이동 로봇(100)과 연결된 이동 단말기(200)는 상기 이동 로봇(100)이 워키토키 기능을 수행하는 경우, 사용자(예 : 상기 제1 사용자)가 이러한 감정들 중 특정 감정을 보다 쉽게 선택할 수 있도록, 각각의 감정에 대응되는 그래픽 객체들을 상기 이동 로봇(100)을 제어하기 위한 제어 인터페이스 화면에 표시할 수 있다. 이처럼 이동 로봇(100)이 이동 단말기(200)의 제어에 따라 감정 표시 기능을 제공하는 예를 하기 도 13을 참조하여 보다 자세하게 살펴보기로 한다.
이 뿐만 아니라 이동 로봇(100)은, 이동 로봇(100)을 터치한 사용자가 ‘성인’으로 식별되는 경우, 자택 내에 위치한 다양한 기기를 원격제어 할 수 있는 주변 기기 원격 제어 기능을 제공할 수 있다. 예를 들어 이러한 주변 기기 원격 제어 기능은, 이동 로봇(100) 주변에 위치한 특정 기기를 제어하는 기능 및, 사용자로부터 지정된 특정 기기를 상기 이동 로봇(100)을 통해 제어하는 기능을 포함할 수 있다. 이하 상기 이동 로봇(100)이 주변 기기 원격 제어 기능을 수행하는 동작 과정들을 하기 도 9a 및 도 9b를 참조하여 보다 자세하게 살펴보기로 한다.
한편 상기 도 7의 S702 단계에서, 상기 이동 로봇(100)을 터치한 대상을 구분한 결과, 상기 이동 로봇(100)을 터치한 사용자가 ‘아동’인 경우라면, 제어부(180)는 아동과 관련된 적어도 하나의 기능을 포함하는 동작 모드(이하 아이 돌보미 모드)로 동작 모드를 전환할 수 있다.
예를 들어 상기 아이 돌보미 모드는, 아동과 관련된 다양한 일정을 관리하는 기능을 포함할 수 있다. 여기서 아동 일정 관리 기능은 현재 시각을 체크하고, 현재 시각에 대응되는 아동의 일정에 관련된 정보를 음성 정보 등으로 출력하는 기능일 수 있다. 따라서 현재 시각이 아동이 학교나 학원 등을 가야할 시각 또는 식사 시각인 경우 제어부(180)는 아동에게, 상기 일정 정보를 알리는 음성 정보(예 : ‘지금 8시야, 어서 학교 가야지?’, ‘점심 먹자!’등)를 출력할 수 있다.
한편, 본 발명의 실시 예에 따른 이동 로봇(100)이 상기 아이 돌보미 모드로 동작하는 경우, 이동 로봇(100)은 아동의 행동을 감시하는 기능을 수행할 수 있다. 예를 들어 제어부(180)는 상기 일정 관리 정보를 출력한 이후, 아동을 따라다니며 아동의 영상을 센싱할 수 있다. 그리고 센싱된 영상을 기 설정된 이동 단말기(예 : 부모님의 이동 단말기(이동 단말기 : 200))로 전송할 수도 있다.
한편, 상기 이동 로봇(100)은 상기 아이 돌보미 동작 모드로 구동하는 경우, 다양한 주변기기 등을 제어하여 아동에게 보다 쾌적한 환경을 제공할 수 있다. 예를 들어 이동 로봇(100)은 주변의 온도가 너무 덥거나 너무 추운 경우, 실내 온도가 일정 수준을 유지하도록 냉방기기 또는 난방기기를 제어할 수 있다.
또는 이동 로봇(100)은 아동이 원하는 다양한 컨텐츠가 재생되도록 할 수도 있다. 즉, 아동이 이동 로봇(100)을 터치하는 경우, 이동 로봇(100)은 획득된 영상 정보로부터 상기 이동 로봇(100)을 터치한 사용자가 아동임을 식별할 수 있다. 그리고 아동이 원하는 컨텐츠를 음성 신호로 입력하는 경우, 음성 신호에 대응되는 컨텐츠가 재생되도록 TV와 같은 영상 표시 장치를 제어할 수 있다.
한편 상기 이동 로봇(100)은 상기 컨텐츠를 재생함에 있어서, 기 설정된 조건이 만족되었는지 여부를 먼저 확인할 수도 있다. 여기서 상기 기 설정된 조건은 현재의 시각 또는 아동의 위치 등이 될 수 있다.
예를 들어 제어부(180)는 아동이 이동 로봇(100)을 터치하고 자신이 원하는 컨텐츠를 말한다고 할지라도, 현재 시각을 체크하여 성인 사용자(예 : 부모님)로부터 아동의 컨텐츠 시청이 미리 허가된 시간인지 여부를 체크할 수 있다. 그리고 현재 시각이 상기 미리 허가된 시간에 포함되지 않은 경우, 제어부(180)는 아동의 요청에도 불구하고 컨텐츠를 재생하지 않을 수도 있다. 그리고 제어부(180)는 현재 시각이 컨텐츠의 시청이 허가되지 않은 시간임을 음성 신호 등으로 출력할 수 있다.
또한 제어부(180)는 아동이 이동 로봇(100)을 터치하고 자신이 원하는 컨텐츠를 말한다고 할지라도, 아동의 현재 위치에 따라 컨텐츠의 재생 여부를 판단할 수도 있다. 즉, 상기 아동의 위치가 미리 지정된 위치가 아니거나 또는 상기 아동과 영상 표시 장치 사이의 거리가 일정 수준 이하인 경우 제어부(180)는 아동의 요청에도 불구하고 컨텐츠를 재생하지 않을 수도 있다. 그리고 제어부(180)는 아동이, 미리 지정된 위치로 이동하거나 또는 상기 영상 표시 장치로부터 일정 거리 이상 이격된 위치로 이동하도록 안내하기 위한 안내 정보를 출력할 수도 있다. 이 경우 제어부(180)는 음성 신호의 형태로 상기 안내 정보를 출력하거나, 또는 레이저 포인터에서 출력되는 빔 등으로 기 지정된 위치를 표시할 수도 있다.
한편 상기 도 7의 S702 단계에서, 상기 이동 로봇(100)을 터치한 대상을 구분한 결과, 상기 이동 로봇(100)을 터치한 사용자가 ‘유아’인 경우라면, 제어부(180)는 유아와 관련된 적어도 하나의 기능을 포함하는 동작 모드(이하 유아 보호 모드)로 동작 모드를 전환할 수 있다.
예를 들어 이러한 유아 보호 모드는, 유아가 흥미를 끌 수 있도록 다양한 멜로디를 출력 및, 기 설정된 이동 패턴에 따라 이동하는 유아 케어 기능 및, 상기 유아의 이동을 감지하고, 유아가 기 설정된 위험 지역으로 진입하는 것을 방지하거나, 또는 유아가 위험물(예 : 콘센트)등에 접근하는 것을 방지하는 유아 보호 기능을 포함할 수 있다.
예를 들어 이러한 유아 보호 기능은, 유아가 기 설정된 위험 지역으로 이동하는 경우, 유아가 상기 위험 진입으로 진입하기 전에 기 저장된 음성 메시지(예 : 안돼 ! 가지마 !!)를 출력하는 기능 및, 유아가 이동 로봇(100)이 있는 방향으로 이동 방향을 전환할 수 있도록 상기 유아의 흥미를 끌 수 있는 다양한 기능들을 포함할 수 있다. 예를 들어 제어부(180)는 유아의 흥미를 끌기 위해, 보다 큰 음량으로 특정 멜로디를 출력하고, 유아를 이동 로봇(100)이 있는 방향으로 유도하기 위한 음성 메시지(예 : 착하지 !! 이리와 !!) 등을 출력할 수 있다. 또는 기 설정된 작동 완구(예를 들어 멜로디의 출력이 가능한 완구) 또는 TV와 같은 영상 표시 장치 또는 음원 재생 장치를 제어하여 유아의 흥미를 끌 수 있는 멜로디나 동영상 컨텐츠가 재생되도록 할 수도 있다. 이러한 경우 유아가 이동 방향을 변경하여 이동 로봇(100) 또는 상기 작동 완구나 컨텐츠 재생 기기 쪽으로 이동하면, 제어부(180)는 일정 시간이 경과한 이후 상기 작동 완구나 컨텐츠 재생 기기를 다시 오프할 수도 있다.
한편 상기 유아 보호 기능은 유아가 위험물에 접근하는 경우, 상기 유아의 이동 경로를 방해하는 기능을 포함할 수 있다. 예를 들어 유아 보호 모드로 동작하는 경우, 이동 로봇(100)은 상기 유아의 이동에 따라 이동하며 상기 유아의 행동을 감지할 수 있다. 그리고 상기 유아가 콘센트 등 위험 물질 근처로 이동하는 경우, 상기 유아와 위험 물질 사이로 이동하여 유아가 상기 위험 물질 쪽으로 이동하는 것을 방해할 수 있다. 또한 이와 더불어 기 설정된 접근 금지 메시지(예 : 안돼! 위험해!!)를 출력하고, 상기 작동 완구나 멀티미디어 재생 기기를 이용하여 유아의 흥미를 다른 방향으로 전환시킬 수 있다. 그리고 유아가 이동 방향을 전환하면 기 설정된 안전한 위치(예 : 거실 한 가운데)로 이동할 수 있다. 그리고 유아가 상기 이동 로봇(100)이 있는 방향으로 이동할 수 있도록, 유아의 흥미를 끌기 위한 특정 멜로디를 출력 및, 음성 메시지(예 : 착하지 !! 이리와 !!) 등을 출력할 수 있다. 이처럼 이동 로봇(100)이 유아 보호 기능으로 동작하는 경우의 예를 하기 도 15a 및 도 15b를 참조하여 보다 자세하게 살펴보기로 한다.
한편 도 9a 및 도 9b는 본 발명의 실시 예에 따른 이동 로봇(100)이, 기본 동작 모드로 동작하는 경우, 상기 기본 동작 모드에 포함된 주변 기기 원격 제어 기능을 수행하는 동작 과정을 도시한 흐름도들이다.
우선 도 9a를 참조하여 살펴보면, 도 9a는 본 발명의 실시 예에 따른 이동 로봇(100)이 기 연결된 이동 단말기(200)를 통해 제어되는 경우에, 상기 이동 로봇(100)의 주변에 위치한 다양한 주변 기기를 제어하는 동작 과정의 예를 도시한 흐름도이다.
예를 들어, 상술한 바와 같이 이동 로봇(100)이 기 연결된 이동 단말기(200)를 통해 제어되는 경우, 이동 로봇(100)의 제어부(180)는 이동 로봇(100)의 카메라(121)로부터 센싱된 프리뷰(preview) 영상을, 이동 단말기(200)에 전송할 수 있다(S910). 그러면 이동 단말기(200)는 수신된 프리뷰 영상을 터치 스크린(210) 상에 출력할 수 있다. 이러한 경우 이동 단말기(200)는 상기 터치 스크린(210) 상에 표시된 영상에 포함된 다양한 기기들의 이미지로부터, 상기 이동 로봇(100) 주변에 위치한 기기들을 식별할 수 있다(S912).
한편 상기 이동 로봇(100)의 주변에 위치한 기기들을 식별하기 위해 다양한 방법이 사용될 수 있다.
예를 들어 이동 로봇(100)은 IOT(Internet Of Things) 기능을 활용하여, 상기 이동 로봇(100) 주변에 위치한 다른 기기들의 정보를 수집할 수 있다. 그리고 수집된 기기들의 정보를, 상기 프리뷰 영상과 함께 이동 단말기(200)로 전송할 수 있다. 그러면 상기 수집된 기기들의 정보는, 이동 단말기(200)에 전송될 수 있으며, 이동 단말기(200)는 상기 수신된 정보에 근거하여 이동 로봇(100) 주변에 위치한 기기들을 식별할 수 있다.
한편 상기 S912 단계는, 상기 이동 로봇(100)의 주변에 위치한 기기들 중 이동 단말기(200)의 터치 스크린 상에 표시되는 기기들을 식별하는 단계일 수도 있다. 예를 들어 상기 수집되는 기기들의 정보는, 기기들의 위치(예를 들어 좌표 정보)에 대한 정보를 포함할 수 있다.
그러면 이동 단말기(200)의 제어부는 상기 이동 로봇(100)의 카메라가 향하는 방향 및 상기 수신된 기기들의 정보에 근거하여 현재 터치 스크린(210) 상에 표시되는 기기들을 식별할 수 있다. 예를 들어 이동 단말기(200)의 제어부는 현재 이동 로봇(100)의 카메라가 지향하는 방향에 위치한 기기들을, 현재 터치 스크린(210) 상에 표시되는 기기들로 판단할 수도 있다.
또는 이동 단말기(200)는 상기 이동 로봇(100)으로부터 수신된 프리뷰 영상으로부터 다양한 기기들의 이미지를 추출하고, 추출된 이미지를 기 설정된 외부 서버를 통해 분석한 결과에 근거하여 현재 터치 스크린 상에 표시되는 기기들을 식별할 수도 있음은 물론이다.
한편 상기 S912 단계에서 이동 로봇(100)의 주변에 위치한 기기가 식별되면, 이동 단말기(200)의 제어부는 식별된 기기 각각에 대응되는 적어도 하나의 그래픽 객체를 터치 스크린 상에 표시할 수 있다(S914). 그리고 상기 표시된 적어도 하나의 그래픽 객체가 선택되면, 선택된 기기에 대응되는 제어 인터페이스 화면을 표시할 수 있다(S916).
예를 들어 이러한 제어 인터페이스 화면은, 선택된 그래픽 객체에 대응되는 기기에 따라 서로 다른 제어 인터페이스 화면이 표시될 수 있다. 그리고 상기 제어 인터페이스 화면을 통해 사용자의 제어 신호가 입력되면 이동 단말기(200)의 제어부는 상기 입력된 제어 신호를 이동 로봇(100)에 전송할 수 있다(S918).
한편 상기 제어 신호를 수신한 이동 로봇(100)은, 사용자에 의해 선택된 그래픽 객체에 대응되는 제1 기기(900)로 상기 제어 신호를 전송할 수 있다(S920). 상기 S920 단계에서 제어부(180)는 상기 수집된 기기들의 식별 정보에 따라 상기 사용자에 의해 선택된 상기 제1 기기(900)에 대응되는 적외선 신호를 송출할 수 있다. 이에 따라 제1 기기(900)는 이동 로봇(100)으로부터 수신된 제어 신호에 따라 구동될 수 있다(S922).
한편 상기 제1 기기(900)에 제어 신호가 송출되면, 이동 로봇(100)은 상기 제1 기기(900)의 동작 상태에 관련된 정보를 수집할 수 있다(S924). 예를 들어 이동 로봇(100)의 제어부(180)는 상기 제1 기기(900)로부터 현재의 동작 상태에 대한 정보를 직접 수신할 수 있다. 또는 제어부(180)는 상기 구동되고 있는 제1 기기(900)의 영상을 센싱할 수도 있다. 또는 제어부(180)는 상기 구동되고 있는 제1 기기(900)에 의해 변화된 주변의 환경(예를 들어 제1 기기(900)가 에어컨(Air-conditioner)인 경우 주변의 온도 변화 등)을 센싱하고 이를 상기 제1 기기(900)의 동작 상태에 대한 정보로 수집할 수 있다. 그리고 제어부(180)는 상기 수집된 정보를 이동 단말기(200)로 전송할 수 있다(926).
한편 상기 이동 로봇(100)으로부터 수집된 상기 제1 기기(900)의 동작 상태 관련 정보가 수신되면, 이동 단말기(200)는 상기 수집된 정보에 따라 상기 제1 기기(900)의 동작 상태를 터치 스크린 상에 표시할 수 있다(S928). 이에 따라 사용자는 이동 단말기(200)의 터치 스크린을 통해 상기 제1 기기(900)의 동작 상태를 확인할 수 있다.
한편 상기 도 9a는, 현재 이동 로봇(100)의 주변에 위치한 기기들을 사용자가 이동 단말기(200)를 이용하여 원격 제어하는 것을 예로 들어 설명하였으나, 이와는 달리 상기 이동 로봇(100)의 주변에 위치하지 않은 기기라고 할지라도 얼마든지 사용자가 원격으로 구동을 제어할 수도 있음은 물론이다. 도 9b는 이러한 경우에 본 발명의 실시 예에 따른 이동 로봇(100)을 이용하여 특정 기기를 원격으로 제어하는 동작 과정을 도시한 것이다.
예를 들어, 제어부(180)는 이동 로봇(100)을 터치하는 사용자를 식별할 수 있으며, 식별된 사용자가 ‘성인’인 경우 기 설정된 이동 단말기 또는 식별된 사용자의 이동 단말기와 연결될 수 있다. 이러한 경우 이동 단말기(200)는 사용자의 선택에 따라 기 등록된 자택 내의 다양한 기기들을 포함하는 기기 목록을 터치 스크린 상에 표시할 수 있다. 이에 따라 사용자가 제어하고자 하는 기기가 제1 기기(900)인 경우, 상기 제1 기기(900)를 포함하는 기기 목록이 이동 단말기(200)의 터치 스크린 상에 표시될 수 있다(S950).
이러한 상태에서, 이동 단말기(200)는 사용자의 선택에 따라 어느 하나의 기기에 대응되는 제어 인터페이스 화면을 터치 스크린 상에 표시할 수 있다(S952). 예를 들어 사용자로부터 선택된 기기가 제1 기기(900)인 경우라면, 이동 단말기(200)의 제어부는 상기 제1 기기(900)가 수행할 수 있는 기능들 중 적어도 하나에 관련된 제어 인터페이스 화면을 터치 스크린 상에표시할 수 있다. 그리고 상기 표시된 제어 인터페이스 화면을 통해 입력되는 사용자의 제어 신호를 이동 로봇(100)으로 전송할 수 있다(S954). 이러한 경우 이동 로봇(100)은 상기 이동 단말기(200)로부터, 상기 제1 기기(900)의 선택 신호 및 상기 제1 기기(900)에 대한 제어 신호를 수신할 수 있다.
한편, 상기 제어 신호 및 기기 선택 신호를 수신한 이동 로봇(100)은 자택 내에서 상기 제1 기기(900)의 위치를 검출할 수 있다. 이를 위해 상기 이동 로봇(100)은 기 저장된 자택 맵(map) 정보를 이용하여 상기 제1 기기(900)가 위치한 영역을 검출할 수 있다. 그리고 상기 제1 기기(900)의 제어가 가능한 영역(제1 영역)을 검출할 수 있다(S956). 여기서 상기 제1 영역은, 상기 제1 기기(900)가 상기 이동 로봇(100)에서 출력된 다양한 형태(예를 들어 적외선)의 제어 신호를 수신 가능한 거리에 따라 결정되는 영역일 수 있다.
한편 상기 S956 단계에서 상기 제1 기기(900) 및 상기 제1 영역이 검출되면, 이동 로봇(100)의 제어부(180)는 상기 이동 로봇(100)이 상기 제1 영역 내로 이동하도록 제어할 수 있다(S958). 그리고 제어부(180)는 이동 로봇(100)이 상기 제1 영역으로 진입하면 상기 제1 기기(900)에 상기 S954 단계에서 수신된 제어 신호를 전송할 수 있다(S960). 이러한 경우 상기 이동 단말기(200)의 터치 스크린 상에는 상기 이동하는 이동 로봇(100)의 카메라(121)로부터 센싱되는 영상이 표시될 수 있다. 따라서 상기 이동 로봇(100)이 상기 제1 기기(900)에 제어 신호를 송출하기 위해 상기 제1 기기(900)가 위치한 방향으로 방향을 전환하는 경우, 상기 제1 기기(900)의 이미지가 상기 이동 단말기(200)의 터치 스크린 상에 표시될 수 있다.
한편, 상기 S960 단계에서 제어부(180)는 상기 제1 기기(900)에 대응되는 적외선 신호로 상기 제어 신호를 송출할 수 있다. 이에 따라 제1 기기(900)는 이동 로봇(100)으로부터 수신된 제어 신호에 따라 구동될 수 있다(S962).
한편 상기 제1 기기(900)에 제어 신호가 송출되면, 이동 로봇(100)은 상기 제1 기기(900)의 동작 상태에 관련된 정보를 수집할 수 있다(S964). 예를 들어 이동 로봇(100)의 제어부(180)는 상기 제1 기기(900)로부터 현재의 동작 상태에 대한 정보를 직접 수신할 수 있다. 또는 제어부(180)는 상기 구동되고 있는 제1 기기(900)의 영상을 센싱할 수도 있다. 또는 제어부(180)는 상기 구동되고 있는 제1 기기(900)에 의해 변화된 주변의 환경(예를 들어 제1 기기(900)가 에어컨(Air-conditioner)인 경우 주변의 온도 변화 등)을 센싱하고 이를 상기 제1 기기(900)의 동작 상태에 대한 정보로 수집할 수 있다. 그리고 제어부(180)는 상기 수집된 정보를 이동 단말기(200)로 전송할 수 있다(966).
한편 상기 이동 로봇(100)으로부터 수집된 상기 제1 기기(900)의 동작 상태 관련 정보가 수신되면, 이동 단말기(200)는 상기 수집된 정보에 따라 상기 제1 기기(900)의 동작 상태를 터치 스크린 상에 표시할 수 있다(S968). 이에 따라 사용자는 이동 단말기(200)의 터치 스크린을 통해 상기 제1 기기(900)의 동작 상태를 확인할 수 있다.
한편, 도 10은 본 발명의 실시 예에 따른 이동 로봇(100)이, 펫 케어 동작 모드로 전환된 상태에서의 동작 과정을 도시한 흐름도이다.
본 발명의 실시 예에 따른 이동 로봇(100)은 도 7의 S700 단계에서 설명한 바와 같이, 획득된 영상 정보에 근거하여 상기 이동 로봇(100)을 터치한 대상을 식별한 결과, 상기 이동 로봇(100)을 터치한 대상이 애완동물인 경우라면, 상기 도 7의 S708 단계에서 펫 케어 동작 모드로 동작 모드가 전환될 수 있다.
이러한 경우 제어부(180)는 현재 설정된 펫 케어 동작 모드가 자동 모드로 설정되어 있는지 여부를 확인할 수 있다(S1000). 그리고 현재 설정된 펫 케어 동작 모드가 자동 모드인 경우 제어부(180)는 상기 도 7의 S706 단계에서 식별된 애완동물의 특성에 따른 패턴으로 상기 이동 로봇(100)이 이동하도록 제어하거나 또는 상기 식별된 애완동물의 특성에 따른 기능이 수행되도록 할 수 있다.
즉, 본 발명의 실시 예에 따른 이동 로봇(100)은, 사용자가 서로 다른 두 종류(예를 들어 개와 고양이)의 애완동물을 키우는 경우, 이동 로봇(100)을 터치한 애완동물에 따라 서로 다른 펫 케어 기능을 수행할 수 있다.
예를 들어 상기 이동 로봇(100)을 터치한 애완동물이 ‘고양이’인 경우라면, 제어부(180)는 상기 펫 케어 기능이 자동 모드로 구동되는 경우에 레이저 포인터를 지면에 출력하는 기능을 수행할 수 있다. 이러한 경우 이동 로봇(100)은 상기 지면에 표시되는 레이저 포인터의 위치가 다양하게 변경될 수 있도록 상기 레이저 포인터의 출력 방향을 변경하거나 또는 이동 로봇(100) 스스로가 이동될 수도 있다. 이는 레이저 포인터와 같이 작고 빠른 표적에 보다 민감하게 반응하는 고양이의 특성을 이용하여 상기 이동 로봇(100)을 터치한 고양이의 흥미를 끌 수 있도록 하기 위한 것이다.
반면 상기 이동 로봇(100)을 터치한 애완동물이 ‘개’인 경우라면, 이동 로봇(100)의 제어부(180)는, 이동 로봇(100)이, 상기 이동 로봇(100)을 터치한 개의 흥미를 끌 수 있도록 다양한 색상의 LED 광원을 출력하는 상태에서, 기 설정된 특정 이동 패턴에 따라 이동하도록 상기 주행부(160)를 제어할 수 있다. 여기서 상기 기 설정된 특정 패턴은 상기 개 주변을 특정 궤적을 그리며 이동하거나 또는 상기 서로 다른 이동 속도로 이동하는 패턴일 수 있다.
또는 상기 제어부(180)는 상기 개와 이동 로봇(100) 사이의 이격 거리에 따라 이동할 수도 있다. 즉, 상기 애완동물이 이동 로봇(100)에 일정 거리 이내로 접근하는 경우라면, 제어부(180)는 이동 로봇(100)이 상기 애완동물로부터 멀어지도록, 즉 애완동물이 위치한 방향의 반대 방향으로 이동 로봇(100)이 이동하도록 주행부(160)를 제어할 수 있다. 반면, 상기 애완동물과 이동 로봇(100)의 이격 거리가 일정 거리를 초과하는 경우, 즉 상기 애완동물이 이동 로봇(100)으로부터 멀어지는 경우라면, 제어부(180)는 이동 로봇(100)이 상기 애완동물로부터 가까워지도록, 즉 애완동물이 위치하고 있는 방향으로 이동 로봇(100)이 이동하도록 주행부(160)를 제어할 수 있다. 이는 자신의 움직임에 따라 반응을 보이는 물체에 보다 민감하게 반응하는 개의 특성을 이용하여 상기 이동 로봇(100)을 터치한 개의 흥미를 끌 수 있도록 하기 위한 것이다.
한편, 상기 S1000 단계의 확인 결과, 펫 케어 동작 모드가 자동 모드로 설정된 상태가 아니라면, 제어부(180)는 카메라(121)에 센싱되는 영상을 기 설정된 이동 단말기(200)에 전송할 수 있다(S1004). 이러한 경우 제어부(180)는 현재 이동 로봇(100)을 터치한 애완동물을 식별한 결과에 대한 정보를 함께 전송할 수 있다. 예를 들어 상기 이동 단말기(200)에 전송되는 정보는 상기 식별된 애완동물에 대응되는 그래픽 객체(예를 들어 애완동물의 발 모양을 묘사한 그래픽 객체) 또는 상기 식별된 애완동물의 이름 등의 정보일 수 있다.
예를 들어 제어부(180)는 기 등록된 애완동물 정보로부터, 상기 식별된 결과에 근거하여 현재 이동 로봇(100)을 터치한 특정 애완동물을 정확하게 식별할 수 있다. 일 예로 개와 고양이가 모두 등록된 경우, 이동 로봇(100)을 터치한 애완동물이 ‘개’로 식별되면, 제어부(180)는 상기 등록된 애완동물의 정보에 근거하여 ‘개’의 이름을 상기 이동 로봇(100)을 터치한 애완동물의 식별 결과로서 전송할 수도 있다.
한편 이동 단말기(200)는 상기 이동 로봇(100)으로부터 수신된 영상을 포함하는 상기 이동 로봇(100)의 제어 인터페이스 화면을 이동 단말기(200)의 터치 스크린 상에 표시할 수 있다. 그리고 상기 이동 로봇(100)으로부터 수신된 애완동물 식별 결과를 함께 표시할 수도 있다. 이러한 경우 상기 이동 단말기(200)의 제어부는 상기 식별 결과에 따라 상기 식별 결과를 다르게 표시할 수도 있다. 즉, 상기 애완동물을 식별한 결과가 ‘개’인 경우라면 이동 단말기(200)는 터치 스크린 상의 적어도 일부에 ‘개’의 발자국을 묘사한 그래픽 객체를 적어도 하나 표시할 수 있다. 반면 상기 애완동물을 식별한 결과가 ‘고양이’인 경우라면 이동 단말기(200)는 터치 스크린 상의 적어도 일부에 ‘고양이’의 발자국을 묘사한 그래픽 객체를 표시할 수도 있음은 물론이다. 또한 상기 애완동물이 이동 로봇(100)을 복수회 터치하는 경우, 이동 단말기(200)는 상기 이동 로봇(100)이 터치된 횟수에 대응되는 개수만큼 상기 애완동물의 발자국을 묘사한 그래픽 객체들을 표시할 수도 있음은 물론이다.
한편 상술한 설명에서는 애완동물의 발자국을 묘사한 그래픽 객체를 표시하는 것을 예로 들었으나 본 발명이 이에 한정되지 않음은 물론이다. 즉, 상기 발자국 모양의 그래픽 객체 대신, 애완동물을 나타낼 수 있는 다른 이미지가 표시될 수도 있다. 예를 들어 기 촬영된 애완동물의 이미지가 상기 발자국 모양의 그래픽 객체 대신 표시될 수도 있음은 물론이다.
한편 이동 로봇(100)은, 이동 로봇(100)의 주변에 사용자가 있는지 여부를 감지할 수 있다. 예를 들어 이동 로봇(100)은, 카메라(121)에 센싱되는 영상에 특정 사용자의 이미지가 포함된 경우, 또는 기 설정된 거리 이내에 기 등록된 사용자의 웨어러블 디바이스나 이동 단말기가 있는지 여부에 따라 사용자가 주변에 있는지 여부를 감지할 수 있다.
그리고 사용자가 주변에 있는 경우, 이동 로봇(100)은 애완동물에 의해 터치되었음을 알리기 위한 정보를 이동 단말기(200)에 전송하지 않을 수도 있다. 대신 상기 이동 로봇(100)은, 이동 로봇(100)이 애완동물에 의해 터치되었음을 주변에 위치한 사용자에게 알리기 위해, 상기 애완동물을 식별한 결과를 음성 정보로 출력할 수 있다. 이처럼 주변에 위치한 사용자 또는 기 설정된 이동 단말기(200)를 통해, 이동 단말기(200)가 애완동물에 의해 터치되었음을 표시하는 예를 하기 도 12를 참조하여 보다 자세하게 살펴보기로 한다.
한편 이처럼 이동 로봇(100)이 애완동물에 의해 터치되었음을 알리는 정보가 이동 단말기(200)를 통해 표시되는 경우, 이동 로봇(100)은 사용자의 제어에 따라 자동 모드 또는 수동 모드로 펫 케어 기능을 수행할 수 있다. 그리고 상기 펫 케어 기능이 자동 모드로 수행되는 경우라면, 이동 로봇(100)의 제어부(180)는 상기 S1002 단계에서 설명한 바와 유사하게, 애완동물을 식별한 결과에 따른 펫 케어 기능을 수행할 수 있다.
반면, 상기 펫 케어 기능이 수동으로 수행되는 경우라면, 이동 로봇(100)은 사용자에 의해 자동 추적 기능이 활성화되었는지 여부를 확인할 수 있다(S1006). 여기서 자동 추적 기능이란 애완동물과 이동 로봇(100) 사이의 거리에 따라 이동하도록 상기 이동 로봇(100)의 이동이 자동으로 제어되는 기능을 의미할 수 있다. 따라서 상기 자동 추적 기능이 활성화되는 경우, 이동 로봇(100)의 제어부(180)는 이동 로봇(100)을 터치한 애완동물과의 이격 거리를 감지하고, 상기 이격 거리가 일정 거리를 유지하며 이동하도록 주행부(160)를 제어할 수 있다(S1008).
한편 이처럼 자동 추적 기능이 활성화되는 경우, 이동 단말기(200) 상에 표시되는 이동 로봇(100)의 제어 인터페이스 화면은 이동 로봇(100)의 이동에 관련된 그래픽 객체들 대신 다양한 부가 기능을 제어할 수 있는 그래픽 객체들이 표시될 수 있다. 그리고 이동 로봇(100)은 상기 제어 인터페이스 화면을 통해 입력되는 제어 신호에 따라 다양한 부가 기능을 수행할 수 있다(S1010).
이러한 부가 기능은 정지 영상의 저장이나, 동영상의 저장 기능을 포함할 수 있다. 또한 상기 부가 기능은 기 저장된 음향 정보의 재생 기능 및, 상기 이동 단말기(200)를 통해 감지되는 사용자의 음성을, 상기 이동 로봇(100)의 음향 출력부(151)를 통해 출력하는 기능을 포함할 수 있다. 그리고 상기 부가 기능은, 레이저 포인터(153b)를 이용한 레이저 빔의 출력 또는 LED(153a)의 발광을 제어하는 기능을 포함할 수 있다.
여기서 상기 레이저 빔의 출력 기능이 선택되는 경우 이동 단말기(200)는 상기 레이저 빔의 출력 방향을 사용자가 제어할 수 있는 그래픽 객체를 더 표시할 수 있다. 그리고 상기 그래픽 객체를 통해 레이저 빔의 출력 방향이 지정되는 경우, 이동 로봇(100)은 상기 지정된 방향에 따라 레이저 빔이 출력되도록 이동 로봇(100)이 지향하는 방향을 변경할 수 있다.
반면 상기 S1006 단계의 확인 결과 자동 추적 기능이 활성화된 경우가 아니라면, 이동 로봇(100)의 제어부(180)는 상기 이동 단말기(200)로부터 수신되는 제어 신호에 따라 이동 로봇(100)의 이동 및 상기 부가 기능이 모두 제어되도록 할 수 있다(S1012).
한편 상술한 도 10의 설명에서는, 펫 케어 기능 중 애완동물과 놀아주는 기능을 주로 설명하고 있으나, 본 발명의 실시 에에 따른 펫 케어 기능은 애완동물에게 사료를 지급하는 기능, 애완동물의 행동을 제한하기 위한 기능 등 다양한 기능들을 포함할 수 있다. 이러한 기능들은, 본 발명의 실시 예에 따른 이동 로봇(100)이 수동으로 펫 케어 기능을 수행하는 경우, 상기 이동 로봇(100)을 제어하기 위한 제어 인터페이스 화면을 통해 사용자가 선택할 수 있다. 예를 들어 상기 기능들은 각각 서로 다른 그래픽 객체의 형태로 표시될 수 있으며, 사용자가 어느 하나의 그래픽 객체를 선택하는 경우 그에 대응되는 펫 케어 기능이 상기 이동 로봇(100)을 통해 수행될 수 있다.
한편 이러한 기능들이 수행되는 경우에도 애완동물을 식별한 결과는 다양하게 이용될 수 있다. 예를 들어 상기 사료 지급 기능이 선택되는 경우, 이동 로봇(100)은 기 설정된 사료 배출 기기로부터 일정 거리 이내의 위치로 이동하여, 기 설정된 분량만큼 사료가 배출되도록 상기 사료 배출기를 제어할 수 있다. 여기서 이동 로봇(100)은 현재 식별된 애완동물에 따라 서로 다른 사료 배출기를 제어할 수 있다. 즉, 현재 식별된 애완동물이 ‘고양이’인 경우라면 고양이 사료가 배출되도록 제1 사료 배출기를 제어할 수 있으며, 식별된 애완동물이 ‘개’인 경우라면, 개 사료가 배출되도록 제2 사료 배출기를 제어할 수 있다. 한편 상기 사료 배출 기능은 사용자에 의해 또는 이동 로봇(100)이 애완동물에 의해 터치되지 않더라도 특정 시각에 따라 자동으로 수행될 수도 있다.
한편 애완동물의 행동을 제한하는 기능이 선택되는 경우, 이동 로봇(100)은 애완동물이 특정 영역으로 진입하는 것을 방지하거나 애완동물의 행위를 중지시키기 위해 기 저장된 소리 신호를 출력할 수 있다. 여기서 상기 기 저장된 소리 신호는 사용자의 음성(예를 들어 화난 음성)이거나, 또는 상기 애완동물이 두려움을 느낄 수 있는 천적 동물의 소리일 수도 있다. 이러한 경우 이동 로봇(100)은 기 저장된 복수의 동물 소리 중, 식별된 애완동물의 천적에 해당되는 동물의 소리를 선택하기 위해, 상기 애완동물의 식별 결과를 이용할 수 있다.
한편, 상술한 설명에서는 단지 애완동물의 종류에 따라 상기 이동 로봇(100)을 이용하여 애완동물과 놀아주는 기능 또는 상기 애완동물의 행동을 제한하는 기능(예 : 서로 다른 천적 동물의 소리 출력)이 서로 달라지는 것을 예로 들어 설명하였으나, 애완동물의 종류와 상관없이 식별된 애완동물의 특성에 따라 상기 기능들이 서로 다르게 수행되도록 할 수도 있음은 물론이다.
예를 들어 식별된 애완동물이 ‘개’인 경우, 본 발명의 실시 예에 따른 이동 로봇(100)은, 상기 식별된 애완동물, 즉‘개’에 대응되는 펫 케어 기능으로, 기 설정된 패턴으로 이동하는 기능을 수행할 수 있다. 이러한 경우 이동 로봇(100)의 제어부(180)는 복수의 패턴 중 어느 하나의 패턴에 따라 이동할 수 있으며, 해당 패턴에 대응되는 애완동물의 반응을 측정할 수 있다.
예를 들어, 이동 로봇(100)은 제1 및 제2 패턴이 있는 경우, 사용자로부터 애완동물과 놀아주는 기능(예 : Play with pet 기능)이 선택되면 상기 제1 및 제2 패턴 중 어느 하나에 따라 이동할 수 있다. 그리고 이동한 결과에 따른 상기 ‘개’의 반응을 측정하고 이를 반응 점수로 수치화할 수 있다. 예를 들어 상기 ‘개’가 이동 로봇(100)을 따라 이동하거나 또는 이동 로봇(100)을 다시 터치하는 등의 반응을 보일 때까지의 시간이 짧을수록, 또한 상기 ‘개’가 보다 강한 반응, 예를 들어 이동 로봇(100)을 따라 보다 빠르게 이동하거나 상기 이동 로봇(100)을 더 많이 터치할수록, 보다 높은 반응 점수로 수치화될 수 있다.
한편 제1 및 제2 패턴 모두에 대해 상기 식별된 애완동물, 즉 ‘개’의 반응 정보가 저장된 경우, 제어부(180)는 상기 반응 정보에 근거하여 애완동물의 반응도가 더 높은 패턴을 검출할 수 있다. 이러한 경우 제어부(180)는 각 패턴에 대해 기 설정된 횟수 이상 측정된 반응 점수의 평균을 산출하고 산출된 평균 점수가 더 높은 패턴을 검출할 수도 있다. 그리고 제어부(180)는 상기 반응도가 더 높은 패턴을 현재 식별된 애완동물에 대응되는 패턴으로 설정할 수 있다. 여기서 상기 반응도가 더 높은 패턴이 제1 패턴인 경우라면, 제어부(180)는 차후 상기 ‘Play with pet 기능’이 다시 선택되는 경우, 상기 이동 로봇(100)을 터치한 애완동물이 상기 ‘개’라면 상기 반응도가 더 높은 패턴, 즉 제1 패턴에 따라 이동 로봇(100)이 이동하도록 주행부(160)를 제어할 수 있다.
한편 상술한 설명에서는 ‘Play with pet 기능’의 예를 들어 설명하였으나, 다른 기능 역시 식별된 애완동물에 따라 각각 다르게 수행될 수도 있음은 물론이다.
예를 들어 애완동물의 행동을 제한하기 위한 경고(warning) 기능의 경우, 이동 로봇(100)은 서로 다른 동물(예를 들어 천적 동물)의 소리와 자동차 경적 소리 등 서로 다른 복수의 경고음에 대한 정보를 포함하고 있을 수 있다. 이러한 상태에서 사용자의 선택에 따라 상기 경고 기능이 수행되는 경우, 이동 로봇(100)은 상기 복수의 경고음 중 어느 하나의 경고음을 출력할 수 있다.
그러면 이동 로봇(100)은 상기 출력된 경고음에 따른 애완동물의 반응을 측정할 수 있다. 우선 이동 로봇(100)은 상기 애완동물이 상기 출력된 경고음에 반응을 보이는지 여부를 측정할 수 있다. 일 예로 상기 출력된 경고음 따라 애완동물이 행동을 정지하거나, 이동 로봇(100)을 바라보는 경우 애완동물이 상기 경고음에 반응을 보이는 것으로 판단할 수 있다. 그리고 이를 이용하여 복수의 경고음 중 상기 애완동물이 반응을 보이는 경고음만을 검출할 수 있다. 이에 따라 현재 식별된 애완동물이 반응을 보이는 경고음들이 검출될 수 있으며, 차후 사용자로부터 경고 기능이 다시 선택되는 경우, 이동 로봇(100)의 제어부(180)는 현재 식별된 애완동물이 반응을 보이는 경고음이 출력되도록 함으로써 상기 경고 기능의 효과를 보다 높일 수 있다.
한편 본 발명의 실시 예에 따른 이동 로봇(100)은 상술한 기능 외에, 홈 모니터링 기능을 더 수행할 수도 있다. 이러한 경우 상기 이동 로봇(100)은 현관문 등의 도어 센서와 연동되어, 상기 현관문의 열림 여부를 감지할 수 있다. 그리고 감지 결과에 따라 싸이렌이나 경고음 출력 또는 상기 현관문의열림 여부를 사용자에게 알리는 방범 기능을 제공할 수 있다.
한편, 이처럼 불법으로 사용자의 자택에 침입하는 침입자를 감지하는 기능 외에, 사용자의 허가에 따라 자택 내부로 진입하는 진입자가 있는 경우 본 발명의 실시 예에 따른 이동 로봇(100)은 상기 진입자의 행동을 감시하는 기능을 수행할 수 있다.
도 11은 이러한 경우에, 본 발명의 실시 예에 따른 이동 로봇(100)이, 도어 센서와 연동하여 자택 내부에 진입한 진입자를 식별하는 동작 과정을 도시한 흐름도이다.
우선 본 발명의 실시 예에 따른 이동 로봇(100)은 사용자가 자택 내에 부재중인 경우, 현관문의 도어 센서와 연동하여 상기 현관문의 열림 여부를 감지할 수 있다. 이러한 상태에서 상기 현관문의 열림 요청(예를 들어 초인종 소리 등)이 감지되면, 이동 로봇(100)의 제어부(180)는 이를 사용자에게 알릴 수 있다.
그러면 제어부(180)는 사용자의 선택에 따라 도어 센서의 오픈 여부를 결정할 수 있다. 즉, 예를 들어 사용자가 주문한 택배 상품이 도착하는 경우 사용자는 상기 현관문의 열림 요청에 대한 응답으로, 상기 현관문의 도어를 열도록 상기 이동 로봇(100)을 제어할 수 있다. 이러한 경우 이동 로봇(100)은 연동된 도어 센서를 제어하여 현관문을 열 수 있다.
이러한 경우 제어부(180)는 상기 현관문의 열림을 감지할 수 있다(S1100). 그리고 제어부(180)는 상기 열린 현관문을 통해 자택 내부로 진입하는 사람, 즉 진입자을 식별할 수 있다(S1102). 여기서 제어부(180)는 상기 진입자의 안면 영상을 통해, 상기 진입자가 기 등록된 사용자인지 여부를 식별할 수 있다.
한편 제어부(180)는 상기 S1102 단계의 식별 결과, 상기 진입자 중 기 등록된 사용자가 포함되어 있는지 여부를 확인할 수 있다(S1104). 만약 상기 S1104 단계에서 기 등록되지 않은 진입자가, 기 등록된 사용자와 동행하여 자택 내부로 진입한 경우라면, 제어부(180)는 상기 진입자가 사용자로부터 진입 허가를 얻은 것으로 판단할 수 있다. 이에 따라 제어부(180)는 상기 진입자를 감지하는 동작 과정을 종료할 수 있다.
반면 상기 S1104 단계의 확인 결과, 열려진 현관문을 통해 진입한 진입자 중 기 등록된 사용자가 없는 경우라면, 제어부(180)는 카메라(121)를 통해 센싱되는 상기 진입자의 안면이 포함된 영상을 정지영상 및 동영상으로 저장할 수 있다. 그리고 진입자가 자택 내부로 진입하는 경우 상기 진입자를 추적하여 상기 진입자의 영상을 저장할 수 있다(S1106). 그리고 제어부(180)는 기 설정된 시간 간격으로 또는 실시간으로, 상기 S1106 단계에서 저장된 진입자의 정지영상 또는 동영상을 사용자의 이동 단말기(200) 또는 기 설정된 서버에 전송할 수 있다(S1108).
한편 상술한 설명에서는 본 발명의 실시 예에 따른 이동 로봇(100)의 동작 과정을 복수의 흐름도를 이용하여 자세히 설명하였다.
이하의 설명에서는 상술한 이동 로봇(100)이 자신을 터치한 대상을 식별하고, 식별된 대상에 따라 서로 다른 기능을 수행할 수 있는 서로 다른 동작 모드로 동작하는 예들을, 복수의 예시도를 참조하여 보다 자세하게 설명하기로 한다.
우선 도 12는 본 발명의 실시 예에 따른 이동 로봇(100)이 애완동물에 의해 터치된 경우, 식별된 애완동물의 정보를 표시하는 예를 도시한 예시도들이다.
상술한 상기 도 10의 S1004 단계의 설명에 따르면, 본 발명의 실시 예에 따른 이동 로봇(100)은 애완동물이 이동 로봇을 터치하는 경우, 상기 애완동물을 식별 및 식별된 결과를 사용자에게 알릴 수 있음을 설명한 바 있다. 이러한 경우 이동 로봇(100)은 주변에 다른 사용자가 있는지 여부에 따라 음성 정보를 이용하여 상기 애완동물을 식별한 결과를 출력할 수 있다. 도 12의 (a)는 이러한 예를 도시한 것이다.
도 12의 (a)를 참조하여 살펴보면, 본 발명의 실시 예에 따른 이동 로봇(100)은 애완동물에 의해 터치되는 경우, 상기 터치가 감지된 방향의 영상 정보에 근거하여 상기 애완동물을 식별할 수 있다. 그리고 기 등록된 애완동물의 정보에 근거하여 상기 획득된 영상 정보 즉 예를 들어 털의 모양이나 색상에 매칭되는 애완동물을 식별할 수 있다.
이러한 상태에서 주변에 다른 사용자가 있는 경우라면, 이동 로봇(100)의 제어부(180)는 상기 애완동물을 식별한 결과를 음성 정보로 출력할 수 있다. 예를 들어 이동 로봇(100)은 주변에 다른 사용자가 있는지 여부를 상기 사용자가 착용 또는 소지하고 있는 웨어러블 디바이스나 이동 단말기를 통해 감지하거나, 또는 카메라(121)를 통해 센싱되는 영상에 다른 사용자의 이미지가 포함되어 있는지 여부에 따라 감지할 수 있다. 그리고 주변에 다른 사용자가 있는 경우 상기 도 12의 (a)에서 보이고 있는 바와 같이, 상기 식별된 애완동물의 이름, 즉, ‘로크’를 포함하는 음성 정보를 출력할 수 있다.
한편, 상기 이동 로봇(100)이 기 연결된 이동 단말기(200)를 통해 제어되는 경우라면, 제어부(180)는 상기 식별된 애완동물에 대한 정보를 상기 연결된 이동 단말기(200)를 통해 표시할 수도 있다. 즉, 이동 로봇(100)은 상기 식별된 애완동물에 대한 정보를 연결된 이동 단말기(200)에 전송할 수 있으며, 상기 이동 단말기(200)는 수신된 정보를 터치 스크린(210) 상에 표시할 수 있다. 이에 따라 도 12의 (b)에서 보이고 있는 바와 같이, 이동 단말기(200)의 터치 스크린(210) 상의 적어도 일부에 식별된 애완동물, 즉 ‘개’의 발자국에 대응되는 그래픽 객체가 표시될 수 있다.
한편, 상기 도 12의 (b)에서는 이동 로봇(100)을 터치한 애완동물의 발자국을 묘사한 그래픽 객체가 표시되었으나 이와는 다른 그래픽 객체가 표시될 수도 있음은 물론이다. 예를 들어 이동 로봇(100)은 기 등록된 애완동물의 정보로부터, 상기 이동 로봇(100)을 터치한 애완동물의 안면 영상을 추출할 수 있다. 그리고 추출된 영상을 상기 터치 스크린(210) 상에 표시할 수도 있다. 이에 따라 본 발명은 사용자가 음성 정보 또는 화상 정보에 근거하여 상기 이동 로봇(100)을 터치한 애완동물을 직관적으로 인지하도록 할 수 있다.
도 13은 본 발명의 실시 예에 따른 이동 로봇(100)이, 기본 동작 모드로 구동하는 경우 워키토키 기능을 수행하는 동작 과정의 예를 도시한 예시도이다.
상술한 설명에 따르면, 본 발명의 실시 예에 따른 이동 로봇(100)은, 이동 로봇(100)을 터치한 사용자가 ‘성인’인 경우 워키토키 기능을 포함하는 기본 동작 모드로 동작할 수 있으며, 상기 워키토키 기능은 상기 사용자로부터 선택된 특정 감정 상태를 상기 이동 로봇(100)의 움직임으로 표시할 수 있는 감정 표시 기능을 포함할 수 있다.
즉, 제1 사용자에 의해 터치가 감지된 경우, 제어부(180)는 상기 제1 사용자를 식별한 결과에 따라 상기 워키토키 기능을 포함하는 기본 동작 모드로 동작 모드를 전환할 수 있다. 그리고 상기 제1 사용자의 이동 단말기(200)에 연결될 수 있다. 그리고 상기 이동 단말기(200)를 통해 입력되는 제1 사용자의 제어에 따라 도 13의 첫 번째 도면에서 보이고 있는 바와 같이 제2 사용자의 근처로 이동할 수 있다.
이러한 상태에서, 이동 로봇(100)은 제1 사용자의 제어에 따라 워키토키 기능을 수행할 수 있다. 이러한 경우 도 13의 두 번째 도면에서 보이고 있는 바와 같이, 상기 이동 단말기(200)의 터치 스크린(210) 상에 표시되는 제어 인터페이스 화면에는 현재 이동 로봇(100)이 수행하는 기능, 즉 워키토키 기능이 표시(1350)될 수 있다. 이러한 경우 이동 단말기(200)는 상기 워키토키 기능에 따라 이동 단말기(200)로부터 수신되는 제1 사용자의 음성을 상기 이동 로봇(100)에 전송할 수 있다. 그러면 상기 이동 로봇(100)은 수신된 제1 사용자의 음성을 출력할 수 있다. 또한 상기 이동 로봇(100)은 제2 사용자의 음성을 수신하여 상기 이동 단말기(200)로 전송할 수 있다. 그리고 이동 단말기(200)는 이동 로봇(100)을 통해 수신된 제2 사용자의 음성을 출력할 수 있다.
한편 이처럼 워키토키 기능을 수행하는 경우 상기 제어 인터페이스 화면에는, 상기 감정 표시 기능을 위해 다양한 감정 상태, 즉 즐거움, 화남, 수줍음 등에 대응되는 다양한 그래픽 객체들(1302, 1304, 1306)이 표시될 수 있다. 이러한 상태에서 사용자가 도 13의 두 번째 도면에서 보이고 있는 바와 같이 ‘수줍음’에 대응되는 그래픽 객체(1306)를 선택하면, 이동 단말기(200)는 현재 선택된 감정 상태에 대한 정보를 상기 이동 로봇(100)에 전송할 수 있다.
한편 이처럼 감정 상태 ‘수줍음’에 대한 정보가 수신되면, 이동 로봇(100)은 상기 감정 상태 ‘수줍음’에 대응되는 움직임 패턴에 따라 움직일 수 있다. 예를 들어 제어부(180)는 도 13의 세 번째 도면에서 보이고 있는 바와 같이, 얼굴을 숙이는 것을 묘사하기 위해 이동 로봇(100)의 카메라(121)가 지면을 향하도록 상기 중앙부(130)를 회전시킬 수 있다. 그리고 도 13의 네 번째 도면에서 보이고 있는 바와 같이, 일정거리 만큼 제2 사용자가 위치한 방향의 반대 방향으로 이동할 수 있다. 여기서 상기 도 13의 첫 번째 도면에서 보이고 있는 바와 같이, 제2 사용자를 위치한 방향이 이동 로봇(100)의 전방이라면 제2 사용자가 위치한 방향의 반대 방향은, 이동 로봇(100)의 후방이 될 수 있다. 그리고 일정거리 만큼 뒤로 물러난 상태에서, 이동 로봇(100)은 좌우 방향으로 일정 각도 회전할 수 있다.
한편, 이처럼 이동 로봇(100)의 움직임을 이용하여 상기 제1 사용자로부터 선택된 감정 상태를 표시하는 상태에서, 이동 로봇(100)은 도 13의 네 번째 도면에서 보이고 있는 바와 같이, 상기 제1 사용자의 음성 신호를 출력할 수 있다. 이에 따라 본 발명의 실시 예에 따른 이동 로봇(100)은 상기 감정 표시 기능을 이용하여 제1 사용자의 메시지를 보다 효과적으로 제2 사용자에게 전달할 수 있도록 한다.
한편 상술한 설명에 따르면 본 발명의 실시 예에 따른 이동 로봇(100)은, 상기 이동 로봇(100)을 터치한 사용자가 아동인 경우, 상기 아동과 관련된 기능을 포함하는 아이 돌보미 모드로 동작할 수 있다. 도 14는 이처럼 본 발명의 실시 예에 따른 이동 로봇(100)이 아이 돌보미 모드로 동작하는 경우의 실시 예를 도시한 예시도이다.
본 발명의 실시 예에 따른 이동 로봇(100)은, 상기 이동 로봇(100)을 터치한 대상을 식별한 결과, ‘아동’인 경우 상기 아이 돌보미 동작 모드로 동작할 수 있다. 이러한 경우 이동 로봇(100)은 도 14의 첫 번째 도면에서 보이고 있는 바와 같이 아동(1400)으로부터 특정 동영상 컨텐츠가 요청되면 이를 감지할 수 있다.
이러한 경우 상기 이동 로봇(100)은 현재 시각 및 아동(1400)의 현재 위치가 기 설정된 조건을 충족하는지 여부를 확인할 수 있다. 예를 들어 제어부(180)는 현재 시각을 측정한 결과 현재 시각이 아동(1400)의 동영상 컨텐츠 시청이 부모(즉, 다른 사용자)로부터 허가된 시간 내인지 여부를 확인할 수 있다. 그리고 현재 시각이 동영상 컨텐츠의 시청이 허가된 시간인 경우 상기 아동(1400)의 위치가 동영상 컨텐츠의 시청이 적합한 위치인지 여부를 확인할 수 있다.
여기서 제어부(180)는 아동(1400)과 상기 동영상 컨텐츠가 재생될 영상 표시 장치 사이(1450)의 거리를 산출할 수 있다. 그리고 산출된 거리가 기 설정된 거리 이상 인 경우, 상기 아동(1400)이 동영상 컨텐츠의 시청이 적합한 위치에 있는 것으로 판단할 수 있다. 또는 제어부(180)는 도 14의 두 번째 도면에서 보이고 있는 바와 같이 아동(1400)이 기 설정된 위치, 예를 들어 쇼파에 앉아 있는 경우, 아동(1400)이 동영상 컨텐츠의 시청이 적합한 위치에 있는 것으로 판단할 수도 있다.
그러면 제어부(180)는 도 14의 세 번째 도면에서 보이고 있는 바와 같이 상기 아동(1400)이 원하는 동영상 컨텐츠가 출력되는 채널의 정보를 출력할 수 있다. 뿐만 아니라 이동 로봇(100)은 아동(1400)이 상기 영상 표시 장치(1450)를 직접 제어하기가 어렵다는 점을 감안하여, 상기 아동(1400)이 요청한 동영상 컨텐츠가 출력되는 채널을 직접 설정할 수도 있다. 이에 따라 도 14의 네 번째 도면에서 보이고 있는 바와 같이, 아동(1400)이 요구하는 동영상 컨텐츠가 영상 표시 장치(1450)에서 출력되도록, 이동 로봇(100)이 영상 표시 장치(1450)를 직접 제어할 수도 있다.
한편 이동 로봇(100)은 현재 시각이 동영상 컨텐츠의 시청이 허락된 시간이 아니거나, 아동(1400)의 현재 위치가 동영상 컨텐츠의 시청에 적합한 위치가 아닌 경우라면, 이동 로봇(100)의 제어부(180)는 이와 관련된 정보를 출력하고 영상 표시 장치(1450)를 오프(off) 상태로 유지할 수 있다. 또한 아동(1400)이 특정 동영상 컨텐츠의 재생을 재차 요구하거나, 아동(1400)이 직접 상기 영상 표시 장치(1450)를 제어하는 경우에도, 이동 로봇(100)은 상기 영상 표시 장치(1450)가 오프 상태로 유지되도록 상기 영상 표시 장치(1450)를 제어할 수 있다.
한편 상술한 설명에 따르면 본 발명의 실시 예에 따른 이동 로봇(100)은, 상기 이동 로봇(100)을 터치한 사용자가 유아인 경우, 상기 유아와 관련된 기능을 포함하는 유아 보호 모드로 동작할 수 있다. 도 15a 및 도 15b는 본 발명의 실시 예에 따른 이동 로봇(100)이 이처럼 유아 보호 모드로 동작하는 경우의 실시 예들을 도시한 예시도이다.
한편 이러한 유아 보호 모드는 유아가 기 설정된 위험물에 접근하거나 기 설정된 위험 지역으로 진입하는 것을 방지하기 위한 모드일 수 있다. 여기서 상기 위험물 또는 위험 지역은 사용자에 의해 미리 그 위치, 즉 좌표 정보가 저장될 수 있다.
이처럼 본 발명의 실시 예에 따른 이동 로봇(100)이 유아 보호 모드로 동작하는 경우, 도 15a의 첫 번째 도면에서 보이고 있는 바와 같이, 이동 로봇(100)은 유아(1500)를 따라 이동하며 상기 유아(1500)의 행동을 감지할 수 있다. 이러한 상태에서 상기 유아(1500)가 기 설정된 위험물(예 콘센트 : 1510)에 기 설정된 안전거리 이내로 접근하는 경우, 이동 로봇(100)은 이를 감지할 수 있다.
이러한 경우 상기 이동 로봇(100)은, 상기 유아(1500)가 이동하는 경로를 방해함으로써, 상기 유아(1500)가 위험물에 접근하는 것을 방지할 수 있다. 즉, 도 15a의 두 번째 도면에서 보이고 있는 바와 같이, 이동 로봇(100)은 상기 유아(1500)와, 상기 유아(1500)에 가장 가까운 거리에 위치한 위험물(콘센트 : 1510) 사이로 이동할 수 있으며, 이동과 동시에 기 설정된 경고음을 출력할 수 있다. 여기서 상기 경고음은 사용자로부터 기 녹음된 음성일 수 있다. 그리고 상기 유아(1500)가 상기 이동 로봇(100)의 진로 방행에 따라 이동 방향을 전환하면, 상기 유아(1500)를 안전한 장소로 유도하기 위해 기 설정된 안전 장소(예를 들어 거실 중앙, 또는 놀이방)로 이동할 수 있다. 그리고 멜로디를 출력하거나 LED 등의 다양한 광원을 발광하여 상기 유아(1500)의 흥미를 끌고, 사용자의 음성으로 녹음된 신호(예 : “착하지!! 이쪽으로 와!”)등을 이용하여 유아(1500)가 상기 이동 로봇(100)이 위치한 방향으로 이동하도록 유도할 수 있다.
한편 이와 유사하게, 유아(1500)의 기 설정된 위험 지역으로 진입하는 경우에도 이동 로봇(100)은 상기 유아(1500)가 안전한 장소로 이동하도록 유도할 수 있다.
본 발명의 실시 예에 따른 이동 로봇(100)이 유아 보호 모드로 동작하는 경우, 상기 유아(1500)를 따라다니며 유아(1500)의 이동 상태를 감지할 수 있다. 그리고 상기 유아(1500)의 이동 상태를 감지한 결과, 도 15b의 첫 번째 도면에서 보이고 있는 바와 같이, 유아(1500)가 위험지역(1550)으로 이동하는 경우라면, 상기 이동 로봇(100)의 제어부(180)는 상기 유아(1500)가 상기 이동 로봇(100)으로 주의를 돌리도록 특정 멜로디를 출력하거나 LED 등의 다양한 광원을 발광, 또는 기 설정된 패턴(예를 들어 제자리 회전)에 따라 움직일 수 있다. 그리고 도 15b의 두 번째 도면에서 보이고 있는 바와 같이, 이동 로봇(100)의 움직임에 유아(1500)가 반응을 보이는 경우, 기 저장된 음성 신호(예 : “착하지!! 이쪽으로 와!”)등을 이용하여 상기 유아(1500)가 이동 로봇(100)이 위치한 방향으로 이동하도록 유도할 수 있다.
한편 상술한 설명에 따르면, 본 발명의 실시 예에 따른 이동 로봇(100)이 펫 케어 동작 모드로 동작하는 경우, 식별된 애완동물과 이동 로봇(100) 사이의 이격 거리에 따라 자동으로 이동이 제어되는 예를 설명한 바 있다. 도 16a 내지 도 16c는 이처럼 본 발명의 실시 예에 따른 이동 로봇(100)이 펫 케어 동작 모드로 동작하는 상태에서, 자동 추적 기능으로 동작하는 경우를 설명하기 위한 예시도들이다.
우선 도 16a를 참조하여 살펴보면, 도 16a는 이동 로봇(100)과 애완동물(1602) 사이의 거리 d1(1610)이 기 설정된 이격 거리 d(1600)를 초과하는 경우의 예를 도시한 것이다. 이러한 경우 제어부(180)는 이동 로봇(100)이 상기 애완동물(1602)이 감지되는 방향으로 이동하도록 주행부(160)를 제어하여, 이동 로봇(100)과 애완동물(1602) 사이의 거리가 기 설정된 이격 거리 d(1600)를 유지하도록 할 수 있다.
반면 도 16b에서 보이고 있는 것과 같이, 이동 로봇(100)과 애완동물(1602) 사이의 거리 d2(1620)가 기 설정된 이격 거리 d(1600) 미만인 경우라면, 제어부(180)는 이동 로봇(100)이 상기 애완동물(1602)이 감지되는 방향의 반대 방향으로 이동하도록 주행부(160)를 제어할 수 있다. 이에 따라 이동 로봇(100)과 애완동물(1602) 사이의 거리는, 도 16b에서 보이고 있는 것처럼 기 설정된 이격 거리 d(1600)를 유지할 수 있다.
한편 본 발명의 실시 예에 따른 이동 로봇(100)은 애완동물(1602)에 의한 터치가 감지되는 경우, 사용자에게 펫 케어 동작 모드를 자동 모드로 수행할지 여부를 선택받을 수 있다. 그리고 자동 모드가 선택되지 않은 경우, 사용자의 제어에 따라 이동 로봇(100)이 움직이도록 하거나(수동 추적 모드), 애완동물(902)과의 이격 거리에 따라 상기 애완동물(902)을 따라 자동으로 이동하는 동작 모드(자동 추적 모드 - 자동 추적 기능이 활성화된 상태)를 사용자로부터 선택받을 수 있다. 도 16c의 (a)는 이러한 경우에 이동 단말기(200)에 자동 추적 모드 또는 수동 추적 모드를 선택받기 위한 그래픽 객체들이 표시되는 예를 도시한 것이다.
만약 도 16c의 (a)에서, 이동 단말기(200)에 표시된 그래픽 객체들을 통해 자동 추적 모드가 선택되면, 제어부(180)는 상기 도 16a 및 도 16b에서 보이고 있는 것처럼 애완동물(1602)과 이동 로봇(100) 사이의 이격 거리가 기 설정된 거리 d(1600)를 유지하도록 주행부(160)를 제어할 수 있다. 이에 따라 도 16c의 (b)에서 보이고 있는 것처럼, 애완동물(1602)과 이동 로봇(100) 사이의 이격 거리가 기 설정된 이격 거리 d(1600) 미만이면, 제어부(180)는 사용자의 제어가 없더라도 애완동물(1602)의 반대 방향으로 이동 로봇(100)을 이동시킬 수 있다. 따라서 애완동물(1602)은 이동 로봇(100)과 보다 멀어지게 되고, 도 16c의 (c)에서 보이고 있는 것처럼, 보다 멀어진 애완동물(1602)의 영상이 표시될 수 있다.
한편 상술한 설명에 따르면, 본 발명의 실시 예에 따른 이동 로봇(100)은 이동 로봇(100)을 터치한 애완동물의 식별 결과에 따라 펫 케어 기능이 서로 다르게 수행될 수 있음을 언급한 바 있다. 도 17은 본 발명의 실시 예에 따른 이동 로봇(100)이, 펫 케어 동작 모드로 동작하는 중, 사용자로부터 지정된 펫 케어 기능을, 식별된 애완동물에 따라 서로 다르게 수행하는 예를 도시한 예시도이다.
우선 본 발명의 실시 예에 따른 이동 로봇(100)은, 이동 로봇(100)을 터치한 대상이 애완동물인 경우, 상기 애완동물을 식별한 결과를 이동 단말기(200)에 전송할 수 있다. 그러면 이동 단말기(200)의 터치 스크린(210)에는 도 17의 첫 번째 도면에서 보이고 있는 바와 같이, 식별된 애완동물에 대응되는 그래필 객체(1650)가 표시될 수 있다.
이러한 경우, 이동 로봇(100)은 사용자의 선택에 따라 펫 케어 동작 모드로 전환될 수 있다. 그리고 상기 이동 로봇(100)이 펫 케어 동작 모드로 전환되는 경우, 이동 단말기(200)의 제어부는 상기 이동 로봇(100)의 제어 인터페이스 화면의 일부에, 현재의 동작 모드를 나타내기 위한 그래픽 객체(1710)를 출력할 수 있다. 뿐만 아니라, 이동 단말기(200)의 제어부는 사용자가 보다 편리하게 이동 로봇(100)의 펫 케어 기능을 선택할 수 있도록 각각의 펫 케어 기능에 대응되는 아이콘들(1720)을 상기 제어 인터페이스 화면에 표시할 수 있다.
한편, 이동 단말기(200)의 제어부는 상기 제어 인터페이스 화면을 통해 인가되는 사용자의 입력을 감지할 수 있다. 예를 들어 상기 도 17의 (a)에서 보이고 있는 바와 같이, 사용자가 각각의 펫 케어 기능에 대응되는 아이콘들(1720) 중, 'Play' 기능에 대응되는 아이콘(1722)을 선택하면, 이동 단말기(200)의 제어부는 현재 선택된 펫 케어 기능에 대한 정보를 이동 로봇(100)에 전송할 수 있다. 여기서 상기 ‘Play’기능은, 현재 식별된 애완동물과 놀아주는 기능일 수 있다.
이처럼 식별된 애완동물과 놀아주는 펫 케어 기능이 선택되면, 이동 로봇(100)은 현재 식별된 애완동물에 따라 서로 다르게 현재 선택된 펫 케어 기능, 즉 ‘Play’기능을 수행할 수 있다. 예를 들어 현재 식별된 애완동물이 ‘개(1760)’인 경우라면, 이동 로봇(100)의 제어부(180)는 도 17의 (b)에서 보이고 있는 바와 같이, 상기 ‘개(1760)’의 주변을 기 설정된 궤적을 그리며 이동하도록 주행부(160)를 제어할 수 있다. 반면, 현재 식별된 애완동물이 ‘고양이(1770)’인 경우라면, 이동 로봇(100)의 제어부(180)는 도 17의 (c)에서 보이고 있는 바와 같이, 상기 ‘고양이(1770)’의 주변에 레이저 포인터를 출력하고, 상기 레이저 포인터가 일정 속도로 이동하도록 상기 이동 로봇(100)을 회전시킬 수 있다. 이는 상술한 바와 같이 애완동물마다 각각 관심을 보이는 대상이나 특성이 서로 다르기 때문이다.
한편 상술한 설명에 따르면, 본 발명의 실시 예에 따른 이동 로봇(100)은, 이동 로봇(100)을 터치한 대상이 ‘성인’인 경우, 상기 이동 로봇(100)을 이용하여 다양한 주변 기기를 제어할 수 있는 기능을 제공하는 것을 설명하였다. 도 18a 내지 도 18c는 이러한 경우의 예들을 보이고 있는 것이다.
우선 도 18a는, 본 발명의 실시 예에 따른 이동 로봇(100)이 이동 단말기(200)의 제어에 따라 이동하는 경우에, 이동 로봇(100)의 주변에 위치한 적어도 하나의 기기를 제어하는 예를 도시한 것이다. 이처럼 이동 로봇(100)이, 이동 단말기(200)를 통한 사용자의 조작에 따라 이동하는 경우 이동 단말기(200)의 터치 스크린(210)에는 상기 이동 로봇(100)의 주행 방향 및 전진 또는 후진을 제어하기 위한 그래픽 객체들이 표시될 수 있다.
이러한 상태에서, 이동 로봇(100)은 주변에 위치한 다른 기기들을 식별할 수 있다. 예를 들어 이동 로봇(100)은 기 저장된 자택 맵 정보에 근거하여, 현재 이동 로봇(100)이 위치한 영역에 위치한 다른 기기들을 식별할 수 있다. 또는 상기 이동 로봇(100)의 주변에 위치한 기기들로부터 수신된 기기 정보에 근거하여, 상기 이동 로봇(100) 주변에 위치한 기기들을 식별할 수도 있다.
이러한 경우, 이동 로봇(100)은 카메라(121)에서 센싱된 영상과 함께, 상기 식별된 기기들의 정보를 연결된 이동 단말기(200)로 전송할 수 있다. 따라서 만약 상기 이동 로봇(100)의 주변에, 에어컨(1800) 및 TV(1810)이 있는 경우, 도 18a의 첫 번째 도면에서 보이고 있는 바와 같이, 상기 이동 단말기(200)의 터치 스크린(210)에 표시되는 제어 인터페이스 화면에는, 상기 에어컨(1800)에 대응되는 제1 그래픽 객체(1802) 및 상기 TV(1810)에 대응되는 제2 그래픽 객체(1812)가 더 표시될 수 있다.
한편 이러한 상태에서, 사용자가 상기 제1 그래픽 객체(1802)를 선택하면, 이동 단말기(200)의 제어부는 도 18a의 두 번째 도면에서 보이고 있는 바와 같이 상기 에어컨(1800)의 각종 기능을 제어할 수 있는 제어 화면(1820)을 터치 스크린(210) 상에 표시할 수 있다. 그리고 상기 제어 화면(1820)을 통해 인가되는 사용자의 입력을, 상기 에어컨(1800)에 대한 제어 신호로 입력받을 수 있다. 그러면 이동 단말기(200)의 제어부는 상기 에어컨(1800)에 대한 제어 신호를, 이동 로봇(100)에 전송할 수 있다. 그리고 상기 제어 신호가 수신되면, 이동 로봇(100)은 도 18a의 세 번째 도면에서 보이고 있는 바와 같이, 사용자가 선택한 기기, 즉 에어컨(1800)에 상기 제어 신호에 대응되는 적외선 신호를 송출할 수 있다.
그러면 에어컨(1800)은 수신된 제어 신호에 따라 구동될 수 있다. 이러한 경우, 이동 로봇(100)은 상기 에어컨(1800)의 동작 상태에 관련된 정보를 수집하고 이를 이동 단말기(200)로 전송할 수 있다. 여기서 상기 에어컨(1800)의 동작 상태에 관련된 정보는, IOT 기능을 통해 상기 에어컨(1800)으로부터 직접 수신한 정보일 수도 있으며, 상기 구동되는 에어컨(1800)을 이동 로봇(100)의 카메라(121)로 센싱한 영상일 수도 있다. 또는 제어부(180)는 상기 에어컨(1800)의 구동에 따라 낮아진 주변의 온도를 센싱하고, 센싱된 결과를 상기 에어컨(1800)의 동작 상태에 관련된 정보로 이동 단말기(200)에 전송할 수도 있다.
한편 이동 로봇(100)으로부터 상기 에어컨(1800)의 동작 상태에 관련된 정보가 전송되면, 이동 단말기(200)는 상기 수신된 정보를 터치 스크린(210) 상에 표시할 수 있다. 따라서 도 18a의 네 번째 도면에서 보이고 있는 바와 같이, 현재 구동되고 있는 에어컨(1800)의 동작 상태 정보가 이동 단말기(200)의 터치 스크린(210) 상에 표시될 수 있다.
한편 도 18a는 이동 로봇(100)의 현재 위치 주변의 기기들을 사용자가 제어하는 경우를 설명하였으나, 이동 로봇(100)의 주변에 위치하지 않은 기기라고 할지라도 얼마든지 사용자가 원격으로 구동을 제어할 수도 있음은 물론이다. 도 18b 및 도 18c는 이러한 경우에 상기 이동 로봇(100)을 이용하여 다양한 기기를 원격으로 제어할 수 있는 예를 도시한 예시도이다.
먼저 도 18b를 참조하여 살펴보면, 본 발명의 실시 예에 따른 이동 로봇(100)은, 이동 로봇(100)을 터치한 사용자가, ‘성인’인 경우, 식별된 사용자의 이동 단말기(200)와 연결될 수 있다. 그리고 사용자의 선택에 따라 주변 기기를 제어할 수 있는 주변 기기 원격 제어 기능을 수행할 수 있다. 이 경우 이동 단말기(200)의 터치 스크린(210)에는 현재 이동 로봇(100)에서 수행되는 기능을 나타내는 그래픽 객체(1860)가 표시될 수 있다.
한편 이러한 상태에서, 도 18b의 첫 번째 도면에서 보이고 있는 바와 같이, 이동 단말기(200)의 제어부는 사용자의 선택에 따라 기 등록된 기기 목록(1850)을 터치 스크린(210) 상에 표시할 수 있다. 여기서 상기 기 등록된 기기 목록(1850)은 이동 로봇(100)에 기 저장된 기기 목록일 수 있으며, 현재 사용자의 자택 내에서 위치한 기기들의 목록일 수 있다.
한편 이러한 상태에서, 사용자가 어느 하나의 기기(예를 들어 ‘에어컨’)을 선택하는 경우, 상기 도 18b의 두 번째 도면에서 보이고 있는 바와 같이, 이동 단말기(200)의 제어부는 선택된 기기, 즉 ‘에어컨’의 각종 기능을 제어할 수 있는 제어 화면(1870)을 터치 스크린(210) 상에 표시할 수 있다. 그리고 상기 제어 화면(1870)을 통해 인가되는 사용자의 입력을, 상기 ‘에어컨’에 대한 제어 신호로 입력받을 수 있다.
한편, 상기 제어 화면(1870)은 사용자로부터 현재 선택된 기기의 제어 신호 입력이 완료되었는지 여부를 확인받기 위한 확인 메뉴(1872)를 더 포함할 수 있다. 그리고 사용자가 현재 선택된 기기, 즉 ‘에어컨’의 동작 설정 정보를 상기 제어 화면(1870)을 통해 입력하고, 확인 메뉴(1872)를 선택하는 경우, 이동 단말기(200)는 사용자의 제어 신호 입력이 완료되었음을 인식할 수 있다.
한편, 제어 신호 입력이 완료되는 경우, 이동 단말기(200)는 이동 로봇(100)에 현재 입력된 제어 신호, 즉 현재 선택된 기기의 동작 설정 정보를 전송할 수 있다. 그러면 이동 로봇(100)은, 기 저장된 자택 맵 정보를 이용하여 현재 제어가 선택된 기기, 즉 ‘에어컨’의 위치 정보를 획득할 수 있다.
한편 도 18c의 (a)는 이러한 예를 보이고 있는 것이다, 도 18c의 (a)를 참조하여 살펴보면, 본 발명의 실시 예에 따른 이동 로봇(100)은 기 저장된 자택 맵 정보(1880)로부터 현재 이동 로봇(100)의 위치와, 상기 제어가 선택된 기기, 즉 ‘에어컨(1882)’의 위치 정보를 획득할 수 있다. 그리고 ‘에어컨(1882)’의 위치 정보가 획득되면, 상기 ‘에어컨(1882)’을 원거리에서 제어가 가능한 영역(1890)을 검출할 수 있다.
여기서 상기 제어 가능 영역(1890)은 현재 선택된 기기, 즉 ‘에어컨(1882)’의 제어 신호 형태 및 송수신 방식에 따라 결정될 수 있다. 예를 들어 상기 ‘에어컨(1882)’이 수신 가능한 제어 신호가 특정 주파수 대역의 적외선 신호라면, 이동 로봇(100)의 제어부(180)는, 상기 ‘에어컨(1882)’의 위치로부터 벽으로 가려지는 영역을 제외하고, 상기 특정 주파수 대역의 적외선 신호가 일반적으로 전달될 수 있는 범위의 영역을, 상기 ‘에어컨(1882)’을 원거리에서 제어 가능한 영역(1890)으로 검출할 수 있다.
한편 이처럼 제어 가능한 영역(1890)이 검출되면, 이동 로봇(100)의 제어부(180)는, 상기 검출된 제어 가능 영역(1890)으로 상기 이동 로봇(100)이 진입하도록 주행부(160)를 제어할 수 있다. 이에 따라 도 18c의 (b)에서 보이고 있는 바와 같이 이동 로봇(100)은 상기 검출된 제어 가능 영역(1890)으로 이동할 수 있으며, 상기 이동 단말기(200)를 통해 수신된 제어 신호에 대응되는 적외선 신호를 에어컨(1880)으로 송출할 수 있다. 이에 따라 상기 에어컨(1880)은 상기 도 18b의 두 번째 도면에서 보이고 있는 제어 화면(1870)을 통해 입력된 사용자의 제어 신호에 따라 구동될 수 있다.
한편 이처럼 에어컨(1880)이 구동되면, 제어부(180)는 상기 에어컨(1880)의 동작 상태에 관련된 정보를 수집할 수 있다. 여기서 상기 에어컨(1880)의 동작 상태에 관련된 정보는, 에어컨(1880)으로부터 직접 수신한 정보일 수도 있으며, 상기 구동되는 에어컨(1800)을 이동 로봇(100)의 카메라(121)로 센싱한 영상일 수도 있다. 또는 제어부(180)는 상기 에어컨(1880)의 구동에 따라 낮아진 주변의 온도를 센싱하고, 센싱된 결과를 상기 에어컨(1880)의 동작 상태에 관련된 정보로 이동 단말기(200)에 전송할 수도 있다. 그러면 이동 단말기(200)는 상기 수신된 정보를 터치 스크린(210) 상에 표시할 수 있다.
한편 상술한 설명에 따르면 본 발명의 실시 예에 따른 이동 로봇(100)은 유아 보호 모드로 동작하는 경우 유아를 따라 이동하며 유아의 이동 및 행동을 감지하는 것을 예로 들어 설명하였으나, 이와는 달리 자택 내부에 구비된 다양한 센서들을 이용하여 상기 유아의 이동 및 행동을 감지하고, 감지 결과에 따라 유아 보호 기능을 수행할 수도 있음은 물론이다. 도 19는 이러한 경우의 예를 도시한 예시도이다.
먼저 도 19의 첫 번째 도면을 참조하여 살펴보면, 자택 내부에서 유아(1900)가 이동하는 경우, 자택 내부에 구비된 다양한 센서들(예 : 동작 감지 센서 : 1910)을 통해 이러한 유아의 이동이 감지될 수 있다.
한편 이러한 경우, 이동 로봇(100)이 유아를 따라서 이동하지 않는 경우, 예를 들어 도 19의 두 번째 도면에서 보이고 있는 바와 같이, 이동 로봇(100)이 충전을 위해 충전독에 도킹(docking)된 상황이라고 할지라도, 상기 유아(1900)가 기 설정된 위험 지역으로 접근하는지 여부가 감지될 수 있다.
그리고 이처럼 유아(1900)가 위험 지역으로 접근하는 것이 감지되는 경우라면, 도 19의 세 번째 도면에서 보이고 있는 바와 같이 이동 로봇(100)은 충전독에 연결된 상태를 해제하고, 상기 유아(1900)가 감지된 위치로 이동할 수 있다. 그리고 도 19의 네 번째 도면에서 보이고 있는 바와 같이, 기 설정된 경고음을 출력하거나 유아(1900)의 이동 경로를 방해함으로써, 상기 유아(1900)가 위험 지역으로 진입하는 것을 방지할 수 있다. 또는 이동 로봇(100)은 상기 유아(1900)가 흥미를 끌 수 있는 멜로디나 다양한 색상의 광신호 또는 부모의 음성 신호를 출력하여 상기 유아(1900)가 안전한 장소로 이동하도록 유도할 수 있다.
한편 상술한 설명에서는 본 발명의 실시 예에 따른 이동 로봇(100)이 이동 단말기(200)를 통해 제어되는 것을 예로 든 것으로, 상기 이동 로봇(100)을 제어하기 위한 다양한 제어 인터페이스 화면이 이동 단말기(200)의 터치 스크린(210) 상에 표시되는 것을 예로 들어 설명하였다. 그러나 본 발명이 이에 한정되는 것이 아님은 물론이며, 얼마든지 다른 기기, 예를 들어 노트북이나 태블릿, 또는 HMD(Head Mounted Display)나 스마트 글래스 또는 스마트 렌즈 등의 디바이스등이 이동 로봇(100)의 제어 장치로 사용될 수도 있음은 물론이다. 이러한 경우 상술한 설명에서 언급된 인터페이스 화면들과 동일 또는 유사한 인터페이스 화면이, 상기 이동 로봇(100)을 제어하기 위한 디바이스를 통해 표시될 수도 있음은 물론이다.
또한 상술한 설명에서는 이동 로봇(100)을 터치한 대상이 애완동물인 경우, 애완동물을 식별하고 식별된 애완동물에 따른 펫 케어 기능을 수행하는 동작 모드로 전환되는 것으로 설명하였으나, 이러한 동작 모드의 전환은 주변에 다른 사용자가 있는 경우, 상기 다른 사용자의 허가에 의해 이루어질 수도 있음은 물론이다.
즉, 제어부(180)는 상기 도 5의 S502 단계에서 센싱된 영상에, 애완동물 외에 특정 사용자의 영상이 포함된 경우라면, 상기 이동 로봇(100)의 주변에 사용자가 더 있는 것을 감지할 수 있다. 이러한 경우 제어부(180)는, 애완동물이 상기 이동 로봇(100)을 터치한 것으로 감지된다고 할지라도 펫 케어 동작 모드로 전환하기 전에, 음성 정보 또는 연결된 이동 단말기(200)를 통해 펫 케어 모드로 동작할지 여부를 확인받을 수 있다. 그리고 음성 정보 또는 상기 이동 단말기(200)를 통한 사용자의 확인이 있는 경우에 한하여, 상기 펫 케어 동작 모드로 전환할 수 있다.
또한 이와 유사하게 이동 로봇(100)을 터치한 대상이 아동이나 유아로 구분되는 경우(상기 도 8) 역시, 상기 이동 로봇(100)의 주변에 다른 사용자(예 : 성인 사용자)가 더 있는 경우라면, 상기 성인 사용자의 확인 여부에 따라 상기 아이 돌보미 모드 또는 유아 보호 모드로 동작 모드를 전환할 수도 있음은 물론이다.
한편 상술한 설명에서는 카메라(121)에 센싱된 영상에, 애완동물 외에 특정 사용자의 영상이 포함된 경우에 다른 사용자가 있는 것을 감지하거나, 기 설정된 다른 기기, 즉 웨어러블 디바이스 또는 다른 이동 단말기가 감지되는 경우에 다른 사용자가 이동 로봇(100)의 주변에 있는 것으로 감지하는 것을 예로 들어 설명하였으나, 이와는 다른 방법이 이용될 수도 있음은 물론이다. 예를 들어 이동 로봇(100)의 제어부(180)는 마이크(122)로부터 수신되는 가청음을 분석한 결과, 기 등록된 사용자의 음성이 감지되는 경우, 감지된 음성에 대응되는 사용자가 이동 로봇(100)의 주변에 있는 것으로 판단할 수도 있다.
한편, 상술한 설명에서는 본 발명의 실시 예에 따른 이동 로봇(100)이, 상기 이동 로봇(100)을 터치한 대상을 식별하고 그 식별 결과에 따라 서로 다른 기능을 수행하는 동작 모드로 전환하는 것을 설명하였으나, 본 발명이 이에 한정되지 않음은 물론이다. 예를 들어 본 발명의 실시 예에 따른 이동 로봇(100)은 터치가 감지되지 않는 경우라고 할지라도 카메라(121)로부터 감지되는 영상 정보에 근거하여 얼마든지 주변에 위치한 대상, 즉 사람 또는 애완동물을 식별하고 식별된 결과에 따라 동작 모드를 전환할 수도 있음은 물론이다.
예를 들어 제어부(180)는, 센싱된 영상에 사람 또는 애완동물의 안면 영상이 포함된 경우, 안면 영상에 근거하여 상기 이동 로봇(100) 주변에 위치한 대상을 식별할 수 있다. 그리고 식별 결과에 따라 동작 모드를 전환할 수 있다. 반면 상기 카메라(121)에서 센싱되는 영상에 상기 사람 또는 애완동물의 안면 영상이 포함되지 않은 경우라면, 제어부(180)는 상술한 바와 같이 상기 센싱된 영상으로부터 획득된 대상의 신체 일부분의 영상 정보에 근거하여, 주변에 위치한 사람 또는 애완동물을 식별하고 식별 결과에 따라 이동 로봇(100)의 동작 모드를 전환할 수도 있다.
뿐만 아니라, 이처럼 감지된 터치 없이, 상기 카메라(121)에서 센싱되는 영상만으로 이동 로봇(100) 주변의 대상을 식별하는 경우, 상기 이동 로봇(100)은 이동 센싱된 영상 정보에 포함된 피사체까지의 거리 정보, 즉 이격 거리에 따라, 상기 이동 로봇(100) 주변에 위치한 대상을 식별할 수도 있다.
즉, 카메라(121)에 센싱된 영상에 사람의 ‘안면’과 애완동물의 ‘발’의 일부분이 모두 포함된 경우, 제어부(180)는 센싱된 영상에 포함된 피사체까지의 거리 정보에 근거하여 상기 사람과 카메라(141) 사이 및 상기 애완동물과 상기 카메라(141) 사이의 이격거리들을 산출할 수 있다. 그리고 산출된 이격거리들에 따라 상기 센싱된 영상에 포함된 신체 일부분(사람의 안면, 애완동물의 발의 일부)에 대응되는 대상들, 즉 상기 ‘안면’에 대응되는 사람과 상기 ‘발’에 대응되는 애완동물 중, 상기 이동 로봇(100) 주변에 위치한 대상을 검출할 수 있다. 그리고 제어부(180)는 검출 결과에 따라 상기 이동 로봇(100) 주변에 위치한 대상을 식별하고, 식별된 대상에 따라 동작 모드를 전환할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 따라서 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
Claims (21)
- 이동 로봇에 있어서,
상기 로봇 본체;
상기 로봇 주변에 위치한 대상을 식별하기 위한 영상을 센싱하는 적어도 하나의 카메라;
서로 다른 기능을 포함하는 서로 다른 복수의 동작 모드에 대한 정보 및 인체 각 부분의 모델링 데이터를 포함하는 메모리; 및,
상기 센싱된 영상으로부터 상기 대상의 신체 일부분의 영상 정보를 획득하고, 획득한 영상 정보에 근거하여 상기 대상을 식별하며, 상기 복수의 동작 모드 중 상기 식별된 대상에 따른 기능을 포함하는 동작 모드로 상기 이동 로봇의 동작 모드를 전환하는 제어부를 포함하며,
상기 제어부는,
상기 영상 정보에 대응되는 대상이 사람인 경우, 상기 영상 정보에 포함된 신체 일부분의 형상 및, 상기 신체 일부분의 형상 각 부분과 상기 카메라 사이의 거리 차이에 근거하여, 상기 신체 일부분에 대응되는 3차원 정보를 획득하고, 획득된 3차원 정보에 근거하여 상기 신체 일부분의 실제 길이 및 크기 중 적어도 하나를 산출하고,
산출된 상기 신체 일부분의 길이 및 크기 중 적어도 하나와, 상기 인체 각 부분의 모델링 데이터에 근거하여 상기 영상 정보에 대응되는 사람을 연령에 따라 성인, 아동 및 유아로 구분하거나, 또는 성별에 따라 구분하는 것을 특징으로 하는 이동 로봇.
- 제1항에 있어서, 상기 제어부는,
상기 영상 정보에 포함된 대상의 신체 일부분의 형상에 근거하여, 상기 영상 정보에 대응되는 대상이 사람인지 애완동물인지 여부를 판단 및, 판단 결과에 따라 애완동물과 관련된 기능을 수행하는 펫 케어 동작 모드로 상기 이동 로봇의 동작 모드를 전환하며,
상기 영상 정보에 포함된 신체 일부분은,
상기 영상 정보에 포함된 사람의 손 또는 상기 손을 포함하는 팔의 일부, 또는 상기 영상 정보에 포함된 사람의 발 또는 상기 발을 포함하는 다리의 일부임을 특징으로 하는 것을 특징으로 하는 이동 로봇.
- 삭제
- 삭제
- 삭제
- 삭제
- 제1항에 있어서,
상기 본체에 구비되며, 상기 본체에 인가되는 두드림을 감지하는 센싱부를 더 포함하며,
상기 제어부는,
상기 구분 결과, 상기 두드림을 인가한 사람이 성인으로 구분되는 경우 동영상 또는 음악 컨텐츠의 재생과 관련된 멀티미디어 기능을 포함하는 제1 동작 모드로 동작 모드를 전환하며,
상기 제어부는,
상기 연령 및 성별에 따른 인체 각 부분의 평균 사이즈에 대한 정보에 근거하여, 상기 영상 정보에 대응되는 사람의 성별을 더 구분하고,
상기 구분된 성별에 따라 서로 다른 컨텐츠 추천 목록을 제공하는 것을 특징으로 하는 이동 로봇.
- 제7항에 있어서,
상기 제1 동작 모드는,
상기 이동 로봇과 연결된 이동 단말기를 통해 수신되는 제1 사용자의 음성을, 상기 이동 로봇을 통해 출력하는 워키토키(Walki-Talki) 기능을 더 포함하며,
상기 워키토키 기능은,
기 설정된 복수의 감정 상태를, 각 감정 상태에 대응되는 서로 다른 패턴의 움직임으로 표시하는 감정 표시 기능을 더 포함하고,
상기 제어부는,
상기 이동 로봇이 워키토키 기능을 수행하는 경우, 상기 이동 단말기를 통해 상기 제1 사용자로부터 어느 하나의 감정 상태가 선택되면, 선택된 감정 상태에 대응되는 기 설정된 움직임 패턴에 따라 상기 이동 로봇이 움직이도록 제어하는 것을 특징으로 하는 이동 로봇.
- 제1항에 있어서, 상기 제어부는,
상기 구분 결과, 상기 영상 정보에 대응되는 사람이 아동으로 구분되는 경우, 아동과 관련된 기능을 포함하는 제2 동작 모드로 동작 모드를 전환하며,
상기 제2 동작 모드는,
현재 시각에 대응되는 상기 아동의 스케쥴 정보를 출력하는 기능 및, 상기 아동의 요구가 있는 경우 상기 아동의 요구에 대응되는 동영상 컨텐츠가 기 설정된 영상 표시 장치를 통해 출력되도록 상기 기 설정된 영상 표시 장치를 제어하는 기능을 포함하는 것을 특징으로 하는 이동 로봇.
- 삭제
- 제1항에 있어서, 상기 제어부는,
상기 구분 결과, 상기 영상 정보에 대응되는 사람이 유아로 구분되는 경우, 유아와 관련된 기능을 포함하는 제3 동작 모드로 동작 모드를 전환하며,
상기 제3 동작 모드는,
상기 유아가 기 설정된 위험 지역에 진입하는 것을 제한하거나 상기 유아가 기 설정된 위험물에 접근하는 것을 방지하는 위험물 접근 방지 기능을 포함하며,
상기 위험물 접근 방지 기능은,
상기 유아와 기 설정된 위험물 사이의 이격거리가 일정 거리 이내인 경우, 상기 유아와 상기 위험물 사이로 이동하여 상기 유아의 이동 경로를 방해하는 기능임을 특징으로 하는 이동 로봇.
- 삭제
- 제2항에 있어서, 상기 제어부는,
상기 영상 정보에 대응되는 대상이 애완동물로 판단되는 경우, 상기 획득된 영상 정보에 포함된 털의 색상 및 형태 중 적어도 하나와, 상기 메모리에 기 저장된 애완동물 정보에 근거하여 상기 애완동물을 식별하고,
식별된 애완동물에 따라 서로 다른 펫 케어 기능을 수행하는 동작 모드로 전환하는 것을 특징으로 하는 이동 로봇.
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 제1항에 있어서,
상기 본체에 구비되며, 상기 본체에 인가되는 두드림을 감지하는 센싱부를 더 포함하며,
상기 제어부는,
상기 두드림이 감지되면, 상기 두드림이 감지된 방향의 영상을 센싱하도록 상기 카메라를 제어하며,
상기 센싱된 영상으로부터, 상기 두드림을 인가한 대상의 안면 영상이 검출되지 않는 경우, 상기 센싱된 영상에 포함된 상기 두드림을 인가한 대상의 신체 일부분의 영상을 상기 영상 정보로 획득 및, 획득된 영상 정보에 근거하여 상기 두드림을 인가한 대상을 식별하는 것을 특징으로 하는 이동 로봇.
- 삭제
- 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160066716A KR102565823B1 (ko) | 2016-05-30 | 2016-05-30 | 이동 로봇 및 그 이동 로봇의 제어 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160066716A KR102565823B1 (ko) | 2016-05-30 | 2016-05-30 | 이동 로봇 및 그 이동 로봇의 제어 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170135195A KR20170135195A (ko) | 2017-12-08 |
KR102565823B1 true KR102565823B1 (ko) | 2023-08-10 |
Family
ID=60919630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160066716A KR102565823B1 (ko) | 2016-05-30 | 2016-05-30 | 이동 로봇 및 그 이동 로봇의 제어 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102565823B1 (ko) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9259838B1 (en) * | 2014-07-24 | 2016-02-16 | Google Inc. | Systems and methods for ground plane estimation |
KR101965530B1 (ko) * | 2018-04-10 | 2019-04-03 | 이화여자대학교 산학협력단 | 이동형 스피커 장치 및 이동형 스피커 장치의 음향 출력 방법 |
CN108748181B (zh) * | 2018-06-12 | 2022-05-13 | 重庆文理学院 | 一种基于场景识别的家庭看护机器人 |
KR102084690B1 (ko) * | 2018-09-13 | 2020-04-23 | 이승일 | 객체인식과 기계학습을 이용한 이동형 장난감 제어시스템 |
KR102673293B1 (ko) * | 2018-11-08 | 2024-06-11 | 현대자동차주식회사 | 서비스 로봇 및 그의 운용 방법 |
CN109514582B (zh) | 2018-12-20 | 2020-06-05 | 珠海市一微半导体有限公司 | 一种机器人逗宠控制装置及移动机器人 |
KR102715879B1 (ko) | 2019-03-07 | 2024-10-14 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
JP7243592B2 (ja) * | 2019-11-25 | 2023-03-22 | トヨタ自動車株式会社 | 制御システム、制御方法およびプログラム |
KR102556886B1 (ko) * | 2020-10-27 | 2023-07-19 | (주)엘컴텍 | 게임 동화형 조명무드 제어장치 및 그 방법 |
CN114167861A (zh) * | 2021-11-29 | 2022-03-11 | 珠海一微半导体股份有限公司 | 一种宠物机器人控制方法、系统及芯片 |
US20240197420A1 (en) * | 2022-12-15 | 2024-06-20 | Geoffrey Lee Ruben | Healthcare assistive robot apparatus |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101329939B1 (ko) * | 2007-06-29 | 2013-11-14 | 주식회사 케이티 | 지능형 로봇 서비스 사용법 제공 방법 |
KR101482209B1 (ko) * | 2008-02-01 | 2015-01-15 | 삼성전자 주식회사 | 네트워크 로봇 서비스 제공 방법 |
KR101295003B1 (ko) * | 2011-10-12 | 2013-08-16 | 한국과학기술연구원 | 지능 로봇, 지능 로봇과 사용자의 상호작용을 위한 시스템 및 지능 로봇과 사용자의 상호작용을 위한 방법 |
KR20140077726A (ko) * | 2012-12-14 | 2014-06-24 | 한국전자통신연구원 | 유아용 모니터링 로봇 |
-
2016
- 2016-05-30 KR KR1020160066716A patent/KR102565823B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20170135195A (ko) | 2017-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102565823B1 (ko) | 이동 로봇 및 그 이동 로봇의 제어 방법 | |
JP6984768B2 (ja) | ロボット、制御方法及びプログラム | |
US11875656B2 (en) | Virtual enhancement of security monitoring | |
US10248856B2 (en) | Smart necklace with stereo vision and onboard processing | |
US10360907B2 (en) | Smart necklace with stereo vision and onboard processing | |
US10024679B2 (en) | Smart necklace with stereo vision and onboard processing | |
US10024678B2 (en) | Wearable clip for providing social and environmental awareness | |
US9629774B2 (en) | Smart necklace with stereo vision and onboard processing | |
US9915545B2 (en) | Smart necklace with stereo vision and onboard processing | |
US9804596B1 (en) | Pet security monitoring | |
US10024667B2 (en) | Wearable earpiece for providing social and environmental awareness | |
US9511495B2 (en) | Method and apparatus for remote monitoring | |
JP2019107767A (ja) | ロボット装置/プラットフォームを使用して能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム | |
US20150140934A1 (en) | Wireless motion activated user device with bi-modality communication | |
KR102277967B1 (ko) | 인공지능 기반 영유아 모니터링 서비스 제공 시스템 | |
CN107211113A (zh) | 监控 | |
KR101663375B1 (ko) | 웨어러블 장치, 이동 단말기 및 시스템 | |
JPWO2020116233A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN109324693A (zh) | Ar搜索装置、基于ar搜索装置的物品搜索系统及方法 | |
KR20150020954A (ko) | 감정적 반응을 표현하는 청소로봇 | |
JP6809267B2 (ja) | 情報処理装置、情報処理システム及びプログラム | |
US20230367312A1 (en) | Information processing apparatus, information processing method, and program | |
WO2020080241A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
KR20210116838A (ko) | 제스처에 기초하여, 음성 입력을 처리하는 전자 장치 및 그 동작 방법 | |
KR20210110759A (ko) | 전자 장치 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |