KR20210113135A - 개인 영역을 고려하여 친인간적으로 주행하는 로봇이 배치되는 건물 - Google Patents

개인 영역을 고려하여 친인간적으로 주행하는 로봇이 배치되는 건물 Download PDF

Info

Publication number
KR20210113135A
KR20210113135A KR1020210119454A KR20210119454A KR20210113135A KR 20210113135 A KR20210113135 A KR 20210113135A KR 1020210119454 A KR1020210119454 A KR 1020210119454A KR 20210119454 A KR20210119454 A KR 20210119454A KR 20210113135 A KR20210113135 A KR 20210113135A
Authority
KR
South Korea
Prior art keywords
robot
person
personal area
user
information
Prior art date
Application number
KR1020210119454A
Other languages
English (en)
Other versions
KR102462521B1 (ko
Inventor
김석태
김가현
차세진
Original Assignee
네이버 주식회사
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사, 네이버랩스 주식회사 filed Critical 네이버 주식회사
Priority to KR1020210119454A priority Critical patent/KR102462521B1/ko
Publication of KR20210113135A publication Critical patent/KR20210113135A/ko
Application granted granted Critical
Publication of KR102462521B1 publication Critical patent/KR102462521B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1651Programme controls characterised by the control loop acceleration, rate control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

로봇의 주행 방향에 존재하는 사람과 연관된 개인 영역을 인식하고, 인식된 사람의 개인 영역에 기반하여, 사람과의 간섭을 회피하도록 로봇의 이동을 제어하는, 로봇 제어 방법이 제공된다. 개인 영역은 사람과 연관된 국가 또는 문화권에 관한 정보, 사람의 이동 방향, 사람의 이동 속도, 사람의 신체 정보, 사람이 통행하는 통로에 관한 정보, 사람과 상기 로봇 간의 거리, 로봇이 제공하고 있는 서비스의 종류, 로봇의 종류 및 로봇의 속도 중 적어도 하나에 따라 상이하게 인식된다.

Description

개인 영역을 고려하여 친인간적으로 주행하는 로봇이 배치되는 건물{BUILDING IN WHICH ROBOT HUMAN-FRIENDLY DRIVING BUILDING WITH CONSIDERERATION OF PERSONAL AREA IS DISPOSED}
아래의 설명은 로봇의 제어 방법 및 시스템에 관한 것으로, 특히, 사람과 연관하여 인식된 개인 영역을 고려하여 로봇을 제어하는 방법 및 시스템에 관한 것이다.
자율 주행 로봇은 스스로 주변을 살피고 장애물을 감지하면서 바퀴나 다리를 이용하여 목적지까지 최적 경로를 찾아가는 로봇으로, 자율 주행 차량이나, 물류, 호텔 서비스, 로봇 청소기 등 다양한 분야를 위해 개발 및 활용되고 있다.
건물 내에서 서비스를 제공하기 위해 사용되는 로봇은, 건물 내부의 공간을 사용하는 사용자(예컨대, 건물에서 근무하는 직원 및 건물 내부를 통행하는 인원 또는 사람)가 함께 존재하는 환경에서 동작하므로, 로봇이 서비스를 제공하기 위해 이동(주행)함에 있어서 이러한 사용자와 충돌이 발생하는 경우가 있다. 이러한 로봇과 사용자의 충돌은 로봇에 의한 서비스의 제공을 매우 비효율적으로 만들고, 로봇과 충돌하는 사용자에게 위험을 야기할 수 있다. 또한, 사용자의 입장에서 로봇이 접근하는 것은 위협으로 인식될 수 있다.
따라서, 서비스 제공을 위해 로봇을 사용함에 있어서, 로봇과 사용자 간의 충돌을 방지할 수 있으면서도, 사용자에게 위협적으로 인식되지 않도록 로봇의 이동을 제어하고, 로봇 의한 서비스의 제공을 보다 효율화할 수 있는, 로봇 제어 방법 및 시스템이 요구된다.
한국공개특허 제10-2005-0024840호는 자율이동로봇을 위한 경로계획방법에 관한 기술로, 가정이나 사무실에서 자율적으로 이동하는 이동로봇이 장애물을 회피하면서 목표점까지 안전하고 빠르게 이동할 수 있는 최적경로를 계획하는 방법에 대해 개시하고 있다.
상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.
로봇의 주행 방향에 존재하는 사람과 연관된 개인 영역을 인식하고, 인식된 사람의 개인 영역에 기반하여, 사람과의 간섭을 회피하도록 로봇의 이동을 제어하는 로봇 제어 방법이 제공된다.
로봇의 이동을 제어함에 있어서, 사람의 이동을 유도하도록 하는 정보, 사람에 대한 로봇의 감정을 나타내는 정보 및 로봇의 움직임을 나타내는 정보를 포함하는 인디케이터를 출력하도록 로봇을 제어하는 방법이 제공된다.
건물 내에서의 사람의 이동 통로와 로봇의 주행 경로가 교차하는 경우나, 로봇이 코너를 통과하여 주행하는 경우에 있어서, 교차하는 구간 또는 코너에 존재하는 사람 및 기타 장애물을 고려하여 로봇을 제어하는 방법이 제공된다.
일 측면에 있어서, 로봇 또는 로봇을 제어하는 로봇 제어 시스템에 의해 수행되는 로봇 제어 방법에 있어서, 로봇의 주행 방향에 존재하는 사람과 연관된 개인 영역을 인식하는 단계 및 상기 인식된 개인 영역에 기반하여, 상기 사람과의 간섭을 회피하도록 상기 로봇의 이동을 제어하는 단계를 포함하는, 로봇 제어 방법이 제공된다.
상기 개인 영역은 상기 사람이 정지하고 있을 경우에는 상기 사람을 중심으로 하는 원형으로 인식되고, 상기 사람이 이동하고 있을 경우에는 상기 사람이 이동하는 방향으로 연장하는 원추형 또는 타원형으로 인식될 수 있다.
상기 인식하는 단계는, 상기 사람과 연관된 국가 또는 문화권에 관한 정보, 상기 사람의 이동 방향, 상기 사람의 이동 속도, 상기 사람의 신체 정보, 상기 사람이 통행하는 통로에 관한 정보, 상기 사람과 상기 로봇 간의 거리, 상기 로봇이 제공하고 있는 서비스의 종류, 상기 로봇의 종류 및 상기 로봇의 속도 중 적어도 하나에 따라, 상기 사람과 연관된 상기 개인 영역을 상이하게 인식할 수 있다.
상기 사람이 이동하는 방향으로 연장하는 상기 개인 영역의 길이는 상기 사람의 속도가 클수록, 상기 사람의 키가 클수록, 또는 상기 사람이 통행하는 통로의 폭이 좁을수록 커질 수 있다.
상기 사람이 이동하는 방향으로 연장하는 상기 개인 영역의 길이는 상기 로봇이 위치하는 방향으로의 상기 로봇의 속도가 클수록, 상기 로봇의 높이 또는 폭이 클수록, 또는 상기 로봇이 제공하는 서비스의 상기 사람에 대한 위험도가 높을수록 커질 수 있다.
상기 로봇의 이동을 제어하는 단계는, 상기 개인 영역에 진입하지 않고, 상기 사람이 통행하는 통로를 지나가도록 상기 로봇의 이동을 제어할 수 있다.
상기 로봇의 이동을 제어하는 단계는, 상기 로봇이 상기 개인 영역에 접근하면, 상기 로봇이 감속하도록 상기 로봇의 이동을 제어할 수 있다.
상기 로봇의 이동을 제어하는 단계는, 상기 개인 영역에 진입하지 않고 상기 통로를 지나가는 것이 불가능하거나 상기 통로의 폭이 소정의 값 이하인 것으로 판단된 때, 상기 통로의 일 측에서 상기 로봇이 정지한 상태로 대기하도록 상기 로봇을 제어하는 단계 및 상기 사람이 상기 로봇을 지나간 후 상기 로봇이 이동하도록 상기 로봇을 제어하는 단계를 포함할 수 있다.
상기 로봇 제어 방법은 상기 로봇의 주행 방향에 존재하는 장애물을 인식하는 단계, 상기 장애물이 인간인지 또는 사물인지 여부를 판정하는 단계, 및 상기 장애물이 인간으로서 상기 사람인 것으로 판정된 때, 상기 사람과 상기 로봇 간의 거리 및 상기 사람의 상기 로봇이 위치하는 방향으로의 이동 속도를 계산하는 단계를 더 포함하고, 상기 장애물이 상기 사람인 것으로 판정된 때, 상기 개인 영역을 인식하는 단계 및 상기 로봇의 이동을 제어하는 단계가 수행되고, 상기 로봇의 이동을 제어하는 단계는, 상기 개인 영역을 회피하기 위한 회피 방향을 결정하는 단계, 상기 개인 영역을 회피하도록, 상기 로봇의 이동 방향 및 상기 로봇의 속도를 제어하는 단계, 상기 개인 영역이 회피되었는지 여부를 판정하는 단계 및 상기 개인 영역이 회피된 경우 또는 상기 사람이 상기 로봇을 통과한 경우 상기 로봇이 목적지로 이동하도록 상기 로봇의 이동을 제어하는 단계를 포함할 수 있다.
상기 로봇 제어 방법은 상기 로봇이 상기 사람이 통행하는 통로에서 상기 사람을 지나가기 전, 상기 로봇이 상기 사람을 지나가는 동안 및 상기 사람을 지나간 후 중 적어도 하나의 경우에 상기 사람에 대해 상기 로봇의 시선(gaze)에 대응하는 인디케이터를 출력하도록 상기 로봇을 제어하는 단계를 더 포함하고, 상기 인디케이터는 상기 사람의 이동을 유도하도록 하는 정보, 상기 사람에 대한 상기 로봇의 감정을 나타내는 정보 및 상기 로봇의 움직임을 나타내는 정보 중 적어도 하나를 포함할 수 있다.
상기 인디케이터를 출력하도록 상기 로봇을 제어하는 단계는, 상기 로봇과 상기 사람 간의 거리가 소정의 값 이하가 되면, 상기 로봇의 시선을 내리는 것에 대응하는 상기 인디케이터를 출력하도록 상기 로봇을 제어하거나, 상기 로봇이 이동하고자 하는 방향에 대응하는 방향으로 상기 로봇의 시선이 향하도록 상기 인디케이터를 출력하도록 상기 로봇을 제어할 수 있다.
상기 로봇의 이동을 제어하는 단계는, 상기 사람이 다른 사람 또는 다른 시설과 상호 작용하고 있는 것으로 판단된 때, 상기 사람과 상기 다른 사람 또는 상기 시설 사이의 공간을 통과하여 이동하지 않도록 상기 로봇의 이동을 제어하고, 상기 사이의 공간을 통과하지 않고는 상기 사람을 통과하여 지나갈 수 없는 것으로 판단된 때에는, 상기 사람에게 시각적 인디케이터 및 청각적 인디케이터 중 적어도 하나를 출력함으로써 상기 사람에게 상기 로봇이 상기 사이의 공간을 통과함을 알리거나, 상기 사람에게 이동을 요청하고, 상기 사람을 지나가도록 상기 로봇의 이동을 제어할 수 있다.
상기 로봇의 이동을 제어하는 단계는, 상기 로봇의 적어도 일부가 상기 개인 영역 내에 포함되어, 상기 로봇이 상기 사람과 함께 이동되어야 하는 경우, 사람의 다른 사람과의 간섭을 회피하는 동작을 모방하는 방식으로, 상기 사람 및 다른 사람과의 간섭을 회피하도록 상기 로봇의 이동을 제어할 수 있다.
상기 로봇과 상기 사람은 동일한 엘리베이터에 탑승하거나 상기 엘리베이터에서 하차하고, 상기 로봇은, 상기 엘리베이터에 탑승하기 전에는, 상기 엘리베이터에서 사람들이 모두 하차한 후에 상기 엘리베이터에 탑승하도록 제어되고, 상기 엘리베이터에 탑승한 상태에서는, 상기 엘리베이터에 탑승 또는 상기 엘리베이터에서 하차하는 사람을 방해하지 않도록 상기 엘리베이터의 벽 측으로 이동하도록 제어될 수 있다.
상기 로봇 제어 방법은 상기 로봇의 이동의 제어에 따라, 상기 로봇의 감속 또는 정지를 나타내는 인디케이터를 상기 로봇의 후방에서 출력하도록 상기 로봇을 제어하는 단계를 더 포함할 수 있다.
상기 로봇 제어 방법은 건물 내에서의 사람의 이동 통로와 상기 로봇의 주행 경로가 교차하는 경우, 상기 교차하는 상기 주행 경로의 구간에 진입하기 전에 상기 로봇을 감속시키거나 정지하도록 상기 로봇을 제어하는 단계를 더 포함할 수 있다.
상기 로봇 제어 방법은 건물 내에서의 상기 로봇의 주행 경로가 코너를 통과하는 것을 포함하는 경우, 기 저장된 상기 코너와 연관된 주변 환경 정보에 기반하여, 상기 로봇의 상기 코너를 통과하는 이동을 제어하는 단계를 더 포함할 수 있다.
상기 주변 환경 정보는 상기 코너의 형태에 관한 정보, 상기 코너 주변의 공간에 관한 정보 및 상기 코너 주변의 공간에서의 인구 행동 양상에 관한 정보 중 적어도 하나를 포함하고, 상기 코너의 형태에 관한 정보는 상기 코너를 구성하는 통로의 폭에 관한 정보, 상기 코너의 각도에 관한 정보 및 상기 코너의 재료에 관한 정보 중 적어도 하나를 포함하고, 상기 코너 주변의 공간에 관한 정보는 상기 코너 주변의 공간의 사용률에 관한 정보 및 상기 코너 주변의 장애물 분포에 관한 정보 중 적어도 하나를 포함하고, 상기 코너 주변의 공간에서의 인구 행동 양상에 관한 정보는, 상기 코너 주변의 공간에서의 사람의 이동 패턴에 관한 정보를 포함할 수 있다.
다른 일 측변에 있어서, 건물 내에서 이동하는 로봇에 있어서, 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 로봇의 주행 방향에 존재하는 사람과 연관된 개인 영역을 인식하고, 상기 인식된 개인 영역에 기반하여, 상기 사람과의 간섭을 회피하도록 상기 로봇의 이동을 제어하는, 로봇이 제공된다.
사람과 연관된 국가 또는 문화권에 관한 정보, 사람의 이동 방향, 사람의 이동 속도, 사람의 신체 정보, 사람이 통행하는 통로에 관한 정보, 사람과 상기 로봇 간의 거리, 로봇이 제공하고 있는 서비스의 종류, 로봇의 종류 및 로봇의 속도 중 적어도 하나에 따라 상이하게 인식되는 사람의 개인 영역을 회피하도록 로봇을 제어함으로써, 사람과 로봇 간의 충돌/간섭을 방지하고 사람이 로봇을 위협적으로 느끼지 않도록 로봇을 제어할 수 있다.
로봇의 이동을 제어함에 있어서, 사람의 이동을 유도하도록 하는 정보, 사람에 대한 로봇의 감정을 나타내는 정보 및 로봇의 움직임을 나타내는 정보를 포함하는 인디케이터를 출력하고, 사람의 행동 방식을 모방하도록 로봇을 제어함으로써, 로봇이 사람에게 보다 친근하게 인식되도록 할 수 있다.
건물 내에서의 사람의 이동 통로와 로봇의 주행 경로가 교차하는 경우나, 로봇이 코너를 통과하여 주행하는 경우와 같이, 사각지대를 갖는 구간을 로봇이 주행하는 경우에 있어서도 사람과 로봇 간의 충돌/간섭을 방지할 수 있다.
도 1은 일 실시예에 따른, 사용자와 연관된 개인 영역을 고려하여 사용자와의 간섭을 회피하도록 로봇을 제어하는 방법을 나타낸다.
도 2 는 일 실시예에 따른, 건물 내에서 서비스를 제공하는 로봇을 나타내는 블록도이다.
도 3 및 4는 일 실시예에 따른, 건물 내에서 서비스를 제공하는 로봇을 제어하는 로봇 제어 시스템을 나타내는 블록도이다.
도 5는 일 실시예에 따른, 사용자와 연관된 개인 영역을 고려하여 사용자와의 간섭을 회피하도록 로봇을 제어하는 방법을 나타내는 흐름도이다.
도 6은 일 예에 따른, 로봇이 사용자와 연관된 개인 영역에의 진입 없이 사용자가 통행하는 통로를 지나갈 수 없는 경우에 있어서의 로봇의 제어 방법을 나타내는 흐름도이다.
도 7은 일 예에 따른, 사용자의 이동 통로와 로봇의 주행 경로가 교차하는 영역/코너에서의 로봇의 이동 제어 방법과, 로봇의 이동 제어에 따라 인디케이터를 출력하도록 로봇을 제어하는 방법을 나타내는 흐름도이다.
도 8은 일 예에 따른, 사용자와 연관된 개인 영역과, 이러한 개인 영역을 회피하는 방법을 나타낸다.
도 9는 일 예에 따른, 사용자와 연관된 개인 영역을 회피하기 위한 회피 방향을 결정하는 방법을 나타낸다.
도 10은 일 예에 따른, 로봇에서 출력되는 인디케이터로서 로봇의 시선에 대응하는 인디케이터를 나타낸다.
도 11 내지 13은 일 예에 따른, 사용자가 다른 사용자 또는 다른 시설과 상호작용하고 있는 경우에 있어서의 로봇 제어 방법을 나타낸다.
도 14는 일 예에 따른, 사용자와 연관된 개인 영역을 회피하도록 로봇을 제어하는 방법을 나타낸다.
도 15는 일 예에 따른, 통로의 폭이 좁은 경우에 있어서, 사용자와 연관된 개인 영역을 회피하도록 로봇을 제어하는 방법을 나타낸다.
도 16은 일 예에 따른, 복수의 로봇들을 제어하는 방법을 나타낸다.
도 17은 일 예에 따른, 엘리베이터의 사용에 있어서 로봇을 제어하는 방법을 나타낸다.
도 18은 일 예에 따른, 사용자의 이동 통로와 로봇의 주행 경로가 교차하는 영역을 주행할 때 로봇을 제어하는 방법을 나타낸다.
도 19는 일 예에 따른, 코너를 주행할 때 로봇을 제어하는 방법을 나타낸다.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
도 1은 일 실시예에 따른, 사용자와 연관된 개인 영역을 고려하여 사용자와의 간섭을 회피하도록 로봇을 제어하는 방법을 나타낸다.
도 1에서는 로봇 제어 시스템(120)에 의한 제어를 통해 제어되는 로봇(100)과, 로봇(100)이 건물(130)(또는 건물(130) 내의 공간)에서 소정의 경로를 따라 이동하여 로봇(100)의 주행 방향에 존재하는 사람(140)(이하, 사용자(140)라고 함)를 회피하는 방법이 도시되었다. 로봇(100)은 건물(130) 내에서 로봇 제어 시스템(120)에 의한 제어에 따라 서비스를 제공하는 서비스 로봇일 수 있다. 후술될 상세한 설명에서는 로봇(100)이 서비스를 제공하는 건물(130) 내의 공간은 설명의 편의상 건물(130)로 지칭할 수 있다.
건물(130)은 복수의 인원(이하, 사용자 또는 사람이라 함)들이 근무 또는 상주하는 공간으로서, 복수의 구획된 공간들을 포함할 수 있다. 이러한 공간은 건물(130)의 외벽이나, 윈도우, 건물(130) 내부의 파티션 또는 벽에 의해 구분될 수 있다. 로봇(100)은 이와 같은 건물(130) 내의 공간을 주행함으로써 건물(130) 내의 소정의 위치에서(또는 소정의 인원에게) 서비스를 제공할 수 있다. 사용자(140)는 건물(130) 내를 통행하는 건물 내의 인원으로서, 건물(130) 내에서 일 공간으로부터 다른 공간으로 자유롭게 이동할 수 있다.
로봇(100)은 건물(130) 내에서 서비스를 제공하기 위해 사용되는 서비스 로봇일 수 있다. 로봇(100)은 건물(130)의 적어도 하나의 층에서 서비스를 제공하도록 구성될 수 있다. 또한, 로봇(100)은 복수일 수 있다. 말하자면, 건물(130) 내에서 복수의 로봇들 각각이 이동하여 건물(130) 내의 적절한 위치 또는 적절한 사용자에게 서비스를 제공할 수 있다. 후술될 상세한 설명에서는 설명의 편의상 로봇(100)은 복수의 로봇들을 나타내는 것으로도 지칭할 수 있다. 로봇(100)이 제공하는 서비스는 예컨대, 택배 전달 서비스, 주문에 따른 음료(커피 등) 전달 서비스, 청소 서비스, 및 기타 정보/콘텐츠 제공 서비스 중 적어도 하나를 포함할 수 있다.
로봇(100)은 자율 주행을 통해 건물(130)의 소정의 위치에서 서비스를 제공할 수 있다. 로봇(100)의 이동 및 서비스의 제공은 로봇 제어 시스템(120)에 의해 제어될 수 있다. 로봇 제어 시스템(120)의 구조에 대해서는 후술될 도 3 및 도 4를 참조하여 더 자세하게 설명된다. 로봇(100)은 로봇 제어 시스템(120)에 의해 설정된 경로를 따라 주행함으로써 소정의 위치 또는 소정의 인원에게 이동할 수 있고, 따라서, 소정의 위치 또는 소정의 인원에게 서비스를 제공할 수 있다.
도시된 것처럼, 로봇(100)은 사용자(140)가 통행하는 것과 동일한 통로를 사용하여 주행하므로, 사용자(140)와 간섭(또는 충돌)하지 않도록 그 이동이 제어될 필요가 있다.
실시예에서, 로봇(100)(또는 로봇(100)을 제어하는 로봇 제어 시스템(120))은 로봇(100)의 주행 방향에 존재하는 사용자(140)와 연관된 개인 영역(150)을 인식할 수 있다. 로봇(100)(또는 로봇 제어 시스템(120)) 이러한 인식된 개인 영역(150)에 기반하여, 사용자(140)와의 간섭을 회피하도록 로봇(100)의 이동을 제어할 수 있다. 사용자(140)와 로봇(100)의 '간섭'은 사용자(140)와 로봇(100) 양방 간에 통행이 방해되는 여하한 상황을 포괄할 수 있다. 예컨대, 사용자(140)와 로봇(100)의 '간섭'은 사용자(140)와 로봇(100) 간의 충돌 상황을 포함할 수 있다.
사용자(140)와 연관된 개인 영역(150)은 사용자(140)의 특성, 로봇(100)의 특성 및 건물(130)의 사용자(140)가 통행하는 통로의 공간적 특성 중 적어도 하나에 따라 상이하게 구성될 수 있다. 예컨대, 개인 영역(150)은 사용자(140)가 로봇(100)이 위치하는 방향으로 이동하고 있는(일례로 1m/s) 경우에 있어서는 사용자(140)가 이동하는 방향으로 더 길게 되는 형태로 구성될 수 있다.
로봇(100)(또는 로봇 제어 시스템(120))은 이러한 사용자(140)와 연관된 개인 영역(150)을 인식하여 회피할 수 있고, 이를 통해 사용자(140)가 로봇(100)에 대해 위협을 느끼지 않을 만큼 충분히 먼 거리에서부터 사용자(140)를 회피하기 위한 동작을 수행할 수 있다.
따라서, 로봇(100)과 사용자(140)의 간섭(또는 충돌)의 가능성이 저하될 수 있고, 사용자(140)가 로봇(100)의 접근에 대해 위협을 느끼게 될 가능성도 낮아지게 될 수 있다.
사용자(140)와 연관된 개인 영역(150)을 고려하여 사용자(140)와의 간섭을 회피하도록 로봇(100)을 제어하는 보다 구체적인 방법에 대해서는 후술될 도 2 내지 도 17을 참조하여 더 자세하게 설명한다.
도 2 는 일 실시예에 따른, 건물 내에서 서비스를 제공하는 로봇을 나타내는 블록도이다.
전술한 것처럼, 로봇(100)은 건물(130) 내에서 서비스를 제공하기 위해 사용되는 서비스 로봇일 수 있다. 로봇(100)은 자율 주행을 통해 건물(130)의 소정의 위치에서 또는 소정의 인원에게 서비스를 제공할 수 있다.
로봇(100)은 물리적인 장치일 수 있으며, 도시된 바와 같이, 제어부(104), 구동부(108), 센서부(106) 및 통신부(102)를 포함할 수 있다.
제어부(104)는 로봇(100)에 내장된 물리적인 프로세서일 수 있으며, 도시되지는 않았으나, 경로 계획 처리 모듈(211), 맵핑 처리 모듈(212), 구동 제어 모듈(213), 로컬리제이션 처리 모듈(214), 데이터 처리 모듈(215) 및 서비스 처리 모듈(216)을 포함할 수 있다. 이 때, 경로 계획 처리 모듈(211), 맵핑 처리 모듈(212) 및 로컬리제이션 처리 모듈(214)은 로봇 제어 시스템(120)과 통신이 이루어지지 않는 경우에도 로봇(100)의 실내 자율 주행이 이루어질 수 있도록 하기 위해 실시예에 따라 선택적으로 제어부(104)에 포함되는 것일 수 있다.
통신부(102)는 로봇(100)이 다른 장치(다른 로봇 또는 로봇 제어 시스템(120) 등)와 통신하기 위한 구성일 수 있다. 말하자면, 통신부(102)는 다른 장치에 대해 데이터 및/또는 정보를 전송/수신하는, 로봇(100)의 안테나, 데이터 버스, 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.
구동부(108)는 로봇(100)의 이동을 제어하며 이동을 가능하게 하는 구성으로서 이를 수행하기 위한 장비를 포함할 수 있다.
센서부(106)는 로봇(100)의 자율 주행 및 서비스 제공에 있어서 요구되는 데이터를 수집하기 위한 구성일 수 있다. 센서부(106)는 고가의 센싱 장비를 포함하지 않을 수 있고, 단지 저가형 초음파 센서 및/또는 저가형 카메라 등과 같은 센서를 포함할 수 있다. 로봇(100)은 주행 방향에 위치하는 장애물을 식별할 수 있고, 이러한 장애물이 사물인지 또는 사람인지 여부를 식별할 수 있다. 센서부(106)는 이러한 주행 방향에 위치하는 장애물/사람을 식별하기 위한 센서로서, LiDAR, 스테레오 카메라(Stereo Camera) 및 ToF 센서 중 적어도 하나를 포함할 수 있다. 이러한 장치를 통해, 장애물/사람과 로봇(100) 사이의 거리를 측정할 수 있다. 로봇(100)은 인식된 장애물이 인간인지 사물인지 여부는 카메라(또는 스테레오 카메라)를 통해 획득된 영상 정보를 통해 판단할 수 있다. 일례로, 센서부(106)는 스테레오 카메라(Stereo Camera)는 포함하되, 상대적으로 고가인 LiDAR는 포함하지 않을 수 있다. 또한, 센서부(106)는 장애물/사람을 식별하기 위한 레이더를 포함할 수 있다. 센서부(106)로부터의 데이터에 기반하여, 로봇(100)은 사용자(140)와 로봇(100) 간의 거리, 사용자(140)의 몸이 향하는 방향, 사용자(140)가 이동하고 있는 방향 및 사용자(140)의 속도 중 적어도 하나를 획득(계산)할 수 있다. 또한, 센서부(106)는 사용자(140)의 발자국 소리 또는 말소리를 감지하기 위한 센서로서 예컨대, 마이크를 포함할 수 있고, 건물(130) 내의 조도 변화를 감지하기 위한 조도 센서를 포함할 수 있다. 또한, 센서부(106)는 로봇(100)에 대한 물리적인 충격(충돌)을 감지하기 위한 충격 감지 센서를 포함할 수 있다.
이러한 센서부(106)의 구성에 따라 로봇(100)은 i) 주행 방향에 위치하는 장애물을 식별할 수 있고, ii) 이러한 장애물이 사물인지 또는 사람인지 여부를 식별할 수 있으며, iii) 사람인 사용자(140)의 개인 영역(150)을 인식할 수 있다. 전술한 i) 내지 iii) 중 적어도 하나는 로봇(100)이 아니라 로봇을 제어하는 로봇 제어 시스템(120)에 의해 수행될 수도 있다. 이러한 경우, 센서부(106)가 포함하는 센서의 구성은 간략화될 수 있다.
제어부(104)의 처리 예시로서, 제어부(104)의 데이터 처리 모듈(215)은 센서부(106)의 센서들의 출력값을 포함하는 센싱 데이터를 통신부(102)를 통해 로봇 제어 시스템(120)으로 전송할 수 있다. 로봇 제어 시스템(120)은 건물(130) 내의 실내 지도를 사용하여 생성된 경로 데이터를 로봇(100)으로 전송할 수 있다. 경로 데이터는 통신부(102)를 통해 데이터 처리 모듈(215)로 전달될 수 있다. 데이터 처리 모듈(215)은 경로 데이터를 바로 구동 제어 모듈(213)로 전달할 수 있고, 구동 제어 모듈(213)은 경로 데이터에 따라 구동부(108)를 제어하여 로봇(100)의 실내 자율 주행을 제어할 수 있다.
로봇(100)과 로봇 제어 시스템(120)이 통신할 수 없는 경우, 데이터 처리 모듈(215)은 센싱 데이터를 로컬리제이션 처리 모듈(214)로 전송하고, 경로 계획 처리 모듈(211)와 맵핑 처리 모듈(212)을 통해 경로 데이터를 생성하여 로봇(100)의 실내 자율 주행을 직접 처리할 수도 있다.
로봇(100)은 건물(130) 내의 실내 지도를 생성하기 위해 사용되는 맵핑 로봇과는 구별되는 것일 수 있다. 이 때, 로봇(100)은 고가의 센싱 장비를 포함하지 않기 때문에 저가형 초음파 센서 및/또는 저가형 카메라 등과 같은 센서의 출력값을 이용하여 실내 자율 주행을 처리할 수 있다. 한편, 로봇(100)이 기존에 로봇 제어 시스템(120)과의 통신을 통해 실내 자율 주행을 처리한 적이 있다면, 로봇 제어 시스템(120)으로부터 기존에 수신한 경로 데이터가 포함하는 맵핑 데이터 등을 더 활용함으로써 저가의 센서들을 이용하면서도 보다 정확한 실내 자율 주행이 가능하게 될 수 있다.
다만, 실시예에 따라 로봇(100)이 상기 맵핑 로봇을 겸할 수도 있다.
서비스 처리 모듈(216)은 로봇 제어 시스템(120)을 통해 수신되는 명령을 통신부(102)를 통해 또는 통신부(102)와 데이터 처리 모듈(215)을 통해 전달받을 수 있다. 구동부(108)는 로봇(100)의 이동을 위한 장비뿐만 아니라, 로봇(100)이 제공하는 서비스와 관련된 장비를 더 포함할 수 있다. 예컨대, 음식물/택배물 전달 서비스를 수행하기 위해 로봇(100)의 구동부(108)는 음식물/택배물을 적재하기 위한 구성이나 음식물/택배물을 사용자에게 전달하기 위한 구성(일례로, 로봇 암(arm))을 포함할 수 있다. 또한, 로봇(100)은 정보/콘텐츠의 제공을 위한 스피커 및/또는 디스플레이 등을 더 포함할 수도 있다. 서비스 처리 모듈(216)은 제공해야 할 서비스를 위한 구동 명령을 구동 제어 모듈(213)로 전달할 수 있고, 구동 제어 모듈(213)은 구동 명령에 따라 로봇(100)이나 구동부(108)가 포함하는 구성을 제어하여 서비스가 제공될 수 있도록 할 수 있다.
로봇(100)은 로봇 제어 시스템(120)에 의한 제어를 통해, 로봇 제어 시스템(120)에 의해 설정된 경로를 주행할 수 있고, 건물(130) 내의 소정의 위치에서 또는 소정의 인원에게 서비스를 제공할 수 있다. 전술한 것처럼, 로봇(100)(즉, 로봇(100)의 제어부(104))은 주행 중 로봇(100)의 i) 주행 방향에 위치하는 장애물을 식별할 수 있고, ii) 이러한 장애물이 사물인지 또는 사람인지 여부를 식별할 수 있으며, iii) 사람인 사용자(140)의 개인 영역(150)을 인식할 수 있고, iv) 인식된 개인 영역(150)에 기반하여, 사용자(140)와의 간섭을 회피하도록 로봇(100)의 이동을 제어할 수 있다.
한편, 전술한 i) 내지 iv) 중 적어도 하나는 로봇(100)이 아니라 로봇 제어 시스템(120)에 의해 수행될 수도 있다. 로봇(100)을 제어하는 로봇 제어 시스템(120)의 구성 및 동작에 대해서는 후술될 도 3 및 도 4를 참조하여 각각 더 자세하게 설명된다. 이러한 경우, 로봇(100)은 상기 i) 내지 iv) 중 적어도 하나를 수행하지 않고, 이를 수행하기 위한 센싱 데이터를 로봇 제어 시스템(120)으로 제공할 뿐이라는 점에서, 브레인리스 로봇에 해당할 수 있다.
이상 도 1을 참조하여 전술된 기술적 특징에 대한 설명은, 도 2에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 3 및 4는 일 실시예에 따른, 건물 내에서 서비스를 제공하는 로봇을 제어하는 로봇 제어 시스템을 나타내는 블록도이다.
로봇 제어 시스템(120)은 전술된 로봇(100)의 건물(130) 내에서의 이동(즉, 주행) 및 로봇(100)에 의한 건물(130) 내에서의 서비스의 제공을 제어하는 장치일 수 있다. 로봇 제어 시스템(120)은 복수의 로봇들 각각의 이동 및 로봇들 각각의 서비스의 제공을 제어할 수 있다. 로봇 제어 시스템(120)은 로봇(100)과의 통신을 통해, 로봇(100)이 서비스를 제공하기 위한 경로를 설정할 수 있고, 이러한 경로에 관한 정보를 로봇(100)에게 전달할 수 있다. 로봇(100)은 수신된 경로에 관한 정보에 따라 주행할 수 있고, 소정의 위치에서 또는 소정의 인원에게 서비스를 제공할 수 있다. 로봇 제어 시스템(120)은 상기 설정된 경로에 따라 로봇이 이동(주행)하도록 로봇(100)의 이동을 제어할 수 있다.
로봇 제어 시스템(120)은 적어도 하나의 컴퓨팅 장치를 포함할 수 있다.
로봇 제어 시스템(120)은 전술한 것처럼 로봇(100)의 주행을 위한 경로를 설정하고 로봇(100)의 이동을 제어하는 장치일 수 있다. 로봇 제어 시스템(120)은 적어도 하나의 컴퓨팅 장치를 포함할 수 있고, 건물(130) 내 또는 건물(130) 외부에 위치하는 서버로 구현될 수 있다.
로봇 제어 시스템(120)은 도시된 것처럼, 메모리(330), 프로세서(320), 통신부(310) 및 입출력 인터페이스(340)를 포함할 수 있다.
메모리(330)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 비소멸성 대용량 기록장치는 메모리(330)와 분리되어 별도의 영구 저장 장치로서 포함될 수도 있다. 또한, 메모리(330)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(330)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신부(310)를 통해 메모리(330)에 로딩될 수도 있다.
프로세서(320)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(330) 또는 통신부(310)에 의해 프로세서(320)로 제공될 수 있다. 예를 들어, 프로세서(320)는 메모리(330)에 로딩된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. 이러한 프로세서(320)는 도 4에서 도시된 것과 같은 구성들(410 내지 440)을 포함할 수 있다.
프로세서(320)의 구성들(410 내지 440) 각각은 프로세서(320)의 일부로서 소프트웨어 및/또는 하드웨어 모듈일 수 있고, 프로세서에 의해 구현되는 기능(기능 블록)을 나타낼 수 있다. 프로세서(320)의 구성들(410 내지 440)에 대해서는 도 4를 참조하여 후술한다.
통신부(310)는 로봇 제어 시스템(120)이 다른 장치(로봇(100) 또는 다른 서버 등)와 통신하기 위한 구성일 수 있다. 말하자면, 통신부(310)는 다른 장치에 대해 데이터 및/또는 정보를 전송/수신하는, 로봇 제어 시스템(120)의 안테나, 데이터 버스, 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.
입출력 인터페이스(340)는 키보드 또는 마우스 등과 같은 입력 장치 및 디스플레이나 스피커와 같은 출력 장치와의 인터페이스를 위한 수단일 수 있다.
또한, 다른 실시예들에서 로봇 제어 시스템(120)은 도시된 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다.
도 4를 참조하여 프로세서(320)의 구성들(410 내지 440)에 대해 더 자세하게 설명한다. 프로세서(320)는 도시된 것처럼, 맵 생성 모듈(410), 로컬리제이션 처리 모듈(420), 경로 계획 처리 모듈(430) 및 서비스 운영 모듈(440)을 포함할 수 있다. 이러한 프로세서(320)가 포함하는 구성요소들은, 운영체제의 코드나 적어도 하나의 컴퓨터 프로그램의 코드에 따른 제어 명령(instruction)에 따라 프로세서(320)이 포함하는 적어도 하나의 프로세서가 수행하는 서로 다른 기능들(different functions)의 표현들일 수 있다.
맵 생성 모듈(410)은 건물(130) 내부에서 자율 주행하는 (도시되지 않은) 맵핑 로봇이 목표 시설물(예컨대, 건물(130)의 내부에 대해 생성한 센싱 데이터를 이용하여 목표 시설물의 실내 지도를 생성하기 위한 구성요소일 수 있다.
이 때, 로컬리제이션 처리 모듈(420)은 로봇(100)으로부터 네트워크를 통해 수신되는 센싱 데이터와 맵 생성 모듈(410)을 통해 생성된 목표 시설물의 실내 지도를 이용하여 목표 시설물 내부에서의 로봇(100)의 위치를 결정할 수 있다.
경로 계획 처리 모듈(430)은 상술한 로봇(100)으로부터 수신된 센싱 데이터와 생성된 실내 지도를 이용하여 로봇(100)의 실내 자율 주행을 제어하기 위한 제어 신호를 생성할 수 있다. 예컨대, 경로 계획 처리 모듈(430)은 로봇(100)의 경로(즉, 경로 데이터)를 생성할 수 있다. 생성된 경로(경로 데이터)는 해당 경로를 따르는 로봇(100)의 주행을 위해 로봇(100)에 대해 설정될 수 있다. 로봇 제어 시스템(120)은 생성된 경로에 관한 정보를 네트워크를 통해 로봇(100)으로 전송할 수 있다. 일례로, 경로에 관한 정보는 로봇(100)의 현재 위치를 나타내는 정보, 현재 위치와 실내 지도를 맵핑하기 위한 정보, 그리고 경로 계획 정보를 포함할 수 있다. 경로에 관한 정보에는 로봇(100)이 건물(130) 내의 소정의 위치에서 또는 소정의 인원에게 서비스를 제공하기 위해 주행해야 하는 경로에 관한 정보가 포함될 수 있다. 경로 계획 처리 모듈(430)은 로봇(100)을 위한 경로를 생성하여 로봇(100)에 대해 설정할 수 있다. 로봇 제어 시스템(120)은 이러한 설정된 경로에 따라(즉, 설정된 경로를 따라) 로봇(100)이 이동하도록 로봇(100)의 이동을 제어할 수 있다.
전술한 로컬리제이션 처리 모듈(420) 및 경로 계획 처리 모듈(430)의 동작에 의해, 로봇 제어 시스템(120)은, 로봇 제어 시스템(120)에 의해 설정된 경로를 주행하는 로봇(100)에 대해, 로봇(100)이 i) 로봇(100)의 주행 방향에 위치하는 장애물을 식별하고, ii) 이러한 장애물이 사물인지 또는 사람인지 여부를 식별하고, iii) 사람인 사용자(140)의 개인 영역(150)을 인식하고, iv) 인식된 개인 영역(150)에 기반하여, 사용자(140)와의 간섭을 회피하도록 로봇(100)을 제어할 수 있다. 로봇 제어 시스템(120)은 전술된 i) 내지 iv) 중 적어도 하나를 수행하도록 로봇(100)을 제어할 수 있고, i) 내지 iv) 중 로봇 제어 시스템(120)에서 수행되지 않는 로봇(100)의 제어는, 로봇(100) 자체에 의해 수행될 수 있다. 예컨대, 로봇(100)과 로봇 제어 시스템(120) 간의 통신이 (일례로, 5G 네트워크를 이용한 통신과 같이) 고속으로 수행될 수 있는 경우에는 i) 내지 iv) 중 적어도 하나의 로봇(100)의 제어가 로봇 제어 시스템(120)에 의해 수행될 수 있다. 로봇 제어 시스템(120)에서의 처리 비중을 더 크게 함으로써 로봇(100)은 고가의 센서를 포함하지 않을 수 있고, 따라서, 로봇(100)의 경량화 및 저비용화를 도모할 수 있다.
서비스 운영 모듈(440)은 로봇(100)이 건물(130) 내에서 제공하는 서비스를 제어하기 위한 기능을 포함할 수 있다. 예를 들어, 로봇 제어 시스템(120) 또는 건물(130)을 운영하는 서비스 제공자는 로봇(100)의 이용자나 제작자에게 로봇 제어 시스템(120)이 제공하는 서비스(예컨대, 클라우드 서비스)를 위한 IDE(Integrated Development Environment)를 제공할 수 있다. 이 때, 로봇(100)의 이용자나 제작자는 로봇(100)이 건물(130) 내에서 제공하는 서비스를 제어하기 위한 소프트웨어를 IDE를 통해 제작하여 로봇 제어 시스템(120)에 등록할 수 있다. 이 경우, 서비스 운영 모듈(440)은 해당 로봇(100)과 연관하여 등록된 소프트웨어를 이용하여 로봇(100)이 제공하는 서비스를 제어할 수 있다. 구체적인 예로, 로봇(100)이 사용자가 요청한 물건(예컨대, 음식물 또는 택배물)을 해당 사용자의 위치로 전달하는 서비스를 제공한다고 가정하면, 로봇 제어 시스템(120)은 로봇(100)의 실내 자율 주행을 제어하여 로봇(100)이 해당 사용자의 위치로 이동하도록 제어할 뿐만 아니라, 목적 위치에 도착한 경우 사용자에게 물건을 전달하고, 사용자 응대 음성을 출력하는 일련의 서비스를 로봇(100)이 제공하도록 관련된 명령을 로봇(100)에게 전달할 수 있다.
이상 도 1및 2를 참조하여 전술된 기술적 특징에 대한 설명은, 도 3 및 4에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
후술될 상세한 설명에서, 로봇 제어 시스템(120) 또는 로봇(100)의 구성들에 의해 수행되는 동작은 설명의 편의상 로봇 제어 시스템(120) 또는 로봇(100)에 의해 수행되는 동작으로 설명될 수 있다.
후술될 도 5 내지 7을 참조하여 후술되는 단계들은 설명의 편의상 로봇(100)에 의해 수행되는 것으로 설명되었으나, 앞서 설명한 것처럼 이러한 단계들의 적어도 일부를 비롯하여 로봇(100)에 의해 수행되는 것으로 설명되는 동작들의 적어도 일부는, 로봇(100)을 제어하는 로봇 제어 시스템(120)에 의해 수행될 수 있다. 이에 관해 중복되는 설명은 생략하는 경우가 있다.
후술될 상세한 설명에서, 로봇(100)이 사용자(140)를 통과하여 지나간다는 것은 로봇(100)이 사용자(140)를 지나 사용자(140)가 통행하는 통로를 지나가는 것을 의미할 수 있다. 유사하게, 사용자(140)가 로봇(100)을 통과하여 지나간다는 것은 사용자(140)가 로봇(100)을 지나 상기 통로를 통행하는 것을 의미할 수 있다.
도 5는 일 실시예에 따른, 사용자와 연관된 개인 영역을 고려하여 사용자와의 간섭을 회피하도록 로봇을 제어하는 방법을 나타내는 흐름도이다.
단계(S510)에서, 로봇(100)은 로봇(100)의 주행 방향에 존재하는 장애물을 인식할 수 있다. 로봇(100)은 전술된 센서부(106)에 포함된 센서를 통해 장애물을 인식할 수 있다. 장애물(100)은 로봇(100)이 주행하는 건물(130) 내의 사물 또는 건물(130) 자체의 구조물, 또는 건물(130) 내를 통행하는 사용자(140)를 포함할 수 있다.
단계(S520)에서, 로봇(100)은 인식된 장애물이 인간인지 또는 사물인지 여부를 판정할 수 있다. 인식된 장애물이 인간이 아닌 사물인 경우, 로봇(100)은 해당 장애물을 통상적인 장애물 회피 방법을 통해 회피하도록 제어될 수 있다. 이에 대해서는 여하한 방식의 장애물 회피 방법이 적용될 수 있는 바 자세한 설명은 생략한다. 인식된 장애물이 인간인 것으로 판정된 때(즉, 사용자(140)로 판정된 때), 실시예의 사용자(140)와 연관된 개인 영역(150)의 인식 및 이에 기반한 로봇(100)의 회피 제어가 수행될 수 있다. 로봇(100)은 예컨대, 센서부(106)에 포함된 카메라 또는 스테레오 카메라를 사용하여 획득된 영상 정보를 분석하는 것을 통해 인식된 장애물이 인간인지 여부를 확인할 수 있다.
단계(S525)에서, 로봇(100)은 장애물이 인간으로서 사용자(140)인 것으로 판정된 때, 사용자(140)와 로봇(100) 간의 거리 및 사용자(140)의 로봇(100)이 위치하는 방향으로의 이동 속도를 계산할 수 있다. 로봇(100)은 예컨대, 센서부(106)에 포함된 센서를 통해 사용자(140)와 로봇(100) 간의 거리를 측정할 수 있고, 이러한 거리의 변화에 기반하여 사용자(140)의 접근 속도를 계산할 수 있다.
단계(S530)에서, 로봇(100)은 로봇(100)의 주행 방향에 존재하는 사용자(140)와 연관된 개인 영역(150)을 인식할 수 있다. 예컨대, 사용자(140)와 로봇(100) 간의 거리 및 사용자(140)의 로봇(100)이 위치하는 방향으로의 이동 속도에 기반하여 개인 영역(150)을 인식할 수 있다. 일례로, 로봇(100)은 사용자(140)와 연관된 국가 또는 문화권에 관한 정보, 사용자(140)의 이동 방향, 사용자(140)의 이동 속도, 사용자(140)의 신체 정보, 사용자(140)가 통행하는 통로에 관한 정보, 사용자(140)와 로봇(100) 간의 거리, 로봇(100)이 제공하고 있는 서비스의 종류, 로봇(100)의 종류 및 로봇(100)의 속도 중 적어도 하나에 따라, 사용자(140)와 연관된 개인 영역(150)을 상이하게 인식할 수 있다.
도 8에서는 일 예에 따른 사용자(140)와 연관된 개인 영역(150)이 도시되었다. 개인 영역(150)은 사용자(140)의 특성, 로봇(100)의 특성 및 건물(130)의 사용자(140)가 통행하는 통로의 공간적 특성 중 적어도 하나에 따라 상이하게 구성될 수 있는 것으로서, 로봇(100)에 대해 사용자(140)가 (위협감을 느끼지 않고) 편안함을 느낄 수 있는 공간을 나타낼 수 있다. 사용자(140)는 개인 영역(150) 내에 로봇(100)이 진입하게 되면, 예컨대, 로봇(100)에 의한 충돌 가능성 및 로봇(100)에 의한 통행 방해 가능성 등에 의해 불편감을 느낄 수 있다. 그러나, 사용자(140)는 개인 영역(150) 외부에서 로봇(100)이 이동하는 경우에는 상대적으로 덜 불편감을 느낄 수 있다.
도 8에서 도시된 것처럼, 개인 영역(150, 810)은 사용자(140)를 중심으로 한 소정의 반경(예컨대, 50cm)을 갖는 원으로서 인식될 수 있다. 즉, 개인 영역(150)은 사용자(140)가 정지하고 있을 경우에는 사용자(140)를 중심으로 하는 소정의 반경을 갖는 원형으로 인식될 수 있다. 한편, 사용자(140)가 이동하고 있을 경우에는, 사용자(140)가 이동하는 방향으로 연장하는 멀어지는 원추형(또는 타원형)으로 인식될 수 있다. 예컨대, 원추형 또는 타원에 해당하는 개인 영역(150, 820)의 연장부(또는 연장부/원추형 또는 타원형의 꼭지점을 포함하는 부분)는 사용자(140)가 이동하는 방향의 전방에 위치될 수 있다. 일례로, 사용자(140)가 로봇(100)이 위치하는 방향으로 이동하고 있을 경우에는, 개인 영역(150, 820)은 꼭지점이 사용자(140)로부터 로봇(100) 쪽으로 멀어지는 원추형 또는 타원형으로(혹은, 개인 영역(150, 820)의 연장부가 로봇(100) 쪽으로 길어지는 원추형 또는 타원형으로) 인식될 수 있다. 예컨대, 도시된 것처럼 사용자(140)가 1m/s의 속도로 이동하고 있을 경우, 사용자로부터 개인 영역(820)의 꼭지점(즉, 연장부의 끝 부분)까지의 거리는 2m가 될 수 있다. 상기 꼭지점은 개인 영역(150)이 타원형인 경우 타원의 꼭지점이 될 수도 있다.
개인 영역(810, 820)의 크기(즉, 개인 영역(810)의 반경 및/또는 개인 영역(820)의 사용자(150)로부터 꼭지점까지의 거리)는 로봇이 위치하는 방향으로의 상기 사용자의 (상대적인) 속도가 클수록 커질 수 있다. 또한, 개인 영역(810, 820)의 크기는 로봇(100)의 사용자(140)에 접근하는 (상대적인) 속도가 클수록 커질 수 있다. 즉, 사용자(140)는 빠르게 이동할 때 또는 로봇(100)이 빠르게 접근할 때, 로봇(100)의 접근을 더 위협적인 것으로 인식할 수 있다.
또한, 개인 영역(810, 820)의 크기는 사용자(140)와 연관된(또는 해당 건물(130)이 속하는) 국가 또는 문화권에 관한 정보에 따라 다르게 될 수 있다. 예컨대, 사용자(140)가 다른 사용자와 접촉 또는 가까이 있는 것을 다소 터부시하는 국가 또는 문화권에 속할 경우 개인 영역(810, 820)의 크기는 더 크게 될 수 있다. 이러한, 사용자(140)와 연관된(또는 해당 건물(130)이 속하는) 국가 또는 문화권에 관한 정보는 로봇 제어 시스템(120) 내에 저장되어 있거나, 로봇(100) 또는 로봇 제어 시스템(120)이 접근 가능한 데이터베이스에 저장되어 있을 수 있다.
또한, 개인 영역(150)은 사용자(140)의 이동 방향에 따라 그 모양이 상이하게 될 수 있다. 예컨대, 개인 영역(150)은 도시된 개인 영역(820)처럼 사용자(140)가 이동하는 방향으로 돌출된 형상이 될 수 있다.
또한, 개인 영역(810, 820)의 크기는 사용자(140)의 신체 정보에 따라 상이하게 될 수 있다. 예컨대, 사용자(140)가 로봇(100)에 대해 덜 거부감을 느끼는 경향이 있는 것으로 판단된 경우(이는 예컨대, 기 저장된 사용자(140)의 프로파일 정보를 로봇(100) 또는 로봇 제어 시스템(120)이 획득함으로써 알아낼 수 있을 것임), 개인 영역(810, 820)의 크기는 더 작게 인식될 수 있다. 또는, 사용자(140)가 남성인 경우가 여성인 경우에 비해 개인 영역(810, 820)의 크기가 더 작게 인식될 수 있다. 또는, 사용자(140)의 키(또는 덩치)가 큰 경우 개인 영역(810, 820)의 크기가 더 크게 인식될 수 있다. 사용자(140)의 키가 크면 사용자(140)의 이동 속도가 클 것으로 예측될 수 있는 바 개인 영역(810, 820)의 크기는 더 크게 인식될 수 있다. 사용자(140)의 프로파일 정보는 로봇 제어 시스템(120) 내에 저장되어 있거나, 로봇(100) 또는 로봇 제어 시스템(120)이 접근 가능한 데이터베이스에 저장되어 있을 수 있다.
또한, 개인 영역(810, 820)의 크기는, 사용자(140)가 통행하는 통로의 폭이 좁은 경우가 큰 경우에 비해 더 크게 인식될 수 있다. 즉, 사용자(140)는 좁은 통로에서 로봇(100)을 마주치는 것을 더 부담스럽게 인식할 수 있다. 또는, 사용자(140)가 통행하는 통로에 시설(예컨대, 게시판, 사용자(140)가 조작할 수 있는 컴퓨터)이 배치되어 있는 경우 개인 영역(810, 820)의 크기는 더 크게 인식될 수 있다. 사용자(140)가 통행하는 통로에 관한 정보는 로봇 제어 시스템(120) 내에 저장되어 있거나, 로봇(100) 또는 로봇 제어 시스템(120)이 접근 가능한 데이터베이스에 저장되어 있을 수 있다.
또한, 개인 영역(810, 820)의 크기는 로봇(100)이 제공하고 있는 서비스의 종류나 로봇(100)의 종류에 따라 상이하게 인식될 수 있다. 예컨대, 로봇(100)이 큰 택배물이나 뜨거운(또는 쏟아질 우려가 있는) 음식물을 운반하는 서비스를 제공하고 있는 경우, 개인 영역(810, 820)의 크기는 그렇지 않은 경우에 비해 더 크게 인식될 수 있다. 또는, 로봇(100)이 고속으로 이동 가능한 로봇인 경우가 그렇지 않은 경우에 비해 개인 영역(810, 820)의 크기가 더 크게 인식될 수 있다.
또한, 개인 영역(810, 820)의 크기는 로봇(100)과 사용자(140)의 상대적인 크기 차이(키 및/또는 폭 차이)에 따라 상이하게 인식될 수 있다. 예컨대, 로봇(100)의 높이에 대한 사용자(140)의의 키가 소정의 값 이하이면 로봇(100)이 더 일찍 감속되고 더 멀리서 사용자(140)를 회피할 수 있도록 개인 영역(810, 820)의 크기가 커질 수 있다.
전술한 것처럼, 도시된 개인 영역(820)에 있어서, 사용자(140)가 이동하는 방향으로 연장하는 개인 영역(820)의 길이는 사용자(140)의 속도가 클수록, 사용자(140)의 키가 클수록, 또는 사용자(140)가 통행하는 통로의 폭이 좁을수록 커질 수 있다. 다시 말해, 개인 영역(820)의 꼭지점(즉, 연장부의 끝 부분)으로부터 사용자(140)까지의 거리는 로봇(100)이 위치하는 방향으로의 사용자(140)의 속도가 클수록, 사용자(140)의 키가 클수록, 또는 사용자(140)가 통행하는 통로의 폭이 좁을수록 커지게 될 수 있다.
또한, 사용자(140)가 이동하는 방향으로 연장하는 개인 영역(820)의 길이 또는 상기 꼭지점으로부터 사용자(140)까지의 거리는 로봇(100)이 위치하는 방향으로의 로봇(100)의 속도가 클수록, 로봇(100)의 높이 또는 폭이 클수록, 또는 로봇(100)이 제공하는 서비스의 사용자(140)에 대한 위험도가 높을수록 커지게 될 수 있다.
단계(S540)에서, 로봇(100)은 인식된 개인 영역(150)에 기반하여, 사용자(140)와의 간섭을 회피하도록 로봇(100)의 이동을 제어할 수 있다. 예컨대, 로봇(100)은 개인 영역(150)에 진입하지 않고, 사용자(140)를 통과하여 지나가도록(즉, 사용자(140)가 통행하는 통로를 지나가도록) 이동이 제어될 수 있다. 예컨대, 로봇(100)은 개인 영역(150)에 접근하면, 감속하도록 제어될 수 있다. 즉, 로봇(100)은 감속된 상태로 개인 영역(150)을 회피할 수 있다.
로봇(100)은, 전술한 바와 같이, 개인 공간(150)의 크기가 클수록 더 일찍 감속되고 더 멀리서 사용자(140)를 회피할 수 있게 된다. 또한, 더 빨리 접근하는 사용자(140)에 대해 더 멀리서 사용자(140)를 회피할 수 있게 되며, 정지하고 있는 사용자(140)는 더 가까이에서 회피할 수 있게 된다. 도 8에서는 사용자(140)가 정지해 있는 개인 공간(810)을 사용자(140)로부터 더 가까이에서 회피하고, 사용자(140)가 이동하고 있는 개인 공간(820)을 사용자(140)로부터 더 멀리에어 회피하는 예시가 도시되었다.
단계(S540)에 따라, 개인 영역(150)에 기반하여, 사용자(140)와의 간섭을 회피하도록 로봇(100)의 이동이 제어됨으로써, 사용자가 로봇(100)에 대해 위협감을 느끼는 것이 최소화될 수 있다.
아래에서는, 단계들(S544 내지 S549)을 참조하여 단계(S540)에 대해 더 자세하게 설명한다.
단계(S544)에서, 로봇(100)은 개인 영역(150)을 회피하기 위한 회피 방향을 결정할 수 있다. 예컨대, 로봇(100)은 좌측 방향 및 우측 방향 중에서 사용자(140)와 연관된 국가 또는 문화권에 관한 정보에 기반하여 기 설정된 방향으로, 개인 영역(150)에 대한 진입을 회피하도록 로봇(100)의 이동을 제어할 수 있다. 도 9에서는 일 예에 따른, 사용자(140)와 연관된 개인 영역을 회피하기 위한 회피 방향을 결정하는 방법이 도시되었다. 도시된 것처럼, 로봇(100)은 좌측 방향 및 우측 방향 중에서 개인 영역(150)을 회피하기 위한 회피 방향을 결정할 수 있다. 로봇(100)은 예컨대, 사용자(140)가 우측 통행을 하는 국가 또는 문화권에 속하는 경우(또는 건물(130)이 우측 통행을 하는 국가 또는 문화권에 속하는 경우) 우측 방향을 회피 방향으로서 결정할 수 있다. 따라서, 이 때에는 우측 통행의 법칙에 위배되지 않도록 사용자(140)와 로봇(100)이 통행할 수 있고, 사용자(140)는 로봇(100)에 대해 위화감을 느끼지 않게 될 수 있다.
단계(S546)에서, 로봇(100)은 개인 영역(150)을 회피하도록, 로봇(100)의 이동 방향 및 로봇(100)의 속도를 제어할 수 있다. 로봇(100)은 결정된 회피 방향으로 개인 영역(150)을 회피하도록 제어될 수 있다. 또한, 로봇(100)은 사용자(140)의 접근 속도와 로봇(100)의 속도를 고려하여 개인 영역(150)에 진입하기 소정의 시간 전에 또는 개인 영역(150)으로부터 소정의 거리 앞에서 감속될 수 있다. 이에 따라, 로봇(100)은 감속된 상태로 개인 영역(150)을 회피할 수 있다.
도 14에서는 일 예에 따른, 사용자(140)와 연관된 개인 영역(150)을 회피하도록 로봇을 제어하는 방법이 도시되었다. 도 14에서 개인 영역(150)은 도시가 생략되었다. 도시된 것처럼, 사용자(140)가 1m/s의 속도로 이동하고 로봇(100)이 0.6m/s의 속도로 이동하고 있는 경우, 그대로 이동할 경우에는 로봇(100)과 사용자(140)의 충돌이 예상될 수 있다. 로봇(100)은 결정된 회피 방향인 우측 방향으로 이동할 수 있고, 사용자(140)의 개인 영역(150)을 침범하지 않도록 미리 0.4m/s로 감속될 수 있다. 로봇(100)은 0.4m/s로 감속된 상태로 사용자(140)를 통과하여 지나갈 수 있다.
단계(S548)에서, 로봇(100)은 개인 영역(150)이 회피되었는지 여부를 판정할 수 있다. 즉, 로봇(100)은 개인 영역(150)을 회피하고 있는 도중에 개인 영역(150)의 회피에 성공하였는지 여부를 판정할 수 있다.
단계(S549)에서, 로봇(100)은 개인 영역(150)이 회피된 경우(즉, 회피에 성공한 경우) 사용자(140)를 통과하여 이동하거나, 또는 사용자(140)가 로봇(100)을 통과하여 지나간 경우 로봇(100)이 목적지로 이동하도록 로봇(100)의 이동을 제어할 수 있다. 목적지는 로봇(100)이 서비스를 제공할 건물(130) 내의 위치일 수 있다.
단계(S550)에서, 로봇 제어 시스템(120)은 로봇(100)이 목적지로 이동하여 서비스를 제공하도록 로봇(100)을 제어할 수 있다. 로봇 제어 시스템(120)은 설정된 경로를 따라 로봇(100)이 이동하여 서비스를 제공할 위치에 도달한 경우 로봇(100)이 적절한 서비스를 제공하도록 로봇(100)을 제어할 수 있다.
전술된 단계들(S510 내지 S549)과 로봇(100)에 의해 수행되는 로봇(100)의 제어 동작/개인 영역(150)의 인식 동작들 중 적어도 일부는 로봇 제어 시스템(120)에 의해 수행될 수도 있다. 즉, 로봇(100)은 로봇 제어 시스템(120)으로부터의 제어 신호에 기반하여 전술된 단계들(S510 내지 S549)에 따라 제어될 수 있다. 이에 관해 중복되는 설명은 생략한다.
이상 도 1 내지 4를 참조하여 전술된 기술적 특징에 대한 설명은, 도 5, 도 8, 도 9 및 도 14에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 6은 일 예에 따른, 로봇이 사용자와 연관된 개인 영역에의 진입 없이 사용자가 통행하는 통로를 지나갈 수 없는 경우에 있어서의 로봇의 제어 방법을 나타내는 흐름도이다.
아래에서는, 단계들(S610 내지 S630)을 참조하여 단계(S540)에 대해 더 자세하게 설명한다.
단계(S610)에서, 로봇(100)은 사용자(140)와 연관된 개인 영역(150)에 진입하지 않고 사용자(140)를 통과하여 지나가는 것이 불가능한지 여부를 판정할 수 있다. 단계(S610)는 도 5를 참조하여 전술된 단계(S548)에 대응할 수 있다. 예컨대, 사용자(130)가 통행하는 통로의 폭이 소정의 값 이하로서 좁은 경우, 로봇(100)이 해당 통로를 통과하기 위해서는 사용자의 개인 영역(150)에 진입하는 것이 불가피할 수 있다.
단계(S620)에서, 로봇(100)은 사용자(140)와 연관된 개인 영역(150)에 진입하지 않고 사용자(140)를 통과하여 지나가는 것(즉, 상기 사용자(140)가 통행하는 통로를 지나가는 것)이 불가능하거나 사용자(140)가 통행하는 통로의 폭이 소정의 값 이하인 것으로 판단된 때, 사용자(140)가 통행하는 통로의 일 측에서 로봇이 정지한 상태로 대기하도록 로봇(100)을 제어할 수 있다.
단계(S630)에서, 로봇(100)은 사용자(140)가 로봇(100)을 지나간 후 로봇(100)이 이동하도록 로봇(100)을 제어할 수 있다. 즉, 로봇(100)은 통로가 좁거나 부득이하게 사용자(140)의 개인 영역(150)을 침범해야 하는 경우, 사용자(140)의 통행을 방해하지 않고 사용자(140)에게 위화감을 주지 않도록 통로의 일 측(즉, 벽)에 붙어서 대기할 수 있고, 사용자(140)가 먼저 통과한 후 이동할 수 있다.
도 15에서는 일 예에 따른, 통로의 폭이 좁은 경우에 있어서, 사용자(140)와 연관된 개인 영역(150)을 회피하도록 로봇(100)을 제어하는 방법이 도시되었다. 도 15에서 개인 영역(150)은 도시가 생략되었다. 도시된 것처럼, 사용자(140)가 1m/s의 속도로 이동하고 로봇(100)이 0.6m/s의 속도로 이동하고 있는 경우, 그대로 이동할 경우에는 로봇(100)과 사용자(140)의 충돌이 예상될 수 있다. 로봇(100)은 결정된 회피 방향인 우측 방향으로 이동할 수 있고, 로봇(100)을 인지한 사용자(140) 역시 이동 속도를 0.8m/s로 줄이고 로봇(100)을 회피하기 위해 우측 방향으로 이동할 수 있다. 통로가 좁기 때문에 로봇(100)은 사용자(140)의 개인 영역(150)을 침범하지 않고는 해당 통로를 통행할 수 없다. 따라서, 로봇(100)은 통로의 우측 벽에 인접한 상태로 정지할 수 있고, 사용자(140)가 로봇(100)을 완전히 통과한 다음에야 이동을 계속할 수 있다.
전술된 단계들(S610 내지 S630)과 로봇(100)에 의해 수행되는 제어 동작들 중 적어도 일부는 로봇 제어 시스템(120)에 의해 수행될 수도 있다. 즉, 로봇(100)은 로봇 제어 시스템(120)으로부터의 제어 신호에 기반하여 전술된 단계들(S610 내지 S630)에 따라 제어될 수 있다. 이에 관해 중복되는 설명은 생략한다.
이상 도 1 내지 5, 도 8, 도 9 및 도 14를 참조하여 전술된 기술적 특징에 대한 설명은 도 6 및 도 15에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 7은 일 예에 따른, 사용자의 이동 통로와 로봇의 주행 경로가 교차하는 영역/코너에서의 로봇의 이동 제어 방법과, 로봇의 이동 제어에 따라 인디케이터를 출력하도록 로봇을 제어하는 방법을 나타내는 흐름도이다.
단계(S710)에서, 로봇(100)은, 로봇 제어 시스템(120)에 의해 설정된 경로를 따라 주행함에 있어서, 이동이 제어될 수 있다.
예컨대, 단계(S712)에서처럼, 로봇(100)은 사용자(140)의 이동 통로와 로봇(100)의 주행 경로가 교차하는 영역을 주행하는 경우에 있어서, 속도가 제어될 수 있다. 관련하여, 도 18은 일 예에 따른, 사용자(140)의 이동 통로와 로봇(100)의 주행 경로가 교차하는 영역(1800)을 주행할 때 로봇(100)을 제어하는 방법을 나타낸다. 로봇(100)은 건물(130) 내에서의 사용자(140)의 이동 통로와 로봇(100)의 주행 경로가 교차하는 경우, 교차하는 주행 경로의 구간에 대응하는 영역(1800)에 진입하기 전에 로봇(100)을 감속시키거나 정지하도록 제어될 수 있다. 즉, 사용자(140)의 이동 통로와 로봇(100)의 주행 경로가 교차하는 경우, 교차하는 주행 경로의 구간에 대응하는 영역(1800)에는 사용자(140)가 통행할 가능성이 높으므로, 선제적으로 로봇(100)이 감속시키거나 정지하도록 제어될 수 있다.
상기 사용자의 이동 통로는 예컨대, 교차로, 자동문, 도어 또는 코너를 포함할 수 있다. 도 18에서는 자동문 또는 도어(1810)가 배치된 경우가 도시되었다. 자동문 또는 도어(1810)가 열리는 경우(즉, 자동문(1810)에 설치된 모션 센서가 사용자(140)가 접근함을 감지하는 경우, 또는, 도어(1810)의 잠금 장치가 해제되는 경우) 이를 나타내는 정보는 로봇 제어 시스템(120)(또는 로봇(100))으로 전달될 수 있고, 이 때, 로봇(100)은 감속되거나 정지하도록 제어될 수 있다. 유사하게, 엘리베이터에서 승차 또는 하차하는 영역(즉, 엘리베이터 도어)과 로봇(100)의 주행 경로가 교차하는 경우, 엘리베이터가 도착한 때 해당 교차하는 영역에서는 사용자(140)가 엘리베이터에서 하차할 가능성이 높으므로, 엘리베이터가 도착한 경우에 있어서, 로봇(100)은 해당 영역에 진입하기 전에 감속하거나 정지하도록 제어될 수 있다.
전술한 바와 같은, 자동문 또는 도어(1810)의 동작에 관한 제어 정보와 엘리베이터의 동작에 관한 제어 정보는 건물(130)과 연관된 주변 환경 정보로서 로봇 제어 시스템(120) 내에 저장되어 있거나, 로봇(100) 또는 로봇 제어 시스템(120)이 접근 가능한 데이터베이스에 저장되어 있을 수 있다.
다른 예시로서, 단계(S712)에서처럼, 로봇(100)은 건물(130) 내에서의 로봇(100)의 주행 경로가 코너를 통과하는 것을 포함하는 경우, 주변 환경 정보에 기반하여, 로봇(100)의 코너를 통과하는 이동이 제어될 수 있다. 주변 환경 정보는 로봇(100)이 통과할 코너와 연관된 정보를 포함할 수 있다. 관련하여, 도 19에서는 일 예에 따른, 코너를 주행할 때 로봇(100)을 제어하는 방법이 도시되었다.
일례로, 주변 환경 정보는 코너의 형태에 관한 정보, 코너 주변의 공간에 관한 정보 및 코너 주변의 공간에서의 인구 행동 양상에 관한 정보 중 적어도 하나를 포함할 수 있다. 여기서, 코너의 형태에 관한 정보는 코너의 폭(즉, 코너를 구성하는 통로의 폭)에 관한 정보, 코너의 각도에 관한 정보 및 코너의 재료(예컨대, 코너를 구성하는 벽의 재료)에 관한 정보 중 적어도 하나를 포함할 수 있다. 또한, 코너 주변의 공간에 관한 정보는 코너 주변의 공간의 사용률에 관한 정보 및 코너 주변의 장애물 분포에 관한 정보 중 적어도 하나를 포함할 수 있다. 또한, 코너 주변의 공간에서의 인구 행동 양상에 관한 정보는, 상기 코너 주변의 공간에서의 사용자의 이동 패턴에 관한 정보를 포함할 수 있다. 공간의 사용률은 코너 주변의 공간에 대한 사용자들의 통행 가능성을 고려한 사용률을 나타내는 정보일 수 수 있다. 이러한 사용률은 시간대(예컨대, 출근 시간, 퇴근 시간, 점심 시간 또는 업무 집중 시간)에 따라 상이하게 될 수 있다. 코너를 주행할 때 로봇(100)은, 로봇(100)이 주행하는 시간대에서의 주변의 공간에 대한 사용률을 고려하여 제어될 수 있다.
구체적으로, 로봇(100)은 코너의 폭이 좁을수록 더 천천히, 그리고, 더 완만하게 코너를 돌아 주행하도록 제어될 수 있다. 또한, 로봇(100)은 코너의 각도가 더 작을수록(0도인 경우는 U턴을 나타낼 수 있음) 더 천천히, 그리고, 더 완만하게 코너를 돌아 주행하도록 제어될 수 있다. 로봇(100)은 코너의 재료가 투명한 재질인 경우(예컨대, 코너의 벽이 투명한 유리 또는 아크릴과 같은 소재로 구성될 경우), 반대 측에서 코너에 진입하는 사용자(140)가 로봇(100)에 의해 식별될 수 있을 것이므로, 이러한 사용자(140)가 식별되지 않는 경우에는, 상대적으로 더 빠른 속도로(즉, 감속하지 않고) 코너를 돌아 주행하도록 제어될 수 있다. 또한, 로봇(100)은 (로봇(100)이 주행하는 시간대에) 코너 주변의 공간의 인구 밀도가 높을수록 더 천천히 코너를 돌아 주행하도록 제어될 수 있다. 또한, 로봇(100)은 코너 주변의 공간에 장애물(1910)이 많을수록 더 천천히 코너를 돌아 주행하도록 제어될 수 있다. 또한, 로봇(100)은 코너 주변의 공간에서의 인구 행동 양상에 따라(즉, 사용자들이 주로 뛰어 다니는지, 걸어다니는지, 무언가를 시청(예컨대, 게시판 등)하면서 이동하는지, 또는 정지해 있는지), 상이한 속도로 코너를 돌아 주행하도록 제어될 수 있다. 코너 주변의 공간에서 사용자가 주로 뛰어다니거나 무언가를 시청하면서 이동하는 경우, 또는 무언가를 시청하기 위해 정지하고 있는 경우와 같은 인구 행동 양상을 나타낼 경우, 로봇(100)은 더 천천히 코너를 돌아 주행하도록 제어될 수 있다.
전술된 주변 환경 정보는 일례로, 코너 주변의 CCTV(즉, 코너 주변의 공간을 촬영하는 CCTV)로부터의 영상 정보에 기반하여 획득될 수 있다. 또는, 주변 환경 정보는 시간대에 따른 건물(130) 내 공간에 대한 사용률 및/또는 인구 행동 양상의 패턴을 소정의 기간 동안의 학습 및 분석함으로써 획득될 수 있다.
주변 환경 정보는 로봇 제어 시스템(120) 내에 저장되어 있거나, 로봇(100) 또는 로봇 제어 시스템(120)이 접근 가능한 데이터베이스에 저장되어 있을 수 있다. 주변 환경 정보의 적어도 일부는 맵핑된 실내 지도 정보에 포함되는 것일 수도 있다. 예컨대, 맵핑된 실내 지도 정보는 건물(130) 내의 통로(복도)의 폭과 길이에 관한 정보, 통로의 경사도에 관한 정보, 교차로 및 코너에 관한 정보(위치 등), 도어/자동문/계단/엘리베이터에 관한 정보(위치 등), 바닥면의 요철에 관한 정보(울퉁불퉁한지 매끄러운지를 나타내는 정보)를 포함할 수 있다.
단계(S710 및 S712)에 기반한 로봇(100)의 제어에 따라, 사용자(140)의 이동 통로와 로봇(100)의 주행 경로가 교차하는 경우나, 로봇(100)이 코너를 통과하여 주행하는 경우와 같이, 사각지대를 갖는 구간을 로봇(100)이 주행하는 경우에 있어서도 사용자(140)와 로봇(100) 간의 충돌/간섭을 방지할 수 있다.
보다 구체적인 로봇(100)의 제어의 예시는 아래와 같다.
로봇(100)은 통로의 중앙으로 주행하지 않고 기 설정된 방향(예컨대, 우측)으로 주행할 수 있다. 사용자(140)를 회피하는 경우에 있어서, 우측에 다른 장애물이 있는 경우에는 좌측으로 사용자(140)를 회피할 수 있다. 우측 및 좌측 모두에서 공간이 충분하지 않은 경우, 정지하여 사용자(140)를 먼저 지나가도록 할 수 있다. 로봇(100)이 정지하고 대기하는 경우에도 사용자(140)가 지나가지 않으면, 로봇(100)은 벽 측으로 더 밀착하여 사용자(140)의 통행을 유도할 수 있다(즉, 사용자(140)에게 양보함). 장시간(소정의 시간 이상) 사용자(140)가 정지해 있으면, 로봇(100)이 사람을 회피하여 지나갈 수 있다. 로봇(100)은 사용자(140)와 정면의 근거리에서 마주칠 경우, '놀람' 또는 '미안함'을 나타내는 인디케이터(예컨대, 후술될 인디케이터(1100))를 출력할 수 있다.
한편, 도 18에서 도시된 것처럼, 자동문 또는 도어(1810)가 열린 것으로 판단된 때, 로봇(100)은 자동문 또는 도어(1810)가 열리는 범위(또는, 자동문 또는 도어(1810)가 열려 사용자(140)가 출몰하게 되는 범위)를 고려하여, 해당 범위만큼 떨어져서 주행할 수 있다. 즉, 도시된 것처럼, 로봇(100)은 자동문 또는 도어(1810)와는 반대측의 벽 측으로 더 밀착하여 주행하도록 제어될 수 있다(II).
단계(S720)에서, 로봇(100)은 소정의 인디케이터를 상황에 따라 출력하도록 제어될 수 있다. 로봇(100)이 출력하는 인디케이터는 시각적 인디케이터 및/또는 청각적 인디케이터를 포함할 수 있다. 로봇(100)이 출력하는 인디케이터는 사용자(140)의 이동을 유도하도록 하는 정보, 사용자(140)에 대한 로봇(100)의 감정을 나타내는 정보 및 로봇(100)의 움직임을 나타내는 정보 중 적어도 하나를 포함할 수 있다.
이에 따라, 로봇(100)은 사용자(140)를 통과하여 지나가는 등의 상호작용에 있어서, 사람에게 기대되는 매너 있는 이동 방식을 모방하여, 사용자(140)에게 보다 더 친근하고 예의 있게 느껴지는 방식으로 제어될 수 있다.
예컨대, 단계(S722)에서처럼, 로봇(100)은 로봇(100)의 시선에 대응하는 인디케이터를 출력하도록 제어될 수 있다. 로봇(100)이 사용자(140)를 통과하여 이동하기 전(즉, 사용자(140)가 통행하는 통로에서 사용자(140)를 지나가기 전), 로봇(100)이 사용자(140)를 통과하여 이동하는 동안(즉, 사용자(140)를 지나가는 동안) 및 사용자(140)/로봇(100)이 로봇(100)/사용자(140)를 지나간 후 중 적어도 하나의 경우에, 로봇(100)은 사용자(140)에 대해 로봇(100)의 시선(gaze)에 대응하는 인디케이터를 출력하도록 제어될 수 있다. 시선에 대응하는 인디케이터는 로봇(100)의 눈에 대응할 수 있다. 관련하여, 도 10은 일 예에 따른, 로봇(100)에서 출력되는 인디케이터로서 로봇(100)의 시선에 대응하는 인디케이터(1100)를 나타낸다. 로봇(100)은 적어도 하나의 디스플레이(1000)를 포함할 수 있고, 인디케이터(1100)는 디스플레이(1000) 내에 표시될 수 있다. 인디케이터(1100)를 통해 로봇(100)은 사람의 눈과 비슷한 방식으로 사용자(140)에 대해 의사를 표현할 수 있다. 예컨대, 로봇(100)은, 로봇(100)과 사용자(140) 간의 거리가 소정의 값 이하가 되면, 로봇(100)의 시선을 내리는 것에 대응하는 인디케이터(1100)를 출력하도록 제어될 수 있다. 또한, 로봇(100)은, 로봇(100)이 이동하고자 하는 방향에 대응하는 방향으로 로봇(100)의 시선이 향하도록 인디케이터(1100)를 출력하도록 제어될 수 있다.
도 10에서 도시된 구체적인 예시에서, (a)는 로봇(100)의 일반적인 주행 상태에서의 인디케이터(1100)로서 정면을 응시하는 것을 나타낼 수 있다. (d)는 사용자(140)에게 근접한 경우(예컨대, 2.5m 이하로 근접한 경우) 사람(140)의 시선을 회피하기 위한 인디케이터(1100)를 나타낼 수 있다(look down). 로봇(100)은 지나가는 사용자(140)를 노려보거나 응시하지 않도록 제어될 수 있고, 사용자(140)와 지근거리에 있을 때에는 최대한 시선을 아래로 내림으로써 사용자(140)로부터 불필요한 주의를 끌지 않도록 제어될 수 있다. (d)와 같이, 로봇(100)은 시선을 내림으로써 사용자(140)에게 위협감을 주지 않을 수 있다. 또한, (d)는 로봇(100)이 사용자(140)에게 사과 또는 양해를 구할 때의 인디케이터(1100)를 나타낼 수도 있다. (b) 및 (c)는 각각 로봇(100)이 왼쪽으로 이동(회전)할 때 및 오른쪽으로 이동(회전)할 때의 인디케이터(1100)를 나타낼 수 있다. 즉, 로봇(100)의 시선 방향을 식별하는 것을 통해 주변의 사용자(140)는 로봇(100)이 이동하고자 하는 방향을 인지할 수 있다. (e)는 사용자(140)에 대해 무언가를 요청하거나, 의사를 표현하고자 할 때의 인디케이터를 나타낼 수 있다(look up). (f)는 로봇(100)이 놀란 경우에 있어서의 인디케이터(1100)를 나타낼 수 있다(동공 확장).
구체적으로, 로봇(100)은, 사용자(140)와 가까운 거리에서 마주치게 되는 경우 눈을 마주친 후(look up) 시선을 내려(look down) 사용자(140)에게 사과를 표현할 수 있다((a) -> (e) -> (d)). 로봇(100)은 사용자(140)가 소정의 시간 이상(즉, 장시간 동안) 로봇(100)을 가로막고 비켜주고 있지 않을 경우, 사용자(140)를 올려보며(look up) (로봇(100)이 통과할 수 있도록) 비켜줄 것을 요청할 수 있다((a) -> (e)). 로봇(100)은 사용자(140)가 로봇(100)을 가로막고 있던 경로를 비켜줌으로써 로봇(100)이 통과할 수 있게 되면 즐거워하는 시선 처리와 함께 행복한 감정을 표현할 수 있다((e) -> (f)). 예컨대, 행복한 감정은 (a) 및 (f)를 반복하는 것으로서 표현할 수 있다(즉, 인디케이터(1100)(동공의 확장 축소)를 반복함). 로봇(100)은 사용자(140)가 통과하는 것을 기다릴 때에는 시선을 내리고(look down) 공손하게 대기할 수 있고, 사용자(140)가 통과하고 난 후에는 다시 정면을 응시할 수 있다((d) -> (a)).
이와 같이, 사람의 시선을 모방한 인디케이터(1100)의 사용을 통해 로봇(100)과 사용자(140) 간의 비언어적 커뮤니케이션을 강화할 수 있다.
또한, 예컨대, 단계(S724)에서처럼, 로봇(100)은 사용자(140)와 다른 사용자/시설의 상호 작용에 따라 인디케이터를 출력하도록 제어될 수 있다. 로봇(100)은 사용자(140)가 다른 사용자 또는 다른 시설과 상호 작용하고 있는 것으로 판단된 때, 사용자(140)와 다른 사용자 또는 시설 사이의 공간을 통과하여 이동하지 않도록 제어될 수 있다. 이 때, 상기 사이의 공간을 통과하지 않고는 사용자(140)를 통과하여 지나갈 수 없는 것으로 판단된 때에는, 사용자(140)에게 시각적 인디케이터 및 청각적 인디케이터 중 적어도 하나를 출력함으로써 사용자(140)에게 로봇(100)이 사이의 공간을 통과함을 알릴 수 있고, 상기 사이의 공간을 통과하도록 제어될 수 있다. 또는, 로봇(100)은, 상기 사이의 공간을 통과하지 않고는 사용자(140)를 통과하여 지나갈 수 없는 것으로 판단된 때, 사용자(140)에게 이동을 요청할 수 있고, 사용자(140)가 이동한 후, 사용자(140)를 통과하여 지나갈 수 있다. 상기 시설(130)은 건물(130) 내에 설치된 게시판, 키오스크 장치, 사이니지 장치 또는 기타 사용자가 사용할 수 있는 전자 장치일 수 있다. 사용자(140)가 건물(130)의 벽을 보고 통화하고 있는 경우나 단순히 벽을 바라보고 서있는 경우에도, 로봇(100)은 유사하게 제어될 수 있다.
관련하여, 도 11 내지 13에는 일 예에 따른, 사용자(140)가 다른 사용자(140-1) 또는 다른 시설(1300)과 상호작용하고 있는 경우에 있어서의 로봇(100)의 제어 방법이 도시되었다.
도 11에서 도시된 것처럼, 사용자(140)가 다른 사용자(140-1)와 상호작용하고 있는 경우에 있어서 로봇(100)은 사용자(140)와 다른 사용자(140-1)의 사이를 가로지르지 않고 이동하도록 제어될 수 있다. (b)에서와 같이, 사용자(140)가 비켜주는 경우, 로봇(100)은 청각적 인디케이터(예컨대, "감사합니다")를 출력함으로써 사용자(140)에게 감사를 표시할 수 있다. 로봇(100)은 도시된 것과는 달리 전술한 인디케이터(1100)를 통해 비언어적인 방식으로 감사를 표현할 수도 있다.
도 12에서 도시된 것처럼, 사용자(140)가 다른 사용자(140-1)와 상호작용하고 있는 경우에 있어서, 로봇(100)이 사용자(140)와 다른 사용자(140-1)의 사이를 가로지르지 않고는 이동할 수 없는 경우, 로봇(100)은 사용자(140)와 다른 사용자(140-1)의 상호 작용을 방해하는 것에 대해 양해를 구할 수 있다. 예컨대, (b)에서와 같이, 로봇(100)은 "지나가도 될까요?"와 같은 인디케이터를 출력할 수 있다. 사용자들(140, 140-1)이 (c)에서와 같이 공간을 마련해 줌으로써, 로봇(100)이 지나갈 수 있게 되면, 로봇(100)은 "감사합니다"와 같은 인디케이터를 출력할 수 있다. 로봇(100)은 도시된 것과는 달리 전술한 인디케이터(1100)를 통해 비언어적인 방식으로 감사를 표현하거나 양해를 구할 수도 있다. 또한, (c)에서 도시된 것과는 달리, 로봇(100)은 양해를 구한 후 사용자(140)와 다른 사용자(140-1)의 사이의 공간을 지나갈 수도 있다.
도 13에서 도시된 것처럼, 사용자(140)가 시설(1300)과 상호작용하고 있는 경우에 있어서, 로봇(100)은 사용자(140)와 시설(1300) 사이의 공간을 가로지르지 않도록 제어될 수 있다. 로봇(100)이 사용자(140)와 시설(1300) 사이를 가로지르지 않고는 이동할 수 없는 경우, 로봇(100)은 사용자(140)의 시설(1300)에 대한 상호 작용을 방해하는 것에 대해 양해를 구할 수 있다. 예컨대, (c)에서와 같이, 로봇(100)은 "실례합니다"와 같은 인디케이터를 출력할 수 있다. 이 후, 로봇(100)은 사용자(140)와 시설(1300) 사이를 가로질러 지나갈 수 있다. 또한, 로봇(100)은 "감사합니다"와 같은 인디케이터를 출력할 수 있다. 로봇(100)은 도시된 것과는 달리 전술한 인디케이터(1100)를 통해 비언어적인 방식으로 감사를 표현하거나 양해를 구할 수도 있다. 또한, (c)에서 도시된 것과는 달리, 사용자(140)가 로봇(100)의 이동을 위해 비켜줄 경우에는 사용자(140)가 비켜준 공간을 통해 지나갈 수도 있다.
로봇(100)이 사용자(140)와 다른 사용자(140-1) 또는 시설(1300) 사이의 공간을 통과하여 이동하는 것은, 로봇(100)이 통과해야 할 통로가 좁은 경우(즉, 로봇(100)이 상기 공간을 회피하여 이동할 수 없는 경우)에만 일어날 수 있다.
또한, 예컨대, 단계(S726)에서처럼, 로봇(100)은 주행에 따라 전방 및/또는 후방에서 인디케이터를 출력하도록 제어될 수 있다. 일례로, 로봇(100)은 이동할 때 전방에서 인디케이터를 출력할 수 있다. 이는 자동차의 전조등에 대응할 수 있다. 따라서, 전방의 사용자(140)는 로봇(100)이 접근함을 인식할 수 있다. 또한, 로봇(100)은, 로봇(100)의 이동의 제어에 따라, 로봇(100)의 감속 또는 정지를 나타내는 인디케이터를 로봇(100)의 후방에서 출력하도록 제어될 수 있다. 이는 자동차의 브레이크 등에 대응할 수 있다. 이를 통해, 로봇(100)의 후방의 사용자(140)는 로봇(100)이 감속하고 있으며 유사 시 정지할 수 있음을 인식할 수 있다. 로봇(100)의 전방 및/또는 후방에서 출력되는 인디케이터는 너무 밝아서 보행자의 주의를 어지럽히거나, 너무 어두워서 인식이 어렵게 되지 않도록 적절한 밝기로 유지될 수 있다.
또한, 로봇(100)은 주행 중에 청각적인 인디케이터로서 예컨대, 엠비언트 사운드(모터 소리, 또는 바퀴가 굴러가는 소리)를 출력할 수 있다. 또는, 로봇(100)은 주행 중에 청각적인 인디케이터로서 비프음을 출력할 수 있다. 또는, 로봇(100)은 사각지대 앞에서(예컨대, 도 18의 영역(1800)에 진입하기 전 또는 도 19의 코너에 진입하기 전)에 클락션 유사 사운드를 청각적인 인디케이터로서 출력할 수 있다. 따라서, 사용자(140)가 사각지대에 있더라도 이러한 로봇(100)의 청각적인 인디케이터를 인식함으로써, 사용자(140)는 로봇(100)의 접근을 인지할 수 있다. 청각적인 인디케이터의 볼륨은 사용자(140) 놀라지 않게 하도록 적절하게 조절될 수 있다.
또는, 시각적인/청각적인 인디케이터로서 부드러운 빛과 경쾌한 멜로디의 사운드는 로봇(100)의 행복한 감정 또는 사용자(140)에 대한 고마운 감정을 나타내기 위해 사용될 수 있다. 반면에, 시각적인/청각적인 인디케이터로서 번쩍이는 빛과 날카로운 사운드는 로봇(100)의 사용자(140)에 대한 경로를 나타내기 위해 사용될 수 있다.
전술한 바와 같이, 로봇(100)은, 적절한 인디케이터의 출력을 통해, 예의 바르고 매너 있는 사람의 모습을 모방할 수 있고, 따라서, 사용자(140)는 로봇(100)의 접근에 대해 위협감을 가지지 않게 될 수 있다.
전술된 단계들(S710 내지 S726)에서 수행되는 로봇(100)의 이동 제어 및 로봇(100)의 인디케이터의 출력 제어 중 적어도 일부는 로봇 제어 시스템(120)에 의해 수행될 수 있다. 즉, 로봇(100)은 로봇 제어 시스템(120)으로부터의 제어 신호에 기반하여 전술된 단계들(S710 내지 S726)에 따라 제어될 수 있다. 또는, 전술된 단계들(S710 내지 S726)에서 수행되는 로봇(100)의 이동 제어 및 로봇(100)의 인디케이터의 출력 제어 중 적어도 일부는 로봇(100) 자체에서 수행될 수도 있다.
이상 도 1 내지 6, 도 8, 도 9, 도 14 및 도 15를 참조하여 전술된 기술적 특징에 대한 설명은 도 7, 도 10 내지 도 13, 도 18 및 도 19에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 16은 일 예에 따른, 복수의 로봇들을 제어하는 방법을 나타낸다.
도시된 것처럼 복수의 로봇들(100)이 서비스의 제공을 위해 함께 주행하는 경우가 있을 수 있다. 이 때, 로봇들(100)은 횡방향으로 나열되어 주행하지 않고, 종방향으로 나란히 주행하도록 제어될 수 있다. 즉, 로봇들(100)은 통로에서 사용자(140)가 통행할 수 있는 공간이 충분히 마련되도록 주행할 수 있다.
이상 도 1 내지 15, 도 18 및 도 19를 참조하여 전술된 기술적 특징에 대한 설명은 도 16에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 17은 일 예에 따른, 엘리베이터의 사용에 있어서 로봇을 제어하는 방법을 나타낸다.
도 5를 참조하여 전술된 단계(S540)의 사용자(140)와의 간섭을 회피하도록 로봇(100)의 이동을 제어함에 있어서도, 로봇(100)의 적어도 일부가 사용자(140)와 연관된 개인 영역(150) 내에 포함되어, 로봇(100)이 사용자(140)와 함께 이동되어야 하는 경우가 있을 수 있다. 이 때, 로봇(100)은 사람의 다른 사람과의 간섭을 회피하는 동작을 모방하는 방식으로, 사용자(140) 및 다른 사용자(들)(140-1 내지 140-4)와의 간섭을 회피하도록 이동이 제어될 수 있다. 일례로, 로봇(100)은 사용자(들)(140-1 내지 140-4)과 함께 엘리베이터에 탑승하는 경우에 있어서, 다른 사람을 배려하는 사람의 행동과 유사하게 동작하도록 제어될 수 있다.
로봇(100)의 적어도 일부가 사용자(140)와 연관된 개인 영역(150) 내에 포함되어, 로봇(100)이 사용자(140)와 함께 이동되어야 하는 경우는, 예컨대, 로봇(100)이 사용자(140)와 동일한 엘리베이터(1700)에 탑승하거나, 사용자(140)가 탑승한 엘리베이터(1700)에서 하차하는 경우를 들 수 있다. 이 때, 로봇(100)은 엘리베이터(1700)에 탑승하기 전에는, 엘리베이터(1700)에서 하차하는 사용자들이 모두 하차한 후에 엘리베이터에 탑승하도록 제어될 수 있다. 한편, 로봇(100)은, 엘리베이터(1700)에 탑승한 상태에서, 엘리베이터(1700)에 탑승 또는 엘리베이터(1700)에서 하차하는 사용자를 방해하지 않도록 엘리베이터(1700)의 벽 측으로 이동하도록 제어될 수 있다.
구체적으로, 로봇(100)은 엘리베이터(1700)를 기다릴 때, 엘리베이터(1700)의 도어를 비스듬히 비껴 서서 대기함으로써(즉, 도어를 막지 않고 대기) 엘리베이터(1700)에서 하차하는 사용자를 방해하지 않을 수 있다(①). 또한, 엘리베이터(1700)를 대기하는 공간에 엘리베이터(1700)를 기다리는 사용자들이 많을 경우 해당 대기하는 사용자들의 뒤에서 대기할 수 있다. 로봇(100)은 엘리베이터(1700)에 탑승할 때에는 엘리베이터(1700)에서 하차하는 사용자들이 모두 하차한 후에(②), 탑승할 수 있다(③). 로봇(100)이 탑승하고자 할 때, 엘리베이터(1700)에서 하차하고자 하는 사용자가 있는 경우 해당 사용자를 위한 공간 확보를 위해 로봇(100)은 우측 또는 좌측으로 밀착할 수 있다. 우측 또는 좌측에 밀착하여도 충분한 공간이 확보되지 않는 경우, 로봇(100)은 후진할 수 있다. 로봇(100)이 후진할 경우에는 이를 나타내는 인디케이터(시각적인/청각적인 인디케이터)가 출력될 수 있다. 로봇(100)은 후방에 사람 또는 장애물이 없는 경우 신속하게 후진할 수 있고, 사람 또는 장애물이 있는 경우에는 천천히 후진하여 사람 또는 장애물과의 충돌을 방지할 수 있다. 엘리베이터(1700)에 탑승한 상태에서, 엘리베이터(1700)에 탑승 또는 엘리베이터(1700)에서 하차하는 사용자를 방해하지 않도록 엘리베이터(1700)의 벽 측으로 이동할 수 있다(④). 한편, 로봇 제어 시스템(120)은 엘리베이터 제어 시스템과 연동함으로써, 엘리베이터(1700)에 승차하고자 하는 사용자가 있는 경우에는 엘리베이터(1700)의 도어가 닫히지 않도록 도어를 강제 개방할 수 있다. 또한, 로봇(100)은 엘리베이터가 만원인 상태에서, 다른 사용자(또는, 노약자 혹은 장애인(또는 휠체어)가 승차하고자 하는 것으로 판단된 때, 엘리베이터(1700)의 벽 측으로 더 밀착하여 탑승을 위한 공간을 만들어 주거나, 임시적으로 하차하여 탑승을 위한 공간을 양보할 수 있다(⑤).
로봇(100)은 엘리베이터(1700) 내에서 로봇(100)을 응시하는 사용자에 대해서는 인사를 할 수 있다. 인사는 전술된 인디케이터(1100) 또는 기타 시각적인/청각적인 인디케이터에 의해 이루어질 수 있다.
이상 도 1 내지 16, 도 18 및 도 19를 참조하여 전술된 기술적 특징에 대한 설명은 도 17에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (10)

  1. 건물에 있어서,
    상기 건물 내를 주행하며 서비스를 제공하는 적어도 하나의 로봇
    이 배치되고,
    상기 로봇은 로봇 제어 시스템에 의해 제어되고,
    상기 로봇 제어 시스템은,
    컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 로봇의 주행 방향에 존재하는 사람과 연관된 개인 영역을 인식하고, 상기 인식된 개인 영역에 기반하여, 상기 사람과의 간섭을 회피하도록 상기 로봇의 이동을 제어하고,
    상기 개인 영역은 상기 사람이 정지하고 있을 경우에는 상기 사람을 중심으로 하는 원형으로 인식되고, 상기 사람이 이동하고 있을 경우에는 상기 사람이 이동하는 방향으로 연장하는 원추형 또는 타원형으로 인식되고,
    상기 적어도 하나의 프로세서는,
    상기 개인 영역을 인식함에 있어서,
    i) 상기 사람 또는 상기 로봇이 주행하는 건물과 연관된 국가 또는 문화권에 관한 정보를 획득하여, 상기 획득된 국가 또는 문화권에 관한 정보에 따라 상기 개인 영역의 크기를 상이하게 인식하는 것;
    ii) 상기 사람의 프로파일 정보를 획득하여, 상기 프로파일 정보에 포함된 로봇에 대한 거부감 정보에 따라 상기 개인 영역의 크기를 상이하게 인식하는 것;
    iii) 상기 사람이 통행하는 통로에 관한 정보를 획득하여, 상기 통로의 폭이 좁을수록 상기 개인 영역의 크기를 더 크게 인식하는 것; 및
    iv) 상기 로봇이 제공하고 있는 서비스의 종류에 따라, 상기 로봇이 제공하는 서비스의 상기 사람에 대한 위험도가 높을수록 상기 개인 영역의 크기를 더 크게 인식하는 것
    중 적어도 하나에 기반하여 상기 개인 영역의 크기를 상이하게 인식하고,
    상기 적어도 하나의 프로세서는,
    상기 개인 영역을 인식함에 있어서,
    상기 로봇과 상기 사람 간의 상대적인 크기의 차이에 더 기반하여 상기 개인 영역의 크기를 상이하게 인식하되, 상기 로봇의 높이에 대한 상기 사람의 키가 소정의 값 이하이면 그렇지 않은 경우보다 상기 개인 영역의 크기를 더 크게 인식하고,
    상기 적어도 하나의 프로세서는,
    상기 로봇이 상기 사람이 통행하는 통로에서 상기 사람을 지나가기 전에 상기 사람에 대해 상기 로봇의 시선(gaze)에 대응하는 인디케이터를 출력하도록 상기 로봇을 더 제어하고,
    상기 인디케이터는 상기 로봇의 움직임을 나타내는 정보를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 인디케이터를 출력하도록 상기 로봇을 제어함에 있어서,
    상기 로봇이 이동하고자 하는 방향으로 상기 로봇의 시선이 향하도록 상기 인디케이터를 출력하도록 상기 로봇을 제어하는, 건물.
  2. 건물에 있어서,
    상기 건물 내를 주행하며 서비스를 제공하는 적어도 하나의 로봇
    이 배치되고,
    상기 로봇은 로봇 제어 시스템에 의해 제어되고,
    상기 로봇 제어 시스템은,
    컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 로봇의 주행 방향에 존재하는 사람과 연관된 개인 영역을 인식하고, 상기 인식된 개인 영역에 기반하여, 상기 사람과의 간섭을 회피하도록 상기 로봇의 이동을 제어하고,
    상기 개인 영역은 상기 사람이 정지하고 있을 경우에는 상기 사람을 중심으로 하는 원형으로 인식되고, 상기 사람이 이동하고 있을 경우에는 상기 사람이 이동하는 방향으로 연장하는 원추형 또는 타원형으로 인식되고,
    상기 적어도 하나의 프로세서는,
    상기 개인 영역을 인식함에 있어서,
    상기 사람이 이동하는 방향으로 연장하는 상기 개인 영역의 길이를 상기 로봇이 위치하는 방향으로의 상기 로봇의 속도가 클수록, 또는 상기 로봇의 높이 또는 폭이 클수록 더 크게 인식하고,
    상기 적어도 하나의 프로세서는,
    상기 개인 영역을 인식함에 있어서,
    상기 로봇과 상기 사람 간의 상대적인 크기의 차이에 더 기반하여 상기 개인 영역의 크기를 상이하게 인식하되, 상기 로봇의 높이에 대한 상기 사람의 키가 소정의 값 이하이면 그렇지 않은 경우보다 상기 개인 영역의 크기를 더 크게 인식하고,
    상기 적어도 하나의 프로세서는,
    상기 로봇이 상기 사람이 통행하는 통로에서 상기 사람을 지나가기 전에 상기 사람에 대해 상기 로봇의 시선(gaze)에 대응하는 인디케이터를 출력하도록 상기 로봇을 더 제어하고,
    상기 인디케이터는 상기 로봇의 움직임을 나타내는 정보를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 인디케이터를 출력하도록 상기 로봇을 제어함에 있어서,
    상기 로봇이 이동하고자 하는 방향으로 상기 로봇의 시선이 향하도록 상기 인디케이터를 출력하도록 상기 로봇을 제어하는, 건물.
  3. 제1항 또는 제2항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 로봇의 이동을 제어함에 있어서,
    상기 개인 영역에 진입하지 않고, 상기 사람이 통행하는 통로를 지나가도록 상기 로봇의 이동을 제어하고,
    상기 로봇이 상기 개인 영역에 접근하면, 상기 로봇이 감속하도록 상기 로봇의 이동을 제어하는, 건물.
  4. 제3항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 로봇의 이동을 제어함에 있어서,
    상기 개인 영역에 진입하지 않고 상기 통로를 지나가는 것이 불가능하거나 상기 통로의 폭이 소정의 값 이하인 것으로 판단된 때, 상기 통로의 일 측에서 상기 로봇이 정지한 상태로 대기하도록 상기 로봇을 제어하고, 상기 사람이 상기 로봇을 지나간 후 상기 로봇이 이동하도록 상기 로봇을 제어하는, 건물.
  5. 제1항 또는 제2항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 로봇의 주행 방향에 존재하는 장애물을 인식하고, 상기 장애물이 인간인지 또는 사물인지 여부를 판정하고, 상기 장애물이 인간으로서 상기 사람인 것으로 판정된 때, 상기 사람과 상기 로봇 간의 거리 및 상기 사람의 상기 로봇이 위치하는 방향으로의 이동 속도를 계산하고,
    상기 장애물이 상기 사람인 것으로 판정된 때, 상기 개인 영역의 인식 및 상기 로봇의 이동의 제어가 수행되고,
    상기 적어도 하나의 프로세서는,
    상기 로봇의 이동을 제어함에 있어서,
    상기 개인 영역을 회피하기 위한 회피 방향을 결정하고, 상기 개인 영역을 회피하도록, 상기 로봇의 이동 방향 및 상기 로봇의 속도를 제어하고, 상기 개인 영역이 회피되었는지 여부를 판정하고, 상기 개인 영역이 회피된 경우 또는 상기 사람이 상기 로봇을 통과한 경우 상기 로봇이 목적지로 이동하도록 상기 로봇의 이동을 제어하는, 건물.
  6. 제1항 또는 제2항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 로봇이 상기 사람을 지나가는 동안 및 상기 사람을 지나간 후 중 적어도 하나의 경우에도 상기 사람에 대해 상기 로봇의 시선(gaze)에 대응하는 인디케이터를 출력하도록 상기 로봇을 제어하고,
    상기 인디케이터는 상기 사람의 이동을 유도하도록 하는 정보 및 상기 사람에 대한 상기 로봇의 감정을 나타내는 정보 중 적어도 하나를 더 포함하며,
    상기 적어도 하나의 프로세서는,
    상기 인디케이터를 출력하도록 상기 로봇을 제어함에 있어서,
    상기 로봇과 상기 사람 간의 거리가 소정의 값 이하가 되면, 상기 로봇의 시선을 내리는 것에 대응하는 상기 인디케이터를 출력하도록 상기 로봇을 제어하는, 건물.
  7. 제1항 또는 제2항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 로봇의 이동을 제어함에 있어서,
    상기 사람이 다른 사람 또는 다른 시설과 상호 작용하고 있는 것으로 판단된 때, 상기 사람과 상기 다른 사람 또는 상기 시설 사이의 공간을 통과하여 이동하지 않도록 상기 로봇의 이동을 제어하고, 상기 사이의 공간을 통과하지 않고는 상기 사람을 통과하여 지나갈 수 없는 것으로 판단된 때에는, 상기 사람에게 시각적 인디케이터 및 청각적 인디케이터 중 적어도 하나를 출력함으로써 상기 사람에게 상기 로봇이 상기 사이의 공간을 통과함을 알리거나, 상기 사람에게 이동을 요청하고, 상기 사람을 지나가도록 상기 로봇의 이동을 제어하는, 건물.
  8. 제1항 또는 제2항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 로봇의 이동을 제어함에 있어서,
    상기 로봇의 적어도 일부가 상기 개인 영역 내에 포함되어, 상기 로봇이 상기 사람과 함께 이동되어야 하는 경우, 사람의 다른 사람과의 간섭을 회피하는 동작을 모방하는 방식으로, 상기 사람 및 다른 사람과의 간섭을 회피하도록 상기 로봇의 이동을 제어하고,
    상기 로봇과 상기 사람은 동일한 엘리베이터에 탑승하거나 상기 엘리베이터에서 하차하고,
    상기 로봇은,
    상기 엘리베이터에 탑승하기 전에는, 상기 엘리베이터에서 사람들이 모두 하차한 후에 상기 엘리베이터에 탑승하도록 제어되고,
    상기 엘리베이터에 탑승한 상태에서는, 상기 엘리베이터에 탑승 또는 상기 엘리베이터에서 하차하는 사람을 방해하지 않도록 상기 엘리베이터의 벽 측으로 이동하도록 제어되는, 건물.
  9. 제1항 또는 제2항에 있어서,
    상기 적어도 하나의 프로세서는,
    건물 내에서의 상기 로봇의 주행 경로가 코너를 통과하는 것을 포함하는 경우, 기 저장된 상기 코너와 연관된 주변 환경 정보에 기반하여, 상기 로봇의 상기 코너를 통과하는 이동을 제어하고,
    상기 주변 환경 정보는 상기 코너의 형태에 관한 정보, 상기 코너 주변의 공간에 관한 정보 및 상기 코너 주변의 공간에서의 인구 행동 양상에 관한 정보 중 적어도 하나를 포함하고,
    상기 코너의 형태에 관한 정보는 상기 코너를 구성하는 통로의 폭에 관한 정보, 상기 코너의 각도에 관한 정보 및 상기 코너의 재료에 관한 정보 중 적어도 하나를 포함하고,
    상기 코너 주변의 공간에 관한 정보는 상기 코너 주변의 공간의 사용률에 관한 정보 및 상기 코너 주변의 장애물 분포에 관한 정보 중 적어도 하나를 포함하고,
    상기 코너 주변의 공간에서의 인구 행동 양상에 관한 정보는, 상기 코너 주변의 공간에서의 사람의 이동 패턴에 관한 정보를 포함하는, 건물.
  10. 건물에 있어서,
    상기 건물 내를 주행하며 서비스를 제공하는 적어도 하나의 로봇
    이 배치되고,
    상기 로봇은 로봇 제어 시스템에 의해 제어되고,
    상기 로봇은,
    컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 로봇의 주행 방향에 존재하는 사람과 연관된 개인 영역을 인식하고, 상기 인식된 개인 영역에 기반하여, 상기 사람과의 간섭을 회피하도록 상기 로봇의 이동을 제어하고,
    상기 개인 영역은 상기 사람이 정지하고 있을 경우에는 상기 사람을 중심으로 하는 원형으로 인식되고, 상기 사람이 이동하고 있을 경우에는 상기 사람이 이동하는 방향으로 연장하는 원추형 또는 타원형으로 인식되고,
    상기 적어도 하나의 프로세서는,
    상기 개인 영역을 인식함에 있어서,
    i) 상기 사람 또는 상기 로봇이 주행하는 건물과 연관된 국가 또는 문화권에 관한 정보를 획득하여, 상기 획득된 국가 또는 문화권에 관한 정보에 따라 상기 개인 영역의 크기를 상이하게 인식하는 것;
    ii) 상기 사람의 프로파일 정보를 획득하여, 상기 프로파일 정보에 포함된 로봇에 대한 거부감 정보에 따라 상기 개인 영역의 크기를 상이하게 인식하는 것;
    iii) 상기 사람이 통행하는 통로에 관한 정보를 획득하여, 상기 통로의 폭이 좁을수록 상기 개인 영역의 크기를 더 크게 인식하는 것; 및
    iv) 상기 로봇이 제공하고 있는 서비스의 종류에 따라, 상기 로봇이 제공하는 서비스의 상기 사람에 대한 위험도가 높을수록 상기 개인 영역의 크기를 더 크게 인식하는 것
    중 적어도 하나에 기반하여 상기 개인 영역의 크기를 상이하게 인식하고,
    상기 적어도 하나의 프로세서는,
    상기 개인 영역을 인식함에 있어서,
    상기 로봇과 상기 사람 간의 상대적인 크기의 차이에 더 기반하여 상기 개인 영역의 크기를 상이하게 인식하되, 상기 로봇의 높이에 대한 상기 사람의 키가 소정의 값 이하이면 그렇지 않은 경우보다 상기 개인 영역의 크기를 더 크게 인식하고,
    상기 적어도 하나의 프로세서는,
    상기 로봇이 상기 사람이 통행하는 통로에서 상기 사람을 지나가기 전에 상기 사람에 대해 상기 로봇의 시선(gaze)에 대응하는 인디케이터를 출력하도록 상기 로봇을 더 제어하고,
    상기 인디케이터는 상기 로봇의 움직임을 나타내는 정보를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 인디케이터를 출력하도록 상기 로봇을 제어함에 있어서,
    상기 로봇이 이동하고자 하는 방향으로 상기 로봇의 시선이 향하도록 상기 인디케이터를 출력하도록 상기 로봇을 제어하는, 건물.
KR1020210119454A 2019-10-16 2021-09-08 개인 영역을 고려하여 친인간적으로 주행하는 로봇이 배치되는 건물 KR102462521B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210119454A KR102462521B1 (ko) 2019-10-16 2021-09-08 개인 영역을 고려하여 친인간적으로 주행하는 로봇이 배치되는 건물

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190128230A KR20210045022A (ko) 2019-10-16 2019-10-16 인식된 사람과 연관된 개인 영역에 기반하여 로봇을 제어하는 방법 및 시스템
KR1020210119454A KR102462521B1 (ko) 2019-10-16 2021-09-08 개인 영역을 고려하여 친인간적으로 주행하는 로봇이 배치되는 건물

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020190128230A Division KR20210045022A (ko) 2019-10-16 2019-10-16 인식된 사람과 연관된 개인 영역에 기반하여 로봇을 제어하는 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20210113135A true KR20210113135A (ko) 2021-09-15
KR102462521B1 KR102462521B1 (ko) 2022-11-03

Family

ID=75486436

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190128230A KR20210045022A (ko) 2019-10-16 2019-10-16 인식된 사람과 연관된 개인 영역에 기반하여 로봇을 제어하는 방법 및 시스템
KR1020210119454A KR102462521B1 (ko) 2019-10-16 2021-09-08 개인 영역을 고려하여 친인간적으로 주행하는 로봇이 배치되는 건물

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020190128230A KR20210045022A (ko) 2019-10-16 2019-10-16 인식된 사람과 연관된 개인 영역에 기반하여 로봇을 제어하는 방법 및 시스템

Country Status (3)

Country Link
US (1) US20210114218A1 (ko)
JP (1) JP7153049B2 (ko)
KR (2) KR20210045022A (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11146522B1 (en) * 2018-09-24 2021-10-12 Amazon Technologies, Inc. Communication with user location
JP7334689B2 (ja) * 2020-07-27 2023-08-29 トヨタ自動車株式会社 制御システム、制御方法及び制御プログラム
JP7334702B2 (ja) * 2020-10-02 2023-08-29 トヨタ自動車株式会社 サービス管理装置
JP2022062635A (ja) * 2020-10-08 2022-04-20 トヨタ自動車株式会社 サーバ装置、システム、制御装置、移動装置、及びシステムの動作方法
JP2022078741A (ja) * 2020-11-13 2022-05-25 本田技研工業株式会社 ロボット
JP2022108136A (ja) * 2021-01-12 2022-07-25 本田技研工業株式会社 作業機
JP2022121819A (ja) * 2021-02-09 2022-08-22 トヨタ自動車株式会社 ロボット制御システム、ロボット制御方法、及び、制御プログラム
KR102473630B1 (ko) * 2021-06-29 2022-12-02 네이버랩스 주식회사 로봇 친화형 건물
KR20230037266A (ko) * 2021-09-09 2023-03-16 삼성전자주식회사 로봇 및 그 제어 방법
KR20230056272A (ko) * 2021-10-20 2023-04-27 네이버랩스 주식회사 로봇 친화형 건물, 건물을 주행하는 로봇 제어 방법 및 시스템
KR102496447B1 (ko) * 2022-01-19 2023-02-06 주식회사 트위니 사람 추종 물류 운송 로봇
JP7400998B1 (ja) 2022-03-28 2023-12-19 三菱電機株式会社 自律移動ロボットの動作制御装置及び方法
KR102572841B1 (ko) * 2022-07-21 2023-08-30 주식회사 클로봇 이동 로봇, 인공 지능 기반의 이동 로봇의 공간 크기 별 맞춤형 자율 주행 방법 및 프로그램
KR102572851B1 (ko) * 2023-04-04 2023-08-31 주식회사 클로봇 목적지까지 이동하는 이동 로봇 장치 및 그의 동작 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006133863A (ja) * 2004-11-02 2006-05-25 Honda Motor Co Ltd ロボット制御装置
KR20090032130A (ko) * 2006-09-11 2009-03-31 가부시키가이샤 히타치세이사쿠쇼 이동 장치
JP4276624B2 (ja) * 2002-12-10 2009-06-10 本田技研工業株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP2009217330A (ja) * 2008-03-07 2009-09-24 Toyota Motor Corp 移動ロボットシステム及びその制御方法
KR20100027013A (ko) * 2008-08-29 2010-03-10 가부시키가이샤 히타치세이사쿠쇼 자율 이동 로봇 장치 및 이러한 장치에 있어서의 튀어나옴 충돌 회피 방법
JP2011253377A (ja) * 2010-06-02 2011-12-15 Honda Motor Co Ltd 移動可能領域抽出装置および移動可能領域抽出方法
JP2014146348A (ja) * 2005-09-30 2014-08-14 Irobot Corp 移動ロボットを含むロボットシステムにより実行される方法
KR20170042547A (ko) * 2014-06-05 2017-04-19 소프트뱅크 로보틱스 유럽 충돌 회피 및 궤도 복원 기능을 가진 휴머노이드 로봇

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4975503B2 (ja) * 2007-04-06 2012-07-11 本田技研工業株式会社 脚式移動ロボット
JP5560979B2 (ja) * 2010-07-13 2014-07-30 村田機械株式会社 自律移動体
WO2013011543A1 (ja) * 2011-07-15 2013-01-24 株式会社日立製作所 自律移動装置およびその制御方法
WO2013176762A1 (en) * 2012-05-22 2013-11-28 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
JP7183944B2 (ja) * 2019-05-13 2022-12-06 トヨタ自動車株式会社 自律移動体、自律移動体の制御プログラム、自律移動体の制御方法および自律移動体を遠隔地から制御するシステムサーバ
US11425494B1 (en) * 2019-06-12 2022-08-23 Amazon Technologies, Inc. Autonomously motile device with adaptive beamforming

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4276624B2 (ja) * 2002-12-10 2009-06-10 本田技研工業株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP2006133863A (ja) * 2004-11-02 2006-05-25 Honda Motor Co Ltd ロボット制御装置
JP2014146348A (ja) * 2005-09-30 2014-08-14 Irobot Corp 移動ロボットを含むロボットシステムにより実行される方法
KR20090032130A (ko) * 2006-09-11 2009-03-31 가부시키가이샤 히타치세이사쿠쇼 이동 장치
JP2009217330A (ja) * 2008-03-07 2009-09-24 Toyota Motor Corp 移動ロボットシステム及びその制御方法
KR20100027013A (ko) * 2008-08-29 2010-03-10 가부시키가이샤 히타치세이사쿠쇼 자율 이동 로봇 장치 및 이러한 장치에 있어서의 튀어나옴 충돌 회피 방법
JP2011253377A (ja) * 2010-06-02 2011-12-15 Honda Motor Co Ltd 移動可能領域抽出装置および移動可能領域抽出方法
KR20170042547A (ko) * 2014-06-05 2017-04-19 소프트뱅크 로보틱스 유럽 충돌 회피 및 궤도 복원 기능을 가진 휴머노이드 로봇

Also Published As

Publication number Publication date
KR20210045022A (ko) 2021-04-26
JP2021064372A (ja) 2021-04-22
JP7153049B2 (ja) 2022-10-13
KR102462521B1 (ko) 2022-11-03
US20210114218A1 (en) 2021-04-22

Similar Documents

Publication Publication Date Title
KR102462521B1 (ko) 개인 영역을 고려하여 친인간적으로 주행하는 로봇이 배치되는 건물
US10948913B2 (en) Method of identifying unexpected obstacle and robot implementing the method
CN108475406B (zh) 用于请求和控制自主车辆服务的软件应用
WO2020170644A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US11731261B2 (en) Moving robot and operating method for the same
JP2022553310A (ja) 衝突ゾーンに基づく軌道修正
US20220019213A1 (en) Delivery robot
KR102428936B1 (ko) 로봇의 효과적인 주행을 위한 로봇 전용 통로를 포함하는 건물
JP7352235B2 (ja) 自律走行車両、配送システム、プログラム及びプログラムを記憶した記憶媒体
EP3990999A1 (en) Remote vehicle guidance
US20210325880A1 (en) Collaborative vehicle guidance
US11584389B2 (en) Teleoperations for collaborative vehicle guidance
CN108058705B (zh) 车辆驾驶辅助系统和方法
WO2021220679A1 (ja) ロボット制御装置、方法、及びプログラム
WO2020101937A1 (en) Dynamic sound emission for vehicles
KR20200050572A (ko) 이동 로봇의 제어 방법, 그 방법을 지원하는 장치 및 이동 로봇을 이용한 배송 시스템
CN112581786A (zh) 用于将事故避免信息提供给自主车辆的乘客的方法和设备
WO2023028208A1 (en) Techniques for detecting road blockages and generating alternative routes
KR20190095578A (ko) 이동 로봇의 동작 방법
KR102380807B1 (ko) 문답형 공유제어시스템 및 이를 구비한 이동로봇
US11961400B2 (en) Passenger vehicle and operation management system
JP2023522844A (ja) 協調的車両ガイダンスのための遠隔操作
Kim et al. Suggestion on the Practical Human Robot Interaction Design for the Autonomous Driving Disinfection Robot
CN106371437B (zh) 一种平衡车在狭窄空间的自动驻车方法和装置
CN114683284B (zh) 一种控制方法、装置、自主移动设备和存储介质

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right