WO2019156280A1 - 정보 제공용 로봇 및 이를 이용한 정보 제공 방법 - Google Patents

정보 제공용 로봇 및 이를 이용한 정보 제공 방법 Download PDF

Info

Publication number
WO2019156280A1
WO2019156280A1 PCT/KR2018/002652 KR2018002652W WO2019156280A1 WO 2019156280 A1 WO2019156280 A1 WO 2019156280A1 KR 2018002652 W KR2018002652 W KR 2018002652W WO 2019156280 A1 WO2019156280 A1 WO 2019156280A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
display
information
user
main body
Prior art date
Application number
PCT/KR2018/002652
Other languages
English (en)
French (fr)
Inventor
장경석
이상엽
Original Assignee
(주)원익로보틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)원익로보틱스 filed Critical (주)원익로보틱스
Priority to JP2019519415A priority Critical patent/JP6804638B2/ja
Publication of WO2019156280A1 publication Critical patent/WO2019156280A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture

Definitions

  • the technical problem of the present invention is not only to provide entertainment and friendliness to the user at a low cost through a robot having a three-dimensional display, but also to provide information of the robot itself and various information around the robot. And to provide a method of providing information using the same.
  • the content controller 210 may display a plurality of displays 110, 120, based on at least one of information about a place where the robot 10 is located, weather information of a region where the robot 10 is located, date information, and time information.
  • the appearance of the robot 10 may be changed by controlling the content displayed at 130 to be changed.
  • the sensor 230 may be used to recognize information about a user, and the appearance or appearance of the robot 10 may be changed based on the information about the user.
  • the information about the user may be information about at least one of an age, a gender, a dress, and a language used by the user.
  • the tilting device 140 is provided on the upper portion of the robot 10 and tilts the upper display (head of the robot) based on the position information of the user recognized by a sensor (for example, a camera or a microphone). ) You can adjust the angle. To this end, as an example, the processor of the robot calculates a coordinate value of an area in which the user's face is located based on information about a user's face position recognized by the camera, a direction of a sound input into the microphone, and the calculated coordinate value. The tilting device 140 may be controlled to read the screen of the upper display.
  • contents corresponding to the appearance (costume, body, etc.) of the robot may be displayed through the display provided at the side of the plurality of displays provided in the robot, and the display provided at the top Through the content corresponding to the face can be displayed through.
  • the appearance or appearance of the robot is configured in software (or virtually) through a plurality of displays rather than structural and physical means (for example, the actual arm of the robot or the actual clothes worn on the robot). Therefore, the shape, shape, color, etc. of the robot can be variously and freely expressed in three dimensions at low cost, and the appearance of the robot, such as front, rear, left and right, can be changed in real time as needed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Toys (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 정보 제공용 로봇 및 이를 이용한 정보 제공 방법에 관한 것이다. 본 발명에 따른 로봇은 본체, 상기 본체의 외측면에 구비되어 상기 로봇의 입체적 형틀을 형성하는 적어도 하나의 디스플레이 및 상기 로봇의 일 측면의 형상, 모양, 색채 중 적어도 하나를 포함하는 콘텐츠를 각각 대응되는 디스플레이에 표시되하록 제어하여, 상기 적어도 하나의 디스플레이가 형성하는 입체적 형틀과 상기 콘텐츠의 조합에 따라 상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 콘텐츠 제어기를 포함한다.

Description

정보 제공용 로봇 및 이를 이용한 정보 제공 방법
본 발명은 로봇에 관한 것으로서, 보다 상세하게는 정보 제공이 가능한 로봇 및 이를 이용한 정보 제공 방법에 관한 것이다.
로봇은 산업, 공공장소, 가정 등 다양한 분야에서 인력을 대체하기 위한 수단으로 활용되고 있으며, 생산성과 생활의 편의성을 높여주므로 그 사용이 증가하고 있는 추세이다. 그러나 로봇의 사용은 이와 같은 순기능 이외에, 사람의 일자리를 위협하고, 범죄에 이용되는 등 부정적인 측면 또한 존재한다. 따라서 로봇을 이용하여 다양한 서비스를 제공함에 있어서, 사용자에게 보다 친근감을 제공할 수 있는 방법이 요구된다.
본 발명의 기술적 과제는 입체적 디스플레이를 구비한 로봇을 통해 적은 비용으로도 사용자에게 엔터테인먼트와 친근감을 제공할 수 있을 뿐만 아니라, 로봇 자체의 정보 및 로봇 주변의 다양한 정보를 제공할 수 있는 정보 제공용 로봇 및 이를 이용한 정보 제공 방법을 제공함에 있다.
본 발명의 다른 기술적 과제는 상황에 맞게 자율적으로 이동 가능한 정보 제공용 로봇 및 이를 이용한 정보 제공 방법을 제공함에 있다.
본 발명의 일 양태에 따르면, 정보 제공이 가능한 로봇은 본체, 상기 본체의 외측면에 구비되어 상기 로봇의 입체적 형틀을 형성하는 적어도 하나의 디스플레이 및 상기 로봇의 일 측면의 형상, 모양, 색채 중 적어도 하나를 포함하는 콘텐츠를 각각 대응되는 디스플레이에 표시하도록 제어하여, 상기 적어도 하나의 디스플레이가 형성하는 입체적 형틀과 상기 콘텐츠의 조합에 따라 상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 콘텐츠 제어기를 포함할 수 있다.
일 측면에서, 상기 로봇은 상기 본체의 하부에 구비되는 복수개의 바퀴, 상기 복수개의 바퀴의 축에 결합되는 모터, 상기 로봇의 이동 방향을 조절하는 조향 장치 및 상기 모터와 상기 조향장치를 제어함으로써 상기 로봇의 이동을 제어하는 구동 제어기를 더 포함할 수 있다.
다른 측면에서, 상기 구동 제어기는 상기 로봇의 위치를 인식하는데 사용되는 센서를 기반으로 상기 로봇의 이동을 제어할 수 있다.
또 다른 측면에서, 상기 적어도 하나의 디스플레이는 상기 본체의 전면에 구비되는 제1 디스플레이, 상기 본체의 후면에 구비되는 제2 디스플레이, 상기 본체의 좌측면에 구비되는 제3 디스플레이, 상기 본체의 우측면에 구비되는 제4 디스플레이 및 상기 본체에 구비되고 터치 패널을 포함하는 제5 디스플레이를 포함할 수 있다.
또 다른 측면에서, 상기 콘텐츠는 상기 제1 디스플레이에서 표시되는 제1 콘텐츠, 상기 제2 디스플레이에서 표시되는 제2 콘텐츠, 상기 제3 디스플레이에서 표시되는 제3 콘텐츠 및 상기 제4 디스플레이에서 표시되는 제4 콘텐츠를 포함하고, 상기 제1 내지 제4 콘텐츠는 각각 상기 로봇의 전후좌우의 모습을 구성할 수 있다.
또 다른 측면에서, 상기 로봇은 상기 본체의 상부 및 전면 중 적어도 하나에 구비되는 카메라 및 상기 본체의 상부 및 전면 중 적어도 하나에 구비되는 마이크로폰을 더 포함하고, 상기 콘텐츠 제어기는 상기 카메라, 상기 마이크로폰 및 상기 제5 디스플레이 중 적어도 하나를 이용하여 사용자에 대한 정보를 인식하고, 상기 사용자에 대한 정보를 기초로 상기 로봇의 외형을 가변시킬 수 있다.
또 다른 측면에서, 상기 로봇은 상기 본체에 구비되고, 상기 카메라 및 상기 마이크로폰 중 적어도 하나에 의해 인식된 사용자에 대한 정보에 기초하여 상기 제5 디스플레이의 틸팅(tilting) 각도를 조절하는 틸팅 장치를 더 포함할 수 있다.
또 다른 측면에서, 상기 사용자에 대한 정보는 해당 사용자의 연령, 성별, 복장 및 사용 언어 중 적어도 하나에 대한 정보일 수 있다.
또 다른 측면에서, 상기 콘텐츠 제어기는 상기 제5 디스플레이를 통해 상기 로봇의 얼굴에 대응되는 객체가 표시되도록 제어할 수 있다.
또 다른 측면에서, 상기 콘텐츠 제어기는 상기 로봇이 위치한 장소에 대한 정보, 상기 로봇이 위치한 지역의 날씨 정보, 날짜 정보 및 시간 정보 중 적어도 하나를 기초로 상기 로봇의 외형을 가변시킬 수 있다.
또 다른 측면에서, 상기 콘텐츠 제어기는 상기 적어도 하나의 디스플레이에 상기 로봇의 팔에 대응되는 객체가 표시되도록 제어하고, 상기 로봇이 이동 중인 경우 상기 로봇의 팔에 대응되는 객체 각각이 상기 로봇의 이동 속도 및 방향에 따라 해당하는 디스플레이 상에서 움직이도록 제어할 수 있다.
또 다른 측면에서, 상기 로봇은 사용자로부터 입력받은 정보 요청의 송신 및 상기 정보 요청에 해당하는 정보의 수신을 수행하는 통신기를 더 포함할 수 있다.
본 발명의 다른 양태에 따르면, 로봇에 기반한 정보 제공 방법을 제공한다.
상기 방법은 상기 로봇의 외측면에 구비되어 상기 로봇의 입체적 형틀을 형성하는 적어도 하나의 디스플레이를 통해 상기 로봇의 일 측면의 외형, 모양, 색채 중 적어도 하나를 포함하는 콘텐츠를 각각 대응되는 디스플레이에 표시하도록 제어하여, 상기 적어도 하나의 디스플레이가 형성하는 입체적 형틀과 상기 콘텐츠의 조합에 따라 상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 단계, 상기 로봇의 본체에 구비된 카메라, 마이크로폰 및 상기 적어도 하나의 디스플레이를 이용하여 사용자에 대한 정보를 인식하는 단계 및 상기 사용자에 대한 정보를 기초로 상기 로봇의 외형을 가변시키는 단계를 포함할 수 있다.
일 측면에서, 상기 콘텐츠는 제1 디스플레이에서 표시되는 제1 콘텐츠, 제2 디스플레이에서 표시되는 제2 콘텐츠, 제3 디스플레이에서 표시되는 제3 콘텐츠 및 제4 디스플레이에서 표시되는 제4 콘텐츠를 포함하고, 상기 제1 내지 제4 콘텐츠는 각각 상기 로봇의 전후좌우의 모습을 구성할 수 있다.
다른 측면에서, 상기 방법은 상기 사용자에 대한 정보를 인식하는 단계 이후에, 상기 사용자에 대한 정보를 기초로 상기 본체에 구비된 틸팅 장치를 이용하여 상기 적어도 하나의 디스플레이의 틸팅 각도를 조절하는 단계를 더 포함할 수 있다.
또 다른 측면에서, 상기 사용자에 대한 정보는 해당 사용자의 연령, 성별, 복장 및 사용 언어 중 적어도 하나에 대한 정보일 수 있다.
또 다른 측면에서, 상기 방법은 상기 적어도 하나의 디스플레이를 통해 상기 로봇의 얼굴에 대응되는 객체가 표시되도록 제어하는 단계를 더 포함할 수 있다.
또 다른 측면에서, 상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 단계는, 상기 로봇이 위치한 장소에 대한 정보, 상기 로봇이 위치한 지역의 날씨 정보, 날짜 정보 및 시간 정보 중 적어도 하나를 기초로 상기 로봇의 외형이 입체적으로 형성되도록 제어하는 단계를 포함하는 것을 특징으로 하는, 방법.
또 다른 측면에서, 상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 단계는, 상기 적어도 하나의 디스플레이에 상기 로봇의 팔에 대응되는 객체가 표시되도록 제어하고, 상기 로봇이 이동 중인 경우 상기 로봇의 팔에 대응되는 객체 각각이 상기 로봇의 이동 속도 및 방향에 따라 해당하는 디스플레이 상에서 움직이도록 제어하는 단계를 포함할 수 있다.
또 다른 측면에서, 상기 방법은 상기 사용자에 대한 정보를 인식하는 단계 이후에, 사용자로부터 입력받은 정보 요청을 송신하는 단계, 상기 정보 요청에 해당하는 정보를 수신하는 단계 및 상기 정보 요청에 해당하는 정보를 상기 적어도 하나의 디스플레이를 통해 표시하는 단계를 더 포함할 수 있다.
로봇의 외측면에 구비된 디스플레이에 의해 형성되는 입체적인 윤곽(또는 형틀)과 상기 디스플레이에서 표시되는 콘텐츠의 조합을 이용하여 로봇의 외형을 디자인할 수 있기 때문에 보다 적은 비용으로도 사용자에게 친근감을 제공할 수 있다.
로봇에 구비된 센서를 통해 인식된 정보를 기초로 로봇의 이동을 제어할 수 있기 때문에 자율적으로 이동하면서 효과적인 정보 제공이 가능하다.
도 1은 본 명세서의 일례에 따른 정보 제공용 로봇의 외관을 나타내는 사시도이다.
도 2는 본 명세서의 일례에 따른 정보 제공용 로봇을 나타내는 블록도이다.
도 3은 본 명세서의 일례에 따른 정보 제공용 로봇의 저면도이다.
도 4a 및 도 4b는 본 명세서의 일례에 따른 정보 제공용 로봇의 외형이 복수개의 디스플레이를 통해 가변됨을 나타내는 예시도이다.
도 5는 본 명세서의 일례에 따른 정보 제공 방법을 나타내는 흐름도이다.
다양한 구현예가 도면을 참조하여 개시된다. 이하 설명을 목적으로, 하나 이상의 실시예의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항이 개시된다. 그러나, 이러한 구현예(들)은 구체적인 세부사항 없이도 실행될 수 있다는 점이 인식되어야 한다. 이후의 기재 및 첨부된 도면은 하나 이상의 구현예의 특정한 예시적인 구현예를 상세하게 기술한다. 하지만, 이러한 구현예는 예시적인 것이고 다양한 구현예의 원리에서 다양한 방법 중 일부가 이용될 수 있으며 기술되는 설명은 그러한 구현예 및 그의 균등물을 모두 포함하고자 하는 의도이다.
다양한 구현예 및 특징이 다수의 구성부를 포함할 수 있는 장치에 의하여 제시될 것이다. 다양한 장치가 추가적인 구성부를 포함할 수 있고 그리고/또는 도면과 관련하여 논의된 구성부 모두를 포함할 수 없다는 점 또한 이해되고 인식되어야 한다. 본 명세서에서 사용되는 "실시예", "예", "구현예", "예시" 등은 기술된 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않아야 한다.
또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징, 구성부 및/또는 장치가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성부, 장치 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.
도 1은 본 명세서의 일례에 따른 정보 제공용 로봇의 외관을 나타내는 사시도이다.
도 1을 참조하면, 정보 제공용 로봇(10)은 적어도 하나의 디스플레이(110, 120, 130)를 구비할 수 있다. 각각의 디스플레이는 본체(100)의 각 면에 구비될 수 있다. 다시 말해, 정보 제공용 로봇(10)의 외부로 노출된 면에는 디스플레이가 구비될 수 있다. 예를 들어 정보 제공용 로봇(10)이 도 1에 도시된 것과 같이 사각 기둥의 형태로 구현되는 경우, 본체(100)의 측면에는 4개의 디스플레이가 구비될 수 있다. 만일 정보 제공용 로봇(10)이 육각 기둥 형태로 구현되는 경우, 본체의 측면에는 6개의 디스플레이가 구비될 수 있다. 만일 정보 제공용 로봇(10)이 원통 형태로 구현되는 경우, 본체의 측면에는 하나 또는 그 이상의 곡면 디스플레이가 구비될 수 있다.
구체적으로 도 1에 도시되어 있는 바와 같이 정보 제공용 로봇(10)이 사각 기둥의 형태로 구현되는 경우, 제1 디스플레이는 본체(100)의 전면에 구비되고, 제2 디스플레이는 본체(100)의 후면에 구비되고, 제3 디스플레이는 본체(100)의 좌측면에 구비되고, 제4 디스플레이는 본체(100)의 우측면에 구비될 수 있다. 그리고 본체(100)의 상부(헤드)에는 사용자와의 인터렉션(interaction)을 위한 제5 디스플레이(130)가 구비될 수 있다. 여기서 상기 제5 디스플레이(130)에는 사용자와의 인터렉션을 위해 터치 패널(touch panel)이 구비될 수 있다.
본체(100)와 헤드 사이에는 제5 디스플레이(130)의 틸팅 각도를 조절하기 위하여 틸팅(tilting) 장치(140)가 구비될 수 있다. 틸팅 장치(140)는 사용자와 원활한 인터렉션이 수행될 수 있도록 사용자에 대한 정보를 기초로 제5 디스플레이(130)의 틸팅 각도를 조절할 수 있다. 여기서 사용자에 대한 정보는 사용자의 얼굴(또는 눈)이 위치하는 높이에 대한 정보를 의미할 수 있다.
본체(100)의 하부 즉, 저면에는 정보 제공용 로봇(10)이 이동할 수 있도록 구동 장치(150)가 구비될 수 있다. 구동 장치(150)는 서버로부터의 명령에 따라 구동되거나, 미리 설정된 프로그램에 따라 자율적으로 구동될 수 있다.
한편, 본체(100)에는 적어도 하나의 카메라(160, 160') 및 적어도 하나의 마이크로폰(170)이 구비될 수 있다. 도 1에는 일 예로서 본체(100) 전면에 2개의 카메라와 하나의 마이크로폰이 구비되는 것으로 도시되어 있으나, 카메라 및 마이크로폰의 위치 및 개수는 이에 한정되지 않는다. 정보 제공용 로봇(10)은 카메라(160, 160')를 통해 입력되는 영상 정보 및/또는 마이크로폰(170)을 통해 입력되는 소리 정보를 기초로 사용자에 대한 정보를 인식할 수 있고, 사용자에게 필요한 정보를 적어도 하나의 디스플레이, 스피커 등을 통해 제공할 수 있다.
도 2는 본 명세서의 일례에 따른 정보 제공용 로봇을 나타내는 블록도이다.
이하, 도 2를 참조하여 정보 제공이 가능한 로봇의 구성을 보다 상세히 설명한다.
로봇(10)은 복수개의 디스플레이(110, 120, 130), 콘텐츠 제어기(210), 통신기(220), 적어도 하나의 센서(230), 틸팅 장치(140), 구동 제어기(240) 및 구동 장치(150)를 포함할 수 있다. 여기서 디스플레이의 개수는 로봇의 형상에 따라 달라질 수 있다. 일 예로, 로봇(10)이 사각 기둥의 형상으로 구현되는 경우, 본체의 외측면, 예를 들어 전면, 후면, 좌측면, 후측면 및 상부에 각각 디스플레이가 구비되어, 로봇(10)의 입체적 윤곽(또는 형틀)을 형성할 수 있다. 이 때 로봇(10)은 사용자와의 인터렉션을 위하여 터치 패널을 포함할 수 있으며, 이러한 터치 패널은 로봇(10)의 상부에 구비된 디스플레이 또는 본체를 형성하는 디스플레이 중 어느 하나에 구비될 수 있다.
로봇(10)의 본체(100)에 구비된 디스플레이(110, 120)는 복수의 사람에 대하여 일괄적으로 노출하기 위한 정보를 표시하거나, 로봇의 형상, 모양 또는 색채를 가상적 및/또는 입체적으로 꾸며주는 콘텐츠(예컨대 로봇의 가상적 옷, 로봇의 가상적 몸체부위(팔, 다리), 가상적인 모습 등)를 표시할 수 있다. 일례로서, 본체(100)에 거치된 복수의 디스플레이(110, 120)들이 사각 기둥의 형태로 구비되는 경우, 전면 디스플레이(110)는 로봇(10)의 전면의 형상, 모양 또는 색채에 해당하는 제1 콘텐츠를 표시하고, 측면 디스플레이(120)는 로봇(10)의 측면의 형상, 모양 또는 색채에 해당하는 제2 콘텐츠를 표시하며, 후면 디스플레이(도면 번호 미표시)는 로봇(10)의 후면의 형상, 모양 또는 색채에 해당하는 제3 콘텐츠를 표시한다.
제1 내지 제3 콘텐츠는 그 내용면에서 서로 연관성(correlation), 인접성(contiguousness) 및 동기화를 유지할 수 있다. 예컨대, 제1 내지 제3 콘텐츠가 로봇의 의상을 구성하는 경우, 전면 디스플레이(110)와 측면 디스플레이(120)가 접하는 경계 부근에서 로봇(10)의 옷이 끊기거나 이격되지 않도록 제1 및 제2 콘텐츠가 마련될 수 있다(도 4a 및 도 4b 참조).
이와 같이 로봇의 입체적 윤곽(또는 형틀)을 형성하는 디스플레이들과, 각 디스플레이에서 노출되는 제1 내지 제3 콘텐츠의 조합에 기반하여, 로봇(10)의 전후좌우 모습(또는 외관)이 가상적이고 입체적인 형상, 모양, 색채에 의해 자유롭게 디자인될 수 있다.
로봇(10)의 상부에 구비된 디스플레이에서는 특정 사용자에게 필요한 정보가 표시되거나, 로봇의 얼굴을 형상화하는 콘텐츠가 표시될 수 있다.
콘텐츠 제어기(210)는 복수개의 디스플레이(110, 120, 130)를 통해 표시되는 콘텐츠를 각각 제어하여 상기 로봇의 외관 또는 외형이 입체적으로 형성되도록 제어할 수 있다. 콘텐츠 제어기(210)는 기계 및/또는 전자회로와 같은 하드웨어, 또는 하드웨어와 소프트웨어가 결합된 형태(예를 들어 칩, 프로세서, 램 등)로 구현될 수 있다.
일 예로, 콘텐츠 제어기(210)는 로봇(10)이 위치한 장소에 대한 정보, 로봇(10)이 위치한 지역의 날씨 정보, 날짜 정보 및 시간 정보 중 적어도 하나를 기초로 복수개의 디스플레이(110, 120, 130)에서 표시되는 콘텐츠가 변경되도록 제어함으로써 로봇(10)의 외형을 가변시킬 수 있다. 또는, 센서(230)를 이용하여 사용자에 대한 정보를 인식하고, 이를 기초로 로봇(10)의 외관 또는 외형을 가변시킬 수도 있다. 여기서, 상기 사용자에 대한 정보는 해당 사용자의 연령, 성별, 복장 및 사용 언어 중 적어도 하나에 대한 정보일 수 있다. 이를 위하여 콘텐츠 제어기(210)는 복수개의 디스플레이(110, 120, 130) 중 좌측 및 우측에 구비된 디스플레이를 통해 각각 로봇의 왼팔 및 오른팔에 객체가 표시되도록 제어할 수 있다. 그리고 로봇(10)이 이동 중인 경우 상기 로봇의 왼팔 및 오른팔에 대응되는 객체가 각각 로봇의 이동 속도 및/또는 방향에 따라 해당하는 디스플레이 상에서 움직이도록 제어할 수 있다. 한편 콘텐츠 제어기(210)는 본체의 상부에 구비된 디스플레이를 통해서는 로봇(10)의 얼굴에 대응되는 객체(예를 들어, 눈 코, 입 등)가 표시되도록 제어할 수 있다. 이 때 콘텐츠 제어기(210)는 사용자와의 인터렉션에 따라 사용자가 상기 로봇의 얼굴에서 다양한 표정을 읽을 수 있도록 해당 디스플레이 상에서 상기 얼굴에 대응되는 객체의 위치, 각도, 크기 등을 가변시킬 수 있다.
통신기(220)는 사용자로부터 입력받은 정보 요청의 송신 및 상기 정보 요청에 해당하는 정보의 수신을 수행할 수 있다. 예를 들어, 사용자가 로봇에 구비된 마이크로폰, 디스플레이 등을 이용하여 음성, 터치 등으로 특정 위치로의 이동 경로에 대한 정보를 요청하는 경우, 통신기(220)는 이를 서버로 전송하고 서버로부터 현재 위치에서 특정 위치로의 이동 경로에 대한 정보를 수신할 수 있다. 다른 예로, 사용자가 로봇에 구비된 카메라, 마이크로폰 등을 이용하여 영상, 음성 등으로 특정 레스토랑에 대한 위치 정보를 요청하는 경우, 로봇(10)은 통신기(220)를 통해 상기 특정 레스토랑에 대한 위치 정보를 서버로부터 수신하여 디스플레이를 통해 해당 정보를 표시할 수 있다.
센서(230)는 로봇(10)이 주변 환경, 사용자 등을 인식할 수 있도록 하거나, 로봇(10)의 위치를 인식하는데 사용되는 것으로, 레이저 센서, 비전센서, 3D 센서, 카메라, 마이크로폰, GPS(Global Positioning System), WiFi(Wireless Fidelity) 모듈 등을 포함할 수 있다.
구동 제어기(240)는 레이저 센서, 비전센서, 3D 센서, 카메라, 마이크로폰, GPS 모듈, WiFi 모듈 등의 센서(230)에 의해 통해 인식된 주변 환경 및/또는 사용자에 대한 정보를 기초로 미리 설정된 프로그램에 따라 로봇의 이동을 자율적으로 제어하거나, 통신기(220)를 통해 서버로부터 수신한 이동 제어 정보를 기초로 로봇의 이동을 제어할 수 있다. 일 예로 구동 제어기(240)는 센서(230)를 통해 획득한 GPS 정보, WiFi 정보, 비전 정보, 레이저 정보, 3D 카메라 정보 등을 기반으로 로봇(10)의 위치를 판단하고 이를 기초로 구동 장치(150)를 제어함으로써 로봇(10)이 목적지로 이동하도록 할 수 있다.
도 2에는 일 예로, 구동 제어기(240)와 콘텐츠 제어기(210)가 별개의 구성으로 구현되는 경우가 도시되어 있으나, 구동 제어기(240)는 콘텐츠 제어기(210)와 통합되어 하나의 프로세서로 구현될 수도 있다.
틸팅 장치(140)는 로봇(10)의 상부에 구비되어, 센서(예를 들어, 카메라, 마이크로폰) 등에 의에 의해 인식된 사용자의 위치 정보에 기초하여 상부 디스플레이(로봇의 헤드)의 틸팅(tilting) 각도를 조절할 수 있다. 이를 위하여 일 예로, 로봇의 프로세서는 카메라에 의해 인식된 사용자의 얼굴 위치, 마이크로폰에 입력된 소리의 방향 등에 대한 정보를 기초로 사용자의 얼굴이 위치하는 영역의 좌표값을 계산하고, 계산된 좌표값에서 상부 디스플레이의 화면을 판독 가능하도록 틸팅 장치(140)를 제어할 수 있다.
구동 장치(150)는 구동 제어기(240)의 제어에 따라 로봇을 구동시킬 수 있다.
도 3은 본 명세서의 일례에 따른 정보 제공용 로봇의 저면도이다.
이하, 도 3을 참조하여 정보 제공용 로봇이 사각 기둥의 형태로 구현되는 경우의 구동 장치(150)에 대해 보다 상세히 설명한다.
구동 장치(150)는 다수의 바퀴(151), 상기 바퀴의 축에 결합된 모터(152), 상기 로봇의 이동 방향을 제어하는 조향장치(153), 상기 모터와 상기 조향장치의 제어를 위한 제어기(154) 및 로봇의 본체를 지지하도록 구비된 지지부(155)를 포함할 수 있다.
로봇의 디스플레이는 지지부(155)로부터 상부 방향으로 연장 돌출되는 거치 프레임(도시되지 않음)에 의해 각각 거치되되, 거치 프레임을 중심으로 화면이 서로 다른 방향을 향하도록 거치될 수 있다. 이 때, 각 디스플레이 간의 수직 경계면은 서로 나란히 이웃하게 거치되어 전체적으로 다면체 구조가 형성될 수 있다.
만일 정보 제공용 로봇이 원통형으로 구현되는 경우, 지지부(155)는 원형으로 구현될 수 있으며, 원형의 지지부의 상부에는 적어도 하나의 곡면 디스플레이가 거치될 수 있다.
도 4a 및 도 4b는 본 명세서의 일례에 따른 정보 제공용 로봇의 외형이 복수개의 디스플레이를 통해 가변됨을 나타내는 예시도이다.
도 4a 및 도 4b를 참조하면, 로봇에 구비된 복수개의 디스플레이 중 측면에 구비된 디스플레이를 통해서는 로봇의 외형(의상, 몸 등)에 해당하는 컨텐츠가 표시될 수 있고, 상부에 구비된 디스플레이를 통해서는 해당 외형에 적합한 얼굴에 해당하는 컨텐츠가 표시될 수 있다. 따라서 본 명세서에 따르면, 이와 같이 로봇의 외관 또는 외형을 구조적이고 물리적인 수단(예컨대, 로봇의 실제 팔, 또는 로봇에 입혀지는 실제 옷)이 아닌 복수개의 디스플레이를 통해 소프트웨어적(또는 가상적)으로 구성하기 때문에 로봇의 형상, 모양, 색채 등을 적은 비용으로 다양하고 자유롭게 입체적으로 표현할 수 있으며, 필요에 따라 로봇의 전후좌우 등 외형을 실시간으로 변경시킬 수 있다.
도 5는 본 명세서의 일례에 따른 정보 제공 방법을 나타내는 흐름도이다.
도 5를 참조하면, 로봇은 본체에 구비된 복수개의 디스플레이를 통해 표시되는 콘텐츠를 각각 제어하여 상기 로봇의 외형이 입체적으로 형성되도록 제어할 수 있다(S510). 이 때 상기 복수개의 디스플레이 중 상기 본체의 상부에 구비된 디스플레이를 통해서는 로봇의 얼굴에 대응되는 객체가 표시되도록 제어할 수 있다. 상기 복수개의 디스플레이 중 적어도 하나에서는 로봇의 팔에 대응되는 객체가 표시될 수 있다. 만일 로봇이 이동 중인 경우라면, 상기 로봇의 팔에 대응되는 객체 각각은 로봇의 이동 속도 및 방향에 따라 해당하는 디스플레이 상에서 움직이도록 제어될 수 있다.
이와 같은 상황에서 정보 제공이 필요한 사용자가 로봇에 근접하는 경우, 로봇은 본체에 구비된 카메라, 마이크로폰 및 상기 복수개의 디스플레이 중 적어도 하나를 이용하여 해당 사용자에 대한 정보를 인식할 수 있다(S520). 여기서 사용자에 대한 정보는 해당 사용자의 연령, 성별, 복장 및 사용 언어 중 적어도 하나에 대한 정보를 포함할 수 있다. 로봇은 본체에 구비된 카메라를 이용하여 사용자를 스캔함으로써 사용자에 대한 영상 정보를 획득할 수 있고 및 마이크로폰을 이용하여 주변의 소리 정보를 수집함으로써 사용자의 음성 정보를 획득할 수 있다. 그리고 상기 영상 정보 및 음성 정보에 대해 특징점 매칭을 수행함으로써 사용자의 연령, 성별, 복장, 사용 언어 등에 대한 정보를 획득할 수 있다.
로봇은 사용자에 대한 정보가 인식되면 이를 기초로 본체에 상부에 구비된 디스플레이의 틸팅 각도를 조절하여 사용자가 쉽게 상부 디스플레이에서 표시되는 화면을 볼 수 있도록 하는 한편, 해당 사용자의 호감을 유발할 수 있는 외형으로 로봇의 외형을 가변시킬 수 있다(S530). 여기서 로봇의 외형은, 취득한 사용자에 대한 정보, 로봇이 위치한 장소에 대한 정보, 로봇이 위치한 지역의 날씨 정보, 날짜 정보 및 시간 정보 중 적어도 하나에 기초하여 가변될 수도 있다.
이 후 사용자로부터 특정 정보에 대한 요청이 입력되면, 로봇은 사용자로부터 입력받은 요청을 서버로 송신하고, 해당 요청에 관한 정보를 수신하여 복수개의 디스플레이 중 적어도 하나(예를 들어 상부 디스플레이)를 통해 표시할 수 있다. 만일 사용자가 특정 장소에 대한 경로 안내를 요청하는 경우 로봇은 구동 장치를 구동시켜 상기 특정 장소까지 사용자와 동행할 수도 있다.
이상 제시된 실시예에 대한 설명은 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예에 대한 다양한 변형은 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 발명의 범위를 벗어남이 없이 다른 실시예에 적용될 수 있다. 그러므로, 본 발명은 여기에 제시된 실시예로 한정되는 것이 아니라, 여기에 제시된 원리 및 신규한 특징과 일관되는 가장 넓은 의미의 범위에서 해석되어야 할 것이다.

Claims (20)

  1. 정보 제공이 가능한 로봇에 있어서,
    본체;
    상기 본체의 외측면에 구비되어 상기 로봇의 입체적 형틀을 형성하는 적어도 하나의 디스플레이; 및
    상기 로봇의 일 측면의 형상, 모양, 색채 중 적어도 하나를 포함하는 콘텐츠를 각각 대응되는 디스플레이에 표시하도록 제어하여, 상기 적어도 하나의 디스플레이가 형성하는 입체적 형틀과 상기 콘텐츠의 조합에 따라 상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 콘텐츠 제어기를 포함하는, 로봇.
  2. 제1항에 있어서,
    상기 본체의 하부에 구비되는 복수개의 바퀴;
    상기 복수개의 바퀴의 축에 결합되는 모터;
    상기 로봇의 이동 방향을 조절하는 조향 장치; 및
    상기 모터와 상기 조향장치를 제어함으로써 상기 로봇의 이동을 제어하는 구동 제어기를 더 포함하는 것을 특징으로 하는, 로봇.
  3. 제2항에 있어서,
    상기 구동 제어기는,
    상기 로봇의 위치를 인식하는데 사용되는 센서를 기반으로 상기 로봇의 이동을 제어하는 것을 특징으로 하는, 로봇.
  4. 제1항에 있어서,
    상기 적어도 하나의 디스플레이는,
    상기 본체의 전면에 구비되는 제1 디스플레이;
    상기 본체의 후면에 구비되는 제2 디스플레이;
    상기 본체의 좌측면에 구비되는 제3 디스플레이;
    상기 본체의 우측면에 구비되는 제4 디스플레이; 및
    상기 본체에 구비되고 터치 패널을 포함하는 제5 디스플레이를 포함하는 것을 특징으로 하는, 로봇.
  5. 제4항에 있어서,
    상기 콘텐츠는,
    상기 제1 디스플레이에서 표시되는 제1 콘텐츠, 상기 제2 디스플레이에서 표시되는 제2 콘텐츠, 상기 제3 디스플레이에서 표시되는 제3 콘텐츠 및 상기 제4 디스플레이에서 표시되는 제4 콘텐츠를 포함하고,
    상기 제1 내지 제4 콘텐츠는 각각 상기 로봇의 전후좌우의 모습을 구성하는 것을 특징으로 하는, 로봇.
  6. 제4항에 있어서,
    상기 본체의 상부 및 전면 중 적어도 하나에 구비되는 카메라; 및
    상기 본체의 상부 및 전면 중 적어도 하나에 구비되는 마이크로폰을 더 포함하고,
    상기 콘텐츠 제어기는,
    상기 카메라, 상기 마이크로폰 및 상기 제5 디스플레이 중 적어도 하나를 이용하여 사용자에 대한 정보를 인식하고, 상기 사용자에 대한 정보를 기초로 상기 로봇의 외형을 가변시키는 것을 특징으로 하는, 로봇.
  7. 제6항에 있어서,
    상기 본체에 구비되고, 상기 카메라 및 상기 마이크로폰 중 적어도 하나에 의해 인식된 사용자에 대한 정보에 기초하여 상기 제5 디스플레이의 틸팅(tilting) 각도를 조절하는 틸팅 장치를 더 포함하는 것을 특징으로 하는, 로봇.
  8. 제6항에 있어서,
    상기 사용자에 대한 정보는,
    해당 사용자의 연령, 성별, 복장 및 사용 언어 중 적어도 하나에 대한 정보인 것을 특징으로 하는, 로봇.
  9. 제5항에 있어서,
    상기 콘텐츠 제어기는,
    상기 제5 디스플레이를 통해 상기 로봇의 얼굴에 대응되는 객체가 표시되도록 제어하는 것을 특징으로 하는, 로봇.
  10. 제1항에 있어서,
    상기 콘텐츠 제어기는,
    상기 로봇이 위치한 장소에 대한 정보, 상기 로봇이 위치한 지역의 날씨 정보, 날짜 정보 및 시간 정보 중 적어도 하나를 기초로 상기 로봇의 외형을 가변시키는 것을 특징으로 하는, 로봇.
  11. 제1항에 있어서,
    상기 콘텐츠 제어기는,
    상기 적어도 하나의 디스플레이에 상기 로봇의 팔에 대응되는 객체가 표시되도록 제어하고, 상기 로봇이 이동 중인 경우 상기 로봇의 팔에 대응되는 객체 각각이 상기 로봇의 이동 속도 및 방향에 따라 해당하는 디스플레이 상에서 움직이도록 제어하는 것을 특징으로 하는, 로봇.
  12. 제1항에 있어서,
    사용자로부터 입력받은 정보 요청의 송신 및 상기 정보 요청에 해당하는 정보의 수신을 수행하는 통신기를 더 포함하는 것을 특징으로 하는, 로봇.
  13. 로봇에 기반한 정보 제공 방법으로서,
    상기 로봇의 외측면에 구비되어 상기 로봇의 입체적 형틀을 형성하는 적어도 하나의 디스플레이를 통해 상기 로봇의 일 측면의 외형, 모양, 색채 중 적어도 하나를 포함하는 콘텐츠를 각각 대응되는 디스플레이에 표시하도록 제어하여, 상기 적어도 하나의 디스플레이가 형성하는 입체적 형틀과 상기 콘텐츠의 조합에 따라 상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 단계;
    상기 로봇의 본체에 구비된 카메라, 마이크로폰 및 상기 적어도 하나의 디스플레이를 이용하여 사용자에 대한 정보를 인식하는 단계; 및
    상기 사용자에 대한 정보를 기초로 상기 로봇의 외형을 가변시키는 단계
    를 포함하는, 방법.
  14. 제13항에 있어서,
    상기 콘텐츠는,
    제1 디스플레이에서 표시되는 제1 콘텐츠, 제2 디스플레이에서 표시되는 제2 콘텐츠, 제3 디스플레이에서 표시되는 제3 콘텐츠 및 제4 디스플레이에서 표시되는 제4 콘텐츠를 포함하고,
    상기 제1 내지 제4 콘텐츠는 각각 상기 로봇의 전후좌우의 모습을 구성하는 것을 특징으로 하는, 방법.
  15. 제13항에 있어서,
    상기 사용자에 대한 정보를 인식하는 단계 이후에,
    상기 사용자에 대한 정보를 기초로 상기 본체에 구비된 틸팅 장치를 이용하여 상기 적어도 하나의 디스플레이의 틸팅 각도를 조절하는 단계를 더 포함하는 것을 특징으로 하는, 방법.
  16. 제13항에 있어서,
    상기 사용자에 대한 정보는,
    해당 사용자의 연령, 성별, 복장 및 사용 언어 중 적어도 하나에 대한 정보인 것을 특징으로 하는, 방법.
  17. 제13항에 있어서,
    상기 적어도 하나의 디스플레이를 통해 상기 로봇의 얼굴에 대응되는 객체가 표시되도록 제어하는 단계를 더 포함하는 것을 특징으로 하는, 방법.
  18. 제13항에 있어서,
    상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 단계는,
    상기 로봇이 위치한 장소에 대한 정보, 상기 로봇이 위치한 지역의 날씨 정보, 날짜 정보 및 시간 정보 중 적어도 하나를 기초로 상기 로봇의 외형이 입체적으로 형성되도록 제어하는 단계를 포함하는 것을 특징으로 하는, 방법.
  19. 제13항에 있어서,
    상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 단계는,
    상기 적어도 하나의 디스플레이에 상기 로봇의 팔에 대응되는 객체가 표시되도록 제어하고, 상기 로봇이 이동 중인 경우 상기 로봇의 팔에 대응되는 객체 각각이 상기 로봇의 이동 속도 및 방향에 따라 해당하는 디스플레이 상에서 움직이도록 제어하는 단계를 포함하는 것을 특징으로 하는, 방법.
  20. 제13항에 있어서,
    상기 사용자에 대한 정보를 인식하는 단계 이후에,
    사용자로부터 입력받은 정보 요청을 송신하는 단계;
    상기 정보 요청에 해당하는 정보를 수신하는 단계; 및
    상기 정보 요청에 해당하는 정보를 상기 적어도 하나의 디스플레이를 통해 표시하는 단계를 더 포함하는 것을 특징으로 하는, 방법.
PCT/KR2018/002652 2018-02-06 2018-03-06 정보 제공용 로봇 및 이를 이용한 정보 제공 방법 WO2019156280A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019519415A JP6804638B2 (ja) 2018-02-06 2018-03-06 情報提供用ロボット及びこれを利用した情報提供方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180014602A KR101920620B1 (ko) 2018-02-06 2018-02-06 정보 제공용 로봇 및 이를 이용한 정보 제공 방법
KR10-2018-0014602 2018-02-06

Publications (1)

Publication Number Publication Date
WO2019156280A1 true WO2019156280A1 (ko) 2019-08-15

Family

ID=64602375

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/002652 WO2019156280A1 (ko) 2018-02-06 2018-03-06 정보 제공용 로봇 및 이를 이용한 정보 제공 방법

Country Status (3)

Country Link
JP (1) JP6804638B2 (ko)
KR (1) KR101920620B1 (ko)
WO (1) WO2019156280A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111309280A (zh) * 2020-01-22 2020-06-19 北京云迹科技有限公司 一种控制机器人的方法、机器人以及电子设备
US20230032760A1 (en) * 2021-08-02 2023-02-02 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a serving robot

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109571507A (zh) * 2019-01-16 2019-04-05 鲁班嫡系机器人(深圳)有限公司 一种服务机器人系统及服务方法
WO2020184734A1 (ko) * 2019-03-08 2020-09-17 엘지전자 주식회사 로봇
KR102669078B1 (ko) * 2021-11-23 2024-05-24 한국공학대학교산학협력단 인간 친화형 로봇의 감정 표현을 위한 표정 시각화 정보 생성 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110072292A (ko) * 2009-12-22 2011-06-29 주식회사 이디 로봇과 디스플레이 장치의 상호 작용형 고객 서비스 시스템 및 고객 서비스 방법
KR20140128086A (ko) * 2013-04-26 2014-11-05 경남대학교 산학협력단 장애인 안내용 가변구조 휠체어 로봇
KR101472508B1 (ko) * 2014-05-15 2014-12-12 (주) 에이앤에이컴퍼니 측면 디스플레이 기능을 갖는 스탠드 타입 키오스크
JP2015016549A (ja) * 2010-05-20 2015-01-29 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット
JP2017007033A (ja) * 2015-06-22 2017-01-12 シャープ株式会社 ロボット

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001300876A (ja) * 2000-04-20 2001-10-30 Yamatake Corp サービスロボット及びこれを使用する給仕システム
JP2005066766A (ja) * 2003-08-25 2005-03-17 Saichiro Yamashita 全面モニタ付きロボット
TWI306051B (en) * 2006-12-14 2009-02-11 Ind Tech Res Inst Robotic apparatus with surface information displaying and interaction capability
US9796093B2 (en) * 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110072292A (ko) * 2009-12-22 2011-06-29 주식회사 이디 로봇과 디스플레이 장치의 상호 작용형 고객 서비스 시스템 및 고객 서비스 방법
JP2015016549A (ja) * 2010-05-20 2015-01-29 アイロボット コーポレイション 移動式ヒューマンインターフェースロボット
KR20140128086A (ko) * 2013-04-26 2014-11-05 경남대학교 산학협력단 장애인 안내용 가변구조 휠체어 로봇
KR101472508B1 (ko) * 2014-05-15 2014-12-12 (주) 에이앤에이컴퍼니 측면 디스플레이 기능을 갖는 스탠드 타입 키오스크
JP2017007033A (ja) * 2015-06-22 2017-01-12 シャープ株式会社 ロボット

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111309280A (zh) * 2020-01-22 2020-06-19 北京云迹科技有限公司 一种控制机器人的方法、机器人以及电子设备
US20230032760A1 (en) * 2021-08-02 2023-02-02 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a serving robot

Also Published As

Publication number Publication date
JP6804638B2 (ja) 2020-12-23
JP2020514079A (ja) 2020-05-21
KR101920620B1 (ko) 2018-11-21

Similar Documents

Publication Publication Date Title
WO2019156280A1 (ko) 정보 제공용 로봇 및 이를 이용한 정보 제공 방법
US6084594A (en) Image presentation apparatus
US9873200B2 (en) Personal robot
WO2011111910A1 (en) Telepresence robot, telepresence system comprising the same and method for controlling the same
WO2016126110A1 (ko) 가상현실 멀미를 감소시키는 전기 자극 헤드 마운트 디스플레이 장치
WO2016099052A1 (ko) 시각장애인을 위한 3차원 장애물 안내장치와 이를 이용한 주위 정보 안내시스템 및 그 방법
US20060119572A1 (en) Movable audio/video communication interface system
Tachi Telexistence: Enabling humans to be virtually ubiquitous
KR20150099510A (ko) 무선 손목 컴퓨팅과 3d 영상화, 매핑, 네트워킹 및 인터페이스를 위한 제어 장치 및 방법
EP3341818A1 (en) Method and apparatus for displaying content
JP6517255B2 (ja) キャラクタ画像生成装置、キャラクタ画像生成方法、プログラム、記録媒体及びキャラクタ画像生成システム
JP7081052B2 (ja) 模擬現実(sr)におけるデバイス共有及び対話性の表示
JP2006301654A (ja) 画像呈示装置
WO2013025011A1 (ko) 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템
CN109300528B (zh) 一种认知康复训练系统及方法
JP4962940B2 (ja) 道案内システム
JP7085578B2 (ja) 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ
JP6227732B1 (ja) 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム
US20230195401A1 (en) Information processing apparatus and information processing method
CN112684898A (zh) 沉浸式智能交互展示装置及方法
JP6457446B2 (ja) 仮想空間におけるコミュニケーションを支援するための方法および装置ならびに当該方法をコンピュータに実行させるためのプログラム
JP6820299B2 (ja) プログラム、情報処理装置、および方法
WO2018124397A1 (ko) 증강현실을 이용한 경로 안내 장치 및 이를 이용한 경로 안내 방법
CN110660311A (zh) 智能展品演示机器人系统
WO2022145888A1 (ko) 증강 현실 장치를 제어하는 방법 및 이를 수행하는 증강 현실 장치

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019519415

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18904813

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18904813

Country of ref document: EP

Kind code of ref document: A1