KR101920620B1 - Robot for providing information and method for providing information using the same - Google Patents

Robot for providing information and method for providing information using the same Download PDF

Info

Publication number
KR101920620B1
KR101920620B1 KR1020180014602A KR20180014602A KR101920620B1 KR 101920620 B1 KR101920620 B1 KR 101920620B1 KR 1020180014602 A KR1020180014602 A KR 1020180014602A KR 20180014602 A KR20180014602 A KR 20180014602A KR 101920620 B1 KR101920620 B1 KR 101920620B1
Authority
KR
South Korea
Prior art keywords
robot
information
display
user
main body
Prior art date
Application number
KR1020180014602A
Other languages
Korean (ko)
Inventor
장경석
이상엽
Original Assignee
(주)원익로보틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)원익로보틱스 filed Critical (주)원익로보틱스
Priority to KR1020180014602A priority Critical patent/KR101920620B1/en
Priority to PCT/KR2018/002652 priority patent/WO2019156280A1/en
Priority to JP2019519415A priority patent/JP6804638B2/en
Application granted granted Critical
Publication of KR101920620B1 publication Critical patent/KR101920620B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture

Abstract

The present invention relates to a robot for providing information and a method for providing information using the same. According to the present invention, the robot comprises: a body; at least one display provided on the external side surface of the body to form a three-dimensional frame of the robot; and a content controller controlling contents having at least one of a shape, a form, and a color of one side surface of the robot to be displayed on a display to which the contents are individually correspond, and controlling appearance of the robot to be three-dimensionally designed in accordance with the three-dimensional frame formed by the display and combination of the contents.

Description

정보 제공용 로봇 및 이를 이용한 정보 제공 방법{ROBOT FOR PROVIDING INFORMATION AND METHOD FOR PROVIDING INFORMATION USING THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an information providing robot,

본 발명은 로봇에 관한 것으로서, 보다 상세하게는 정보 제공이 가능한 로봇 및 이를 이용한 정보 제공 방법에 관한 것이다.The present invention relates to a robot, and more particularly, to a robot capable of providing information and a method of providing information using the same.

로봇은 산업, 공공장소, 가정 등 다양한 분야에서 인력을 대체하기 위한 수단으로 활용되고 있으며, 생산성과 생활의 편의성을 높여주므로 그 사용이 증가하고 있는 추세이다. 그러나 로봇의 사용은 이와 같은 순기능 이외에, 사람의 일자리를 위협하고, 범죄에 이용되는 등 부정적인 측면 또한 존재한다. 따라서 로봇을 이용하여 다양한 서비스를 제공함에 있어서, 사용자에게 보다 친근감을 제공할 수 있는 방법이 요구된다.Robots are being used as a means to replace human resources in various fields such as industry, public places, and homes, and the use of robots is increasing because it increases productivity and convenience of living. However, the use of robots also has negative aspects such as threats to human jobs, crimes, and so forth. Therefore, in providing various services using robots, there is a need for a method that can provide more familiarity to users.

본 발명의 기술적 과제는 입체적 디스플레이를 구비한 로봇을 통해 적은 비용으로도 사용자에게 엔터테인먼트와 친근감을 제공할 수 있을 뿐만 아니라, 로봇 자체의 정보 및 로봇 주변의 다양한 정보를 제공할 수 있는 정보 제공용 로봇 및 이를 이용한 정보 제공 방법을 제공함에 있다.The present invention has been made in view of the above problems, and it is an object of the present invention to provide an information providing robot capable of providing entertainment and intimacy to a user at a low cost through a robot equipped with a stereoscopic display, And a method of providing information using the same.

본 발명의 다른 기술적 과제는 상황에 맞게 자율적으로 이동 가능한 정보 제공용 로봇 및 이를 이용한 정보 제공 방법을 제공함에 있다.It is another object of the present invention to provide an information providing robot which can be moved autonomously according to a situation and a method of providing information using the same.

본 발명의 일 양태에 따르면, 정보 제공이 가능한 로봇은 본체, 상기 본체의 외측면에 구비되어 상기 로봇의 입체적 형틀을 형성하는 적어도 하나의 디스플레이 및 상기 로봇의 일 측면의 형상, 모양, 색채 중 적어도 하나를 포함하는 콘텐츠를 각각 대응되는 디스플레이에 표시하도록 제어하여, 상기 적어도 하나의 디스플레이가 형성하는 입체적 형틀과 상기 콘텐츠의 조합에 따라 상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 콘텐츠 제어기를 포함할 수 있다.According to one aspect of the present invention, there is provided a robot capable of providing information, including a main body, at least one display provided on an outer surface of the main body to form a stereoscopic form of the robot, and at least one of a shape, And a content controller for controlling the appearance of the robot to be three-dimensionally designed according to a combination of the stereoscopic pattern formed by the at least one display and the content have.

일 측면에서, 상기 로봇은 상기 본체의 하부에 구비되는 복수개의 바퀴, 상기 복수개의 바퀴의 축에 결합되는 모터, 상기 로봇의 이동 방향을 조절하는 조향 장치 및 상기 모터와 상기 조향장치를 제어함으로써 상기 로봇의 이동을 제어하는 구동 제어기를 더 포함할 수 있다.In one aspect, the robot includes a plurality of wheels provided at a lower portion of the main body, a motor coupled to a shaft of the plurality of wheels, a steering device for adjusting a moving direction of the robot, And a drive controller for controlling movement of the robot.

다른 측면에서, 상기 구동 제어기는 상기 로봇의 위치를 인식하는데 사용되는 센서를 기반으로 상기 로봇의 이동을 제어할 수 있다.In another aspect, the drive controller may control movement of the robot based on a sensor used to recognize the position of the robot.

또 다른 측면에서, 상기 적어도 하나의 디스플레이는 상기 본체의 전면에 구비되는 제1 디스플레이, 상기 본체의 후면에 구비되는 제2 디스플레이, 상기 본체의 좌측면에 구비되는 제3 디스플레이, 상기 본체의 우측면에 구비되는 제4 디스플레이 및 상기 본체에 구비되고 터치 패널을 포함하는 제5 디스플레이를 포함할 수 있다.In another aspect, the at least one display includes a first display provided on a front surface of the main body, a second display provided on a rear surface of the main body, a third display provided on a left surface of the main body, And a fifth display provided on the main body and including a touch panel.

또 다른 측면에서, 상기 콘텐츠는 상기 제1 디스플레이에서 표시되는 제1 콘텐츠, 상기 제2 디스플레이에서 표시되는 제2 콘텐츠, 상기 제3 디스플레이에서 표시되는 제3 콘텐츠 및 상기 제4 디스플레이에서 표시되는 제4 콘텐츠를 포함하고, 상기 제1 내지 제4 콘텐츠는 각각 상기 로봇의 전후좌우의 모습을 구성할 수 있다.In yet another aspect, the content includes a first content displayed on the first display, a second content displayed on the second display, a third content displayed on the third display, and a fourth content displayed on the fourth display, Content, and the first to fourth contents may constitute front, rear, left, and right views of the robot, respectively.

또 다른 측면에서, 상기 로봇은 상기 본체의 상부 및 전면 중 적어도 하나에 구비되는 카메라 및 상기 본체의 상부 및 전면 중 적어도 하나에 구비되는 마이크로폰을 더 포함하고, 상기 콘텐츠 제어기는 상기 카메라, 상기 마이크로폰 및 상기 제5 디스플레이 중 적어도 하나를 이용하여 사용자에 대한 정보를 인식하고, 상기 사용자에 대한 정보를 기초로 상기 로봇의 외형을 가변시킬 수 있다.In another aspect, the robot further includes a camera provided on at least one of an upper portion and a front portion of the main body, and a microphone provided on at least one of an upper portion and a front portion of the main body, and the content controller includes: And the fifth display, and can change the appearance of the robot based on information about the user.

또 다른 측면에서, 상기 로봇은 상기 본체에 구비되고, 상기 카메라 및 상기 마이크로폰 중 적어도 하나에 의해 인식된 사용자에 대한 정보에 기초하여 상기 제5 디스플레이의 틸팅(tilting) 각도를 조절하는 틸팅 장치를 더 포함할 수 있다.According to another aspect, the robot further includes a tilting device provided in the main body and adapted to adjust a tilting angle of the fifth display based on information about a user recognized by at least one of the camera and the microphone .

또 다른 측면에서, 상기 사용자에 대한 정보는 해당 사용자의 연령, 성별, 복장 및 사용 언어 중 적어도 하나에 대한 정보일 수 있다.In another aspect, the information about the user may be information on at least one of the age, sex, dress, and language of the user.

또 다른 측면에서, 상기 콘텐츠 제어기는 상기 제5 디스플레이를 통해 상기 로봇의 얼굴에 대응되는 객체가 표시되도록 제어할 수 있다.In yet another aspect, the content controller may control to display an object corresponding to a face of the robot through the fifth display.

또 다른 측면에서, 상기 콘텐츠 제어기는 상기 로봇이 위치한 장소에 대한 정보, 상기 로봇이 위치한 지역의 날씨 정보, 날짜 정보 및 시간 정보 중 적어도 하나를 기초로 상기 로봇의 외형을 가변시킬 수 있다.In another aspect, the content controller may vary the appearance of the robot based on at least one of information about a location of the robot, weather information of an area where the robot is located, date information, and time information.

또 다른 측면에서, 상기 콘텐츠 제어기는 상기 적어도 하나의 디스플레이에 상기 로봇의 팔에 대응되는 객체가 표시되도록 제어하고, 상기 로봇이 이동 중인 경우 상기 로봇의 팔에 대응되는 객체 각각이 상기 로봇의 이동 속도 및 방향에 따라 해당하는 디스플레이 상에서 움직이도록 제어할 수 있다.In another aspect, the content controller controls an object corresponding to an arm of the robot to be displayed on the at least one display, and when the robot is moving, each of the objects corresponding to arms of the robot moves to a moving speed And can be controlled to move on the corresponding display according to the direction.

또 다른 측면에서, 상기 로봇은 사용자로부터 입력받은 정보 요청의 송신 및 상기 정보 요청에 해당하는 정보의 수신을 수행하는 통신기를 더 포함할 수 있다.In another aspect, the robot may further include a communication unit for transmitting the information request input from the user and for receiving information corresponding to the information request.

본 발명의 다른 양태에 따르면, 로봇에 기반한 정보 제공 방법을 제공한다.According to another aspect of the present invention, there is provided a robot-based information providing method.

상기 방법은 상기 로봇의 외측면에 구비되어 상기 로봇의 입체적 형틀을 형성하는 적어도 하나의 디스플레이를 통해 상기 로봇의 일 측면의 외형, 모양, 색채 중 적어도 하나를 포함하는 콘텐츠를 각각 대응되는 디스플레이에 표시하도록 제어하여, 상기 적어도 하나의 디스플레이가 형성하는 입체적 형틀과 상기 콘텐츠의 조합에 따라 상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 단계, 상기 로봇의 본체에 구비된 카메라, 마이크로폰 및 상기 적어도 하나의 디스플레이를 이용하여 사용자에 대한 정보를 인식하는 단계 및 상기 사용자에 대한 정보를 기초로 상기 로봇의 외형을 가변시키는 단계를 포함할 수 있다.The method may further include displaying at least one display on the outer surface of the robot, the display including at least one of the outer shape, shape, and color of one side of the robot on at least one display forming a stereoscopic form of the robot, Controlling the stereoscopic shape of the robot in accordance with a combination of the stereoscopic pattern formed by the at least one display and the contents, a camera, a microphone, and the at least one display Recognizing information about the user using the robot and changing the appearance of the robot based on the information about the user.

일 측면에서, 상기 콘텐츠는 제1 디스플레이에서 표시되는 제1 콘텐츠, 제2 디스플레이에서 표시되는 제2 콘텐츠, 제3 디스플레이에서 표시되는 제3 콘텐츠 및 제4 디스플레이에서 표시되는 제4 콘텐츠를 포함하고, 상기 제1 내지 제4 콘텐츠는 각각 상기 로봇의 전후좌우의 모습을 구성할 수 있다.In one aspect, the content includes a first content displayed on a first display, a second content displayed on a second display, a third content displayed on a third display, and a fourth content displayed on a fourth display, The first, second, and third contents may constitute front, rear, left, and right views of the robot.

다른 측면에서, 상기 방법은 상기 사용자에 대한 정보를 인식하는 단계 이후에, 상기 사용자에 대한 정보를 기초로 상기 본체에 구비된 틸팅 장치를 이용하여 상기 적어도 하나의 디스플레이의 틸팅 각도를 조절하는 단계를 더 포함할 수 있다.In another aspect, the method further comprises adjusting the tilting angle of the at least one display using a tilting device provided on the main body based on information about the user, after the step of recognizing information about the user .

또 다른 측면에서, 상기 사용자에 대한 정보는 해당 사용자의 연령, 성별, 복장 및 사용 언어 중 적어도 하나에 대한 정보일 수 있다.In another aspect, the information about the user may be information on at least one of the age, sex, dress, and language of the user.

또 다른 측면에서, 상기 방법은 상기 적어도 하나의 디스플레이를 통해 상기 로봇의 얼굴에 대응되는 객체가 표시되도록 제어하는 단계를 더 포함할 수 있다.In another aspect, the method may further include controlling to display an object corresponding to a face of the robot through the at least one display.

또 다른 측면에서, 상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 단계는, 상기 로봇이 위치한 장소에 대한 정보, 상기 로봇이 위치한 지역의 날씨 정보, 날짜 정보 및 시간 정보 중 적어도 하나를 기초로 상기 로봇의 외형이 입체적으로 형성되도록 제어하는 단계를 포함하는 것을 특징으로 하는, 방법.In another aspect, the step of controlling the outline of the robot to be three-dimensionally designed may include a step of controlling the three-dimensional design of the robot based on at least one of information about a place where the robot is located, weather information of an area where the robot is located, So that the outer shape of the first and second electrodes is formed to be three-dimensionally formed.

또 다른 측면에서, 상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 단계는, 상기 적어도 하나의 디스플레이에 상기 로봇의 팔에 대응되는 객체가 표시되도록 제어하고, 상기 로봇이 이동 중인 경우 상기 로봇의 팔에 대응되는 객체 각각이 상기 로봇의 이동 속도 및 방향에 따라 해당하는 디스플레이 상에서 움직이도록 제어하는 단계를 포함할 수 있다.In another aspect, the step of controlling the outline of the robot to be three-dimensionally designed may include controlling at least one display to display an object corresponding to the arm of the robot, and, when the robot is moving, And controlling each of the corresponding objects to move on the corresponding display according to the moving speed and direction of the robot.

또 다른 측면에서, 상기 방법은 상기 사용자에 대한 정보를 인식하는 단계 이후에, 사용자로부터 입력받은 정보 요청을 송신하는 단계, 상기 정보 요청에 해당하는 정보를 수신하는 단계 및 상기 정보 요청에 해당하는 정보를 상기 적어도 하나의 디스플레이를 통해 표시하는 단계를 더 포함할 수 있다.In another aspect, the method further comprises: after the step of recognizing information about the user, transmitting an information request input from a user, receiving information corresponding to the information request, and receiving information corresponding to the information request To the at least one display through the at least one display.

로봇의 외측면에 구비된 디스플레이에 의해 형성되는 입체적인 윤곽(또는 형틀)과 상기 디스플레이에서 표시되는 콘텐츠의 조합을 이용하여 로봇의 외형을 디자인할 수 있기 때문에 보다 적은 비용으로도 사용자에게 친근감을 제공할 수 있다.Since the outer shape of the robot can be designed by using a combination of a stereoscopic outline (or a mold) formed by a display provided on the outer surface of the robot and a content displayed on the display, it is possible to provide an intimacy to the user .

로봇에 구비된 센서를 통해 인식된 정보를 기초로 로봇의 이동을 제어할 수 있기 때문에 자율적으로 이동하면서 효과적인 정보 제공이 가능하다.Since the movement of the robot can be controlled based on the recognized information through the sensor provided in the robot, effective information can be provided while moving autonomously.

도 1은 본 명세서의 일례에 따른 정보 제공용 로봇의 외관을 나타내는 사시도이다.
도 2는 본 명세서의 일례에 따른 정보 제공용 로봇을 나타내는 블록도이다.
도 3은 본 명세서의 일례에 따른 정보 제공용 로봇의 저면도이다.
도 4는 본 명세서의 일례에 따른 정보 제공용 로봇의 외형이 복수개의 디스플레이를 통해 가변됨을 나타내는 예시도이다.
도 5는 본 명세서의 일례에 따른 정보 제공 방법을 나타내는 흐름도이다.
1 is a perspective view showing an appearance of an information providing robot according to an example of the present specification.
2 is a block diagram showing an information providing robot according to an example of the present specification.
3 is a bottom view of an information providing robot according to an example of the present specification.
FIG. 4 is an exemplary diagram illustrating the appearance of an information providing robot according to an exemplary embodiment of the present invention being variable through a plurality of displays.
5 is a flowchart illustrating an information providing method according to an example of the present specification.

다양한 구현예가 도면을 참조하여 개시된다. 이하 설명을 목적으로, 하나 이상의 실시예의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항이 개시된다. 그러나, 이러한 구현예(들)은 구체적인 세부사항 없이도 실행될 수 있다는 점이 인식되어야 한다. 이후의 기재 및 첨부된 도면은 하나 이상의 구현예의 특정한 예시적인 구현예를 상세하게 기술한다. 하지만, 이러한 구현예는 예시적인 것이고 다양한 구현예의 원리에서 다양한 방법 중 일부가 이용될 수 있으며 기술되는 설명은 그러한 구현예 및 그의 균등물을 모두 포함하고자 하는 의도이다.Various embodiments are disclosed with reference to the drawings. For the purpose of illustration, numerous specific details are set forth in order to provide a thorough understanding of one or more embodiments. It should be appreciated, however, that such embodiment (s) may be practiced without the specific details. The following description and the annexed drawings set forth in detail certain illustrative embodiments of one or more embodiments. However, these implementations are exemplary and some of the various methods may be utilized in the principles of various implementations, and the description set forth is intended to include all such implementations and their equivalents.

다양한 구현예 및 특징이 다수의 구성부를 포함할 수 있는 장치에 의하여 제시될 것이다. 다양한 장치가 추가적인 구성부를 포함할 수 있고 그리고/또는 도면과 관련하여 논의된 구성부 모두를 포함할 수 없다는 점 또한 이해되고 인식되어야 한다. 본 명세서에서 사용되는 "실시예", "예", "구현예", "예시" 등은 기술된 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않아야 한다.Various embodiments and features will be presented by means of an apparatus which may comprise a plurality of components. It should also be understood and appreciated that the various embodiments may include additional features and / or may not include all of the features discussed in connection with the drawings. As used herein, the terms " an embodiment, " " an embodiment, " " an example, " etc. should not be construed as advantageous or advantageous over other aspects or designs described. .

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징, 구성부 및/또는 장치가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성부, 장치 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.It is also to be understood that the term " comprises " and / or " comprising " means that a feature, component and / or device is present, but that the presence of one or more other features, components, Or < / RTI > additions. Also, unless the context clearly dictates otherwise or to the contrary, the singular forms in this specification and claims should generally be construed to mean " one or more. &Quot;

도 1은 본 명세서의 일례에 따른 정보 제공용 로봇의 외관을 나타내는 사시도이다.1 is a perspective view showing an appearance of an information providing robot according to an example of the present specification.

도 1을 참조하면, 정보 제공용 로봇(10)은 적어도 하나의 디스플레이(110, 120, 130)를 구비할 수 있다. 각각의 디스플레이는 본체(100)의 각 면에 구비될 수 있다. 다시 말해, 정보 제공용 로봇(10)의 외부로 노출된 면에는 디스플레이가 구비될 수 있다. 예를 들어 정보 제공용 로봇(10)이 도 1에 도시된 것과 같이 사각 기둥의 형태로 구현되는 경우, 본체(100)의 측면에는 4개의 디스플레이가 구비될 수 있다. 만일 정보 제공용 로봇(10)이 육각 기둥 형태로 구현되는 경우, 본체의 측면에는 6개의 디스플레이가 구비될 수 있다. 만일 정보 제공용 로봇(10)이 원통 형태로 구현되는 경우, 본체의 측면에는 하나 또는 그 이상의 곡면 디스플레이가 구비될 수 있다. Referring to FIG. 1, the information providing robot 10 may include at least one display 110, 120, and 130. Each display may be provided on each side of the main body 100. In other words, a display may be provided on a surface exposed to the outside of the information providing robot 10. For example, when the information providing robot 10 is implemented in the form of a square pillar as shown in FIG. 1, four displays may be provided on the side surface of the main body 100. If the information providing robot 10 is implemented as a hexagonal column, six displays may be provided on the side of the main body. If the information providing robot 10 is implemented as a cylinder, one or more curved displays may be provided on the side of the main body.

구체적으로 도 1에 도시되어 있는 바와 같이 정보 제공용 로봇(10)이 사각 기둥의 형태로 구현되는 경우, 제1 디스플레이는 본체(100)의 전면에 구비되고, 제2 디스플레이는 본체(100)의 후면에 구비되고, 제3 디스플레이는 본체(100)의 좌측면에 구비되고, 제4 디스플레이는 본체(100)의 우측면에 구비될 수 있다. 그리고 본체(100)의 상부(헤드)에는 사용자와의 인터렉션(interaction)을 위한 제5 디스플레이(130)가 구비될 수 있다. 여기서 상기 제5 디스플레이(130)에는 사용자와의 인터렉션을 위해 터치 패널(touch panel)이 구비될 수 있다.1, when the information providing robot 10 is implemented as a square pillar, the first display is provided on the front surface of the main body 100, and the second display is provided on the front surface of the main body 100 A third display may be provided on the left side of the main body 100 and a fourth display may be provided on the right side of the main body 100. [ A fifth display 130 may be provided on the upper portion (head) of the main body 100 for interaction with the user. Here, the fifth display 130 may include a touch panel for interaction with a user.

본체(100)와 헤드 사이에는 제5 디스플레이(130)의 틸팅 각도를 조절하기 위하여 틸팅(tilting) 장치(140)가 구비될 수 있다. 틸팅 장치(140)는 사용자와 원활한 인터렉션이 수행될 수 있도록 사용자에 대한 정보를 기초로 제5 디스플레이(130)의 틸팅 각도를 조절할 수 있다. 여기서 사용자에 대한 정보는 사용자의 얼굴(또는 눈)이 위치하는 높이에 대한 정보를 의미할 수 있다.A tilting device 140 may be provided between the main body 100 and the head to adjust the tilting angle of the fifth display 130. The tilting device 140 may adjust the tilting angle of the fifth display 130 based on information about the user so that a smooth interaction with the user can be performed. Here, the information about the user may mean information about the height at which the user's face (or eyes) is located.

본체(100)의 하부 즉, 저면에는 정보 제공용 로봇(10)이 이동할 수 있도록 구동 장치(150)가 구비될 수 있다. 구동 장치(150)는 서버로부터의 명령에 따라 구동되거나, 미리 설정된 프로그램에 따라 자율적으로 구동될 수 있다.A driving device 150 may be provided on the lower portion of the main body 100 so that the information providing robot 10 can move. The driving device 150 may be driven in response to a command from the server, or may be autonomously driven according to a preset program.

한편, 본체(100)에는 적어도 하나의 카메라(160, 160') 및 적어도 하나의 마이크로폰(170)이 구비될 수 있다. 도 1에는 일 예로서 본체(100) 전면에 2개의 카메라와 하나의 마이크로폰이 구비되는 것으로 도시되어 있으나, 카메라 및 마이크로폰의 위치 및 개수는 이에 한정되지 않는다. 정보 제공용 로봇(10)은 카메라(160, 160')를 통해 입력되는 영상 정보 및/또는 마이크로폰(170)을 통해 입력되는 소리 정보를 기초로 사용자에 대한 정보를 인식할 수 있고, 사용자에게 필요한 정보를 적어도 하나의 디스플레이, 스피커 등을 통해 제공할 수 있다.Meanwhile, the main body 100 may include at least one camera 160, 160 'and at least one microphone 170. In FIG. 1, two cameras and one microphone are shown on the front surface of the main body 100, but the positions and the numbers of the cameras and the microphones are not limited thereto. The information providing robot 10 can recognize information about the user based on the image information input through the cameras 160 and 160 'and / or the sound information input through the microphone 170, Information can be provided through at least one display, a speaker, and the like.

도 2는 본 명세서의 일례에 따른 정보 제공용 로봇을 나타내는 블록도이다.2 is a block diagram showing an information providing robot according to an example of the present specification.

이하, 도 2를 참조하여 정보 제공이 가능한 로봇의 구성을 보다 상세히 설명한다.Hereinafter, the configuration of the robot capable of providing information will be described in more detail with reference to FIG.

로봇(10)은 복수개의 디스플레이(110, 120, 130), 콘텐츠 제어기(210), 통신기(220), 적어도 하나의 센서(230), 틸팅 장치(140), 구동 제어기(240) 및 구동 장치(150)를 포함할 수 있다. 여기서 디스플레이의 개수는 로봇의 형상에 따라 달라질 수 있다. 일 예로, 로봇(10)이 사각 기둥의 형상으로 구현되는 경우, 본체의 외측면, 예를 들어 전면, 후면, 좌측면, 후측면 및 상부에 각각 디스플레이가 구비되어, 로봇(10)의 입체적 윤곽(또는 형틀)을 형성할 수 있다. 이 때 로봇(10)은 사용자와의 인터렉션을 위하여 터치 패널을 포함할 수 있으며, 이러한 터치 패널은 로봇(10)의 상부에 구비된 디스플레이 또는 본체를 형성하는 디스플레이 중 어느 하나에 구비될 수 있다. The robot 10 includes a plurality of displays 110, 120 and 130, a content controller 210, a communicator 220, at least one sensor 230, a tilting device 140, a drive controller 240, 150). Here, the number of displays may vary depending on the shape of the robot. For example, when the robot 10 is implemented in the shape of a quadrangular prism, displays may be provided on the outer sides of the main body, for example, front, rear, left, (Or a mold) can be formed. At this time, the robot 10 may include a touch panel for interaction with a user. Such a touch panel may be provided on either the display provided on the robot 10 or the display forming the main body.

로봇(10)의 본체(100)에 구비된 디스플레이(110, 120)는 복수의 사람에 대하여 일괄적으로 노출하기 위한 정보를 표시하거나, 로봇의 형상, 모양 또는 색채를 가상적 및/또는 입체적으로 꾸며주는 콘텐츠(예컨대 로봇의 가상적 옷, 로봇의 가상적 몸체부위(팔, 다리), 가상적인 모습 등)를 표시할 수 있다. 일례로서, 본체(100)에 거치된 복수의 디스플레이(110, 120)들이 사각 기둥의 형태로 구비되는 경우, 전면 디스플레이(110)는 로봇(10)의 전면의 형상, 모양 또는 색채에 해당하는 제1 콘텐츠를 표시하고, 측면 디스플레이(120)는 로봇(10)의 측면의 형상, 모양 또는 색채에 해당하는 제2 콘텐츠를 표시하며, 후면 디스플레이(도면 번호 미표시)는 로봇(10)의 후면의 형상, 모양 또는 색채에 해당하는 제3 콘텐츠를 표시한다. The displays 110 and 120 provided in the main body 100 of the robot 10 may display information for collectively exposing a plurality of persons or may decorate the shape, shape, or color of the robot virtually and / or stereoscopically The user can display content (e.g., virtual clothes of the robot, virtual body parts (arms, legs), virtual appearance, etc.) of the robot. For example, when a plurality of displays 110 and 120 mounted on the main body 100 are provided in the shape of a quadrangular pillar, the front display 110 may include a plurality of displays 110 and 120, And the side display 120 displays the second content corresponding to the shape, shape, or color of the side surface of the robot 10, and the rear display (not shown in the drawing) indicates the shape of the rear surface of the robot 10 , Shape or color of the first content.

제1 내지 제3 콘텐츠는 그 내용면에서 서로 연관성(correlation), 인접성(contiguousness) 및 동기화를 유지할 수 있다. 예컨대, 제1 내지 제3 콘텐츠가 로봇의 의상을 구성하는 경우, 전면 디스플레이(110)와 측면 디스플레이(120)가 접하는 경계 부근에서 로봇(10)의 옷이 끊기거나 이격되지 않도록 제1 및 제2 콘텐츠가 마련될 수 있다(도 4 참조). The first to third contents can maintain correlation, contiguousness and synchronization with each other in terms of their contents. For example, when the first to third contents constitute the garment of the robot, the clothes of the robot 10 are not broken or spaced around the boundary where the front display 110 and the side display 120 are in contact with each other, Content can be prepared (see Fig. 4).

이와 같이 로봇의 입체적 윤곽(또는 형틀)을 형성하는 디스플레이들과, 각 디스플레이에서 노출되는 제1 내지 제3 콘텐츠의 조합에 기반하여, 로봇(10)의 전후좌우 모습(또는 외관)이 가상적이고 입체적인 형상, 모양, 색채에 의해 자유롭게 디자인될 수 있다. Thus, based on the displays forming the three-dimensional outline (or the frame) of the robot and the combination of the first to third contents exposed in each display, the front, rear, left, and right (or appearance) It can be freely designed by shape, shape and color.

로봇(10)의 상부에 구비된 디스플레이에서는 특정 사용자에게 필요한 정보가 표시되거나, 로봇의 얼굴을 형상화하는 콘텐츠가 표시될 수 있다.In the display provided in the upper portion of the robot 10, information necessary for a specific user may be displayed or a content for shaping the face of the robot may be displayed.

콘텐츠 제어기(210)는 복수개의 디스플레이(110, 120, 130)를 통해 표시되는 콘텐츠를 각각 제어하여 상기 로봇의 외관 또는 외형이 입체적으로 형성되도록 제어할 수 있다. 콘텐츠 제어기(210)는 기계 및/또는 전자회로와 같은 하드웨어, 또는 하드웨어와 소프트웨어가 결합된 형태(예를 들어 칩, 프로세서, 램 등)로 구현될 수 있다.The content controller 210 may control contents displayed on the plurality of displays 110, 120, and 130 to control the appearance or contour of the robot to be three-dimensionally formed. Content controller 210 may be implemented in hardware, such as a machine and / or electronic circuitry, or in a combination of hardware and software (e.g., chip, processor, RAM, etc.).

일 예로, 콘텐츠 제어기(210)는 로봇(10)이 위치한 장소에 대한 정보, 로봇(10)이 위치한 지역의 날씨 정보, 날짜 정보 및 시간 정보 중 적어도 하나를 기초로 복수개의 디스플레이(110, 120, 130)에서 표시되는 콘텐츠가 변경되도록 제어함으로써 로봇(10)의 외형을 가변시킬 수 있다. 또는, 센서(230)를 이용하여 사용자에 대한 정보를 인식하고, 이를 기초로 로봇(10)의 외관 또는 외형을 가변시킬 수도 있다. 여기서, 상기 사용자에 대한 정보는 해당 사용자의 연령, 성별, 복장 및 사용 언어 중 적어도 하나에 대한 정보일 수 있다. 이를 위하여 콘텐츠 제어기(210)는 복수개의 디스플레이(110, 120, 130) 중 좌측 및 우측에 구비된 디스플레이를 통해 각각 로봇의 왼팔 및 오른팔에 객체가 표시되도록 제어할 수 있다. 그리고 로봇(10)이 이동 중인 경우 상기 로봇의 왼팔 및 오른팔에 대응되는 객체가 각각 로봇의 이동 속도 및/또는 방향에 따라 해당하는 디스플레이 상에서 움직이도록 제어할 수 있다. 한편 콘텐츠 제어기(210)는 본체의 상부에 구비된 디스플레이를 통해서는 로봇(10)의 얼굴에 대응되는 객체(예를 들어, 눈 코, 입 등)가 표시되도록 제어할 수 있다. 이 때 콘텐츠 제어기(210)는 사용자와의 인터렉션에 따라 사용자가 상기 로봇의 얼굴에서 다양한 표정을 읽을 수 있도록 해당 디스플레이 상에서 상기 얼굴에 대응되는 객체의 위치, 각도, 크기 등을 가변시킬 수 있다.For example, the content controller 210 may include a plurality of displays 110, 120, and 120 based on at least one of the location of the robot 10, the weather information of the area where the robot 10 is located, 130 are changed so that the appearance of the robot 10 can be varied. Alternatively, the sensor 230 may be used to recognize information about the user, and the appearance or appearance of the robot 10 may be varied based on the information. Here, the information on the user may be information on at least one of the age, sex, dress, and language of the user. For this, the content controller 210 can control the display of the objects on the left arm and the right arm of the robot through the displays provided on the left and right of the plurality of displays 110, 120, and 130, respectively. When the robot 10 is moving, it is possible to control the objects corresponding to the left arm and the right arm of the robot to move on the corresponding display according to the moving speed and / or direction of the robot, respectively. Meanwhile, the content controller 210 can control an object corresponding to the face of the robot 10 (e.g., eye nose, mouth, etc.) to be displayed through the display provided on the upper part of the body. At this time, the content controller 210 may change the position, angle, size, and the like of the object corresponding to the face on the display so that the user can read various facial expressions on the face of the robot according to the interaction with the user.

통신기(220)는 사용자로부터 입력받은 정보 요청의 송신 및 상기 정보 요청에 해당하는 정보의 수신을 수행할 수 있다. 예를 들어, 사용자가 로봇에 구비된 마이크로폰, 디스플레이 등을 이용하여 음성, 터치 등으로 특정 위치로의 이동 경로에 대한 정보를 요청하는 경우, 통신기(220)는 이를 서버로 전송하고 서버로부터 현재 위치에서 특정 위치로의 이동 경로에 대한 정보를 수신할 수 있다. 다른 예로, 사용자가 로봇에 구비된 카메라, 마이크로폰 등을 이용하여 영상, 음성 등으로 특정 레스토랑에 대한 위치 정보를 요청하는 경우, 로봇(10)은 통신기(220)를 통해 상기 특정 레스토랑에 대한 위치 정보를 서버로부터 수신하여 디스플레이를 통해 해당 정보를 표시할 수 있다.The communicator 220 can perform transmission of an information request input from a user and reception of information corresponding to the information request. For example, when a user requests information on a movement path to a specific position by voice, touch, or the like using a microphone, a display, or the like provided in the robot, the communicator 220 transmits the information to the server, The information about the movement route to the specific location can be received. As another example, when a user requests location information on a specific restaurant by using a camera, a microphone, or the like provided in the robot, the robot 10 transmits position information on the specific restaurant through the communicator 220 From the server and display the corresponding information through the display.

센서(230)는 로봇(10)이 주변 환경, 사용자 등을 인식할 수 있도록 하거나, 로봇(10)의 위치를 인식하는데 사용되는 것으로, 레이저 센서, 비전센서, 3D 센서, 카메라, 마이크로폰, GPS(Global Positioning System), WiFi(Wireless Fidelity) 모듈 등을 포함할 수 있다.The sensor 230 is used for recognizing the environment of the robot 10 or a user or recognizing the position of the robot 10. The sensor 230 may be a laser sensor, a vision sensor, a 3D sensor, a camera, a microphone, a GPS Global Positioning System), WiFi (Wireless Fidelity) module, and the like.

구동 제어기(240)는 레이저 센서, 비전센서, 3D 센서, 카메라, 마이크로폰, GPS 모듈, WiFi 모듈 등의 센서(230)에 의해 통해 인식된 주변 환경 및/또는 사용자에 대한 정보를 기초로 미리 설정된 프로그램에 따라 로봇의 이동을 자율적으로 제어하거나, 통신기(220)를 통해 서버로부터 수신한 이동 제어 정보를 기초로 로봇의 이동을 제어할 수 있다. 일 예로 구동 제어기(240)는 센서(230)를 통해 획득한 GPS 정보, WiFi 정보, 비전 정보, 레이저 정보, 3D 카메라 정보 등을 기반으로 로봇(10)의 위치를 판단하고 이를 기초로 구동 장치(150)를 제어함으로써 로봇(10)이 목적지로 이동하도록 할 수 있다.The drive controller 240 controls the drive controller 240 based on the information about the environment and / or the user recognized by the sensor 230 such as a laser sensor, a vision sensor, a 3D sensor, a camera, a microphone, a GPS module, The movement of the robot can be controlled autonomously based on the movement control information received from the server through the communicator 220. [ For example, the drive controller 240 determines the position of the robot 10 based on GPS information, WiFi information, vision information, laser information, and 3D camera information acquired through the sensor 230, 150 to move the robot 10 to a destination.

도 2에는 일 예로, 구동 제어기(240)와 콘텐츠 제어기(210)가 별개의 구성으로 구현되는 경우가 도시되어 있으나, 구동 제어기(240)는 콘텐츠 제어기(210)와 통합되어 하나의 프로세서로 구현될 수도 있다.2, a case where the driving controller 240 and the content controller 210 are implemented as separate components is shown, but the driving controller 240 may be integrated with the content controller 210 to be implemented as a single processor It is possible.

틸팅 장치(140)는 로봇(10)의 상부에 구비되어, 센서(예를 들어, 카메라, 마이크로폰) 등에 의에 의해 인식된 사용자의 위치 정보에 기초하여 상부 디스플레이(로봇의 헤드)의 틸팅(tilting) 각도를 조절할 수 있다. 이를 위하여 일 예로, 로봇의 프로세서는 카메라에 의해 인식된 사용자의 얼굴 위치, 마이크로폰에 입력된 소리의 방향 등에 대한 정보를 기초로 사용자의 얼굴이 위치하는 영역의 좌표값을 계산하고, 계산된 좌표값에서 상부 디스플레이의 화면을 판독 가능하도록 틸팅 장치(140)를 제어할 수 있다.The tilting device 140 is provided on the upper side of the robot 10 and tilts the upper display (the head of the robot) based on the user's positional information recognized by the sensor (e.g., camera, microphone) ) The angle can be adjusted. For example, the processor of the robot calculates the coordinate value of the area where the user's face is located based on the information of the face of the user recognized by the camera, the direction of the sound input to the microphone, The tilting device 140 can be controlled to read the screen of the upper display.

구동 장치(150)는 구동 제어기(240)의 제어에 따라 로봇을 구동시킬 수 있다.The driving device 150 can drive the robot under the control of the driving controller 240. [

도 3은 본 명세서의 일례에 따른 정보 제공용 로봇의 저면도이다.3 is a bottom view of an information providing robot according to an example of the present specification.

이하, 도 3을 참조하여 정보 제공용 로봇이 사각 기둥의 형태로 구현되는 경우의 구동 장치(150)에 대해 보다 상세히 설명한다.Hereinafter, the driving apparatus 150 in the case where the information providing robot is implemented in the form of a square pillar will be described in more detail with reference to FIG.

구동 장치(150)는 다수의 바퀴(151), 상기 바퀴의 축에 결합된 모터(152), 상기 로봇의 이동 방향을 제어하는 조향장치(153), 상기 모터와 상기 조향장치의 제어를 위한 제어기(154) 및 로봇의 본체를 지지하도록 구비된 지지부(155)를 포함할 수 있다.The driving device 150 includes a plurality of wheels 151, a motor 152 coupled to the axle of the wheel, a steering device 153 for controlling the moving direction of the robot, a controller for controlling the motor and the steering device, And a support portion 155 provided to support the main body of the robot.

로봇의 디스플레이는 지지부(155)로부터 상부 방향으로 연장 돌출되는 거치 프레임(도시되지 않음)에 의해 각각 거치되되, 거치 프레임을 중심으로 화면이 서로 다른 방향을 향하도록 거치될 수 있다. 이 때, 각 디스플레이 간의 수직 경계면은 서로 나란히 이웃하게 거치되어 전체적으로 다면체 구조가 형성될 수 있다.The display of the robot is respectively mounted by a mounting frame (not shown) projecting upward from the supporting portion 155, and the display can be mounted with the screen oriented in different directions with respect to the mounting frame. At this time, the vertical boundary surfaces between the displays may be adjacently placed next to each other to form a polyhedral structure as a whole.

만일 정보 제공용 로봇이 원통형으로 구현되는 경우, 지지부(155)는 원형으로 구현될 수 있으며, 원형의 지지부의 상부에는 적어도 하나의 곡면 디스플레이가 거치될 수 있다.If the information providing robot is implemented in a cylindrical shape, the support part 155 may be implemented in a circular shape, and at least one curved display may be mounted on the upper part of the circular support part.

도 4는 본 명세서의 일례에 따른 정보 제공용 로봇의 외형이 복수개의 디스플레이를 통해 가변됨을 나타내는 예시도이다.FIG. 4 is an exemplary diagram illustrating the appearance of an information providing robot according to an exemplary embodiment of the present invention being variable through a plurality of displays.

도 4(a) 및 도 4(b)를 참조하면, 로봇에 구비된 복수개의 디스플레이 중 측면에 구비된 디스플레이를 통해서는 로봇의 외형(의상, 몸 등)에 해당하는 컨텐츠가 표시될 수 있고, 상부에 구비된 디스플레이를 통해서는 해당 외형에 적합한 얼굴에 해당하는 컨텐츠가 표시될 수 있다. 따라서 본 명세서에 따르면, 이와 같이 로봇의 외관 또는 외형을 구조적이고 물리적인 수단(예컨대, 로봇의 실제 팔, 또는 로봇에 입혀지는 실제 옷)이 아닌 복수개의 디스플레이를 통해 소프트웨어적(또는 가상적)으로 구성하기 때문에 로봇의 형상, 모양, 색채 등을 적은 비용으로 다양하고 자유롭게 입체적으로 표현할 수 있으며, 필요에 따라 로봇의 전후좌우 등 외형을 실시간으로 변경시킬 수 있다.4A and 4B, content corresponding to the external appearance (costume, body, etc.) of the robot can be displayed through a display provided on the side surface among a plurality of displays provided on the robot, The contents corresponding to the face suitable for the contour can be displayed through the display provided on the upper part. Thus, according to the present specification, the appearance or appearance of a robot is thus configured in a software (or hypothetical) manner through a plurality of displays rather than by structural and physical means (e.g., actual arms of the robot, Therefore, the shape, shape, and color of the robot can be variously expressed freely and stereoscopically at a low cost, and it is possible to change the outer shape such as the front, back, left and right of the robot in real time as needed.

도 5는 본 명세서의 일례에 따른 정보 제공 방법을 나타내는 흐름도이다.5 is a flowchart illustrating an information providing method according to an example of the present specification.

도 5를 참조하면, 로봇은 본체에 구비된 복수개의 디스플레이를 통해 표시되는 콘텐츠를 각각 제어하여 상기 로봇의 외형이 입체적으로 형성되도록 제어할 수 있다(S510). 이 때 상기 복수개의 디스플레이 중 상기 본체의 상부에 구비된 디스플레이를 통해서는 로봇의 얼굴에 대응되는 객체가 표시되도록 제어할 수 있다. 상기 복수개의 디스플레이 중 적어도 하나에서는 로봇의 팔에 대응되는 객체가 표시될 수 있다. 만일 로봇이 이동 중인 경우라면, 상기 로봇의 팔에 대응되는 객체 각각은 로봇의 이동 속도 및 방향에 따라 해당하는 디스플레이 상에서 움직이도록 제어될 수 있다.Referring to FIG. 5, the robot controls each of contents displayed through a plurality of displays provided in the main body, so that the external shape of the robot can be controlled to be three-dimensionally formed (S510). At this time, an object corresponding to the robot's face can be controlled to be displayed through the display provided on the main body among the plurality of displays. In at least one of the plurality of displays, an object corresponding to an arm of the robot may be displayed. If the robot is moving, each object corresponding to the arm of the robot can be controlled to move on the corresponding display according to the moving speed and direction of the robot.

이와 같은 상황에서 정보 제공이 필요한 사용자가 로봇에 근접하는 경우, 로봇은 본체에 구비된 카메라, 마이크로폰 및 상기 복수개의 디스플레이 중 적어도 하나를 이용하여 해당 사용자에 대한 정보를 인식할 수 있다(S520). 여기서 사용자에 대한 정보는 해당 사용자의 연령, 성별, 복장 및 사용 언어 중 적어도 하나에 대한 정보를 포함할 수 있다. 로봇은 본체에 구비된 카메라를 이용하여 사용자를 스캔함으로써 사용자에 대한 영상 정보를 획득할 수 있고 및 마이크로폰을 이용하여 주변의 소리 정보를 수집함으로써 사용자의 음성 정보를 획득할 수 있다. 그리고 상기 영상 정보 및 음성 정보에 대해 특징점 매칭을 수행함으로써 사용자의 연령, 성별, 복장, 사용 언어 등에 대한 정보를 획득할 수 있다.If the user who needs to provide information in such a situation approaches the robot, the robot can recognize information about the user using at least one of the camera, the microphone, and the plurality of displays provided in the main body (S520). Here, the information on the user may include information on at least one of the age, sex, dress, and language of the user. The robot can acquire image information for a user by scanning the user using a camera provided in the main body, and can acquire voice information of the user by collecting surrounding sound information using the microphone. And, by performing feature point matching on the image information and the voice information, it is possible to acquire information on the age, sex, dress, and language of the user.

로봇은 사용자에 대한 정보가 인식되면 이를 기초로 본체에 상부에 구비된 디스플레이의 틸팅 각도를 조절하여 사용자가 쉽게 상부 디스플레이에서 표시되는 화면을 볼 수 있도록 하는 한편, 해당 사용자의 호감을 유발할 수 있는 외형으로 로봇의 외형을 가변시킬 수 있다(S530). 여기서 로봇의 외형은, 취득한 사용자에 대한 정보, 로봇이 위치한 장소에 대한 정보, 로봇이 위치한 지역의 날씨 정보, 날짜 정보 및 시간 정보 중 적어도 하나에 기초하여 가변될 수도 있다.When the information about the user is recognized, the robot adjusts the tilting angle of the display provided on the main body to allow the user to easily see the screen displayed on the upper display, and can display the appearance The external shape of the robot can be varied (S530). Here, the appearance of the robot may be varied based on at least one of information on the acquired user, information on the place where the robot is located, weather information on the area where the robot is located, date information, and time information.

이 후 사용자로부터 특정 정보에 대한 요청이 입력되면, 로봇은 사용자로부터 입력받은 요청을 서버로 송신하고, 해당 요청에 관한 정보를 수신하여 복수개의 디스플레이 중 적어도 하나(예를 들어 상부 디스플레이)를 통해 표시할 수 있다. 만일 사용자가 특정 장소에 대한 경로 안내를 요청하는 경우 로봇은 구동 장치를 구동시켜 상기 특정 장소까지 사용자와 동행할 수도 있다.Then, when a request for specific information is input from the user, the robot transmits a request received from the user to the server, receives information about the request, and displays the request through at least one of the plurality of displays (for example, can do. If the user requests route guidance to a specific place, the robot may drive the driving device to accompany the user to the specific place.

이상 제시된 실시예에 대한 설명은 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예에 대한 다양한 변형은 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 발명의 범위를 벗어남이 없이 다른 실시예에 적용될 수 있다. 그러므로, 본 발명은 여기에 제시된 실시예로 한정되는 것이 아니라, 여기에 제시된 원리 및 신규한 특징과 일관되는 가장 넓은 의미의 범위에서 해석되어야 할 것이다.The foregoing description of embodiments is provided to enable any person skilled in the art to make or use the present invention. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the invention. The present invention, therefore, should not be construed as limited to the embodiments set forth herein but is to be accorded the widest scope consistent with the principles and novel features presented herein.

10: 로봇
100: 본체
110, 120, 130: 디스플레이
140: 틸팅 장치
150: 구동 장치
160, 160': 카메라
170: 마이크로폰
10: Robot
100:
110, 120, 130: Display
140: tilting device
150:
160, 160 ': camera
170: microphone

Claims (23)

정보 제공이 가능한 로봇에 있어서,
입체적 형틀의 본체;
상기 본체의 외측면에 구비되어 각각 상기 입체적 형틀의 2 이상의 서로 다른 측면을 구성하는 복수개의 디스플레이; 및
상기 로봇의 2 이상의 서로 다른 측면을 표현하는 형상, 모양, 색채 중 적어도 하나를 포함하는 콘텐츠를 각각 상기 복수개의 디스플레이 중 대응되는 디스플레이에 표시하도록 제어하여, 상기 복수개의 디스플레이에 의해 구성되는 상기 입체적 형틀과 상기 콘텐츠의 조합에 따라 상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 콘텐츠 제어기를 포함하는, 로봇.
In a robot capable of providing information,
A body of a three-dimensional mold;
A plurality of displays provided on an outer surface of the body and each constituting at least two different sides of the stereoscopic form; And
Controlling a display of at least one of a shape, a shape, and a color representing two or more different sides of the robot to be displayed on a corresponding one of the plurality of displays, And a content controller for controlling the appearance of the robot to be three-dimensionally designed according to a combination of the content and the content.
제1항에 있어서,
상기 본체의 하부에 구비되는 복수개의 바퀴;
상기 복수개의 바퀴의 축에 결합되는 모터;
상기 로봇의 이동 방향을 조절하는 조향 장치; 및
상기 모터와 상기 조향장치를 제어함으로써 상기 로봇의 이동을 제어하는 구동 제어기를 더 포함하는 것을 특징으로 하는, 로봇.
The method according to claim 1,
A plurality of wheels provided at a lower portion of the main body;
A motor coupled to an axis of the plurality of wheels;
A steering device for adjusting a moving direction of the robot; And
And a drive controller for controlling the movement of the robot by controlling the motor and the steering device.
제2항에 있어서,
상기 구동 제어기는,
상기 로봇의 위치를 인식하는데 사용되는 센서를 기반으로 상기 로봇의 이동을 제어하는 것을 특징으로 하는, 로봇.
3. The method of claim 2,
Wherein the drive controller comprises:
Wherein the movement of the robot is controlled based on a sensor used to recognize the position of the robot.
제1항에 있어서,
상기 복수개의 디스플레이는,
상기 본체의 전면에 구비되어 상기 로봇의 전면의 모습 또는 제1 정보를 표시하도록 구성되는 제1 디스플레이;
상기 본체의 후면에 구비되어 상기 로봇의 후면의 모습 또는 제2 정보를 표시하도록 구성되는 제2 디스플레이;
상기 본체의 좌측면에 구비되어 상기 로봇의 좌측면의 모습 또는 제3 정보를 표시하도록 구성되는 제3 디스플레이;
상기 본체의 우측면에 구비되어 구비되어 상기 로봇의 우측면의 모습 또는 제4 정보를 표시하도록 구성되는 제4 디스플레이; 및
상기 본체의 상부에 구비되고 터치 패널을 포함하는 제5 디스플레이를 더 포함하는 것을 특징으로 하는, 로봇.
The method according to claim 1,
The plurality of displays comprising:
A first display provided on a front surface of the main body and configured to display a front view of the robot or first information;
A second display provided on a rear surface of the main body, the second display being configured to display a shape of a rear surface of the robot or second information;
A third display provided on a left side surface of the main body and configured to display a left side surface or third information of the robot;
A fourth display provided on the right side of the main body and configured to display a right side view or fourth information of the robot; And
And a fifth display provided on the main body and including a touch panel.
제1항에 있어서,
상기 복수개의 디스플레이는,
각 디스플레이의 수직 경계면이 서로 나란히 이웃하게 거치되어 전체적으로 다면체 구조를 형성함을 특징으로 하는, 로봇.
The method according to claim 1,
The plurality of displays comprising:
Wherein the vertical interfaces of the displays are adjacently placed next to each other to form a polyhedral structure as a whole.
제4항에 있어서,
상기 본체의 상부 및 전면 중 적어도 하나에 구비되는 카메라; 및
상기 본체의 상부 및 전면 중 적어도 하나에 구비되는 마이크로폰을 더 포함하고,
상기 콘텐츠 제어기는,
상기 카메라, 상기 마이크로폰 및 상기 제5 디스플레이 중 적어도 하나를 이용하여 사용자에 대한 정보를 인식하고, 상기 사용자에 대한 정보를 기초로 상기 로봇의 외형을 가변시키는 것을 특징으로 하는, 로봇.
5. The method of claim 4,
A camera provided on at least one of an upper portion and a front portion of the main body; And
And a microphone provided on at least one of an upper portion and a front portion of the main body,
Wherein the content controller comprises:
Wherein the robot recognizes information about the user using at least one of the camera, the microphone, and the fifth display, and varies the appearance of the robot based on the information about the user.
제6항에 있어서,
상기 본체에 구비되고, 상기 카메라 및 상기 마이크로폰 중 적어도 하나에 의해 인식된 사용자에 대한 정보에 기초하여 상기 제5 디스플레이의 틸팅(tilting) 각도를 조절하는 틸팅 장치를 더 포함하는 것을 특징으로 하는, 로봇.
The method according to claim 6,
Further comprising a tilting device provided in the main body for adjusting a tilting angle of the fifth display based on information about a user recognized by at least one of the camera and the microphone, .
제6항에 있어서,
상기 사용자에 대한 정보는,
해당 사용자의 연령, 성별, 복장 및 사용 언어 중 적어도 하나에 대한 정보인 것을 특징으로 하는, 로봇.
The method according to claim 6,
The information about the user includes:
And information on at least one of the age, sex, dress, and language of use of the user.
제4항에 있어서,
상기 콘텐츠 제어기는,
상기 제5 디스플레이를 통해 상기 로봇의 얼굴에 대응되는 객체가 표시되도록 제어하는 것을 특징으로 하는, 로봇.
5. The method of claim 4,
Wherein the content controller comprises:
And an object corresponding to a face of the robot is displayed through the fifth display.
제1항에 있어서,
상기 콘텐츠 제어기는,
상기 로봇이 위치한 장소에 대한 정보, 상기 로봇이 위치한 지역의 날씨 정보, 날짜 정보 및 시간 정보 중 적어도 하나를 기초로 상기 로봇의 외형을 가변시키는 것을 특징으로 하는, 로봇.
The method according to claim 1,
Wherein the content controller comprises:
Wherein the robot changes the appearance of the robot on the basis of at least one of information about a place where the robot is located, weather information of an area where the robot is located, date information, and time information.
제4항에 있어서,
상기 콘텐츠 제어기는,
상기 제3 디스플레이 및 상기 제4 디스플레이 각각에 상기 로봇의 팔에 대응되는 객체가 표시되도록 제어하고, 상기 로봇이 이동 중인 경우 상기 로봇의 팔에 대응되는 객체 각각이 상기 로봇의 이동 속도 및 방향에 따라 해당하는 디스플레이 상에서 움직이도록 제어하는 것을 특징으로 하는, 로봇.
5. The method of claim 4,
Wherein the content controller comprises:
When the robot is moving, each of the objects corresponding to the arm of the robot is controlled according to the moving speed and direction of the robot so that the object corresponding to the arm of the robot is displayed on the third display and the fourth display, And controls the robot to move on the corresponding display.
제1항에 있어서,
사용자로부터 입력받은 정보 요청의 송신 및 상기 정보 요청에 해당하는 정보의 수신을 수행하는 통신기를 더 포함하는 것을 특징으로 하는, 로봇.
The method according to claim 1,
Further comprising a communicator for performing transmission of an information request input from a user and reception of information corresponding to the information request.
로봇에 기반한 정보 제공 방법으로서,
상기 로봇의 외측면에 구비되어 각각 상기 로봇의 입체적 형틀의 2 이상의 서로 다른 측면을 구성하는 복수개의 디스플레이를 통해 상기 로봇의 2 이상의 서로 다른 측면을 표현하는 외형, 모양, 색채 중 적어도 하나를 포함하는 콘텐츠를 각각 상기 복수개의 디스플레이 중 대응되는 디스플레이에 표시하도록 제어하여, 상기 복수개의 디스플레이에 의해 구성되는 상기 입체적 형틀과 상기 콘텐츠의 조합에 따라 상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 단계;
상기 로봇의 본체에 구비된 카메라, 마이크로폰 및 상기 복수개의 디스플레이 중 적어도 하나의 디스플레이를 이용하여 사용자에 대한 정보를 인식하는 단계; 및
상기 사용자에 대한 정보를 기초로 상기 로봇의 외형을 가변시키는 단계
를 포함하는, 방법.
A robot-based information providing method,
Shape and color expressing two or more different sides of the robot through a plurality of displays provided on an outer surface of the robot and constituting two or more different sides of the stereoscopic form of the robot, Controlling the content to be displayed on a corresponding one of the plurality of displays so that the outline of the robot is designed to be three-dimensionally designed according to a combination of the stereoscopic pattern and the content formed by the plurality of displays;
Recognizing information about a user using a camera, a microphone, and at least one display of the plurality of displays provided in the main body of the robot; And
Varying the appearance of the robot based on the information about the user
/ RTI >
제13항에 있어서,
상기 복수개의 디스플레이는,
상기 본체의 전면에 구비되어 상기 로봇의 전면의 모습 또는 제1 정보를 표시하도록 구성된 제1 디스플레이와, 상기 본체의 후면에 구비되어 상기 로봇의 후면의 모습 또는 제2 정보를 표시하도록 구성된 제2 디스플레이, 상기 본체의 좌측면에 구비되어 상기 로봇의 좌측면의 모습 또는 제3 정보를 표시하도록 구성된 제3 디스플레이 및 상기 본체의 우측면에 구비되어 상기 로봇의 우측면의 모습 또는 제4 정보를 표시하도록 구성된 제4 디스플레이를 포함함을 특징으로 하는, 방법.
14. The method of claim 13,
The plurality of displays comprising:
A first display provided on a front surface of the main body and configured to display a front view or first information of the robot, a second display provided on a rear surface of the main body and configured to display a rear view of the robot, A third display provided on the left side surface of the main body and configured to display the left side surface or the third information of the robot, and a third display configured to display the right side surface or the fourth information of the robot, 4 < / RTI > display.
제13항에 있어서,
상기 사용자에 대한 정보를 인식하는 단계 이후에,
상기 사용자에 대한 정보를 기초로 상기 본체에 구비된 틸팅 장치를 이용하여 상기 본체의 상부에 구비되는 디스플레이의 틸팅 각도를 조절하는 단계를 더 포함하는 것을 특징으로 하는, 방법.
14. The method of claim 13,
After recognizing the information about the user,
Further comprising adjusting a tilting angle of a display provided on the main body using a tilting apparatus provided on the main body based on information about the user.
제13항에 있어서,
상기 사용자에 대한 정보는,
해당 사용자의 연령, 성별, 복장 및 사용 언어 중 적어도 하나에 대한 정보인 것을 특징으로 하는, 방법.
14. The method of claim 13,
The information about the user includes:
And information on at least one of the age, sex, dress, and language of use of the user.
제13항에 있어서,
상기 본체의 상부에 구비되는 디스플레이를 통해 상기 로봇의 얼굴에 대응되는 객체가 표시되도록 제어하는 단계를 더 포함하는 것을 특징으로 하는, 방법.
14. The method of claim 13,
Further comprising: controlling an object corresponding to a face of the robot to be displayed through a display provided on an upper portion of the body.
제13항에 있어서,
상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 단계는,
상기 로봇이 위치한 장소에 대한 정보, 상기 로봇이 위치한 지역의 날씨 정보, 날짜 정보 및 시간 정보 중 적어도 하나를 기초로 상기 로봇의 외형이 입체적으로 형성되도록 제어하는 단계를 포함하는 것을 특징으로 하는, 방법.
14. The method of claim 13,
The step of controlling the outer shape of the robot to be three-
And controlling the stereoscopic appearance of the robot on the basis of at least one of information about a location of the robot, weather information of an area where the robot is located, date information, and time information .
제14항에 있어서,
상기 로봇의 외형이 입체적으로 디자인되도록 제어하는 단계는,
상기 제3 디스플레이 및 상기 제4 디스플레이 각각에 상기 로봇의 팔에 대응되는 객체가 표시되도록 제어하고, 상기 로봇이 이동 중인 경우 상기 로봇의 팔에 대응되는 객체 각각이 상기 로봇의 이동 속도 및 방향에 따라 해당하는 디스플레이 상에서 움직이도록 제어하는 단계를 포함하는 것을 특징으로 하는, 방법.
15. The method of claim 14,
The step of controlling the outer shape of the robot to be three-
When the robot is moving, each of the objects corresponding to the arm of the robot is controlled according to the moving speed and direction of the robot so that the object corresponding to the arm of the robot is displayed on the third display and the fourth display, And control to move on the corresponding display.
제13항에 있어서,
상기 사용자에 대한 정보를 인식하는 단계 이후에,
사용자로부터 입력받은 정보 요청을 송신하는 단계;
상기 정보 요청에 해당하는 정보를 수신하는 단계; 및
상기 정보 요청에 해당하는 정보를 상기 적어도 하나의 디스플레이를 통해 표시하는 단계를 더 포함하는 것을 특징으로 하는, 방법.
14. The method of claim 13,
After recognizing the information about the user,
Transmitting an information request input from a user;
Receiving information corresponding to the information request; And
And displaying information corresponding to the information request through the at least one display.
제13항에 있어서,
상기 복수개의 디스플레이는,
각 디스플레이의 수직 경계면이 서로 나란히 이웃하게 거치되어 전체적으로 다면체 구조를 형성함을 특징으로 하는, 방법.
14. The method of claim 13,
The plurality of displays comprising:
Wherein the vertical interfaces of each display are adjacently placed next to each other to form an overall polyhedral structure.
제13항에 있어서,
상기 복수개의 디스플레이는,
적어도 하나의 곡면 디스플레이를 포함함을 특징으로 하는, 방법.
14. The method of claim 13,
The plurality of displays comprising:
RTI ID = 0.0 > 1, < / RTI >
제1항에 있어서,
상기 복수개의 디스플레이는,
적어도 하나의 곡면 디스플레이를 포함함을 특징으로 하는, 로봇.
The method according to claim 1,
The plurality of displays comprising:
Characterized in that it comprises at least one curved surface display.
KR1020180014602A 2018-02-06 2018-02-06 Robot for providing information and method for providing information using the same KR101920620B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180014602A KR101920620B1 (en) 2018-02-06 2018-02-06 Robot for providing information and method for providing information using the same
PCT/KR2018/002652 WO2019156280A1 (en) 2018-02-06 2018-03-06 Robot for providing information and method for providing information by using same
JP2019519415A JP6804638B2 (en) 2018-02-06 2018-03-06 Information provision robot and information provision method using this

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180014602A KR101920620B1 (en) 2018-02-06 2018-02-06 Robot for providing information and method for providing information using the same

Publications (1)

Publication Number Publication Date
KR101920620B1 true KR101920620B1 (en) 2018-11-21

Family

ID=64602375

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180014602A KR101920620B1 (en) 2018-02-06 2018-02-06 Robot for providing information and method for providing information using the same

Country Status (3)

Country Link
JP (1) JP6804638B2 (en)
KR (1) KR101920620B1 (en)
WO (1) WO2019156280A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109571507A (en) * 2019-01-16 2019-04-05 鲁班嫡系机器人(深圳)有限公司 A kind of service robot system and method for servicing
KR20230019754A (en) * 2021-08-02 2023-02-09 베어 로보틱스, 인크. Method, system, and non-transitory computer-readable recording medium for controlling a serving robot

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111309280A (en) * 2020-01-22 2020-06-19 北京云迹科技有限公司 Method for controlling robot, robot and electronic equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017007033A (en) * 2015-06-22 2017-01-12 シャープ株式会社 robot

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001300876A (en) * 2000-04-20 2001-10-30 Yamatake Corp Service robot and service system using it
JP2005066766A (en) * 2003-08-25 2005-03-17 Saichiro Yamashita Robot with whole surface monitor
TWI306051B (en) * 2006-12-14 2009-02-11 Ind Tech Res Inst Robotic apparatus with surface information displaying and interaction capability
KR101127490B1 (en) * 2009-12-22 2012-03-22 (주)이산솔루션 System for providing customer service by interacting between robot and display device and method thereof
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
KR20140128086A (en) * 2013-04-26 2014-11-05 경남대학교 산학협력단 Variable structure wheel-chair robot for guidance of disabled person
KR101472508B1 (en) * 2014-05-15 2014-12-12 (주) 에이앤에이컴퍼니 Stand type kiosk having fuction of side display
US9796093B2 (en) * 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017007033A (en) * 2015-06-22 2017-01-12 シャープ株式会社 robot

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109571507A (en) * 2019-01-16 2019-04-05 鲁班嫡系机器人(深圳)有限公司 A kind of service robot system and method for servicing
KR20230019754A (en) * 2021-08-02 2023-02-09 베어 로보틱스, 인크. Method, system, and non-transitory computer-readable recording medium for controlling a serving robot
WO2023014581A1 (en) * 2021-08-02 2023-02-09 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a serving robot
KR102567241B1 (en) * 2021-08-02 2023-08-17 베어 로보틱스, 인크. Method, system, and non-transitory computer-readable recording medium for controlling a serving robot

Also Published As

Publication number Publication date
JP2020514079A (en) 2020-05-21
JP6804638B2 (en) 2020-12-23
WO2019156280A1 (en) 2019-08-15

Similar Documents

Publication Publication Date Title
JP7283506B2 (en) Information processing device, information processing method, and information processing program
US10175492B2 (en) Systems and methods for transition between augmented reality and virtual reality
KR101920620B1 (en) Robot for providing information and method for providing information using the same
CN108519676B (en) Head-wearing type vision-aiding device
KR101691633B1 (en) Wireless wrist computing and control device and method for 3d imaging, mapping, networking and interfacing
JP6017664B1 (en) Information processing method and information processing program
US7626569B2 (en) Movable audio/video communication interface system
WO2015180497A1 (en) Motion collection and feedback method and system based on stereoscopic vision
JP4413203B2 (en) Image presentation device
US20130328762A1 (en) Controlling a virtual object with a real controller device
JP2017529521A (en) Wearable earpieces that provide social and environmental awareness
JPH1118025A (en) Image display device
KR20170100641A (en) Virtual representations of real-world objects
WO2017213070A1 (en) Information processing device and method, and recording medium
US20180316911A1 (en) Information processing apparatus
US10819898B1 (en) Imaging device with field-of-view shift control
US20180012376A1 (en) Aligning vision-assist device cameras based on physical characteristics of a user
JP2022121443A (en) Information processing apparatus, user guide presentation method, and head mounted display
JP2023536064A (en) Eye Tracking Using Alternate Sampling
JP2021177580A (en) Information processing apparatus, information processing method, and program
JP2018195172A (en) Information processing method, information processing program, and information processing device
WO2020143546A1 (en) Augmented reality system and control method
JP6820299B2 (en) Programs, information processing equipment, and methods
JP6718933B2 (en) Program, information processing apparatus, and method
JP2020151012A (en) Communication system, and control method of communication system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant