JP2020514079A - Information providing robot and information providing method using the same - Google Patents
Information providing robot and information providing method using the same Download PDFInfo
- Publication number
- JP2020514079A JP2020514079A JP2019519415A JP2019519415A JP2020514079A JP 2020514079 A JP2020514079 A JP 2020514079A JP 2019519415 A JP2019519415 A JP 2019519415A JP 2019519415 A JP2019519415 A JP 2019519415A JP 2020514079 A JP2020514079 A JP 2020514079A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- display
- information
- user
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000004891 communication Methods 0.000 claims description 5
- 238000013461 design Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000009415 formwork Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0009—Constructional details, e.g. manipulator supports, bases
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Toys (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本発明は、情報提供用ロボット及びこれを利用した情報提供方法に関する。本発明によるロボットは、本体、前記本体の外側面に備えられて前記ロボットの立体的な型枠を形成する少なくとも一つのディスプレイ、及び前記ロボットの一側面の形状、模様、色彩のうち少なくとも一つを含むコンテンツを各々対応されるディスプレイに表示するように制御し、前記少なくとも一つのディスプレイが形成する立体的な型枠と前記コンテンツの組み合わせによって前記ロボットの外形が立体的にデザインされるように制御するコンテンツ制御器を含む。The present invention relates to an information providing robot and an information providing method using the same. The robot according to the present invention includes a main body, at least one display provided on an outer surface of the main body to form a three-dimensional form of the robot, and at least one of a shape, a pattern, and a color of one side surface of the robot. Control is performed so that each of the contents including is displayed on a corresponding display, and the outer shape of the robot is three-dimensionally designed by a combination of the three-dimensional form formed by the at least one display and the content. Includes a content controller.
Description
本発明は、ロボットに関し、より詳しくは、情報提供が可能なロボット及びこれを利用した情報提供方法に関する。 The present invention relates to a robot, and more particularly, to a robot capable of providing information and an information providing method using the robot.
ロボットは、産業、公共場所、家庭など、多様な分野で人を代えるための手段として活用されており、生産性と生活の便宜性を高めるため、その使用が増加している。しかし、ロボットの使用は、このような純機能外に、人の働き口を脅かし、犯罪に利用される等、否定的な側面も存在する。したがって、ロボットを利用して多様なサービスを提供するにあたって、ユーザにもっと親近感を提供することができる方法が要求される。 Robots are used as means for replacing people in various fields such as industry, public places, and homes, and their use is increasing to improve productivity and convenience of life. However, in addition to such pure functions, the use of robots has negative aspects such as threatening the workforce of people and being used for crimes. Therefore, there is a need for a method that can provide a user with a greater sense of familiarity when using robots to provide various services.
本発明の技術的課題は、立体的なディスプレイを備えたロボットを介して少ない費用でもユーザにエンターテインメントと親近感を提供することができるだけでなく、ロボット自体の情報及びロボット周辺の多様な情報を提供することができる情報提供用ロボット及びこれを利用した情報提供方法を提供することにある。 The technical problem of the present invention is not only to provide entertainment and familiarity to a user at low cost through a robot having a stereoscopic display, but also to provide information about the robot itself and various information around the robot. An object is to provide an information providing robot and an information providing method using the same.
本発明の他の技術的課題は、状況に合うように自律的に移動可能な情報提供用ロボット及びこれを利用した情報提供方法を提供することにある。 Another technical problem of the present invention is to provide an information providing robot that can move autonomously according to the situation and an information providing method using the same.
本発明の一態様によると、情報提供が可能なロボットは、本体、前記本体の外側面に備えられて前記ロボットの立体的な型枠を形成する少なくとも一つのディスプレイ,及び前記ロボットの一側面の形状、模様、色彩のうち少なくとも一つを含むコンテンツを各々対応されるディスプレイに表示するように制御し、前記少なくとも一つのディスプレイが形成する立体的な型枠と前記コンテンツの組み合わせによって前記ロボットの外形が立体的にデザインされるように制御するコンテンツ制御器を含む。 According to an aspect of the present invention, there is provided a robot capable of providing information, a main body, at least one display provided on an outer surface of the main body to form a three-dimensional form of the robot, and one side surface of the robot. An external shape of the robot is controlled by displaying contents including at least one of shape, pattern, and color on a corresponding display, and combining the three-dimensional form formed by the at least one display and the contents. Includes a content controller for controlling the three-dimensional design.
一側面において、前記ロボットは、前記本体の下部に備えられる複数の輪、前記複数の輪の軸に結合されるモータ、前記ロボットの移動方向を調節する操向装置、及び前記モータと前記操向装置を制御することによって前記ロボットの移動を制御する駆動制御器をさらに含む。 In one aspect, the robot includes a plurality of wheels provided in a lower portion of the body, a motor coupled to shafts of the plurality of wheels, a steering device for adjusting a moving direction of the robot, and the motor and the steering. It further includes a drive controller for controlling movement of the robot by controlling a device.
他の側面において、前記駆動制御器は、前記ロボットの位置を認識するときに使われるセンサーに基づいて前記ロボットの移動を制御する。 In another aspect, the drive controller controls the movement of the robot based on a sensor used when recognizing the position of the robot.
他の側面において、前記少なくとも一つのディスプレイは、前記本体の前面に備えられる第1のディスプレイ、前記本体の後面に備えられる第2のディスプレイ、前記本体の左側面に備えられる第3のディスプレイ、前記本体の右側面に備えられる第4のディスプレイ、及び前記本体に備えられてタッチパネルを含む第5のディスプレイを含む。 In another aspect, the at least one display is a first display provided on a front surface of the main body, a second display provided on a rear surface of the main body, a third display provided on a left side surface of the main body, A fourth display provided on the right side surface of the main body and a fifth display including a touch panel provided on the main body are included.
他の側面において、前記コンテンツは、前記第1のディスプレイで表示される第1のコンテンツ、前記第2のディスプレイで表示される第2のコンテンツ、前記第3のディスプレイで表示される第3のコンテンツ、及び前記第4のディスプレイで表示される第4のコンテンツを含み、前記第1乃至第4のコンテンツは、各々、前記ロボットの前後左右の様子を構成する。 In another aspect, the content is a first content displayed on the first display, a second content displayed on the second display, and a third content displayed on the third display. , And a fourth content displayed on the fourth display, and the first to fourth contents respectively configure front, rear, left, and right states of the robot.
他の側面において、前記ロボットは、前記本体の上部及び前面のうち少なくとも一つに備えられるカメラ、及び前記本体の上部及び前面のうち少なくとも一つに備えられるマイクロホンをさらに含み、前記コンテンツ制御器は、前記カメラ、前記マイクロホン、及び前記第5のディスプレイのうち少なくとも一つを利用してユーザに対する情報を認識し、前記ユーザに対する情報に基づいて前記ロボットの外形を可変させる。 In another aspect, the robot may further include a camera provided on at least one of an upper portion and a front surface of the body, and a microphone provided on at least one of an upper portion and a front surface of the body. Information for the user is recognized using at least one of the camera, the microphone, and the fifth display, and the outer shape of the robot is changed based on the information for the user.
他の側面において、前記ロボットは、前記本体に備えられ、前記カメラ及び前記マイクロホンのうち少なくとも一つにより認識されたユーザに対する情報に基づいて前記第5のディスプレイのティルティング(tilting)角度を調節するティルティング装置をさらに含む。 In another aspect, the robot is included in the main body, and adjusts a tilting angle of the fifth display based on information about a user recognized by at least one of the camera and the microphone. Further included is a tilting device.
他の側面において、前記ユーザに対する情報は、該当ユーザの年齢、性別、服装、及び使用言語のうち少なくとも一つに対する情報である。 In another aspect, the information about the user is at least one of age, sex, clothes, and language of the user.
他の側面において、前記コンテンツ制御器は、前記第5のディスプレイを介して前記ロボットの顔に対応される客体が表示されるように制御する。 In another aspect, the content controller controls to display an object corresponding to the face of the robot via the fifth display.
他の側面において、前記コンテンツ制御器は、前記ロボットが位置した場所に対する情報、前記ロボットが位置した地域の天気情報、日付情報、及び時間情報のうち少なくとも一つに基づいて前記ロボットの外形を可変させる。 In another aspect, the content controller varies the outer shape of the robot based on at least one of information about a location of the robot, weather information of a region where the robot is located, date information, and time information. Let
他の側面において、前記コンテンツ制御器は、前記少なくとも一つのディスプレイに前記ロボットのアームに対応される客体が表示されるように制御し、前記ロボットが移動中である場合、前記ロボットのアームに対応される客体の各々が前記ロボットの移動速度及び方向によって該当するディスプレイ上で動くように制御する。 In another aspect, the content controller controls the at least one display to display an object corresponding to the robot arm, and corresponds to the robot arm when the robot is moving. Each of the objects is controlled to move on the corresponding display according to the moving speed and direction of the robot.
他の側面において、前記ロボットは、ユーザから入力を受けた情報要求の送信及び前記情報要求に該当する情報の受信を実行する通信器をさらに含む。 In another aspect, the robot further includes a communicator that transmits an information request received from a user and receives information corresponding to the information request.
本発明の他の態様によると、ロボットに基づく情報提供方法を提供する。 According to another aspect of the present invention, there is provided a robot-based information providing method.
前記方法は、前記ロボットの外側面に備えられて前記ロボットの立体的な型枠を形成する少なくとも一つのディスプレイを介して前記ロボットの一側面の外形、模様、色彩のうち少なくとも一つを含むコンテンツを各々対応されるディスプレイに表示するように制御し、前記少なくとも一つのディスプレイが形成する立体的な型枠と前記コンテンツの組み合わせによって前記ロボットの外形が立体的にデザインされるように制御するステップ、前記ロボットの本体に備えられたカメラ、マイクロホン、及び前記少なくとも一つのディスプレイを利用してユーザに対する情報を認識するステップ、及び前記ユーザに対する情報に基づいて前記ロボットの外形を可変させるステップを含む。 The method includes content including at least one of an outer shape, a pattern, and a color of one side of the robot through at least one display provided on an outer surface of the robot to form a three-dimensional form of the robot. Controlling to display on a corresponding display, and controlling the outer shape of the robot to be three-dimensionally designed by the combination of the three-dimensional form formed by the at least one display and the content, The method includes the steps of recognizing information for a user using a camera, a microphone, and the at least one display included in the body of the robot, and changing the outer shape of the robot based on the information for the user.
一側面において、前記コンテンツは、第1のディスプレイで表示される第1のコンテンツ、第2のディスプレイで表示される第2のコンテンツ、第3のディスプレイで表示される第3のコンテンツ、及び第4のディスプレイで表示される第4のコンテンツを含み、前記第1乃至第4のコンテンツは、各々、前記ロボットの前後左右の様子を構成する。 In one aspect, the content includes a first content displayed on a first display, a second content displayed on a second display, a third content displayed on a third display, and a fourth content. The fourth to fourth contents displayed on the display of FIG. 3 are included in the first to fourth contents, and each of the first to fourth contents constitutes the front, rear, left and right states of the robot.
他の側面において、前記方法は、前記ユーザに対する情報を認識するステップ以後に、前記ユーザに対する情報に基づいて前記本体に備えられたティルティング装置を利用して前記少なくとも一つのディスプレイのティルティング角度を調節するステップをさらに含む。 In another aspect, after the step of recognizing information for the user, the method determines a tilting angle of the at least one display using a tilting device included in the body based on the information for the user. The method further comprises adjusting.
他の側面において、前記ユーザに対する情報は、該当ユーザの年齢、性別、服装、及び使用言語のうち少なくとも一つに対する情報である。 In another aspect, the information about the user is at least one of age, sex, clothes, and language of the user.
他の側面において、前記方法は、前記少なくとも一つのディスプレイを介して前記ロボットの顔に対応される客体が表示されるように制御するステップをさらに含む。 In another aspect, the method further comprises controlling the object corresponding to the face of the robot to be displayed through the at least one display.
他の側面において、前記ロボットの外形が立体的にデザインされるように制御するステップは、前記ロボットが位置した場所に対する情報、前記ロボットが位置した地域の天気情報、日付情報、及び時間情報のうち少なくとも一つに基づいて前記ロボットの外形が立体的に形成されるように制御するステップを含むことを特徴とする、方法。 In another aspect, the step of controlling the outer shape of the robot to be designed in a three-dimensional manner may be performed by using information about a place where the robot is located, weather information of a region where the robot is located, date information, and time information. Controlling the outer shape of the robot to be three-dimensionally formed based on at least one.
他の側面において、前記ロボットの外形が立体的にデザインされるように制御するステップは、前記少なくとも一つのディスプレイに前記ロボットのアームに対応される客体が表示されるように制御し、前記ロボットが移動中である場合、前記ロボットのアームに対応される客体の各々が前記ロボットの移動速度及び方向によって該当するディスプレイ上で動くように制御するステップを含む。 In another aspect, the step of controlling the outer shape of the robot to be three-dimensionally designed controls the object corresponding to the arm of the robot to be displayed on the at least one display. When the robot is moving, each of the objects corresponding to the arms of the robot is controlled to move on the corresponding display according to the moving speed and direction of the robot.
他の側面において、前記方法は、前記ユーザに対する情報を認識するステップ以後に、ユーザから入力を受けた情報要求を送信するステップ、前記情報要求に該当する情報を受信するステップ、及び前記情報要求に該当する情報を前記少なくとも一つのディスプレイを介して表示するステップをさらに含む。 In another aspect, after the step of recognizing information for the user, the method includes transmitting an information request input by the user, receiving information corresponding to the information request, and the information requesting step. The method further includes displaying corresponding information via the at least one display.
ロボットの外側面に備えられたディスプレイにより形成される立体的な輪郭(または、型枠)と前記ディスプレイで表示されるコンテンツの組み合わせを利用してロボットの外形をデザインすることができるため、より少ない費用でもユーザに親近感を提供することができる。 It is possible to design the outer shape of the robot by using a combination of a three-dimensional contour (or a form) formed by a display provided on the outer surface of the robot and the content displayed on the display. It is possible to provide the user with a sense of familiarity even at a cost.
ロボットに備えられたセンサーを介して認識された情報に基づいてロボットの移動を制御することができるため、自律的に移動しながら効果的な情報提供が可能である。 Since the movement of the robot can be controlled based on the information recognized via the sensor provided in the robot, it is possible to provide effective information while moving autonomously.
多様な具現例が図面を参照して開示される。以下、説明を目的として、一つ以上の実施例の全般的理解のために多数の具体的な細部事項が開示される。しかし、このような具現例(ら)は、具体的な細部事項がなくても実行されることができるという点が認識されなければならない。以後の記載及び添付図面は、一つ以上の具現例の特定の例示的な具現例を詳細に記述する。しかし、このような具現例は、例示に過ぎず、多様な具現例の原理で多様な方法のうち一部が利用されることができ、記述される説明は、そのような具現例及びそれらの均等物を全て含む。 Various embodiments are disclosed with reference to the drawings. For the purposes of explanation, numerous specific details are disclosed below for a general understanding of one or more embodiments. However, it should be appreciated that such implementations may be implemented without specific details. The following description and the annexed drawings set forth in detail certain illustrative implementations of one or more implementations. However, such an embodiment is merely an example, and a part of various methods may be used according to the principles of various embodiments, and the description of the embodiment may be applied to such an embodiment and those. Includes all equivalents.
多様な具現例及び特徴が多数の構成部を含むことができる装置により提示される。多様な装置が追加的な構成部を含むことができ、そして/または図面と関連して論議された構成部の全てを含むことができないという点も理解されて認識されなければならない。本明細書で使われる“実施例”、“例”、“具現例”、“例示”などは、記述された任意の態様または設計が他の態様または設計より良好であり、または利点があると解釈されてはならない。 Various implementations and features are presented by devices that can include multiple components. It should also be understood and appreciated that various devices may include additional components and / or may not include all of the components discussed in connection with the drawings. As used herein, an “example,” “example,” “implementation,” “exemplary,” etc., refers to any aspect or design described as being better or advantageous over other aspects or designs. Should not be interpreted.
また、“含む”という用語は、該当特徴、構成部及び/または装置が存在することを意味するが、一つ以上の他の特徴、構成部、装置及び/またはそれらのグループの存在または追加を排除しないと理解されなければならない。また、特別に特定されない、または単数形態の指示が文脈上明確でない場合、本明細書と請求範囲における単数は、一般的に“一つまたはそれ以上”を意味すると解釈されなければならない。 Also, the term "comprising" means that the corresponding feature, component, and / or apparatus is present, but the presence or addition of one or more other feature, component, device and / or group thereof. It must be understood that it is not excluded. Also, unless specifically stated otherwise or in the context of the singular form, the singular in this specification and claims should be construed to mean "one or more."
図1は、本明細書の一例に係る情報提供用ロボットの外観を示す斜視図である。 FIG. 1 is a perspective view showing an appearance of an information providing robot according to an example of the present specification.
図1を参照すると、情報提供用ロボット10は、少なくとも一つのディスプレイ110、120、130を備えることができる。それぞれのディスプレイは、本体100の各面に備えられることができる。即ち、情報提供用ロボット10の外部に露出された面にはディスプレイが備えられることができる。例えば、情報提供用ロボット10が図1に示すように四角柱の形態で具現される場合、本体100の側面には4個のディスプレイが備えられることができる。もし、情報提供用ロボット10が六角柱の形態で具現される場合、本体の側面には6個のディスプレイが備えられることができる。もし、情報提供用ロボット10が円筒の形態で具現される場合、本体の側面には一つまたはそれ以上の曲面ディスプレイが備えられることができる。 Referring to FIG. 1, the information providing robot 10 may include at least one display 110, 120 and 130. Each display may be provided on each side of the main body 100. That is, a display may be provided on the surface exposed to the outside of the information providing robot 10. For example, when the information providing robot 10 is embodied in the shape of a square pole as shown in FIG. 1, four displays may be provided on the side surface of the main body 100. If the information providing robot 10 is embodied as a hexagonal prism, six displays may be provided on the side surface of the main body. If the information providing robot 10 is embodied as a cylinder, one or more curved displays may be provided on the side surface of the body.
具体的に、図1に示すように、情報提供用ロボット10が四角柱の形態で具現される場合、第1のディスプレイは本体100の前面に備えられ、第2のディスプレイは本体100の後面に備えられ、第3のディスプレイは本体100の左側面に備えられ、第4のディスプレイは本体100の右側面に備えられることができる。そして、本体100の上部(ヘッド)にはユーザとのインタラクション(interaction)のための第5のディスプレイ130が備えられることができる。ここで、前記第5のディスプレイ130にはユーザとのインタラクションのためにタッチパネル(touch panel)が備えられることができる。 Specifically, as shown in FIG. 1, when the information providing robot 10 is embodied in the shape of a square pole, the first display is provided on the front surface of the main body 100 and the second display is provided on the rear surface of the main body 100. The third display may be provided on the left side surface of the main body 100, and the fourth display may be provided on the right side surface of the main body 100. In addition, a fifth display 130 may be provided on an upper portion (head) of the main body 100 for interaction with a user. Here, the fifth display 130 may include a touch panel for interacting with a user.
本体100とヘッドとの間には第5のディスプレイ130のティルティング角度を調節するためにティルティング(tilting)装置140が備えられることができる。ティルティング装置140は、ユーザと円滑なインタラクションが実行されるようにユーザに対する情報に基づいて第5のディスプレイ130のティルティング角度を調節することができる。ここで、ユーザに対する情報は、ユーザの顔(または、目)が位置する高さに対する情報を意味する。 A tilting device 140 may be installed between the body 100 and the head to adjust the tilting angle of the fifth display 130. The tilting device 140 may adjust the tilting angle of the fifth display 130 based on the information for the user so that a smooth interaction with the user may be performed. Here, the information about the user means information about the height at which the face (or eyes) of the user is located.
本体100の下部、即ち、底面には情報提供用ロボット10が移動できるように駆動装置150が備えられることができる。駆動装置150は、サーバからの命令によって駆動されたり、あらかじめ設定されたプログラムによって自律的に駆動されたりすることができる。 A driving device 150 may be installed at a lower portion of the main body 100, that is, a bottom surface thereof so that the information providing robot 10 can move. The driving device 150 can be driven by a command from a server or autonomously driven by a preset program.
一方、本体100には少なくとも一つのカメラ160、160′及び少なくとも一つのマイクロホン170が備えられることができる。図1には、一例として、本体100の前面に2個のカメラと一つのマイクロホンが備えられると示されているが、カメラ及びマイクロホンの位置及び個数は、これに限定されるものではない。情報提供用ロボット10は、カメラ160、160′を介して入力される映像情報及び/またはマイクロホン170を介して入力される音声情報に基づいてユーザに対する情報を認識することができ、ユーザに必要な情報を少なくとも一つのディスプレイ、スピーカーなどを介して提供できる。 Meanwhile, the main body 100 may include at least one camera 160 and 160 'and at least one microphone 170. Although FIG. 1 shows that two cameras and one microphone are provided on the front surface of the main body 100 as an example, the positions and the numbers of the cameras and the microphones are not limited thereto. The information providing robot 10 can recognize the information for the user based on the image information input through the cameras 160 and 160 ′ and / or the audio information input through the microphone 170, and the information providing robot 10 is required for the user. Information can be provided via at least one display, speaker, etc.
図2は、本明細書の一例に係る情報提供用ロボットを示すブロック図である。 FIG. 2 is a block diagram showing an information providing robot according to an example of the present specification.
以下、図2を参照して情報提供が可能なロボットの構成をより詳細に説明する。 Hereinafter, the configuration of the robot capable of providing information will be described in more detail with reference to FIG.
ロボット10は、複数のディスプレイ110、120、130、コンテンツ制御器210、通信器220、少なくとも一つのセンサー230、ティルティング装置140、駆動制御器240、及び駆動装置150を含むことができる。ここで、ディスプレイの個数は、ロボットの形状によって変わることができる。一例として、ロボット10が四角柱の形状で具現される場合、本体の外側面、例えば、前面、後面、左側面、後側面及び上部に各々ディスプレイが備えられ、ロボット10の立体的な輪郭(または、型枠)を形成することができる。このとき、ロボット10は、ユーザとのインタラクションのためにタッチパネルを含むことができ、このようなタッチパネルは、ロボット10の上部に備えられたディスプレイまたは本体を形成するディスプレイのうちいずれか一つに備えられることができる。 The robot 10 may include a plurality of displays 110, 120 and 130, a content controller 210, a communication device 220, at least one sensor 230, a tilting device 140, a drive controller 240, and a drive device 150. Here, the number of displays can be changed according to the shape of the robot. For example, when the robot 10 is embodied in the shape of a quadrangular prism, a display is provided on the outer surface of the main body, for example, the front surface, the rear surface, the left side surface, the rear side surface, and the upper portion, and the three-dimensional outline of the robot 10 (or , Formwork) can be formed. At this time, the robot 10 may include a touch panel for interacting with a user, and the touch panel may be provided on any one of a display provided on the robot 10 and a display forming a main body. Can be
ロボット10の本体100に備えられたディスプレイ110、120は、複数の人に対して一括的に露出するための情報を表示し、またはロボットの形状、模様または色彩を仮想的及び/または立体的に飾るコンテンツ(例えば、ロボットの仮想の衣服、ロボットの仮想の体部部位(アーム、レッグ)、仮想的な様子等)を表示することができる。一例として、本体100に備えられた複数のディスプレイ110、120が四角柱の形態で備えられる場合、前面ディスプレイ110は、ロボット10の前面の形状、模様または色彩に該当する第1のコンテンツを表示し、側面ディスプレイ120は、ロボット10の側面の形状、模様または色彩に該当する第2のコンテンツを表示し、後面ディスプレイ(図面番号表示せず)は、ロボット10の後面の形状、模様または色彩に該当する第3のコンテンツを表示する。 The displays 110 and 120 included in the main body 100 of the robot 10 display information for collectively exposing a plurality of people, or virtual and / or three-dimensionally the shape, pattern or color of the robot. The contents to be displayed (for example, virtual clothes of the robot, virtual body parts (arms, legs) of the robot, virtual appearance, etc.) can be displayed. For example, when the plurality of displays 110 and 120 included in the main body 100 are provided in the shape of a square pole, the front display 110 displays the first content corresponding to the shape, pattern or color of the front surface of the robot 10. The side display 120 displays the second content corresponding to the shape, pattern or color of the side surface of the robot 10, and the rear display (without the drawing number display) corresponds to the shape, pattern or color of the rear surface of the robot 10. The third content to be displayed is displayed.
第1乃至第3のコンテンツは、その内容面で互いに連関性(correlation)、隣接性(contiguousness)、及び同期化を維持することができる。例えば、第1乃至第3のコンテンツがロボットの衣装を構成する場合、前面ディスプレイ110と側面ディスプレイ120が接する境界付近でロボット10の衣服が切れ、または離隔されないように、第1及び第2のコンテンツが備えられることができる(図4a及び図4b参照)。 In terms of content, the first to third contents can maintain correlation, adjacency, and synchronization with each other. For example, when the first to third contents make up the costume of the robot, the first and second contents are prevented so that the clothes of the robot 10 are not cut or separated near the boundary where the front display 110 and the side display 120 are in contact with each other. Can be provided (see Figures 4a and 4b).
このようにロボットの立体的な輪郭(または、型枠)を形成するディスプレイと、各ディスプレイで露出される第1乃至第3のコンテンツの組み合わせに基づいて、ロボット10の前後左右様子(または、外観)が仮想的で且つ立体的な形状、模様、色彩により自由にデザインされることができる。 Based on the combination of the display that forms the three-dimensional outline (or formwork) of the robot in this way and the first to third contents exposed on each display, the front, rear, left, and right appearance (or appearance) of the robot 10 ) Can be freely designed with virtual and three-dimensional shapes, patterns, and colors.
ロボット10の上部に備えられたディスプレイでは特定ユーザに必要な情報が表示されたり、ロボットの顔を形状化するコンテンツが表示されたりすることができる。 The display provided on the upper portion of the robot 10 can display information necessary for a specific user or content that shapes the face of the robot.
コンテンツ制御器210は、複数のディスプレイ110、120、130を介して表示されるコンテンツを各々制御して前記ロボットの外観または外形が立体的に形成されるように制御できる。コンテンツ制御器210は、機械及び/または電子回路のようなハードウェア、またはハードウェアとソフトウェアが結合された形態(例えば、チップ、プロセッサ、LAM等)で具現されることができる。 The content controller 210 may control the content displayed through the plurality of displays 110, 120, and 130 so that the appearance or outer shape of the robot is three-dimensionally formed. The content controller 210 may be embodied in hardware such as a machine and / or electronic circuit, or a combination of hardware and software (eg, chip, processor, LAM, etc.).
一例として、コンテンツ制御器210は、ロボット10が位置した場所に対する情報、ロボット10が位置した地域の天気情報、日付情報、及び時間情報のうち少なくとも一つに基づいて複数のディスプレイ110、120、130で表示されるコンテンツが変更されるように制御することによってロボット10の外形を可変させることができる。または、センサー230を利用してユーザに対する情報を認識し、これに基づいてロボット10の外観または外形を可変させることもできる。ここで、前記ユーザに対する情報は、該当ユーザの年齢、性別、服装、及び使用言語のうち少なくとも一つに対する情報である。そのために、コンテンツ制御器210は、複数のディスプレイ110、120、130のうち左側及び右側に備えられたディスプレイを介して各々ロボットの左アーム及び右アームに客体が表示されるように制御できる。そして、ロボット10が移動中である場合、前記ロボットの左アーム及び右アームに対応される客体が各々ロボットの移動速度及び/または方向によって該当するディスプレイ上で動くように制御できる。一方、コンテンツ制御器210は、本体の上部に備えられたディスプレイを介してはロボット10の顔に対応される客体(例えば、目、鼻、口等)が表示されるように制御できる。このとき、コンテンツ制御器210は、ユーザとのインタラクションによってユーザが前記ロボットの顔で多様な表情を読み取ることができるように該当ディスプレイ上で前記顔に対応される客体の位置、角度、大きさなどを可変させることができる。 As an example, the content controller 210 may include a plurality of displays 110, 120, and 130 based on at least one of information about a place where the robot 10 is located, weather information about a region where the robot 10 is located, date information, and time information. The outer shape of the robot 10 can be changed by controlling so that the content displayed by is changed. Alternatively, the sensor 230 may be used to recognize information for the user, and the appearance or outline of the robot 10 may be changed based on the information. Here, the information about the user is information about at least one of age, sex, clothes, and language of the user. To this end, the content controller 210 may control the objects to be displayed on the left and right arms of the robot through the displays provided on the left and right sides of the plurality of displays 110, 120 and 130, respectively. When the robot 10 is moving, the objects corresponding to the left and right arms of the robot 10 may be controlled to move on the corresponding display according to the moving speed and / or direction of the robot. Meanwhile, the content controller 210 may control an object (e.g., eyes, nose, mouth, etc.) corresponding to the face of the robot 10 to be displayed through a display provided on the upper part of the main body. At this time, the content controller 210 may detect the position, angle, size, etc. of the object corresponding to the face on the corresponding display so that the user can read various facial expressions on the face of the robot by interaction with the user. Can be changed.
通信器220は、ユーザから入力を受けた情報要求の送信及び前記情報要求に該当する情報の受信を実行することができる。例えば、ユーザがロボットに備えられたマイクロホン、ディスプレイなどを利用して音声、タッチなどで特定位置への移動経路に対する情報を要求する場合、通信器220は、これをサーバに送信し、サーバから現在位置で特定位置への移動経路に対する情報を受信することができる。他の例として、ユーザがロボットに備えられたカメラ、マイクロホンなどを利用して映像、音声などで特定レストランに対する位置情報を要求する場合、ロボット10は、通信器220を介して前記特定レストランに対する位置情報をサーバから受信してディスプレイを介して該当情報を表示することができる。 The communicator 220 can transmit an information request received from a user and receive information corresponding to the information request. For example, when the user requests information regarding a moving route to a specific position by voice, touch, etc. using a microphone, a display, etc. provided in the robot, the communication device 220 transmits this to the server, and the server 220 sends the information. Information can be received at a location for a route to a particular location. As another example, when the user uses the camera, the microphone, etc. provided in the robot to request the position information for the specific restaurant by video, audio, etc., the robot 10 may detect the position of the specific restaurant via the communication device 220. The information can be received from the server and the corresponding information can be displayed on the display.
センサー230は、ロボット10が周辺環境、ユーザなどを認識することができるようにし、またはロボット10の位置を認識するときに使われるものであり、レーザセンサー、ヴィジョンセンサー、3Dセンサー、カメラ、マイクロホン、GPS(Global Positioning System)、WiFi(Wireless Fidelity)モジュールなどを含むことができる。 The sensor 230 is used to allow the robot 10 to recognize the surrounding environment, the user, or the like, or is used when recognizing the position of the robot 10, and includes a laser sensor, a vision sensor, a 3D sensor, a camera, a microphone, It may include a GPS (Global Positioning System), a WiFi (Wireless Fidelity) module, and the like.
駆動制御器240は、レーザセンサー、ヴィジョンセンサー、3Dセンサー、カメラ、マイクロホン、GPSモジュール、WiFiモジュールなどのセンサー230により認識された周辺環境及び/またはユーザに対する情報に基づいてあらかじめ設定されたプログラムによってロボットの移動を自律的に制御したり、通信器220を介してサーバから受信した移動制御情報に基づいてロボットの移動を制御したりすることができる。一例として、駆動制御器240は、センサー230を介して取得したGPS情報、WiFi情報、ヴィジョン情報、レーザ情報、3Dカメラ情報などに基づいてロボット10の位置を判断し、これに基づいて駆動装置150を制御することによってロボット10が目的地に移動するようにすることができる。 The drive controller 240 is a robot according to a program preset based on information about a surrounding environment and / or a user recognized by a sensor 230 such as a laser sensor, a vision sensor, a 3D sensor, a camera, a microphone, a GPS module, and a WiFi module. Of the robot can be autonomously controlled, or the movement of the robot can be controlled based on the movement control information received from the server via the communication device 220. As an example, the drive controller 240 determines the position of the robot 10 based on the GPS information, the WiFi information, the vision information, the laser information, the 3D camera information and the like acquired via the sensor 230, and based on this, the drive device 150. The robot 10 can be moved to the destination by controlling the.
図2には、一例として、駆動制御器240とコンテンツ制御器210が別個の構成で具現される場合が示されているが、駆動制御器240は、コンテンツ制御器210と統合されて一つのプロセッサで具現されることもできる。 FIG. 2 illustrates, as an example, a case where the drive controller 240 and the content controller 210 are embodied as separate components, but the drive controller 240 is integrated with the content controller 210 to form a single processor. It can also be embodied in.
ティルティング装置140は、ロボット10の上部に備えられ、センサー(例えば、カメラ、マイクロホン)などにより認識されたユーザの位置情報に基づいて上部ディスプレイ(ロボットのヘッド)のティルティング(tilting)角度を調節することができる。そのために、一例として、ロボットのプロセッサは、カメラにより認識されたユーザの顔位置、マイクロホンに入力された音声の方向などに対する情報に基づいてユーザの顔が位置する領域の座標値を計算し、計算された座標値で上部ディスプレイの画面を判読可能なようにティルティング装置140を制御することができる。 The tilting device 140 is provided on the upper portion of the robot 10, and adjusts the tilting angle of the upper display (robot head) based on the position information of the user recognized by a sensor (for example, a camera or a microphone). can do. For that purpose, as an example, the processor of the robot calculates the coordinate value of the area where the user's face is located based on the information about the face position of the user recognized by the camera, the direction of the voice input to the microphone, and the like. The tilting device 140 may be controlled so that the screen of the upper display can be read with the obtained coordinate values.
駆動装置150は、駆動制御器240の制御によってロボットを駆動させることができる。 The drive device 150 may drive the robot under the control of the drive controller 240.
図3は、本明細書の一例に係る情報提供用ロボットの底面図である。 FIG. 3 is a bottom view of the information providing robot according to an example of the present specification.
以下、図3を参照して情報提供用ロボットが四角柱の形態で具現される場合の駆動装置150に対してより詳細に説明する。 Hereinafter, the driving device 150 when the information providing robot is embodied in the form of a rectangular prism will be described in more detail with reference to FIG.
駆動装置150は、多数の輪151、前記輪の軸に結合されたモータ152、前記ロボットの移動方向を制御する操向装置153、前記モータと前記操向装置の制御のための制御器154、及びロボットの本体を支持するように備えられた支持部155を含むことができる。 The driving device 150 includes a plurality of wheels 151, a motor 152 coupled to the shafts of the wheels, a steering device 153 for controlling the moving direction of the robot, a controller 154 for controlling the motor and the steering device, And a support part 155 provided to support the main body of the robot.
ロボットのディスプレイは、支持部155から上部方向に延長突出される据え置きフレーム(図示せず)により各々備えられ、据え置きフレームを中心にして画面が互いに異なる方向に向けるように備えられることができる。このとき、各ディスプレイ間の垂直境界面は、互いに隣接するように備えられて全体的に多面体構造が形成されることができる。 The displays of the robots may be respectively provided by stationary frames (not shown) extended and projected upward from the support part 155, and screens may be oriented in different directions centering on the stationary frames. At this time, the vertical boundary surfaces between the displays may be provided adjacent to each other to form a polyhedral structure.
もし、情報提供用ロボットが円筒形で具現される場合、支持部155は、原形で具現されることができ、原形の支持部の上部には少なくとも一つの曲面ディスプレイが備えられることができる。 If the information providing robot has a cylindrical shape, the support part 155 may have an original shape, and at least one curved display may be provided on the support part of the original shape.
図4a及び図4bは、本明細書の一例に係る情報提供用ロボットの外形が複数のディスプレイを介して可変されることを示す例示図である。 4a and 4b are exemplary views showing that the outer shape of the information providing robot according to an example of the present specification is variable via a plurality of displays.
図4a及び図4bを参照すると、ロボットに備えられた複数のディスプレイのうち側面に備えられたディスプレイを介してはロボットの外形(衣装、体部等)に該当するコンテンツが表示されることができ、上部に備えられたディスプレイを介しては該当外形に適した顔に該当するコンテンツが表示されることができる。したがって、本明細書によると、このようにロボットの外観または外形を構造的且つ物理的な手段(例えば、ロボットの実際アーム、またはロボットに着せられる実際衣服)でない複数のディスプレイを介してソフトウェア的(または、仮想的)に構成するため、ロボットの形状、模様、色彩などを少ない費用で多様で且つ自由に立体的に表現でき、必要によってロボットの前後左右など、外形をリアルタイムで変更させることができる。 Referring to FIGS. 4a and 4b, among the plurality of displays included in the robot, contents corresponding to the outer shape (costume, body part, etc.) of the robot can be displayed through a display provided on a side surface. The content corresponding to the face suitable for the contour can be displayed through the display provided on the upper portion. Therefore, according to the present specification, the appearance or the outline of the robot is thus software-like (through the use of a plurality of displays that are not structural and physical means (for example, the actual arm of the robot or the actual clothes worn on the robot)). Or, since it is configured virtually, the shape, pattern, color, etc. of the robot can be three-dimensionally and freely expressed at low cost, and the outer shape such as front, rear, left, and right of the robot can be changed in real time if necessary. ..
図5は、本明細書の一例に係る情報提供方法を示す流れ図である。 FIG. 5 is a flowchart showing an information providing method according to an example of the present specification.
図5を参照すると、ロボットは、本体に備えられた複数のディスプレイを介して表示されるコンテンツを各々制御して前記ロボットの外形が立体的に形成されるように制御できる(S510)。このとき、前記複数のディスプレイの中前記本体の上部に備えられたディスプレイを介してはロボットの顔に対応される客体が表示されるように制御できる。前記複数のディスプレイのうち少なくとも一つではロボットのアームに対応される客体が表示されることができる。もし、ロボットが移動中である場合、前記ロボットのアームに対応される客体の各々は、ロボットの移動速度及び方向によって該当するディスプレイ上で動くように制御できる。 Referring to FIG. 5, the robot may control contents displayed through a plurality of displays included in the main body so that the outer shape of the robot is three-dimensionally formed (S510). At this time, the object corresponding to the face of the robot may be controlled to be displayed through the display provided on the main body among the plurality of displays. An object corresponding to the arm of the robot may be displayed on at least one of the plurality of displays. If the robot is moving, each object corresponding to the arm of the robot can be controlled to move on the corresponding display according to the moving speed and direction of the robot.
このような状況で情報提供が必要なユーザがロボットに近接する場合、ロボットは、本体に備えられたカメラ、マイクロホン、及び前記複数のディスプレイのうち少なくとも一つを利用して該当ユーザに対する情報を認識することができる(S520)。ここで、ユーザに対する情報は、該当ユーザの年齢、性別、服装、及び使用言語のうち少なくとも一つに対する情報を含むことができる。ロボットは、本体に備えられたカメラを利用してユーザをスキャンすることでユーザに対する映像情報を取得することができ、また、マイクロホンを利用して周辺の音声情報を収集することによってユーザの音声情報を取得することができる。そして、前記映像情報及び音声情報に対して特徴点マッチングを実行することによってユーザの年齢、性別、服装、使用言語などに対する情報を取得することができる。 In this situation, when a user who needs to provide information approaches the robot, the robot recognizes the information for the user by using at least one of a camera, a microphone, and the plurality of displays provided on the main body. It can be done (S520). Here, the information about the user may include information about at least one of age, sex, clothes, and language of the user. The robot can acquire the video information for the user by scanning the user with the camera provided in the main body, and collect the voice information of the user by using the microphone to collect the voice information of the user. Can be obtained. Then, by performing feature point matching on the video information and the audio information, it is possible to obtain information on the user's age, sex, clothes, language used, and the like.
ロボットは、ユーザに対する情報が認識されると、これに基づいて本体の上部に備えられたディスプレイのティルティング角度を調節することで、ユーザが容易に上部ディスプレイで表示される画面を見ることができるようにし、また、ロボットの外形を該当ユーザの好感を呼び起こす外形に可変させることができる(S530)。ここで、ロボットの外形は、取得したユーザに対する情報、ロボットが位置した場所に対する情報、ロボットが位置した地域の天気情報、日付情報、及び時間情報のうち少なくとも一つに基づいて可変されることもできる。 When the robot recognizes the information for the user, the robot adjusts the tilting angle of the display provided on the upper portion of the body based on the information, so that the user can easily see the screen displayed on the upper display. In addition, the outer shape of the robot can be changed to an outer shape that evokes a positive impression of the user (S530). Here, the outer shape of the robot may be changed based on at least one of the acquired information about the user, information about the place where the robot is located, weather information about the area where the robot is located, date information, and time information. it can.
この後、ユーザから特定情報に対する要求が入力されると、ロボットは、ユーザから入力を受けた要求をサーバに送信し、該当要求に対する情報を受信して複数のディスプレイのうち少なくとも一つ(例えば、上部ディスプレイ)を介して表示できる。もし、ユーザが特定場所に対する経路案内を要求する場合、ロボットは、駆動装置を駆動させて前記特定場所までユーザと同行することもできる。 Then, when the user inputs a request for specific information, the robot transmits the request input by the user to the server, receives the information for the request, and then receives at least one of the plurality of displays (for example, Via the upper display). If the user requests route guidance to a specific location, the robot can drive a driving device to accompany the user to the specific location.
以上、提示された実施例に対する説明は、本発明の技術分野において、通常の知識を有する者が本発明を利用し、または実施することができるように提供される。このような実施例に対する多様な変形は、本発明の技術分野において、通常の知識を有する者に明白であり、ここに定義された一般的な原理は、本発明の範囲を外れない限り他の実施例に適用されることができる。したがって、本発明は、ここに提示された実施例に限定されるものではなく、ここに提示された原理及び新規な特徴と一貫する最も広い意味の範囲で解釈されなければならない。 The above description of the embodiments presented is provided to enable any person of ordinary skill in the art to utilize or practice the invention. Various modifications to such embodiments will be apparent to those of ordinary skill in the art of the present invention, and the general principles defined herein may be changed without departing from the scope of the present invention. It can be applied to the embodiment. Therefore, the present invention should not be limited to the examples presented herein, but should be construed in the broadest sense consistent with the principles and novel features presented herein.
Claims (20)
本体;
前記本体の外側面に備えられて前記ロボットの立体的な型枠を形成する少なくとも一つのディスプレイ;及び、
前記ロボットの一側面の形状、模様、色彩のうち少なくとも一つを含むコンテンツを各々対応されるディスプレイに表示するように制御し、前記少なくとも一つのディスプレイが形成する立体的な型枠と前記コンテンツの組み合わせによって前記ロボットの外形が立体的にデザインされるように制御するコンテンツ制御器;を含むことを特徴とする、ロボット。 In a robot that can provide information,
Body;
At least one display provided on an outer surface of the body to form a three-dimensional form of the robot; and
The contents including at least one of the shape, pattern, and color of the one side of the robot are controlled to be displayed on corresponding displays, and the three-dimensional frame formed by the at least one display and the contents are displayed. A robot, comprising: a content controller for controlling the outer shape of the robot to be designed three-dimensionally by combination.
前記複数の輪の軸に結合されるモータ;
前記ロボットの移動方向を調節する操向装置;及び、
前記モータと前記操向装置を制御することによって前記ロボットの移動を制御する駆動制御器;をさらに含むことを特徴とする、請求項1に記載のロボット。 A plurality of rings provided at the bottom of the body;
A motor coupled to the plurality of wheel shafts;
A steering device for adjusting the moving direction of the robot; and
The robot according to claim 1, further comprising: a drive controller that controls the movement of the robot by controlling the motor and the steering device.
前記ロボットの位置を認識するときに使われるセンサーに基づいて前記ロボットの移動を制御することを特徴とする、請求項2に記載のロボット。 The drive controller is
The robot according to claim 2, wherein the movement of the robot is controlled based on a sensor used to recognize the position of the robot.
前記本体の前面に備えられる第1のディスプレイ;
前記本体の後面に備えられる第2のディスプレイ;
前記本体の左側面に備えられる第3のディスプレイ;
前記本体の右側面に備えられる第4のディスプレイ;及び、
前記本体に備えられてタッチパネルを含む第5のディスプレイ;を含むことを特徴とする、請求項1に記載のロボット。 The at least one display is
A first display provided on the front surface of the main body;
A second display provided on the rear surface of the main body;
A third display provided on the left side surface of the main body;
A fourth display provided on the right side surface of the main body; and
The robot according to claim 1, further comprising: a fifth display provided on the main body and including a touch panel.
前記第1のディスプレイで表示される第1のコンテンツ、前記第2のディスプレイで表示される第2のコンテンツ、前記第3のディスプレイで表示される第3のコンテンツ、及び前記第4のディスプレイで表示される第4のコンテンツを含み、
前記第1乃至第4のコンテンツは、各々、前記ロボットの前後左右の様子を構成することを特徴とする、請求項4に記載のロボット。 The content is
First content displayed on the first display, second content displayed on the second display, third content displayed on the third display, and display on the fourth display Including a fourth content that is
The robot according to claim 4, wherein the first to fourth contents respectively configure front, rear, left, and right states of the robot.
前記本体の上部及び前面のうち少なくとも一つに備えられるマイクロホン;をさらに含み、
前記コンテンツ制御器は、
前記カメラ、前記マイクロホン、及び前記第5のディスプレイのうち少なくとも一つを利用してユーザに対する情報を認識し、前記ユーザに対する情報に基づいて前記ロボットの外形を可変させることを特徴とする、請求項4に記載のロボット。 A camera provided on at least one of an upper part and a front part of the main body; and
A microphone provided on at least one of an upper portion and a front surface of the main body;
The content controller is
The outer shape of the robot can be changed based on the information for the user by using at least one of the camera, the microphone, and the fifth display. The robot according to 4.
該当ユーザの年齢、性別、服装、及び使用言語のうち少なくとも一つに対する情報であることを特徴とする、請求項6に記載のロボット。 The information for the user is
The robot according to claim 6, wherein the information is information on at least one of age, sex, clothes, and language of the user.
前記第5のディスプレイを介して前記ロボットの顔に対応される客体が表示されるように制御することを特徴とする、請求項5に記載のロボット。 The content controller is
The robot according to claim 5, wherein an object corresponding to a face of the robot is displayed via the fifth display.
前記ロボットが位置した場所に対する情報、前記ロボットが位置した地域の天気情報、日付情報、及び時間情報のうち少なくとも一つに基づいて前記ロボットの外形を可変させることを特徴とする、請求項1に記載のロボット。 The content controller is
The outer shape of the robot is changed based on at least one of information about a place where the robot is located, weather information of a region where the robot is located, date information, and time information. The described robot.
前記少なくとも一つのディスプレイに前記ロボットのアームに対応される客体が表示されるように制御し、前記ロボットが移動中である場合、前記ロボットのアームに対応される客体の各々が前記ロボットの移動速度及び方向によって該当するディスプレイ上で動くように制御することを特徴とする、請求項1に記載のロボット。 The content controller is
When the robot is moving, the objects corresponding to the arms of the robot are controlled so that the objects corresponding to the arms of the robot are displayed on the at least one display. The robot according to claim 1, wherein the robot is controlled to move on a corresponding display according to the direction and the direction.
前記ロボットの外側面に備えられて前記ロボットの立体的な型枠を形成する少なくとも一つのディスプレイを介して前記ロボットの一側面の外形、模様、色彩のうち少なくとも一つを含むコンテンツを各々対応されるディスプレイに表示するように制御し、前記少なくとも一つのディスプレイが形成する立体的な型枠と前記コンテンツの組み合わせによって前記ロボットの外形が立体的にデザインされるように制御するステップ;
前記ロボットの本体に備えられたカメラ、マイクロホン、及び前記少なくとも一つのディスプレイを利用してユーザに対する情報を認識するステップ;及び、
前記ユーザに対する情報に基づいて前記ロボットの外形を可変させるステップ;
を含むことを特徴とする、方法。 A method of providing information based on a robot,
Content including at least one of an outer shape, a pattern, and a color of one side of the robot is associated through at least one display provided on an outer surface of the robot and forming a three-dimensional form of the robot. The robot is displayed on a display, and the outer shape of the robot is designed to be three-dimensionally designed by a combination of the three-dimensional frame formed by the at least one display and the content;
Recognizing information for a user using a camera, a microphone, and the at least one display included in the robot body; and
Varying the outer shape of the robot based on information for the user;
A method comprising:
第1のディスプレイで表示される第1のコンテンツ、第2のディスプレイで表示される第2のコンテンツ、第3のディスプレイで表示される第3のコンテンツ、及び第4のディスプレイで表示される第4のコンテンツを含み、
前記第1乃至第4のコンテンツは、各々、前記ロボットの前後左右の様子を構成することを特徴とする、請求項13に記載の方法。 The content is
The first content displayed on the first display, the second content displayed on the second display, the third content displayed on the third display, and the fourth content displayed on the fourth display. Including the content of
14. The method according to claim 13, wherein the first to fourth contents respectively configure front, rear, left and right aspects of the robot.
前記ユーザに対する情報に基づいて前記本体に備えられたティルティング装置を利用して前記少なくとも一つのディスプレイのティルティング角度を調節するステップをさらに含むことを特徴とする、請求項13に記載の方法。 After the step of recognizing information for the user,
The method of claim 13, further comprising adjusting a tilting angle of the at least one display using a tilting device included in the body based on information about the user.
該当ユーザの年齢、性別、服装、及び使用言語のうち少なくとも一つに対する情報であることを特徴とする、請求項13に記載の方法。 The information for the user is
The method of claim 13, wherein the information is information about at least one of age, sex, clothes, and language of the user.
前記ロボットが位置した場所に対する情報、前記ロボットが位置した地域の天気情報、日付情報、及び時間情報のうち少なくとも一つに基づいて前記ロボットの外形が立体的に形成されるように制御するステップを含むことを特徴とする、請求項13に記載の方法。 The step of controlling the outer shape of the robot to be designed three-dimensionally includes:
Controlling the outer shape of the robot to be three-dimensionally formed based on at least one of information about a place where the robot is located, weather information of a region where the robot is located, date information, and time information. 14. Method according to claim 13, characterized in that it comprises.
前記少なくとも一つのディスプレイに前記ロボットのアームに対応される客体が表示されるように制御し、前記ロボットが移動中である場合、前記ロボットのアームに対応される客体の各々が前記ロボットの移動速度及び方向によって該当するディスプレイ上で動くように制御するステップを含むことを特徴とする、請求項13に記載の方法。 The step of controlling the outer shape of the robot to be designed three-dimensionally includes:
When the robot is moving, the objects corresponding to the arms of the robot are controlled to be displayed on the at least one display, and each of the objects corresponding to the arms of the robot has a moving speed of the robot. 14. A method according to claim 13, characterized in that it comprises controlling to move on a corresponding display according to the direction and the direction.
ユーザから入力を受けた情報要求を送信するステップ;
前記情報要求に該当する情報を受信するステップ;及び、
前記情報要求に該当する情報を前記少なくとも一つのディスプレイを介して表示するステップ;をさらに含むことを特徴とする、請求項13に記載の方法。 After the step of recognizing information for the user,
Transmitting an information request received from the user;
Receiving information corresponding to the information request; and
The method of claim 13, further comprising: displaying information corresponding to the information request via the at least one display.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180014602A KR101920620B1 (en) | 2018-02-06 | 2018-02-06 | Robot for providing information and method for providing information using the same |
KR10-2018-0014602 | 2018-02-06 | ||
PCT/KR2018/002652 WO2019156280A1 (en) | 2018-02-06 | 2018-03-06 | Robot for providing information and method for providing information by using same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020514079A true JP2020514079A (en) | 2020-05-21 |
JP6804638B2 JP6804638B2 (en) | 2020-12-23 |
Family
ID=64602375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019519415A Expired - Fee Related JP6804638B2 (en) | 2018-02-06 | 2018-03-06 | Information provision robot and information provision method using this |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6804638B2 (en) |
KR (1) | KR101920620B1 (en) |
WO (1) | WO2019156280A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109571507A (en) * | 2019-01-16 | 2019-04-05 | 鲁班嫡系机器人(深圳)有限公司 | A kind of service robot system and method for servicing |
WO2020184734A1 (en) * | 2019-03-08 | 2020-09-17 | 엘지전자 주식회사 | Robot |
CN111309280A (en) * | 2020-01-22 | 2020-06-19 | 北京云迹科技有限公司 | Method for controlling robot, robot and electronic equipment |
US20220355486A1 (en) * | 2021-05-05 | 2022-11-10 | Sanctuary Cognitive Systems Corporation | Robots, tele-operation systems, and methods of operating the same |
US20230032760A1 (en) * | 2021-08-02 | 2023-02-02 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a serving robot |
KR102669078B1 (en) * | 2021-11-23 | 2024-05-24 | 한국공학대학교산학협력단 | Method and apparatus for generating facial expression data of human-friendly robot |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001300876A (en) * | 2000-04-20 | 2001-10-30 | Yamatake Corp | Service robot and service system using it |
JP2005066766A (en) * | 2003-08-25 | 2005-03-17 | Saichiro Yamashita | Robot with whole surface monitor |
JP2008149442A (en) * | 2006-12-14 | 2008-07-03 | Ind Technol Res Inst | Movable device with information display and interacting functions on surface thereof |
JP2017533106A (en) * | 2014-10-24 | 2017-11-09 | フェロー,インコーポレイテッド | Customer service robot and related systems and methods |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101127490B1 (en) * | 2009-12-22 | 2012-03-22 | (주)이산솔루션 | System for providing customer service by interacting between robot and display device and method thereof |
US8918213B2 (en) * | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
KR20140128086A (en) * | 2013-04-26 | 2014-11-05 | 경남대학교 산학협력단 | Variable structure wheel-chair robot for guidance of disabled person |
KR101472508B1 (en) * | 2014-05-15 | 2014-12-12 | (주) 에이앤에이컴퍼니 | Stand type kiosk having fuction of side display |
JP2017007033A (en) * | 2015-06-22 | 2017-01-12 | シャープ株式会社 | robot |
-
2018
- 2018-02-06 KR KR1020180014602A patent/KR101920620B1/en active IP Right Grant
- 2018-03-06 JP JP2019519415A patent/JP6804638B2/en not_active Expired - Fee Related
- 2018-03-06 WO PCT/KR2018/002652 patent/WO2019156280A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001300876A (en) * | 2000-04-20 | 2001-10-30 | Yamatake Corp | Service robot and service system using it |
JP2005066766A (en) * | 2003-08-25 | 2005-03-17 | Saichiro Yamashita | Robot with whole surface monitor |
JP2008149442A (en) * | 2006-12-14 | 2008-07-03 | Ind Technol Res Inst | Movable device with information display and interacting functions on surface thereof |
JP2017533106A (en) * | 2014-10-24 | 2017-11-09 | フェロー,インコーポレイテッド | Customer service robot and related systems and methods |
Also Published As
Publication number | Publication date |
---|---|
WO2019156280A1 (en) | 2019-08-15 |
JP6804638B2 (en) | 2020-12-23 |
KR101920620B1 (en) | 2018-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020514079A (en) | Information providing robot and information providing method using the same | |
JP7316360B2 (en) | Systems and methods for augmented reality | |
JP7283506B2 (en) | Information processing device, information processing method, and information processing program | |
US7576727B2 (en) | Interactive directed light/sound system | |
US8199108B2 (en) | Interactive directed light/sound system | |
US20190371072A1 (en) | Static occluder | |
US7626569B2 (en) | Movable audio/video communication interface system | |
KR20100085297A (en) | Mobile display apparatus, robot have mobile display apparatus and display method thereof | |
WO2017085974A1 (en) | Information processing apparatus | |
JP2021060627A (en) | Information processing apparatus, information processing method, and program | |
CN106249847A (en) | A kind of virtual augmented reality system realizing based on headset equipment remotely controlling | |
WO2017122270A1 (en) | Image display device | |
Pierce et al. | “Mask-Bot 2i”: An active customisable robotic head with interchangeable face | |
JP2021157203A (en) | Mobile control device, mobile control method, and program | |
US20210400234A1 (en) | Information processing apparatus, information processing method, and program | |
WO2020017435A1 (en) | Information processing device, information processing method, and program | |
CN112684898A (en) | Immersive intelligent interactive display device and method | |
JP6793302B2 (en) | 3D measuring device | |
JP2020031413A (en) | Display device, mobile body, mobile body control system, manufacturing method for them, and image display method | |
US20200036939A1 (en) | Transparency system for commonplace camera | |
EP4254348A2 (en) | Method and device for multi-camera hole filling | |
JP2018195172A (en) | Information processing method, information processing program, and information processing device | |
Pang et al. | Design considerations of a robotic head for telepresence applications | |
WO2023145284A1 (en) | Information processing device, information processing method, and computer program | |
JP6941130B2 (en) | Information processing method, information processing program and information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190409 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190409 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A801 Effective date: 20190409 Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190409 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190409 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200529 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6804638 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |