JP6804638B2 - Information provision robot and information provision method using this - Google Patents
Information provision robot and information provision method using this Download PDFInfo
- Publication number
- JP6804638B2 JP6804638B2 JP2019519415A JP2019519415A JP6804638B2 JP 6804638 B2 JP6804638 B2 JP 6804638B2 JP 2019519415 A JP2019519415 A JP 2019519415A JP 2019519415 A JP2019519415 A JP 2019519415A JP 6804638 B2 JP6804638 B2 JP 6804638B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- information
- display
- user
- displays
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 25
- 230000033001 locomotion Effects 0.000 claims description 11
- 238000009415 formwork Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 7
- 239000003086 colorant Substances 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0009—Constructional details, e.g. manipulator supports, bases
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Toys (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、ロボットに関し、より詳しくは、情報提供が可能なロボット及びこれを利用した情報提供方法に関する。 The present invention relates to a robot, and more particularly to a robot capable of providing information and a method of providing information using the robot.
ロボットは、産業、公共場所、家庭など、多様な分野で人を代えるための手段として活用されており、生産性と生活の便宜性を高めるため、その使用が増加している。しかし、ロボットの使用は、このような純機能外に、人の働き口を脅かし、犯罪に利用される等、否定的な側面も存在する。したがって、ロボットを利用して多様なサービスを提供するにあたって、ユーザにもっと親近感を提供することができる方法が要求される。 Robots are being used as a means to replace people in various fields such as industry, public places, and homes, and their use is increasing in order to increase productivity and convenience of life. However, the use of robots has negative aspects such as threatening the way people work and being used for crimes, in addition to such pure functions. Therefore, in providing various services using robots, there is a need for a method that can provide a more familiar feeling to the user.
本発明の技術的課題は、立体的なディスプレイを備えたロボットを介して少ない費用でもユーザにエンターテインメントと親近感を提供することができるだけでなく、ロボット自体の情報及びロボット周辺の多様な情報を提供することができる情報提供用ロボット及びこれを利用した情報提供方法を提供することにある。 The technical problem of the present invention is not only to provide the user with entertainment and familiarity through a robot equipped with a three-dimensional display at a low cost, but also to provide information on the robot itself and various information around the robot. The purpose is to provide an information providing robot that can be used and an information providing method using the robot.
本発明の他の技術的課題は、状況に合うように自律的に移動可能な情報提供用ロボット及びこれを利用した情報提供方法を提供することにある。 Another technical object of the present invention is to provide an information providing robot that can move autonomously according to a situation and an information providing method using the robot.
本発明の一態様によると、情報提供が可能なロボットは、本体、前記本体の外側面に備えられて前記ロボットの立体的な型枠を形成する少なくとも一つのディスプレイ,及び前記ロボットの一側面の形状、模様、色彩のうち少なくとも一つを含むコンテンツを各々対応されるディスプレイに表示するように制御し、前記少なくとも一つのディスプレイが形成する立体的な型枠と前記コンテンツの組み合わせによって前記ロボットの外形が立体的にデザインされるように制御するコンテンツ制御器を含む。 According to one aspect of the present invention, the robot capable of providing information includes a main body, at least one display provided on the outer surface of the main body to form a three-dimensional frame of the robot, and one side surface of the robot. The outer shape of the robot is controlled by controlling the content including at least one of a shape, a pattern, and a color to be displayed on the corresponding display, and by combining the three-dimensional frame formed by the at least one display and the content. Includes a content controller that controls the robot to be designed three-dimensionally.
一側面において、前記ロボットは、前記本体の下部に備えられる複数の輪、前記複数の輪の軸に結合されるモータ、前記ロボットの移動方向を調節する操向装置、及び前記モータと前記操向装置を制御することによって前記ロボットの移動を制御する駆動制御器をさらに含む。 In one aspect, the robot includes a plurality of wheels provided in the lower part of the main body, a motor coupled to the axes of the plurality of wheels, a steering device for adjusting the moving direction of the robot, and the motor and the steering. It further includes a drive controller that controls the movement of the robot by controlling the device.
他の側面において、前記駆動制御器は、前記ロボットの位置を認識するときに使われるセンサーに基づいて前記ロボットの移動を制御する。 In another aspect, the drive controller controls the movement of the robot based on a sensor used when recognizing the position of the robot.
他の側面において、前記少なくとも一つのディスプレイは、前記本体の前面に備えられる第1のディスプレイ、前記本体の後面に備えられる第2のディスプレイ、前記本体の左側面に備えられる第3のディスプレイ、前記本体の右側面に備えられる第4のディスプレイ、及び前記本体に備えられてタッチパネルを含む第5のディスプレイを含む。 On the other side, the at least one display includes a first display provided on the front surface of the main body, a second display provided on the rear surface of the main body, a third display provided on the left side surface of the main body, and the like. It includes a fourth display provided on the right side surface of the main body and a fifth display provided on the main body including a touch panel.
他の側面において、前記コンテンツは、前記第1のディスプレイで表示される第1のコンテンツ、前記第2のディスプレイで表示される第2のコンテンツ、前記第3のディスプレイで表示される第3のコンテンツ、及び前記第4のディスプレイで表示される第4のコンテンツを含み、前記第1乃至第4のコンテンツは、各々、前記ロボットの前後左右の様子を構成する。 In another aspect, the content is a first content displayed on the first display, a second content displayed on the second display, and a third content displayed on the third display. , And the fourth content displayed on the fourth display, and the first to fourth contents each constitute a front-back, left-right state of the robot.
他の側面において、前記ロボットは、前記本体の上部及び前面のうち少なくとも一つに備えられるカメラ、及び前記本体の上部及び前面のうち少なくとも一つに備えられるマイクロホンをさらに含み、前記コンテンツ制御器は、前記カメラ、前記マイクロホン、及び前記第5のディスプレイのうち少なくとも一つを利用してユーザに対する情報を認識し、前記ユーザに対する情報に基づいて前記ロボットの外形を可変させる。 In another aspect, the robot further comprises a camera mounted on at least one of the top and front of the body and a microphone on at least one of the top and front of the body, the content controller. , The camera, the microphone, and at least one of the fifth display are used to recognize information for the user, and the outer shape of the robot is changed based on the information for the user.
他の側面において、前記ロボットは、前記本体に備えられ、前記カメラ及び前記マイクロホンのうち少なくとも一つにより認識されたユーザに対する情報に基づいて前記第5のディスプレイのティルティング(tilting)角度を調節するティルティング装置をさらに含む。 In another aspect, the robot adjusts the tilting angle of the fifth display based on information to the user provided in the body and recognized by at least one of the camera and the microphone. Further includes a tilting device.
他の側面において、前記ユーザに対する情報は、該当ユーザの年齢、性別、服装、及び使用言語のうち少なくとも一つに対する情報である。 In another aspect, the information for the user is information for at least one of the user's age, gender, clothing, and language used.
他の側面において、前記コンテンツ制御器は、前記第5のディスプレイを介して前記ロボットの顔に対応される客体が表示されるように制御する。 In another aspect, the content controller controls the object corresponding to the face of the robot to be displayed via the fifth display.
他の側面において、前記コンテンツ制御器は、前記ロボットが位置した場所に対する情報、前記ロボットが位置した地域の天気情報、日付情報、及び時間情報のうち少なくとも一つに基づいて前記ロボットの外形を可変させる。 In another aspect, the content controller changes the outer shape of the robot based on at least one of information about the location of the robot, weather information of the area where the robot is located, date information, and time information. Let me.
他の側面において、前記コンテンツ制御器は、前記少なくとも一つのディスプレイに前記ロボットのアームに対応される客体が表示されるように制御し、前記ロボットが移動中である場合、前記ロボットのアームに対応される客体の各々が前記ロボットの移動速度及び方向によって該当するディスプレイ上で動くように制御する。 In another aspect, the content controller controls so that the object corresponding to the arm of the robot is displayed on the at least one display, and corresponds to the arm of the robot when the robot is moving. Each of the objects to be moved is controlled to move on the corresponding display according to the moving speed and direction of the robot.
他の側面において、前記ロボットは、ユーザから入力を受けた情報要求の送信及び前記情報要求に該当する情報の受信を実行する通信器をさらに含む。 In another aspect, the robot further includes a communication device that performs transmission of an information request input from the user and reception of information corresponding to the information request.
本発明の他の態様によると、ロボットに基づく情報提供方法を提供する。 According to another aspect of the present invention, a robot-based information providing method is provided.
前記方法は、前記ロボットの外側面に備えられて前記ロボットの立体的な型枠を形成する少なくとも一つのディスプレイを介して前記ロボットの一側面の外形、模様、色彩のうち少なくとも一つを含むコンテンツを各々対応されるディスプレイに表示するように制御し、前記少なくとも一つのディスプレイが形成する立体的な型枠と前記コンテンツの組み合わせによって前記ロボットの外形が立体的にデザインされるように制御するステップ、前記ロボットの本体に備えられたカメラ、マイクロホン、及び前記少なくとも一つのディスプレイを利用してユーザに対する情報を認識するステップ、及び前記ユーザに対する情報に基づいて前記ロボットの外形を可変させるステップを含む。 The method comprises content comprising at least one of the contours, patterns, and colors of one side of the robot via at least one display provided on the outer surface of the robot to form a three-dimensional mold for the robot. A step of controlling the robot to be displayed on the corresponding display, and controlling the outer shape of the robot to be designed three-dimensionally by the combination of the three-dimensional mold formed by the at least one display and the content. It includes a step of recognizing information for a user by using a camera, a microphone, and at least one display provided in the main body of the robot, and a step of changing the outer shape of the robot based on the information for the user.
一側面において、前記コンテンツは、第1のディスプレイで表示される第1のコンテンツ、第2のディスプレイで表示される第2のコンテンツ、第3のディスプレイで表示される第3のコンテンツ、及び第4のディスプレイで表示される第4のコンテンツを含み、前記第1乃至第4のコンテンツは、各々、前記ロボットの前後左右の様子を構成する。 In one aspect, the content is a first content displayed on a first display, a second content displayed on a second display, a third content displayed on a third display, and a fourth. The first to fourth contents include the fourth content displayed on the display of the above, and each of the first to fourth contents constitutes a front-back, left-right state of the robot.
他の側面において、前記方法は、前記ユーザに対する情報を認識するステップ以後に、前記ユーザに対する情報に基づいて前記本体に備えられたティルティング装置を利用して前記少なくとも一つのディスプレイのティルティング角度を調節するステップをさらに含む。 In another aspect, the method uses a tilting device provided in the body based on the information for the user to determine the tilting angle of the at least one display after the step of recognizing the information for the user. Includes additional steps to adjust.
他の側面において、前記ユーザに対する情報は、該当ユーザの年齢、性別、服装、及び使用言語のうち少なくとも一つに対する情報である。 In another aspect, the information for the user is information for at least one of the user's age, gender, clothing, and language used.
他の側面において、前記方法は、前記少なくとも一つのディスプレイを介して前記ロボットの顔に対応される客体が表示されるように制御するステップをさらに含む。 In another aspect, the method further comprises controlling the object corresponding to the robot's face to be displayed through the at least one display.
他の側面において、前記ロボットの外形が立体的にデザインされるように制御するステップは、前記ロボットが位置した場所に対する情報、前記ロボットが位置した地域の天気情報、日付情報、及び時間情報のうち少なくとも一つに基づいて前記ロボットの外形が立体的に形成されるように制御するステップを含むことを特徴とする、方法。 In another aspect, the step of controlling the outer shape of the robot to be designed three-dimensionally is among the information about the place where the robot is located, the weather information of the area where the robot is located, the date information, and the time information. A method comprising: controlling the outer shape of the robot to be three-dimensionally formed based on at least one.
他の側面において、前記ロボットの外形が立体的にデザインされるように制御するステップは、前記少なくとも一つのディスプレイに前記ロボットのアームに対応される客体が表示されるように制御し、前記ロボットが移動中である場合、前記ロボットのアームに対応される客体の各々が前記ロボットの移動速度及び方向によって該当するディスプレイ上で動くように制御するステップを含む。 On the other side, the step of controlling the outer shape of the robot to be three-dimensionally designed is controlled so that the object corresponding to the arm of the robot is displayed on the at least one display, and the robot causes the robot. When in motion, it includes a step of controlling each of the objects corresponding to the arm of the robot to move on the corresponding display according to the moving speed and direction of the robot.
他の側面において、前記方法は、前記ユーザに対する情報を認識するステップ以後に、ユーザから入力を受けた情報要求を送信するステップ、前記情報要求に該当する情報を受信するステップ、及び前記情報要求に該当する情報を前記少なくとも一つのディスプレイを介して表示するステップをさらに含む。 In another aspect, the method includes, after the step of recognizing information for the user, a step of transmitting an information request input from the user, a step of receiving information corresponding to the information request, and the information request. It further includes the step of displaying the relevant information via the at least one display.
ロボットの外側面に備えられたディスプレイにより形成される立体的な輪郭(または、型枠)と前記ディスプレイで表示されるコンテンツの組み合わせを利用してロボットの外形をデザインすることができるため、より少ない費用でもユーザに親近感を提供することができる。 Less because the outer shape of the robot can be designed using a combination of the three-dimensional contour (or formwork) formed by the display provided on the outer surface of the robot and the content displayed on the display. It is possible to provide a feeling of familiarity to the user even at a cost.
ロボットに備えられたセンサーを介して認識された情報に基づいてロボットの移動を制御することができるため、自律的に移動しながら効果的な情報提供が可能である。 Since the movement of the robot can be controlled based on the information recognized through the sensor provided in the robot, it is possible to provide effective information while moving autonomously.
多様な具現例が図面を参照して開示される。以下、説明を目的として、一つ以上の実施例の全般的理解のために多数の具体的な細部事項が開示される。しかし、このような具現例(ら)は、具体的な細部事項がなくても実行されることができるという点が認識されなければならない。以後の記載及び添付図面は、一つ以上の具現例の特定の例示的な具現例を詳細に記述する。しかし、このような具現例は、例示に過ぎず、多様な具現例の原理で多様な方法のうち一部が利用されることができ、記述される説明は、そのような具現例及びそれらの均等物を全て含む。 Various examples are disclosed with reference to the drawings. Hereinafter, for the purposes of explanation, a number of specific details will be disclosed for a general understanding of one or more embodiments. However, it must be recognized that such embodiment (s) can be carried out without specific details. Subsequent descriptions and accompanying drawings describe in detail specific exemplary embodiment of one or more embodiments. However, such embodiment is merely an example, and some of the various methods can be utilized on the principle of the various embodiment, and the description described is such an embodiment and theirs. Includes all equals.
多様な具現例及び特徴が多数の構成部を含むことができる装置により提示される。多様な装置が追加的な構成部を含むことができ、そして/または図面と関連して論議された構成部の全てを含むことができないという点も理解されて認識されなければならない。本明細書で使われる“実施例”、“例”、“具現例”、“例示”などは、記述された任意の態様または設計が他の態様または設計より良好であり、または利点があると解釈されてはならない。 Various embodiments and features are presented by devices that can include a large number of components. It must also be understood and recognized that various devices can include additional components and / or cannot include all of the components discussed in connection with the drawings. As used herein, "Examples", "Examples", "Embodiments", "Examples", etc., indicate that any aspect or design described is better or has advantages over other aspects or designs. It should not be interpreted.
また、“含む”という用語は、該当特徴、構成部及び/または装置が存在することを意味するが、一つ以上の他の特徴、構成部、装置及び/またはそれらのグループの存在または追加を排除しないと理解されなければならない。また、特別に特定されない、または単数形態の指示が文脈上明確でない場合、本明細書と請求範囲における単数は、一般的に“一つまたはそれ以上”を意味すると解釈されなければならない。 Also, the term "contains" means that the feature, component and / or device is present, but the presence or addition of one or more other features, components, devices and / or groups thereof. It must be understood that it is not excluded. Also, unless otherwise specified, or if the singular form of the indication is not clear in the context, the singular in the specification and claims shall be construed to generally mean "one or more."
図1は、本明細書の一例に係る情報提供用ロボットの外観を示す斜視図である。 FIG. 1 is a perspective view showing the appearance of an information providing robot according to an example of the present specification.
図1を参照すると、情報提供用ロボット10は、少なくとも一つのディスプレイ110、120、130を備えることができる。それぞれのディスプレイは、本体100の各面に備えられることができる。即ち、情報提供用ロボット10の外部に露出された面にはディスプレイが備えられることができる。例えば、情報提供用ロボット10が図1に示すように四角柱の形態で具現される場合、本体100の側面には4個のディスプレイが備えられることができる。もし、情報提供用ロボット10が六角柱の形態で具現される場合、本体の側面には6個のディスプレイが備えられることができる。もし、情報提供用ロボット10が円筒の形態で具現される場合、本体の側面には一つまたはそれ以上の曲面ディスプレイが備えられることができる。 Referring to FIG. 1, the information providing robot 10 can include at least one displays 110, 120, 130. Each display can be provided on each side of the main body 100. That is, a display can be provided on the surface of the information providing robot 10 exposed to the outside. For example, when the information providing robot 10 is embodied in the form of a square pillar as shown in FIG. 1, four displays can be provided on the side surface of the main body 100. If the information providing robot 10 is embodied in the form of a hexagonal column, six displays can be provided on the side surface of the main body. If the information providing robot 10 is embodied in the form of a cylinder, one or more curved displays may be provided on the side surface of the main body.
具体的に、図1に示すように、情報提供用ロボット10が四角柱の形態で具現される場合、第1のディスプレイは本体100の前面に備えられ、第2のディスプレイは本体100の後面に備えられ、第3のディスプレイは本体100の左側面に備えられ、第4のディスプレイは本体100の右側面に備えられることができる。そして、本体100の上部(ヘッド)にはユーザとのインタラクション(interaction)のための第5のディスプレイ130が備えられることができる。ここで、前記第5のディスプレイ130にはユーザとのインタラクションのためにタッチパネル(touch panel)が備えられることができる。 Specifically, as shown in FIG. 1, when the information providing robot 10 is embodied in the form of a square pillar, the first display is provided on the front surface of the main body 100, and the second display is on the rear surface of the main body 100. The third display can be provided on the left side surface of the main body 100, and the fourth display can be provided on the right side surface of the main body 100. A fifth display 130 for interaction with the user can be provided on the upper portion (head) of the main body 100. Here, the fifth display 130 can be provided with a touch panel (touch panel) for interaction with the user.
本体100とヘッドとの間には第5のディスプレイ130のティルティング角度を調節するためにティルティング(tilting)装置140が備えられることができる。ティルティング装置140は、ユーザと円滑なインタラクションが実行されるようにユーザに対する情報に基づいて第5のディスプレイ130のティルティング角度を調節することができる。ここで、ユーザに対する情報は、ユーザの顔(または、目)が位置する高さに対する情報を意味する。 A tilting device 140 may be provided between the body 100 and the head to adjust the tilting angle of the fifth display 130. The tilting device 140 can adjust the tilting angle of the fifth display 130 based on the information to the user so that smooth interaction with the user is performed. Here, the information for the user means the information for the height at which the user's face (or eyes) is located.
本体100の下部、即ち、底面には情報提供用ロボット10が移動できるように駆動装置150が備えられることができる。駆動装置150は、サーバからの命令によって駆動されたり、あらかじめ設定されたプログラムによって自律的に駆動されたりすることができる。 A drive device 150 can be provided at the lower part of the main body 100, that is, at the bottom surface so that the information providing robot 10 can move. The drive device 150 can be driven by an instruction from the server or can be autonomously driven by a preset program.
一方、本体100には少なくとも一つのカメラ160、160′及び少なくとも一つのマイクロホン170が備えられることができる。図1には、一例として、本体100の前面に2個のカメラと一つのマイクロホンが備えられると示されているが、カメラ及びマイクロホンの位置及び個数は、これに限定されるものではない。情報提供用ロボット10は、カメラ160、160′を介して入力される映像情報及び/またはマイクロホン170を介して入力される音声情報に基づいてユーザに対する情報を認識することができ、ユーザに必要な情報を少なくとも一つのディスプレイ、スピーカーなどを介して提供できる。 On the other hand, the main body 100 can be provided with at least one camera 160, 160'and at least one microphone 170. FIG. 1 shows, as an example, that two cameras and one microphone are provided on the front surface of the main body 100, but the positions and numbers of the cameras and microphones are not limited to this. The information providing robot 10 can recognize information to the user based on the video information input via the cameras 160 and 160'and / or the voice information input via the microphone 170, which is necessary for the user. Information can be provided via at least one display, speaker, etc.
図2は、本明細書の一例に係る情報提供用ロボットを示すブロック図である。 FIG. 2 is a block diagram showing an information providing robot according to an example of the present specification.
以下、図2を参照して情報提供が可能なロボットの構成をより詳細に説明する。 Hereinafter, the configuration of the robot capable of providing information will be described in more detail with reference to FIG.
ロボット10は、複数のディスプレイ110、120、130、コンテンツ制御器210、通信器220、少なくとも一つのセンサー230、ティルティング装置140、駆動制御器240、及び駆動装置150を含むことができる。ここで、ディスプレイの個数は、ロボットの形状によって変わることができる。一例として、ロボット10が四角柱の形状で具現される場合、本体の外側面、例えば、前面、後面、左側面、後側面及び上部に各々ディスプレイが備えられ、ロボット10の立体的な輪郭(または、型枠)を形成することができる。このとき、ロボット10は、ユーザとのインタラクションのためにタッチパネルを含むことができ、このようなタッチパネルは、ロボット10の上部に備えられたディスプレイまたは本体を形成するディスプレイのうちいずれか一つに備えられることができる。 The robot 10 can include a plurality of displays 110, 120, 130, a content controller 210, a communication device 220, at least one sensor 230, a tilting device 140, a drive controller 240, and a drive device 150. Here, the number of displays can be changed depending on the shape of the robot. As an example, when the robot 10 is embodied in the shape of a quadrangular prism, displays are provided on the outer surfaces of the main body, for example, the front surface, the rear surface, the left side surface, the rear side surface, and the upper surface, respectively, and the three-dimensional contour (or , Formwork) can be formed. At this time, the robot 10 can include a touch panel for interaction with the user, and such a touch panel is provided on either one of the display provided on the upper part of the robot 10 and the display forming the main body. Can be
ロボット10の本体100に備えられたディスプレイ110、120は、複数の人に対して一括的に露出するための情報を表示し、またはロボットの形状、模様または色彩を仮想的及び/または立体的に飾るコンテンツ(例えば、ロボットの仮想の衣服、ロボットの仮想の体部部位(アーム、レッグ)、仮想的な様子等)を表示することができる。一例として、本体100に備えられた複数のディスプレイ110、120が四角柱の形態で備えられる場合、前面ディスプレイ110は、ロボット10の前面の形状、模様または色彩に該当する第1のコンテンツを表示し、側面ディスプレイ120は、ロボット10の側面の形状、模様または色彩に該当する第2のコンテンツを表示し、後面ディスプレイ(図面番号表示せず)は、ロボット10の後面の形状、模様または色彩に該当する第3のコンテンツを表示する。 The displays 110 and 120 provided in the main body 100 of the robot 10 display information for collectively exposing to a plurality of people, or virtually and / or three-dimensionally display the shape, pattern, or color of the robot. Content to be displayed (for example, virtual clothes of the robot, virtual body parts (arms, legs) of the robot, virtual appearance, etc.) can be displayed. As an example, when a plurality of displays 110, 120 provided in the main body 100 are provided in the form of a square pillar, the front display 110 displays a first content corresponding to the shape, pattern, or color of the front surface of the robot 10. The side display 120 displays the second content corresponding to the shape, pattern or color of the side surface of the robot 10, and the rear display (without displaying the drawing number) corresponds to the shape, pattern or color of the rear surface of the robot 10. The third content to be displayed is displayed.
第1乃至第3のコンテンツは、その内容面で互いに連関性(correlation)、隣接性(contiguousness)、及び同期化を維持することができる。例えば、第1乃至第3のコンテンツがロボットの衣装を構成する場合、前面ディスプレイ110と側面ディスプレイ120が接する境界付近でロボット10の衣服が切れ、または離隔されないように、第1及び第2のコンテンツが備えられることができる(図4a及び図4b参照)。 The first to third contents can maintain their correlation, adjacency, and synchronization with each other in terms of their contents. For example, when the first to third contents constitute the costume of the robot, the first and second contents are prevented so that the clothes of the robot 10 are not cut or separated near the boundary where the front display 110 and the side display 120 are in contact with each other. Can be provided (see FIGS. 4a and 4b).
このようにロボットの立体的な輪郭(または、型枠)を形成するディスプレイと、各ディスプレイで露出される第1乃至第3のコンテンツの組み合わせに基づいて、ロボット10の前後左右様子(または、外観)が仮想的で且つ立体的な形状、模様、色彩により自由にデザインされることができる。 Based on the combination of the displays that form the three-dimensional contour (or formwork) of the robot and the first to third contents exposed on each display, the front-back, left-right appearance (or appearance) of the robot 10. ) Can be freely designed with virtual and three-dimensional shapes, patterns, and colors.
ロボット10の上部に備えられたディスプレイでは特定ユーザに必要な情報が表示されたり、ロボットの顔を形状化するコンテンツが表示されたりすることができる。 On the display provided on the upper part of the robot 10, information necessary for a specific user can be displayed, and contents for shaping the face of the robot can be displayed.
コンテンツ制御器210は、複数のディスプレイ110、120、130を介して表示されるコンテンツを各々制御して前記ロボットの外観または外形が立体的に形成されるように制御できる。コンテンツ制御器210は、機械及び/または電子回路のようなハードウェア、またはハードウェアとソフトウェアが結合された形態(例えば、チップ、プロセッサ、LAM等)で具現されることができる。 The content controller 210 can control the content displayed through the plurality of displays 110, 120, and 130 so that the appearance or outer shape of the robot is three-dimensionally formed. The content controller 210 can be embodied in hardware such as mechanical and / or electronic circuits, or in the form of hardware and software combined (eg, chip, processor, LAM, etc.).
一例として、コンテンツ制御器210は、ロボット10が位置した場所に対する情報、ロボット10が位置した地域の天気情報、日付情報、及び時間情報のうち少なくとも一つに基づいて複数のディスプレイ110、120、130で表示されるコンテンツが変更されるように制御することによってロボット10の外形を可変させることができる。または、センサー230を利用してユーザに対する情報を認識し、これに基づいてロボット10の外観または外形を可変させることもできる。ここで、前記ユーザに対する情報は、該当ユーザの年齢、性別、服装、及び使用言語のうち少なくとも一つに対する情報である。そのために、コンテンツ制御器210は、複数のディスプレイ110、120、130のうち左側及び右側に備えられたディスプレイを介して各々ロボットの左アーム及び右アームに客体が表示されるように制御できる。そして、ロボット10が移動中である場合、前記ロボットの左アーム及び右アームに対応される客体が各々ロボットの移動速度及び/または方向によって該当するディスプレイ上で動くように制御できる。一方、コンテンツ制御器210は、本体の上部に備えられたディスプレイを介してはロボット10の顔に対応される客体(例えば、目、鼻、口等)が表示されるように制御できる。このとき、コンテンツ制御器210は、ユーザとのインタラクションによってユーザが前記ロボットの顔で多様な表情を読み取ることができるように該当ディスプレイ上で前記顔に対応される客体の位置、角度、大きさなどを可変させることができる。 As an example, the content controller 210 has a plurality of displays 110, 120, 130 based on at least one of information about the location where the robot 10 is located, weather information, date information, and time information of the area where the robot 10 is located. The outer shape of the robot 10 can be changed by controlling so that the content displayed in is changed. Alternatively, the sensor 230 can be used to recognize information for the user, and the appearance or outer shape of the robot 10 can be changed based on the information. Here, the information for the user is information for at least one of the age, gender, clothes, and language of the user. Therefore, the content controller 210 can control the object to be displayed on the left arm and the right arm of the robot, respectively, via the displays provided on the left and right sides of the plurality of displays 110, 120, and 130. Then, when the robot 10 is moving, the objects corresponding to the left arm and the right arm of the robot can be controlled to move on the corresponding display depending on the moving speed and / or direction of the robot, respectively. On the other hand, the content controller 210 can be controlled so that an object (for example, eyes, nose, mouth, etc.) corresponding to the face of the robot 10 is displayed through a display provided on the upper part of the main body. At this time, the content controller 210 sets the position, angle, size, etc. of the object corresponding to the face on the corresponding display so that the user can read various facial expressions on the face of the robot by interacting with the user. Can be changed.
通信器220は、ユーザから入力を受けた情報要求の送信及び前記情報要求に該当する情報の受信を実行することができる。例えば、ユーザがロボットに備えられたマイクロホン、ディスプレイなどを利用して音声、タッチなどで特定位置への移動経路に対する情報を要求する場合、通信器220は、これをサーバに送信し、サーバから現在位置で特定位置への移動経路に対する情報を受信することができる。他の例として、ユーザがロボットに備えられたカメラ、マイクロホンなどを利用して映像、音声などで特定レストランに対する位置情報を要求する場合、ロボット10は、通信器220を介して前記特定レストランに対する位置情報をサーバから受信してディスプレイを介して該当情報を表示することができる。 The communication device 220 can execute the transmission of the information request input from the user and the reception of the information corresponding to the information request. For example, when a user requests information on a movement route to a specific position by voice, touch, etc. using a microphone, a display, etc. provided in the robot, the communication device 220 transmits this to the server, and the server currently sends the information. Information on the movement route to a specific position can be received at the position. As another example, when a user requests position information for a specific restaurant by video, audio, or the like using a camera, a microphone, or the like provided in the robot, the robot 10 is positioned with respect to the specific restaurant via a communication device 220. Information can be received from the server and displayed via the display.
センサー230は、ロボット10が周辺環境、ユーザなどを認識することができるようにし、またはロボット10の位置を認識するときに使われるものであり、レーザセンサー、ヴィジョンセンサー、3Dセンサー、カメラ、マイクロホン、GPS(Global Positioning System)、WiFi(Wireless Fidelity)モジュールなどを含むことができる。 The sensor 230 is used to enable the robot 10 to recognize the surrounding environment, the user, etc., or to recognize the position of the robot 10, and is used for a laser sensor, a vision sensor, a 3D sensor, a camera, a microphone, and the like. It can include a GPS (Global Positioning System), a WiFi (Wireless Fidelity) module, and the like.
駆動制御器240は、レーザセンサー、ヴィジョンセンサー、3Dセンサー、カメラ、マイクロホン、GPSモジュール、WiFiモジュールなどのセンサー230により認識された周辺環境及び/またはユーザに対する情報に基づいてあらかじめ設定されたプログラムによってロボットの移動を自律的に制御したり、通信器220を介してサーバから受信した移動制御情報に基づいてロボットの移動を制御したりすることができる。一例として、駆動制御器240は、センサー230を介して取得したGPS情報、WiFi情報、ヴィジョン情報、レーザ情報、3Dカメラ情報などに基づいてロボット10の位置を判断し、これに基づいて駆動装置150を制御することによってロボット10が目的地に移動するようにすることができる。 The drive controller 240 is a robot according to a preset program based on the surrounding environment recognized by the sensor 230 such as a laser sensor, a vision sensor, a 3D sensor, a camera, a microphone, a GPS module, and a WiFi module, and / or information for the user. It is possible to autonomously control the movement of the robot, or to control the movement of the robot based on the movement control information received from the server via the communication device 220. As an example, the drive controller 240 determines the position of the robot 10 based on GPS information, WiFi information, vision information, laser information, 3D camera information, etc. acquired via the sensor 230, and the drive device 150 is based on this. The robot 10 can be moved to the destination by controlling the above.
図2には、一例として、駆動制御器240とコンテンツ制御器210が別個の構成で具現される場合が示されているが、駆動制御器240は、コンテンツ制御器210と統合されて一つのプロセッサで具現されることもできる。 FIG. 2 shows, as an example, a case where the drive controller 240 and the content controller 210 are embodied in separate configurations, but the drive controller 240 is integrated with the content controller 210 into one processor. It can also be embodied in.
ティルティング装置140は、ロボット10の上部に備えられ、センサー(例えば、カメラ、マイクロホン)などにより認識されたユーザの位置情報に基づいて上部ディスプレイ(ロボットのヘッド)のティルティング(tilting)角度を調節することができる。そのために、一例として、ロボットのプロセッサは、カメラにより認識されたユーザの顔位置、マイクロホンに入力された音声の方向などに対する情報に基づいてユーザの顔が位置する領域の座標値を計算し、計算された座標値で上部ディスプレイの画面を判読可能なようにティルティング装置140を制御することができる。 The tilting device 140 is provided on the upper part of the robot 10 and adjusts the tilting angle of the upper display (robot head) based on the user's position information recognized by a sensor (for example, a camera, a microphone) or the like. can do. Therefore, as an example, the robot processor calculates and calculates the coordinate value of the area where the user's face is located based on the information regarding the user's face position recognized by the camera, the direction of the voice input to the microphone, and the like. The tilting device 140 can be controlled so that the screen of the upper display can be read by the coordinated values.
駆動装置150は、駆動制御器240の制御によってロボットを駆動させることができる。 The drive device 150 can drive the robot under the control of the drive controller 240.
図3は、本明細書の一例に係る情報提供用ロボットの底面図である。 FIG. 3 is a bottom view of the information providing robot according to an example of the present specification.
以下、図3を参照して情報提供用ロボットが四角柱の形態で具現される場合の駆動装置150に対してより詳細に説明する。 Hereinafter, the driving device 150 when the information providing robot is embodied in the form of a square pillar will be described in more detail with reference to FIG.
駆動装置150は、多数の輪151、前記輪の軸に結合されたモータ152、前記ロボットの移動方向を制御する操向装置153、前記モータと前記操向装置の制御のための制御器154、及びロボットの本体を支持するように備えられた支持部155を含むことができる。 The drive device 150 includes a large number of wheels 151, a motor 152 coupled to the shaft of the wheel, a steering device 153 that controls the moving direction of the robot, and a controller 154 for controlling the motor and the steering device. And a support portion 155 provided to support the body of the robot can be included.
ロボットのディスプレイは、支持部155から上部方向に延長突出される据え置きフレーム(図示せず)により各々備えられ、据え置きフレームを中心にして画面が互いに異なる方向に向けるように備えられることができる。このとき、各ディスプレイ間の垂直境界面は、互いに隣接するように備えられて全体的に多面体構造が形成されることができる。 Each robot display is provided by a stationary frame (not shown) that extends upward from the support portion 155 and can be provided so that the screens are oriented in different directions around the stationary frame. At this time, the vertical boundary surfaces between the displays are provided so as to be adjacent to each other, and a polyhedral structure can be formed as a whole.
もし、情報提供用ロボットが円筒形で具現される場合、支持部155は、原形で具現されることができ、原形の支持部の上部には少なくとも一つの曲面ディスプレイが備えられることができる。 If the information providing robot is embodied in a cylindrical shape, the support portion 155 can be embodied in the original shape, and at least one curved display can be provided on the upper portion of the original support portion.
図4a及び図4bは、本明細書の一例に係る情報提供用ロボットの外形が複数のディスプレイを介して可変されることを示す例示図である。 4a and 4b are illustrations showing that the outer shape of the information providing robot according to the example of the present specification can be changed via a plurality of displays.
図4a及び図4bを参照すると、ロボットに備えられた複数のディスプレイのうち側面に備えられたディスプレイを介してはロボットの外形(衣装、体部等)に該当するコンテンツが表示されることができ、上部に備えられたディスプレイを介しては該当外形に適した顔に該当するコンテンツが表示されることができる。したがって、本明細書によると、このようにロボットの外観または外形を構造的且つ物理的な手段(例えば、ロボットの実際アーム、またはロボットに着せられる実際衣服)でない複数のディスプレイを介してソフトウェア的(または、仮想的)に構成するため、ロボットの形状、模様、色彩などを少ない費用で多様で且つ自由に立体的に表現でき、必要によってロボットの前後左右など、外形をリアルタイムで変更させることができる。 With reference to FIGS. 4a and 4b, the content corresponding to the outer shape (costume, body, etc.) of the robot can be displayed through the display provided on the side surface among the plurality of displays provided on the robot. , The content corresponding to the face suitable for the corresponding outer shape can be displayed through the display provided on the upper part. Therefore, according to the present specification, the appearance or outer shape of the robot is thus software-like (eg, the actual arm of the robot, or the actual clothing worn on the robot) through multiple displays that are not structural and physical means. Or, because it is configured virtually), the shape, pattern, and color of the robot can be expressed in various ways and freely in three dimensions at a low cost, and the outer shape of the robot can be changed in real time, such as front, back, left, and right, if necessary. ..
図5は、本明細書の一例に係る情報提供方法を示す流れ図である。 FIG. 5 is a flow chart showing an information providing method according to an example of the present specification.
図5を参照すると、ロボットは、本体に備えられた複数のディスプレイを介して表示されるコンテンツを各々制御して前記ロボットの外形が立体的に形成されるように制御できる(S510)。このとき、前記複数のディスプレイの中前記本体の上部に備えられたディスプレイを介してはロボットの顔に対応される客体が表示されるように制御できる。前記複数のディスプレイのうち少なくとも一つではロボットのアームに対応される客体が表示されることができる。もし、ロボットが移動中である場合、前記ロボットのアームに対応される客体の各々は、ロボットの移動速度及び方向によって該当するディスプレイ上で動くように制御できる。 With reference to FIG. 5, the robot can control the contents displayed via the plurality of displays provided in the main body so that the outer shape of the robot is three-dimensionally formed (S510). At this time, it is possible to control so that the object corresponding to the face of the robot is displayed through the display provided on the upper part of the main body among the plurality of displays. At least one of the plurality of displays can display an object corresponding to the arm of the robot. If the robot is moving, each of the objects corresponding to the robot's arm can be controlled to move on the corresponding display depending on the moving speed and direction of the robot.
このような状況で情報提供が必要なユーザがロボットに近接する場合、ロボットは、本体に備えられたカメラ、マイクロホン、及び前記複数のディスプレイのうち少なくとも一つを利用して該当ユーザに対する情報を認識することができる(S520)。ここで、ユーザに対する情報は、該当ユーザの年齢、性別、服装、及び使用言語のうち少なくとも一つに対する情報を含むことができる。ロボットは、本体に備えられたカメラを利用してユーザをスキャンすることでユーザに対する映像情報を取得することができ、また、マイクロホンを利用して周辺の音声情報を収集することによってユーザの音声情報を取得することができる。そして、前記映像情報及び音声情報に対して特徴点マッチングを実行することによってユーザの年齢、性別、服装、使用言語などに対する情報を取得することができる。 When a user who needs to provide information approaches the robot in such a situation, the robot recognizes the information for the user by using at least one of the camera, the microphone, and the plurality of displays provided in the main body. Can be done (S520). Here, the information for the user can include information for at least one of the age, gender, clothes, and language of the user. The robot can acquire video information for the user by scanning the user using the camera provided in the main body, and the user's voice information by collecting the surrounding voice information using the microphone. Can be obtained. Then, by executing feature point matching on the video information and audio information, it is possible to acquire information on the user's age, gender, clothes, language used, and the like.
ロボットは、ユーザに対する情報が認識されると、これに基づいて本体の上部に備えられたディスプレイのティルティング角度を調節することで、ユーザが容易に上部ディスプレイで表示される画面を見ることができるようにし、また、ロボットの外形を該当ユーザの好感を呼び起こす外形に可変させることができる(S530)。ここで、ロボットの外形は、取得したユーザに対する情報、ロボットが位置した場所に対する情報、ロボットが位置した地域の天気情報、日付情報、及び時間情報のうち少なくとも一つに基づいて可変されることもできる。 When the information for the user is recognized, the robot adjusts the tilting angle of the display provided on the upper part of the main body based on the information, so that the user can easily see the screen displayed on the upper display. In addition, the outer shape of the robot can be changed to an outer shape that evokes a favorable impression of the user (S530). Here, the outer shape of the robot may be changed based on at least one of acquired information for the user, information for the location where the robot is located, weather information for the area where the robot is located, date information, and time information. it can.
この後、ユーザから特定情報に対する要求が入力されると、ロボットは、ユーザから入力を受けた要求をサーバに送信し、該当要求に対する情報を受信して複数のディスプレイのうち少なくとも一つ(例えば、上部ディスプレイ)を介して表示できる。もし、ユーザが特定場所に対する経路案内を要求する場合、ロボットは、駆動装置を駆動させて前記特定場所までユーザと同行することもできる。 After that, when a request for specific information is input from the user, the robot sends the request input from the user to the server, receives the information for the request, and at least one of a plurality of displays (for example, It can be displayed via the upper display). If the user requests route guidance to a specific place, the robot can also drive a driving device to accompany the user to the specific place.
以上、提示された実施例に対する説明は、本発明の技術分野において、通常の知識を有する者が本発明を利用し、または実施することができるように提供される。このような実施例に対する多様な変形は、本発明の技術分野において、通常の知識を有する者に明白であり、ここに定義された一般的な原理は、本発明の範囲を外れない限り他の実施例に適用されることができる。したがって、本発明は、ここに提示された実施例に限定されるものではなく、ここに提示された原理及び新規な特徴と一貫する最も広い意味の範囲で解釈されなければならない。 The description of the presented examples is provided so that a person having ordinary knowledge in the technical field of the present invention can use or carry out the present invention. Various variations on such embodiments are apparent to those of ordinary skill in the art of the invention, and the general principles defined herein are otherwise not outside the scope of the invention. It can be applied to the examples. Therefore, the present invention is not limited to the examples presented herein, but must be construed in the broadest sense consistent with the principles and novel features presented herein.
Claims (21)
立体的な型枠の本体;
前記本体の外側面に備えられて各々前記立体的な型枠の二つ以上の互いに異なる側面を構成する複数のディスプレイ;及び、
前記ロボットの二つ以上の互いに異なる側面を表現する形状、模様、色彩のうち少なくとも一つを含むコンテンツを各々前記複数のディスプレイのうち対応されるディスプレイに表示するように制御し、前記複数のディスプレイにより構成される前記立体的な型枠と前記コンテンツの組み合わせによって前記ロボットの外形が立体的にデザインされるように制御するコンテンツ制御器;を含み、
前記複数のディスプレイは、
前記本体の左側面に備えられて前記ロボットの左側面の様子または第1の情報を表示するように構成される第1のディスプレイ;及び、
前記本体の右側面に備えられて前記ロボットの右側面の様子または第2の情報を表示するように構成される第2のディスプレイ;を含み、
前記コンテンツ制御器は、
前記第1のディスプレイ及び第2のディスプレイの各々に前記ロボットのアームに対応される客体が表示されるように制御し、前記ロボットが移動中である場合、前記ロボットのアームに対応される客体の各々が前記ロボットの移動速度及び方向によって該当するディスプレイ上で動くように制御することを特徴とする、ロボット。 In robots that can provide information
The body of the three-dimensional formwork;
A plurality of displays provided on the outer surface of the main body, each constituting two or more different sides of the three-dimensional formwork;
Content including at least one of shapes, patterns, and colors expressing two or more different sides of the robot is controlled to be displayed on the corresponding display of the plurality of displays, and the plurality of displays are displayed. Includes a content controller that controls the outer shape of the robot to be three-dimensionally designed by a combination of the three-dimensional formwork and the contents .
The plurality of displays
A first display provided on the left side surface of the main body and configured to display the state of the left side surface of the robot or the first information;
Includes a second display provided on the right side of the body and configured to display the appearance of the right side of the robot or second information;
The content controller
It is controlled so that the object corresponding to the arm of the robot is displayed on each of the first display and the second display, and when the robot is moving, the object corresponding to the arm of the robot is displayed. A robot, each of which is controlled to move on a corresponding display according to the moving speed and direction of the robot.
前記複数の輪の軸に結合されるモータ;
前記ロボットの移動方向を調節する操向装置;及び、
前記モータと前記操向装置を制御することによって前記ロボットの移動を制御する駆動制御器;をさらに含むことを特徴とする、請求項1に記載のロボット。 A plurality of rings provided at the bottom of the main body;
A motor coupled to the shafts of the plurality of wheels;
Steering device that adjusts the moving direction of the robot;
The robot according to claim 1, further comprising a drive controller that controls the movement of the robot by controlling the motor and the steering device.
前記ロボットの位置を認識するときに使われるセンサーに基づいて前記ロボットの移動を制御することを特徴とする、請求項2に記載のロボット。 The drive controller
The robot according to claim 2, wherein the movement of the robot is controlled based on a sensor used when recognizing the position of the robot.
前記本体の前面に備えられて前記ロボットの前面の様子または第3の情報を表示するように構成される第3のディスプレイ;
前記本体の後面に備えられて前記ロボットの後面の様子または第4の情報を表示するように構成される第4のディスプレイ;及び、
前記本体の上部に備えられてタッチパネルを含む第5のディスプレイ;をさらに含むことを特徴とする、請求項1に記載のロボット。 The plurality of displays
Third display configured to be provided on the front surface of the main body for displaying a state or third information on the front of the robot;
The fourth display configured to provided on the rear surface of the main body for displaying a state or the fourth information of the rear surface of the robot;及beauty,
The robot according to claim 1, further comprising a fifth display provided on the upper part of the main body and including a touch panel.
各ディスプレイの垂直境界面が互いに隣接して据え置きされて全体的に多面体構造を形成することを特徴とする、請求項1に記載のロボット。 The plurality of displays
The robot according to claim 1, wherein the vertical boundary surfaces of the displays are stationary adjacent to each other to form an overall polyhedral structure.
前記本体の上部及び前面のうち少なくとも一つに備えられるマイクロホン;をさらに含み、
前記コンテンツ制御器は、
前記カメラ、前記マイクロホン、及び前記第5のディスプレイのうち少なくとも一つを利用してユーザに対する情報を認識し、前記ユーザに対する情報に基づいて前記ロボットの外形を可変させることを特徴とする、請求項4に記載のロボット。 Cameras on at least one of the top and front of the body;
Further includes a microphone provided on at least one of the top and front of the body;
The content controller
A claim, wherein at least one of the camera, the microphone, and the fifth display is used to recognize information for a user, and the outer shape of the robot is changed based on the information for the user. The robot according to 4.
該当ユーザの年齢、性別、服装、及び使用言語のうち少なくとも一つに対する情報であることを特徴とする、請求項6に記載のロボット。 The information for the user is
The robot according to claim 6, wherein the information is for at least one of the age, gender, clothes, and language of the user.
前記第5のディスプレイを介して前記ロボットの顔に対応される客体が表示されるように制御することを特徴とする、請求項4に記載のロボット。 The content controller
The robot according to claim 4, wherein the object corresponding to the face of the robot is controlled to be displayed through the fifth display.
前記ロボットが位置した場所に対する情報、前記ロボットが位置した地域の天気情報、日付情報、及び時間情報のうち少なくとも一つに基づいて前記ロボットの外形を可変させることを特徴とする、請求項1に記載のロボット。 The content controller
The first aspect of the present invention is to change the outer shape of the robot based on at least one of information about a place where the robot is located, weather information of the area where the robot is located, date information, and time information. The robot described.
前記ロボットの外側面に備えられて各々前記ロボットの立体的な型枠の二つ以上の互いに異なる側面を構成する複数のディスプレイを介して前記ロボットの二つの互いに異なる側面を表現する外形、模様、色彩のうち少なくとも一つを含むコンテンツを各々前記複数のディスプレイのうち対応されるディスプレイに表示するように制御し、前記複数のディスプレイにより構成される前記立体的な型枠と前記コンテンツの組み合わせによって前記ロボットの外形が立体的にデザインされるように制御するステップ;
前記ロボットの本体に備えられたカメラ、マイクロホン、及び前記複数のディスプレイのうち少なくとも一つのディスプレイを利用してユーザに対する情報を認識するステップ;及び、
前記ユーザに対する情報に基づいて前記ロボットの外形を可変させるステップ;
を含み、
前記複数のディスプレイは、
前記本体の左側面に備えられて前記ロボットの左側面の様子または第1の情報を表示するように構成される第1のディスプレイ;及び、
前記本体の右側面に備えられて前記ロボットの右側面の様子または第2の情報を表示するように構成される第2のディスプレイ;を含み、
前記ロボットの外形が立体的にデザインされるように制御するステップは、
前記第1のディスプレイ及び前記第2のディスプレイの各々に前記ロボットのアームに対応される客体が表示されるように制御し、前記ロボットが移動中である場合、前記ロボットのアームに対応される客体の各々が前記ロボットの移動速度及び方向によって該当するディスプレイ上で動くように制御するステップを含むことを特徴とする、方法。 A robot-based information provision method
An outer shape, a pattern, which is provided on the outer surface of the robot and represents two different sides of the robot through a plurality of displays each constituting two or more different sides of the three-dimensional formwork of the robot. The content including at least one of the colors is controlled to be displayed on the corresponding display of the plurality of displays, and the combination of the three-dimensional formwork composed of the plurality of displays and the content is used. Steps to control the outer shape of the robot so that it is designed three-dimensionally;
A step of recognizing information to a user by using a camera, a microphone, and at least one of the plurality of displays provided in the main body of the robot;
The step of changing the outer shape of the robot based on the information for the user;
Only including,
The plurality of displays
A first display provided on the left side surface of the main body and configured to display the state of the left side surface of the robot or the first information;
Includes a second display provided on the right side of the body and configured to display the appearance of the right side of the robot or second information;
The step of controlling the outer shape of the robot to be designed three-dimensionally is
The object corresponding to the arm of the robot is controlled to be displayed on each of the first display and the second display, and when the robot is moving, the object corresponding to the arm of the robot is displayed. A method comprising the step of controlling each of the robots to move on the corresponding display according to the moving speed and direction of the robot .
前記本体の前面に備えられて前記ロボットの前面の様子または第3の情報を表示するように構成される第3のディスプレイ、前記本体の後面に備えられて前記ロボットの後面の様子または第4の情報を表示するように構成される第4のディスプレイをさらに含むことを特徴とする、請求項12に記載の方法。 The plurality of displays
Front of the manner or configured to display third information a third display of the robot provided on the front surface of the main body, provided on a rear surface of the main body of the rear surface of the robot state or the fourth and further comprising a fourth display Lee configured to display information, the method of claim 12.
前記ユーザに対する情報に基づいて前記本体に備えられたティルティング装置を利用して前記本体の上部に備えられるディスプレイのティルティング角度を調節するステップをさらに含むことを特徴とする、請求項12に記載の方法。 After the step of recognizing the information for the user,
The twelfth aspect of the present invention further comprises a step of adjusting the tilting angle of the display provided on the upper part of the main body by using the tilting device provided in the main body based on the information to the user. the method of.
該当ユーザの年齢、性別、服装、及び使用言語のうち少なくとも一つに対する情報であることを特徴とする、請求項12に記載の方法。 The information for the user is
The method according to claim 12 , wherein the information is for at least one of the age, gender, clothes, and language of the user.
前記ロボットが位置した場所に対する情報、前記ロボットが位置した地域の天気情報、日付情報、及び時間情報のうち少なくとも一つに基づいて前記ロボットの外形が立体的に形成されるように制御するステップを含むことを特徴とする、請求項12に記載の方法。 The step of controlling the outer shape of the robot to be designed three-dimensionally is
A step of controlling the outer shape of the robot to be formed three-dimensionally based on at least one of information about the place where the robot is located, weather information of the area where the robot is located, date information, and time information. The method of claim 12 , wherein the method comprises.
ユーザから入力を受けた情報要求を送信するステップ;
前記情報要求に該当する情報を受信するステップ;及び、
前記情報要求に該当する情報を前記少なくとも一つのディスプレイを介して表示するステップ;をさらに含むことを特徴とする、請求項12に記載の方法。 After the step of recognizing the information for the user,
Steps to send an information request entered by the user;
The step of receiving the information corresponding to the information request; and
12. The method of claim 12 , further comprising displaying information corresponding to the information request via the at least one display.
各ディスプレイの垂直境界面が互いに隣接して据え置きされて全体的に多面体構造を形成することを特徴とする、請求項12に記載の方法。 The plurality of displays
12. The method of claim 12 , wherein the vertical interface of each display is stationary adjacent to each other to form an overall polyhedral structure.
少なくとも一つの曲面ディスプレイを含むことを特徴とする、請求項12に記載の方法。 The plurality of displays
12. The method of claim 12 , characterized in that it comprises at least one curved display.
少なくとも一つの曲面ディスプレイを含むことを特徴とする、請求項1に記載のロボット。 The plurality of displays
The robot according to claim 1, wherein the robot includes at least one curved display.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180014602A KR101920620B1 (en) | 2018-02-06 | 2018-02-06 | Robot for providing information and method for providing information using the same |
KR10-2018-0014602 | 2018-02-06 | ||
PCT/KR2018/002652 WO2019156280A1 (en) | 2018-02-06 | 2018-03-06 | Robot for providing information and method for providing information by using same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020514079A JP2020514079A (en) | 2020-05-21 |
JP6804638B2 true JP6804638B2 (en) | 2020-12-23 |
Family
ID=64602375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019519415A Expired - Fee Related JP6804638B2 (en) | 2018-02-06 | 2018-03-06 | Information provision robot and information provision method using this |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6804638B2 (en) |
KR (1) | KR101920620B1 (en) |
WO (1) | WO2019156280A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109571507A (en) * | 2019-01-16 | 2019-04-05 | 鲁班嫡系机器人(深圳)有限公司 | A kind of service robot system and method for servicing |
WO2020184734A1 (en) * | 2019-03-08 | 2020-09-17 | 엘지전자 주식회사 | Robot |
CN111309280A (en) * | 2020-01-22 | 2020-06-19 | 北京云迹科技有限公司 | Method for controlling robot, robot and electronic equipment |
US20220355486A1 (en) * | 2021-05-05 | 2022-11-10 | Sanctuary Cognitive Systems Corporation | Robots, tele-operation systems, and methods of operating the same |
US20230032760A1 (en) * | 2021-08-02 | 2023-02-02 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a serving robot |
KR102669078B1 (en) * | 2021-11-23 | 2024-05-24 | 한국공학대학교산학협력단 | Method and apparatus for generating facial expression data of human-friendly robot |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001300876A (en) * | 2000-04-20 | 2001-10-30 | Yamatake Corp | Service robot and service system using it |
JP2005066766A (en) * | 2003-08-25 | 2005-03-17 | Saichiro Yamashita | Robot with whole surface monitor |
TWI306051B (en) * | 2006-12-14 | 2009-02-11 | Ind Tech Res Inst | Robotic apparatus with surface information displaying and interaction capability |
KR101127490B1 (en) * | 2009-12-22 | 2012-03-22 | (주)이산솔루션 | System for providing customer service by interacting between robot and display device and method thereof |
US8918213B2 (en) * | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
KR20140128086A (en) * | 2013-04-26 | 2014-11-05 | 경남대학교 산학협력단 | Variable structure wheel-chair robot for guidance of disabled person |
KR101472508B1 (en) * | 2014-05-15 | 2014-12-12 | (주) 에이앤에이컴퍼니 | Stand type kiosk having fuction of side display |
US9796093B2 (en) * | 2014-10-24 | 2017-10-24 | Fellow, Inc. | Customer service robot and related systems and methods |
JP2017007033A (en) * | 2015-06-22 | 2017-01-12 | シャープ株式会社 | robot |
-
2018
- 2018-02-06 KR KR1020180014602A patent/KR101920620B1/en active IP Right Grant
- 2018-03-06 JP JP2019519415A patent/JP6804638B2/en not_active Expired - Fee Related
- 2018-03-06 WO PCT/KR2018/002652 patent/WO2019156280A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2019156280A1 (en) | 2019-08-15 |
KR101920620B1 (en) | 2018-11-21 |
JP2020514079A (en) | 2020-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6804638B2 (en) | Information provision robot and information provision method using this | |
WO2015180497A1 (en) | Motion collection and feedback method and system based on stereoscopic vision | |
JP4413203B2 (en) | Image presentation device | |
JPH1118025A (en) | Image display device | |
KR20100085297A (en) | Mobile display apparatus, robot have mobile display apparatus and display method thereof | |
JP6684746B2 (en) | Information processing method, computer and program | |
CN109071186A (en) | Building machinery | |
JP2006212717A (en) | Robot device | |
US20150281640A1 (en) | Telepresence Device | |
JP2021060627A (en) | Information processing apparatus, information processing method, and program | |
WO2019244644A1 (en) | Mobile body control device, mobile body control method, and program | |
JP6822963B2 (en) | Fan driving force device | |
Pierce et al. | “Mask-Bot 2i”: An active customisable robotic head with interchangeable face | |
JPWO2021059359A1 (en) | Animation production system | |
JP2008018529A (en) | Communication robot | |
JP2004042151A (en) | Communication robot | |
JP2021177580A (en) | Information processing apparatus, information processing method, and program | |
JP6964302B2 (en) | Animation production method | |
JP6535699B2 (en) | INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS | |
JP2020031413A (en) | Display device, mobile body, mobile body control system, manufacturing method for them, and image display method | |
JP6955725B2 (en) | Animation production system | |
JP6718933B2 (en) | Program, information processing apparatus, and method | |
JP2020113291A (en) | Information processing device, program for information processing device, head-mounted display, and display system | |
JP2019207714A (en) | Information processing method, computer and program | |
JP6941130B2 (en) | Information processing method, information processing program and information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190409 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190409 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A801 Effective date: 20190409 Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190409 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190409 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200529 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6804638 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |