JP2017007033A - robot - Google Patents

robot Download PDF

Info

Publication number
JP2017007033A
JP2017007033A JP2015124986A JP2015124986A JP2017007033A JP 2017007033 A JP2017007033 A JP 2017007033A JP 2015124986 A JP2015124986 A JP 2015124986A JP 2015124986 A JP2015124986 A JP 2015124986A JP 2017007033 A JP2017007033 A JP 2017007033A
Authority
JP
Japan
Prior art keywords
robot
display
image
control unit
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015124986A
Other languages
Japanese (ja)
Inventor
佐藤 直紀
Naoki Sato
直紀 佐藤
石川 寛
Hiroshi Ishikawa
寛 石川
清広 野▲崎▼
Kiyohiro Nozaki
清広 野▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2015124986A priority Critical patent/JP2017007033A/en
Publication of JP2017007033A publication Critical patent/JP2017007033A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To give realism and a feeling of closeness to a served person.SOLUTION: A robot (1 or 2) moving to be closer to an object and serving the object has a shape similar to an outer shape of a character to serve the object and comprises a display (17) displaying an image of a generally total body of the character.SELECTED DRAWING: Figure 1

Description

本発明は、人物に応対するロボットに関する。   The present invention relates to a robot that responds to a person.

従来から、病院や店舗等で人間の代わりにユーザと応対するロボットが開発されている。例えば特許文献1には、タブレットやディスプレイなどの表示装置を備え、当該表示装置に遠隔ユーザの映像を映し応対を行うテレプレゼンスロボットが開示されている。   Conventionally, robots that respond to users instead of humans have been developed in hospitals and stores. For example, Patent Document 1 discloses a telepresence robot that includes a display device such as a tablet or a display, and displays a video image of a remote user on the display device to respond.

特表2014−506023号公報(2014年3月6日公表)Special table 2014-506023 gazette (announced March 6, 2014)

ここで、上記テレプレゼンスロボットでは、遠隔ユーザの顔など一部分だけが四角形の表示装置に表示される。ゆえに、上記テレプレゼンスロボットの応対を受けた人物は、単に表示画面を見ているだけという印象を抱きがちであり、臨場感や親近感を感じにくいという問題があった。   Here, in the telepresence robot, only a part such as the face of the remote user is displayed on the square display device. Therefore, the person who has received the telepresence robot tends to have an impression that he / she is merely looking at the display screen, and there is a problem that it is difficult to feel a sense of realism and closeness.

本発明は上記問題点に鑑みたものであり、その目的は、応対を受ける人物に、より臨場感および親近感を与えることができるロボットを実現することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to realize a robot that can give a sense of presence and a sense of closeness to a person who receives a response.

上記の課題を解決するために、本発明の一態様に係るロボットは、対象者の近傍まで移動して当該対象者に応対するロボットであって、上記対象者に上記応対を示すキャラクタの外形に類似した形状を有しており、上記キャラクタの略全身の画像を表示するディスプレイを備えることを特徴とする。   In order to solve the above problems, a robot according to one aspect of the present invention is a robot that moves to the vicinity of a target person and responds to the target person, and has an outline of a character that shows the response to the target person. It has a similar shape, and is provided with a display that displays an image of the substantially whole body of the character.

本発明の一態様によれば、応対を受ける人物に、より臨場感および親近感を与えることができるという効果を奏する。   According to one aspect of the present invention, there is an effect that it is possible to give a sense of presence and a sense of familiarity to a person who receives a response.

本発明の実施形態1に係るロボットの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the robot which concerns on Embodiment 1 of this invention. 上記ロボットの外観の一例を示す図である。It is a figure which shows an example of the external appearance of the said robot. 上記ロボットの駆動部の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the drive part of the said robot. 上記ロボットのディスプレイに表示する画像の一変形例を示す図である。It is a figure which shows the modification of the image displayed on the display of the said robot. 本発明の実施形態2に係るロボットの外観の一例を示す図である。It is a figure which shows an example of the external appearance of the robot which concerns on Embodiment 2 of this invention. 本発明の実施形態3に係る応対システムの概要を示す図である。It is a figure which shows the outline | summary of the reception system which concerns on Embodiment 3 of this invention. 上記応対システムにおけるロボット、管理サーバ、および監視者端末の処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of a process of the robot in the said reception system, a management server, and a supervisor terminal.

〔実施形態1〕
以下、本発明の第1の実施形態について図1〜4を参照して説明する。まず始めに、本実施形態に係るロボット1の装置外観について図2を参照して説明する。
Embodiment 1
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. First, the external appearance of the robot 1 according to this embodiment will be described with reference to FIG.

≪ロボット1の外観≫
図2は、ロボット1の外観の一例を示す図である。ロボット1は、自機が応対するべき人物(対象者)の近傍まで移動して当該人物に対し応対する自走型ロボットである。ここで、「応対」とは、後述するキャラクタの画像を少なくとも用いて、対象者に情報を伝達する、または入力操作や問いかけなどの対象者の行動に対し反応を返すことを示す。具体例を挙げると、応対とは、キャラクタの画像を用いた接客、道案内、会話などである。また、「近傍」とは、ロボット1が行う応対を上記対象者が認識可能な程度の距離を示す。さらに具体例を挙げれば、ロボット1は例えば空港、ショッピングセンター、イベント会場、遊園地、および美術館などの不特定多数の人物が存在する環境に配置されることが望ましい。これらの例の場合、ロボット1は、人物(対象者)を先導し目的地まで道案内したり、展示物や商品の説明を行ったり、店舗やアトラクションなどに対象者が赴くように誘導を行ったりする。ロボット1はパネルユニット10と、パネルユニット10の下部に接続された台車ユニット20とから構成される。なお、パネルユニット10および台車ユニット20の形状および配置は図2に示す形状および配置に限定されない。
≪Appearance of robot 1≫
FIG. 2 is a diagram illustrating an example of the appearance of the robot 1. The robot 1 is a self-propelled robot that moves to the vicinity of the person (target person) to which it is to respond and responds to the person. Here, “responding” indicates that at least a character image, which will be described later, is used to transmit information to the target person or to respond to the action of the target person such as an input operation or an inquiry. To give a specific example, the response includes customer service using a character image, route guidance, conversation, and the like. “Nearby” indicates a distance at which the subject can recognize the response performed by the robot 1. More specifically, it is desirable that the robot 1 be placed in an environment where there are a large number of unspecified persons such as airports, shopping centers, event venues, amusement parks, and museums. In these examples, the robot 1 leads a person (target person) and guides the destination to the destination, explains exhibits and products, and guides the target person to go to stores and attractions. Or The robot 1 includes a panel unit 10 and a cart unit 20 connected to the lower part of the panel unit 10. In addition, the shape and arrangement | positioning of the panel unit 10 and the trolley | bogie unit 20 are not limited to the shape and arrangement | positioning shown in FIG.

パネルユニット10は、ディスプレイ17を始めとする入出力デバイスを含むユニットである。ディスプレイ17はキャラクタの画像(キャラクタ画像100)を表示する。ここで、「キャラクタ」とは、対象者に応対を示す主体となるものである。キャラクタは、例えば人物や動物など実在する存在であってもよいし、映画の登場人物やテーマパークのマスコットなど、架空の存在であってもよい。また、キャラクタ画像100はキャラクタの全身の画像、またはキャラクタの全身のうち、対象者が当該画像からキャラクタの全体像を判別できる程度の部分が含まれている画像である。すなわち、キャラクタ画像100はキャラクタの略全身の画像である。具体的には、キャラクタが人物である場合、キャラクタ画像100は人物の全身画像、足先など微細な部分を省略した画像、または当該人物の肩や腕の一部などが見切れた画像であってもよい。ロボット1は、ロボット1が配置される状況に応じたキャラクタ画像100を表示する。   The panel unit 10 is a unit including input / output devices such as a display 17. The display 17 displays a character image (character image 100). Here, the “character” is a subject that responds to the subject. The character may be a real entity such as a person or an animal, or may be a fictional entity such as a movie character or a theme park mascot. In addition, the character image 100 is an image of the whole body of the character, or an image that includes a part of the whole body of the character that allows the subject to determine the entire image of the character from the image. That is, the character image 100 is an image of the substantially whole body of the character. Specifically, when the character is a person, the character image 100 is a full-body image of the person, an image in which fine portions such as the toes are omitted, or an image in which a part of the person's shoulder or arm is cut off. Also good. The robot 1 displays a character image 100 corresponding to the situation where the robot 1 is arranged.

台車ユニット20は、パネルユニット10に含まれる入出力デバイスの制御と、ロボット1全体の姿勢制御および移動制御を行うユニットである。また、台車ユニット20は左右水平方向に車軸(図示せず)を備え、車軸の両端にそれぞれ車輪21を備えている。台車ユニット20の駆動部40(後述)は、車輪21を回転させ、ロボット1の姿勢(傾き)制御および移動(走行)を行う。ロボット1の姿勢制御および移動の具体的方法については後述する。なお、本実施形態では台車ユニット20が車輪21を2輪備えている場合について説明する。しかしながら、ロボット1の姿勢制御および移動が可能であれば、車輪21の種類および個数、ならびに車軸の有無および個数は特に限定しない。例えば、台車ユニット20は車輪21を3輪または4輪備えていてもよいし、車軸を備えずボール状の1つの車輪21を備えていてもよい。   The carriage unit 20 is a unit that performs control of input / output devices included in the panel unit 10 and posture control and movement control of the entire robot 1. The cart unit 20 includes an axle (not shown) in the horizontal direction, and has wheels 21 at both ends of the axle. A drive unit 40 (described later) of the carriage unit 20 rotates the wheels 21 to perform posture (tilt) control and movement (travel) of the robot 1. A specific method of posture control and movement of the robot 1 will be described later. In this embodiment, the case where the cart unit 20 includes two wheels 21 will be described. However, as long as the posture control and movement of the robot 1 are possible, the type and number of wheels 21 and the presence and number of axles are not particularly limited. For example, the cart unit 20 may include three or four wheels 21, or may include one ball-shaped wheel 21 without an axle.

≪要部構成≫
(パネルユニット10の構成)
次に、図1を参照してロボット1の要部構成を説明する。図1は、ロボット1の要部構成を示すブロック図である。パネルユニット10は、アンテナ11と、各種センサ12と、カメラ13と、マイク14と、スピーカ15と、ディスプレイ17と、タッチパネル18とを含む。
≪Main part composition≫
(Configuration of panel unit 10)
Next, the configuration of the main part of the robot 1 will be described with reference to FIG. FIG. 1 is a block diagram showing a main configuration of the robot 1. The panel unit 10 includes an antenna 11, various sensors 12, a camera 13, a microphone 14, a speaker 15, a display 17, and a touch panel 18.

アンテナ11は、後述する制御部30の制御に従って対象者の所持する通信端末などと無線通信を行う。なお、アンテナ11は透明アンテナで、タッチスクリーン16(ディスプレイ17)の表示面上に形成されることが望ましい。これにより、ディスプレイ17での画像表示と無線通信における入力部であるアンテナ11とを一体化し、対象者に直観的かつ簡単に無線通信を行わせることができる。アンテナ11における無線通信は、例えば対象者が通信端末からロボット1へと情報を送信する際などに用いられる。   The antenna 11 performs wireless communication with a communication terminal or the like possessed by the subject under the control of the control unit 30 described later. The antenna 11 is a transparent antenna and is preferably formed on the display surface of the touch screen 16 (display 17). Thereby, the image display on the display 17 and the antenna 11 that is an input unit in wireless communication can be integrated, and the subject can perform wireless communication intuitively and easily. The wireless communication using the antenna 11 is used, for example, when the target person transmits information from the communication terminal to the robot 1.

各種センサ12は、ロボット1の自律走行のため、ロボット1の周辺環境の情報を収集するセンサを少なくとも含むセンサ群である。各種センサ12に含まれるセンサはそれぞれ連携してロボット1の周辺環境の情報を収集する。各種センサ12が収集した情報は制御部30へ送信される。各種センサ12の種類は特に限定されないが、例えば、レンジングソナー、近接クリフ検出器、接触センサ、レーザスキャナ、3Dイメージング/深度センサ、イメージングソナーなどから、ロボット1の使用環境に応じて適したセンサを選択し配置すればよい。なお、ロボット1の自律走行以外の目的で各種センサ12の収集した情報を利用してもよい。例えば各種センサ12の取得した情報を制御部30へ送信し、制御部30にて後述する対象者の特定や応対内容の決定に利用してもよい。さらに、各種センサ12は、対象者の特定や応対内容の決定のために利用する情報を取得するためのセンサを含んでいてもよい。具体的には、各種センサ12として光学式センサを備え、当該センサの検知結果を制御部30へ送信し、制御部30にて対象者の特定や応対内容の決定に利用してもよい。   The various sensors 12 are a sensor group including at least sensors that collect information on the surrounding environment of the robot 1 for autonomous traveling of the robot 1. The sensors included in the various sensors 12 collect information on the surrounding environment of the robot 1 in cooperation with each other. Information collected by the various sensors 12 is transmitted to the control unit 30. The types of the various sensors 12 are not particularly limited. For example, a sensor suitable for the use environment of the robot 1 is selected from a ranging sonar, a proximity cliff detector, a contact sensor, a laser scanner, a 3D imaging / depth sensor, an imaging sonar, and the like. Select and arrange. Information collected by various sensors 12 may be used for purposes other than autonomous running of the robot 1. For example, the information acquired by the various sensors 12 may be transmitted to the control unit 30 and used by the control unit 30 for specifying the target person and determining the contents of the response, which will be described later. Furthermore, the various sensors 12 may include a sensor for acquiring information used for specifying the target person and determining the response content. Specifically, an optical sensor may be provided as the various sensors 12, and the detection result of the sensor may be transmitted to the control unit 30, and the control unit 30 may be used for specifying the target person and determining the response content.

カメラ13は、ロボット1の周辺を撮影する。なお、より広範囲の映像を撮影することが可能なように、カメラ13はディスプレイ17の上端部に取付けられることが望ましい。カメラ13の撮影画像は制御部30へ送信される。マイク14は、対象者またはロボット1の周辺の音声を取得する。マイク14は取得した音声を制御部30に送信する。また、スピーカ15は、制御部30の制御に応じて音声を出力する。   The camera 13 photographs the periphery of the robot 1. The camera 13 is preferably attached to the upper end of the display 17 so that a wider range of images can be taken. The captured image of the camera 13 is transmitted to the control unit 30. The microphone 14 acquires sound around the subject or the robot 1. The microphone 14 transmits the acquired sound to the control unit 30. The speaker 15 outputs sound in accordance with the control of the control unit 30.

タッチスクリーン16は、タッチ入力機能を備えた表示装置であって、ユーザの入力操作を受け付けるGUI(Graphical User Interface)である。タッチスクリーン16は、ディスプレイ17と、タッチパネル18とを含む。   The touch screen 16 is a display device having a touch input function, and is a GUI (Graphical User Interface) that accepts a user input operation. The touch screen 16 includes a display 17 and a touch panel 18.

ディスプレイ17は、制御部30の表示制御部33の制御に従いキャラクタ画像100を表示する。ディスプレイ17はその形状を自由に設計することが可能なフリーフォームディスプレイであり、キャラクタ画像100の外形に類似した形状に予め設計されている。例えば、キャラクタ画像100として人物画像を表示するディスプレイ17である場合、ディスプレイ17は当該人物画像のシルエット(輪郭)に類似した人型形状に形成される。なお、ディスプレイ17がキャラクタの複数種類の画像を入れ替わりで表示する場合、もしくはキャラクタの動画を表示する場合、当該ディスプレイ17の形状はいずれかのキャラクタ画像におけるキャラクタの輪郭に類似した形であればよい。このように、ディスプレイ17はキャラクタの輪郭に類似した形状をしているので、対象者に、ディスプレイ17を見ているだけという機械的な印象を与えにくく、応対またはキャラクタ自体に対する臨場感および親近感を与えることができる。また、ディスプレイ17は、一般的な四角形のディスプレイから、キャラクタ画像100の表示に不要な部分を除いた形状をしているので、上記四角形のディスプレイに比べて総面積が少ない。そのため、対象者がディスプレイの大きさにより受ける威圧感を減少させ親近感を増すことができるとともに、画面表示に係る電力消費を抑えることができる。加えて、ディスプレイ17は一般的な四角形のディスプレイよりも重量が少ないので、後述する駆動部40によるロボット1の姿勢制御や移動に係る電力消費を抑えることができる。   The display 17 displays the character image 100 according to the control of the display control unit 33 of the control unit 30. The display 17 is a free-form display whose shape can be freely designed, and is designed in advance in a shape similar to the outer shape of the character image 100. For example, when the character image 100 is a display 17 that displays a person image, the display 17 is formed in a humanoid shape similar to the silhouette (outline) of the person image. In addition, when the display 17 displays a plurality of types of images of the character by switching, or when displaying a moving image of the character, the shape of the display 17 may be a shape similar to the outline of the character in any character image. . Thus, since the display 17 has a shape similar to the outline of the character, it is difficult to give the subject a mechanical impression that he / she only looks at the display 17, and the presence or sense of presence and familiarity with the character or the character itself is difficult. Can be given. Further, since the display 17 has a shape obtained by removing a portion unnecessary for displaying the character image 100 from a general square display, the total area is smaller than that of the square display. Therefore, it is possible to reduce the sense of intimidation that the subject receives depending on the size of the display and increase the sense of familiarity, and to suppress power consumption related to screen display. In addition, since the display 17 is lighter than a general rectangular display, power consumption related to posture control and movement of the robot 1 by the driving unit 40 described later can be suppressed.

なお、ディスプレイ17が表示するキャラクタ画像100は静止画であってもよいが、動画であることがより望ましい。特に、キャラクタ画像100はキャラクタがジェスチャで応対している動画であることが望ましい。キャラクタのジェスチャを示す動画を表示することにより、応対の対象者に、キャラクタが身振り手振りで応対しているような印象を与えることができる。したがって対象者に臨場感および親近感を与えやすいという利点がある。   The character image 100 displayed on the display 17 may be a still image, but more preferably a moving image. In particular, the character image 100 is preferably a moving image in which the character is responding with a gesture. By displaying a video showing the character's gesture, it is possible to give an impression that the character is responding with gesture gestures to the target person. Therefore, there is an advantage that it is easy to give the subject a sense of realism and closeness.

また、ディスプレイ17は、キャラクタが人物である場合、当該人物の実物大(等身大)の画像をキャラクタ画像100として表示することが望ましい。人物の実物大の画像を表示することにより、ロボット1は対象者に、上記人物が実際にその場に居て応対した場合に近い印象を与えることができる。そのため、ロボットは対象者に、応対またはキャラクタ(人物)自体に対する臨場感および親近感を与えることができる。さらには、ディスプレイ17はキャラクタ画像100以外の任意のコンテンツをキャラクタ画像100と併せて表示してもよい。例えば、ロボット1が対象者に行き先を案内する場合、キャラクタ画像100での案内とともに、行き先の映像や行き先までの経路および地図などを表示してもよい。   In addition, when the character is a person, the display 17 desirably displays an actual size (life-size) image of the person as the character image 100. By displaying a full-size image of the person, the robot 1 can give the subject an impression close to that when the person is actually present and responding. Therefore, the robot can give the subject a sense of presence and a sense of familiarity with the reception or the character (person) itself. Furthermore, the display 17 may display any content other than the character image 100 together with the character image 100. For example, when the robot 1 guides the destination to the target person, the destination image, the route to the destination, a map, and the like may be displayed together with the guidance in the character image 100.

なお、ディスプレイ17は、一例としてゲートドライバを液晶表示領域(ディスプレイ17の表示面内)に分散して配置した液晶ディスプレイで実現可能である。これは、従来はベゼルに並んでいたゲートドライバを自由な位置に配置できるようになるので、ディスプレイ17の四辺のうち三辺のベゼルをほぼ無くすことができ、当該三辺の長さやカーブなどが自由に設計可能になるからである。   As an example, the display 17 can be realized by a liquid crystal display in which gate drivers are distributed and arranged in a liquid crystal display area (in the display surface of the display 17). This is because the gate drivers that were conventionally arranged on the bezel can be arranged at any position, so that the three sides of the four sides of the display 17 can be almost eliminated, and the length, curve, etc. of the three sides can be reduced. It is because it becomes possible to design freely.

タッチパネル18は、対象者の入力操作を受け付け、当該入力操作を示す情報(入力情報)を取得し制御部30へ送信する。タッチパネル18はディスプレイ17と重畳して配置される。なお、タッチパネル18は指示体の接触だけでなく近接(ホバー)を検出可能なタッチパネルであってもよい。この場合、タッチパネル18は、タッチパネル18に近接したユーザの手指のジェスチャを検出することができる。   The touch panel 18 receives an input operation of the target person, acquires information (input information) indicating the input operation, and transmits the information to the control unit 30. The touch panel 18 is disposed so as to overlap the display 17. The touch panel 18 may be a touch panel that can detect not only the contact of the indicator but also proximity (hover). In this case, the touch panel 18 can detect a gesture of the user's finger close to the touch panel 18.

なお、パネルユニット10は少なくともディスプレイ17を備えていればよく、アンテナ11、各種センサ12、カメラ13、マイク14、スピーカ15、およびタッチパネル18は必須の構成ではない。さらに、アンテナ11、各種センサ12、カメラ13、マイク14、およびスピーカ15はパネルユニット10と台車ユニット20とのいずれに配置されてもよい。   The panel unit 10 only needs to include at least the display 17, and the antenna 11, the various sensors 12, the camera 13, the microphone 14, the speaker 15, and the touch panel 18 are not essential components. Furthermore, the antenna 11, various sensors 12, the camera 13, the microphone 14, and the speaker 15 may be arranged in any of the panel unit 10 and the cart unit 20.

(台車ユニット20の構成)
一方、台車ユニット20は、通信部70と、電池80と、GPS受信機60と、メモリ50と、制御部30と、駆動部40とを含む。
(Configuration of the cart unit 20)
On the other hand, the cart unit 20 includes a communication unit 70, a battery 80, a GPS receiver 60, a memory 50, a control unit 30, and a drive unit 40.

通信部70は、外部機器と情報の送受信を行う。通信部70の通信方式、および送受信するデータは特に限定されない。例えば、通信部70は対象者の通信端末にインストールされている所定のアプリケーションからの通知やデータ送信を受付け、受信した通知またはデータを制御部30に送ってもよい。また、通信部70は、制御部30から受信した応対内容(後述)などのデータをサーバなどの外部記憶装置に送信してもよい。電池80は、ロボット1を駆動するための電気エネルギーを供給する。なお、ロボット1は電池80の代わりにロボット1の配置された施設内の電源と接続する電源コネクタを備えていてもよい。   The communication unit 70 transmits / receives information to / from an external device. The communication method of the communication unit 70 and the data to be transmitted / received are not particularly limited. For example, the communication unit 70 may receive a notification or data transmission from a predetermined application installed in the communication terminal of the target person, and send the received notification or data to the control unit 30. Further, the communication unit 70 may transmit data such as response contents (described later) received from the control unit 30 to an external storage device such as a server. The battery 80 supplies electric energy for driving the robot 1. The robot 1 may include a power connector for connecting to a power source in a facility where the robot 1 is disposed instead of the battery 80.

GPS受信機60は、GPS(Global Positioning System)衛星信号を受信することにより、ロボット1の現在位置を測位するものである。GPS受信機60の測位した現在位置を示す情報(位置情報)は制御部30に送信される。   The GPS receiver 60 measures the current position of the robot 1 by receiving GPS (Global Positioning System) satellite signals. Information (position information) indicating the current position measured by the GPS receiver 60 is transmitted to the control unit 30.

メモリ50は、制御部30および駆動部40の制御処理に必要なデータを格納するメモリである。メモリ50は、対象者情報データベース(対象者情報DB)51と、応対内容データベース(応対内容DB)52とを含む。   The memory 50 is a memory that stores data necessary for control processing of the control unit 30 and the drive unit 40. The memory 50 includes a subject information database (subject information DB) 51 and a response content database (response content DB) 52.

対象者情報DB51は、制御部30が取得する各種情報(取得情報)が満たす条件を規定し、当該条件に、対象者の属性を示す情報(対象者情報)を対応付けて記憶しているデータベースである。換言すると、対象者情報DBは、ロボット1が得た何らかの情報が当該DBに規定された条件を満たした場合の、対象者の属性を示している。   The target person information DB 51 defines a condition that various information (acquired information) acquired by the control unit 30 satisfies, and stores the information indicating the target person's attribute (target person information) in association with the condition. It is. In other words, the target person information DB indicates the attributes of the target person when some information obtained by the robot 1 satisfies the conditions defined in the DB.

ここで、上記条件とは、例えば、撮影画像などから特定可能な対象者の外見的特徴の条件(特定の服装をしているか、特定のアイテムを所持しているかなど)、取得音声から音声認識により特定された発話内容に関する条件(ロボット1に施設案内を指示しているかなど)、対象者の通信端末で起動されたアプリケーションでの登録情報(会員情報など)に関する条件(年齢が20歳以上か否かなど)である。また、対象者情報とは、例えば、イベント参加者、イベント提供者(従業者)、来店した顧客、および店員など、ロボット1を使用するシーンでの対象者の状況や立場を示す情報、または、対象者が大人であるか子供であるか、男女いずれであるかなど、対象者自体の属性を示す情報である。   Here, the above-mentioned conditions are, for example, conditions of appearance characteristics of the target person who can be specified from a photographed image or the like (whether they are wearing specific clothes or possessing a specific item), and voice recognition from the acquired voice Conditions related to the utterance content specified by (such as whether the robot 1 is instructed to provide facility guidance), conditions related to registration information (member information, etc.) in an application started on the communication terminal of the subject (whether the age is 20 years or older) Or not). The target person information is, for example, information indicating the status and position of the target person in the scene using the robot 1, such as an event participant, an event provider (employee), a customer who visited the store, and a store clerk, or This is information indicating the attributes of the subject itself, such as whether the subject is an adult, a child, or a man and woman.

応対内容DB52は、対象者情報に、応対内容を示す情報を対応づけて記憶しているデータベースである。ここで、「応対内容」とは、ロボット1が対象者に対し行う一連の応対を示すものである。具体的には、応対内容とは、ディスプレイ17に表示させるキャラクタ画像100を少なくとも含み、その他対象者に提示する画像や、スピーカ15から出力する音声など、対象者に向けて出力する一連のデータを示す。   The response content DB 52 is a database that stores information indicating response content in association with subject information. Here, the “response content” indicates a series of responses performed by the robot 1 to the subject. Specifically, the response content includes at least the character image 100 to be displayed on the display 17, and other series of data to be output to the target person such as an image presented to the target person and sound output from the speaker 15. Show.

制御部30(動作制御部)は、ロボット1の応対を制御するものである。制御部30はパネルユニット10の各種入力デバイス(各種センサ12、カメラ13、マイク14、およびタッチパネル18)が得た情報を受信し、当該情報を用いてロボット1の応対を制御する。より詳しくは、制御部30は、対象者特定部31にて対象者を特定し、応対決定部32にてキャラクタの応対内容(すなわち、対象者に提示するキャラクタ画像100(およびキャラクタの音声))を決定する。そして、表示制御部33にてディスプレイ17(およびスピーカ15)に決定したキャラクタ画像100(および音声)を出力させる。また、制御部30は対象者の位置情報を受信した場合、位置情報が示す位置の近傍までロボット1を移動させるよう、駆動部40に指示する。なお、制御部30は、上述したパネルユニット10の各種入力デバイスから受信した情報のうちいずれかの情報を駆動部40に送り、姿勢制御および移動制御に利用させてもよい。   The control unit 30 (operation control unit) controls reception of the robot 1. The control unit 30 receives information obtained by various input devices (various sensors 12, the camera 13, the microphone 14, and the touch panel 18) of the panel unit 10, and controls reception of the robot 1 using the information. More specifically, the control unit 30 specifies the target person in the target person specifying unit 31, and the response content of the character in the response determining unit 32 (that is, the character image 100 (and the voice of the character presented to the target person)). To decide. Then, the display controller 33 causes the display 17 (and the speaker 15) to output the determined character image 100 (and sound). Further, when the position information of the subject person is received, the control unit 30 instructs the drive unit 40 to move the robot 1 to the vicinity of the position indicated by the position information. Note that the control unit 30 may send any of the information received from the various input devices of the panel unit 10 described above to the drive unit 40 to be used for posture control and movement control.

対象者特定部31は、対象者を特定するものである。より具体的には、対象者特定部31は、制御部30が取得した各種センサ12(例えば人感センサ)の検出結果、カメラ13の映像、マイク14が取得した音声、タッチパネル18への入力情報などの少なくともいずれかを用いて対象者を特定する。なお、対象者特定部31の対象者の特定方法は特に限定されない。例えば、カメラ13によりロボット1の周辺を撮影し、撮影画像から人間の顔を、従来知られた顔認識アルゴリズムを用いて特定することにより、ロボット1の周辺に居る対象者を特定してもよい。また、マイク14により音声を取得し、音声認識により対象者を特定してもよい。また、対象者特定部31は、アンテナ11または通信部70を介し外部機器(対象者の通信端末など)から対象者を特定可能な情報を得ることにより対象者を特定してもよい。さらには、上述した対象者の特定方法を組み合わせて用いてもよい。対象者特定部31が対象者を特定すると、制御部30は駆動部40に、対象者の近傍までロボット1を移動させるよう指示する。   The target person specifying unit 31 specifies the target person. More specifically, the target person specifying unit 31 detects the detection results of various sensors 12 (for example, human sensors) acquired by the control unit 30, the video of the camera 13, the sound acquired by the microphone 14, and the input information to the touch panel 18. The target person is specified using at least one of the above. In addition, the identification method of the subject of the subject identification part 31 is not specifically limited. For example, the subject around the robot 1 may be identified by photographing the periphery of the robot 1 with the camera 13 and identifying a human face from the captured image using a conventionally known face recognition algorithm. . Moreover, a voice may be acquired by the microphone 14 and the target person may be specified by voice recognition. Further, the target person specifying unit 31 may specify the target person by obtaining information that can specify the target person from an external device (such as the communication terminal of the target person) via the antenna 11 or the communication unit 70. Furthermore, you may use combining the identification method of the subject mentioned above. When the target person specifying unit 31 specifies the target person, the control unit 30 instructs the drive unit 40 to move the robot 1 to the vicinity of the target person.

応対決定部32は、対象者に対する応対内容を決定するものである。対象者特定部31が対象者を特定すると、応対決定部32はメモリ50の対象者情報DB51を検索し、制御部30が受信した取得情報が満たす条件を特定し、当該条件に対応する対象者情報を対象者情報DB51から読み出す。次に、応対決定部32は読み出した対象者情報に該当する応対内容を、メモリ50の応対内容DB52から読み出す。例えば、対象者情報から対象者が子供であると特定できた場合、応対決定部32は、応対内容DB52に規定されている応対内容のうち、子供に人気のある人物やマスコットのキャラクタ画像100を含む応対内容をロボット1が行う応対内容として決定してもよい。このように、対象者情報に応じて応対内容を決定することにより、ロボット1は対象者の状況や属性に応じた適切かつ効率的な応対を行うことができるとともに、対象者に応対をより印象づけ、親近感を与えることができる。なお、カメラ13が対象者を撮影する場合、制御部30は対象者の顔が撮影範囲の中央に位置する撮影画像と、カメラ13の撮影角度と焦点深度とから、対象者の身長を算出し、当該身長を対象者情報として扱っても良い。   The response determination unit 32 determines the response content for the subject. When the target person specifying unit 31 specifies the target person, the response determining unit 32 searches the target person information DB 51 in the memory 50, specifies the condition that the acquired information received by the control unit 30 satisfies, and the target person corresponding to the condition Information is read from the target person information DB 51. Next, the response determination unit 32 reads the response content corresponding to the read target person information from the response content DB 52 of the memory 50. For example, when the target person can be identified from the target person information, the reception determining unit 32 selects a character image 100 of a person or mascot popular among children among the response contents defined in the response content DB 52. The content of the response to be included may be determined as the content of the response performed by the robot 1. Thus, by determining the contents of the response according to the target person information, the robot 1 can perform an appropriate and efficient response according to the status and attributes of the target person, and more impress the response to the target person. , Can give a sense of familiarity. When the camera 13 captures the subject, the control unit 30 calculates the height of the subject from the photographed image in which the subject's face is located at the center of the photographing range, the photographing angle and the focal depth of the camera 13. The height may be treated as target person information.

また、本実施形態では、応対決定部32は対象者に応じて応対内容を決定することとしたが、応対決定部32は対象者に関わらず一律の応対内容を行うよう決定してもよい。なおこの場合、応対決定部32およびメモリ50は必須構成ではなく、制御部30はロボット1に予め定められた一律の応対を行わせればよい。また、応対決定部32は対象者情報以外の情報に応じて応対内容を決定してもよい。例えば、カメラ13の撮影画像を解析することにより、ロボット1(および対象者)周辺の混雑具合を特定して、当該混雑具合に応じて最適な応対内容を決定してもよい。また、制御部30は、マイク14を介して対象者に所望の応対内容を音声入力させ、当該音声を解析する(音声認識する)ことにより、対象者が所望する応対内容を特定してもよい。そして、応対決定部32は特定した(所望の)応対内容と同一または最も近い応対内容を応対内容DB52から読み出し、ロボット1が行う応対内容と決定してもよい。   In the present embodiment, the response determination unit 32 determines the response content according to the target person, but the response determination unit 32 may determine to perform uniform response content regardless of the target person. In this case, the response determination unit 32 and the memory 50 are not essential components, and the control unit 30 may cause the robot 1 to perform a predetermined response. The response determination unit 32 may determine the response content according to information other than the target person information. For example, by analyzing the captured image of the camera 13, the degree of congestion around the robot 1 (and the subject) may be specified, and the optimum response content may be determined according to the degree of congestion. In addition, the control unit 30 may specify the response content desired by the target person by causing the target person to input the desired response content via the microphone 14 and analyzing the sound (speech recognition). . Then, the response determination unit 32 may read the response content that is the same as or closest to the specified (desired) response content from the response content DB 52 and determine the response content performed by the robot 1.

表示制御部33(同期表示制御部)は、応対決定部32が決定した応対内容を示す画像をディスプレイ17に表示させるものである。より具体的には、表示制御部33は、上記応対内容を示すキャラクタ画像100をディスプレイ17に表示させる。換言すると、表示制御部33はキャラクタ画像100に含まれるキャラクタに応答を行わせる。   The display control unit 33 (synchronous display control unit) causes the display 17 to display an image indicating the content of the response determined by the response determination unit 32. More specifically, the display control unit 33 causes the display 17 to display the character image 100 indicating the response content. In other words, the display control unit 33 causes the character included in the character image 100 to respond.

駆動部40は、ロボット1の姿勢保持および移動を統括する。駆動部40は、制御部30から対象者の位置を通知されると、当該位置の近傍まで移動するように車輪21を駆動させる。また、駆動部40は後述するジャイロセンサ44などの情報からロボット1の傾きを特定し、ロボット1が所定の姿勢を保つように姿勢制御を行う。以下、図3を用いて駆動部40についてより詳細に説明する。   The drive unit 40 supervises the posture maintenance and movement of the robot 1. When the drive unit 40 is notified of the position of the subject from the control unit 30, the drive unit 40 drives the wheels 21 to move to the vicinity of the position. Further, the drive unit 40 specifies the tilt of the robot 1 from information such as a gyro sensor 44 described later, and performs posture control so that the robot 1 maintains a predetermined posture. Hereinafter, the drive unit 40 will be described in more detail with reference to FIG.

≪駆動部40の詳細構成≫
図3は、駆動部40の詳細な構成を示すブロック図である。駆動部40は図示の通り、ジャイロセンサ44と、姿勢制御部45と、姿勢制御用アクチュエータ43と、モータ41と、エンコーダ42と、走行制御部46と、車輪21とを含む。
<< Detailed Configuration of Drive Unit 40 >>
FIG. 3 is a block diagram showing a detailed configuration of the drive unit 40. The drive unit 40 includes a gyro sensor 44, a posture control unit 45, a posture control actuator 43, a motor 41, an encoder 42, a travel control unit 46, and wheels 21 as shown in the figure.

ジャイロセンサ44は、ロボット1の傾きを検出し、当該ロボット1の傾きを示す情報を姿勢制御部45および走行制御部46に送信する。姿勢制御部45は、ジャイロセンサ44から受信した上記情報に応じてロボット1の姿勢を制御する。姿勢制御用アクチュエータ43は、姿勢制御部45の制御に従ってロボット1の姿勢を変えるものである。例えば、姿勢制御用アクチュエータ43は、倒立振子の原理によりロボット1の傾きが補正されるように車輪21を回転させる。   The gyro sensor 44 detects the tilt of the robot 1 and transmits information indicating the tilt of the robot 1 to the posture control unit 45 and the travel control unit 46. The posture control unit 45 controls the posture of the robot 1 according to the information received from the gyro sensor 44. The posture control actuator 43 changes the posture of the robot 1 according to the control of the posture control unit 45. For example, the attitude control actuator 43 rotates the wheel 21 so that the tilt of the robot 1 is corrected by the principle of an inverted pendulum.

エンコーダ42は、モータ41の駆動状況から、ロボット1の走行方向、走行量、走行の角度を検出する。エンコーダ42が検出した走行方向、走行量、走行の角度を示す情報は走行制御部46に送信される。走行制御部46は、エンコーダ42およびジャイロセンサ44の検出した情報に応じてロボット1の移動(走行)を制御する。より具体的には、走行制御部46は対象者の近傍までロボット1が移動するように移動方向および移動距離を決定し、当該移動方向および移動距離でロボット1が移動するようにモータ41を制御する。モータ41は、走行制御部46の制御に従って駆動し、車輪21を回転させることによりロボット1を走行させる。なお、モータ41はロボット1の車輪21毎に設けられていてもよいし、車輪21全ての駆動機構としてモータ41を1つ設けていてもよい。車輪21はロボット1を移動させるものである。   The encoder 42 detects the traveling direction, traveling amount, and traveling angle of the robot 1 from the driving state of the motor 41. Information indicating the traveling direction, the traveling amount, and the traveling angle detected by the encoder 42 is transmitted to the traveling control unit 46. The travel control unit 46 controls the movement (travel) of the robot 1 in accordance with information detected by the encoder 42 and the gyro sensor 44. More specifically, the traveling control unit 46 determines the movement direction and the movement distance so that the robot 1 moves to the vicinity of the subject, and controls the motor 41 so that the robot 1 moves in the movement direction and the movement distance. To do. The motor 41 is driven according to the control of the travel control unit 46 and causes the robot 1 to travel by rotating the wheels 21. The motor 41 may be provided for each wheel 21 of the robot 1, or one motor 41 may be provided as a drive mechanism for all the wheels 21. The wheel 21 moves the robot 1.

なお、姿勢制御部45はジャイロセンサ44の検出した情報以外の情報も考慮して姿勢制御を行ってもよい。例えば、姿勢制御部45は各種センサ12の検出した情報またはカメラ13の撮影画像から、ロボット1の傾きを特定してもよい。また、走行制御部46は、エンコーダ42およびジャイロセンサ44の検出した情報以外の情報も考慮して移動制御を行ってもよい。例えば、走行制御部46はGPS受信機60が測位するロボット1の現在位置と、アンテナ11を介し制御部30が受信した対象者の位置情報とを比較照合した結果から移動方向および移動距離を決定し、当該移動方向および移動距離でロボット1が移動するようモータ41を制御してもよい。また、走行制御部46はカメラ13の撮影画像からロボット1の現在位置またはロボット1と対象者との位置関係を特定し、特定結果を利用して移動方向および移動距離を決定してもよい。   Note that the posture control unit 45 may perform posture control in consideration of information other than information detected by the gyro sensor 44. For example, the posture control unit 45 may specify the tilt of the robot 1 from information detected by the various sensors 12 or a captured image of the camera 13. Further, the traveling control unit 46 may perform movement control in consideration of information other than information detected by the encoder 42 and the gyro sensor 44. For example, the traveling control unit 46 determines the moving direction and the moving distance from the result of comparing and collating the current position of the robot 1 measured by the GPS receiver 60 with the position information of the subject received by the control unit 30 via the antenna 11. Then, the motor 41 may be controlled so that the robot 1 moves in the moving direction and the moving distance. Further, the traveling control unit 46 may identify the current position of the robot 1 or the positional relationship between the robot 1 and the subject from the captured image of the camera 13 and determine the movement direction and the movement distance using the identification result.

なお、台車ユニット20は少なくとも駆動部40を備えていればよく、制御部30、メモリ50、GPS受信機60、および通信部70はパネルユニット10に配置されていてもよい。   The cart unit 20 only needs to include at least the driving unit 40, and the control unit 30, the memory 50, the GPS receiver 60, and the communication unit 70 may be arranged in the panel unit 10.

≪応対の具体例≫
次に、ロボット1が対象者を特定し、一連の応対を行うまでの処理を、具体例を挙げて説明する。まず始めに、ロボット1がイベント会場で、来場した対象者に応対を行う場合について説明する。なお、上記イベントは入場にイベントチケットが必要であり、対象者は、当該イベントに入場するため、上記イベントチケットを電子チケットとして発行するイベント専用アプリケーション(専用アプリ)を自己の通信端末にインストールしているものとする。
≪Specific example of reception≫
Next, a process until the robot 1 specifies a target person and performs a series of responses will be described with a specific example. First, a case will be described in which the robot 1 responds to a target person who has visited at an event venue. The above event requires an event ticket for admission, and the target person installs an event-dedicated application (dedicated application) that issues the event ticket as an electronic ticket in his communication terminal in order to enter the event. It shall be.

対象者はイベント会場への入場の際、自己の通信端末の専用アプリを起動させ、当該専用アプリを介しイベントチケットを取得する。そして、対象者はロボット1にイベント内容の説明などの応対を受けたい場合、当該イベントチケットの情報(チケット番号や、対象者の会員番号など)を、専用アプリを用いてロボット1に送信する。なおこのとき、専用アプリは通信端末のGPS受信機能などを用いて対象者の位置を特定し、通信端末の位置情報もロボット1に送信する。ロボット1の制御部30は上記イベントチケットの情報を受信すると、通信部70を介しイベントの情報を格納しているイベントサーバにアクセスして、当該イベントの詳細情報や、イベント会場の地図データなどを取得する。また、制御部30は上記位置情報の示す位置の近傍までロボット1を移動させるよう、駆動部40に指示する。駆動部40は制御部30の指示を受け、ロボット1を対象者(対象者の通信端末)の近傍まで移動させる。   Upon entering the event venue, the target person activates a dedicated application of his / her communication terminal and obtains an event ticket via the dedicated application. Then, when the subject wants to receive a response such as an explanation of the event contents from the robot 1, the event ticket information (ticket number, subject member number, etc.) is transmitted to the robot 1 using a dedicated application. At this time, the dedicated application uses the GPS reception function of the communication terminal to identify the position of the target person, and also transmits the position information of the communication terminal to the robot 1. Upon receiving the event ticket information, the control unit 30 of the robot 1 accesses the event server storing the event information via the communication unit 70, and obtains detailed information on the event, map data of the event venue, and the like. get. Further, the control unit 30 instructs the drive unit 40 to move the robot 1 to the vicinity of the position indicated by the position information. The drive unit 40 receives an instruction from the control unit 30 and moves the robot 1 to the vicinity of the subject (the subject's communication terminal).

移動が完了すると、制御部30はイベントの開催場所および開催時間などのイベント内容を、キャラクタ画像100(および音声)を用いて対象者に説明する。なお、キャラクタ画像100を用いた説明のために対象者特定部31が行う対象者の特定、および応対決定部32が行う応対内容の決定は、上記イベントチケットの情報を制御部30が受信してからロボット1の移動が完了するまでの間に行われればよい。また、対象者が移動中である場合、ロボット1は対象者とともに移動しながら説明(応対)を行ってもよい。また、ロボット1は対象者が移動を始めた場合、説明する内容を対象者の通信端末に送信してもよい。   When the movement is completed, the control unit 30 explains the event contents such as the event holding place and the holding time to the subject using the character image 100 (and voice). For the description using the character image 100, the identification of the subject performed by the subject identification unit 31 and the determination of the response content performed by the response determination unit 32 are performed by the control unit 30 receiving the information of the event ticket. To the completion of the movement of the robot 1. Further, when the subject is moving, the robot 1 may explain (respond) while moving with the subject. Further, when the subject starts to move, the robot 1 may transmit the contents to be explained to the subject's communication terminal.

なお、ロボット1は、対象者の方からロボット1に近づいてくるまで待機していてもよい。この場合、制御部30は対象者が所定の位置に来たことを人感センサ(反射型の光学式センサなど)などが検知した場合にカメラ13に対象者を撮影させ、当該撮影画像から対象者の特定および応対内容の決定を行えばよい。もしくは、ディスプレイ17に応対の一覧を表示しておき、対象者からの指示入力があった場合、当該指示に対応する応対を行ってもよい。または、マイク14およびスピーカ15を用いた音声対話によりユーザの所望する応対を特定してもよい。   Note that the robot 1 may stand by until the subject approaches the robot 1. In this case, the control unit 30 causes the camera 13 to photograph the subject when the human sensor (such as a reflective optical sensor) detects that the subject has reached a predetermined position, and the subject is detected from the photographed image. What is necessary is just to identify a person and to determine the contents of the response. Alternatively, a list of responses may be displayed on the display 17, and when an instruction is input from the subject, a response corresponding to the instruction may be performed. Alternatively, the user's desired response may be specified by voice interaction using the microphone 14 and the speaker 15.

ところで、ロボット1は、カメラ13にてキャラクタ画像100の背景として表示する画像(背景画像)を撮影し、当該背景画像にキャラクタ画像100を重畳させた合成画像を表示させてもよい。以下、本実施形態に係るロボット1の変形例について、図4を参照して説明する。   Incidentally, the robot 1 may capture an image (background image) to be displayed as the background of the character image 100 with the camera 13 and display a composite image in which the character image 100 is superimposed on the background image. Hereinafter, a modification of the robot 1 according to the present embodiment will be described with reference to FIG.

図4は、ロボット1のディスプレイ17に表示する画像の一変形例を示す図である。図示の通り、本変形例におけるロボット1はカメラ13を必須構成として備えている。本変形例において、カメラ13は、ディスプレイ17の表示面の向きと反対の向きの画像を少なくとも撮影する。換言すると、カメラ13は、対象者がロボット1(ディスプレイ17)を見たときに、ディスプレイ17の背に隠れ見えなくなる背景を撮影する。以降、カメラ13が撮影した画像を背景画像と称する。カメラ13は撮影した背景画像を制御部30の表示制御部33に送信する。表示制御部33(合成画像表示制御部)は、受信した背景画像にメモリ50から読み出したキャラクタ画像100を重畳した合成画像を、ディスプレイ17に表示させる。   FIG. 4 is a view showing a modification of the image displayed on the display 17 of the robot 1. As shown in the figure, the robot 1 in this modification includes a camera 13 as an essential component. In this modification, the camera 13 captures at least an image in the direction opposite to the direction of the display surface of the display 17. In other words, the camera 13 captures a background that cannot be hidden behind the display 17 when the subject looks at the robot 1 (display 17). Hereinafter, an image taken by the camera 13 is referred to as a background image. The camera 13 transmits the captured background image to the display control unit 33 of the control unit 30. The display control unit 33 (composite image display control unit) causes the display 17 to display a composite image in which the character image 100 read from the memory 50 is superimposed on the received background image.

なお、カメラ13の配置は必ずしも図示の通りでなくともよい。しかしながら、対象者がロボット1(パネルユニット10)を見たときに、キャラクタ画像100の背景画像と周囲の(実際の)背景とのずれは少ない方が良い。ゆえに、カメラ13は、実際の背景とのずれがより少ない背景画像を撮影できる位置に配置されることが望ましい。また、ディスプレイ17として透明ディスプレイを用い、キャラクタ画像100として背景を透過した画像を用いてもよい。この場合、上述した変形例と同様の作用および効果を得ることができる。   Note that the arrangement of the camera 13 is not necessarily as illustrated. However, when the subject looks at the robot 1 (panel unit 10), it is better that the deviation between the background image of the character image 100 and the surrounding (actual) background is small. Therefore, it is desirable that the camera 13 is arranged at a position where a background image with less deviation from the actual background can be taken. Alternatively, a transparent display may be used as the display 17 and an image that transmits the background may be used as the character image 100. In this case, the same operation and effect as the above-described modification can be obtained.

〔実施形態2〕
なお、本発明に係るロボットは、ディスプレイ17を複数のディスプレイに分割して備えるとともに、当該複数のディスプレイのうちいずれか二つを接続する可動部を少なくとも1つ備えていてもよい。そして、複数のディスプレイの表示面全体でキャラクタ画像100が表示されるように、複数のディスプレイにそれぞれキャラクタ画像100の一部を同期表示させ、当該同期表示に合わせて可動部を動作させてもよい。以下、本発明の第2実施形態について、図5に基づいて説明する。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
The robot according to the present invention may include the display 17 divided into a plurality of displays, and may include at least one movable portion that connects any two of the plurality of displays. Then, a part of the character image 100 may be synchronously displayed on each of the plurality of displays so that the character image 100 is displayed on the entire display surface of the plurality of displays, and the movable unit may be operated in accordance with the synchronous display. . Hereinafter, a second embodiment of the present invention will be described with reference to FIG. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

図5は、本実施形態に係るロボット2の外観の一例を示す図である。図示の通り、ロボット2は、ディスプレイ17がディスプレイ17A、17B、17Cに分割されている点、ならびに、ディスプレイ17Aと、ディスプレイ17Bおよび17Cとの間にそれぞれ可動部αが設けられている点でロボット1と異なる。   FIG. 5 is a diagram illustrating an example of the appearance of the robot 2 according to the present embodiment. As shown in the figure, the robot 2 is a robot in that the display 17 is divided into displays 17A, 17B, and 17C, and a movable part α is provided between the display 17A and the displays 17B and 17C. Different from 1.

可動部αはディスプレイ同士を接続する部材であり、動作することで両ディスプレイの接続角度を調節可能な可動部材である。可動部αはサーボモータなどのモータを含んでおり、制御部30の制御に従ってサーボモータを駆動させることにより動作する。   The movable part α is a member that connects the displays, and is a movable member that can adjust the connection angle between the two displays by operating. The movable portion α includes a motor such as a servo motor, and operates by driving the servo motor according to the control of the control unit 30.

制御部30の表示制御部33は、応対決定部32にて応対内容、すなわち表示するキャラクタ画像100を決定すると、ディスプレイ17A(胴体部分のディスプレイ)に表示した画像とディスプレイ17Bおよび17C(腕部分のディスプレイ)に表示した画像とが繋がっているように見えるように、各ディスプレイに画像を同期表示させる。加えて、制御部30は上記同期表示と連動して可動部αのモータを制御し、ディスプレイ17Aと、ディスプレイ17Bおよび17Cとの角度をそれぞれ調節する。これにより、複数のディスプレイ全体で共調してキャラクタ画像100を表現することができる。なお、制御部30は可動部αの角度を調節するだけでなく、可動部αを動かし続けることで、キャラクタ画像100の動きを表現してもよい。制御部30が可動部を動作させることにより、キャラクタ画像100が静止画像である場合でも、動きのある応対を実現することができる。したがって、ロボット1は対象者に応対をより印象づけることができる。   When the response determining unit 32 determines the content of the response, that is, the character image 100 to be displayed, the display control unit 33 of the control unit 30 and the image displayed on the display 17A (the body part display) and the displays 17B and 17C (the arm part display). The images are synchronously displayed on each display so that the images displayed on the display) are connected. In addition, the control unit 30 controls the motor of the movable unit α in conjunction with the synchronous display, and adjusts the angles of the display 17A and the displays 17B and 17C, respectively. Thereby, the character image 100 can be expressed in concert with a plurality of displays. Note that the control unit 30 may not only adjust the angle of the movable part α but also express the movement of the character image 100 by continuing to move the movable part α. When the control unit 30 operates the movable unit, even when the character image 100 is a still image, it is possible to realize a response with movement. Therefore, the robot 1 can make the subject more impressive.

〔実施形態3〕
また、本発明に係るロボットは、対象者に対し行った応対の内容(応対内容)を管理サーバに送信することにより応対内容を記録してもよい。さらに、本発明に係るロボットは、キャラクタ画像での応対の後、対象者から、監視者による対応を所望する旨の指示入力があった場合、監視者端末に当該指示を通知し、監視者による対応を録画(または撮影)した動画(または画像)をディスプレイ17に表示してもよい。以下、本発明の第3実施形態について、図6〜図7に基づいて説明する。図6は、本実施形態に係る応対システム500の概要を示す図である。応対システム500は図示の通り、管理サーバ3と、監視者端末4と、ロボット1とを含む。
[Embodiment 3]
Further, the robot according to the present invention may record the content of the response by transmitting the content of the response performed on the subject (response content) to the management server. Furthermore, the robot according to the present invention notifies the instruction to the monitoring terminal when the target person inputs an instruction indicating that the monitoring person wants to respond after the response with the character image. A moving image (or image) in which the correspondence is recorded (or taken) may be displayed on the display 17. Hereinafter, a third embodiment of the present invention will be described with reference to FIGS. FIG. 6 is a diagram showing an overview of the reception system 500 according to the present embodiment. As shown in the figure, the reception system 500 includes a management server 3, a supervisor terminal 4, and a robot 1.

管理サーバ3は、ロボット1からキャラクタ画像100を用いた応対内容(キャラクタの応対内容)を受信し記録する。また、管理サーバ3は後述する監視者による応対内容を監視者端末4から受信し記録する。なお、管理サーバ3は、応対内容を記録する際に、併せて応対内容の受信時間および送信元などの情報を記録してもよい。監視者端末4は、ロボット1の応対を監視している監視者4Aの使用する端末である。監視者端末は監視者4Aを撮影するためのカメラ(図示せず)を備えている。監視者端末はロボット1から監視者応対の要求を通知された場合、監視者4Aの画像(監視者4Aが対象者に向けて応対している画像または動画)を撮影し、撮影画像をロボット1に送信する。   The management server 3 receives and records the response content (character response content) using the character image 100 from the robot 1. In addition, the management server 3 receives and records the contents of the response by the monitor described later from the monitor terminal 4. The management server 3 may record information such as the reception time and the transmission source of the response content when recording the response content. The supervisor terminal 4 is a terminal used by the supervisor 4A who is monitoring the response of the robot 1. The supervisor terminal includes a camera (not shown) for photographing the supervisor 4A. When the supervisor terminal is notified of the supervisor response request from the robot 1, the supervisor terminal captures an image of the supervisor 4 </ b> A (an image or a video that the supervisor 4 </ b> A is dealing with the target person), and the captured image is captured by the robot 1. Send to.

本実施形態に係るロボット1は、実施形態1および2にて説明した(キャラクタ画像100による)応対を対象者に行った後、制御部30から管理サーバ3へと応対内容を送信する。また、ロボット1の制御部30は、キャラクタ画像100による応対を行った後に対象者から、監視者による応対(監視者応対)を所望する旨の指示入力(例えば、タッチパネル18に対する入力操作、またはマイク14で取得した音声)を受けた場合、監視者応対の要求があったことを監視者端末4に通知する。さらに、制御部30は上記通知を送信した後監視者端末4から監視者応対の画像を受信し、表示制御部33にて当該画像をディスプレイ17に表示させる。   The robot 1 according to the present embodiment transmits the response content from the control unit 30 to the management server 3 after performing the response (using the character image 100) described in the first and second embodiments to the target person. In addition, the control unit 30 of the robot 1 receives an instruction input (for example, an input operation on the touch panel 18 or a microphone) from the target person after receiving the character image 100 and requesting a response (monitoring response) by the monitoring person. 14), the supervisor terminal 4 is notified of the request for the supervisor response. Further, after transmitting the notification, the control unit 30 receives an image of the monitoring person from the monitoring terminal 4 and causes the display control unit 33 to display the image on the display 17.

次に、図7を参照して、本実施形態に係る応対システム500の処理の流れについて説明する。図7は、応対システム500におけるロボット1、管理サーバ3、および監視者端末4の処理の流れを示すシーケンス図である。   Next, with reference to FIG. 7, the flow of processing of the reception system 500 according to the present embodiment will be described. FIG. 7 is a sequence diagram showing a processing flow of the robot 1, the management server 3, and the supervisor terminal 4 in the response system 500.

ロボット1は、実施形態1にて説明したように、対象者の通信端末などから対象者の情報を受信すると、制御部30の対象者特定部31にて対象者を特定する(S100)。そして、制御部30は当該対象者の近傍にロボット1を移動させるよう駆動部40に指示し、駆動部40は当該指示に従い、ロボット1を対象者の近傍に移動させる(S102)。次に、制御部30は上述したように、キャラクタ画像100を用いて対象者に応対する(S104)。応対後、制御部30は通信部70を介し、応対内容を管理サーバ3に送信する。管理サーバ3は応対内容を受信し記録する(S106)。このように、キャラクタ画像100を用いた応対を行った後、ロボット1の制御部30は応対の対象者から監視者の応対を要求されたか(監視者応対を要求する指示入力があったか)否かを確認する(S108)。なお、上記要求は、キャラクタ画像100を用いた応対の終了後、ロボット1にて任意に定められた時間が経過するまでの間受け付けられればよい。   As described in the first embodiment, when the robot 1 receives the target person information from the communication terminal of the target person, the robot 1 specifies the target person in the target person specifying unit 31 of the control unit 30 (S100). Then, the control unit 30 instructs the drive unit 40 to move the robot 1 to the vicinity of the subject person, and the drive unit 40 moves the robot 1 to the vicinity of the subject person according to the instruction (S102). Next, as described above, the control unit 30 responds to the subject using the character image 100 (S104). After the response, the control unit 30 transmits the response content to the management server 3 via the communication unit 70. The management server 3 receives and records the response content (S106). As described above, after performing the response using the character image 100, the control unit 30 of the robot 1 is requested to respond to the supervisor from the subject of the response (whether there is an instruction input for requesting the supervisor response). Is confirmed (S108). The request may be accepted until a time arbitrarily determined by the robot 1 elapses after the response using the character image 100 is completed.

対象者から監視者応対が要求された場合(S108でYES)、制御部30は監視者端末4に対し、監視者応対が要求された旨を通知する(S110)。監視者端末4は上記通知を受信すると(S112)、監視者4Aに対し監視者応対を撮影する旨を通知し、監視者4Aに、監視者応対の撮影操作を行うよう促す。監視者4Aが当該操作を行うと、監視者端末4は監視者応対を撮影し(S114)、撮影画像(静止画または動画)をロボット1に送信する(S116)。ロボット1の制御部30の表示制御部33は上記撮影画像を受信すると、上記撮影画像をディスプレイ17に表示させることにより、監視者応対を対象者に示す(S118)。これに対し、対象者から監視者応対が要求されなかった場合(S108でNO)、ロボット1はS110およびS118の処理を行わない。   When a supervisor response is requested from the subject (YES in S108), the control unit 30 notifies the supervisor terminal 4 that a supervisor response is requested (S110). When the supervisor terminal 4 receives the above notification (S112), the supervisor terminal 4 notifies the supervisor 4A that the supervisor response is to be photographed, and prompts the supervisor 4A to perform a photographing operation for the supervisor reply. When the supervisor 4A performs the operation, the supervisor terminal 4 captures the supervisor response (S114), and transmits the captured image (still image or moving image) to the robot 1 (S116). When the display control unit 33 of the control unit 30 of the robot 1 receives the captured image, the display unit 17 displays the captured image on the display 17 to indicate the monitoring person to the subject (S118). On the other hand, when the response to the supervisor is not requested from the subject (NO in S108), the robot 1 does not perform the processes of S110 and S118.

一方、監視者応対の撮影画像を送信した(S116)監視者端末4は、当該撮影画像を管理サーバ3に送信する(S120)。管理サーバ3は監視者応対の撮影画像を記録する(S122)。   On the other hand, the supervisor terminal 4 that has transmitted the captured image of the response to the supervisor (S116) transmits the captured image to the management server 3 (S120). The management server 3 records a captured image of the monitoring person (S122).

以上の処理によると、ロボット1の行った、キャラクタ画像100を用いた応対の内容と、監視者端末4が撮影した監視者応対の撮影画像との両方が管理サーバ3に記録される。これにより、ロボット1および監視者の行った応対の履歴を記録することができる。また、ロボット1によるキャラクタ画像100を用いた応対の後、例えば応対内容が理解できない、または応対内容が適切でない場合などに対象者が人間(監視者)による応対を要求することができる。そして、ロボット1は、監視者端末4から監視者応対の撮影画像を受信し、ディスプレイ17に表示させることができる。換言すると、ロボット1は、キャラクタによる応対と、監視者による応対とを切替えて表示することができるという利点を持つ。   According to the above processing, both the contents of the response using the character image 100 performed by the robot 1 and the captured image of the monitoring response captured by the monitoring terminal 4 are recorded in the management server 3. Accordingly, it is possible to record a history of reception performed by the robot 1 and the supervisor. Further, after the response using the character image 100 by the robot 1, for example, when the content of the response cannot be understood or the content of the response is not appropriate, the target person can request a response by a human (monitoring person). Then, the robot 1 can receive a captured image of the response from the supervisor terminal 4 and display it on the display 17. In other words, the robot 1 has an advantage that it can switch and display the response by the character and the response by the supervisor.

〔変形例〕
なお、上述した実施形態1の変形例の構成は、実施形態2および3の構成と組み合わせて実現してもよい。
[Modification]
The configuration of the modified example of the first embodiment described above may be realized in combination with the configurations of the second and third embodiments.

また、上記各実施形態および変形例では、ロボット1または2はキャラクタ画像100または200を表示することとしたが、ロボット1または2はキャラクタ画像100または200ではなく、カメラ13で撮影した対象者の略全身の画像をディスプレイ17に表示させてもよい。例えば、ロボット1または2によりバーチャルフィッティングを提供する場合、ロボット1または2は対象者の近傍まで移動した後、カメラ13で対象者の略全身の画像を撮影する。撮影画像は制御部30に送信され、制御部30の表示制御部33は当該撮影画像から対象者が写っている部分を切り出し、ディスプレイ17に表示させる。   In each of the above embodiments and modifications, the robot 1 or 2 displays the character image 100 or 200. However, the robot 1 or 2 does not display the character image 100 or 200 but the subject imaged by the camera 13. A substantially whole body image may be displayed on the display 17. For example, when virtual fitting is provided by the robot 1 or 2, the robot 1 or 2 moves to the vicinity of the subject, and then takes an image of the substantially whole body of the subject with the camera 13. The captured image is transmitted to the control unit 30, and the display control unit 33 of the control unit 30 cuts out a portion where the subject is shown from the captured image and causes the display 17 to display it.

さらに、ディスプレイ17に対象者の画像を表示した状態で、対象者がロボット1または2に対し、試着したい商品を指定する指示を行った場合、制御部30は当該指示を受けて、上記商品の画像をメモリ50または通信部70を介し外部サーバなどから入手し、表示制御部33にて上記対象者の画像に上記商品の画像を重畳して表示させる。これにより、ロボット1または2は、対象者が所望した商品を試着した場合の画像を表示することができる。   Further, when the target person instructs the robot 1 or 2 to specify a product to be tried on while the image of the target person is displayed on the display 17, the control unit 30 receives the instruction, An image is obtained from an external server or the like via the memory 50 or the communication unit 70, and the display control unit 33 displays the product image superimposed on the image of the subject. Thereby, the robot 1 or 2 can display an image in the case where the product desired by the subject is tried on.

〔ソフトウェアによる実現例〕
制御部30の制御ブロック(特に対象者特定部31、応対決定部32、および表示制御部33)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The control blocks of the control unit 30 (particularly the subject identification unit 31, the response determination unit 32, and the display control unit 33) may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. However, it may be realized by software using a CPU (Central Processing Unit).

後者の場合、制御部30は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the control unit 30 includes a CPU that executes instructions of a program that is software that realizes each function, a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by a computer (or CPU), or A storage device (these are referred to as “recording media”), a RAM (Random Access Memory) that expands the program, and the like are provided. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係るロボット(ロボット1または2)は、対象者の近傍まで移動して当該対象者に応対するロボットであって、上記対象者に上記応対を示すキャラクタの外形に類似した形状を有しており、上記キャラクタの略全身の画像(キャラクタ画像100または200)を表示するディスプレイ(ディスプレイ17)を備えることを特徴としている。
[Summary]
The robot (robot 1 or 2) according to aspect 1 of the present invention is a robot that moves to the vicinity of the target person and responds to the target person, and has a shape similar to the outer shape of the character that shows the response to the target person And a display (display 17) for displaying an image of the substantially whole body of the character (character image 100 or 200).

上記の構成によると、ロボットは応対の対象者の近傍に移動する。ここで「近傍」とは、ロボットが行う応対を上記対象者が認識可能な距離である。ロボットには、表示するキャラクタの外形に類似の形状を有するディスプレイが備えられており、当該キャラクタの略全身の画像を表示することにより上記対象者に応対を行う。   According to the above configuration, the robot moves in the vicinity of the person to be handled. Here, the “neighborhood” is a distance at which the subject can recognize the response performed by the robot. The robot is provided with a display having a shape similar to the outer shape of the character to be displayed, and responds to the target person by displaying an image of the substantially whole body of the character.

このように、キャラクタの略全身の画像で応対することにより、対象者に、その場に実在しているキャラクタが応対しているような臨場感および親近感を与えることができる。さらに、ディスプレイがキャラクタの輪郭に類似した形状をしているので、上記対象者に、ディスプレイを見ているだけという機械的な印象を与えにくく、応対またはキャラクタ自体に対する臨場感および親近感を、さらに与えることができる。   In this way, by responding with an image of the substantially whole body of the character, it is possible to give the subject a sense of realism and closeness as if the character that is actually there is responding. Furthermore, since the display has a shape similar to the outline of the character, it is difficult to give the target person a mechanical impression of just looking at the display. Can be given.

また換言すると、上記ディスプレイは、一般的な四角形のディスプレイ(キャラクタの略全身の画像を表示可能な四角形のディスプレイ)から、キャラクタの画像の表示に不要な部分を除いた形状をしているといえる。ゆえに、上記ディスプレイは一般的な四角形のディスプレイに比べて総面積が少ない。そのため、対象者がディスプレイの大きさにより受ける威圧感を減少させることができ、対象者にさらに親近感を与えることができる。   In other words, it can be said that the display has a shape obtained by removing a portion unnecessary for displaying a character image from a general rectangular display (a square display capable of displaying an image of a substantially whole body of a character). . Therefore, the total area of the display is smaller than that of a general rectangular display. Therefore, it is possible to reduce the intimidation that the subject receives depending on the size of the display, and to give the subject a closer sense of affinity.

本発明の態様2に係るロボットは、上記態様1において、上記キャラクタは人物であり、上記ディスプレイは当該人物の実物大の略全身の画像を表示することを特徴としている。   The robot according to aspect 2 of the present invention is characterized in that, in the aspect 1, the character is a person, and the display displays an image of a substantially whole body of the person in actual size.

上記の構成によると、ディスプレイは実物大の人物の映像を表示する。したがって、ロボットは対象者に、実在する上記人物に応対を受けたように感じさせることができる。結果、ロボットは対象者に、応対またはキャラクタ自体に対する臨場感および親近感を、さらに与えることができる。   According to the above configuration, the display displays an image of a full-size person. Therefore, the robot can make the subject feel as if he / she has received an answer to the actual person. As a result, the robot can further give the subject a sense of presence and familiarity with the response or the character itself.

本発明の態様3に係るロボットは、上記態様1または2において、上記ディスプレイは、上記キャラクタのジェスチャを示す動画を表示することを特徴としている。   The robot according to aspect 3 of the present invention is characterized in that, in the aspect 1 or 2, the display displays a moving image showing the gesture of the character.

上記の構成によると、ロボットは対象者への応対として、ディスプレイにキャラクタのジェスチャを示す動画を表示する。これにより、ロボットは対象者に、キャラクタが身振り手振りのジェスチャで応対しているような印象を与えることができる。したがって、ロボットは対象者に、応対またはキャラクタ自体に対する臨場感および親近感を、さらに与えることができる。   According to said structure, a robot displays the moving image which shows a gesture of a character on a display as a response to a subject. As a result, the robot can give the impression that the character is responding with gesture gestures. Therefore, the robot can further give the subject a sense of presence and a sense of familiarity with the reception or the character itself.

本発明の態様4に係るロボットは、上記態様1〜3のいずれか一態様において、少なくとも上記ディスプレイの表示面の向きと反対の向きの画像を背景画像として撮影するカメラ(カメラ13)と、上記カメラの撮影した上記背景画像に上記キャラクタの画像を重畳させた合成画像を上記ディスプレイに表示させる合成画像表示制御部(表示制御部33)と、を備えることを特徴としている。   A robot according to aspect 4 of the present invention is the robot according to any one of aspects 1 to 3, wherein the camera (camera 13) captures, as a background image, an image in a direction opposite to the direction of the display surface of the display. And a composite image display control unit (display control unit 33) that displays a composite image in which the character image is superimposed on the background image captured by the camera on the display.

上記の構成によると、カメラは表示面と反対の方向、つまり表示面を正面から見た場合に、ディスプレイの背に隠れ見えなくなる背景の画像を背景画像として撮影する。そして、表示制御部は当該背景画像にキャラクタの画像を重畳しディスプレイに表示させる。これにより、対象者などがディスプレイの表示面を見たときに、キャラクタが背景と溶け込み、あたかもその場にいるように見えるようにすることができる。したがって、ロボットは対象者に、応対またはキャラクタ自体に対する臨場感および親近感を、さらに与えることができる。   According to the above configuration, when the camera is viewed in the opposite direction to the display surface, that is, when the display surface is viewed from the front, the camera captures a background image that is hidden behind the display as a background image. And a display control part superimposes the image of a character on the said background image, and displays it on a display. As a result, when the subject or the like looks at the display surface of the display, the character blends with the background, making it appear as if he is on the spot. Therefore, the robot can further give the subject a sense of presence and a sense of familiarity with the reception or the character itself.

本発明の態様5に係るロボットは、上記態様1〜4のいずれか一態様において、上記ディスプレイは複数のディスプレイ(ディスプレイ17A〜17C)に分割されており、上記複数のディスプレイのうちいずれか二つのディスプレイを接続する少なくとも一つの可動部(可動部α)と、上記可動部を動作させることにより上記二つのディスプレイの接続角度を調節する動作制御部(制御部30)と、上記複数のディスプレイの表示面全体で上記キャラクタの略全身の画像が表示されるように、上記複数のディスプレイに上記略全身の画像の少なくとも一部を同期表示させる同期表示制御部(表示制御部33)と、を備え、上記動作制御部は、上記同期表示制御部の上記同期表示に応じて上記可動部を動作させることを特徴としている。   The robot according to aspect 5 of the present invention is the robot according to any one of the aspects 1 to 4, wherein the display is divided into a plurality of displays (displays 17A to 17C), and any two of the plurality of displays are included. At least one movable part (movable part α) for connecting the display, an operation control part (control part 30) for adjusting the connection angle of the two displays by operating the movable part, and display of the plurality of displays A synchronous display control unit (display control unit 33) for synchronously displaying at least a part of the substantially whole body image on the plurality of displays so that an image of the substantially whole body of the character is displayed on the entire surface, The operation control unit operates the movable unit according to the synchronous display of the synchronous display control unit.

上記の構成によると、同期表示制御部がキャラクタの略全身の画像を同期表示させるのに応じて、上記動作制御部は可動部を動作させる。これにより、複数のディスプレイ全体としての形状を、上記略全身の画像の表示に適した形状とすることができる。また、上記動作制御部が可動部を動作させることにより、上記略全身の画像が静止画像である場合でも、動きのある応対を実現することができる。したがって、ロボットは対象者に応対をより印象づけることができる。   According to the above configuration, the motion control unit operates the movable unit in response to the synchronous display control unit synchronously displaying an image of the substantially whole body of the character. Thereby, the shape as the whole several display can be made into the shape suitable for the display of the said image of the said substantially whole body. In addition, when the operation control unit operates the movable unit, it is possible to realize a moving response even when the substantially whole body image is a still image. Therefore, the robot can make the subject more impressed with the response.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

本発明は、人物に応対するロボットに利用することができる。   The present invention can be used for a robot that responds to a person.

1、2 ロボット、3 管理サーバ、4 監視者端末、13 カメラ 17 ディスプレイ、30 制御部(動作制御部)、31 対象者特定部、32 応対決定部、33 表示制御部(合成画像表示制御部、同期表示制御部)、40 駆動部   1, 2 Robot, 3 Management server, 4 Monitor terminal, 13 Camera 17 Display, 30 Control unit (Operation control unit), 31 Target person specifying unit, 32 Response determining unit, 33 Display control unit (Composite image display control unit, Synchronous display control unit), 40 drive unit

Claims (5)

対象者の近傍まで移動して当該対象者に応対するロボットであって、
上記対象者に上記応対を示すキャラクタの外形に類似した形状を有しており、上記キャラクタの略全身の画像を表示するディスプレイを備えることを特徴とするロボット。
A robot that moves to the vicinity of the subject and responds to the subject,
A robot having a shape similar to the outer shape of the character that shows the response to the subject, and a display for displaying an image of the substantially whole body of the character.
上記キャラクタは人物であり、上記ディスプレイは当該人物の実物大の略全身の画像を表示することを特徴とする、請求項1に記載のロボット。   The robot according to claim 1, wherein the character is a person, and the display displays a full-length image of the person's actual size. 上記ディスプレイは、上記キャラクタのジェスチャを示す動画を表示することを特徴とする、請求項1または2に記載のロボット。   The robot according to claim 1, wherein the display displays a moving image indicating the gesture of the character. 少なくとも上記ディスプレイの表示面の向きと反対の向きの画像を背景画像として撮影するカメラと、
上記カメラの撮影した上記背景画像に上記キャラクタの画像を重畳させた合成画像を上記ディスプレイに表示させる合成画像表示制御部と、を備えることを特徴とする、請求項1〜3のいずれか1項に記載のロボット。
A camera that captures at least an image in a direction opposite to the direction of the display surface of the display as a background image;
The composite image display control part which displays on the said display the synthetic | combination image which superimposed the image of the said character on the said background image which the said camera image | photographed, The any one of Claims 1-3 characterized by the above-mentioned. The robot described in 1.
上記ディスプレイは複数のディスプレイに分割されており、
上記複数のディスプレイのうちいずれか二つのディスプレイを接続する少なくとも一つの可動部と、
上記可動部を動作させることにより上記二つのディスプレイの接続角度を調節する動作制御部と、
上記複数のディスプレイの表示面全体で上記キャラクタの略全身の画像が表示されるように、上記複数のディスプレイに上記略全身の画像の少なくとも一部を同期表示させる同期表示制御部と、を備え、
上記動作制御部は、上記同期表示制御部の上記同期表示に応じて上記可動部を動作させることを特徴とする、請求項1〜4のいずれか1項に記載のロボット。
The display is divided into multiple displays,
At least one movable part connecting any two of the plurality of displays;
An operation control unit that adjusts a connection angle between the two displays by operating the movable unit;
A synchronous display control unit for synchronously displaying at least a part of the substantially whole body image on the plurality of displays so that an image of the substantially whole body of the character is displayed on the entire display surface of the plurality of displays,
5. The robot according to claim 1, wherein the operation control unit operates the movable unit according to the synchronous display of the synchronous display control unit.
JP2015124986A 2015-06-22 2015-06-22 robot Pending JP2017007033A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015124986A JP2017007033A (en) 2015-06-22 2015-06-22 robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015124986A JP2017007033A (en) 2015-06-22 2015-06-22 robot

Publications (1)

Publication Number Publication Date
JP2017007033A true JP2017007033A (en) 2017-01-12

Family

ID=57760452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015124986A Pending JP2017007033A (en) 2015-06-22 2015-06-22 robot

Country Status (1)

Country Link
JP (1) JP2017007033A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101920620B1 (en) * 2018-02-06 2018-11-21 (주)원익로보틱스 Robot for providing information and method for providing information using the same
JP2020181348A (en) * 2019-04-24 2020-11-05 セコム株式会社 Security system and monitoring display device
JP2020182093A (en) * 2019-04-24 2020-11-05 セコム株式会社 Monitoring display device
JPWO2020250434A1 (en) * 2019-06-14 2020-12-17
JP2022111128A (en) * 2019-04-24 2022-07-29 セコム株式会社 Security system and monitoring display
KR102511034B1 (en) * 2021-10-19 2023-03-17 옥재윤 Artificial intelligence based service robot
JP7532941B2 (en) 2019-07-03 2024-08-14 株式会社リコー Information processing device, telepresence robot, base control system, remote control system, information processing method and program

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03296016A (en) * 1990-04-16 1991-12-26 Sony Corp Display device
JPH1195703A (en) * 1997-09-20 1999-04-09 Sefutekku Kk Construction site display device
JP2005172879A (en) * 2003-12-08 2005-06-30 Oki Electric Ind Co Ltd Advertisement guiding robot and method for displaying advertisement guidance of the robot
JP2006043780A (en) * 2004-07-30 2006-02-16 Shinshu Univ Communication robot using curved surface face image display
US20080029418A1 (en) * 2006-07-11 2008-02-07 Mattel, Inc. Interactive Display Packaging For A Toy Figure
JP2008149442A (en) * 2006-12-14 2008-07-03 Ind Technol Res Inst Movable device with information display and interacting functions on surface thereof
US20100175496A1 (en) * 2009-01-14 2010-07-15 Samsung Electronics Co., Ltd. Robot
KR20110004015A (en) * 2009-07-07 2011-01-13 송세경 Intelligent mobile restaurant robot for serving custom and counting money
JP3168253U (en) * 2011-03-24 2011-06-02 ブレーンコンピューター株式会社 Reception guide device
JP2011150221A (en) * 2010-01-25 2011-08-04 Seiko Epson Corp Apparatus for mounting video output equipment, and method for projection of video output equipment
JP2013200854A (en) * 2012-02-22 2013-10-03 Nikon Corp Electronic device and program
JP2013205518A (en) * 2012-03-27 2013-10-07 Sega Corp Video display apparatus
JP2014035541A (en) * 2012-08-10 2014-02-24 Casio Comput Co Ltd Content reproduction control device, content reproduction control method, and program
JP2014182332A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Signage device
US20150062117A1 (en) * 2013-08-30 2015-03-05 Qualcomm Incorporated System and method for determining the extent of a plane in an augmented reality environment

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03296016A (en) * 1990-04-16 1991-12-26 Sony Corp Display device
JPH1195703A (en) * 1997-09-20 1999-04-09 Sefutekku Kk Construction site display device
JP2005172879A (en) * 2003-12-08 2005-06-30 Oki Electric Ind Co Ltd Advertisement guiding robot and method for displaying advertisement guidance of the robot
JP2006043780A (en) * 2004-07-30 2006-02-16 Shinshu Univ Communication robot using curved surface face image display
US20080029418A1 (en) * 2006-07-11 2008-02-07 Mattel, Inc. Interactive Display Packaging For A Toy Figure
JP2008149442A (en) * 2006-12-14 2008-07-03 Ind Technol Res Inst Movable device with information display and interacting functions on surface thereof
US20100175496A1 (en) * 2009-01-14 2010-07-15 Samsung Electronics Co., Ltd. Robot
KR20110004015A (en) * 2009-07-07 2011-01-13 송세경 Intelligent mobile restaurant robot for serving custom and counting money
JP2011150221A (en) * 2010-01-25 2011-08-04 Seiko Epson Corp Apparatus for mounting video output equipment, and method for projection of video output equipment
JP3168253U (en) * 2011-03-24 2011-06-02 ブレーンコンピューター株式会社 Reception guide device
JP2013200854A (en) * 2012-02-22 2013-10-03 Nikon Corp Electronic device and program
JP2013205518A (en) * 2012-03-27 2013-10-07 Sega Corp Video display apparatus
JP2014035541A (en) * 2012-08-10 2014-02-24 Casio Comput Co Ltd Content reproduction control device, content reproduction control method, and program
JP2014182332A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Signage device
US20150062117A1 (en) * 2013-08-30 2015-03-05 Qualcomm Incorporated System and method for determining the extent of a plane in an augmented reality environment

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101920620B1 (en) * 2018-02-06 2018-11-21 (주)원익로보틱스 Robot for providing information and method for providing information using the same
WO2019156280A1 (en) * 2018-02-06 2019-08-15 (주)원익로보틱스 Robot for providing information and method for providing information by using same
JP2020181348A (en) * 2019-04-24 2020-11-05 セコム株式会社 Security system and monitoring display device
JP2020182093A (en) * 2019-04-24 2020-11-05 セコム株式会社 Monitoring display device
JP2022111128A (en) * 2019-04-24 2022-07-29 セコム株式会社 Security system and monitoring display
JP7308068B2 (en) 2019-04-24 2023-07-13 セコム株式会社 Security system and surveillance display
JP7334054B2 (en) 2019-04-24 2023-08-28 セコム株式会社 surveillance display
JPWO2020250434A1 (en) * 2019-06-14 2020-12-17
JP7317395B2 (en) 2019-06-14 2023-07-31 株式会社ロボ・ガレージ THIN PORTABLE COMMUNICATION TERMINAL, CONTROL METHOD AND CONTROL PROGRAM THEREOF
JP7532941B2 (en) 2019-07-03 2024-08-14 株式会社リコー Information processing device, telepresence robot, base control system, remote control system, information processing method and program
KR102511034B1 (en) * 2021-10-19 2023-03-17 옥재윤 Artificial intelligence based service robot
WO2023068737A1 (en) * 2021-10-19 2023-04-27 옥재윤 Artificial-intelligence-based service robot

Similar Documents

Publication Publication Date Title
JP2017007033A (en) robot
US11892851B2 (en) System and methods for tagging accessibility features with a motorized mobile system
US9796093B2 (en) Customer service robot and related systems and methods
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
US9922236B2 (en) Wearable eyeglasses for providing social and environmental awareness
US9316502B2 (en) Intelligent mobility aid device and method of navigating and providing assistance to a user thereof
US10024678B2 (en) Wearable clip for providing social and environmental awareness
US10311400B2 (en) Intelligent service robot and related systems and methods
US20200366816A1 (en) System and methods involving edge camera assemblies in handheld devices
US10248856B2 (en) Smart necklace with stereo vision and onboard processing
KR102018763B1 (en) Interfacing with a mobile telepresence robot
US11364631B2 (en) Method of operating mobile robot
WO2018121283A1 (en) Service providing method and device, mobile service apparatus, and storage medium
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
KR20180040907A (en) Airport robot
JP2017170568A (en) Service providing robot system
US11766779B2 (en) Mobile robot for recognizing queue and operating method of mobile robot
US11027430B2 (en) Systems and methods for latency compensation in robotic teleoperation
WO2017008749A1 (en) Headphone having hidden video screen and various sensors
US11240482B2 (en) Information processing device, information processing method, and computer program
KR20210022394A (en) A moving robot for the blind and control method thereof
JP2022182122A (en) Evacuation guidance system, evacuation guidance device, and evacuation guidance program
佐藤雄隆 et al. A secure and reliable next generation mobility

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191112