JP2017007033A - robot - Google Patents
robot Download PDFInfo
- Publication number
- JP2017007033A JP2017007033A JP2015124986A JP2015124986A JP2017007033A JP 2017007033 A JP2017007033 A JP 2017007033A JP 2015124986 A JP2015124986 A JP 2015124986A JP 2015124986 A JP2015124986 A JP 2015124986A JP 2017007033 A JP2017007033 A JP 2017007033A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- display
- image
- control unit
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、人物に応対するロボットに関する。 The present invention relates to a robot that responds to a person.
従来から、病院や店舗等で人間の代わりにユーザと応対するロボットが開発されている。例えば特許文献1には、タブレットやディスプレイなどの表示装置を備え、当該表示装置に遠隔ユーザの映像を映し応対を行うテレプレゼンスロボットが開示されている。 Conventionally, robots that respond to users instead of humans have been developed in hospitals and stores. For example, Patent Document 1 discloses a telepresence robot that includes a display device such as a tablet or a display, and displays a video image of a remote user on the display device to respond.
ここで、上記テレプレゼンスロボットでは、遠隔ユーザの顔など一部分だけが四角形の表示装置に表示される。ゆえに、上記テレプレゼンスロボットの応対を受けた人物は、単に表示画面を見ているだけという印象を抱きがちであり、臨場感や親近感を感じにくいという問題があった。 Here, in the telepresence robot, only a part such as the face of the remote user is displayed on the square display device. Therefore, the person who has received the telepresence robot tends to have an impression that he / she is merely looking at the display screen, and there is a problem that it is difficult to feel a sense of realism and closeness.
本発明は上記問題点に鑑みたものであり、その目的は、応対を受ける人物に、より臨場感および親近感を与えることができるロボットを実現することにある。 The present invention has been made in view of the above-described problems, and an object of the present invention is to realize a robot that can give a sense of presence and a sense of closeness to a person who receives a response.
上記の課題を解決するために、本発明の一態様に係るロボットは、対象者の近傍まで移動して当該対象者に応対するロボットであって、上記対象者に上記応対を示すキャラクタの外形に類似した形状を有しており、上記キャラクタの略全身の画像を表示するディスプレイを備えることを特徴とする。 In order to solve the above problems, a robot according to one aspect of the present invention is a robot that moves to the vicinity of a target person and responds to the target person, and has an outline of a character that shows the response to the target person. It has a similar shape, and is provided with a display that displays an image of the substantially whole body of the character.
本発明の一態様によれば、応対を受ける人物に、より臨場感および親近感を与えることができるという効果を奏する。 According to one aspect of the present invention, there is an effect that it is possible to give a sense of presence and a sense of familiarity to a person who receives a response.
〔実施形態1〕
以下、本発明の第1の実施形態について図1〜4を参照して説明する。まず始めに、本実施形態に係るロボット1の装置外観について図2を参照して説明する。
Embodiment 1
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. First, the external appearance of the robot 1 according to this embodiment will be described with reference to FIG.
≪ロボット1の外観≫
図2は、ロボット1の外観の一例を示す図である。ロボット1は、自機が応対するべき人物(対象者)の近傍まで移動して当該人物に対し応対する自走型ロボットである。ここで、「応対」とは、後述するキャラクタの画像を少なくとも用いて、対象者に情報を伝達する、または入力操作や問いかけなどの対象者の行動に対し反応を返すことを示す。具体例を挙げると、応対とは、キャラクタの画像を用いた接客、道案内、会話などである。また、「近傍」とは、ロボット1が行う応対を上記対象者が認識可能な程度の距離を示す。さらに具体例を挙げれば、ロボット1は例えば空港、ショッピングセンター、イベント会場、遊園地、および美術館などの不特定多数の人物が存在する環境に配置されることが望ましい。これらの例の場合、ロボット1は、人物(対象者)を先導し目的地まで道案内したり、展示物や商品の説明を行ったり、店舗やアトラクションなどに対象者が赴くように誘導を行ったりする。ロボット1はパネルユニット10と、パネルユニット10の下部に接続された台車ユニット20とから構成される。なお、パネルユニット10および台車ユニット20の形状および配置は図2に示す形状および配置に限定されない。
≪Appearance of robot 1≫
FIG. 2 is a diagram illustrating an example of the appearance of the robot 1. The robot 1 is a self-propelled robot that moves to the vicinity of the person (target person) to which it is to respond and responds to the person. Here, “responding” indicates that at least a character image, which will be described later, is used to transmit information to the target person or to respond to the action of the target person such as an input operation or an inquiry. To give a specific example, the response includes customer service using a character image, route guidance, conversation, and the like. “Nearby” indicates a distance at which the subject can recognize the response performed by the robot 1. More specifically, it is desirable that the robot 1 be placed in an environment where there are a large number of unspecified persons such as airports, shopping centers, event venues, amusement parks, and museums. In these examples, the robot 1 leads a person (target person) and guides the destination to the destination, explains exhibits and products, and guides the target person to go to stores and attractions. Or The robot 1 includes a
パネルユニット10は、ディスプレイ17を始めとする入出力デバイスを含むユニットである。ディスプレイ17はキャラクタの画像(キャラクタ画像100)を表示する。ここで、「キャラクタ」とは、対象者に応対を示す主体となるものである。キャラクタは、例えば人物や動物など実在する存在であってもよいし、映画の登場人物やテーマパークのマスコットなど、架空の存在であってもよい。また、キャラクタ画像100はキャラクタの全身の画像、またはキャラクタの全身のうち、対象者が当該画像からキャラクタの全体像を判別できる程度の部分が含まれている画像である。すなわち、キャラクタ画像100はキャラクタの略全身の画像である。具体的には、キャラクタが人物である場合、キャラクタ画像100は人物の全身画像、足先など微細な部分を省略した画像、または当該人物の肩や腕の一部などが見切れた画像であってもよい。ロボット1は、ロボット1が配置される状況に応じたキャラクタ画像100を表示する。
The
台車ユニット20は、パネルユニット10に含まれる入出力デバイスの制御と、ロボット1全体の姿勢制御および移動制御を行うユニットである。また、台車ユニット20は左右水平方向に車軸(図示せず)を備え、車軸の両端にそれぞれ車輪21を備えている。台車ユニット20の駆動部40(後述)は、車輪21を回転させ、ロボット1の姿勢(傾き)制御および移動(走行)を行う。ロボット1の姿勢制御および移動の具体的方法については後述する。なお、本実施形態では台車ユニット20が車輪21を2輪備えている場合について説明する。しかしながら、ロボット1の姿勢制御および移動が可能であれば、車輪21の種類および個数、ならびに車軸の有無および個数は特に限定しない。例えば、台車ユニット20は車輪21を3輪または4輪備えていてもよいし、車軸を備えずボール状の1つの車輪21を備えていてもよい。
The
≪要部構成≫
(パネルユニット10の構成)
次に、図1を参照してロボット1の要部構成を説明する。図1は、ロボット1の要部構成を示すブロック図である。パネルユニット10は、アンテナ11と、各種センサ12と、カメラ13と、マイク14と、スピーカ15と、ディスプレイ17と、タッチパネル18とを含む。
≪Main part composition≫
(Configuration of panel unit 10)
Next, the configuration of the main part of the robot 1 will be described with reference to FIG. FIG. 1 is a block diagram showing a main configuration of the robot 1. The
アンテナ11は、後述する制御部30の制御に従って対象者の所持する通信端末などと無線通信を行う。なお、アンテナ11は透明アンテナで、タッチスクリーン16(ディスプレイ17)の表示面上に形成されることが望ましい。これにより、ディスプレイ17での画像表示と無線通信における入力部であるアンテナ11とを一体化し、対象者に直観的かつ簡単に無線通信を行わせることができる。アンテナ11における無線通信は、例えば対象者が通信端末からロボット1へと情報を送信する際などに用いられる。
The antenna 11 performs wireless communication with a communication terminal or the like possessed by the subject under the control of the
各種センサ12は、ロボット1の自律走行のため、ロボット1の周辺環境の情報を収集するセンサを少なくとも含むセンサ群である。各種センサ12に含まれるセンサはそれぞれ連携してロボット1の周辺環境の情報を収集する。各種センサ12が収集した情報は制御部30へ送信される。各種センサ12の種類は特に限定されないが、例えば、レンジングソナー、近接クリフ検出器、接触センサ、レーザスキャナ、3Dイメージング/深度センサ、イメージングソナーなどから、ロボット1の使用環境に応じて適したセンサを選択し配置すればよい。なお、ロボット1の自律走行以外の目的で各種センサ12の収集した情報を利用してもよい。例えば各種センサ12の取得した情報を制御部30へ送信し、制御部30にて後述する対象者の特定や応対内容の決定に利用してもよい。さらに、各種センサ12は、対象者の特定や応対内容の決定のために利用する情報を取得するためのセンサを含んでいてもよい。具体的には、各種センサ12として光学式センサを備え、当該センサの検知結果を制御部30へ送信し、制御部30にて対象者の特定や応対内容の決定に利用してもよい。
The
カメラ13は、ロボット1の周辺を撮影する。なお、より広範囲の映像を撮影することが可能なように、カメラ13はディスプレイ17の上端部に取付けられることが望ましい。カメラ13の撮影画像は制御部30へ送信される。マイク14は、対象者またはロボット1の周辺の音声を取得する。マイク14は取得した音声を制御部30に送信する。また、スピーカ15は、制御部30の制御に応じて音声を出力する。
The
タッチスクリーン16は、タッチ入力機能を備えた表示装置であって、ユーザの入力操作を受け付けるGUI(Graphical User Interface)である。タッチスクリーン16は、ディスプレイ17と、タッチパネル18とを含む。
The
ディスプレイ17は、制御部30の表示制御部33の制御に従いキャラクタ画像100を表示する。ディスプレイ17はその形状を自由に設計することが可能なフリーフォームディスプレイであり、キャラクタ画像100の外形に類似した形状に予め設計されている。例えば、キャラクタ画像100として人物画像を表示するディスプレイ17である場合、ディスプレイ17は当該人物画像のシルエット(輪郭)に類似した人型形状に形成される。なお、ディスプレイ17がキャラクタの複数種類の画像を入れ替わりで表示する場合、もしくはキャラクタの動画を表示する場合、当該ディスプレイ17の形状はいずれかのキャラクタ画像におけるキャラクタの輪郭に類似した形であればよい。このように、ディスプレイ17はキャラクタの輪郭に類似した形状をしているので、対象者に、ディスプレイ17を見ているだけという機械的な印象を与えにくく、応対またはキャラクタ自体に対する臨場感および親近感を与えることができる。また、ディスプレイ17は、一般的な四角形のディスプレイから、キャラクタ画像100の表示に不要な部分を除いた形状をしているので、上記四角形のディスプレイに比べて総面積が少ない。そのため、対象者がディスプレイの大きさにより受ける威圧感を減少させ親近感を増すことができるとともに、画面表示に係る電力消費を抑えることができる。加えて、ディスプレイ17は一般的な四角形のディスプレイよりも重量が少ないので、後述する駆動部40によるロボット1の姿勢制御や移動に係る電力消費を抑えることができる。
The
なお、ディスプレイ17が表示するキャラクタ画像100は静止画であってもよいが、動画であることがより望ましい。特に、キャラクタ画像100はキャラクタがジェスチャで応対している動画であることが望ましい。キャラクタのジェスチャを示す動画を表示することにより、応対の対象者に、キャラクタが身振り手振りで応対しているような印象を与えることができる。したがって対象者に臨場感および親近感を与えやすいという利点がある。
The
また、ディスプレイ17は、キャラクタが人物である場合、当該人物の実物大(等身大)の画像をキャラクタ画像100として表示することが望ましい。人物の実物大の画像を表示することにより、ロボット1は対象者に、上記人物が実際にその場に居て応対した場合に近い印象を与えることができる。そのため、ロボットは対象者に、応対またはキャラクタ(人物)自体に対する臨場感および親近感を与えることができる。さらには、ディスプレイ17はキャラクタ画像100以外の任意のコンテンツをキャラクタ画像100と併せて表示してもよい。例えば、ロボット1が対象者に行き先を案内する場合、キャラクタ画像100での案内とともに、行き先の映像や行き先までの経路および地図などを表示してもよい。
In addition, when the character is a person, the
なお、ディスプレイ17は、一例としてゲートドライバを液晶表示領域(ディスプレイ17の表示面内)に分散して配置した液晶ディスプレイで実現可能である。これは、従来はベゼルに並んでいたゲートドライバを自由な位置に配置できるようになるので、ディスプレイ17の四辺のうち三辺のベゼルをほぼ無くすことができ、当該三辺の長さやカーブなどが自由に設計可能になるからである。
As an example, the
タッチパネル18は、対象者の入力操作を受け付け、当該入力操作を示す情報(入力情報)を取得し制御部30へ送信する。タッチパネル18はディスプレイ17と重畳して配置される。なお、タッチパネル18は指示体の接触だけでなく近接(ホバー)を検出可能なタッチパネルであってもよい。この場合、タッチパネル18は、タッチパネル18に近接したユーザの手指のジェスチャを検出することができる。
The
なお、パネルユニット10は少なくともディスプレイ17を備えていればよく、アンテナ11、各種センサ12、カメラ13、マイク14、スピーカ15、およびタッチパネル18は必須の構成ではない。さらに、アンテナ11、各種センサ12、カメラ13、マイク14、およびスピーカ15はパネルユニット10と台車ユニット20とのいずれに配置されてもよい。
The
(台車ユニット20の構成)
一方、台車ユニット20は、通信部70と、電池80と、GPS受信機60と、メモリ50と、制御部30と、駆動部40とを含む。
(Configuration of the cart unit 20)
On the other hand, the
通信部70は、外部機器と情報の送受信を行う。通信部70の通信方式、および送受信するデータは特に限定されない。例えば、通信部70は対象者の通信端末にインストールされている所定のアプリケーションからの通知やデータ送信を受付け、受信した通知またはデータを制御部30に送ってもよい。また、通信部70は、制御部30から受信した応対内容(後述)などのデータをサーバなどの外部記憶装置に送信してもよい。電池80は、ロボット1を駆動するための電気エネルギーを供給する。なお、ロボット1は電池80の代わりにロボット1の配置された施設内の電源と接続する電源コネクタを備えていてもよい。
The
GPS受信機60は、GPS(Global Positioning System)衛星信号を受信することにより、ロボット1の現在位置を測位するものである。GPS受信機60の測位した現在位置を示す情報(位置情報)は制御部30に送信される。
The
メモリ50は、制御部30および駆動部40の制御処理に必要なデータを格納するメモリである。メモリ50は、対象者情報データベース(対象者情報DB)51と、応対内容データベース(応対内容DB)52とを含む。
The
対象者情報DB51は、制御部30が取得する各種情報(取得情報)が満たす条件を規定し、当該条件に、対象者の属性を示す情報(対象者情報)を対応付けて記憶しているデータベースである。換言すると、対象者情報DBは、ロボット1が得た何らかの情報が当該DBに規定された条件を満たした場合の、対象者の属性を示している。
The target
ここで、上記条件とは、例えば、撮影画像などから特定可能な対象者の外見的特徴の条件(特定の服装をしているか、特定のアイテムを所持しているかなど)、取得音声から音声認識により特定された発話内容に関する条件(ロボット1に施設案内を指示しているかなど)、対象者の通信端末で起動されたアプリケーションでの登録情報(会員情報など)に関する条件(年齢が20歳以上か否かなど)である。また、対象者情報とは、例えば、イベント参加者、イベント提供者(従業者)、来店した顧客、および店員など、ロボット1を使用するシーンでの対象者の状況や立場を示す情報、または、対象者が大人であるか子供であるか、男女いずれであるかなど、対象者自体の属性を示す情報である。 Here, the above-mentioned conditions are, for example, conditions of appearance characteristics of the target person who can be specified from a photographed image or the like (whether they are wearing specific clothes or possessing a specific item), and voice recognition from the acquired voice Conditions related to the utterance content specified by (such as whether the robot 1 is instructed to provide facility guidance), conditions related to registration information (member information, etc.) in an application started on the communication terminal of the subject (whether the age is 20 years or older) Or not). The target person information is, for example, information indicating the status and position of the target person in the scene using the robot 1, such as an event participant, an event provider (employee), a customer who visited the store, and a store clerk, or This is information indicating the attributes of the subject itself, such as whether the subject is an adult, a child, or a man and woman.
応対内容DB52は、対象者情報に、応対内容を示す情報を対応づけて記憶しているデータベースである。ここで、「応対内容」とは、ロボット1が対象者に対し行う一連の応対を示すものである。具体的には、応対内容とは、ディスプレイ17に表示させるキャラクタ画像100を少なくとも含み、その他対象者に提示する画像や、スピーカ15から出力する音声など、対象者に向けて出力する一連のデータを示す。
The
制御部30(動作制御部)は、ロボット1の応対を制御するものである。制御部30はパネルユニット10の各種入力デバイス(各種センサ12、カメラ13、マイク14、およびタッチパネル18)が得た情報を受信し、当該情報を用いてロボット1の応対を制御する。より詳しくは、制御部30は、対象者特定部31にて対象者を特定し、応対決定部32にてキャラクタの応対内容(すなわち、対象者に提示するキャラクタ画像100(およびキャラクタの音声))を決定する。そして、表示制御部33にてディスプレイ17(およびスピーカ15)に決定したキャラクタ画像100(および音声)を出力させる。また、制御部30は対象者の位置情報を受信した場合、位置情報が示す位置の近傍までロボット1を移動させるよう、駆動部40に指示する。なお、制御部30は、上述したパネルユニット10の各種入力デバイスから受信した情報のうちいずれかの情報を駆動部40に送り、姿勢制御および移動制御に利用させてもよい。
The control unit 30 (operation control unit) controls reception of the robot 1. The
対象者特定部31は、対象者を特定するものである。より具体的には、対象者特定部31は、制御部30が取得した各種センサ12(例えば人感センサ)の検出結果、カメラ13の映像、マイク14が取得した音声、タッチパネル18への入力情報などの少なくともいずれかを用いて対象者を特定する。なお、対象者特定部31の対象者の特定方法は特に限定されない。例えば、カメラ13によりロボット1の周辺を撮影し、撮影画像から人間の顔を、従来知られた顔認識アルゴリズムを用いて特定することにより、ロボット1の周辺に居る対象者を特定してもよい。また、マイク14により音声を取得し、音声認識により対象者を特定してもよい。また、対象者特定部31は、アンテナ11または通信部70を介し外部機器(対象者の通信端末など)から対象者を特定可能な情報を得ることにより対象者を特定してもよい。さらには、上述した対象者の特定方法を組み合わせて用いてもよい。対象者特定部31が対象者を特定すると、制御部30は駆動部40に、対象者の近傍までロボット1を移動させるよう指示する。
The target
応対決定部32は、対象者に対する応対内容を決定するものである。対象者特定部31が対象者を特定すると、応対決定部32はメモリ50の対象者情報DB51を検索し、制御部30が受信した取得情報が満たす条件を特定し、当該条件に対応する対象者情報を対象者情報DB51から読み出す。次に、応対決定部32は読み出した対象者情報に該当する応対内容を、メモリ50の応対内容DB52から読み出す。例えば、対象者情報から対象者が子供であると特定できた場合、応対決定部32は、応対内容DB52に規定されている応対内容のうち、子供に人気のある人物やマスコットのキャラクタ画像100を含む応対内容をロボット1が行う応対内容として決定してもよい。このように、対象者情報に応じて応対内容を決定することにより、ロボット1は対象者の状況や属性に応じた適切かつ効率的な応対を行うことができるとともに、対象者に応対をより印象づけ、親近感を与えることができる。なお、カメラ13が対象者を撮影する場合、制御部30は対象者の顔が撮影範囲の中央に位置する撮影画像と、カメラ13の撮影角度と焦点深度とから、対象者の身長を算出し、当該身長を対象者情報として扱っても良い。
The
また、本実施形態では、応対決定部32は対象者に応じて応対内容を決定することとしたが、応対決定部32は対象者に関わらず一律の応対内容を行うよう決定してもよい。なおこの場合、応対決定部32およびメモリ50は必須構成ではなく、制御部30はロボット1に予め定められた一律の応対を行わせればよい。また、応対決定部32は対象者情報以外の情報に応じて応対内容を決定してもよい。例えば、カメラ13の撮影画像を解析することにより、ロボット1(および対象者)周辺の混雑具合を特定して、当該混雑具合に応じて最適な応対内容を決定してもよい。また、制御部30は、マイク14を介して対象者に所望の応対内容を音声入力させ、当該音声を解析する(音声認識する)ことにより、対象者が所望する応対内容を特定してもよい。そして、応対決定部32は特定した(所望の)応対内容と同一または最も近い応対内容を応対内容DB52から読み出し、ロボット1が行う応対内容と決定してもよい。
In the present embodiment, the
表示制御部33(同期表示制御部)は、応対決定部32が決定した応対内容を示す画像をディスプレイ17に表示させるものである。より具体的には、表示制御部33は、上記応対内容を示すキャラクタ画像100をディスプレイ17に表示させる。換言すると、表示制御部33はキャラクタ画像100に含まれるキャラクタに応答を行わせる。
The display control unit 33 (synchronous display control unit) causes the
駆動部40は、ロボット1の姿勢保持および移動を統括する。駆動部40は、制御部30から対象者の位置を通知されると、当該位置の近傍まで移動するように車輪21を駆動させる。また、駆動部40は後述するジャイロセンサ44などの情報からロボット1の傾きを特定し、ロボット1が所定の姿勢を保つように姿勢制御を行う。以下、図3を用いて駆動部40についてより詳細に説明する。
The
≪駆動部40の詳細構成≫
図3は、駆動部40の詳細な構成を示すブロック図である。駆動部40は図示の通り、ジャイロセンサ44と、姿勢制御部45と、姿勢制御用アクチュエータ43と、モータ41と、エンコーダ42と、走行制御部46と、車輪21とを含む。
<< Detailed Configuration of
FIG. 3 is a block diagram showing a detailed configuration of the
ジャイロセンサ44は、ロボット1の傾きを検出し、当該ロボット1の傾きを示す情報を姿勢制御部45および走行制御部46に送信する。姿勢制御部45は、ジャイロセンサ44から受信した上記情報に応じてロボット1の姿勢を制御する。姿勢制御用アクチュエータ43は、姿勢制御部45の制御に従ってロボット1の姿勢を変えるものである。例えば、姿勢制御用アクチュエータ43は、倒立振子の原理によりロボット1の傾きが補正されるように車輪21を回転させる。
The
エンコーダ42は、モータ41の駆動状況から、ロボット1の走行方向、走行量、走行の角度を検出する。エンコーダ42が検出した走行方向、走行量、走行の角度を示す情報は走行制御部46に送信される。走行制御部46は、エンコーダ42およびジャイロセンサ44の検出した情報に応じてロボット1の移動(走行)を制御する。より具体的には、走行制御部46は対象者の近傍までロボット1が移動するように移動方向および移動距離を決定し、当該移動方向および移動距離でロボット1が移動するようにモータ41を制御する。モータ41は、走行制御部46の制御に従って駆動し、車輪21を回転させることによりロボット1を走行させる。なお、モータ41はロボット1の車輪21毎に設けられていてもよいし、車輪21全ての駆動機構としてモータ41を1つ設けていてもよい。車輪21はロボット1を移動させるものである。
The encoder 42 detects the traveling direction, traveling amount, and traveling angle of the robot 1 from the driving state of the
なお、姿勢制御部45はジャイロセンサ44の検出した情報以外の情報も考慮して姿勢制御を行ってもよい。例えば、姿勢制御部45は各種センサ12の検出した情報またはカメラ13の撮影画像から、ロボット1の傾きを特定してもよい。また、走行制御部46は、エンコーダ42およびジャイロセンサ44の検出した情報以外の情報も考慮して移動制御を行ってもよい。例えば、走行制御部46はGPS受信機60が測位するロボット1の現在位置と、アンテナ11を介し制御部30が受信した対象者の位置情報とを比較照合した結果から移動方向および移動距離を決定し、当該移動方向および移動距離でロボット1が移動するようモータ41を制御してもよい。また、走行制御部46はカメラ13の撮影画像からロボット1の現在位置またはロボット1と対象者との位置関係を特定し、特定結果を利用して移動方向および移動距離を決定してもよい。
Note that the
なお、台車ユニット20は少なくとも駆動部40を備えていればよく、制御部30、メモリ50、GPS受信機60、および通信部70はパネルユニット10に配置されていてもよい。
The
≪応対の具体例≫
次に、ロボット1が対象者を特定し、一連の応対を行うまでの処理を、具体例を挙げて説明する。まず始めに、ロボット1がイベント会場で、来場した対象者に応対を行う場合について説明する。なお、上記イベントは入場にイベントチケットが必要であり、対象者は、当該イベントに入場するため、上記イベントチケットを電子チケットとして発行するイベント専用アプリケーション(専用アプリ)を自己の通信端末にインストールしているものとする。
≪Specific example of reception≫
Next, a process until the robot 1 specifies a target person and performs a series of responses will be described with a specific example. First, a case will be described in which the robot 1 responds to a target person who has visited at an event venue. The above event requires an event ticket for admission, and the target person installs an event-dedicated application (dedicated application) that issues the event ticket as an electronic ticket in his communication terminal in order to enter the event. It shall be.
対象者はイベント会場への入場の際、自己の通信端末の専用アプリを起動させ、当該専用アプリを介しイベントチケットを取得する。そして、対象者はロボット1にイベント内容の説明などの応対を受けたい場合、当該イベントチケットの情報(チケット番号や、対象者の会員番号など)を、専用アプリを用いてロボット1に送信する。なおこのとき、専用アプリは通信端末のGPS受信機能などを用いて対象者の位置を特定し、通信端末の位置情報もロボット1に送信する。ロボット1の制御部30は上記イベントチケットの情報を受信すると、通信部70を介しイベントの情報を格納しているイベントサーバにアクセスして、当該イベントの詳細情報や、イベント会場の地図データなどを取得する。また、制御部30は上記位置情報の示す位置の近傍までロボット1を移動させるよう、駆動部40に指示する。駆動部40は制御部30の指示を受け、ロボット1を対象者(対象者の通信端末)の近傍まで移動させる。
Upon entering the event venue, the target person activates a dedicated application of his / her communication terminal and obtains an event ticket via the dedicated application. Then, when the subject wants to receive a response such as an explanation of the event contents from the robot 1, the event ticket information (ticket number, subject member number, etc.) is transmitted to the robot 1 using a dedicated application. At this time, the dedicated application uses the GPS reception function of the communication terminal to identify the position of the target person, and also transmits the position information of the communication terminal to the robot 1. Upon receiving the event ticket information, the
移動が完了すると、制御部30はイベントの開催場所および開催時間などのイベント内容を、キャラクタ画像100(および音声)を用いて対象者に説明する。なお、キャラクタ画像100を用いた説明のために対象者特定部31が行う対象者の特定、および応対決定部32が行う応対内容の決定は、上記イベントチケットの情報を制御部30が受信してからロボット1の移動が完了するまでの間に行われればよい。また、対象者が移動中である場合、ロボット1は対象者とともに移動しながら説明(応対)を行ってもよい。また、ロボット1は対象者が移動を始めた場合、説明する内容を対象者の通信端末に送信してもよい。
When the movement is completed, the
なお、ロボット1は、対象者の方からロボット1に近づいてくるまで待機していてもよい。この場合、制御部30は対象者が所定の位置に来たことを人感センサ(反射型の光学式センサなど)などが検知した場合にカメラ13に対象者を撮影させ、当該撮影画像から対象者の特定および応対内容の決定を行えばよい。もしくは、ディスプレイ17に応対の一覧を表示しておき、対象者からの指示入力があった場合、当該指示に対応する応対を行ってもよい。または、マイク14およびスピーカ15を用いた音声対話によりユーザの所望する応対を特定してもよい。
Note that the robot 1 may stand by until the subject approaches the robot 1. In this case, the
ところで、ロボット1は、カメラ13にてキャラクタ画像100の背景として表示する画像(背景画像)を撮影し、当該背景画像にキャラクタ画像100を重畳させた合成画像を表示させてもよい。以下、本実施形態に係るロボット1の変形例について、図4を参照して説明する。
Incidentally, the robot 1 may capture an image (background image) to be displayed as the background of the
図4は、ロボット1のディスプレイ17に表示する画像の一変形例を示す図である。図示の通り、本変形例におけるロボット1はカメラ13を必須構成として備えている。本変形例において、カメラ13は、ディスプレイ17の表示面の向きと反対の向きの画像を少なくとも撮影する。換言すると、カメラ13は、対象者がロボット1(ディスプレイ17)を見たときに、ディスプレイ17の背に隠れ見えなくなる背景を撮影する。以降、カメラ13が撮影した画像を背景画像と称する。カメラ13は撮影した背景画像を制御部30の表示制御部33に送信する。表示制御部33(合成画像表示制御部)は、受信した背景画像にメモリ50から読み出したキャラクタ画像100を重畳した合成画像を、ディスプレイ17に表示させる。
FIG. 4 is a view showing a modification of the image displayed on the
なお、カメラ13の配置は必ずしも図示の通りでなくともよい。しかしながら、対象者がロボット1(パネルユニット10)を見たときに、キャラクタ画像100の背景画像と周囲の(実際の)背景とのずれは少ない方が良い。ゆえに、カメラ13は、実際の背景とのずれがより少ない背景画像を撮影できる位置に配置されることが望ましい。また、ディスプレイ17として透明ディスプレイを用い、キャラクタ画像100として背景を透過した画像を用いてもよい。この場合、上述した変形例と同様の作用および効果を得ることができる。
Note that the arrangement of the
〔実施形態2〕
なお、本発明に係るロボットは、ディスプレイ17を複数のディスプレイに分割して備えるとともに、当該複数のディスプレイのうちいずれか二つを接続する可動部を少なくとも1つ備えていてもよい。そして、複数のディスプレイの表示面全体でキャラクタ画像100が表示されるように、複数のディスプレイにそれぞれキャラクタ画像100の一部を同期表示させ、当該同期表示に合わせて可動部を動作させてもよい。以下、本発明の第2実施形態について、図5に基づいて説明する。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
The robot according to the present invention may include the
図5は、本実施形態に係るロボット2の外観の一例を示す図である。図示の通り、ロボット2は、ディスプレイ17がディスプレイ17A、17B、17Cに分割されている点、ならびに、ディスプレイ17Aと、ディスプレイ17Bおよび17Cとの間にそれぞれ可動部αが設けられている点でロボット1と異なる。
FIG. 5 is a diagram illustrating an example of the appearance of the robot 2 according to the present embodiment. As shown in the figure, the robot 2 is a robot in that the
可動部αはディスプレイ同士を接続する部材であり、動作することで両ディスプレイの接続角度を調節可能な可動部材である。可動部αはサーボモータなどのモータを含んでおり、制御部30の制御に従ってサーボモータを駆動させることにより動作する。
The movable part α is a member that connects the displays, and is a movable member that can adjust the connection angle between the two displays by operating. The movable portion α includes a motor such as a servo motor, and operates by driving the servo motor according to the control of the
制御部30の表示制御部33は、応対決定部32にて応対内容、すなわち表示するキャラクタ画像100を決定すると、ディスプレイ17A(胴体部分のディスプレイ)に表示した画像とディスプレイ17Bおよび17C(腕部分のディスプレイ)に表示した画像とが繋がっているように見えるように、各ディスプレイに画像を同期表示させる。加えて、制御部30は上記同期表示と連動して可動部αのモータを制御し、ディスプレイ17Aと、ディスプレイ17Bおよび17Cとの角度をそれぞれ調節する。これにより、複数のディスプレイ全体で共調してキャラクタ画像100を表現することができる。なお、制御部30は可動部αの角度を調節するだけでなく、可動部αを動かし続けることで、キャラクタ画像100の動きを表現してもよい。制御部30が可動部を動作させることにより、キャラクタ画像100が静止画像である場合でも、動きのある応対を実現することができる。したがって、ロボット1は対象者に応対をより印象づけることができる。
When the
〔実施形態3〕
また、本発明に係るロボットは、対象者に対し行った応対の内容(応対内容)を管理サーバに送信することにより応対内容を記録してもよい。さらに、本発明に係るロボットは、キャラクタ画像での応対の後、対象者から、監視者による対応を所望する旨の指示入力があった場合、監視者端末に当該指示を通知し、監視者による対応を録画(または撮影)した動画(または画像)をディスプレイ17に表示してもよい。以下、本発明の第3実施形態について、図6〜図7に基づいて説明する。図6は、本実施形態に係る応対システム500の概要を示す図である。応対システム500は図示の通り、管理サーバ3と、監視者端末4と、ロボット1とを含む。
[Embodiment 3]
Further, the robot according to the present invention may record the content of the response by transmitting the content of the response performed on the subject (response content) to the management server. Furthermore, the robot according to the present invention notifies the instruction to the monitoring terminal when the target person inputs an instruction indicating that the monitoring person wants to respond after the response with the character image. A moving image (or image) in which the correspondence is recorded (or taken) may be displayed on the
管理サーバ3は、ロボット1からキャラクタ画像100を用いた応対内容(キャラクタの応対内容)を受信し記録する。また、管理サーバ3は後述する監視者による応対内容を監視者端末4から受信し記録する。なお、管理サーバ3は、応対内容を記録する際に、併せて応対内容の受信時間および送信元などの情報を記録してもよい。監視者端末4は、ロボット1の応対を監視している監視者4Aの使用する端末である。監視者端末は監視者4Aを撮影するためのカメラ(図示せず)を備えている。監視者端末はロボット1から監視者応対の要求を通知された場合、監視者4Aの画像(監視者4Aが対象者に向けて応対している画像または動画)を撮影し、撮影画像をロボット1に送信する。
The management server 3 receives and records the response content (character response content) using the
本実施形態に係るロボット1は、実施形態1および2にて説明した(キャラクタ画像100による)応対を対象者に行った後、制御部30から管理サーバ3へと応対内容を送信する。また、ロボット1の制御部30は、キャラクタ画像100による応対を行った後に対象者から、監視者による応対(監視者応対)を所望する旨の指示入力(例えば、タッチパネル18に対する入力操作、またはマイク14で取得した音声)を受けた場合、監視者応対の要求があったことを監視者端末4に通知する。さらに、制御部30は上記通知を送信した後監視者端末4から監視者応対の画像を受信し、表示制御部33にて当該画像をディスプレイ17に表示させる。
The robot 1 according to the present embodiment transmits the response content from the
次に、図7を参照して、本実施形態に係る応対システム500の処理の流れについて説明する。図7は、応対システム500におけるロボット1、管理サーバ3、および監視者端末4の処理の流れを示すシーケンス図である。 Next, with reference to FIG. 7, the flow of processing of the reception system 500 according to the present embodiment will be described. FIG. 7 is a sequence diagram showing a processing flow of the robot 1, the management server 3, and the supervisor terminal 4 in the response system 500.
ロボット1は、実施形態1にて説明したように、対象者の通信端末などから対象者の情報を受信すると、制御部30の対象者特定部31にて対象者を特定する(S100)。そして、制御部30は当該対象者の近傍にロボット1を移動させるよう駆動部40に指示し、駆動部40は当該指示に従い、ロボット1を対象者の近傍に移動させる(S102)。次に、制御部30は上述したように、キャラクタ画像100を用いて対象者に応対する(S104)。応対後、制御部30は通信部70を介し、応対内容を管理サーバ3に送信する。管理サーバ3は応対内容を受信し記録する(S106)。このように、キャラクタ画像100を用いた応対を行った後、ロボット1の制御部30は応対の対象者から監視者の応対を要求されたか(監視者応対を要求する指示入力があったか)否かを確認する(S108)。なお、上記要求は、キャラクタ画像100を用いた応対の終了後、ロボット1にて任意に定められた時間が経過するまでの間受け付けられればよい。
As described in the first embodiment, when the robot 1 receives the target person information from the communication terminal of the target person, the robot 1 specifies the target person in the target
対象者から監視者応対が要求された場合(S108でYES)、制御部30は監視者端末4に対し、監視者応対が要求された旨を通知する(S110)。監視者端末4は上記通知を受信すると(S112)、監視者4Aに対し監視者応対を撮影する旨を通知し、監視者4Aに、監視者応対の撮影操作を行うよう促す。監視者4Aが当該操作を行うと、監視者端末4は監視者応対を撮影し(S114)、撮影画像(静止画または動画)をロボット1に送信する(S116)。ロボット1の制御部30の表示制御部33は上記撮影画像を受信すると、上記撮影画像をディスプレイ17に表示させることにより、監視者応対を対象者に示す(S118)。これに対し、対象者から監視者応対が要求されなかった場合(S108でNO)、ロボット1はS110およびS118の処理を行わない。
When a supervisor response is requested from the subject (YES in S108), the
一方、監視者応対の撮影画像を送信した(S116)監視者端末4は、当該撮影画像を管理サーバ3に送信する(S120)。管理サーバ3は監視者応対の撮影画像を記録する(S122)。 On the other hand, the supervisor terminal 4 that has transmitted the captured image of the response to the supervisor (S116) transmits the captured image to the management server 3 (S120). The management server 3 records a captured image of the monitoring person (S122).
以上の処理によると、ロボット1の行った、キャラクタ画像100を用いた応対の内容と、監視者端末4が撮影した監視者応対の撮影画像との両方が管理サーバ3に記録される。これにより、ロボット1および監視者の行った応対の履歴を記録することができる。また、ロボット1によるキャラクタ画像100を用いた応対の後、例えば応対内容が理解できない、または応対内容が適切でない場合などに対象者が人間(監視者)による応対を要求することができる。そして、ロボット1は、監視者端末4から監視者応対の撮影画像を受信し、ディスプレイ17に表示させることができる。換言すると、ロボット1は、キャラクタによる応対と、監視者による応対とを切替えて表示することができるという利点を持つ。
According to the above processing, both the contents of the response using the
〔変形例〕
なお、上述した実施形態1の変形例の構成は、実施形態2および3の構成と組み合わせて実現してもよい。
[Modification]
The configuration of the modified example of the first embodiment described above may be realized in combination with the configurations of the second and third embodiments.
また、上記各実施形態および変形例では、ロボット1または2はキャラクタ画像100または200を表示することとしたが、ロボット1または2はキャラクタ画像100または200ではなく、カメラ13で撮影した対象者の略全身の画像をディスプレイ17に表示させてもよい。例えば、ロボット1または2によりバーチャルフィッティングを提供する場合、ロボット1または2は対象者の近傍まで移動した後、カメラ13で対象者の略全身の画像を撮影する。撮影画像は制御部30に送信され、制御部30の表示制御部33は当該撮影画像から対象者が写っている部分を切り出し、ディスプレイ17に表示させる。
In each of the above embodiments and modifications, the robot 1 or 2 displays the
さらに、ディスプレイ17に対象者の画像を表示した状態で、対象者がロボット1または2に対し、試着したい商品を指定する指示を行った場合、制御部30は当該指示を受けて、上記商品の画像をメモリ50または通信部70を介し外部サーバなどから入手し、表示制御部33にて上記対象者の画像に上記商品の画像を重畳して表示させる。これにより、ロボット1または2は、対象者が所望した商品を試着した場合の画像を表示することができる。
Further, when the target person instructs the robot 1 or 2 to specify a product to be tried on while the image of the target person is displayed on the
〔ソフトウェアによる実現例〕
制御部30の制御ブロック(特に対象者特定部31、応対決定部32、および表示制御部33)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The control blocks of the control unit 30 (particularly the
後者の場合、制御部30は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the
〔まとめ〕
本発明の態様1に係るロボット(ロボット1または2)は、対象者の近傍まで移動して当該対象者に応対するロボットであって、上記対象者に上記応対を示すキャラクタの外形に類似した形状を有しており、上記キャラクタの略全身の画像(キャラクタ画像100または200)を表示するディスプレイ(ディスプレイ17)を備えることを特徴としている。
[Summary]
The robot (robot 1 or 2) according to aspect 1 of the present invention is a robot that moves to the vicinity of the target person and responds to the target person, and has a shape similar to the outer shape of the character that shows the response to the target person And a display (display 17) for displaying an image of the substantially whole body of the character (
上記の構成によると、ロボットは応対の対象者の近傍に移動する。ここで「近傍」とは、ロボットが行う応対を上記対象者が認識可能な距離である。ロボットには、表示するキャラクタの外形に類似の形状を有するディスプレイが備えられており、当該キャラクタの略全身の画像を表示することにより上記対象者に応対を行う。 According to the above configuration, the robot moves in the vicinity of the person to be handled. Here, the “neighborhood” is a distance at which the subject can recognize the response performed by the robot. The robot is provided with a display having a shape similar to the outer shape of the character to be displayed, and responds to the target person by displaying an image of the substantially whole body of the character.
このように、キャラクタの略全身の画像で応対することにより、対象者に、その場に実在しているキャラクタが応対しているような臨場感および親近感を与えることができる。さらに、ディスプレイがキャラクタの輪郭に類似した形状をしているので、上記対象者に、ディスプレイを見ているだけという機械的な印象を与えにくく、応対またはキャラクタ自体に対する臨場感および親近感を、さらに与えることができる。 In this way, by responding with an image of the substantially whole body of the character, it is possible to give the subject a sense of realism and closeness as if the character that is actually there is responding. Furthermore, since the display has a shape similar to the outline of the character, it is difficult to give the target person a mechanical impression of just looking at the display. Can be given.
また換言すると、上記ディスプレイは、一般的な四角形のディスプレイ(キャラクタの略全身の画像を表示可能な四角形のディスプレイ)から、キャラクタの画像の表示に不要な部分を除いた形状をしているといえる。ゆえに、上記ディスプレイは一般的な四角形のディスプレイに比べて総面積が少ない。そのため、対象者がディスプレイの大きさにより受ける威圧感を減少させることができ、対象者にさらに親近感を与えることができる。 In other words, it can be said that the display has a shape obtained by removing a portion unnecessary for displaying a character image from a general rectangular display (a square display capable of displaying an image of a substantially whole body of a character). . Therefore, the total area of the display is smaller than that of a general rectangular display. Therefore, it is possible to reduce the intimidation that the subject receives depending on the size of the display, and to give the subject a closer sense of affinity.
本発明の態様2に係るロボットは、上記態様1において、上記キャラクタは人物であり、上記ディスプレイは当該人物の実物大の略全身の画像を表示することを特徴としている。 The robot according to aspect 2 of the present invention is characterized in that, in the aspect 1, the character is a person, and the display displays an image of a substantially whole body of the person in actual size.
上記の構成によると、ディスプレイは実物大の人物の映像を表示する。したがって、ロボットは対象者に、実在する上記人物に応対を受けたように感じさせることができる。結果、ロボットは対象者に、応対またはキャラクタ自体に対する臨場感および親近感を、さらに与えることができる。 According to the above configuration, the display displays an image of a full-size person. Therefore, the robot can make the subject feel as if he / she has received an answer to the actual person. As a result, the robot can further give the subject a sense of presence and familiarity with the response or the character itself.
本発明の態様3に係るロボットは、上記態様1または2において、上記ディスプレイは、上記キャラクタのジェスチャを示す動画を表示することを特徴としている。 The robot according to aspect 3 of the present invention is characterized in that, in the aspect 1 or 2, the display displays a moving image showing the gesture of the character.
上記の構成によると、ロボットは対象者への応対として、ディスプレイにキャラクタのジェスチャを示す動画を表示する。これにより、ロボットは対象者に、キャラクタが身振り手振りのジェスチャで応対しているような印象を与えることができる。したがって、ロボットは対象者に、応対またはキャラクタ自体に対する臨場感および親近感を、さらに与えることができる。 According to said structure, a robot displays the moving image which shows a gesture of a character on a display as a response to a subject. As a result, the robot can give the impression that the character is responding with gesture gestures. Therefore, the robot can further give the subject a sense of presence and a sense of familiarity with the reception or the character itself.
本発明の態様4に係るロボットは、上記態様1〜3のいずれか一態様において、少なくとも上記ディスプレイの表示面の向きと反対の向きの画像を背景画像として撮影するカメラ(カメラ13)と、上記カメラの撮影した上記背景画像に上記キャラクタの画像を重畳させた合成画像を上記ディスプレイに表示させる合成画像表示制御部(表示制御部33)と、を備えることを特徴としている。 A robot according to aspect 4 of the present invention is the robot according to any one of aspects 1 to 3, wherein the camera (camera 13) captures, as a background image, an image in a direction opposite to the direction of the display surface of the display. And a composite image display control unit (display control unit 33) that displays a composite image in which the character image is superimposed on the background image captured by the camera on the display.
上記の構成によると、カメラは表示面と反対の方向、つまり表示面を正面から見た場合に、ディスプレイの背に隠れ見えなくなる背景の画像を背景画像として撮影する。そして、表示制御部は当該背景画像にキャラクタの画像を重畳しディスプレイに表示させる。これにより、対象者などがディスプレイの表示面を見たときに、キャラクタが背景と溶け込み、あたかもその場にいるように見えるようにすることができる。したがって、ロボットは対象者に、応対またはキャラクタ自体に対する臨場感および親近感を、さらに与えることができる。 According to the above configuration, when the camera is viewed in the opposite direction to the display surface, that is, when the display surface is viewed from the front, the camera captures a background image that is hidden behind the display as a background image. And a display control part superimposes the image of a character on the said background image, and displays it on a display. As a result, when the subject or the like looks at the display surface of the display, the character blends with the background, making it appear as if he is on the spot. Therefore, the robot can further give the subject a sense of presence and a sense of familiarity with the reception or the character itself.
本発明の態様5に係るロボットは、上記態様1〜4のいずれか一態様において、上記ディスプレイは複数のディスプレイ(ディスプレイ17A〜17C)に分割されており、上記複数のディスプレイのうちいずれか二つのディスプレイを接続する少なくとも一つの可動部(可動部α)と、上記可動部を動作させることにより上記二つのディスプレイの接続角度を調節する動作制御部(制御部30)と、上記複数のディスプレイの表示面全体で上記キャラクタの略全身の画像が表示されるように、上記複数のディスプレイに上記略全身の画像の少なくとも一部を同期表示させる同期表示制御部(表示制御部33)と、を備え、上記動作制御部は、上記同期表示制御部の上記同期表示に応じて上記可動部を動作させることを特徴としている。 The robot according to aspect 5 of the present invention is the robot according to any one of the aspects 1 to 4, wherein the display is divided into a plurality of displays (displays 17A to 17C), and any two of the plurality of displays are included. At least one movable part (movable part α) for connecting the display, an operation control part (control part 30) for adjusting the connection angle of the two displays by operating the movable part, and display of the plurality of displays A synchronous display control unit (display control unit 33) for synchronously displaying at least a part of the substantially whole body image on the plurality of displays so that an image of the substantially whole body of the character is displayed on the entire surface, The operation control unit operates the movable unit according to the synchronous display of the synchronous display control unit.
上記の構成によると、同期表示制御部がキャラクタの略全身の画像を同期表示させるのに応じて、上記動作制御部は可動部を動作させる。これにより、複数のディスプレイ全体としての形状を、上記略全身の画像の表示に適した形状とすることができる。また、上記動作制御部が可動部を動作させることにより、上記略全身の画像が静止画像である場合でも、動きのある応対を実現することができる。したがって、ロボットは対象者に応対をより印象づけることができる。 According to the above configuration, the motion control unit operates the movable unit in response to the synchronous display control unit synchronously displaying an image of the substantially whole body of the character. Thereby, the shape as the whole several display can be made into the shape suitable for the display of the said image of the said substantially whole body. In addition, when the operation control unit operates the movable unit, it is possible to realize a moving response even when the substantially whole body image is a still image. Therefore, the robot can make the subject more impressed with the response.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.
本発明は、人物に応対するロボットに利用することができる。 The present invention can be used for a robot that responds to a person.
1、2 ロボット、3 管理サーバ、4 監視者端末、13 カメラ 17 ディスプレイ、30 制御部(動作制御部)、31 対象者特定部、32 応対決定部、33 表示制御部(合成画像表示制御部、同期表示制御部)、40 駆動部
1, 2 Robot, 3 Management server, 4 Monitor terminal, 13
Claims (5)
上記対象者に上記応対を示すキャラクタの外形に類似した形状を有しており、上記キャラクタの略全身の画像を表示するディスプレイを備えることを特徴とするロボット。 A robot that moves to the vicinity of the subject and responds to the subject,
A robot having a shape similar to the outer shape of the character that shows the response to the subject, and a display for displaying an image of the substantially whole body of the character.
上記カメラの撮影した上記背景画像に上記キャラクタの画像を重畳させた合成画像を上記ディスプレイに表示させる合成画像表示制御部と、を備えることを特徴とする、請求項1〜3のいずれか1項に記載のロボット。 A camera that captures at least an image in a direction opposite to the direction of the display surface of the display as a background image;
The composite image display control part which displays on the said display the synthetic | combination image which superimposed the image of the said character on the said background image which the said camera image | photographed, The any one of Claims 1-3 characterized by the above-mentioned. The robot described in 1.
上記複数のディスプレイのうちいずれか二つのディスプレイを接続する少なくとも一つの可動部と、
上記可動部を動作させることにより上記二つのディスプレイの接続角度を調節する動作制御部と、
上記複数のディスプレイの表示面全体で上記キャラクタの略全身の画像が表示されるように、上記複数のディスプレイに上記略全身の画像の少なくとも一部を同期表示させる同期表示制御部と、を備え、
上記動作制御部は、上記同期表示制御部の上記同期表示に応じて上記可動部を動作させることを特徴とする、請求項1〜4のいずれか1項に記載のロボット。 The display is divided into multiple displays,
At least one movable part connecting any two of the plurality of displays;
An operation control unit that adjusts a connection angle between the two displays by operating the movable unit;
A synchronous display control unit for synchronously displaying at least a part of the substantially whole body image on the plurality of displays so that an image of the substantially whole body of the character is displayed on the entire display surface of the plurality of displays,
5. The robot according to claim 1, wherein the operation control unit operates the movable unit according to the synchronous display of the synchronous display control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015124986A JP2017007033A (en) | 2015-06-22 | 2015-06-22 | robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015124986A JP2017007033A (en) | 2015-06-22 | 2015-06-22 | robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017007033A true JP2017007033A (en) | 2017-01-12 |
Family
ID=57760452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015124986A Pending JP2017007033A (en) | 2015-06-22 | 2015-06-22 | robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017007033A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101920620B1 (en) * | 2018-02-06 | 2018-11-21 | (주)원익로보틱스 | Robot for providing information and method for providing information using the same |
JP2020181348A (en) * | 2019-04-24 | 2020-11-05 | セコム株式会社 | Security system and monitoring display device |
JP2020182093A (en) * | 2019-04-24 | 2020-11-05 | セコム株式会社 | Monitoring display device |
JPWO2020250434A1 (en) * | 2019-06-14 | 2020-12-17 | ||
JP2022111128A (en) * | 2019-04-24 | 2022-07-29 | セコム株式会社 | Security system and monitoring display |
KR102511034B1 (en) * | 2021-10-19 | 2023-03-17 | 옥재윤 | Artificial intelligence based service robot |
JP7532941B2 (en) | 2019-07-03 | 2024-08-14 | 株式会社リコー | Information processing device, telepresence robot, base control system, remote control system, information processing method and program |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03296016A (en) * | 1990-04-16 | 1991-12-26 | Sony Corp | Display device |
JPH1195703A (en) * | 1997-09-20 | 1999-04-09 | Sefutekku Kk | Construction site display device |
JP2005172879A (en) * | 2003-12-08 | 2005-06-30 | Oki Electric Ind Co Ltd | Advertisement guiding robot and method for displaying advertisement guidance of the robot |
JP2006043780A (en) * | 2004-07-30 | 2006-02-16 | Shinshu Univ | Communication robot using curved surface face image display |
US20080029418A1 (en) * | 2006-07-11 | 2008-02-07 | Mattel, Inc. | Interactive Display Packaging For A Toy Figure |
JP2008149442A (en) * | 2006-12-14 | 2008-07-03 | Ind Technol Res Inst | Movable device with information display and interacting functions on surface thereof |
US20100175496A1 (en) * | 2009-01-14 | 2010-07-15 | Samsung Electronics Co., Ltd. | Robot |
KR20110004015A (en) * | 2009-07-07 | 2011-01-13 | 송세경 | Intelligent mobile restaurant robot for serving custom and counting money |
JP3168253U (en) * | 2011-03-24 | 2011-06-02 | ブレーンコンピューター株式会社 | Reception guide device |
JP2011150221A (en) * | 2010-01-25 | 2011-08-04 | Seiko Epson Corp | Apparatus for mounting video output equipment, and method for projection of video output equipment |
JP2013200854A (en) * | 2012-02-22 | 2013-10-03 | Nikon Corp | Electronic device and program |
JP2013205518A (en) * | 2012-03-27 | 2013-10-07 | Sega Corp | Video display apparatus |
JP2014035541A (en) * | 2012-08-10 | 2014-02-24 | Casio Comput Co Ltd | Content reproduction control device, content reproduction control method, and program |
JP2014182332A (en) * | 2013-03-21 | 2014-09-29 | Casio Comput Co Ltd | Signage device |
US20150062117A1 (en) * | 2013-08-30 | 2015-03-05 | Qualcomm Incorporated | System and method for determining the extent of a plane in an augmented reality environment |
-
2015
- 2015-06-22 JP JP2015124986A patent/JP2017007033A/en active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03296016A (en) * | 1990-04-16 | 1991-12-26 | Sony Corp | Display device |
JPH1195703A (en) * | 1997-09-20 | 1999-04-09 | Sefutekku Kk | Construction site display device |
JP2005172879A (en) * | 2003-12-08 | 2005-06-30 | Oki Electric Ind Co Ltd | Advertisement guiding robot and method for displaying advertisement guidance of the robot |
JP2006043780A (en) * | 2004-07-30 | 2006-02-16 | Shinshu Univ | Communication robot using curved surface face image display |
US20080029418A1 (en) * | 2006-07-11 | 2008-02-07 | Mattel, Inc. | Interactive Display Packaging For A Toy Figure |
JP2008149442A (en) * | 2006-12-14 | 2008-07-03 | Ind Technol Res Inst | Movable device with information display and interacting functions on surface thereof |
US20100175496A1 (en) * | 2009-01-14 | 2010-07-15 | Samsung Electronics Co., Ltd. | Robot |
KR20110004015A (en) * | 2009-07-07 | 2011-01-13 | 송세경 | Intelligent mobile restaurant robot for serving custom and counting money |
JP2011150221A (en) * | 2010-01-25 | 2011-08-04 | Seiko Epson Corp | Apparatus for mounting video output equipment, and method for projection of video output equipment |
JP3168253U (en) * | 2011-03-24 | 2011-06-02 | ブレーンコンピューター株式会社 | Reception guide device |
JP2013200854A (en) * | 2012-02-22 | 2013-10-03 | Nikon Corp | Electronic device and program |
JP2013205518A (en) * | 2012-03-27 | 2013-10-07 | Sega Corp | Video display apparatus |
JP2014035541A (en) * | 2012-08-10 | 2014-02-24 | Casio Comput Co Ltd | Content reproduction control device, content reproduction control method, and program |
JP2014182332A (en) * | 2013-03-21 | 2014-09-29 | Casio Comput Co Ltd | Signage device |
US20150062117A1 (en) * | 2013-08-30 | 2015-03-05 | Qualcomm Incorporated | System and method for determining the extent of a plane in an augmented reality environment |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101920620B1 (en) * | 2018-02-06 | 2018-11-21 | (주)원익로보틱스 | Robot for providing information and method for providing information using the same |
WO2019156280A1 (en) * | 2018-02-06 | 2019-08-15 | (주)원익로보틱스 | Robot for providing information and method for providing information by using same |
JP2020181348A (en) * | 2019-04-24 | 2020-11-05 | セコム株式会社 | Security system and monitoring display device |
JP2020182093A (en) * | 2019-04-24 | 2020-11-05 | セコム株式会社 | Monitoring display device |
JP2022111128A (en) * | 2019-04-24 | 2022-07-29 | セコム株式会社 | Security system and monitoring display |
JP7308068B2 (en) | 2019-04-24 | 2023-07-13 | セコム株式会社 | Security system and surveillance display |
JP7334054B2 (en) | 2019-04-24 | 2023-08-28 | セコム株式会社 | surveillance display |
JPWO2020250434A1 (en) * | 2019-06-14 | 2020-12-17 | ||
JP7317395B2 (en) | 2019-06-14 | 2023-07-31 | 株式会社ロボ・ガレージ | THIN PORTABLE COMMUNICATION TERMINAL, CONTROL METHOD AND CONTROL PROGRAM THEREOF |
JP7532941B2 (en) | 2019-07-03 | 2024-08-14 | 株式会社リコー | Information processing device, telepresence robot, base control system, remote control system, information processing method and program |
KR102511034B1 (en) * | 2021-10-19 | 2023-03-17 | 옥재윤 | Artificial intelligence based service robot |
WO2023068737A1 (en) * | 2021-10-19 | 2023-04-27 | 옥재윤 | Artificial-intelligence-based service robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017007033A (en) | robot | |
US11892851B2 (en) | System and methods for tagging accessibility features with a motorized mobile system | |
US9796093B2 (en) | Customer service robot and related systems and methods | |
US10024667B2 (en) | Wearable earpiece for providing social and environmental awareness | |
US9922236B2 (en) | Wearable eyeglasses for providing social and environmental awareness | |
US9316502B2 (en) | Intelligent mobility aid device and method of navigating and providing assistance to a user thereof | |
US10024678B2 (en) | Wearable clip for providing social and environmental awareness | |
US10311400B2 (en) | Intelligent service robot and related systems and methods | |
US20200366816A1 (en) | System and methods involving edge camera assemblies in handheld devices | |
US10248856B2 (en) | Smart necklace with stereo vision and onboard processing | |
KR102018763B1 (en) | Interfacing with a mobile telepresence robot | |
US11364631B2 (en) | Method of operating mobile robot | |
WO2018121283A1 (en) | Service providing method and device, mobile service apparatus, and storage medium | |
JP6150429B2 (en) | Robot control system, robot, output control program, and output control method | |
KR20180040907A (en) | Airport robot | |
JP2017170568A (en) | Service providing robot system | |
US11766779B2 (en) | Mobile robot for recognizing queue and operating method of mobile robot | |
US11027430B2 (en) | Systems and methods for latency compensation in robotic teleoperation | |
WO2017008749A1 (en) | Headphone having hidden video screen and various sensors | |
US11240482B2 (en) | Information processing device, information processing method, and computer program | |
KR20210022394A (en) | A moving robot for the blind and control method thereof | |
JP2022182122A (en) | Evacuation guidance system, evacuation guidance device, and evacuation guidance program | |
佐藤雄隆 et al. | A secure and reliable next generation mobility |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191112 |