JP2015066623A - Robot control system and robot - Google Patents
Robot control system and robot Download PDFInfo
- Publication number
- JP2015066623A JP2015066623A JP2013202375A JP2013202375A JP2015066623A JP 2015066623 A JP2015066623 A JP 2015066623A JP 2013202375 A JP2013202375 A JP 2013202375A JP 2013202375 A JP2013202375 A JP 2013202375A JP 2015066623 A JP2015066623 A JP 2015066623A
- Authority
- JP
- Japan
- Prior art keywords
- user
- robot
- history
- utterance content
- control system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
この発明は、ロボット制御システムおよびロボットに関し、特にたとえば、来場者に展示物の説明などの案内情報を発話コンテンツとして提供する、ロボット制御システムおよびロボットに関する。 The present invention relates to a robot control system and a robot, and more particularly, to a robot control system and a robot that provide, for example, guidance information such as explanations of exhibits to a visitor as uttered content.
背景技術の一例である非特許文献1では、科学館内を案内するロボットが、その場での見学履歴から、まだ見ていない展示物についてユーザに説明する。
In Non-Patent
非特許文献1は、ユーザにできるだけ多くの展示物を見てもらう案内ロボットとして有効であるが、その場での案内に限られるので、ユーザに対して必ずしも適切な説明ができるとは限らない。
Non-Patent
それゆえに、この発明の主たる目的は、新規な、ロボット制御システムおよびロボットを提供することである。 Therefore, the main object of the present invention is to provide a novel robot control system and robot.
この発明の他の目的は、適切な案内情報を提供できる、ロボット制御システムおよびロボットを提供することである。 Another object of the present invention is to provide a robot control system and a robot that can provide appropriate guidance information.
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.
第1の発明は、展示物が置かれた展示会場内においてユーザに発話コンテンツを出力するロボットを含む、ロボット制御システムであって、ユーザが来場した際の閲覧行動を履歴として記録する記録手段、およびユーザが再来場したとき、履歴に基づいて決まる発話コンテンツをロボットから出力させる出力手段を備える、ロボット制御システムである。 A first invention is a robot control system including a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed, and recording means for recording browsing behavior when the user visits as a history, And a robot control system comprising output means for outputting the utterance content determined based on the history from the robot when the user comes again.
第1の発明では、ロボット制御システム(100:実施例において対応する部分を例示する参照符号。以下、同じ。)のロボット(10)は、展示物(E)が置かれた展示会場の中を自律移動できる。記録手段(16, S9, 336)は、たとえば各ユーザがそれぞれの展示物に対してどの程度の時間閲覧したか(閲覧時間)などを閲覧行動の履歴として記録する。出力手段(16, S27, S29)は、ユーザが再来場したとき、閲覧行動の履歴を読み出し、その履歴に基づいて発話コンテンツを決めてロボットから発話させる。たとえば、ユーザが特定の展示物について比較的長時間閲覧した記録があれば、「***をよく見ていましたね。」のような発話コンテンツを出力させる。たとえば、ユーザが展示物を殆んど見ないでその展示会場を通過しただけという閲覧行動の履歴があれば、「ゆっくり見ていってください。」のような発話コンテンツを出力させる。 In the first invention, the robot (10) of the robot control system (100: reference numerals exemplifying corresponding parts in the embodiment; the same applies hereinafter) is located in the exhibition hall where the exhibit (E) is placed. Can move autonomously. The recording means (16, S9, 336) records, for example, how long each user has viewed each exhibit (viewing time) as a browsing action history. The output means (16, S27, S29) reads the browsing behavior history when the user revisits, determines speech content based on the history, and causes the robot to speak. For example, if there is a record that the user has browsed a specific exhibit for a relatively long time, an utterance content such as “I watched *** well” is output. For example, if there is a history of browsing behavior that the user has passed through the exhibition hall without almost viewing the exhibits, utterance content such as “Please watch slowly” is output.
第1の発明によれば、ユーザの閲覧行動の履歴に応じて発話コンテンツを出力するので、ユーザに適切な案内情報を提供することができる。 According to the first aspect, since the utterance content is output according to the user's browsing behavior history, appropriate guidance information can be provided to the user.
第2の発明は、第1の発明に従属し、出力手段は、当該ユーザの前回来場時の閲覧行動の履歴に基づいて決まる発話コンテンツを出力させる、ロボット制御システムである。 A second invention is a robot control system according to the first invention, wherein the output means outputs an utterance content determined based on a browsing behavior history when the user visited the previous time.
第2の発明では、たとえば、ユーザが特定の展示物について比較的長時間閲覧した記録があれば、「前回は***をよく見ていましたね。今回は別の展示物も見ていってください」のような発話コンテンツを出力させる。たとえば、ユーザが展示物を殆んど見ないでその展示会場を通過しただけという閲覧行動の履歴があれば、「前回はあまり見てくれなかったようですが、今回はゆっくり見てください。」のような発話コンテンツを出力させる。 In the second invention, for example, if there is a record that the user browsed a specific exhibit for a relatively long time, “I watched *** last time. Utterance content such as "Please" is output. For example, if there is a history of browsing behavior that the user has only passed through the exhibition hall without looking at the exhibition, “Look at the last time, but look at this time slowly.” Utterance content is output.
第2の発明によれば、前回来場時の閲覧行動の履歴に基づいて決まる発話コンテンツを出力するので、ユーザに適切な案内情報を提供することができるだけでなく、ロボットがユーザをよく観察しているという印象を与えることができ、ユーザのロボットに対する親近感を増すことが期待できる。 According to the second invention, since the utterance content determined based on the browsing behavior history at the previous visit is output, it is possible not only to provide appropriate guidance information to the user but also for the robot to observe the user well It is possible to give an impression that the user is present, and it can be expected to increase the familiarity of the user with the robot.
第3の発明は、第2の発明に従属し、発話コンテンツは当該ユーザの前回来場時の閲覧行動に言及するフレーズを含む、ロボット制御システムである。 A third invention is a robot control system according to the second invention, wherein the utterance content includes a phrase that refers to a browsing action when the user visited the previous time.
第3の発明では、たとえば「前回は***をよく見ていましたね。」とか、「前回はあまり見てくれなかったようですね。」のように、前回の閲覧行動に直接言及するフレーズを含む、発話コンテンツを出力させる。 The third invention includes phrases that directly refer to the previous browsing behavior, such as “Looked at *** well in the last time” or “Looked like you did n’t see it too much last time”. , Utterance content is output.
第3の発明によれば、ユーザの前回来場時の閲覧行動に言及するフレーズを含む発話コンテンツを出力するので、ロボットがユーザをよく観察しているという強い印象を与えることができ、ユーザのロボットに対する親近感を一層増すことが期待できる。 According to the third aspect of the invention, since the utterance content including the phrase that refers to the browsing behavior at the previous visit of the user is output, it is possible to give a strong impression that the robot is observing the user well. It can be expected to increase the sense of familiarity with.
第4の発明は、第1ないし第3の発明のいずれかに従属し、ユーザの前回来場時の閲覧合計時間を計算する計算手段、および閲覧合計時間が所定時間より短いかどうか判断する判断手段をさらに備え、出力手段は判断手段の判断結果に応じて、発話コンテンツを決める。 A fourth invention is dependent on any one of the first to third inventions, a calculating means for calculating a total viewing time when the user visited the previous time, and a judging means for judging whether or not the total browsing time is shorter than a predetermined time. The output means determines the utterance content according to the determination result of the determination means.
第4の発明では、計算手段(16, S23)がユーザの前回来場時の閲覧合計時間、すなわち、当該ユーザがその展示会場に展示しているそれぞれの展示物を閲覧した時間の合計を計算する。そして、判断手段(16, S25)はその閲覧合計時間が所定時間(たとえば、60秒)未満かどうか判断する。出力手段は、判断手段の判断結果に応じて、つまり、前回の閲覧合計時間が所定時間より短いかどうかに応じて、発話コンテンツを決定して出力する。 In the fourth invention, the calculation means (16, S23) calculates the total viewing time when the user visited the previous time, that is, the total time when the user browsed each exhibit exhibited in the exhibition hall. . Then, the judging means (16, S25) judges whether the total browsing time is less than a predetermined time (for example, 60 seconds). The output means determines and outputs the utterance content according to the determination result of the determination means, that is, according to whether the previous browsing total time is shorter than the predetermined time.
第4の発明によれば、前回のユーザの閲覧合計時間、つまり、前回のユーザの大局的行動履歴に基づいて適切な案内情報を提供することができる。 According to the fourth aspect of the invention, it is possible to provide appropriate guidance information based on the previous total browsing time of the user, that is, the global action history of the previous user.
第5の発明は、展示物が置かれた展示会場内においてユーザに発話コンテンツを出力するロボットを含む、ロボット制御システムのコンピュータによって実行されるロボット制御プログラムであって、前記コンピュータを、ユーザが来場した際の閲覧行動を履歴として記録する記録手段、およびユーザが再来場したとき、履歴に基づいて決まる発話コンテンツをロボットから出力させる出力手段として機能させる、ロボット制御プログラムである。 A fifth invention is a robot control program executed by a computer of a robot control system, including a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed, wherein the user visits the computer It is a robot control program for functioning as a recording means for recording the browsing behavior as a history and an output means for outputting the utterance content determined based on the history from the robot when the user comes back.
第6の発明は、展示物が置かれた展示会場内においてユーザに発話コンテンツを出力するロボットを含む、ロボット制御システムのコンピュータによって実行されるロボット制御方法であって、ユーザが来場した際の閲覧行動を履歴として記録する記録ステップ、およびユーザが再来場したとき、履歴に基づいて決まる発話コンテンツをロボットから出力させる出力ステップを含む、ロボット制御方法である。 A sixth invention is a robot control method executed by a computer of a robot control system, including a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed, and browsing when the user visits A robot control method includes a recording step of recording an action as a history, and an output step of outputting utterance content determined based on the history from the robot when the user comes back.
第5の発明または第6の発明によれば、第1の発明と同様の効果が期待できる。 According to the fifth or sixth invention, the same effect as that of the first invention can be expected.
第7の発明は、展示物が置かれた展示会場内においてユーザに発話コンテンツを出力するロボットであって、ユーザが来場した際の閲覧行動を履歴として記録する記録手段、およびユーザが再来場したとき、履歴に基づいて決まる発話コンテンツを出力する出力手段を備える、ロボットである。 A seventh invention is a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed, recording means for recording browsing behavior as a history when the user visited, and the user revisited In some cases, the robot includes output means for outputting utterance content determined based on the history.
第7の発明によれば、ユーザに対して適切な案内情報を提供するロボットが得られる。 According to the seventh aspect, a robot that provides appropriate guidance information to the user can be obtained.
この発明によれば、ユーザに適切な案内情報を提供することができる。 According to this invention, it is possible to provide appropriate guidance information to the user.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のロボット制御システム100は、展示物Eが置かれた展示会場などの空間(環境)で利用される。展示会場の中では、ユーザ(来場者)およびロボット10が任意に移動することができ、天井には、この展示会場内でのすべてのユーザの位置やその身体の向きを検出するための複数の距離画像センサ12(12a,12b,…)が設けられている。
With reference to FIG. 1, the
ロボット10は、相互作用指向のロボット(コミュニケーションロボット)でもあり、ユーザのようなコミュニケーションの対象との間で、身振り手振りのような身体動作や音声でのコミュニケーション行動を実行する機能を備えている。また、ロボット10はコミュニケーションの一環として、展示物Eについての説明(発話コンテンツ)をユーザに対して出力したり、展示会場を案内したりするサービスを行う。ロボット10は、サービスを行う上で必要であれば、展示会場内を自律的に移動したり、中央制御装置14が付与する行動命令に基づいて動作したりする。
The
また、実施例の空間は展示物Eが置かれた展示会場であるが、これに限らずショッピングモール、会社のフロア、博物館またはアトラクション会場などでも、ロボット制御システム100は利用可能である。
The space of the embodiment is an exhibition hall where the exhibition E is placed, but the
なお、図1では簡単のため、ユーザは1人しか示していないが、展示会場にはさらに多くのユーザがいてもよい。同様にロボット10も1台しか示していないが、ロボット制御システム100は2台より多くのロボット10を同時に制御することができる。
For simplicity, only one user is shown in FIG. 1, but there may be more users in the exhibition hall. Similarly, although only one
図2はこのような展示会場(空間)の平面的な位置を示す地図である。図2を参照して、展示会場には、複数の(この実施例では3つの)展示物E(E1,E2,E3)が展示される。展示会場には出入口が形成され、この出入口にはRFIDタグのデータを読み取るためのタグリーダ13(図3、図4)が設置されている。たとえば、ユーザは、自身が持つRFIDタグをタグリーダに読み取らせた後、展示会場に入場する。RFIDタグにはユーザIDが記憶されており、タグリーダはRFIDタグからユーザIDを読み取り、それを中央制御装置14(図3、図4)に送信する。 FIG. 2 is a map showing the planar position of such an exhibition hall (space). Referring to FIG. 2, a plurality (three in this embodiment) of exhibits E (E1, E2, E3) are displayed at the exhibition hall. An entrance / exit is formed in the exhibition hall, and a tag reader 13 (FIGS. 3 and 4) for reading RFID tag data is installed at the entrance / exit. For example, the user enters the exhibition hall after having the tag reader read the RFID tag held by the user. The RFID tag stores a user ID, and the tag reader reads the user ID from the RFID tag and transmits it to the central controller 14 (FIGS. 3 and 4).
なお、RFIDタグとしては任意のものが利用可能である。ただし、この実施例は、同じ来場者が2回目以降に来場した際に、前回の閲覧行動の履歴を参照して、適切な案内情報を提示する(たとえば、発話コンテンツを出力する)ことを意図したものであるので、この実施例では来場者(ユーザ)を個別的に特定する必要がある。そのため、実施例で用いられるRFIDタグとしては、各個人に固有のものである、たとえば会員カード、携帯電話機(スマートフォンを含む)、車のキーなどに仕込まれたものが考えられる。 An arbitrary RFID tag can be used. However, this embodiment is intended to present appropriate guidance information (for example, output utterance content) by referring to the history of the previous browsing behavior when the same visitor comes after the second time. Therefore, in this embodiment, it is necessary to individually specify visitors (users). For this reason, the RFID tag used in the embodiments may be unique to each individual, for example, a member card, a mobile phone (including a smartphone), a car key, or the like.
ただし、展示会場の出入口に、カメラを設けておき、そのカメラで撮影したユーザの顔画像を画像処理することによって、ユーザ個人を特定するようにしてもよい。そうすれば、ユーザにRFIDタグを提示させる面倒が回避できる。 However, a user may be specified by providing a camera at the entrance / exit of the exhibition hall and performing image processing on the user's face image captured by the camera. Then, the trouble of presenting the RFID tag to the user can be avoided.
展示会場内の各展示物E1、E2、E3にはそれぞれ説明可能範囲A1、A2、A3が設定されている。説明可能範囲Aとは、ユーザがこの範囲に入っていれば、当該展示物に対する説明(案内情報)をロボット10がユーザに提供する、そのような範囲のことである。これら説明可能範囲A1、A2、A3の位置、形状、サイズなどの座標データは、対応の展示物E1、E2、E3の重心C1、C2、C3の位置、形状、サイズなどの座標データと一緒に、後述の地図データ332(図7)として、予め記憶されている。
Explainable ranges A1, A2, and A3 are set for the exhibits E1, E2, and E3 in the exhibition hall, respectively. The explainable range A is such a range in which the
なお、この実施例では、ユーザが各展示物Eiの説明可能範囲Ai内に存在するとき、そのユーザは展示物Eiを閲覧したものとみなす。 In this embodiment, when the user exists in the explainable range Ai of each exhibit Ei, the user is considered to have viewed the exhibit Ei.
図3を参照して、ロボット制御システム100の中央制御装置14は、一定時間(たとえば、1秒)毎に距離画像センサ12a,12b、…によって、任意に移動するユーザの位置を検出すると共に、ユーザの向きを検出する。また、中央制御装置14は、ネットワーク1000を介してロボット10と無線通信を行い、必要であればロボット10の行動を制御する。
Referring to FIG. 3, the
図3は中央制御装置14の電気的な構成を示すブロック図である。図3を参照して、中央制御装置14は、距離画像センサ12a,12bおよびプロセサ16などを含む。プロセサ16は、コンピュータ或いはCPUと呼ばれることもある。プロセサ16には、先述した距離画像センサ12aおよび距離画像センサ12bに加えて、他の距離画像センサ12が接続される。なお、距離画像センサ12a,12bを区別する必要がない場合、単に「距離画像センサ12」と言う。
FIG. 3 is a block diagram showing an electrical configuration of the
プロセサ16にはメモリ18および通信LANボード20が接続される。
A
距離画像センサ12は、赤外光またはレーザーなどの光を照射し、対象物から反射した光(反射光)をCCDセンサなどの光学センサによって捉える。距離画像センサ12は、光が戻るまでの時間を画素毎に計測することで、対象物までの実際の距離を測定する。実施例の距離画像センサ12には、ASUS(登録商標)製のXtion(登録商標)と呼ばれる製品が採用されている。なお、他の実施例では、距離画像センサ12は、Microsoft(登録商標)製のKinect(登録商標)センサ、パナソニック(登録商標)製の3次元距離画像センサD-IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと呼ばれる場合もある。 The distance image sensor 12 irradiates light such as infrared light or laser, and captures light reflected from the object (reflected light) by an optical sensor such as a CCD sensor. The distance image sensor 12 measures the actual distance to the object by measuring the time until the light returns for each pixel. The distance image sensor 12 of the embodiment employs a product called Xtion (registered trademark) manufactured by ASUS (registered trademark). In another embodiment, the distance image sensor 12 uses a Kinect (registered trademark) sensor manufactured by Microsoft (registered trademark), a three-dimensional distance image sensor D-IMager (registered trademark) manufactured by Panasonic (registered trademark), or the like. It is also possible to do. This type of sensor is sometimes called a three-dimensional distance measuring sensor, a 3D scanner, or the like.
プロセサ16は、このような距離画像センサ12を通じて対象(ユーザ)の3次元情報を取得する。距離画像センサ12からの3次元情報には、対象の形状および対象までの距離が含まれている。たとえば、ユーザが天井に設けられた距離画像センサ12によってセンシングされると、ユーザを上から見た状態の頭部および両肩の形状と、頭部および両肩までの距離が3次元情報として得られる。
The
たとえば、展示会場には35個の距離画像センサ12が所定の位置(既知)に設置されており、プロセサ16は、各々から3次元情報を取得して、3次元空間(ワールド座標系)における位置(たとえば、重心など特徴点の位置座標(x,y,z))およびユーザの向き(たとえば、頭部および両肩など特徴部位の向き)を計算することができる。
For example, 35 distance image sensors 12 are installed at predetermined positions (known) in the exhibition hall, and the
なお、他の実施例では、距離画像センサ12ではなく、2次元または3次元のLRFを利用して、ユーザの位置および向きが検出されてもよい。 In another embodiment, the position and orientation of the user may be detected using a two-dimensional or three-dimensional LRF instead of the distance image sensor 12.
メモリ18はROM,HDDおよびRAMを含む。ROMおよびHDDには、中央制御装置14の動作を制御するための制御プログラム予め記憶される。また、RAMは、プロセサ16のワークメモリやバッファメモリとして用いられる。
The
通信LANボード20は、たとえばDSPで構成され、プロセサ16から与えられた送信データを無線通信装置22に与え、無線通信装置22は送信データを、ネットワーク1000を介してロボット10に送信する。たとえば、送信データは、ロボット10の自律移動に必要なデータや、サービスを行うために必要なデータおよびロボット10に指示する行動命令の信号(コマンド)などである。また、通信LANボード20は、無線通信装置22を介してデータを受信し、受信したデータをプロセサ16に与える。
The
なお、他の実施例では、中央制御装置14は、ディスプレイなどの出力装置と、マウスおよびキーボードなどの入力装置とを備えていてもよい。
In another embodiment, the
図5はこの実施例のロボット10の外観を示す正面図である。図5を参照して、ロボット10は台車40を含み、台車40の下面にはロボット10を自律移動させる2つの車輪42および1つの従輪44が設けられる。2つの車輪42は車輪モータ46(図6参照)によってそれぞれ独立に駆動され、台車40すなわちロボット10を前後左右の任意方向に動かすことができる。また、従輪44は車輪42を補助する補助輪である。したがって、ロボット10は、配置された空間内を自律制御によって移動可能である。
FIG. 5 is a front view showing the appearance of the
台車40の上には、円柱形のセンサ取り付けパネル48が設けられ、このセンサ取り付けパネル48には、多数の赤外線距離センサ50が取り付けられる。これらの赤外線距離センサ50は、センサ取り付けパネル48すなわちロボット10の周囲の物体(ユーザや障害物など)との距離を測定するものである。
A cylindrical
なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、LRFや、超音波距離センサおよびミリ波レーダなどを用いることもできる。 In this embodiment, an infrared distance sensor is used as the distance sensor. However, an LRF, an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.
センサ取り付けパネル48の上には、胴体52が直立するように設けられる。また、胴体52の前方中央上部(ユーザの胸に相当する位置)には、上述した赤外線距離センサ50がさらに設けられ、ロボット10の前方の主としてユーザとの距離を計測する。また、胴体52には、その側面側上端部のほぼ中央から伸びる支柱54が設けられ、支柱54の上には、全方位カメラ56が設けられる。全方位カメラ56は、ロボット10の周囲を撮影するものであり、後述する眼カメラ80とは区別される。この全方位カメラ56としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ50および全方位カメラ56の設置位置は、当該部位に限定されず適宜変更され得る。
On the
胴体52の両側上端部(ユーザの肩に相当する位置)には、それぞれ、肩関節58Rおよび肩関節58Lによって、上腕60Rおよび上腕60Lが設けられる。図示は省略するが、肩関節58Rおよび肩関節58Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節58Rは、直交する3軸のそれぞれの軸廻りにおいて上腕60Rの角度を制御できる。肩関節58Rの或る軸(ヨー軸)は、上腕60Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節58Lは、直交する3軸のそれぞれの軸廻りにおいて上腕60Lの角度を制御できる。肩関節58Lの或る軸(ヨー軸)は、上腕60Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。
An
また、上腕60Rおよび上腕60Lのそれぞれの先端には、肘関節62Rおよび肘関節62Lが設けられる。図示は省略するが、肘関節62Rおよび肘関節62Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕64Rおよび前腕64Lの角度を制御できる。
Further, an elbow joint 62R and an elbow joint 62L are provided at the tips of the
前腕64Rおよび前腕64Lのそれぞれの先端には、手66Rおよび手66Lがそれぞれ設けられる。各手66には、ユーザと同じように親指、ユーザ差し指、中指、薬指および小指が設けられている。手66の親指およびユーザ差し指の根本には指関節(図示せず)が設けられており、それぞれを独立して動かすことができる。また、中指、薬指および小指は一体成型され、親指およびユーザ差し指と同様、根元に指関節が設けられている。そして、中指、薬指および小指はまとめて動かすことが出来る。
A
また、手66Rおよび手66Lのそれぞれ根元には、手首が設けられる。図示は省略するが、左右の手首は、それぞれ1軸の自由度を有し、この軸(ヨー軸)の軸回りにおいて手66Rおよび手66Lの角度を制御できる。また、図示は省略するが手66Rおよび手66Lの親指、ユーザ差し指および残りの3本の指(中指、薬指および小指)の指関節は、それぞれ1自由度を有し、この軸の軸回りにおいて指の角度を制御できる。
In addition, wrists are provided at the bases of the
従って、ロボット10は、親指、中指、薬指および小指が折り曲げられた指さしの状態の手66で任意の対象をポインティングしたり、手を開いた状態で上腕60、前腕64および手66の全体を使って任意の対象をポインティングしたりすることが可能となる。そのため、上腕60、前腕64および手66はポインティング手段と呼ばれることもある。
Accordingly, the
なお、他の実施例では、ユーザと同じようにそれぞれの指が独立し、かつユーザの指と同じ数の指関節を持つ手66が採用されてもよい。この場合、ロボット10は、ポインティングだけでなく、物を指で掴んだり、手話によるコミュニケーションを行ったりすることが可能となる。
In another embodiment, as in the case of the user, a hand 66 may be employed in which each finger is independent and has the same number of finger joints as the user's finger. In this case, the
また、図示は省略するが、台車40の前面、肩関節58Rと肩関節58Lとを含む肩に相当する部位、上腕60R、上腕60L、前腕64R、前腕64L、手66Rおよび手66Lには、それぞれ、接触センサ68(図5で包括的に示す)が設けられる。台車40の前面の接触センサ68は、台車40へのユーザや他の障害物の接触を検知する。したがって、ロボット10は、自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪42の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ68は、当該各部位に触れたかどうかを検知する。なお、接触センサ68の設置位置は、当該部位に限定されず、適宜な位置(ユーザの胸、腹、脇、背中および腰に相当する位置)に設けられてもよい。
Although not shown, the front surface of the
胴体52の中央上部(ユーザの首に相当する位置)には首関節70が設けられ、さらにその上には頭部72が設けられる。図示は省略するが、首関節70は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
A neck joint 70 is provided at the upper center of the body 52 (a position corresponding to the user's neck), and a
頭部72には、ユーザの口に相当する位置に、スピーカ74が設けられる。スピーカ74は、ロボット10が、それの周辺のユーザに対して音声ないし音によってコミュニケーションを取るためや、後述の発話コンテンツをユーザに対して出力するためなど用いられる。また、ユーザの耳に相当する位置には、マイク76Rおよびマイク76Lが設けられる。以下、右のマイク76Rと左のマイク76Lとをまとめてマイク76と言うことがある。マイク76は、周囲の音、とりわけコミュニケーションを実行する対象であるユーザの音声を取り込む。さらに、ユーザの目に相当する位置には、眼球部78Rおよび眼球部78Lが設けられる。眼球部78Rおよび眼球部78Lは、それぞれ眼カメラ80Rおよび眼カメラ80Lを含む。以下、右の眼球部78Rと左の眼球部78Lとをまとめて眼球部78と言うことがある。また、右の眼カメラ80Rと左の眼カメラ80Lとをまとめて眼カメラ80と言うことがある。
The
眼カメラ80は、ロボット10に接近したユーザの顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ80は、上述した全方位カメラ56と同様のカメラを用いることができる。たとえば、眼カメラ80は、眼球部78内に固定され、眼球部78は、眼球支持部(図示せず)を介して頭部72内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部72の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部72の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部78ないし眼カメラ80の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ74、マイク76および眼カメラ80の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。
The
このように、この実施例のロボット10は、車輪42の独立2軸駆動、肩関節58の3自由度(左右で6自由度)、肘関節62の1自由度(左右で2自由度)、手首の1自由度(左右で2自由度)、指関節の1自由度(左右の各指で6自由度)、首関節70の3自由度および眼球支持部の2自由度(左右で4自由度)の合計25自由度を有する。
As described above, the
図6はロボット10の電気的な構成を示すブロック図である。この図6を参照して、ロボット10は、プロセサ90を含む。プロセサ90は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス92を介して、メモリ94、モータ制御ボード96、センサ入力/出力ボード98、音声入力/出力ボード110および通信LANボード130に接続される。
FIG. 6 is a block diagram showing an electrical configuration of the
メモリ94はROMおよびRAMを含む。ROMには、ロボット10の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置14)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記憶される。また、RAMは、プロセサ90のワークメモリやバッファメモリとして用いられる。
The
モータ制御ボード96は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード96は、プロセサ90からの制御データを受け、右眼球部78Rの2軸のそれぞれの角度を制御する2つのモータ(図6では、まとめて「右眼球モータ112」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセサ90からの制御データを受け、左眼球部78Lの2軸のそれぞれの角度を制御する2つのモータ(図6では、まとめて「左眼球モータ114」と示す)の回転角度を制御する。
The
また、モータ制御ボード96は、プロセサ90からの制御データを受け、肩関節58Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節62Rの角度を制御する1つのモータとの計4つのモータ(図6では、まとめて「右腕モータ116」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセサ90からの制御データを受け、肩関節58Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節62Lの角度を制御する1つのモータとの計4つのモータ(図6では、まとめて「左腕モータ118」と示す)の回転角度を制御する。
The
また、モータ制御ボード96は、プロセサ90からの制御データを受け、右の手首の1軸の角度を制御する1つのモータと右手66Rの3つの指関節のそれぞれの角度を制御する3つのモータとの4つのモータ(図6では、まとめて「右手モータ120」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセサ90からの制御データを受け、左手の手首の1軸の角度を制御する1つのモータと左手66Lの3つの指関節のそれぞれの角度を制御する3つのモータとの4つのモータ(図6では、まとめて「左手モータ122」と示す)の回転角度を制御する。
The
ここで、指関節の角度は、モータの回転がそのまま反映されるわけではなく、モータの回転によって動作する流体圧シリンダによって制御される。具体的には、流体圧シリンダには、動作流体を移動させるピストンが移動自在に収容されており、このピストンの位置がモータの回転によって変化する。そして、流体圧シリンダの動きに応じて指関節の角度が変化する。なお、流体圧シリンダを用いたロボットの手については、たとえば特開2013−96514号公報に詳しく説明されているので、ここでは、その公開公報を参照することによって、詳細な説明を省略する。 Here, the angle of the finger joint does not reflect the rotation of the motor as it is, but is controlled by a fluid pressure cylinder that operates by the rotation of the motor. Specifically, a piston for moving the working fluid is movably accommodated in the fluid pressure cylinder, and the position of the piston changes as the motor rotates. Then, the angle of the finger joint changes according to the movement of the fluid pressure cylinder. The hand of the robot using the fluid pressure cylinder is described in detail in, for example, Japanese Patent Application Laid-Open No. 2013-96514, and detailed description thereof will be omitted here by referring to the publication.
さらに、モータ制御ボード96は、プロセサ90からの制御データを受け、首関節70の直交する3軸のそれぞれの角度を制御する3つのモータ(図6では、まとめて「頭部モータ124」と示す)の回転角度を制御する。
Further, the
そして、モータ制御ボード96は、プロセサ90からの制御データを受け、車輪42を駆動する2つのモータ(図6では、まとめて「車輪モータ46」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ46を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ46と同様に直流モータを用いるようにしてもよい。また、ロボット10の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更されてもよい。たとえば、他の実施例では、エアアクチュエータなどが適用されてもよい。
The
センサ入力/出力ボード98は、モータ制御ボード96と同様に、DSPで構成され、各センサからの信号を取り込んでプロセサ90に与える。すなわち、赤外線距離センサ50のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード98を通じてプロセサ90に入力される。また、全方位カメラ56からの映像信号が、必要に応じてセンサ入力/出力ボード98で所定の処理を施してからプロセサ90に入力される。眼カメラ80からの映像信号も、同様に、プロセサ90に入力される。また、上述した複数の接触センサ68(図6では、まとめて「接触センサ68」と示す)からの信号がセンサ入力/出力ボード98を介してプロセサ90に与えられる。
Similar to the
音声入力/出力ボード110もまた、同様に、DSPで構成され、プロセサ90から与えられる音声合成データに従った音声または声がスピーカ74から出力される。また、マイク76からの音声入力が、音声入力/出力ボード110を介してプロセサ90に与えられる。
Similarly, the voice input /
通信LANボード130は、たとえばDSPで構成され、プロセサ90から与えられた送信データを無線通信装置132に与え、無線通信装置132は送信データを、ネットワーク1000を介して外部コンピュータ(中央制御装置14)に送信する。また、通信LANボード130は、無線通信装置132を介してデータを受信し、受信したデータをプロセサ90に与える。たとえば、送信データとしては、全方位カメラ56および目カメラ80によって撮影された周囲の映像データなどである。
The
図7は図4に示す中央制御装置14におけるメモリ18のメモリマップの一例を示す図解図である。図7で示すように、メモリ18はプログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、中央制御装置14を動作させるためのプログラムとして、オペレーティングシステム(OS)の他、展示会場に来場した各ユーザの閲覧行動の履歴を記録する記録プログラム310、各ロボットの動作を決定するための動作決定プログラム312などが記憶される。なお、図示は省略するが、このプログラム記憶領域302には、上述の距離画像センサ12の出力からユーザの位置および向きを検出するためのプログラムなども含まれる。
FIG. 7 is an illustrative view showing one example of a memory map of the
データ記憶領域304には、ユーザ情報バッファ330が設けられると共に、地図データ332が記憶される。たとえば、ユーザ情報バッファ330には、3次元情報に基づいて計算された、ユーザの位置およびユーザの向きがユーザ情報として一時的に記憶される。
The
地図データ332には、図2に示すような平面図を表す地図データが含まれる。地図データは、たとえば展示物Eおよびその展示物Eと対応する所定範囲の情報(座標)など、先に説明した種々の座標データを含む。
The
なお、図示は省略するが、データ記憶領域304には、様々な計算の結果を一時的に格納するバッファや、中央制御装置14の動作に必要な他のカウンタやフラグなども設けられる。
Although not shown, the
ユーザ管理テーブル334は、たとえば図8に示すものであり、ユーザ毎に、来場回数と、現在来場中かどうかを示す来場中フラグを記録するものであり、先に説明したように、出入口から入るときにRFIDを読み取ったことで、当該ユーザが来場したことを検知し、出入口から出るときにRFIDを読み取ったことで、当該ユーザが退場したことを検知することができる。ユーザが来場したとき来場回数がインクリメントされるとともに、来場中フラグがセットされる。ユーザが退場したとき来場中フラグがリセットされる。 The user management table 334 is, for example, as shown in FIG. 8, and records the number of visits and a visiting flag indicating whether or not the user is present at each user, and enters from the entrance as described above. Sometimes, reading the RFID can detect that the user has come to the venue, and reading the RFID when exiting from the entrance can detect that the user has exited. When the user arrives, the number of visits is incremented, and a visiting flag is set. The visiting flag is reset when the user leaves.
閲覧行動テーブル336は、たとえば図9に示すものであり、ユーザ毎に、来場毎に、各展示物E1、E2、E3、…に対する当該ユーザの閲覧時間を記録する。図9は、たとえばユーザAAAについての閲覧行動テーブルを示すが、他のユーザについても同様のものが設けられる。この閲覧行動テーブル336も、先のユーザ管理テーブル334と同様に、該当のユーザが最初に来場したときにメモリ18内に形成され、その後の来場毎に来場回数がインクリメント(更新)される。そして、来場回毎に、そのユーザがどの展示物をどのぐらいの時間した閲覧したかが記録される。それとともに、この閲覧行動テーブル336には、そのユーザが展示会場内をどのように移動したかを示す移動軌跡を記録する。移動軌跡は、たとえばΔt秒ごとのユーザの位置を取得することによって、記録できる。ただし、図9ではこの移動軌跡については、煩瑣になるので、記載を省略している。
The browsing action table 336 is shown in FIG. 9, for example, and records the browsing time of the user for each exhibit E1, E2, E3,. FIG. 9 shows a browsing behavior table for the user AAA, for example, but the same is provided for other users. Similarly to the previous user management table 334, this browsing behavior table 336 is also formed in the
発話コンテンツテーブル338は、たとえば図10に示すように、コンテンツ番号毎に、発話コンテンツのデータが記録されている。この発話コンテンツは、展示会場や展示物に固有のものであるので、発話コンテンツテーブル338は展示会場や展示物が変更される都度、予め設定(準備)される。この実施例では、一例として、コンテンツ番号1は「前回はあまり見てくれなかったようですが、今回はゆっくりみてください。」という発話コンテンツであり、コンテンツ番号2は「前回は展示物Eiをよく見ていたようですが、今回は展示物Ejも見ていってください。」という発話コンテンツであり、コンテンツ番号3は「前回はいろいろ見ていただいたようですが、今回もじっくり見ていってください。」という発話コンテンツであり、コンテンツ番号4は「新しい展示物Enewがありますので、見て行ってください。」という発話コンテンツである。
In the utterance content table 338, for example, as shown in FIG. 10, utterance content data is recorded for each content number. Since the utterance content is unique to the exhibition hall or the exhibition, the utterance content table 338 is set (prepared) in advance whenever the exhibition hall or the exhibition is changed. In this embodiment, as an example, the
コンテンツ番号1‐3は、上述のように、当該ユーザの前回来場時の閲覧行動に言及して、今回の閲覧を案内するものである。しかしながら、発話コンテンツは、このように前回来場時の閲覧行動に言及するものでなく、たとえばコンテンツ番号4のように、前回の閲覧行動の履歴には直接には関係しないが、過去の閲覧行動の履歴に関連する発話コンテンツであってもよい。
As described above, the content number 1-3 refers to the browsing behavior when the user visited the previous time, and guides the current browsing. However, the utterance content does not refer to the browsing behavior at the previous visit in this way, and is not directly related to the history of the previous browsing behavior, such as
この実施例のロボット制御システム100では、ユーザの閲覧行動の履歴に基づいて発話コンテンツをこの発話コンテンツテーブル338から選択して、ユーザに案内情報として提供するものである。
In the
このようなロボット制御システム100において、中央制御装置14は、展示会場の出入口(図2)に設けられたタグリーダ13が来場者のRFIDタグを読み取ると、図11の記録処理を実行する。
In such a
タグリーダ13から、読み取ったIDデータが中央制御装置14に入力されると、中央制御装置14は最初のステップS1において、そのときの来場者が1回目の来場かどうか、たとえば図8のユーザ管理テーブル334を参照することによって、判断する。たとえば、ユーザ管理テーブル334に記録がなければ、今回の来場が当該ユーザにとって1回目の来場であると判断することができる。そして、ステップS1で“YES”のとき、中央制御装置14は、次のステップS3において、ユーザ管理テーブル334および閲覧行動テーブル336に、そのユーザUiを登録するとともに、ユーザ管理テーブル334においてそのユーザについて来場中フラグをセットする。
When the read ID data is input from the
ステップS1で“NO”を判断したとき、つまり、そのユーザUiが2回目以降の来場であると判断したときは、次のステップS3で、中央制御装置14はユーザ管理テーブル334および閲覧行動テーブル336を更新する。詳しく言うと、このステップS3では、ユーザ管理テーブル334の来場回数を更新するとともに、来場中フラグをセットする。さらに、このステップS3では、閲覧行動テーブル336に、今回来場分のデータを記録する記憶領域を確保する。たとえば、ユーザAAAが2回目の来場であれば、図9の「来場回数=2」の記憶領域を確保する。
When “NO” is determined in step S1, that is, when it is determined that the user Ui is visiting for the second time or later, in the next step S3, the
ステップS3またはS5を経た後、中央制御装置14は、ステップS7において、ユーザUiの位置Pi(=x,y,θ)を取得する。詳しく言うと、中央制御装置14は、各距離画像センサ12からの距離情報を受け取り、その距離情報と各距離画像センサの既知の設置位置の情報に基づいて、ユーザの位置を計算することができる。ただし、角度θは、ユーザの向きを示す角度であり、一例として、図2の平面図において水平に対する角度で表される。このステップS7ではさらに、現在時刻と前回取得時刻との差Δt(秒)を計算する。閲覧行動テーブル336の移動軌跡を記録する。つまり、時間の経過とともに変化するユーザの位置を移動軌跡として記録する。
After step S3 or S5, the
その後、ステップS9において、中央制御装置14は、それぞれの展示物Eiの説明可能範囲Aiにユーザが存在する時間(閲覧時間)を計測して、閲覧行動テーブル336の閲覧時間の欄に記録する。
Thereafter, in step S <b> 9, the
このステップS7およびS9は、ステップS11でユーザが退場したことを検出するまで、そのユーザに対して繰り返し実行される。つまり、ユーザは、展示会場に入場してから退場するまで、距離画像センサ12によって追跡(トラッキング)され、どの展示物をどの程度の時間閲覧したかという閲覧行動や、移動軌跡が閲覧行動テーブル334に記録される。 Steps S7 and S9 are repeatedly executed for the user until it is detected in step S11 that the user has left. That is, the user is traced (tracked) by the distance image sensor 12 from entering the exhibition hall to leaving, and the browsing behavior indicating which article has been browsed for how long, and the movement trajectory are the browsing behavior table 334. To be recorded.
ただし、このような閲覧行動テーブルを記録するための各ユーザのトラッキング方法はこの実施例に限られるものではなく、他の任意の方法で行われてもよい。 However, the tracking method of each user for recording such a browsing action table is not limited to this embodiment, and may be performed by any other method.
そして、ステップS11でユーザの退場を、たとえば先に説明したタグリーダ13からの情報に基づいて検出すると、ステップS13において、ユーザ管理テーブル334における該当するユーザの来場中フラグをリセットして、この記録処理を終了する。
In step S11, when the user exit is detected based on the information from the
なお、上述の実施例では、ユーザが入場してから退場するまでの閲覧行動を、リアルタイムで閲覧行動テーブル336中に記録するようにしたが、必ずしもユーザをトラッキングしながらリアルタイムで記録する必要はなく、上で説明したようなユーザの閲覧行動を示すデータをバッファに蓄積しておき、たとえばユーザが退場するときに、バッジ処理で、閲覧行動テーブル336を記録するようにしてもよい。 In the above-described embodiment, the browsing behavior from when the user enters to the exit is recorded in the browsing behavior table 336 in real time, but it is not always necessary to record in real time while tracking the user. The data indicating the browsing behavior of the user as described above may be accumulated in the buffer, and for example, when the user leaves, the browsing behavior table 336 may be recorded by badge processing.
図12に示すロボット行動決定処理は、先の記録処理と同様に、展示会場に新しい来場者があったとき開始される。そして、ステップS21で終了しない限り、ステップS23に進み、ユーザUiの閲覧合計時間を計算する。図9のユーザAAAの閲覧行動テーブルでいえば、ユーザAAAは今回2回目の来場であるので、前回(1回目)の来場の際の閲覧行動の履歴を読み出し、それに含まれる閲覧時間を合計することによって、閲覧合計時間を計算する。 The robot behavior determination process shown in FIG. 12 is started when there is a new visitor in the exhibition hall, as in the previous recording process. And unless it complete | finishes by step S21, it progresses to step S23 and calculates the browsing total time of the user Ui. In the browsing behavior table of the user AAA in FIG. 9, since the user AAA is the second visit this time, the history of browsing behavior at the previous visit (first time) is read, and the browsing time included in it is totaled. To calculate the total browsing time.
そして、ステップS25で、中央制御装置14は、計算した閲覧合計時間が所定時間、たとえば60秒未満かどうか判断する。ユーザAAAの1回目の閲覧合計時間は400秒(=300+60+40)であるので、ステップS25では“YES”が判断される。
In step S25, the
したがって、次のステップS27では、中央制御装置14は、ロボット10をユーザUiに近づかせるように移動制御させるとともに、たとえば前回閲覧時間が最長の展示物Ei(実施例では、展示物E1)について、コンテンツ番号2の発話コンテンツを出力させる。たとえば、「前回は展示物Eiをよく見ていたようですが、今回は展示物Ejも見ていってください。」という発話コンテンツを、ロボット10の音声入力/出力ボード110を介してスピーカ74から出力させる。
Therefore, in the next step S27, the
逆に、前回の閲覧合計時間が所定時間(実施例では、60秒)未満の時、ステップS25で“NO”が判断される。その場合、中央制御装置14は、次のステップS29で、ロボット10をユーザUiに近づかせるように移動制御させるとともに、たとえばコンテンツ番号1の発話コンテンツを出力させる。たとえば、「前回はあまり見てくれなかったようですが、今回はゆっくり見てください。」という発話コンテンツを、ロボット10のスピーカ74から出力させる。
On the other hand, when the previous browsing total time is less than the predetermined time (60 seconds in the embodiment), “NO” is determined in step S25. In that case, the
この実施例のように、ユーザの前回来場時の閲覧行動の履歴に言及するフレーズを含み、しかも今回来場時に適した発話コンテンツをロボットが出力するようにすれば、ユーザにより適切な案内情報を提供することができるだけでなく、ロボットがユーザをよく観察しているという強い印象をユーザに与えるので、顔なじみの説明員や店員に接する場合のように、ユーザのロボットに対する親近感を増すことが期待できる。 As in this embodiment, if the robot outputs the utterance content suitable for the visit this time, including phrases that refer to the history of the browsing behavior of the user at the previous visit, the user can be provided with more appropriate guidance information. In addition to being able to do it, it gives the user a strong impression that the robot is observing the user well, so it can be expected that the user's familiarity with the robot will increase as if it is in contact with a familiar face-to-face instructor or shop assistant .
ただし、ステップS27および/またはS29でユーザに出力する発話コンテンツは、必ずしも前回来場時の閲覧行動の履歴に言及したものでなくてもよい。たとえば、新しい展示物が展示された場合などでは、前回来場時の閲覧行動の履歴に関係なく、図10の発話コンテンツテーブル338のコンテンツ番号4のような発話コンテンツを出力させるようにしてもよい。
However, the utterance content output to the user in step S27 and / or S29 may not necessarily refer to the browsing behavior history at the previous visit. For example, when a new exhibit is displayed, the utterance content such as the
その後、中央制御装置14は、ステップS31において、ロボット10に対して、同じユーザまたは別のユーザに対して適宜の案内行動を実施するよう、命令を与える。ただし、ロボット10の案内行動それ自体は重要ではないので、ここでは説明は省略する。
Thereafter, in step S31, the
なお、上述の実施例では、ステップS25において前回来場時の閲覧合計時間が所定時間以上あるかどうかを判定することによって、ステップS27またはS29で出力する発話コンテンツを選択、決定したが、発話コンテンツを選択的に決定する要因としてはこの実施例の前回来場時の閲覧合計時間に限られるものではない。 In the above-described embodiment, the utterance content to be output in step S27 or S29 is selected and determined by determining whether or not the total viewing time at the previous visit is a predetermined time or more in step S25. The factor that is selectively determined is not limited to the total viewing time at the previous visit of this embodiment.
たとえば、図11のステップS9で閲覧行動テーブル336に記録したユーザの移動軌跡に基づいて、発話コンテンツを選択または決定するようにしてもよい。たとえば、その移動軌跡をパターンで分類し、その分類に従って発話コンテンツを選択して出力するような実施例が考えられる。 For example, the utterance content may be selected or determined based on the movement trajectory of the user recorded in the browsing behavior table 336 in step S9 of FIG. For example, an embodiment may be considered in which the movement trajectory is classified by pattern, and the utterance content is selected and output according to the classification.
また、さらにその他の実施例では、ロボット10がディスプレイを有している場合は、発話コンテンツに加えて映像コンテンツも利用してユーザに案内情報を提供するようにしてもよい。
In still another embodiment, when the
上述の実施例では、図11の記録処理および図12の行動決定処理のいずれも、中央制御装置14によって実行するものとして説明した。しかしながら、これらの処理はロボット10がすべて実行するようにしてもよい。その場合には、図3に示す距離画像センサ12からの出力データやタグリーダ13からの出力データをロボット10のプロセサ90(図6)が直接受け取るようにすればよい。しかしながら、実施例と同様に距離画像センサ12からの出力データやタグリーダ13からの出力データは中央処理装置14に入力され、中央処理装置14で必要な処理を施した後、結果のデータだけをロボット10に与えるようにしてもよい。その方がロボット10のプロセサ90の処理負担が少なくなるので望ましいかもしれない。
In the above-described embodiment, the recording process in FIG. 11 and the action determination process in FIG. 12 are both executed by the
上で説明した実施例では、ユーザに対して発話コンテンツとして案内情報を提供するロボット10は、車輪移動型のロボットであった。しかしながら、ロボットとしては他の形式のものが利用されてもよく、たとえば2足歩行型のロボットが用いられてもよい。
In the embodiment described above, the
さらに、上述の実施例では、前回来場時の閲覧合計時間が所定時間より短いかどうか判断するために、図12のステップS25において「閲覧合計時間が60秒未満かどうか」を判断するようにした。しかしながら、必ずしも「未満」である必要はなく、「閲覧合計時間が60秒以下かどうか」判断するようにしてもよい。 Furthermore, in the above-described embodiment, in order to determine whether or not the total viewing time at the previous visit is shorter than the predetermined time, it is determined whether or not “the total browsing time is less than 60 seconds” in step S25 of FIG. . However, it is not necessarily “less than”, and “whether the total browsing time is 60 seconds or less” may be determined.
また、本実施例で説明した複数のプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して本実施例と同等の構成のシステムに配信されてもよい。また、CD, DVD, BD (Blu-ray(登録商標)Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にこれらのプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、上記複数のプログラムが、本実施例と同等の構成のシステムに適用された場合、本実施例と同等の効果が得られる。 In addition, the plurality of programs described in the present embodiment may be stored in the HDD of a data distribution server and distributed to a system having the same configuration as that of the present embodiment via a network. In addition, storage programs such as CDs, DVDs, and BDs (Blu-ray (registered trademark) Disc) are sold or distributed with these programs stored in storage media such as optical disks, USB memory, and memory cards. May be. When the plurality of programs downloaded through the server and storage medium described above are applied to a system having the same configuration as that of this embodiment, the same effect as that of this embodiment can be obtained.
そして、本明細書中で挙げた、具体的な数値や具体的な発話コンテンツは、いずれも単なる例示であり、展示会場の種類やその他の仕様変更などに応じて適宜変更可能である。 The specific numerical values and specific utterance contents mentioned in this specification are merely examples, and can be changed as appropriate according to the type of exhibition hall and other specifications.
10 …ロボット
12a,12b …距離画像センサ
13 …タグリーダ
14 …中央制御装置
16 …プロセサ
18 …メモリ
100 …ロボット制御システム
334 …ユーザ管理テーブル
336 …閲覧行動テーブル
338 …発話コンテンツテーブル
DESCRIPTION OF
Claims (7)
ユーザが来場した際の閲覧行動を履歴として記録する記録手段、および
ユーザが再来場したとき、前記履歴に基づいて決まる発話コンテンツを前記ロボットから出力させる出力手段を備える、ロボット制御システム。 A robot control system including a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed,
A robot control system comprising: recording means for recording browsing behavior when a user comes as a history; and output means for outputting speech content determined based on the history from the robot when the user comes again.
前記閲覧合計時間が所定時間より短いかどうか判断する判断手段をさらに備え、
前記出力手段は判断手段の判断結果に応じて、発話コンテンツを決める、請求項1ないし3のいずれかに記載のロボット制御システム。 A calculation means for calculating the total browsing time at the previous visit of the user, and a determination means for determining whether the total browsing time is shorter than a predetermined time;
The robot control system according to any one of claims 1 to 3, wherein the output unit determines an utterance content according to a determination result of the determination unit.
ユーザが来場した際の閲覧行動を履歴として記録する記録手段、および
ユーザが再来場したとき、前記履歴に基づいて決まる発話コンテンツを前記ロボットから出力させる出力手段
として機能させる、ロボット制御プログラム。 A robot control program executed by a computer of a robot control system, including a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed, the browsing behavior when the user visits the computer And a robot control program for functioning as output means for outputting the utterance content determined based on the history from the robot when the user comes back.
ユーザが来場した際の閲覧行動を履歴として記録する記録ステップ、および
ユーザが再来場したとき、前記履歴に基づいて決まる発話コンテンツを前記ロボットから出力させる出力ステップを含む、ロボット制御方法。 A robot control method executed by a computer of a robot control system, including a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed,
A robot control method, comprising: a recording step of recording browsing behavior when a user visits as a history; and an output step of outputting utterance content determined based on the history from the robot when the user comes again.
ユーザが来場した際の閲覧行動を履歴として記録する記録手段、および
ユーザが再来場したとき、前記履歴に基づいて決まる発話コンテンツを出力する出力手段を備える、ロボット。 A robot that outputs utterance content to the user in the exhibition hall where the exhibit is placed,
A robot comprising recording means for recording browsing behavior when a user comes as a history, and output means for outputting utterance content determined based on the history when the user comes again.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013202375A JP6134894B2 (en) | 2013-09-27 | 2013-09-27 | Robot control system and robot |
US14/498,871 US9517559B2 (en) | 2013-09-27 | 2014-09-26 | Robot control system, robot control method and output control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013202375A JP6134894B2 (en) | 2013-09-27 | 2013-09-27 | Robot control system and robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015066623A true JP2015066623A (en) | 2015-04-13 |
JP6134894B2 JP6134894B2 (en) | 2017-05-31 |
Family
ID=52833913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013202375A Active JP6134894B2 (en) | 2013-09-27 | 2013-09-27 | Robot control system and robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6134894B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017222021A (en) * | 2016-06-14 | 2017-12-21 | グローリー株式会社 | Shop reception system |
WO2020031966A1 (en) * | 2018-08-06 | 2020-02-13 | 日本電信電話株式会社 | Information output device, method, and program |
JP2021045550A (en) * | 2016-07-13 | 2021-03-25 | 株式会社ファインウェル | Hearing system and robot used for hearing system |
JP2021519633A (en) * | 2018-03-29 | 2021-08-12 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | Interactive Anime Character Head Stem and Method |
US11526033B2 (en) | 2018-09-28 | 2022-12-13 | Finewell Co., Ltd. | Hearing device |
US11601538B2 (en) | 2014-12-18 | 2023-03-07 | Finewell Co., Ltd. | Headset having right- and left-ear sound output units with through-holes formed therein |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004348618A (en) * | 2003-05-26 | 2004-12-09 | Nec Soft Ltd | Customer information collection and management method and system therefor |
JP2005293052A (en) * | 2004-03-31 | 2005-10-20 | Honda Motor Co Ltd | Robot for dealing with customer |
JP2006212732A (en) * | 2005-02-02 | 2006-08-17 | Fujitsu Ltd | Guide and explanation method and system by robot, server, and robot |
JP2007199997A (en) * | 2006-01-26 | 2007-08-09 | Advanced Telecommunication Research Institute International | Dialog support system |
JP2008003860A (en) * | 2006-06-22 | 2008-01-10 | Fujitsu Ltd | Guide robot and guide method |
JP2010049374A (en) * | 2008-08-20 | 2010-03-04 | Fujitsu Ltd | Exhibition guidance system |
KR20110068830A (en) * | 2009-12-16 | 2011-06-22 | 주식회사코어벨 | System for museum or exhibition center by using a robot docent |
-
2013
- 2013-09-27 JP JP2013202375A patent/JP6134894B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004348618A (en) * | 2003-05-26 | 2004-12-09 | Nec Soft Ltd | Customer information collection and management method and system therefor |
JP2005293052A (en) * | 2004-03-31 | 2005-10-20 | Honda Motor Co Ltd | Robot for dealing with customer |
JP2006212732A (en) * | 2005-02-02 | 2006-08-17 | Fujitsu Ltd | Guide and explanation method and system by robot, server, and robot |
JP2007199997A (en) * | 2006-01-26 | 2007-08-09 | Advanced Telecommunication Research Institute International | Dialog support system |
JP2008003860A (en) * | 2006-06-22 | 2008-01-10 | Fujitsu Ltd | Guide robot and guide method |
JP2010049374A (en) * | 2008-08-20 | 2010-03-04 | Fujitsu Ltd | Exhibition guidance system |
KR20110068830A (en) * | 2009-12-16 | 2011-06-22 | 주식회사코어벨 | System for museum or exhibition center by using a robot docent |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11601538B2 (en) | 2014-12-18 | 2023-03-07 | Finewell Co., Ltd. | Headset having right- and left-ear sound output units with through-holes formed therein |
JP2017222021A (en) * | 2016-06-14 | 2017-12-21 | グローリー株式会社 | Shop reception system |
JP2021045550A (en) * | 2016-07-13 | 2021-03-25 | 株式会社ファインウェル | Hearing system and robot used for hearing system |
JP2021519633A (en) * | 2018-03-29 | 2021-08-12 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | Interactive Anime Character Head Stem and Method |
JP7295136B2 (en) | 2018-03-29 | 2023-06-20 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | INTERACTIVE ANIME CHARACTER HEADSTEM AND METHOD |
WO2020031966A1 (en) * | 2018-08-06 | 2020-02-13 | 日本電信電話株式会社 | Information output device, method, and program |
JP2020024517A (en) * | 2018-08-06 | 2020-02-13 | 日本電信電話株式会社 | Information output device, method and program |
US11526033B2 (en) | 2018-09-28 | 2022-12-13 | Finewell Co., Ltd. | Hearing device |
Also Published As
Publication number | Publication date |
---|---|
JP6134894B2 (en) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9517559B2 (en) | Robot control system, robot control method and output control method | |
JP6134894B2 (en) | Robot control system and robot | |
JP6502491B2 (en) | Customer service robot and related system and method | |
JP6150429B2 (en) | Robot control system, robot, output control program, and output control method | |
US9552056B1 (en) | Gesture enabled telepresence robot and system | |
JP6134895B2 (en) | Robot control system, robot control program, and explanation robot | |
JP2007260822A (en) | Guide robot | |
JP5764795B2 (en) | Mobile robot, mobile robot learning system, and mobile robot behavior learning method | |
WO2021225713A1 (en) | Robotic social interaction | |
JP5145569B2 (en) | Object identification method and apparatus | |
JP7120254B2 (en) | Information processing device, information processing method, and program | |
JP2010231359A (en) | Remote control device | |
JP6893630B2 (en) | Service provision robot system | |
KR20200144363A (en) | Robot and operating method thereof | |
JP2011224737A (en) | Guide robot, guide method, and program for controlling guide | |
JP2006231447A (en) | Confirmation method for indicating position or specific object and method and device for coordinate acquisition | |
KR20140009900A (en) | Apparatus and method for controlling robot | |
JP4793904B2 (en) | Communication robot system and communication robot | |
JP6142306B2 (en) | Robot control system, robot, output control program, and output control method | |
JP6142307B2 (en) | Attention target estimation system, robot and control program | |
CN113056315B (en) | Information processing apparatus, information processing method, and program | |
JP6713637B2 (en) | Service provision robot system | |
JP5732633B2 (en) | Communication robot | |
JP6707255B2 (en) | Service provision robot system | |
JP5633003B2 (en) | Recording control apparatus and recording control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6134894 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |