JP2015066623A - Robot control system and robot - Google Patents

Robot control system and robot Download PDF

Info

Publication number
JP2015066623A
JP2015066623A JP2013202375A JP2013202375A JP2015066623A JP 2015066623 A JP2015066623 A JP 2015066623A JP 2013202375 A JP2013202375 A JP 2013202375A JP 2013202375 A JP2013202375 A JP 2013202375A JP 2015066623 A JP2015066623 A JP 2015066623A
Authority
JP
Japan
Prior art keywords
user
robot
history
utterance content
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013202375A
Other languages
Japanese (ja)
Other versions
JP6134894B2 (en
Inventor
神田 崇行
Takayuki Kanda
崇行 神田
聡 佐竹
Satoshi Satake
聡 佐竹
尊優 飯尾
Takamasa Iio
尊優 飯尾
林 宏太郎
Kotaro Hayashi
宏太郎 林
フェレリ フローラン
Ferreri Flolan
フェレリ フローラン
横山 太郎
Taro Yokoyama
太郎 横山
浩司 川邊
Koji Kawabe
浩司 川邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
ATR Advanced Telecommunications Research Institute International
Original Assignee
Honda Motor Co Ltd
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, ATR Advanced Telecommunications Research Institute International filed Critical Honda Motor Co Ltd
Priority to JP2013202375A priority Critical patent/JP6134894B2/en
Priority to US14/498,871 priority patent/US9517559B2/en
Publication of JP2015066623A publication Critical patent/JP2015066623A/en
Application granted granted Critical
Publication of JP6134894B2 publication Critical patent/JP6134894B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide guide information to a user appropriately by outputting utterance contents in accordance with the history of the user's viewing behaviors at the time of his/her last visit.SOLUTION: A robot control system detects a position and a direction of a user by using a plurality of distance image sensors 12a and 12b disposed in an exhibition hall. A central control device records a user's viewing behaviors from when he/she arrives at the exhibition hall to when he/she leaves the hall and creates a viewing behavior table. When the user re-visits the hall, the central control device reads a history of the viewing behaviors from the viewing behavior table. Then, utterance contents containing phrases referring to a viewing behavior during a previous visit included in the history are selected and determined from an utterance content table, and output from a robot 10 to the user.

Description

この発明は、ロボット制御システムおよびロボットに関し、特にたとえば、来場者に展示物の説明などの案内情報を発話コンテンツとして提供する、ロボット制御システムおよびロボットに関する。   The present invention relates to a robot control system and a robot, and more particularly, to a robot control system and a robot that provide, for example, guidance information such as explanations of exhibits to a visitor as uttered content.

背景技術の一例である非特許文献1では、科学館内を案内するロボットが、その場での見学履歴から、まだ見ていない展示物についてユーザに説明する。   In Non-Patent Document 1, which is an example of background technology, a robot that guides a scientific hall explains to a user about exhibits that have not been viewed yet, based on the tour history.

Masahiro Shiomi, Takayuki Kanda, Hiroshi Ishiguro and Norihiro Hagita, Interactive Humanoid Robots for a Science Museum, IEEE Intelligent Systems, vol. 22, no. 2, pp. 25-32, Mar/Apr. 2007.Masahiro Shiomi, Takayuki Kanda, Hiroshi Ishiguro and Norihiro Hagita, Interactive Humanoid Robots for a Science Museum, IEEE Intelligent Systems, vol. 22, no. 2, pp. 25-32, Mar / Apr. 2007.

非特許文献1は、ユーザにできるだけ多くの展示物を見てもらう案内ロボットとして有効であるが、その場での案内に限られるので、ユーザに対して必ずしも適切な説明ができるとは限らない。   Non-Patent Document 1 is effective as a guidance robot that allows the user to view as many exhibits as possible, but is limited to guidance on the spot, and therefore cannot always provide an appropriate explanation to the user.

それゆえに、この発明の主たる目的は、新規な、ロボット制御システムおよびロボットを提供することである。   Therefore, the main object of the present invention is to provide a novel robot control system and robot.

この発明の他の目的は、適切な案内情報を提供できる、ロボット制御システムおよびロボットを提供することである。   Another object of the present invention is to provide a robot control system and a robot that can provide appropriate guidance information.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、展示物が置かれた展示会場内においてユーザに発話コンテンツを出力するロボットを含む、ロボット制御システムであって、ユーザが来場した際の閲覧行動を履歴として記録する記録手段、およびユーザが再来場したとき、履歴に基づいて決まる発話コンテンツをロボットから出力させる出力手段を備える、ロボット制御システムである。   A first invention is a robot control system including a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed, and recording means for recording browsing behavior when the user visits as a history, And a robot control system comprising output means for outputting the utterance content determined based on the history from the robot when the user comes again.

第1の発明では、ロボット制御システム(100:実施例において対応する部分を例示する参照符号。以下、同じ。)のロボット(10)は、展示物(E)が置かれた展示会場の中を自律移動できる。記録手段(16, S9, 336)は、たとえば各ユーザがそれぞれの展示物に対してどの程度の時間閲覧したか(閲覧時間)などを閲覧行動の履歴として記録する。出力手段(16, S27, S29)は、ユーザが再来場したとき、閲覧行動の履歴を読み出し、その履歴に基づいて発話コンテンツを決めてロボットから発話させる。たとえば、ユーザが特定の展示物について比較的長時間閲覧した記録があれば、「***をよく見ていましたね。」のような発話コンテンツを出力させる。たとえば、ユーザが展示物を殆んど見ないでその展示会場を通過しただけという閲覧行動の履歴があれば、「ゆっくり見ていってください。」のような発話コンテンツを出力させる。   In the first invention, the robot (10) of the robot control system (100: reference numerals exemplifying corresponding parts in the embodiment; the same applies hereinafter) is located in the exhibition hall where the exhibit (E) is placed. Can move autonomously. The recording means (16, S9, 336) records, for example, how long each user has viewed each exhibit (viewing time) as a browsing action history. The output means (16, S27, S29) reads the browsing behavior history when the user revisits, determines speech content based on the history, and causes the robot to speak. For example, if there is a record that the user has browsed a specific exhibit for a relatively long time, an utterance content such as “I watched *** well” is output. For example, if there is a history of browsing behavior that the user has passed through the exhibition hall without almost viewing the exhibits, utterance content such as “Please watch slowly” is output.

第1の発明によれば、ユーザの閲覧行動の履歴に応じて発話コンテンツを出力するので、ユーザに適切な案内情報を提供することができる。   According to the first aspect, since the utterance content is output according to the user's browsing behavior history, appropriate guidance information can be provided to the user.

第2の発明は、第1の発明に従属し、出力手段は、当該ユーザの前回来場時の閲覧行動の履歴に基づいて決まる発話コンテンツを出力させる、ロボット制御システムである。   A second invention is a robot control system according to the first invention, wherein the output means outputs an utterance content determined based on a browsing behavior history when the user visited the previous time.

第2の発明では、たとえば、ユーザが特定の展示物について比較的長時間閲覧した記録があれば、「前回は***をよく見ていましたね。今回は別の展示物も見ていってください」のような発話コンテンツを出力させる。たとえば、ユーザが展示物を殆んど見ないでその展示会場を通過しただけという閲覧行動の履歴があれば、「前回はあまり見てくれなかったようですが、今回はゆっくり見てください。」のような発話コンテンツを出力させる。   In the second invention, for example, if there is a record that the user browsed a specific exhibit for a relatively long time, “I watched *** last time. Utterance content such as "Please" is output. For example, if there is a history of browsing behavior that the user has only passed through the exhibition hall without looking at the exhibition, “Look at the last time, but look at this time slowly.” Utterance content is output.

第2の発明によれば、前回来場時の閲覧行動の履歴に基づいて決まる発話コンテンツを出力するので、ユーザに適切な案内情報を提供することができるだけでなく、ロボットがユーザをよく観察しているという印象を与えることができ、ユーザのロボットに対する親近感を増すことが期待できる。   According to the second invention, since the utterance content determined based on the browsing behavior history at the previous visit is output, it is possible not only to provide appropriate guidance information to the user but also for the robot to observe the user well It is possible to give an impression that the user is present, and it can be expected to increase the familiarity of the user with the robot.

第3の発明は、第2の発明に従属し、発話コンテンツは当該ユーザの前回来場時の閲覧行動に言及するフレーズを含む、ロボット制御システムである。   A third invention is a robot control system according to the second invention, wherein the utterance content includes a phrase that refers to a browsing action when the user visited the previous time.

第3の発明では、たとえば「前回は***をよく見ていましたね。」とか、「前回はあまり見てくれなかったようですね。」のように、前回の閲覧行動に直接言及するフレーズを含む、発話コンテンツを出力させる。   The third invention includes phrases that directly refer to the previous browsing behavior, such as “Looked at *** well in the last time” or “Looked like you did n’t see it too much last time”. , Utterance content is output.

第3の発明によれば、ユーザの前回来場時の閲覧行動に言及するフレーズを含む発話コンテンツを出力するので、ロボットがユーザをよく観察しているという強い印象を与えることができ、ユーザのロボットに対する親近感を一層増すことが期待できる。   According to the third aspect of the invention, since the utterance content including the phrase that refers to the browsing behavior at the previous visit of the user is output, it is possible to give a strong impression that the robot is observing the user well. It can be expected to increase the sense of familiarity with.

第4の発明は、第1ないし第3の発明のいずれかに従属し、ユーザの前回来場時の閲覧合計時間を計算する計算手段、および閲覧合計時間が所定時間より短いかどうか判断する判断手段をさらに備え、出力手段は判断手段の判断結果に応じて、発話コンテンツを決める。   A fourth invention is dependent on any one of the first to third inventions, a calculating means for calculating a total viewing time when the user visited the previous time, and a judging means for judging whether or not the total browsing time is shorter than a predetermined time. The output means determines the utterance content according to the determination result of the determination means.

第4の発明では、計算手段(16, S23)がユーザの前回来場時の閲覧合計時間、すなわち、当該ユーザがその展示会場に展示しているそれぞれの展示物を閲覧した時間の合計を計算する。そして、判断手段(16, S25)はその閲覧合計時間が所定時間(たとえば、60秒)未満かどうか判断する。出力手段は、判断手段の判断結果に応じて、つまり、前回の閲覧合計時間が所定時間より短いかどうかに応じて、発話コンテンツを決定して出力する。   In the fourth invention, the calculation means (16, S23) calculates the total viewing time when the user visited the previous time, that is, the total time when the user browsed each exhibit exhibited in the exhibition hall. . Then, the judging means (16, S25) judges whether the total browsing time is less than a predetermined time (for example, 60 seconds). The output means determines and outputs the utterance content according to the determination result of the determination means, that is, according to whether the previous browsing total time is shorter than the predetermined time.

第4の発明によれば、前回のユーザの閲覧合計時間、つまり、前回のユーザの大局的行動履歴に基づいて適切な案内情報を提供することができる。   According to the fourth aspect of the invention, it is possible to provide appropriate guidance information based on the previous total browsing time of the user, that is, the global action history of the previous user.

第5の発明は、展示物が置かれた展示会場内においてユーザに発話コンテンツを出力するロボットを含む、ロボット制御システムのコンピュータによって実行されるロボット制御プログラムであって、前記コンピュータを、ユーザが来場した際の閲覧行動を履歴として記録する記録手段、およびユーザが再来場したとき、履歴に基づいて決まる発話コンテンツをロボットから出力させる出力手段として機能させる、ロボット制御プログラムである。   A fifth invention is a robot control program executed by a computer of a robot control system, including a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed, wherein the user visits the computer It is a robot control program for functioning as a recording means for recording the browsing behavior as a history and an output means for outputting the utterance content determined based on the history from the robot when the user comes back.

第6の発明は、展示物が置かれた展示会場内においてユーザに発話コンテンツを出力するロボットを含む、ロボット制御システムのコンピュータによって実行されるロボット制御方法であって、ユーザが来場した際の閲覧行動を履歴として記録する記録ステップ、およびユーザが再来場したとき、履歴に基づいて決まる発話コンテンツをロボットから出力させる出力ステップを含む、ロボット制御方法である。   A sixth invention is a robot control method executed by a computer of a robot control system, including a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed, and browsing when the user visits A robot control method includes a recording step of recording an action as a history, and an output step of outputting utterance content determined based on the history from the robot when the user comes back.

第5の発明または第6の発明によれば、第1の発明と同様の効果が期待できる。   According to the fifth or sixth invention, the same effect as that of the first invention can be expected.

第7の発明は、展示物が置かれた展示会場内においてユーザに発話コンテンツを出力するロボットであって、ユーザが来場した際の閲覧行動を履歴として記録する記録手段、およびユーザが再来場したとき、履歴に基づいて決まる発話コンテンツを出力する出力手段を備える、ロボットである。   A seventh invention is a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed, recording means for recording browsing behavior as a history when the user visited, and the user revisited In some cases, the robot includes output means for outputting utterance content determined based on the history.

第7の発明によれば、ユーザに対して適切な案内情報を提供するロボットが得られる。   According to the seventh aspect, a robot that provides appropriate guidance information to the user can be obtained.

この発明によれば、ユーザに適切な案内情報を提供することができる。   According to this invention, it is possible to provide appropriate guidance information to the user.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例のロボット制御システムが適用される展示会場の一例を示す図解図である。FIG. 1 is an illustrative view showing one example of an exhibition hall to which a robot control system of one embodiment of the present invention is applied. 図2は図1に示す展示会場の平面図(地図)の一例を示す図解図である。FIG. 2 is an illustrative view showing one example of a plan view (map) of the exhibition hall shown in FIG. 図3はこの発明の一実施例のロボット制御システムの概要を示す図解図である。FIG. 3 is an illustrative view showing an outline of a robot control system according to an embodiment of the present invention. 図4は図3に示す中央制御装置の電気的な構成の一例を示すブロック図である。FIG. 4 is a block diagram showing an example of an electrical configuration of the central controller shown in FIG. 図5は図3に示す実施例に用いるロボットの一例の外観を正面から見た図解図である。FIG. 5 is an illustrative view showing an external appearance of an example of the robot used in the embodiment shown in FIG. 図6は図5に示すロボットの電気的な構成の一例を示すブロック図である。FIG. 6 is a block diagram showing an example of the electrical configuration of the robot shown in FIG. 図7は図4に示す中央制御装置のメモリのメモリマップの一例を示す図解図である。FIG. 7 is an illustrative view showing one example of a memory map of a memory of the central control unit shown in FIG. 図8は図7に示すユーザ管理テーブルの一例を示す図解図である。FIG. 8 is an illustrative view showing one example of a user management table shown in FIG. 図9は図7に示す閲覧行動テーブルの一例を示すフロー図である。FIG. 9 is a flowchart showing an example of the browsing behavior table shown in FIG. 図10は図7に示す発話コンテンツテーブルの一例を示す図解図である。FIG. 10 is an illustrative view showing one example of an utterance content table shown in FIG. 図11は図4に示す中央制御装置のプロセサの記録処理の動作の一例を示すフロー図である。FIG. 11 is a flowchart showing an example of the recording processing operation of the processor of the central controller shown in FIG. 図12は図4に示す中央制御装置のプロセサのロボット行動決定処理の動作の一例を示すフロー図である。FIG. 12 is a flowchart showing an example of the operation of the robot behavior determination process of the processor of the central controller shown in FIG.

図1を参照して、この実施例のロボット制御システム100は、展示物Eが置かれた展示会場などの空間(環境)で利用される。展示会場の中では、ユーザ(来場者)およびロボット10が任意に移動することができ、天井には、この展示会場内でのすべてのユーザの位置やその身体の向きを検出するための複数の距離画像センサ12(12a,12b,…)が設けられている。   With reference to FIG. 1, the robot control system 100 of this embodiment is used in a space (environment) such as an exhibition hall where an exhibit E is placed. In the exhibition hall, the user (visitor) and the robot 10 can arbitrarily move, and the ceiling has a plurality of positions for detecting the positions of all users in the exhibition hall and the direction of the body. A distance image sensor 12 (12a, 12b,...) Is provided.

ロボット10は、相互作用指向のロボット(コミュニケーションロボット)でもあり、ユーザのようなコミュニケーションの対象との間で、身振り手振りのような身体動作や音声でのコミュニケーション行動を実行する機能を備えている。また、ロボット10はコミュニケーションの一環として、展示物Eについての説明(発話コンテンツ)をユーザに対して出力したり、展示会場を案内したりするサービスを行う。ロボット10は、サービスを行う上で必要であれば、展示会場内を自律的に移動したり、中央制御装置14が付与する行動命令に基づいて動作したりする。   The robot 10 is also an interaction-oriented robot (communication robot), and has a function of performing body movements such as gestures and voice communication behavior with a communication target such as a user. Further, as part of the communication, the robot 10 provides a service for outputting an explanation (uttered content) about the exhibit E to the user and guiding the exhibition hall. The robot 10 autonomously moves within the exhibition hall or operates based on action commands given by the central control device 14 as necessary for providing services.

また、実施例の空間は展示物Eが置かれた展示会場であるが、これに限らずショッピングモール、会社のフロア、博物館またはアトラクション会場などでも、ロボット制御システム100は利用可能である。   The space of the embodiment is an exhibition hall where the exhibition E is placed, but the robot control system 100 can be used not only in this but also in a shopping mall, a company floor, a museum, an attraction hall, or the like.

なお、図1では簡単のため、ユーザは1人しか示していないが、展示会場にはさらに多くのユーザがいてもよい。同様にロボット10も1台しか示していないが、ロボット制御システム100は2台より多くのロボット10を同時に制御することができる。   For simplicity, only one user is shown in FIG. 1, but there may be more users in the exhibition hall. Similarly, although only one robot 10 is shown, the robot control system 100 can control more than two robots 10 simultaneously.

図2はこのような展示会場(空間)の平面的な位置を示す地図である。図2を参照して、展示会場には、複数の(この実施例では3つの)展示物E(E1,E2,E3)が展示される。展示会場には出入口が形成され、この出入口にはRFIDタグのデータを読み取るためのタグリーダ13(図3、図4)が設置されている。たとえば、ユーザは、自身が持つRFIDタグをタグリーダに読み取らせた後、展示会場に入場する。RFIDタグにはユーザIDが記憶されており、タグリーダはRFIDタグからユーザIDを読み取り、それを中央制御装置14(図3、図4)に送信する。   FIG. 2 is a map showing the planar position of such an exhibition hall (space). Referring to FIG. 2, a plurality (three in this embodiment) of exhibits E (E1, E2, E3) are displayed at the exhibition hall. An entrance / exit is formed in the exhibition hall, and a tag reader 13 (FIGS. 3 and 4) for reading RFID tag data is installed at the entrance / exit. For example, the user enters the exhibition hall after having the tag reader read the RFID tag held by the user. The RFID tag stores a user ID, and the tag reader reads the user ID from the RFID tag and transmits it to the central controller 14 (FIGS. 3 and 4).

なお、RFIDタグとしては任意のものが利用可能である。ただし、この実施例は、同じ来場者が2回目以降に来場した際に、前回の閲覧行動の履歴を参照して、適切な案内情報を提示する(たとえば、発話コンテンツを出力する)ことを意図したものであるので、この実施例では来場者(ユーザ)を個別的に特定する必要がある。そのため、実施例で用いられるRFIDタグとしては、各個人に固有のものである、たとえば会員カード、携帯電話機(スマートフォンを含む)、車のキーなどに仕込まれたものが考えられる。   An arbitrary RFID tag can be used. However, this embodiment is intended to present appropriate guidance information (for example, output utterance content) by referring to the history of the previous browsing behavior when the same visitor comes after the second time. Therefore, in this embodiment, it is necessary to individually specify visitors (users). For this reason, the RFID tag used in the embodiments may be unique to each individual, for example, a member card, a mobile phone (including a smartphone), a car key, or the like.

ただし、展示会場の出入口に、カメラを設けておき、そのカメラで撮影したユーザの顔画像を画像処理することによって、ユーザ個人を特定するようにしてもよい。そうすれば、ユーザにRFIDタグを提示させる面倒が回避できる。   However, a user may be specified by providing a camera at the entrance / exit of the exhibition hall and performing image processing on the user's face image captured by the camera. Then, the trouble of presenting the RFID tag to the user can be avoided.

展示会場内の各展示物E1、E2、E3にはそれぞれ説明可能範囲A1、A2、A3が設定されている。説明可能範囲Aとは、ユーザがこの範囲に入っていれば、当該展示物に対する説明(案内情報)をロボット10がユーザに提供する、そのような範囲のことである。これら説明可能範囲A1、A2、A3の位置、形状、サイズなどの座標データは、対応の展示物E1、E2、E3の重心C1、C2、C3の位置、形状、サイズなどの座標データと一緒に、後述の地図データ332(図7)として、予め記憶されている。   Explainable ranges A1, A2, and A3 are set for the exhibits E1, E2, and E3 in the exhibition hall, respectively. The explainable range A is such a range in which the robot 10 provides the user with an explanation (guidance information) for the exhibit if the user is within this range. The coordinate data such as the position, shape and size of these explainable ranges A1, A2 and A3 are together with the coordinate data such as the position, shape and size of the centroids C1, C2 and C3 of the corresponding exhibits E1, E2 and E3. These are stored in advance as map data 332 (FIG. 7) described later.

なお、この実施例では、ユーザが各展示物Eiの説明可能範囲Ai内に存在するとき、そのユーザは展示物Eiを閲覧したものとみなす。   In this embodiment, when the user exists in the explainable range Ai of each exhibit Ei, the user is considered to have viewed the exhibit Ei.

図3を参照して、ロボット制御システム100の中央制御装置14は、一定時間(たとえば、1秒)毎に距離画像センサ12a,12b、…によって、任意に移動するユーザの位置を検出すると共に、ユーザの向きを検出する。また、中央制御装置14は、ネットワーク1000を介してロボット10と無線通信を行い、必要であればロボット10の行動を制御する。   Referring to FIG. 3, the central control device 14 of the robot control system 100 detects the position of a user that is arbitrarily moved by the distance image sensors 12a, 12b,. Detect user orientation. The central control device 14 performs wireless communication with the robot 10 via the network 1000, and controls the behavior of the robot 10 if necessary.

図3は中央制御装置14の電気的な構成を示すブロック図である。図3を参照して、中央制御装置14は、距離画像センサ12a,12bおよびプロセサ16などを含む。プロセサ16は、コンピュータ或いはCPUと呼ばれることもある。プロセサ16には、先述した距離画像センサ12aおよび距離画像センサ12bに加えて、他の距離画像センサ12が接続される。なお、距離画像センサ12a,12bを区別する必要がない場合、単に「距離画像センサ12」と言う。   FIG. 3 is a block diagram showing an electrical configuration of the central controller 14. Referring to FIG. 3, central controller 14 includes distance image sensors 12a and 12b, a processor 16, and the like. The processor 16 is sometimes called a computer or a CPU. In addition to the distance image sensor 12a and the distance image sensor 12b described above, another distance image sensor 12 is connected to the processor 16. When there is no need to distinguish between the distance image sensors 12a and 12b, the distance image sensors 12a and 12b are simply referred to as “distance image sensor 12”.

プロセサ16にはメモリ18および通信LANボード20が接続される。   A memory 18 and a communication LAN board 20 are connected to the processor 16.

距離画像センサ12は、赤外光またはレーザーなどの光を照射し、対象物から反射した光(反射光)をCCDセンサなどの光学センサによって捉える。距離画像センサ12は、光が戻るまでの時間を画素毎に計測することで、対象物までの実際の距離を測定する。実施例の距離画像センサ12には、ASUS(登録商標)製のXtion(登録商標)と呼ばれる製品が採用されている。なお、他の実施例では、距離画像センサ12は、Microsoft(登録商標)製のKinect(登録商標)センサ、パナソニック(登録商標)製の3次元距離画像センサD-IMager(登録商標)などを使用することも可能である。この種のセンサは、3次元距離計測センサ、3Dスキャナなどと呼ばれる場合もある。   The distance image sensor 12 irradiates light such as infrared light or laser, and captures light reflected from the object (reflected light) by an optical sensor such as a CCD sensor. The distance image sensor 12 measures the actual distance to the object by measuring the time until the light returns for each pixel. The distance image sensor 12 of the embodiment employs a product called Xtion (registered trademark) manufactured by ASUS (registered trademark). In another embodiment, the distance image sensor 12 uses a Kinect (registered trademark) sensor manufactured by Microsoft (registered trademark), a three-dimensional distance image sensor D-IMager (registered trademark) manufactured by Panasonic (registered trademark), or the like. It is also possible to do. This type of sensor is sometimes called a three-dimensional distance measuring sensor, a 3D scanner, or the like.

プロセサ16は、このような距離画像センサ12を通じて対象(ユーザ)の3次元情報を取得する。距離画像センサ12からの3次元情報には、対象の形状および対象までの距離が含まれている。たとえば、ユーザが天井に設けられた距離画像センサ12によってセンシングされると、ユーザを上から見た状態の頭部および両肩の形状と、頭部および両肩までの距離が3次元情報として得られる。   The processor 16 acquires the three-dimensional information of the target (user) through such a distance image sensor 12. The three-dimensional information from the distance image sensor 12 includes the shape of the target and the distance to the target. For example, when the user is sensed by the distance image sensor 12 provided on the ceiling, the shape of the head and both shoulders as viewed from above and the distance to the head and both shoulders are obtained as three-dimensional information. It is done.

たとえば、展示会場には35個の距離画像センサ12が所定の位置(既知)に設置されており、プロセサ16は、各々から3次元情報を取得して、3次元空間(ワールド座標系)における位置(たとえば、重心など特徴点の位置座標(x,y,z))およびユーザの向き(たとえば、頭部および両肩など特徴部位の向き)を計算することができる。   For example, 35 distance image sensors 12 are installed at predetermined positions (known) in the exhibition hall, and the processor 16 acquires three-dimensional information from each to obtain a position in a three-dimensional space (world coordinate system). (For example, the position coordinates (x, y, z) of a feature point such as the center of gravity) and the user's direction (for example, the direction of a feature part such as the head and both shoulders) can be calculated.

なお、他の実施例では、距離画像センサ12ではなく、2次元または3次元のLRFを利用して、ユーザの位置および向きが検出されてもよい。   In another embodiment, the position and orientation of the user may be detected using a two-dimensional or three-dimensional LRF instead of the distance image sensor 12.

メモリ18はROM,HDDおよびRAMを含む。ROMおよびHDDには、中央制御装置14の動作を制御するための制御プログラム予め記憶される。また、RAMは、プロセサ16のワークメモリやバッファメモリとして用いられる。   The memory 18 includes a ROM, an HDD, and a RAM. In the ROM and the HDD, a control program for controlling the operation of the central controller 14 is stored in advance. The RAM is used as a work memory or a buffer memory for the processor 16.

通信LANボード20は、たとえばDSPで構成され、プロセサ16から与えられた送信データを無線通信装置22に与え、無線通信装置22は送信データを、ネットワーク1000を介してロボット10に送信する。たとえば、送信データは、ロボット10の自律移動に必要なデータや、サービスを行うために必要なデータおよびロボット10に指示する行動命令の信号(コマンド)などである。また、通信LANボード20は、無線通信装置22を介してデータを受信し、受信したデータをプロセサ16に与える。   The communication LAN board 20 is configured by a DSP, for example, and provides transmission data given from the processor 16 to the wireless communication device 22, and the wireless communication device 22 transmits the transmission data to the robot 10 via the network 1000. For example, the transmission data includes data necessary for autonomous movement of the robot 10, data necessary for performing a service, and a signal (command) of an action command instructing the robot 10. Further, the communication LAN board 20 receives data via the wireless communication device 22 and gives the received data to the processor 16.

なお、他の実施例では、中央制御装置14は、ディスプレイなどの出力装置と、マウスおよびキーボードなどの入力装置とを備えていてもよい。   In another embodiment, the central controller 14 may include an output device such as a display and input devices such as a mouse and a keyboard.

図5はこの実施例のロボット10の外観を示す正面図である。図5を参照して、ロボット10は台車40を含み、台車40の下面にはロボット10を自律移動させる2つの車輪42および1つの従輪44が設けられる。2つの車輪42は車輪モータ46(図6参照)によってそれぞれ独立に駆動され、台車40すなわちロボット10を前後左右の任意方向に動かすことができる。また、従輪44は車輪42を補助する補助輪である。したがって、ロボット10は、配置された空間内を自律制御によって移動可能である。   FIG. 5 is a front view showing the appearance of the robot 10 of this embodiment. Referring to FIG. 5, the robot 10 includes a carriage 40, and two wheels 42 and one slave wheel 44 that autonomously move the robot 10 are provided on the lower surface of the carriage 40. The two wheels 42 are independently driven by a wheel motor 46 (see FIG. 6), and the carriage 40, that is, the robot 10 can be moved in any direction, front, back, left, and right. The slave wheel 44 is an auxiliary wheel that assists the wheel 42. Therefore, the robot 10 can move in the arranged space by autonomous control.

台車40の上には、円柱形のセンサ取り付けパネル48が設けられ、このセンサ取り付けパネル48には、多数の赤外線距離センサ50が取り付けられる。これらの赤外線距離センサ50は、センサ取り付けパネル48すなわちロボット10の周囲の物体(ユーザや障害物など)との距離を測定するものである。   A cylindrical sensor mounting panel 48 is provided on the carriage 40, and a large number of infrared distance sensors 50 are mounted on the sensor mounting panel 48. These infrared distance sensors 50 measure the distance to the sensor mounting panel 48, that is, the object (user, obstacle, etc.) around the robot 10.

なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、LRFや、超音波距離センサおよびミリ波レーダなどを用いることもできる。   In this embodiment, an infrared distance sensor is used as the distance sensor. However, an LRF, an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.

センサ取り付けパネル48の上には、胴体52が直立するように設けられる。また、胴体52の前方中央上部(ユーザの胸に相当する位置)には、上述した赤外線距離センサ50がさらに設けられ、ロボット10の前方の主としてユーザとの距離を計測する。また、胴体52には、その側面側上端部のほぼ中央から伸びる支柱54が設けられ、支柱54の上には、全方位カメラ56が設けられる。全方位カメラ56は、ロボット10の周囲を撮影するものであり、後述する眼カメラ80とは区別される。この全方位カメラ56としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ50および全方位カメラ56の設置位置は、当該部位に限定されず適宜変更され得る。   On the sensor mounting panel 48, the body 52 is provided so as to stand upright. Further, the above-described infrared distance sensor 50 is further provided at the front upper center of the body 52 (a position corresponding to the user's chest), and measures the distance mainly to the user in front of the robot 10. Further, the body 52 is provided with a support column 54 extending from substantially the center of the upper end of the side surface, and an omnidirectional camera 56 is provided on the support column 54. The omnidirectional camera 56 photographs the surroundings of the robot 10 and is distinguished from an eye camera 80 described later. As the omnidirectional camera 56, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be employed. In addition, the installation positions of the infrared distance sensor 50 and the omnidirectional camera 56 are not limited to the portions, and can be changed as appropriate.

胴体52の両側上端部(ユーザの肩に相当する位置)には、それぞれ、肩関節58Rおよび肩関節58Lによって、上腕60Rおよび上腕60Lが設けられる。図示は省略するが、肩関節58Rおよび肩関節58Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節58Rは、直交する3軸のそれぞれの軸廻りにおいて上腕60Rの角度を制御できる。肩関節58Rの或る軸(ヨー軸)は、上腕60Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節58Lは、直交する3軸のそれぞれの軸廻りにおいて上腕60Lの角度を制御できる。肩関節58Lの或る軸(ヨー軸)は、上腕60Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。   An upper arm 60 </ b> R and an upper arm 60 </ b> L are provided at upper ends on both sides of the body 52 (positions corresponding to the user's shoulders) by a shoulder joint 58 </ b> R and a shoulder joint 58 </ b> L, respectively. Although illustration is omitted, each of the shoulder joint 58R and the shoulder joint 58L has three orthogonal degrees of freedom. That is, the shoulder joint 58R can control the angle of the upper arm 60R around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 58R is an axis parallel to the longitudinal direction (or axis) of the upper arm 60R, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do. Similarly, the shoulder joint 58L can control the angle of the upper arm 60L around each of the three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 58L is an axis parallel to the longitudinal direction (or axis) of the upper arm 60L, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do.

また、上腕60Rおよび上腕60Lのそれぞれの先端には、肘関節62Rおよび肘関節62Lが設けられる。図示は省略するが、肘関節62Rおよび肘関節62Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕64Rおよび前腕64Lの角度を制御できる。   Further, an elbow joint 62R and an elbow joint 62L are provided at the tips of the upper arm 60R and the upper arm 60L, respectively. Although illustration is omitted, each of the elbow joint 62R and the elbow joint 62L has one degree of freedom, and the angles of the forearm 64R and the forearm 64L can be controlled around the axis (pitch axis).

前腕64Rおよび前腕64Lのそれぞれの先端には、手66Rおよび手66Lがそれぞれ設けられる。各手66には、ユーザと同じように親指、ユーザ差し指、中指、薬指および小指が設けられている。手66の親指およびユーザ差し指の根本には指関節(図示せず)が設けられており、それぞれを独立して動かすことができる。また、中指、薬指および小指は一体成型され、親指およびユーザ差し指と同様、根元に指関節が設けられている。そして、中指、薬指および小指はまとめて動かすことが出来る。   A hand 66R and a hand 66L are provided at the tips of the forearm 64R and the forearm 64L, respectively. Each hand 66 is provided with a thumb, a user's index finger, a middle finger, a ring finger, and a little finger in the same manner as the user. Finger joints (not shown) are provided at the base of the thumb of the hand 66 and the user's index finger, and each can be moved independently. In addition, the middle finger, the ring finger, and the little finger are integrally molded, and a finger joint is provided at the base, like the thumb and the user's index finger. The middle finger, ring finger, and little finger can be moved together.

また、手66Rおよび手66Lのそれぞれ根元には、手首が設けられる。図示は省略するが、左右の手首は、それぞれ1軸の自由度を有し、この軸(ヨー軸)の軸回りにおいて手66Rおよび手66Lの角度を制御できる。また、図示は省略するが手66Rおよび手66Lの親指、ユーザ差し指および残りの3本の指(中指、薬指および小指)の指関節は、それぞれ1自由度を有し、この軸の軸回りにおいて指の角度を制御できる。   In addition, wrists are provided at the bases of the hands 66R and 66L. Although illustration is omitted, the left and right wrists each have one degree of freedom, and the angles of the hands 66R and 66L can be controlled around the axis (yaw axis). Although not shown, the thumbs of the hand 66R and the hand 66L, the user's index finger, and the finger joints of the remaining three fingers (middle finger, ring finger, and little finger) each have one degree of freedom. The angle of the finger can be controlled.

従って、ロボット10は、親指、中指、薬指および小指が折り曲げられた指さしの状態の手66で任意の対象をポインティングしたり、手を開いた状態で上腕60、前腕64および手66の全体を使って任意の対象をポインティングしたりすることが可能となる。そのため、上腕60、前腕64および手66はポインティング手段と呼ばれることもある。   Accordingly, the robot 10 can point an arbitrary object with the hand 66 in the state of pointing with the thumb, middle finger, ring finger, and little finger folded, or can use the entire upper arm 60, forearm 64 and hand 66 with the hand open. It is possible to point any target. Therefore, the upper arm 60, the forearm 64, and the hand 66 are sometimes referred to as pointing means.

なお、他の実施例では、ユーザと同じようにそれぞれの指が独立し、かつユーザの指と同じ数の指関節を持つ手66が採用されてもよい。この場合、ロボット10は、ポインティングだけでなく、物を指で掴んだり、手話によるコミュニケーションを行ったりすることが可能となる。   In another embodiment, as in the case of the user, a hand 66 may be employed in which each finger is independent and has the same number of finger joints as the user's finger. In this case, the robot 10 can perform not only pointing but also grasping an object with a finger or communicating by sign language.

また、図示は省略するが、台車40の前面、肩関節58Rと肩関節58Lとを含む肩に相当する部位、上腕60R、上腕60L、前腕64R、前腕64L、手66Rおよび手66Lには、それぞれ、接触センサ68(図5で包括的に示す)が設けられる。台車40の前面の接触センサ68は、台車40へのユーザや他の障害物の接触を検知する。したがって、ロボット10は、自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪42の駆動を停止してロボット10の移動を急停止させることができる。また、その他の接触センサ68は、当該各部位に触れたかどうかを検知する。なお、接触センサ68の設置位置は、当該部位に限定されず、適宜な位置(ユーザの胸、腹、脇、背中および腰に相当する位置)に設けられてもよい。   Although not shown, the front surface of the carriage 40, the portion corresponding to the shoulder including the shoulder joint 58R and the shoulder joint 58L, the upper arm 60R, the upper arm 60L, the forearm 64R, the forearm 64L, the hand 66R, and the hand 66L, , A contact sensor 68 (shown generically in FIG. 5) is provided. The contact sensor 68 on the front surface of the carriage 40 detects contact of the user or other obstacles to the carriage 40. Therefore, the robot 10 can detect the contact with the obstacle during its movement and immediately stop the driving of the wheel 42 to stop the movement of the robot 10 suddenly. In addition, the other contact sensors 68 detect whether or not the respective parts are touched. In addition, the installation position of the contact sensor 68 is not limited to the said site | part, You may provide in an appropriate position (a position corresponding to a user's chest, abdomen, side, back, and waist).

胴体52の中央上部(ユーザの首に相当する位置)には首関節70が設けられ、さらにその上には頭部72が設けられる。図示は省略するが、首関節70は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット10の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 70 is provided at the upper center of the body 52 (a position corresponding to the user's neck), and a head 72 is further provided thereon. Although illustration is omitted, the neck joint 70 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 10, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部72には、ユーザの口に相当する位置に、スピーカ74が設けられる。スピーカ74は、ロボット10が、それの周辺のユーザに対して音声ないし音によってコミュニケーションを取るためや、後述の発話コンテンツをユーザに対して出力するためなど用いられる。また、ユーザの耳に相当する位置には、マイク76Rおよびマイク76Lが設けられる。以下、右のマイク76Rと左のマイク76Lとをまとめてマイク76と言うことがある。マイク76は、周囲の音、とりわけコミュニケーションを実行する対象であるユーザの音声を取り込む。さらに、ユーザの目に相当する位置には、眼球部78Rおよび眼球部78Lが設けられる。眼球部78Rおよび眼球部78Lは、それぞれ眼カメラ80Rおよび眼カメラ80Lを含む。以下、右の眼球部78Rと左の眼球部78Lとをまとめて眼球部78と言うことがある。また、右の眼カメラ80Rと左の眼カメラ80Lとをまとめて眼カメラ80と言うことがある。   The head 72 is provided with a speaker 74 at a position corresponding to the user's mouth. The speaker 74 is used for the robot 10 to communicate with the surrounding users by voice or sound, or to output utterance content to be described later to the user. A microphone 76R and a microphone 76L are provided at a position corresponding to the user's ear. Hereinafter, the right microphone 76R and the left microphone 76L may be collectively referred to as a microphone 76. The microphone 76 captures ambient sounds, particularly the voice of the user who is the subject of communication. Furthermore, an eyeball part 78R and an eyeball part 78L are provided at positions corresponding to the eyes of the user. The eyeball part 78R and the eyeball part 78L include an eye camera 80R and an eye camera 80L, respectively. Hereinafter, the right eyeball part 78R and the left eyeball part 78L may be collectively referred to as the eyeball part 78. Further, the right eye camera 80R and the left eye camera 80L may be collectively referred to as an eye camera 80.

眼カメラ80は、ロボット10に接近したユーザの顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ80は、上述した全方位カメラ56と同様のカメラを用いることができる。たとえば、眼カメラ80は、眼球部78内に固定され、眼球部78は、眼球支持部(図示せず)を介して頭部72内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部72の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部72の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部78ないし眼カメラ80の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ74、マイク76および眼カメラ80の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。   The eye camera 80 takes a picture of a user's face and other parts or objects approaching the robot 10 and captures a corresponding video signal. The eye camera 80 can be the same camera as the omnidirectional camera 56 described above. For example, the eye camera 80 is fixed in the eyeball part 78, and the eyeball part 78 is attached to a predetermined position in the head 72 via an eyeball support part (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 72, and the other is orthogonal to the one axis and goes straight in a direction in which the front side (face) of the head 72 faces. It is an axis (pitch axis) in the direction to be performed. By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 78 or the eye camera 80 is displaced, and the camera axis, that is, the line-of-sight direction is moved. In addition, the installation positions of the above-described speaker 74, microphone 76, and eye camera 80 are not limited to the portions, and may be provided at appropriate positions.

このように、この実施例のロボット10は、車輪42の独立2軸駆動、肩関節58の3自由度(左右で6自由度)、肘関節62の1自由度(左右で2自由度)、手首の1自由度(左右で2自由度)、指関節の1自由度(左右の各指で6自由度)、首関節70の3自由度および眼球支持部の2自由度(左右で4自由度)の合計25自由度を有する。   As described above, the robot 10 of this embodiment includes independent two-axis driving of the wheels 42, three degrees of freedom of the shoulder joint 58 (6 degrees of freedom on the left and right), one degree of freedom of the elbow joint 62 (2 degrees of freedom on the left and right), 1 degree of freedom for wrist (2 degrees of freedom for left and right), 1 degree of freedom for finger joints (6 degrees of freedom for left and right fingers), 3 degrees of freedom for neck joint 70 and 2 degrees of freedom for eyeball support (4 degrees of freedom for left and right) A total of 25 degrees of freedom).

図6はロボット10の電気的な構成を示すブロック図である。この図6を参照して、ロボット10は、プロセサ90を含む。プロセサ90は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス92を介して、メモリ94、モータ制御ボード96、センサ入力/出力ボード98、音声入力/出力ボード110および通信LANボード130に接続される。   FIG. 6 is a block diagram showing an electrical configuration of the robot 10. With reference to FIG. 6, the robot 10 includes a processor 90. The processor 90 is also called a microcomputer or a processor, and is connected to the memory 94, the motor control board 96, the sensor input / output board 98, the audio input / output board 110, and the communication LAN board 130 via the bus 92.

メモリ94はROMおよびRAMを含む。ROMには、ロボット10の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置14)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記憶される。また、RAMは、プロセサ90のワークメモリやバッファメモリとして用いられる。   The memory 94 includes ROM and RAM. In the ROM, a control program for controlling the operation of the robot 10 is stored in advance. For example, a detection program for detecting the output (sensor information) of each sensor, a communication program for transmitting / receiving necessary data and commands to / from an external computer (central control device 14), and the like are stored. The RAM is used as a work memory or a buffer memory of the processor 90.

モータ制御ボード96は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード96は、プロセサ90からの制御データを受け、右眼球部78Rの2軸のそれぞれの角度を制御する2つのモータ(図6では、まとめて「右眼球モータ112」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセサ90からの制御データを受け、左眼球部78Lの2軸のそれぞれの角度を制御する2つのモータ(図6では、まとめて「左眼球モータ114」と示す)の回転角度を制御する。   The motor control board 96 is composed of, for example, a DSP, and controls the driving of motors for axes such as arms, neck joints, and eyeballs. That is, the motor control board 96 receives the control data from the processor 90, and controls two angles of the two axes of the right eyeball part 78R (in FIG. 6, collectively shown as “right eyeball motor 112”). Control the rotation angle. Similarly, the motor control board 96 receives the control data from the processor 90, and shows two motors for controlling the respective angles of the two axes of the left eyeball portion 78L (in FIG. 6, collectively referred to as “left eyeball motor 114”). ) To control the rotation angle.

また、モータ制御ボード96は、プロセサ90からの制御データを受け、肩関節58Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節62Rの角度を制御する1つのモータとの計4つのモータ(図6では、まとめて「右腕モータ116」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセサ90からの制御データを受け、肩関節58Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節62Lの角度を制御する1つのモータとの計4つのモータ(図6では、まとめて「左腕モータ118」と示す)の回転角度を制御する。   The motor control board 96 receives control data from the processor 90, and includes a total of three motors for controlling the angles of the three orthogonal axes of the shoulder joint 58R and one motor for controlling the angle of the elbow joint 62R. The rotational angles of four motors (collectively indicated as “right arm motor 116” in FIG. 6) are controlled. Similarly, the motor control board 96 receives control data from the processor 90, and includes three motors for controlling the angles of the three orthogonal axes of the shoulder joint 58L and one motor for controlling the angle of the elbow joint 62L. The rotation angles of a total of four motors (collectively indicated as “left arm motor 118” in FIG. 6) are controlled.

また、モータ制御ボード96は、プロセサ90からの制御データを受け、右の手首の1軸の角度を制御する1つのモータと右手66Rの3つの指関節のそれぞれの角度を制御する3つのモータとの4つのモータ(図6では、まとめて「右手モータ120」と示す)の回転角度を制御する。同様に、モータ制御ボード96は、プロセサ90からの制御データを受け、左手の手首の1軸の角度を制御する1つのモータと左手66Lの3つの指関節のそれぞれの角度を制御する3つのモータとの4つのモータ(図6では、まとめて「左手モータ122」と示す)の回転角度を制御する。   The motor control board 96 receives control data from the processor 90, and controls one motor for controlling the angle of one axis of the right wrist and three motors for controlling the angles of the three finger joints of the right hand 66R. The rotation angles of the four motors (collectively indicated as “right-handed motor 120” in FIG. 6) are controlled. Similarly, the motor control board 96 receives control data from the processor 90 and controls one motor for controlling the angle of one axis of the wrist of the left hand and three motors for controlling the angles of the three finger joints of the left hand 66L. The rotation angles of the four motors (collectively indicated as “left-handed motor 122” in FIG. 6) are controlled.

ここで、指関節の角度は、モータの回転がそのまま反映されるわけではなく、モータの回転によって動作する流体圧シリンダによって制御される。具体的には、流体圧シリンダには、動作流体を移動させるピストンが移動自在に収容されており、このピストンの位置がモータの回転によって変化する。そして、流体圧シリンダの動きに応じて指関節の角度が変化する。なお、流体圧シリンダを用いたロボットの手については、たとえば特開2013−96514号公報に詳しく説明されているので、ここでは、その公開公報を参照することによって、詳細な説明を省略する。   Here, the angle of the finger joint does not reflect the rotation of the motor as it is, but is controlled by a fluid pressure cylinder that operates by the rotation of the motor. Specifically, a piston for moving the working fluid is movably accommodated in the fluid pressure cylinder, and the position of the piston changes as the motor rotates. Then, the angle of the finger joint changes according to the movement of the fluid pressure cylinder. The hand of the robot using the fluid pressure cylinder is described in detail in, for example, Japanese Patent Application Laid-Open No. 2013-96514, and detailed description thereof will be omitted here by referring to the publication.

さらに、モータ制御ボード96は、プロセサ90からの制御データを受け、首関節70の直交する3軸のそれぞれの角度を制御する3つのモータ(図6では、まとめて「頭部モータ124」と示す)の回転角度を制御する。   Further, the motor control board 96 receives the control data from the processor 90 and controls three motors for controlling the angles of the three orthogonal axes of the neck joint 70 (in FIG. 6, collectively indicated as “head motor 124”). ) To control the rotation angle.

そして、モータ制御ボード96は、プロセサ90からの制御データを受け、車輪42を駆動する2つのモータ(図6では、まとめて「車輪モータ46」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ46を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ46と同様に直流モータを用いるようにしてもよい。また、ロボット10の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更されてもよい。たとえば、他の実施例では、エアアクチュエータなどが適用されてもよい。   The motor control board 96 receives control data from the processor 90 and controls the rotation angles of two motors (collectively referred to as “wheel motors 46” in FIG. 6) that drive the wheels 42. In this embodiment, a motor other than the wheel motor 46 uses a stepping motor (that is, a pulse motor) in order to simplify the control. However, a DC motor may be used similarly to the wheel motor 46. The actuator that drives the body part of the robot 10 is not limited to a motor that uses a current as a power source, and may be changed as appropriate. For example, in another embodiment, an air actuator or the like may be applied.

センサ入力/出力ボード98は、モータ制御ボード96と同様に、DSPで構成され、各センサからの信号を取り込んでプロセサ90に与える。すなわち、赤外線距離センサ50のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード98を通じてプロセサ90に入力される。また、全方位カメラ56からの映像信号が、必要に応じてセンサ入力/出力ボード98で所定の処理を施してからプロセサ90に入力される。眼カメラ80からの映像信号も、同様に、プロセサ90に入力される。また、上述した複数の接触センサ68(図6では、まとめて「接触センサ68」と示す)からの信号がセンサ入力/出力ボード98を介してプロセサ90に与えられる。   Similar to the motor control board 96, the sensor input / output board 98 is configured by a DSP and takes in signals from each sensor and supplies them to the processor 90. That is, data relating to the reflection time from each of the infrared distance sensors 50 is input to the processor 90 through the sensor input / output board 98. Further, the video signal from the omnidirectional camera 56 is input to the processor 90 after being subjected to predetermined processing by the sensor input / output board 98 as necessary. Similarly, the video signal from the eye camera 80 is also input to the processor 90. Further, signals from the plurality of contact sensors 68 described above (collectively indicated as “contact sensors 68” in FIG. 6) are provided to the processor 90 via the sensor input / output board 98.

音声入力/出力ボード110もまた、同様に、DSPで構成され、プロセサ90から与えられる音声合成データに従った音声または声がスピーカ74から出力される。また、マイク76からの音声入力が、音声入力/出力ボード110を介してプロセサ90に与えられる。   Similarly, the voice input / output board 110 is also configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the processor 90 is output from the speaker 74. In addition, audio input from the microphone 76 is given to the processor 90 via the audio input / output board 110.

通信LANボード130は、たとえばDSPで構成され、プロセサ90から与えられた送信データを無線通信装置132に与え、無線通信装置132は送信データを、ネットワーク1000を介して外部コンピュータ(中央制御装置14)に送信する。また、通信LANボード130は、無線通信装置132を介してデータを受信し、受信したデータをプロセサ90に与える。たとえば、送信データとしては、全方位カメラ56および目カメラ80によって撮影された周囲の映像データなどである。   The communication LAN board 130 is configured by a DSP, for example, and provides transmission data given from the processor 90 to the wireless communication device 132. The wireless communication device 132 sends the transmission data to the external computer (central control device 14) via the network 1000. Send to. In addition, the communication LAN board 130 receives data via the wireless communication device 132 and gives the received data to the processor 90. For example, the transmission data includes surrounding video data captured by the omnidirectional camera 56 and the eye camera 80.

図7は図4に示す中央制御装置14におけるメモリ18のメモリマップの一例を示す図解図である。図7で示すように、メモリ18はプログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、中央制御装置14を動作させるためのプログラムとして、オペレーティングシステム(OS)の他、展示会場に来場した各ユーザの閲覧行動の履歴を記録する記録プログラム310、各ロボットの動作を決定するための動作決定プログラム312などが記憶される。なお、図示は省略するが、このプログラム記憶領域302には、上述の距離画像センサ12の出力からユーザの位置および向きを検出するためのプログラムなども含まれる。   FIG. 7 is an illustrative view showing one example of a memory map of the memory 18 in the central controller 14 shown in FIG. As shown in FIG. 7, the memory 18 includes a program storage area 302 and a data storage area 304. In the program storage area 302, as a program for operating the central control device 14, in addition to an operating system (OS), a recording program 310 for recording a history of browsing behavior of each user who has visited the exhibition hall, operation of each robot An operation determination program 312 and the like are stored. Although not shown, the program storage area 302 includes a program for detecting the position and orientation of the user from the output of the distance image sensor 12 described above.

データ記憶領域304には、ユーザ情報バッファ330が設けられると共に、地図データ332が記憶される。たとえば、ユーザ情報バッファ330には、3次元情報に基づいて計算された、ユーザの位置およびユーザの向きがユーザ情報として一時的に記憶される。   The data storage area 304 is provided with a user information buffer 330 and map data 332 is stored. For example, the user information buffer 330 temporarily stores the user position and the user orientation calculated based on the three-dimensional information as user information.

地図データ332には、図2に示すような平面図を表す地図データが含まれる。地図データは、たとえば展示物Eおよびその展示物Eと対応する所定範囲の情報(座標)など、先に説明した種々の座標データを含む。   The map data 332 includes map data representing a plan view as shown in FIG. The map data includes the various coordinate data described above, such as the exhibit E and information (coordinates) of a predetermined range corresponding to the exhibit E.

なお、図示は省略するが、データ記憶領域304には、様々な計算の結果を一時的に格納するバッファや、中央制御装置14の動作に必要な他のカウンタやフラグなども設けられる。   Although not shown, the data storage area 304 is also provided with a buffer for temporarily storing the results of various calculations, and other counters and flags necessary for the operation of the central controller 14.

ユーザ管理テーブル334は、たとえば図8に示すものであり、ユーザ毎に、来場回数と、現在来場中かどうかを示す来場中フラグを記録するものであり、先に説明したように、出入口から入るときにRFIDを読み取ったことで、当該ユーザが来場したことを検知し、出入口から出るときにRFIDを読み取ったことで、当該ユーザが退場したことを検知することができる。ユーザが来場したとき来場回数がインクリメントされるとともに、来場中フラグがセットされる。ユーザが退場したとき来場中フラグがリセットされる。   The user management table 334 is, for example, as shown in FIG. 8, and records the number of visits and a visiting flag indicating whether or not the user is present at each user, and enters from the entrance as described above. Sometimes, reading the RFID can detect that the user has come to the venue, and reading the RFID when exiting from the entrance can detect that the user has exited. When the user arrives, the number of visits is incremented, and a visiting flag is set. The visiting flag is reset when the user leaves.

閲覧行動テーブル336は、たとえば図9に示すものであり、ユーザ毎に、来場毎に、各展示物E1、E2、E3、…に対する当該ユーザの閲覧時間を記録する。図9は、たとえばユーザAAAについての閲覧行動テーブルを示すが、他のユーザについても同様のものが設けられる。この閲覧行動テーブル336も、先のユーザ管理テーブル334と同様に、該当のユーザが最初に来場したときにメモリ18内に形成され、その後の来場毎に来場回数がインクリメント(更新)される。そして、来場回毎に、そのユーザがどの展示物をどのぐらいの時間した閲覧したかが記録される。それとともに、この閲覧行動テーブル336には、そのユーザが展示会場内をどのように移動したかを示す移動軌跡を記録する。移動軌跡は、たとえばΔt秒ごとのユーザの位置を取得することによって、記録できる。ただし、図9ではこの移動軌跡については、煩瑣になるので、記載を省略している。   The browsing action table 336 is shown in FIG. 9, for example, and records the browsing time of the user for each exhibit E1, E2, E3,. FIG. 9 shows a browsing behavior table for the user AAA, for example, but the same is provided for other users. Similarly to the previous user management table 334, this browsing behavior table 336 is also formed in the memory 18 when the corresponding user first visits, and the number of visits is incremented (updated) for each subsequent visit. Then, for each visit, it is recorded which exhibition the user has viewed for which time. At the same time, a movement trajectory indicating how the user has moved in the exhibition hall is recorded in the browsing action table 336. The movement trajectory can be recorded, for example, by acquiring the position of the user every Δt seconds. However, in FIG. 9, since this movement locus is bothersome, the description is omitted.

発話コンテンツテーブル338は、たとえば図10に示すように、コンテンツ番号毎に、発話コンテンツのデータが記録されている。この発話コンテンツは、展示会場や展示物に固有のものであるので、発話コンテンツテーブル338は展示会場や展示物が変更される都度、予め設定(準備)される。この実施例では、一例として、コンテンツ番号1は「前回はあまり見てくれなかったようですが、今回はゆっくりみてください。」という発話コンテンツであり、コンテンツ番号2は「前回は展示物Eiをよく見ていたようですが、今回は展示物Ejも見ていってください。」という発話コンテンツであり、コンテンツ番号3は「前回はいろいろ見ていただいたようですが、今回もじっくり見ていってください。」という発話コンテンツであり、コンテンツ番号4は「新しい展示物Enewがありますので、見て行ってください。」という発話コンテンツである。   In the utterance content table 338, for example, as shown in FIG. 10, utterance content data is recorded for each content number. Since the utterance content is unique to the exhibition hall or the exhibition, the utterance content table 338 is set (prepared) in advance whenever the exhibition hall or the exhibition is changed. In this embodiment, as an example, the content number 1 is an utterance content “Looks like you didn't look at the last time, but please take a look at this time.” This is the utterance content that says “Please look at the exhibition Ej this time.” Content number 3 is “Look at the last time, but please look carefully this time.” The content number 4 is an utterance content “There is a new exhibition Enew, so please see it”.

コンテンツ番号1‐3は、上述のように、当該ユーザの前回来場時の閲覧行動に言及して、今回の閲覧を案内するものである。しかしながら、発話コンテンツは、このように前回来場時の閲覧行動に言及するものでなく、たとえばコンテンツ番号4のように、前回の閲覧行動の履歴には直接には関係しないが、過去の閲覧行動の履歴に関連する発話コンテンツであってもよい。   As described above, the content number 1-3 refers to the browsing behavior when the user visited the previous time, and guides the current browsing. However, the utterance content does not refer to the browsing behavior at the previous visit in this way, and is not directly related to the history of the previous browsing behavior, such as content number 4, for example. It may be utterance content related to the history.

この実施例のロボット制御システム100では、ユーザの閲覧行動の履歴に基づいて発話コンテンツをこの発話コンテンツテーブル338から選択して、ユーザに案内情報として提供するものである。   In the robot control system 100 of this embodiment, the utterance content is selected from the utterance content table 338 based on the user's browsing behavior history and provided to the user as guidance information.

このようなロボット制御システム100において、中央制御装置14は、展示会場の出入口(図2)に設けられたタグリーダ13が来場者のRFIDタグを読み取ると、図11の記録処理を実行する。   In such a robot control system 100, when the tag reader 13 provided at the entrance / exit of the exhibition hall (FIG. 2) reads the RFID tag of the visitor, the central controller 14 executes the recording process of FIG.

タグリーダ13から、読み取ったIDデータが中央制御装置14に入力されると、中央制御装置14は最初のステップS1において、そのときの来場者が1回目の来場かどうか、たとえば図8のユーザ管理テーブル334を参照することによって、判断する。たとえば、ユーザ管理テーブル334に記録がなければ、今回の来場が当該ユーザにとって1回目の来場であると判断することができる。そして、ステップS1で“YES”のとき、中央制御装置14は、次のステップS3において、ユーザ管理テーブル334および閲覧行動テーブル336に、そのユーザUiを登録するとともに、ユーザ管理テーブル334においてそのユーザについて来場中フラグをセットする。   When the read ID data is input from the tag reader 13 to the central controller 14, the central controller 14 determines whether or not the visitor at that time is the first visit in the first step S1, for example, the user management table of FIG. Judgment is made by referring to 334. For example, if there is no record in the user management table 334, it can be determined that the current visit is the first visit for the user. If “YES” in the step S 1, the central controller 14 registers the user Ui in the user management table 334 and the browsing behavior table 336 in the next step S 3, and about the user in the user management table 334. Set the visiting flag.

ステップS1で“NO”を判断したとき、つまり、そのユーザUiが2回目以降の来場であると判断したときは、次のステップS3で、中央制御装置14はユーザ管理テーブル334および閲覧行動テーブル336を更新する。詳しく言うと、このステップS3では、ユーザ管理テーブル334の来場回数を更新するとともに、来場中フラグをセットする。さらに、このステップS3では、閲覧行動テーブル336に、今回来場分のデータを記録する記憶領域を確保する。たとえば、ユーザAAAが2回目の来場であれば、図9の「来場回数=2」の記憶領域を確保する。   When “NO” is determined in step S1, that is, when it is determined that the user Ui is visiting for the second time or later, in the next step S3, the central controller 14 determines the user management table 334 and the browsing behavior table 336. Update. More specifically, in this step S3, the number of visits in the user management table 334 is updated and a visiting flag is set. Further, in this step S3, a storage area for recording data for the current visit is secured in the browsing behavior table 336. For example, if the user AAA visits for the second time, the storage area “Number of visits = 2” in FIG. 9 is secured.

ステップS3またはS5を経た後、中央制御装置14は、ステップS7において、ユーザUiの位置Pi(=x,y,θ)を取得する。詳しく言うと、中央制御装置14は、各距離画像センサ12からの距離情報を受け取り、その距離情報と各距離画像センサの既知の設置位置の情報に基づいて、ユーザの位置を計算することができる。ただし、角度θは、ユーザの向きを示す角度であり、一例として、図2の平面図において水平に対する角度で表される。このステップS7ではさらに、現在時刻と前回取得時刻との差Δt(秒)を計算する。閲覧行動テーブル336の移動軌跡を記録する。つまり、時間の経過とともに変化するユーザの位置を移動軌跡として記録する。   After step S3 or S5, the central controller 14 acquires the position Pi (= x, y, θ) of the user Ui in step S7. More specifically, the central control device 14 can receive distance information from each distance image sensor 12 and calculate the position of the user based on the distance information and information on a known installation position of each distance image sensor. . However, the angle θ is an angle indicating the orientation of the user, and is represented by an angle with respect to the horizontal in the plan view of FIG. 2 as an example. In step S7, a difference Δt (seconds) between the current time and the previous acquisition time is further calculated. The movement trajectory of the browsing action table 336 is recorded. That is, the position of the user that changes over time is recorded as a movement locus.

その後、ステップS9において、中央制御装置14は、それぞれの展示物Eiの説明可能範囲Aiにユーザが存在する時間(閲覧時間)を計測して、閲覧行動テーブル336の閲覧時間の欄に記録する。   Thereafter, in step S <b> 9, the central controller 14 measures the time (browsing time) that the user exists in the explainable range Ai of each exhibit Ei and records it in the browsing time column of the browsing action table 336.

このステップS7およびS9は、ステップS11でユーザが退場したことを検出するまで、そのユーザに対して繰り返し実行される。つまり、ユーザは、展示会場に入場してから退場するまで、距離画像センサ12によって追跡(トラッキング)され、どの展示物をどの程度の時間閲覧したかという閲覧行動や、移動軌跡が閲覧行動テーブル334に記録される。   Steps S7 and S9 are repeatedly executed for the user until it is detected in step S11 that the user has left. That is, the user is traced (tracked) by the distance image sensor 12 from entering the exhibition hall to leaving, and the browsing behavior indicating which article has been browsed for how long, and the movement trajectory are the browsing behavior table 334. To be recorded.

ただし、このような閲覧行動テーブルを記録するための各ユーザのトラッキング方法はこの実施例に限られるものではなく、他の任意の方法で行われてもよい。   However, the tracking method of each user for recording such a browsing action table is not limited to this embodiment, and may be performed by any other method.

そして、ステップS11でユーザの退場を、たとえば先に説明したタグリーダ13からの情報に基づいて検出すると、ステップS13において、ユーザ管理テーブル334における該当するユーザの来場中フラグをリセットして、この記録処理を終了する。   In step S11, when the user exit is detected based on the information from the tag reader 13 described above, for example, in step S13, the corresponding user visit flag in the user management table 334 is reset, and this recording process is performed. Exit.

なお、上述の実施例では、ユーザが入場してから退場するまでの閲覧行動を、リアルタイムで閲覧行動テーブル336中に記録するようにしたが、必ずしもユーザをトラッキングしながらリアルタイムで記録する必要はなく、上で説明したようなユーザの閲覧行動を示すデータをバッファに蓄積しておき、たとえばユーザが退場するときに、バッジ処理で、閲覧行動テーブル336を記録するようにしてもよい。   In the above-described embodiment, the browsing behavior from when the user enters to the exit is recorded in the browsing behavior table 336 in real time, but it is not always necessary to record in real time while tracking the user. The data indicating the browsing behavior of the user as described above may be accumulated in the buffer, and for example, when the user leaves, the browsing behavior table 336 may be recorded by badge processing.

図12に示すロボット行動決定処理は、先の記録処理と同様に、展示会場に新しい来場者があったとき開始される。そして、ステップS21で終了しない限り、ステップS23に進み、ユーザUiの閲覧合計時間を計算する。図9のユーザAAAの閲覧行動テーブルでいえば、ユーザAAAは今回2回目の来場であるので、前回(1回目)の来場の際の閲覧行動の履歴を読み出し、それに含まれる閲覧時間を合計することによって、閲覧合計時間を計算する。   The robot behavior determination process shown in FIG. 12 is started when there is a new visitor in the exhibition hall, as in the previous recording process. And unless it complete | finishes by step S21, it progresses to step S23 and calculates the browsing total time of the user Ui. In the browsing behavior table of the user AAA in FIG. 9, since the user AAA is the second visit this time, the history of browsing behavior at the previous visit (first time) is read, and the browsing time included in it is totaled. To calculate the total browsing time.

そして、ステップS25で、中央制御装置14は、計算した閲覧合計時間が所定時間、たとえば60秒未満かどうか判断する。ユーザAAAの1回目の閲覧合計時間は400秒(=300+60+40)であるので、ステップS25では“YES”が判断される。   In step S25, the central controller 14 determines whether the calculated total browsing time is less than a predetermined time, for example, 60 seconds. Since the total viewing time of the user AAA for the first time is 400 seconds (= 300 + 60 + 40), “YES” is determined in the step S25.

したがって、次のステップS27では、中央制御装置14は、ロボット10をユーザUiに近づかせるように移動制御させるとともに、たとえば前回閲覧時間が最長の展示物Ei(実施例では、展示物E1)について、コンテンツ番号2の発話コンテンツを出力させる。たとえば、「前回は展示物Eiをよく見ていたようですが、今回は展示物Ejも見ていってください。」という発話コンテンツを、ロボット10の音声入力/出力ボード110を介してスピーカ74から出力させる。   Therefore, in the next step S27, the central controller 14 controls the movement of the robot 10 so as to approach the user Ui, and for example, for the exhibit Ei (exhibit E1 in the embodiment) having the longest last browsing time. The utterance content with content number 2 is output. For example, the utterance content “Look at the exhibition Ei last time, but please also look at the exhibition Ej this time” from the speaker 74 via the voice input / output board 110 of the robot 10. Output.

逆に、前回の閲覧合計時間が所定時間(実施例では、60秒)未満の時、ステップS25で“NO”が判断される。その場合、中央制御装置14は、次のステップS29で、ロボット10をユーザUiに近づかせるように移動制御させるとともに、たとえばコンテンツ番号1の発話コンテンツを出力させる。たとえば、「前回はあまり見てくれなかったようですが、今回はゆっくり見てください。」という発話コンテンツを、ロボット10のスピーカ74から出力させる。   On the other hand, when the previous browsing total time is less than the predetermined time (60 seconds in the embodiment), “NO” is determined in step S25. In that case, the central control device 14 controls the movement of the robot 10 so as to approach the user Ui in the next step S29, and outputs the utterance content of the content number 1, for example. For example, the utterance content “Look not to watch much last time but please watch slowly this time” is output from the speaker 74 of the robot 10.

この実施例のように、ユーザの前回来場時の閲覧行動の履歴に言及するフレーズを含み、しかも今回来場時に適した発話コンテンツをロボットが出力するようにすれば、ユーザにより適切な案内情報を提供することができるだけでなく、ロボットがユーザをよく観察しているという強い印象をユーザに与えるので、顔なじみの説明員や店員に接する場合のように、ユーザのロボットに対する親近感を増すことが期待できる。   As in this embodiment, if the robot outputs the utterance content suitable for the visit this time, including phrases that refer to the history of the browsing behavior of the user at the previous visit, the user can be provided with more appropriate guidance information. In addition to being able to do it, it gives the user a strong impression that the robot is observing the user well, so it can be expected that the user's familiarity with the robot will increase as if it is in contact with a familiar face-to-face instructor or shop assistant .

ただし、ステップS27および/またはS29でユーザに出力する発話コンテンツは、必ずしも前回来場時の閲覧行動の履歴に言及したものでなくてもよい。たとえば、新しい展示物が展示された場合などでは、前回来場時の閲覧行動の履歴に関係なく、図10の発話コンテンツテーブル338のコンテンツ番号4のような発話コンテンツを出力させるようにしてもよい。   However, the utterance content output to the user in step S27 and / or S29 may not necessarily refer to the browsing behavior history at the previous visit. For example, when a new exhibit is displayed, the utterance content such as the content number 4 in the utterance content table 338 of FIG. 10 may be output regardless of the browsing behavior history at the previous visit.

その後、中央制御装置14は、ステップS31において、ロボット10に対して、同じユーザまたは別のユーザに対して適宜の案内行動を実施するよう、命令を与える。ただし、ロボット10の案内行動それ自体は重要ではないので、ここでは説明は省略する。   Thereafter, in step S31, the central control device 14 gives an instruction to the robot 10 to perform appropriate guidance behavior for the same user or another user. However, the guidance action itself of the robot 10 is not important, and thus the description thereof is omitted here.

なお、上述の実施例では、ステップS25において前回来場時の閲覧合計時間が所定時間以上あるかどうかを判定することによって、ステップS27またはS29で出力する発話コンテンツを選択、決定したが、発話コンテンツを選択的に決定する要因としてはこの実施例の前回来場時の閲覧合計時間に限られるものではない。   In the above-described embodiment, the utterance content to be output in step S27 or S29 is selected and determined by determining whether or not the total viewing time at the previous visit is a predetermined time or more in step S25. The factor that is selectively determined is not limited to the total viewing time at the previous visit of this embodiment.

たとえば、図11のステップS9で閲覧行動テーブル336に記録したユーザの移動軌跡に基づいて、発話コンテンツを選択または決定するようにしてもよい。たとえば、その移動軌跡をパターンで分類し、その分類に従って発話コンテンツを選択して出力するような実施例が考えられる。   For example, the utterance content may be selected or determined based on the movement trajectory of the user recorded in the browsing behavior table 336 in step S9 of FIG. For example, an embodiment may be considered in which the movement trajectory is classified by pattern, and the utterance content is selected and output according to the classification.

また、さらにその他の実施例では、ロボット10がディスプレイを有している場合は、発話コンテンツに加えて映像コンテンツも利用してユーザに案内情報を提供するようにしてもよい。   In still another embodiment, when the robot 10 has a display, guidance information may be provided to the user using video content in addition to speech content.

上述の実施例では、図11の記録処理および図12の行動決定処理のいずれも、中央制御装置14によって実行するものとして説明した。しかしながら、これらの処理はロボット10がすべて実行するようにしてもよい。その場合には、図3に示す距離画像センサ12からの出力データやタグリーダ13からの出力データをロボット10のプロセサ90(図6)が直接受け取るようにすればよい。しかしながら、実施例と同様に距離画像センサ12からの出力データやタグリーダ13からの出力データは中央処理装置14に入力され、中央処理装置14で必要な処理を施した後、結果のデータだけをロボット10に与えるようにしてもよい。その方がロボット10のプロセサ90の処理負担が少なくなるので望ましいかもしれない。   In the above-described embodiment, the recording process in FIG. 11 and the action determination process in FIG. 12 are both executed by the central control device 14. However, these processes may all be executed by the robot 10. In that case, the processor 90 (FIG. 6) of the robot 10 may receive the output data from the distance image sensor 12 shown in FIG. 3 and the output data from the tag reader 13 directly. However, as in the embodiment, the output data from the distance image sensor 12 and the output data from the tag reader 13 are input to the central processing unit 14, and after the necessary processing is performed by the central processing unit 14, only the resulting data is transferred to the robot. 10 may be provided. This may be desirable because the processing load on the processor 90 of the robot 10 is reduced.

上で説明した実施例では、ユーザに対して発話コンテンツとして案内情報を提供するロボット10は、車輪移動型のロボットであった。しかしながら、ロボットとしては他の形式のものが利用されてもよく、たとえば2足歩行型のロボットが用いられてもよい。   In the embodiment described above, the robot 10 that provides guidance information as utterance content to the user is a wheel movement type robot. However, other types of robots may be used, for example, a biped walking robot may be used.

さらに、上述の実施例では、前回来場時の閲覧合計時間が所定時間より短いかどうか判断するために、図12のステップS25において「閲覧合計時間が60秒未満かどうか」を判断するようにした。しかしながら、必ずしも「未満」である必要はなく、「閲覧合計時間が60秒以下かどうか」判断するようにしてもよい。   Furthermore, in the above-described embodiment, in order to determine whether or not the total viewing time at the previous visit is shorter than the predetermined time, it is determined whether or not “the total browsing time is less than 60 seconds” in step S25 of FIG. . However, it is not necessarily “less than”, and “whether the total browsing time is 60 seconds or less” may be determined.

また、本実施例で説明した複数のプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して本実施例と同等の構成のシステムに配信されてもよい。また、CD, DVD, BD (Blu-ray(登録商標)Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にこれらのプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、上記複数のプログラムが、本実施例と同等の構成のシステムに適用された場合、本実施例と同等の効果が得られる。   In addition, the plurality of programs described in the present embodiment may be stored in the HDD of a data distribution server and distributed to a system having the same configuration as that of the present embodiment via a network. In addition, storage programs such as CDs, DVDs, and BDs (Blu-ray (registered trademark) Disc) are sold or distributed with these programs stored in storage media such as optical disks, USB memory, and memory cards. May be. When the plurality of programs downloaded through the server and storage medium described above are applied to a system having the same configuration as that of this embodiment, the same effect as that of this embodiment can be obtained.

そして、本明細書中で挙げた、具体的な数値や具体的な発話コンテンツは、いずれも単なる例示であり、展示会場の種類やその他の仕様変更などに応じて適宜変更可能である。   The specific numerical values and specific utterance contents mentioned in this specification are merely examples, and can be changed as appropriate according to the type of exhibition hall and other specifications.

10 …ロボット
12a,12b …距離画像センサ
13 …タグリーダ
14 …中央制御装置
16 …プロセサ
18 …メモリ
100 …ロボット制御システム
334 …ユーザ管理テーブル
336 …閲覧行動テーブル
338 …発話コンテンツテーブル
DESCRIPTION OF SYMBOLS 10 ... Robot 12a, 12b ... Distance image sensor 13 ... Tag reader 14 ... Central controller 16 ... Processor 18 ... Memory 100 ... Robot control system 334 ... User management table 336 ... Browse action table 338 ... Utterance content table

Claims (7)

展示物が置かれた展示会場内においてユーザに発話コンテンツを出力するロボットを含む、ロボット制御システムであって、
ユーザが来場した際の閲覧行動を履歴として記録する記録手段、および
ユーザが再来場したとき、前記履歴に基づいて決まる発話コンテンツを前記ロボットから出力させる出力手段を備える、ロボット制御システム。
A robot control system including a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed,
A robot control system comprising: recording means for recording browsing behavior when a user comes as a history; and output means for outputting speech content determined based on the history from the robot when the user comes again.
前記出力手段は、当該ユーザの前回来場時の閲覧行動の履歴に基づいて決まる発話コンテンツを出力させる、請求項1記載のロボット制御システム。   The robot control system according to claim 1, wherein the output unit outputs utterance content determined based on a browsing behavior history when the user visited the previous time. 前記発話コンテンツは、当該ユーザの前回来場時の閲覧行動に言及するフレーズを含む、請求項2記載のロボット制御システム。   The robot control system according to claim 2, wherein the utterance content includes a phrase that refers to browsing behavior when the user visited the previous time. ユーザの前回来場時の閲覧合計時間を計算する計算手段、および
前記閲覧合計時間が所定時間より短いかどうか判断する判断手段をさらに備え、
前記出力手段は判断手段の判断結果に応じて、発話コンテンツを決める、請求項1ないし3のいずれかに記載のロボット制御システム。
A calculation means for calculating the total browsing time at the previous visit of the user, and a determination means for determining whether the total browsing time is shorter than a predetermined time;
The robot control system according to any one of claims 1 to 3, wherein the output unit determines an utterance content according to a determination result of the determination unit.
展示物が置かれた展示会場内においてユーザに発話コンテンツを出力するロボットを含む、ロボット制御システムのコンピュータによって実行されるロボット制御プログラムであって、前記コンピュータを
ユーザが来場した際の閲覧行動を履歴として記録する記録手段、および
ユーザが再来場したとき、前記履歴に基づいて決まる発話コンテンツを前記ロボットから出力させる出力手段
として機能させる、ロボット制御プログラム。
A robot control program executed by a computer of a robot control system, including a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed, the browsing behavior when the user visits the computer And a robot control program for functioning as output means for outputting the utterance content determined based on the history from the robot when the user comes back.
展示物が置かれた展示会場内においてユーザに発話コンテンツを出力するロボットを含む、ロボット制御システムのコンピュータによって実行されるロボット制御方法であって、
ユーザが来場した際の閲覧行動を履歴として記録する記録ステップ、および
ユーザが再来場したとき、前記履歴に基づいて決まる発話コンテンツを前記ロボットから出力させる出力ステップを含む、ロボット制御方法。
A robot control method executed by a computer of a robot control system, including a robot that outputs utterance content to a user in an exhibition hall where an exhibit is placed,
A robot control method, comprising: a recording step of recording browsing behavior when a user visits as a history; and an output step of outputting utterance content determined based on the history from the robot when the user comes again.
展示物が置かれた展示会場内においてユーザに発話コンテンツを出力するロボットであって、
ユーザが来場した際の閲覧行動を履歴として記録する記録手段、および
ユーザが再来場したとき、前記履歴に基づいて決まる発話コンテンツを出力する出力手段を備える、ロボット。
A robot that outputs utterance content to the user in the exhibition hall where the exhibit is placed,
A robot comprising recording means for recording browsing behavior when a user comes as a history, and output means for outputting utterance content determined based on the history when the user comes again.
JP2013202375A 2013-09-27 2013-09-27 Robot control system and robot Active JP6134894B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013202375A JP6134894B2 (en) 2013-09-27 2013-09-27 Robot control system and robot
US14/498,871 US9517559B2 (en) 2013-09-27 2014-09-26 Robot control system, robot control method and output control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013202375A JP6134894B2 (en) 2013-09-27 2013-09-27 Robot control system and robot

Publications (2)

Publication Number Publication Date
JP2015066623A true JP2015066623A (en) 2015-04-13
JP6134894B2 JP6134894B2 (en) 2017-05-31

Family

ID=52833913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013202375A Active JP6134894B2 (en) 2013-09-27 2013-09-27 Robot control system and robot

Country Status (1)

Country Link
JP (1) JP6134894B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017222021A (en) * 2016-06-14 2017-12-21 グローリー株式会社 Shop reception system
WO2020031966A1 (en) * 2018-08-06 2020-02-13 日本電信電話株式会社 Information output device, method, and program
JP2021045550A (en) * 2016-07-13 2021-03-25 株式会社ファインウェル Hearing system and robot used for hearing system
JP2021519633A (en) * 2018-03-29 2021-08-12 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー Interactive Anime Character Head Stem and Method
US11526033B2 (en) 2018-09-28 2022-12-13 Finewell Co., Ltd. Hearing device
US11601538B2 (en) 2014-12-18 2023-03-07 Finewell Co., Ltd. Headset having right- and left-ear sound output units with through-holes formed therein

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348618A (en) * 2003-05-26 2004-12-09 Nec Soft Ltd Customer information collection and management method and system therefor
JP2005293052A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Robot for dealing with customer
JP2006212732A (en) * 2005-02-02 2006-08-17 Fujitsu Ltd Guide and explanation method and system by robot, server, and robot
JP2007199997A (en) * 2006-01-26 2007-08-09 Advanced Telecommunication Research Institute International Dialog support system
JP2008003860A (en) * 2006-06-22 2008-01-10 Fujitsu Ltd Guide robot and guide method
JP2010049374A (en) * 2008-08-20 2010-03-04 Fujitsu Ltd Exhibition guidance system
KR20110068830A (en) * 2009-12-16 2011-06-22 주식회사코어벨 System for museum or exhibition center by using a robot docent

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348618A (en) * 2003-05-26 2004-12-09 Nec Soft Ltd Customer information collection and management method and system therefor
JP2005293052A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Robot for dealing with customer
JP2006212732A (en) * 2005-02-02 2006-08-17 Fujitsu Ltd Guide and explanation method and system by robot, server, and robot
JP2007199997A (en) * 2006-01-26 2007-08-09 Advanced Telecommunication Research Institute International Dialog support system
JP2008003860A (en) * 2006-06-22 2008-01-10 Fujitsu Ltd Guide robot and guide method
JP2010049374A (en) * 2008-08-20 2010-03-04 Fujitsu Ltd Exhibition guidance system
KR20110068830A (en) * 2009-12-16 2011-06-22 주식회사코어벨 System for museum or exhibition center by using a robot docent

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11601538B2 (en) 2014-12-18 2023-03-07 Finewell Co., Ltd. Headset having right- and left-ear sound output units with through-holes formed therein
JP2017222021A (en) * 2016-06-14 2017-12-21 グローリー株式会社 Shop reception system
JP2021045550A (en) * 2016-07-13 2021-03-25 株式会社ファインウェル Hearing system and robot used for hearing system
JP2021519633A (en) * 2018-03-29 2021-08-12 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー Interactive Anime Character Head Stem and Method
JP7295136B2 (en) 2018-03-29 2023-06-20 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー INTERACTIVE ANIME CHARACTER HEADSTEM AND METHOD
WO2020031966A1 (en) * 2018-08-06 2020-02-13 日本電信電話株式会社 Information output device, method, and program
JP2020024517A (en) * 2018-08-06 2020-02-13 日本電信電話株式会社 Information output device, method and program
US11526033B2 (en) 2018-09-28 2022-12-13 Finewell Co., Ltd. Hearing device

Also Published As

Publication number Publication date
JP6134894B2 (en) 2017-05-31

Similar Documents

Publication Publication Date Title
US9517559B2 (en) Robot control system, robot control method and output control method
JP6134894B2 (en) Robot control system and robot
JP6502491B2 (en) Customer service robot and related system and method
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
US9552056B1 (en) Gesture enabled telepresence robot and system
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
JP2007260822A (en) Guide robot
JP5764795B2 (en) Mobile robot, mobile robot learning system, and mobile robot behavior learning method
WO2021225713A1 (en) Robotic social interaction
JP5145569B2 (en) Object identification method and apparatus
JP7120254B2 (en) Information processing device, information processing method, and program
JP2010231359A (en) Remote control device
JP6893630B2 (en) Service provision robot system
KR20200144363A (en) Robot and operating method thereof
JP2011224737A (en) Guide robot, guide method, and program for controlling guide
JP2006231447A (en) Confirmation method for indicating position or specific object and method and device for coordinate acquisition
KR20140009900A (en) Apparatus and method for controlling robot
JP4793904B2 (en) Communication robot system and communication robot
JP6142306B2 (en) Robot control system, robot, output control program, and output control method
JP6142307B2 (en) Attention target estimation system, robot and control program
CN113056315B (en) Information processing apparatus, information processing method, and program
JP6713637B2 (en) Service provision robot system
JP5732633B2 (en) Communication robot
JP6707255B2 (en) Service provision robot system
JP5633003B2 (en) Recording control apparatus and recording control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170314

R150 Certificate of patent or registration of utility model

Ref document number: 6134894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250