JP2010231315A - Information providing device - Google Patents
Information providing device Download PDFInfo
- Publication number
- JP2010231315A JP2010231315A JP2009075835A JP2009075835A JP2010231315A JP 2010231315 A JP2010231315 A JP 2010231315A JP 2009075835 A JP2009075835 A JP 2009075835A JP 2009075835 A JP2009075835 A JP 2009075835A JP 2010231315 A JP2010231315 A JP 2010231315A
- Authority
- JP
- Japan
- Prior art keywords
- information
- information providing
- unit
- user
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、情報提供装置に関し、特に空間内に配置された物体の情報を提供する情報提供装置に関する。 The present invention relates to an information providing apparatus, and more particularly to an information providing apparatus that provides information on an object placed in a space.
最近では、美術館や博物館、歴史的建築物などにおいて、見学者に対し絵画や彫刻、壁画などの展示物の情報を選択的に提供するツールとして、オーディオガイドなどの装置が用いられている。このオーディオガイドでは、一般的に、ユーザが手入力した番号に対応する展示物の情報が提供される。 Recently, devices such as audio guides have been used as tools for selectively providing information on exhibits such as paintings, sculptures, and murals to visitors in museums, historical buildings, and the like. This audio guide generally provides information on exhibits corresponding to numbers manually entered by the user.
しかるに、美術館等においては、一つの空間や壁面に数多くの展示物が展示してある場合や、歴史的建築物の壁画や天井画、壁面彫刻など一つの作品に説明すべき部分が多数存在する場合がある。このような場合には、情報(情報の番号)が割り当てられている部分が不明確となり、番号の入力ミスが生じるおそれがある。 However, in art museums, there are many parts that should be explained in one piece of work such as wall paintings, ceiling paintings, wall sculptures, etc., when there are many exhibits on one space or wall. There is a case. In such a case, the portion to which the information (information number) is assigned becomes unclear, and there is a possibility that an input error of the number occurs.
これに対し、最近では、RFID(Radio Frequency Identification)などを展示物近傍に設置し、見学者が展示物に近づいたことを検出すると、自動的に展示物の説明を行う技術が提案されている(例えば、特許文献1等参照)。
On the other hand, recently, a technology has been proposed in which an RFID (Radio Frequency Identification) or the like is installed in the vicinity of an exhibit, and when the visitor detects that the exhibit has approached the exhibit, it automatically explains the exhibit. (For example, refer
また、案内ロボットが予め作成したルートに従って案内を行う技術も提案されている(例えば、特許文献2等参照)。 In addition, a technique for performing guidance according to a route created in advance by a guidance robot has been proposed (see, for example, Patent Document 2).
しかしながら、上記特許文献1では、展示物数が多い場合には、どの説明が行われているのかを判断しにくく、また見学者が説明を受けたい展示物を、見学者側から指定することができない。
However, in the above-mentioned
また、上記特許文献2では、ルートに沿った案内を受けている途中で他の物に興味を持った場合に、当該興味を持った物を別途指定することができないなど、案内の柔軟性に乏しい。
In addition, in the above-mentioned
そこで本件は上記の課題に鑑みてなされたものであり、ユーザの意思を反映した適切な情報提供を行うことが可能な情報提供装置を提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide an information providing apparatus capable of providing appropriate information reflecting the user's intention.
本明細書に記載の情報提供装置は、座標系が設定された空間内に配置される装置本体と、前記装置本体の前記座標系上における位置及び向きを検出する装置本体検出系と、前記装置本体に設けられ、前記空間内に存在する物体を指し示すために用いられる指示機構と、前記指示機構が物体を指し示すために移動した移動量を検出する移動量検出系と、前記移動量と、前記装置本体検出系による検出結果とに基づいて、前記座標系上における前記指示機構の指し示す方向のベクトル、及び当該ベクトルの始点を算出する位置情報算出部と、前記位置情報算出部による算出結果、及び前記空間内に配置された物体の座標に基づいて、前記指示機構が指し示している物体を特定する物体特定部と、前記物体特定部により特定された物体の情報を提供する情報提供部と、を備える情報提供装置である。 An information providing apparatus described in this specification includes an apparatus main body arranged in a space in which a coordinate system is set, an apparatus main body detection system that detects a position and an orientation of the apparatus main body on the coordinate system, and the device An indication mechanism provided in the main body and used to point to an object existing in the space; a movement amount detection system that detects a movement amount that the indication mechanism has moved to point to the object; the movement amount; Based on the detection result by the apparatus main body detection system, a vector in the direction indicated by the pointing mechanism on the coordinate system, a position information calculation unit that calculates a start point of the vector, a calculation result by the position information calculation unit, and Based on the coordinates of an object arranged in the space, an object specifying unit for specifying the object pointed to by the pointing mechanism, and information on the object specified by the object specifying unit are provided. An information providing unit that is an information providing apparatus comprising a.
これによれば、ユーザが指示機構を動かして物体を指し示した場合に、位置情報算出部が、指示機構の移動した移動量と、装置本体検出系により検出される座標系上における装置本体の位置及び向きと、に基づいて、座標系上における指示機構の指し示す方向のベクトル及び当該ベクトルの始点を算出し、この算出結果と、空間内に配置された物体の座標とに基づいて、物体特定部が、指示機構が指し示した物体を特定する。したがって、情報提供部が上記のようにして特定された物体の情報を提供することで、ユーザの意思を反映した適切な情報提供を行うことが可能となる。この場合、装置周辺に位置検出のための発信機等を設ける必要が無いので、設備投資を低減し、発信機等を設けることによる空間(例えば、美術館や博物館、歴史的建造物など)の美感低下を抑制することができる。 According to this, when the user moves the pointing mechanism and points to the object, the position information calculation unit moves the moving amount of the pointing mechanism and the position of the apparatus main body on the coordinate system detected by the apparatus main body detection system. And the direction, and the direction vector indicated by the pointing mechanism on the coordinate system and the start point of the vector are calculated based on the calculation result and the coordinates of the object arranged in the space. Identifies the object pointed to by the pointing mechanism. Therefore, when the information providing unit provides information on the object specified as described above, it is possible to provide appropriate information reflecting the user's intention. In this case, since there is no need to provide a transmitter for position detection around the device, the equipment investment is reduced, and the space (for example, art museums, museums, historic buildings, etc.) is aesthetically pleasing. The decrease can be suppressed.
本明細書に記載の情報提供装置は、ユーザの意思を反映した適切な情報提供を行うことができるという効果を奏する。 The information providing apparatus described in the present specification has an effect of providing appropriate information reflecting the user's intention.
以下、情報提供装置の一実施形態について、図1〜図10に基づいて詳細に説明する。図1には、情報提供装置としての情報提供ロボット100が斜視図にて示されている。また、図2には、情報提供ロボット100の制御系のブロック図が示されている。この情報提供ロボット100は、美術館や博物館、歴史的建築物などにおいて、見学者に対し絵画や彫刻、壁画などの展示物の情報を提供するロボットである。
Hereinafter, an embodiment of an information providing apparatus will be described in detail with reference to FIGS. FIG. 1 is a perspective view of an
図1に示すように、情報提供ロボット100は、ロボット本体部10と、ロボット本体部10を2次元面内で移動させる移動部20と、ロボット本体部10に取り付けられた指示機構としての腕部30と、を備えている。なお、本実施形態のロボット本体部10と移動部20とにより、装置本体が構成される。
As shown in FIG. 1, the
ロボット本体部10は、頭部10aと胴体部10bとを有する。胴体部10bには、表示部としてのディスプレイ12と、スピーカ14とが設けられている。ディスプレイ12は、タッチパネルから成るユーザ指示入力部16(図2参照)を有している。
The
移動部20は、複数の車輪(タイヤなど)を含む2次元移動系22(図2参照)を有している。また、移動部20は、2次元面内(XY面内)における位置及び向き(回転)を検出するための、装置本体検出系としてのロボット位置検出系24(図2参照)も有している。このロボット位置検出系24は、移動部20の2次元面(XY面)内における移動量を検出するXY検出部と、移動部20の2次元面内における向き(θz回転)を検出する回転検出部と、を具備している。XY検出部は、例えば、2次元移動系22の各車輪の回転数を検知するロータリエンコーダ等を含み、回転検出部は、例えばジャイロセンサを含む。なお、ロボット位置検出系24は、周辺の画像を撮像し、当該撮像結果に基づいて移動部20の位置を適宜補正する位置補正部を有していても良い。
The moving
腕部30は、図1では、3箇所の可動部32a,32b,32cを有している。可動部32a〜32cは、モータ等を含む腕部駆動系34(図2参照)により駆動される。また、腕部30には、可動部32a〜32bの動作量を検出する腕部移動量検出系36(図2参照)が設けられている。この腕部移動量検出系36は、例えば、可動部32a〜32cそれぞれに設けられたロータリエンコーダを含み、各可動部32a〜32cの移動量又は可動部(関節)の移動角度を検出する。
In FIG. 1, the
腕部30の先端(手先)には、CCD(Charge Coupled Device)等のカメラ38が設けられている。このカメラ38により撮影された画像は、ディスプレイ12に表示される。
A
図2の制御装置50は、情報提供ロボット100の各部を統括的に制御するものであり、駆動制御部52と、位置情報算出部54と、物体特定部56と、情報提供部58とを有する。
The
駆動制御部52は、制御プログラムに基づいて、情報提供ロボット100の腕部30と移動部20の動き、すなわち、腕部駆動系34と2次元移動系22の駆動を制御する。また、ユーザ指示入力部(タッチパネル)16を介してユーザ(見学者など)から「手動モード」の指示が出されると、駆動制御部52は、腕部駆動系34のサーボをOFFする。これにより、ユーザ(見学者など)は、腕部30を簡易に動かすことができるようになる。
The
位置情報算出部54は、腕部移動量検出系36による検出結果とロボット位置検出系24による検出結果とを用い、一般的な順運動学の計算により、手先の指し示す方向(ベクトル)を算出する。
The position
物体特定部56は、位置情報算出部54にて算出された手先の指し示す方向(ベクトル)と、情報提供ロボット100が存在する空間(例えば、美術館や博物館、歴史的建築物の部屋など)内に存在する物体(絵画や彫刻、壁画など)の配置データ(位置座標データ)と、に基づいて、手先が指し示す物体を特定する。なお、物体の位置座標データは、データベース60内に格納されている。
The
情報提供部58は、情報提供ロボット100の手先が指し示す物体(絵画や彫刻、壁画など)の情報を音声合成部64を介してスピーカ14から出力したり、画面表示部62を介してディスプレイ12から出力したりする。なお、物体の情報については、データベース60内に格納されている。
The
次に、データベース60内に格納されているデータ(物体の位置座標データ及び物体の情報)について、図3、図4に基づいて説明する。 Next, data stored in the database 60 (object position coordinate data and object information) will be described with reference to FIGS.
図3は、情報提供ロボット100が設置される部屋1内の物体(絵画や彫刻等)の配置を示す図である。この図3に示すように、例えば、部屋1内の壁面1に、絵画1〜6が設けられ、壁面2には、壁画(説明部分part1、part2を有する)が存在し、壁面3には、壁画(説明部分part1を有する)が存在し、天井には天井画(説明部分part1〜part3を有する)が存在し、床面上には、彫刻1が設けられている。また、壁面3には部屋2の入口が設けられている。これら絵画、壁画、彫刻の位置や、部屋1全体の範囲及び部屋2の入口の位置などの3次元形状情報は、図3に示すグローバル座標系(XYZ)上での座標値として表すことができる。これら座標値は、物体の位置座標データとして、データベース60内に格納されている。なお、部屋2全体の範囲や、部屋2内に展示されている絵画などの位置についても、グローバル座標系上での座標値として表すことができるので、これら座標値も、物体の位置座標データとして、データベース60内に格納される。
FIG. 3 is a diagram showing the arrangement of objects (such as paintings and sculptures) in the
図4には、部屋や絵画等の説明に用いられる情報のツリー構造が示されている。この図4に示すように、建物(美術館等)のデータの下位に廊下1などのデータが存在し、その下位に、廊下1からアクセス可能な部屋1、部屋2、及び部屋1入口、部屋2入口などのデータが存在している。図4では、部屋1、部屋2などのデータ(大きな括りのデータ)にズームレベル「0」が設定されている。なお、ズームレベル「0」のデータ(説明情報)は、例えば、「この部屋は、××時代の画家の作品を集めた部屋です」などの音声情報やこれに関連する画像情報である。
FIG. 4 shows a tree structure of information used for explaining a room, a picture, and the like. As shown in FIG. 4, data such as
また、部屋1や部屋2などの下位には、図4に示すように、各部屋を細分化したデータ、すなわち天井画データ、壁面1データ、壁面2データ、壁面3データ、部屋2入口データなどが存在している。図4では、これらのデータのズームレベルが「1」に設定されている。なお、ズームレベル「1」のデータ(説明情報)は、例えば、「この壁面に並べられている絵画は、画家××の作品です」などの音声情報やこれに関連する画像情報である。
Further, as shown in FIG. 4, the data subdivided into each room, that is, ceiling image data,
更に、ズームレベル「1」のデータの下位には、さらに細分化されたデータ、例えば説明部分part1,part2、絵画1、2、彫刻1などのデータが存在している。図4では、これら更に細分化されたデータのズームレベルが「2」に設定されている。なお、ズームレベル「2」のデータ(説明情報)は、例えば、「この作品の名称は、××であり、…という内容のものです」などの音声情報やこれに関連する画像情報である。
Further, subordinate data such as explanation parts part1, part2,
なお、図4において四角で囲んだデータ(説明情報)は全て用意しなくても良い。本実施形態では、例えば、図4においてハッチングを付して示すデータについては用意していないものとする。 Note that all the data (description information) enclosed by the square in FIG. 4 need not be prepared. In the present embodiment, for example, data indicated by hatching in FIG. 4 is not prepared.
なお、図3、図4のようなデータを格納するデータベース60は、情報提供ロボット100内に設けられていても良いし、通信回線等を介して接続されるサーバ内に設けられても良い。
The
次に、本実施形態における情報提供ロボット100の動作・処理について、図5、図7、図9のフローチャートに沿って、かつその他図面を適宜参照しつつ説明する。
Next, the operation and processing of the
図5には、制御装置50の処理がフローチャートにて示されている。この図5の処理の前提として、図3に示すグローバル座標系が予め定められており、データベース60にも物体の位置座標データや、図4に示す物体の情報が格納されているものとする。なお、グローバル座標系における情報提供ロボット100の初期位置は、情報提供ロボット100に対して充電を行う充電ステーションの位置などが予め定められているものとする。
FIG. 5 shows the process of the
また、ディスプレイ12には、図6に示すように、手動モードボタン、説明開始ボタン、ズームレベル設定ボタンなどを含むウィンドウ68が表示されているものとする。
Further, it is assumed that a
まず、図5のステップS10では、制御装置50の位置情報算出部54が、ロボット位置検出系24による検出結果に基づいて、自己位置を取得する。なお、ここで取得される自己位置は、主に、情報提供ロボット100が、現在、ズームレベル「0」の中のどの位置にいるのか、すなわち、どの部屋にいるのかを検出するのに用いられる。
First, in step S <b> 10 of FIG. 5, the position
次いで、ステップS12では、制御装置50の情報提供部58が、ユーザ指示入力部16からユーザによる手動モード指示が出されたか否か、すなわち、ユーザにより手動モードボタンが押されたか否かを判断する。ここでの判断が否定された場合には、ステップS14に移行する。このステップS14では、情報提供部58が、ズームレベル「0」での説明を実行(又は継続)する。すなわち、情報提供ロボット100が、部屋1内に存在する場合には、部屋1の説明情報を、スピーカ14やディスプレイ12を介してユーザに提供する。
Next, in step S12, the
一方、ステップS12の判断が肯定されると、ステップS16に移行し、駆動制御部52が、腕部30のサーボをOFFする。このように、腕部30のサーボがOFFされた状態では、腕部30が垂れ下がった状態となり、ユーザは、腕部30を比較的簡易に動かすことができるようになる。この状態で、ユーザは、腕部30を動かして、説明を受けたい物体(絵画など)に手先を向けるようにすることができる。なお、サーボがOFFされた段階で、情報提供部58が、スピーカ14やディスプレイ12を介して、ユーザに腕部30を動かすように促すこととしても良い。また、情報提供部58は、腕部30のサーボがOFFされた後、腕部30の先端(手先)に設けられたカメラ38による撮影を開始し、当該撮影画像を、ディスプレイ12に表示するようにする。これにより、ユーザは、ディスプレイ12に表示されている画像から、情報提供ロボット100の手先が指し示している物体を確認することができる。また、ユーザは、情報提供ロボット100の手先を、説明を受けたい物体に向けたことを確認した段階で、ユーザ指示入力部16を介して説明開始ボタン(図6参照)を押す。
On the other hand, if the determination in step S12 is affirmed, the process proceeds to step S16, and the
次のステップS18では、駆動制御部52が、ユーザから説明開始指示が出されるまで、すなわち、説明開始ボタンが押されるまで待機する。そして、ステップS18の判断が肯定されると、ステップS20において、駆動制御部52が、腕部30のサーボをONする。このサーボON動作により、説明開始指示が出された時点、すなわち、説明開始ボタンが押された時点での、腕部30の状態を維持することができる。
In the next step S18, the
次のステップS22では、位置情報算出部54が、ロボット位置検出系24による検出結果に基づいて、自己位置を取得する。図3では、自己位置が(x0,y0,0,θz)として示されている。
In the next step S <b> 22, the position
次いで、ステップS24では、位置情報算出部54が、ステップS22で取得した自己位置(x0,y0,0,θz)と、腕部移動量検出系36による検出結果、すなわち、腕部30の各可動部32a〜32cの移動量に基づいて、手先の位置座標(x1,y1,z1)を算出する。また、位置情報算出部54は、手先の向いている方向(ベクトル(x1’、y1’、z1’))についても算出し、これら手先の位置座標(x1,y1,z1)とベクトル(x1’、y1’、z1’)を用いて、図3に示す半直線Lを取得する。
Next, in step S24, the position
次いで、ステップS26では、情報提供部58が、所定時間内にユーザからズームレベル(1又は2)のいずれかが入力(選択)されたか否かを判断する。すなわち、所定時間内に、ユーザから、絵画などの詳細な情報が知りたいのか(ズームレベル2)、それよりも大雑把な情報が知りたいのか(ズームレベル1)、のいずれかが入力されたか否かを判断する。
Next, in step S26, the
ここでの判断が肯定された場合には、ステップS28に移行し、情報提供部58は、入力されたズームレベルに設定する。なお、ここでは、一例として、ズームレベルとして「2」が入力されたものとする。そして、ステップS30では、物体特定部56が、半直線Lとの交点を有する物体(具体的には、設定されたズームレベル(ズームレベル「2」)に含まれる物体)を検索する。なお、情報提供ロボット100が部屋1内に存在する場合に、他の部屋の物体を指し示すことは考えられないので、物体の検索の際には、部屋1内の物体のみを検索対象とする。
If the determination here is affirmed, the process proceeds to step S28, and the
次いで、ステップS32では、物体特定部56が、半直線Lとの交点を有する物体が存在するか否か、すなわち説明対象の物体が存在するか否かを判断する。ここでの判断が否定された場合には、説明情報が存在しないので、ステップS34において、情報提供部58が、その旨をスピーカ14やディスプレイ12を介してユーザに提供し、ステップS44に移行する。なお、説明対象が存在しない場合とは、半直線Lが設定されたズームレベルの物体のいずれとも交差しない場合、及び交差した場合でも、図4にハッチングを付して示すように、情報が存在しない物体である場合を含む。
Next, in step S32, the
一方、ステップS32の判断が肯定された場合には、ステップS38に移行する。 On the other hand, if the determination in step S32 is affirmative, the process proceeds to step S38.
ところで、ステップS26の判断が否定された場合、すなわち、所定時間内にズームレベルの入力がなされなかった場合には、ステップS36(ズームレベル未入力時の処理サブルーチン)に移行する。 If the determination in step S26 is negative, that is, if the zoom level is not input within a predetermined time, the process proceeds to step S36 (processing subroutine when no zoom level is input).
このサブルーチンでは、図7の処理を実行する。まず、図7のステップS110では、情報提供部58が、ズームレベルを「1」に設定する。次いで、ステップS112では、物体特定部56が、ズームレベル「1」で半直線Lと交点を持つ物体(又は部屋の壁や床)を検索し、検索された物体と情報提供ロボット100との距離を算出する。次いで、ステップS114では、情報提供部58が、ステップS112において算出された距離が、一定値以下か否かを判断する。本実施形態では、一定値として、図8のズームレベル算出表に示す3(m)を採用するものとする。ここでの判断が肯定された場合には、ステップS116に移行し、図8のズームレベル算出表に基づいて、ズームレベルを上げる。ここでは、図8に基づいて、ズームレベルを+1する。すなわちズームレベルを「2」に設定する。
In this subroutine, the processing of FIG. 7 is executed. First, in step S110 of FIG. 7, the
一方、ステップS114の判断が否定された場合には、ステップS118に移行する。 On the other hand, if the determination in step S114 is negative, the process proceeds to step S118.
ステップS118では、物体特定部56が、現在設定されているズームレベルで、半直線Lと交差する物体が存在するか否か、すなわち、説明対象が存在するか否かを判断する。ここでの判断が否定された場合には、ステップS120において、情報提供部58が、ズームレベルを1引き下げ、次のステップS122において、ズームレベルが0になったか否かを判断する。ここでの判断が否定された場合、すなわち、ズームレベルが1以上である場合には、ステップS118に移行し、新たなズームレベルで説明対象があるか否かを判断する。一方、ステップS122の判断が肯定された場合には、情報提供部58は、説明情報が無い旨をスピーカ14やディスプレイ12を介してユーザに提供し、図5のステップS44に移行する。
In step S118, the
これに対し、ステップS118の判断が肯定された場合には、図5のステップS38に移行する。 On the other hand, if the determination in step S118 is affirmed, the process proceeds to step S38 in FIG.
図5のステップS38では、物体特定部56が、説明対象が複数存在するか否かを判断する。ここで、説明対象が複数存在する場合とは、半直線Lと交差する物体が2以上ある場合、例えば、図3において、彫刻1越しに絵画4を指し示した場合を意味する。ここでの判断が否定された場合、すなわち、説明対象が1つであった場合には、ステップS40において、情報提供部58が、説明対象についての情報をスピーカ14やディスプレイ12を介してユーザに提供し、その後、図5のステップS44に移行する。なお、ディスプレイ12には、予め用意しておいた画像を表示しても良いし、カメラ38により撮影されている画像のズーム画像を表示することとしても良い。一方、説明対象が複数あった場合には、ステップS38の判断が肯定され、ステップS42(対象選択処理サブルーチン)に移行する。
In step S38 of FIG. 5, the
このステップS42(対象選択処理サブルーチン)では、図9の処理を実行する。まず、図9のステップS130では、情報提供部58が、複数の対象を、距離が近い順にディスプレイ12上に表示する。例えば、図10に示すように、ディスプレイ12上にウィンドウ70を表示し、当該ウィンドウ70内に複数の対象(ここでは、彫刻1と絵画4)を情報提供ロボット100に近い方から順に表示する。
In step S42 (subject selection processing subroutine), the processing of FIG. 9 is executed. First, in step S <b> 130 of FIG. 9, the
次いで、図9のステップS132では、所定時間内に、ユーザにより複数の対象のいずれかが選択されたか否かを判断する。ここでの判断が肯定された場合には、ステップS134に移行して、情報提供部58が、選択された対象に関する説明を、スピーカ14やディスプレイ12を介してユーザに提供し、図5のステップS44に移行する。一方、ステップS132における判断が否定された場合には、ステップS136において、情報提供部58が、距離が最も近い対象(ここでは、彫刻1)についての情報を、スピーカ14やディスプレイ12を介してユーザに提供し、図5のステップS44に移行する。なお、ステップS134やS136では、ディスプレイ12に、予め用意しておいた画像情報を表示しても良いし、カメラ38により撮像された画像のズーム画像を表示することとしても良い。
Next, in step S132 of FIG. 9, it is determined whether or not any of a plurality of objects has been selected by the user within a predetermined time. If the determination here is affirmed, the process proceeds to step S134, where the
その後は、図5のステップS44において、駆動制御部52が、ユーザから手動モードの指示が出されたか否かを判断し、判断が肯定された場合には、ステップS16に戻り、新たにユーザから指し示される物体の情報提供を行う。
After that, in step S44 of FIG. 5, the
一方、ステップS44の判断が否定された場合には、位置情報算出部54が、ステップS46において、ロボット位置検出系24の検出結果に基づいて自己位置を取得する。そして、位置情報算出部54は、自己位置に基づいて、情報提供ロボット100が部屋を移動したか否かを判断する(ステップS48)。ここでの判断が否定された場合には、ステップS44に戻り、肯定された場合には、上記ステップS12〜S48の処理判断を繰り返すことで、新たな部屋での情報提供を実行する。
On the other hand, if the determination in step S44 is negative, the position
以上、詳細に説明したように、本実施形態によると、ユーザが腕部30を動かして物体を指し示した場合に、腕部移動量検出系36により検出される腕部30の移動量と、ロボット位置検出系24により検出されるグローバル座標系上における情報提供ロボット100の位置及び向き(回転)と、に基づいて、腕部30の手先が指し示す方向のベクトル及び手先位置(ベクトルの始点)をグローバル座標系上にて算出し、この算出結果と、物体の位置座標データとに基づいて、物体特定部56が、腕部30の手先が指し示している物体を特定する。したがって、情報提供部58が上記のようにして特定された物体の情報を提供することで、ユーザの意思を反映した適切な情報提供を行うことが可能となる。この場合、情報提供ロボット100の周辺に位置検出のための発信機等を設ける必要が無いので、設備投資を低減し、発信機等を設けることによる空間(例えば、美術館など)の美感低下を抑制することができる。
As described above in detail, according to the present embodiment, when the user moves the
また、本実施形態によると、データベース60が、図4に示すように、物体(絵画等)の情報を、詳細度に応じたツリー構造で保持するので、適切な詳細度の情報を、簡易に検索し、提供することができる。
Further, according to the present embodiment, as shown in FIG. 4, the
また、本実施形態によると、ユーザがズームレベルの選択を行わなかった場合に、情報提供部58が、情報提供ロボット100の位置と物体との距離を算出し、算出された距離に応じて、提供する情報の詳細度を変更する(ステップS114、S116)ので、適切な詳細度の情報を自動的に選択して、ユーザに提供することができる。
Further, according to the present embodiment, when the user does not select the zoom level, the
また、本実施形態によると、情報提供部58が提供する情報の詳細度を、ユーザからの入力に基づいて決定することもできる(ステップS28)ので、ユーザの要求に応じた適切な情報を提供することが可能である。
Further, according to the present embodiment, the degree of detail of the information provided by the
また、物体特定部56が特定した物体(説明対象)が複数存在していた場合に、情報提供部58は、複数の説明対象のいずれかを選択するための情報(ウィンドウ70)をディスプレイ12上に表示するので、この点からも、ユーザの要求に応じた適切な情報を提供することができる。また、ユーザが複数の説明対象のいずれかを所定時間内に選択しなかった場合に、距離が最も近い説明対象の情報をユーザに提供するので、ユーザが指し示している蓋然性が比較的高い情報をユーザに提供することができる。
In addition, when there are a plurality of objects (explanation targets) specified by the
また、本実施形態では、腕部30の手先が指し示している物体をカメラで撮像し、当該撮像結果をディスプレイ12に表示するので、ユーザは、腕部30の指し示している位置を正確に認識することが可能である。
In the present embodiment, since the object pointed by the hand of the
なお、上記実施形態では、物体の情報を、図4に示すようにツリー構造とした場合について説明したが、これに限らず、ツリー構造を採用しなくても良い。この場合、例えば、展示物のカテゴリー(絵画、彫刻、壁画など)ごとに情報を纏めるなどすることができる。 In the above embodiment, the case where the object information has a tree structure as shown in FIG. 4 is described. However, the present invention is not limited to this, and the tree structure may not be adopted. In this case, for example, information can be summarized for each category of an exhibit (painting, sculpture, mural, etc.).
なお、上記実施形態では、腕部30の手先が指し示している物体を、ディスプレイ12上に表示することで、ユーザに、腕部30の指し示している位置を認識させる場合について説明したが、これに限られるものではない。例えば、腕部30の手先に、レーザポインタなどの指示機構を設けておき、当該レーザポインタの照射位置により、ユーザに、腕部30の指し示している位置を認識させることとしても良い。
In the above embodiment, the case where the object pointed by the hand of the
なお、上記実施形態では、ユーザが、腕部30を直接動かして、物体を指し示す場合について説明したが、これに限らず、腕部30を駆動するためのコントローラを用意しておき、当該コントローラを介して、腕部30をユーザが操作することとしても良い。このコントローラは、ディスプレイ12に設けられるタッチパネルに表示することとしても良い。また、ユーザが動かす対象は、腕部30に限らず、頭部10aとしても良い。この場合、頭部10aにカメラやレーザポインタなどの指示機構を設けることで、上記実施形態と同様の処理を行うことができる。
In the above-described embodiment, the case where the user directly moves the
また、上記実施形態では、ユーザ指示入力部16が、タッチパネルである場合について説明したが、これに限らず、例えば、腕部30やロボット本体部10に操作ボタンを設け、当該操作ボタンをユーザ指示入力部16として採用することとしても良い。また、ロボット本体部10等に音声認識用のマイクを設け、当該マイクをユーザ指示入力部16として採用することとしても良い。
In the above-described embodiment, the case where the user
なお、上記実施形態では、腕部30が可動部を3つ有しており、当該可動部の移動量を検出するためにロータリエンコーダを用いる場合について説明したが、これに限られるものではない。すなわち、可動部の数は任意であり、当該可動部の移動量の検出に、ロータリエンコーダとは別の検出器を用いても良い。
In the above embodiment, the case where the
なお、上記実施形態では、ズームレベルを「0」,「1」,「2」の3段階とした場合について説明したが、これに限らず、3段階より少なくしても良いし、3段階より多くしても良い。3段階より多くする場合には、例えば、図4の例であれば、絵画を更に細分化し、当該細分化された各部分をズームレベル「3」に設定することとしても良い。 In the above embodiment, the case where the zoom level has three levels of “0”, “1”, and “2” has been described. However, the present invention is not limited to this. You may increase it. For example, in the case of the example shown in FIG. 4, the painting may be further subdivided and each subdivided portion may be set to the zoom level “3”.
なお、上記実施形態で説明した処理(フローチャート)は全て実行しなくても良い。例えば、説明対象が複数存在する場合に、図9のフローチャート(サブルーチン)を実行せずに、自動的に情報提供ロボット100に最も近い説明対象の情報を提供することとしても良い。また、彫刻が存在しない部屋であれば、複数の説明対象が選択される状況が存在しないので、ステップS38やステップS42を省略しても良い。
Note that it is not necessary to execute all the processes (flowcharts) described in the above embodiment. For example, when there are a plurality of explanation targets, the explanation target information closest to the
なお、図1では、2本の腕部30の一方にカメラ38(又はレーザポインタ)を設ける場合を図示しているが、これに限らず、両方の腕部30にカメラ(又はレーザポインタ)を設けることとしても良い。この場合、ユーザが動かした側の腕部30を処理(指し示した方向の検出)に用いることで、当該動かした側の腕部が指し示す物体の情報をユーザに提供するようにすることができる。
In FIG. 1, the camera 38 (or laser pointer) is provided on one of the two
なお、上記実施形態においては、例えば、貸出中や修復中等の理由により、実物を見ることができない場合に、実物が本来設置される位置に、その旨を表示しておくこととしても良い。この場合、その旨の表示を腕部30の手先で指し示すことにより、見ることができない物体の情報をスピーカ14やディスプレイ12を介してユーザに提供することができる。
In the embodiment described above, for example, when the actual object cannot be viewed due to renting or repairing, the fact may be displayed at the position where the actual object is originally installed. In this case, by pointing the display to that effect with the hand of the
なお、上記実施形態では、情報提供装置が、図1に示すような人型のロボットである場合について説明したが、これに限らず、その他の形状を有していても良い。 In the above embodiment, the case where the information providing apparatus is a humanoid robot as shown in FIG. 1 has been described. However, the present invention is not limited to this, and the information providing apparatus may have other shapes.
なお、上記実施形態では、情報提供ロボット100が、美術館や博物館、歴史的建築物などにおいて、見学者に対し絵画や彫刻、壁画などの展示物の情報を提供するロボットである場合について説明したが、これに限られるものではない。例えば、スーパーマーケットなどにおける商品説明など、ユーザが物体の情報の提供を必要とする種々の場面において、情報提供ロボット100を用いることが可能である。
In the above-described embodiment, the case where the
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
10 ロボット本体部(装置本体の一部)
12 ディスプレイ(表示部)
20 移動部(装置本体の一部)
24 ロボット位置検出系(装置本体検出系)
30 腕部(指示機構)
36 腕部移動量検出系(移動量検出系)
54 位置情報算出部
56 物体特定部
58 情報提供部
60 データベース
100 情報提供ロボット(情報提供装置)
10 Robot body (part of the device body)
12 Display (display part)
20 Moving part (part of the device body)
24 Robot position detection system (device main body detection system)
30 arms (instruction mechanism)
36 Arm movement amount detection system (movement amount detection system)
54 position
Claims (7)
前記装置本体の前記座標系上における位置及び向きを検出する装置本体検出系と、
前記装置本体に設けられ、前記空間内に存在する物体を指し示すために用いられる指示機構と、
前記指示機構が物体を指し示すために移動した移動量を検出する移動量検出系と、
前記移動量と、前記装置本体検出系による検出結果とに基づいて、前記座標系上における前記指示機構の指し示す方向のベクトル、及び当該ベクトルの始点を算出する位置情報算出部と、
前記位置情報算出部による算出結果、及び前記空間内に配置された物体の座標に基づいて、前記指示機構が指し示している物体を特定する物体特定部と、
前記物体特定部により特定された物体の情報を提供する情報提供部と、を備える情報提供装置。 A device body arranged in a space in which a coordinate system is set;
An apparatus main body detection system for detecting the position and orientation of the apparatus main body on the coordinate system;
An instruction mechanism provided in the apparatus main body and used to point to an object existing in the space;
A moving amount detection system for detecting a moving amount moved by the pointing mechanism to point to an object;
Based on the amount of movement and the detection result by the apparatus main body detection system, a position information calculation unit that calculates a vector in the direction indicated by the pointing mechanism on the coordinate system, and a start point of the vector;
An object specifying unit for specifying the object pointed to by the pointing mechanism based on the calculation result by the position information calculating unit and the coordinates of the object arranged in the space;
An information providing apparatus comprising: an information providing unit that provides information on the object specified by the object specifying unit.
前記データベースは、前記物体の情報を、詳細度に応じたツリー構造で保持することを特徴とする請求項1に記載の情報提供装置。 The information providing unit acquires information on the object from a database,
The information providing apparatus according to claim 1, wherein the database stores information on the object in a tree structure corresponding to a degree of detail.
前記算出された距離に応じて、提供する情報の詳細度を変更することを特徴とする請求項2に記載の情報提供装置。 The information providing unit calculates a distance between the position of the apparatus main body and the object specified by the object specifying unit;
The information providing apparatus according to claim 2, wherein a degree of detail of information to be provided is changed according to the calculated distance.
前記情報提供部は、前記特定された複数の物体のいずれかを選択するための情報を表示することを特徴とする請求項1〜4のいずれか一項に記載の情報提供装置。 When there are a plurality of objects specified by the object specifying unit,
5. The information providing apparatus according to claim 1, wherein the information providing unit displays information for selecting any of the plurality of identified objects.
前記情報提供部は、前記装置本体と前記特定された複数の物体それぞれとの間の距離を算出し、当該距離に基づいて情報を提供する物体を選択することを特徴とする請求項1〜4のいずれか一項に記載の情報提供装置。 When there are a plurality of objects specified by the object specifying unit,
The information providing unit calculates a distance between the apparatus main body and each of the specified plurality of objects, and selects an object that provides information based on the distance. The information providing apparatus according to any one of the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009075835A JP2010231315A (en) | 2009-03-26 | 2009-03-26 | Information providing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009075835A JP2010231315A (en) | 2009-03-26 | 2009-03-26 | Information providing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010231315A true JP2010231315A (en) | 2010-10-14 |
Family
ID=43047098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009075835A Pending JP2010231315A (en) | 2009-03-26 | 2009-03-26 | Information providing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010231315A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015066632A (en) * | 2013-09-27 | 2015-04-13 | 本田技研工業株式会社 | Robot, robot control method, and robot control program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002132806A (en) * | 2000-10-18 | 2002-05-10 | Fujitsu Ltd | Server system, and information providing service system and method |
JP2002269298A (en) * | 2001-03-13 | 2002-09-20 | Matsushita Electric Ind Co Ltd | Showpiece explaining system |
-
2009
- 2009-03-26 JP JP2009075835A patent/JP2010231315A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002132806A (en) * | 2000-10-18 | 2002-05-10 | Fujitsu Ltd | Server system, and information providing service system and method |
JP2002269298A (en) * | 2001-03-13 | 2002-09-20 | Matsushita Electric Ind Co Ltd | Showpiece explaining system |
Non-Patent Citations (4)
Title |
---|
CSNG200600554002; 浅野 寿朗 Toshio Asano: '触る分散仮想博物館における展示オブジェクト表示と解説情報ストリーミング開始の適応型制御' 日本バーチャルリアリティ学会論文誌 第11巻 第1号 Transactions of the Virtual Reality Society of 第11巻, 20060331, p.27-37, 特定非営利活動法人日本バーチャルリアリティ学会 Th * |
CSNG200700022009; 浅野 寿朗 Toshio Asano: '触る分散仮想博物館における適応型表示制御のための情報ファイルの事前送信制御方式 A Proactive File Tra' 日本バーチャルリアリティ学会論文誌 第11巻 第3号 Transactions of the Virtual Reality Society of 第11巻, 20060930, p.433-436, 特定非営利活動法人日本バーチャルリアリティ学会 Th * |
JPN6013048177; 浅野 寿朗 Toshio Asano: '触る分散仮想博物館における展示オブジェクト表示と解説情報ストリーミング開始の適応型制御' 日本バーチャルリアリティ学会論文誌 第11巻 第1号 Transactions of the Virtual Reality Society of 第11巻, 20060331, p.27-37, 特定非営利活動法人日本バーチャルリアリティ学会 Th * |
JPN6013048178; 浅野 寿朗 Toshio Asano: '触る分散仮想博物館における適応型表示制御のための情報ファイルの事前送信制御方式 A Proactive File Tra' 日本バーチャルリアリティ学会論文誌 第11巻 第3号 Transactions of the Virtual Reality Society of 第11巻, 20060930, p.433-436, 特定非営利活動法人日本バーチャルリアリティ学会 Th * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015066632A (en) * | 2013-09-27 | 2015-04-13 | 本田技研工業株式会社 | Robot, robot control method, and robot control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10800036B1 (en) | Tooltip stabilization | |
CN109552665B (en) | Method for measuring and inspecting structures using a catenary platform | |
EP1629366B1 (en) | Single camera system for gesture-based input and target indication | |
US11253991B1 (en) | Optimization of observer robot locations | |
JP5122887B2 (en) | Control method, apparatus, and medium for live-action base mobile device | |
US8036775B2 (en) | Obstacle avoidance system for a user guided mobile robot | |
US11230016B1 (en) | Multi-resolution localization system | |
US10675759B2 (en) | Interference region setting apparatus for mobile robot | |
WO2010038353A1 (en) | Autonomous movement device | |
US10751742B2 (en) | System and method for painting an interior wall of housing using a semi-automatic painting robot | |
Lee et al. | Autonomous tour guide robot by using ultrasonic range sensors and QR code recognition in indoor environment | |
US20150377606A1 (en) | Projection system | |
US20190015992A1 (en) | Robotic construction guidance | |
US11241790B2 (en) | Autonomous moving body and control program for autonomous moving body | |
US20180335521A1 (en) | Floor Surveying System | |
JP2009123061A (en) | System for detecting robot position | |
KR101471852B1 (en) | Smart Device, Apparatus for Providing Robot Information, Method for Generating Trajectory of Robot, and Method for Teaching Work of Robot | |
JP2006234453A (en) | Method of registering landmark position for self-position orientation | |
CN114102585A (en) | Article grabbing planning method and system | |
KR20160056559A (en) | Traveling system and method of robot using a pointer | |
JP7395877B2 (en) | Robot system and control method | |
JP2010231315A (en) | Information providing device | |
JP2004209562A (en) | Mobile robot | |
CN113858214A (en) | Positioning method and control system for robot operation | |
JP2020042667A (en) | Projection system, projection method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130305 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130422 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131001 |