JP2010231315A - Information providing device - Google Patents

Information providing device Download PDF

Info

Publication number
JP2010231315A
JP2010231315A JP2009075835A JP2009075835A JP2010231315A JP 2010231315 A JP2010231315 A JP 2010231315A JP 2009075835 A JP2009075835 A JP 2009075835A JP 2009075835 A JP2009075835 A JP 2009075835A JP 2010231315 A JP2010231315 A JP 2010231315A
Authority
JP
Japan
Prior art keywords
information
information providing
unit
user
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009075835A
Other languages
Japanese (ja)
Inventor
Yoshikazu Okabayashi
美和 岡林
Keiju Okabayashi
桂樹 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2009075835A priority Critical patent/JP2010231315A/en
Publication of JP2010231315A publication Critical patent/JP2010231315A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide appropriate information reflecting user's intention. <P>SOLUTION: On the basis of the moving amounts of an arm part 30 to be detected by an arm part moving amount detection system 36 when the arm part 30 moves in order to point an object (picture or the like) and the position and direction (rotation) of an information providing robot on a global coordinate system to be detected by a robot position detection system 24, vectors in a direction pointed by the hand of the arm 30 and the hand position (vector start point) are calculated on the global coordinate system, and on the basis of the calculation result and the position coordinate data of the object, an object specification part 56 specifies the object pointed by the hand of the arm part 30, and an information providing part 58 provides the information of the specified object to the user. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、情報提供装置に関し、特に空間内に配置された物体の情報を提供する情報提供装置に関する。   The present invention relates to an information providing apparatus, and more particularly to an information providing apparatus that provides information on an object placed in a space.

最近では、美術館や博物館、歴史的建築物などにおいて、見学者に対し絵画や彫刻、壁画などの展示物の情報を選択的に提供するツールとして、オーディオガイドなどの装置が用いられている。このオーディオガイドでは、一般的に、ユーザが手入力した番号に対応する展示物の情報が提供される。   Recently, devices such as audio guides have been used as tools for selectively providing information on exhibits such as paintings, sculptures, and murals to visitors in museums, historical buildings, and the like. This audio guide generally provides information on exhibits corresponding to numbers manually entered by the user.

しかるに、美術館等においては、一つの空間や壁面に数多くの展示物が展示してある場合や、歴史的建築物の壁画や天井画、壁面彫刻など一つの作品に説明すべき部分が多数存在する場合がある。このような場合には、情報(情報の番号)が割り当てられている部分が不明確となり、番号の入力ミスが生じるおそれがある。   However, in art museums, there are many parts that should be explained in one piece of work such as wall paintings, ceiling paintings, wall sculptures, etc., when there are many exhibits on one space or wall. There is a case. In such a case, the portion to which the information (information number) is assigned becomes unclear, and there is a possibility that an input error of the number occurs.

これに対し、最近では、RFID(Radio Frequency Identification)などを展示物近傍に設置し、見学者が展示物に近づいたことを検出すると、自動的に展示物の説明を行う技術が提案されている(例えば、特許文献1等参照)。   On the other hand, recently, a technology has been proposed in which an RFID (Radio Frequency Identification) or the like is installed in the vicinity of an exhibit, and when the visitor detects that the exhibit has approached the exhibit, it automatically explains the exhibit. (For example, refer patent document 1 etc.).

また、案内ロボットが予め作成したルートに従って案内を行う技術も提案されている(例えば、特許文献2等参照)。   In addition, a technique for performing guidance according to a route created in advance by a guidance robot has been proposed (see, for example, Patent Document 2).

特開2004−348243号公報JP 2004-348243 A 特開2008−003860号公報JP 2008-003860 A

しかしながら、上記特許文献1では、展示物数が多い場合には、どの説明が行われているのかを判断しにくく、また見学者が説明を受けたい展示物を、見学者側から指定することができない。   However, in the above-mentioned Patent Document 1, when the number of exhibits is large, it is difficult to determine which explanation is being given, and it is possible for the visitor to designate an exhibit that the visitor wants to receive explanation from. Can not.

また、上記特許文献2では、ルートに沿った案内を受けている途中で他の物に興味を持った場合に、当該興味を持った物を別途指定することができないなど、案内の柔軟性に乏しい。   In addition, in the above-mentioned Patent Document 2, if you are interested in another object while receiving guidance along the route, you cannot specify the object you are interested in separately. poor.

そこで本件は上記の課題に鑑みてなされたものであり、ユーザの意思を反映した適切な情報提供を行うことが可能な情報提供装置を提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide an information providing apparatus capable of providing appropriate information reflecting the user's intention.

本明細書に記載の情報提供装置は、座標系が設定された空間内に配置される装置本体と、前記装置本体の前記座標系上における位置及び向きを検出する装置本体検出系と、前記装置本体に設けられ、前記空間内に存在する物体を指し示すために用いられる指示機構と、前記指示機構が物体を指し示すために移動した移動量を検出する移動量検出系と、前記移動量と、前記装置本体検出系による検出結果とに基づいて、前記座標系上における前記指示機構の指し示す方向のベクトル、及び当該ベクトルの始点を算出する位置情報算出部と、前記位置情報算出部による算出結果、及び前記空間内に配置された物体の座標に基づいて、前記指示機構が指し示している物体を特定する物体特定部と、前記物体特定部により特定された物体の情報を提供する情報提供部と、を備える情報提供装置である。   An information providing apparatus described in this specification includes an apparatus main body arranged in a space in which a coordinate system is set, an apparatus main body detection system that detects a position and an orientation of the apparatus main body on the coordinate system, and the device An indication mechanism provided in the main body and used to point to an object existing in the space; a movement amount detection system that detects a movement amount that the indication mechanism has moved to point to the object; the movement amount; Based on the detection result by the apparatus main body detection system, a vector in the direction indicated by the pointing mechanism on the coordinate system, a position information calculation unit that calculates a start point of the vector, a calculation result by the position information calculation unit, and Based on the coordinates of an object arranged in the space, an object specifying unit for specifying the object pointed to by the pointing mechanism, and information on the object specified by the object specifying unit are provided. An information providing unit that is an information providing apparatus comprising a.

これによれば、ユーザが指示機構を動かして物体を指し示した場合に、位置情報算出部が、指示機構の移動した移動量と、装置本体検出系により検出される座標系上における装置本体の位置及び向きと、に基づいて、座標系上における指示機構の指し示す方向のベクトル及び当該ベクトルの始点を算出し、この算出結果と、空間内に配置された物体の座標とに基づいて、物体特定部が、指示機構が指し示した物体を特定する。したがって、情報提供部が上記のようにして特定された物体の情報を提供することで、ユーザの意思を反映した適切な情報提供を行うことが可能となる。この場合、装置周辺に位置検出のための発信機等を設ける必要が無いので、設備投資を低減し、発信機等を設けることによる空間(例えば、美術館や博物館、歴史的建造物など)の美感低下を抑制することができる。   According to this, when the user moves the pointing mechanism and points to the object, the position information calculation unit moves the moving amount of the pointing mechanism and the position of the apparatus main body on the coordinate system detected by the apparatus main body detection system. And the direction, and the direction vector indicated by the pointing mechanism on the coordinate system and the start point of the vector are calculated based on the calculation result and the coordinates of the object arranged in the space. Identifies the object pointed to by the pointing mechanism. Therefore, when the information providing unit provides information on the object specified as described above, it is possible to provide appropriate information reflecting the user's intention. In this case, since there is no need to provide a transmitter for position detection around the device, the equipment investment is reduced, and the space (for example, art museums, museums, historic buildings, etc.) is aesthetically pleasing. The decrease can be suppressed.

本明細書に記載の情報提供装置は、ユーザの意思を反映した適切な情報提供を行うことができるという効果を奏する。   The information providing apparatus described in the present specification has an effect of providing appropriate information reflecting the user's intention.

一実施形態に係る情報提供ロボットの構成を概略的に示す斜視図である。It is a perspective view showing roughly the composition of the information service robot concerning one embodiment. 情報提供ロボットの制御系のブロック図である。It is a block diagram of the control system of an information provision robot. 情報提供ロボットが設置される部屋1内の物体(絵画や彫刻等)の配置を示す図である。It is a figure which shows arrangement | positioning of the object (a painting, a sculpture, etc.) in the room 1 where an information provision robot is installed. 部屋や絵画等の説明に用いられる情報のツリー構造を示す図である。It is a figure which shows the tree structure of the information used for description of a room, a picture, etc. 制御装置の処理を示すフローチャートである。It is a flowchart which shows the process of a control apparatus. ディスプレイに表示される手動モードボタン、説明開始ボタン、ズームレベル設定ボタンなどを含むウィンドウの一例を示す図である。It is a figure which shows an example of the window containing the manual mode button, description start button, zoom level setting button, etc. which are displayed on a display. ステップS36(ズームレベル未入力時の処理サブルーチン)の具体的な処理を示すフローチャートである。It is a flowchart which shows the specific process of step S36 (processing subroutine at the time of zoom level non-input). ズームレベル算出表を示す図である。It is a figure which shows a zoom level calculation table. ステップS42(対象選択処理サブルーチン)の具体的な処理を示すフローチャートである。It is a flowchart which shows the specific process of step S42 (target selection process subroutine). ディスプレイに、複数の説明対象を表示する表示例を示す図である。It is a figure which shows the example of a display which displays a some description object on a display.

以下、情報提供装置の一実施形態について、図1〜図10に基づいて詳細に説明する。図1には、情報提供装置としての情報提供ロボット100が斜視図にて示されている。また、図2には、情報提供ロボット100の制御系のブロック図が示されている。この情報提供ロボット100は、美術館や博物館、歴史的建築物などにおいて、見学者に対し絵画や彫刻、壁画などの展示物の情報を提供するロボットである。   Hereinafter, an embodiment of an information providing apparatus will be described in detail with reference to FIGS. FIG. 1 is a perspective view of an information providing robot 100 as an information providing apparatus. FIG. 2 shows a block diagram of a control system of the information providing robot 100. The information providing robot 100 is a robot that provides visitors with information on exhibits such as paintings, sculptures, and murals in museums, historical buildings, and the like.

図1に示すように、情報提供ロボット100は、ロボット本体部10と、ロボット本体部10を2次元面内で移動させる移動部20と、ロボット本体部10に取り付けられた指示機構としての腕部30と、を備えている。なお、本実施形態のロボット本体部10と移動部20とにより、装置本体が構成される。   As shown in FIG. 1, the information providing robot 100 includes a robot body unit 10, a moving unit 20 that moves the robot body unit 10 in a two-dimensional plane, and an arm unit as an instruction mechanism attached to the robot body unit 10. 30. The robot main body 10 and the moving unit 20 of the present embodiment constitute an apparatus main body.

ロボット本体部10は、頭部10aと胴体部10bとを有する。胴体部10bには、表示部としてのディスプレイ12と、スピーカ14とが設けられている。ディスプレイ12は、タッチパネルから成るユーザ指示入力部16(図2参照)を有している。   The robot body 10 includes a head 10a and a body 10b. The body unit 10b is provided with a display 12 as a display unit and a speaker 14. The display 12 has a user instruction input unit 16 (see FIG. 2) that is a touch panel.

移動部20は、複数の車輪(タイヤなど)を含む2次元移動系22(図2参照)を有している。また、移動部20は、2次元面内(XY面内)における位置及び向き(回転)を検出するための、装置本体検出系としてのロボット位置検出系24(図2参照)も有している。このロボット位置検出系24は、移動部20の2次元面(XY面)内における移動量を検出するXY検出部と、移動部20の2次元面内における向き(θz回転)を検出する回転検出部と、を具備している。XY検出部は、例えば、2次元移動系22の各車輪の回転数を検知するロータリエンコーダ等を含み、回転検出部は、例えばジャイロセンサを含む。なお、ロボット位置検出系24は、周辺の画像を撮像し、当該撮像結果に基づいて移動部20の位置を適宜補正する位置補正部を有していても良い。   The moving unit 20 has a two-dimensional moving system 22 (see FIG. 2) including a plurality of wheels (tires and the like). The moving unit 20 also has a robot position detection system 24 (see FIG. 2) as an apparatus main body detection system for detecting the position and orientation (rotation) in the two-dimensional plane (in the XY plane). . The robot position detection system 24 includes an XY detection unit that detects the amount of movement of the moving unit 20 in the two-dimensional plane (XY plane), and a rotation detection that detects the orientation (θz rotation) of the moving unit 20 in the two-dimensional plane. And a portion. The XY detection unit includes, for example, a rotary encoder that detects the rotation speed of each wheel of the two-dimensional movement system 22, and the rotation detection unit includes, for example, a gyro sensor. The robot position detection system 24 may include a position correction unit that captures a peripheral image and appropriately corrects the position of the moving unit 20 based on the imaging result.

腕部30は、図1では、3箇所の可動部32a,32b,32cを有している。可動部32a〜32cは、モータ等を含む腕部駆動系34(図2参照)により駆動される。また、腕部30には、可動部32a〜32bの動作量を検出する腕部移動量検出系36(図2参照)が設けられている。この腕部移動量検出系36は、例えば、可動部32a〜32cそれぞれに設けられたロータリエンコーダを含み、各可動部32a〜32cの移動量又は可動部(関節)の移動角度を検出する。   In FIG. 1, the arm part 30 has three movable parts 32a, 32b, and 32c. The movable parts 32a to 32c are driven by an arm drive system 34 (see FIG. 2) including a motor or the like. In addition, the arm part 30 is provided with an arm part movement amount detection system 36 (see FIG. 2) that detects the movement amounts of the movable parts 32a to 32b. The arm movement amount detection system 36 includes, for example, a rotary encoder provided in each of the movable portions 32a to 32c, and detects the movement amount of each of the movable portions 32a to 32c or the movement angle of the movable portion (joint).

腕部30の先端(手先)には、CCD(Charge Coupled Device)等のカメラ38が設けられている。このカメラ38により撮影された画像は、ディスプレイ12に表示される。   A camera 38 such as a CCD (Charge Coupled Device) is provided at the tip (hand) of the arm 30. An image photographed by the camera 38 is displayed on the display 12.

図2の制御装置50は、情報提供ロボット100の各部を統括的に制御するものであり、駆動制御部52と、位置情報算出部54と、物体特定部56と、情報提供部58とを有する。   The control device 50 in FIG. 2 controls the respective units of the information providing robot 100 in an integrated manner, and includes a drive control unit 52, a position information calculation unit 54, an object specifying unit 56, and an information providing unit 58. .

駆動制御部52は、制御プログラムに基づいて、情報提供ロボット100の腕部30と移動部20の動き、すなわち、腕部駆動系34と2次元移動系22の駆動を制御する。また、ユーザ指示入力部(タッチパネル)16を介してユーザ(見学者など)から「手動モード」の指示が出されると、駆動制御部52は、腕部駆動系34のサーボをOFFする。これにより、ユーザ(見学者など)は、腕部30を簡易に動かすことができるようになる。   The drive control unit 52 controls the movement of the arm unit 30 and the moving unit 20 of the information providing robot 100, that is, the driving of the arm unit driving system 34 and the two-dimensional moving system 22 based on the control program. Further, when an instruction of “manual mode” is issued from the user (visitor or the like) via the user instruction input unit (touch panel) 16, the drive control unit 52 turns off the servo of the arm drive system 34. Thereby, a user (visitor etc.) comes to be able to move the arm part 30 easily.

位置情報算出部54は、腕部移動量検出系36による検出結果とロボット位置検出系24による検出結果とを用い、一般的な順運動学の計算により、手先の指し示す方向(ベクトル)を算出する。   The position information calculation unit 54 calculates the direction (vector) indicated by the hand by general forward kinematics calculation using the detection result by the arm movement amount detection system 36 and the detection result by the robot position detection system 24. .

物体特定部56は、位置情報算出部54にて算出された手先の指し示す方向(ベクトル)と、情報提供ロボット100が存在する空間(例えば、美術館や博物館、歴史的建築物の部屋など)内に存在する物体(絵画や彫刻、壁画など)の配置データ(位置座標データ)と、に基づいて、手先が指し示す物体を特定する。なお、物体の位置座標データは、データベース60内に格納されている。   The object specifying unit 56 includes a direction (vector) indicated by the hand calculated by the position information calculating unit 54 and a space where the information providing robot 100 exists (for example, a room of an art museum, a museum, a historical building, or the like). Based on the arrangement data (positional coordinate data) of existing objects (such as paintings, sculptures, and murals), the object indicated by the hand is specified. The object position coordinate data is stored in the database 60.

情報提供部58は、情報提供ロボット100の手先が指し示す物体(絵画や彫刻、壁画など)の情報を音声合成部64を介してスピーカ14から出力したり、画面表示部62を介してディスプレイ12から出力したりする。なお、物体の情報については、データベース60内に格納されている。   The information providing unit 58 outputs information on an object (painting, sculpture, mural, etc.) indicated by the hand of the information providing robot 100 from the speaker 14 via the voice synthesis unit 64 or from the display 12 via the screen display unit 62. Or output. Note that object information is stored in the database 60.

次に、データベース60内に格納されているデータ(物体の位置座標データ及び物体の情報)について、図3、図4に基づいて説明する。   Next, data stored in the database 60 (object position coordinate data and object information) will be described with reference to FIGS.

図3は、情報提供ロボット100が設置される部屋1内の物体(絵画や彫刻等)の配置を示す図である。この図3に示すように、例えば、部屋1内の壁面1に、絵画1〜6が設けられ、壁面2には、壁画(説明部分part1、part2を有する)が存在し、壁面3には、壁画(説明部分part1を有する)が存在し、天井には天井画(説明部分part1〜part3を有する)が存在し、床面上には、彫刻1が設けられている。また、壁面3には部屋2の入口が設けられている。これら絵画、壁画、彫刻の位置や、部屋1全体の範囲及び部屋2の入口の位置などの3次元形状情報は、図3に示すグローバル座標系(XYZ)上での座標値として表すことができる。これら座標値は、物体の位置座標データとして、データベース60内に格納されている。なお、部屋2全体の範囲や、部屋2内に展示されている絵画などの位置についても、グローバル座標系上での座標値として表すことができるので、これら座標値も、物体の位置座標データとして、データベース60内に格納される。   FIG. 3 is a diagram showing the arrangement of objects (such as paintings and sculptures) in the room 1 where the information providing robot 100 is installed. As shown in FIG. 3, for example, paintings 1 to 6 are provided on the wall surface 1 in the room 1, the wall surface 2 has a mural (having explanation parts part <b> 1 and part <b> 2), and the wall surface 3 includes There is a mural (having explanation part part1), a ceiling picture (having explanation parts part1 to part3) is present on the ceiling, and a sculpture 1 is provided on the floor surface. The wall surface 3 is provided with an entrance of the room 2. The three-dimensional shape information such as the positions of these paintings, murals and sculptures, the range of the entire room 1 and the position of the entrance of the room 2 can be expressed as coordinate values on the global coordinate system (XYZ) shown in FIG. . These coordinate values are stored in the database 60 as object position coordinate data. Note that the range of the entire room 2 and the positions of the pictures displayed in the room 2 can also be expressed as coordinate values on the global coordinate system, so these coordinate values are also used as object position coordinate data. Stored in the database 60.

図4には、部屋や絵画等の説明に用いられる情報のツリー構造が示されている。この図4に示すように、建物(美術館等)のデータの下位に廊下1などのデータが存在し、その下位に、廊下1からアクセス可能な部屋1、部屋2、及び部屋1入口、部屋2入口などのデータが存在している。図4では、部屋1、部屋2などのデータ(大きな括りのデータ)にズームレベル「0」が設定されている。なお、ズームレベル「0」のデータ(説明情報)は、例えば、「この部屋は、××時代の画家の作品を集めた部屋です」などの音声情報やこれに関連する画像情報である。   FIG. 4 shows a tree structure of information used for explaining a room, a picture, and the like. As shown in FIG. 4, data such as corridor 1 exists below the data of the building (museum etc.), and room 1, room 2, accessible from corridor 1, entrance of room 1, and room 2 are below that. Data such as entrances exist. In FIG. 4, the zoom level “0” is set for the data of room 1 and room 2 (large data). The data (explanatory information) at the zoom level “0” is, for example, audio information such as “This room is a room where the works of painters of the xx era” are collected, and image information related thereto.

また、部屋1や部屋2などの下位には、図4に示すように、各部屋を細分化したデータ、すなわち天井画データ、壁面1データ、壁面2データ、壁面3データ、部屋2入口データなどが存在している。図4では、これらのデータのズームレベルが「1」に設定されている。なお、ズームレベル「1」のデータ(説明情報)は、例えば、「この壁面に並べられている絵画は、画家××の作品です」などの音声情報やこれに関連する画像情報である。   Further, as shown in FIG. 4, the data subdivided into each room, that is, ceiling image data, wall surface 1 data, wall surface 2 data, wall surface 3 data, room 2 entrance data, etc. Is present. In FIG. 4, the zoom level of these data is set to “1”. The data (explanatory information) at the zoom level “1” is, for example, audio information such as “the paintings arranged on this wall are works of painter xx” and image information related thereto.

更に、ズームレベル「1」のデータの下位には、さらに細分化されたデータ、例えば説明部分part1,part2、絵画1、2、彫刻1などのデータが存在している。図4では、これら更に細分化されたデータのズームレベルが「2」に設定されている。なお、ズームレベル「2」のデータ(説明情報)は、例えば、「この作品の名称は、××であり、…という内容のものです」などの音声情報やこれに関連する画像情報である。   Further, subordinate data such as explanation parts part1, part2, paintings 1, 2, and sculpture 1 exist below the zoom level “1” data. In FIG. 4, the zoom level of these further subdivided data is set to “2”. Note that the data (explanatory information) at the zoom level “2” is, for example, audio information such as “the name of this work is XX, the content of which is the content of”, and image information related thereto.

なお、図4において四角で囲んだデータ(説明情報)は全て用意しなくても良い。本実施形態では、例えば、図4においてハッチングを付して示すデータについては用意していないものとする。   Note that all the data (description information) enclosed by the square in FIG. 4 need not be prepared. In the present embodiment, for example, data indicated by hatching in FIG. 4 is not prepared.

なお、図3、図4のようなデータを格納するデータベース60は、情報提供ロボット100内に設けられていても良いし、通信回線等を介して接続されるサーバ内に設けられても良い。   The database 60 for storing data as shown in FIGS. 3 and 4 may be provided in the information providing robot 100 or in a server connected through a communication line or the like.

次に、本実施形態における情報提供ロボット100の動作・処理について、図5、図7、図9のフローチャートに沿って、かつその他図面を適宜参照しつつ説明する。   Next, the operation and processing of the information providing robot 100 in the present embodiment will be described along the flowcharts of FIGS. 5, 7, and 9 and with reference to other drawings as appropriate.

図5には、制御装置50の処理がフローチャートにて示されている。この図5の処理の前提として、図3に示すグローバル座標系が予め定められており、データベース60にも物体の位置座標データや、図4に示す物体の情報が格納されているものとする。なお、グローバル座標系における情報提供ロボット100の初期位置は、情報提供ロボット100に対して充電を行う充電ステーションの位置などが予め定められているものとする。   FIG. 5 shows the process of the control device 50 in a flowchart. As a premise of the processing of FIG. 5, it is assumed that the global coordinate system shown in FIG. 3 is predetermined, and the position coordinate data of the object and the information of the object shown in FIG. The initial position of the information providing robot 100 in the global coordinate system is determined in advance such as the position of a charging station that charges the information providing robot 100.

また、ディスプレイ12には、図6に示すように、手動モードボタン、説明開始ボタン、ズームレベル設定ボタンなどを含むウィンドウ68が表示されているものとする。   Further, it is assumed that a window 68 including a manual mode button, an explanation start button, a zoom level setting button, and the like is displayed on the display 12 as shown in FIG.

まず、図5のステップS10では、制御装置50の位置情報算出部54が、ロボット位置検出系24による検出結果に基づいて、自己位置を取得する。なお、ここで取得される自己位置は、主に、情報提供ロボット100が、現在、ズームレベル「0」の中のどの位置にいるのか、すなわち、どの部屋にいるのかを検出するのに用いられる。   First, in step S <b> 10 of FIG. 5, the position information calculation unit 54 of the control device 50 acquires the self position based on the detection result by the robot position detection system 24. The self-position acquired here is mainly used to detect where the information providing robot 100 is currently in the zoom level “0”, that is, in which room. .

次いで、ステップS12では、制御装置50の情報提供部58が、ユーザ指示入力部16からユーザによる手動モード指示が出されたか否か、すなわち、ユーザにより手動モードボタンが押されたか否かを判断する。ここでの判断が否定された場合には、ステップS14に移行する。このステップS14では、情報提供部58が、ズームレベル「0」での説明を実行(又は継続)する。すなわち、情報提供ロボット100が、部屋1内に存在する場合には、部屋1の説明情報を、スピーカ14やディスプレイ12を介してユーザに提供する。   Next, in step S12, the information providing unit 58 of the control device 50 determines whether or not a manual mode instruction is issued by the user from the user instruction input unit 16, that is, whether or not the manual mode button is pressed by the user. . When judgment here is denied, it transfers to step S14. In step S14, the information providing unit 58 executes (or continues) the explanation at the zoom level “0”. That is, when the information providing robot 100 is present in the room 1, the explanation information of the room 1 is provided to the user via the speaker 14 and the display 12.

一方、ステップS12の判断が肯定されると、ステップS16に移行し、駆動制御部52が、腕部30のサーボをOFFする。このように、腕部30のサーボがOFFされた状態では、腕部30が垂れ下がった状態となり、ユーザは、腕部30を比較的簡易に動かすことができるようになる。この状態で、ユーザは、腕部30を動かして、説明を受けたい物体(絵画など)に手先を向けるようにすることができる。なお、サーボがOFFされた段階で、情報提供部58が、スピーカ14やディスプレイ12を介して、ユーザに腕部30を動かすように促すこととしても良い。また、情報提供部58は、腕部30のサーボがOFFされた後、腕部30の先端(手先)に設けられたカメラ38による撮影を開始し、当該撮影画像を、ディスプレイ12に表示するようにする。これにより、ユーザは、ディスプレイ12に表示されている画像から、情報提供ロボット100の手先が指し示している物体を確認することができる。また、ユーザは、情報提供ロボット100の手先を、説明を受けたい物体に向けたことを確認した段階で、ユーザ指示入力部16を介して説明開始ボタン(図6参照)を押す。   On the other hand, if the determination in step S12 is affirmed, the process proceeds to step S16, and the drive control unit 52 turns off the servo of the arm unit 30. Thus, when the servo of the arm part 30 is turned off, the arm part 30 is in a suspended state, and the user can move the arm part 30 relatively easily. In this state, the user can move the arm portion 30 so that his / her hand is directed to an object (such as a painting) to be explained. Note that the information providing unit 58 may prompt the user to move the arm unit 30 via the speaker 14 or the display 12 when the servo is turned off. Further, after the servo of the arm unit 30 is turned off, the information providing unit 58 starts shooting with the camera 38 provided at the tip (hand) of the arm unit 30 and displays the captured image on the display 12. To. Thereby, the user can confirm the object indicated by the hand of the information providing robot 100 from the image displayed on the display 12. The user presses the explanation start button (see FIG. 6) via the user instruction input unit 16 when confirming that the hand of the information providing robot 100 is pointed at the object to be explained.

次のステップS18では、駆動制御部52が、ユーザから説明開始指示が出されるまで、すなわち、説明開始ボタンが押されるまで待機する。そして、ステップS18の判断が肯定されると、ステップS20において、駆動制御部52が、腕部30のサーボをONする。このサーボON動作により、説明開始指示が出された時点、すなわち、説明開始ボタンが押された時点での、腕部30の状態を維持することができる。   In the next step S18, the drive control unit 52 waits until an explanation start instruction is issued from the user, that is, until the explanation start button is pressed. If the determination in step S18 is affirmed, the drive control unit 52 turns on the servo of the arm unit 30 in step S20. By this servo-ON operation, the state of the arm portion 30 at the time when the explanation start instruction is issued, that is, when the explanation start button is pressed, can be maintained.

次のステップS22では、位置情報算出部54が、ロボット位置検出系24による検出結果に基づいて、自己位置を取得する。図3では、自己位置が(x0,y0,0,θz)として示されている。   In the next step S <b> 22, the position information calculation unit 54 acquires the self position based on the detection result by the robot position detection system 24. In FIG. 3, the self position is shown as (x0, y0, 0, θz).

次いで、ステップS24では、位置情報算出部54が、ステップS22で取得した自己位置(x0,y0,0,θz)と、腕部移動量検出系36による検出結果、すなわち、腕部30の各可動部32a〜32cの移動量に基づいて、手先の位置座標(x1,y1,z1)を算出する。また、位置情報算出部54は、手先の向いている方向(ベクトル(x1’、y1’、z1’))についても算出し、これら手先の位置座標(x1,y1,z1)とベクトル(x1’、y1’、z1’)を用いて、図3に示す半直線Lを取得する。   Next, in step S24, the position information calculation unit 54 detects the self position (x0, y0, 0, θz) acquired in step S22 and the detection result by the arm movement amount detection system 36, that is, each movable part of the arm 30. Hand position coordinates (x1, y1, z1) are calculated based on the movement amounts of the units 32a to 32c. In addition, the position information calculation unit 54 also calculates the direction (vector (x1 ′, y1 ′, z1 ′)) toward the hand, and the position coordinates (x1, y1, z1) of the hand and the vector (x1 ′). , Y1 ′, z1 ′), the half line L shown in FIG. 3 is acquired.

次いで、ステップS26では、情報提供部58が、所定時間内にユーザからズームレベル(1又は2)のいずれかが入力(選択)されたか否かを判断する。すなわち、所定時間内に、ユーザから、絵画などの詳細な情報が知りたいのか(ズームレベル2)、それよりも大雑把な情報が知りたいのか(ズームレベル1)、のいずれかが入力されたか否かを判断する。   Next, in step S26, the information providing unit 58 determines whether any zoom level (1 or 2) is input (selected) from the user within a predetermined time. That is, whether or not the user wants to know detailed information such as a picture (zoom level 2) or more detailed information (zoom level 1) is input within a predetermined time. Determine whether.

ここでの判断が肯定された場合には、ステップS28に移行し、情報提供部58は、入力されたズームレベルに設定する。なお、ここでは、一例として、ズームレベルとして「2」が入力されたものとする。そして、ステップS30では、物体特定部56が、半直線Lとの交点を有する物体(具体的には、設定されたズームレベル(ズームレベル「2」)に含まれる物体)を検索する。なお、情報提供ロボット100が部屋1内に存在する場合に、他の部屋の物体を指し示すことは考えられないので、物体の検索の際には、部屋1内の物体のみを検索対象とする。   If the determination here is affirmed, the process proceeds to step S28, and the information providing unit 58 sets the input zoom level. Here, as an example, it is assumed that “2” is input as the zoom level. In step S30, the object specifying unit 56 searches for an object having an intersection with the half line L (specifically, an object included in the set zoom level (zoom level “2”)). Note that when the information providing robot 100 is present in the room 1, it is impossible to point to an object in another room. Therefore, when searching for an object, only the object in the room 1 is set as a search target.

次いで、ステップS32では、物体特定部56が、半直線Lとの交点を有する物体が存在するか否か、すなわち説明対象の物体が存在するか否かを判断する。ここでの判断が否定された場合には、説明情報が存在しないので、ステップS34において、情報提供部58が、その旨をスピーカ14やディスプレイ12を介してユーザに提供し、ステップS44に移行する。なお、説明対象が存在しない場合とは、半直線Lが設定されたズームレベルの物体のいずれとも交差しない場合、及び交差した場合でも、図4にハッチングを付して示すように、情報が存在しない物体である場合を含む。   Next, in step S32, the object specifying unit 56 determines whether there is an object having an intersection with the half line L, that is, whether there is an object to be explained. If the determination here is negative, there is no explanation information, so in step S34, the information providing unit 58 provides this to the user via the speaker 14 or the display 12, and the process proceeds to step S44. . Note that the case where there is no explanation object means that the information exists as shown by hatching in FIG. 4 even when the object does not intersect with any of the zoom level objects for which the half line L is set. Including the case of an object that does not.

一方、ステップS32の判断が肯定された場合には、ステップS38に移行する。   On the other hand, if the determination in step S32 is affirmative, the process proceeds to step S38.

ところで、ステップS26の判断が否定された場合、すなわち、所定時間内にズームレベルの入力がなされなかった場合には、ステップS36(ズームレベル未入力時の処理サブルーチン)に移行する。   If the determination in step S26 is negative, that is, if the zoom level is not input within a predetermined time, the process proceeds to step S36 (processing subroutine when no zoom level is input).

このサブルーチンでは、図7の処理を実行する。まず、図7のステップS110では、情報提供部58が、ズームレベルを「1」に設定する。次いで、ステップS112では、物体特定部56が、ズームレベル「1」で半直線Lと交点を持つ物体(又は部屋の壁や床)を検索し、検索された物体と情報提供ロボット100との距離を算出する。次いで、ステップS114では、情報提供部58が、ステップS112において算出された距離が、一定値以下か否かを判断する。本実施形態では、一定値として、図8のズームレベル算出表に示す3(m)を採用するものとする。ここでの判断が肯定された場合には、ステップS116に移行し、図8のズームレベル算出表に基づいて、ズームレベルを上げる。ここでは、図8に基づいて、ズームレベルを+1する。すなわちズームレベルを「2」に設定する。   In this subroutine, the processing of FIG. 7 is executed. First, in step S110 of FIG. 7, the information providing unit 58 sets the zoom level to “1”. Next, in step S112, the object specifying unit 56 searches for an object (or a wall or floor of a room) having an intersection with the half line L at the zoom level “1”, and the distance between the searched object and the information providing robot 100. Is calculated. Next, in step S114, the information providing unit 58 determines whether the distance calculated in step S112 is equal to or less than a certain value. In this embodiment, 3 (m) shown in the zoom level calculation table of FIG. 8 is adopted as the constant value. If the determination here is affirmative, the process proceeds to step S116, and the zoom level is raised based on the zoom level calculation table of FIG. Here, the zoom level is incremented by 1 based on FIG. That is, the zoom level is set to “2”.

一方、ステップS114の判断が否定された場合には、ステップS118に移行する。   On the other hand, if the determination in step S114 is negative, the process proceeds to step S118.

ステップS118では、物体特定部56が、現在設定されているズームレベルで、半直線Lと交差する物体が存在するか否か、すなわち、説明対象が存在するか否かを判断する。ここでの判断が否定された場合には、ステップS120において、情報提供部58が、ズームレベルを1引き下げ、次のステップS122において、ズームレベルが0になったか否かを判断する。ここでの判断が否定された場合、すなわち、ズームレベルが1以上である場合には、ステップS118に移行し、新たなズームレベルで説明対象があるか否かを判断する。一方、ステップS122の判断が肯定された場合には、情報提供部58は、説明情報が無い旨をスピーカ14やディスプレイ12を介してユーザに提供し、図5のステップS44に移行する。   In step S118, the object specifying unit 56 determines whether or not there is an object that intersects the half line L at the zoom level that is currently set, that is, whether or not an explanation target exists. If the determination here is negative, in step S120, the information providing unit 58 decreases the zoom level by one, and in the next step S122, determines whether or not the zoom level has become zero. If the determination here is negative, that is, if the zoom level is 1 or more, the process proceeds to step S118, where it is determined whether there is an explanation target at the new zoom level. On the other hand, if the determination in step S122 is affirmed, the information providing unit 58 provides the user with no explanation information via the speaker 14 or the display 12, and the process proceeds to step S44 in FIG.

これに対し、ステップS118の判断が肯定された場合には、図5のステップS38に移行する。   On the other hand, if the determination in step S118 is affirmed, the process proceeds to step S38 in FIG.

図5のステップS38では、物体特定部56が、説明対象が複数存在するか否かを判断する。ここで、説明対象が複数存在する場合とは、半直線Lと交差する物体が2以上ある場合、例えば、図3において、彫刻1越しに絵画4を指し示した場合を意味する。ここでの判断が否定された場合、すなわち、説明対象が1つであった場合には、ステップS40において、情報提供部58が、説明対象についての情報をスピーカ14やディスプレイ12を介してユーザに提供し、その後、図5のステップS44に移行する。なお、ディスプレイ12には、予め用意しておいた画像を表示しても良いし、カメラ38により撮影されている画像のズーム画像を表示することとしても良い。一方、説明対象が複数あった場合には、ステップS38の判断が肯定され、ステップS42(対象選択処理サブルーチン)に移行する。   In step S38 of FIG. 5, the object specifying unit 56 determines whether there are a plurality of explanation targets. Here, the case where there are a plurality of explanation objects means a case where there are two or more objects intersecting with the half line L, for example, a case where the picture 4 is pointed through the sculpture 1 in FIG. If the determination here is negative, that is, if there is only one explanation object, the information providing unit 58 sends information about the explanation object to the user via the speaker 14 or the display 12 in step S40. After that, the process proceeds to step S44 in FIG. Note that an image prepared in advance may be displayed on the display 12 or a zoom image of an image taken by the camera 38 may be displayed. On the other hand, if there are a plurality of explanation targets, the determination in step S38 is affirmed, and the process proceeds to step S42 (target selection processing subroutine).

このステップS42(対象選択処理サブルーチン)では、図9の処理を実行する。まず、図9のステップS130では、情報提供部58が、複数の対象を、距離が近い順にディスプレイ12上に表示する。例えば、図10に示すように、ディスプレイ12上にウィンドウ70を表示し、当該ウィンドウ70内に複数の対象(ここでは、彫刻1と絵画4)を情報提供ロボット100に近い方から順に表示する。   In step S42 (subject selection processing subroutine), the processing of FIG. 9 is executed. First, in step S <b> 130 of FIG. 9, the information providing unit 58 displays a plurality of objects on the display 12 in order of increasing distance. For example, as shown in FIG. 10, a window 70 is displayed on the display 12, and a plurality of objects (here, the sculpture 1 and the painting 4) are displayed in that window 70 in order from the side closest to the information providing robot 100.

次いで、図9のステップS132では、所定時間内に、ユーザにより複数の対象のいずれかが選択されたか否かを判断する。ここでの判断が肯定された場合には、ステップS134に移行して、情報提供部58が、選択された対象に関する説明を、スピーカ14やディスプレイ12を介してユーザに提供し、図5のステップS44に移行する。一方、ステップS132における判断が否定された場合には、ステップS136において、情報提供部58が、距離が最も近い対象(ここでは、彫刻1)についての情報を、スピーカ14やディスプレイ12を介してユーザに提供し、図5のステップS44に移行する。なお、ステップS134やS136では、ディスプレイ12に、予め用意しておいた画像情報を表示しても良いし、カメラ38により撮像された画像のズーム画像を表示することとしても良い。   Next, in step S132 of FIG. 9, it is determined whether or not any of a plurality of objects has been selected by the user within a predetermined time. If the determination here is affirmed, the process proceeds to step S134, where the information providing unit 58 provides the user with an explanation regarding the selected object via the speaker 14 or the display 12, and the step of FIG. The process proceeds to S44. On the other hand, if the determination in step S132 is negative, in step S136, the information providing unit 58 sends information about the object (here, engraving 1) that is closest to the user via the speaker 14 or the display 12. The process proceeds to step S44 in FIG. In steps S134 and S136, image information prepared in advance may be displayed on the display 12, or a zoom image of an image captured by the camera 38 may be displayed.

その後は、図5のステップS44において、駆動制御部52が、ユーザから手動モードの指示が出されたか否かを判断し、判断が肯定された場合には、ステップS16に戻り、新たにユーザから指し示される物体の情報提供を行う。   After that, in step S44 of FIG. 5, the drive control unit 52 determines whether or not an instruction for the manual mode is issued from the user. If the determination is affirmative, the process returns to step S16, and a new one is received from the user. Provides information on the object pointed to.

一方、ステップS44の判断が否定された場合には、位置情報算出部54が、ステップS46において、ロボット位置検出系24の検出結果に基づいて自己位置を取得する。そして、位置情報算出部54は、自己位置に基づいて、情報提供ロボット100が部屋を移動したか否かを判断する(ステップS48)。ここでの判断が否定された場合には、ステップS44に戻り、肯定された場合には、上記ステップS12〜S48の処理判断を繰り返すことで、新たな部屋での情報提供を実行する。   On the other hand, if the determination in step S44 is negative, the position information calculation unit 54 acquires the self position based on the detection result of the robot position detection system 24 in step S46. Then, the position information calculation unit 54 determines whether or not the information providing robot 100 has moved through the room based on the self position (step S48). If the determination here is negative, the process returns to step S44. If the determination is positive, the process determination in steps S12 to S48 is repeated, thereby providing information in a new room.

以上、詳細に説明したように、本実施形態によると、ユーザが腕部30を動かして物体を指し示した場合に、腕部移動量検出系36により検出される腕部30の移動量と、ロボット位置検出系24により検出されるグローバル座標系上における情報提供ロボット100の位置及び向き(回転)と、に基づいて、腕部30の手先が指し示す方向のベクトル及び手先位置(ベクトルの始点)をグローバル座標系上にて算出し、この算出結果と、物体の位置座標データとに基づいて、物体特定部56が、腕部30の手先が指し示している物体を特定する。したがって、情報提供部58が上記のようにして特定された物体の情報を提供することで、ユーザの意思を反映した適切な情報提供を行うことが可能となる。この場合、情報提供ロボット100の周辺に位置検出のための発信機等を設ける必要が無いので、設備投資を低減し、発信機等を設けることによる空間(例えば、美術館など)の美感低下を抑制することができる。   As described above in detail, according to the present embodiment, when the user moves the arm unit 30 and points to an object, the movement amount of the arm unit 30 detected by the arm unit movement amount detection system 36 and the robot Based on the position and orientation (rotation) of the information providing robot 100 on the global coordinate system detected by the position detection system 24, the vector and the hand position (start point of the vector) in the direction indicated by the hand of the arm unit 30 are globally determined. Based on the calculation result and the position coordinate data of the object, the object specifying unit 56 specifies the object that the hand of the arm unit 30 points to. Therefore, by providing the information on the object specified as described above by the information providing unit 58, it is possible to provide appropriate information reflecting the user's intention. In this case, since there is no need to provide a transmitter for position detection around the information providing robot 100, the equipment investment is reduced, and a decrease in the aesthetics of a space (for example, a museum) due to the provision of the transmitter is suppressed. can do.

また、本実施形態によると、データベース60が、図4に示すように、物体(絵画等)の情報を、詳細度に応じたツリー構造で保持するので、適切な詳細度の情報を、簡易に検索し、提供することができる。   Further, according to the present embodiment, as shown in FIG. 4, the database 60 holds information on an object (such as a painting) in a tree structure corresponding to the degree of detail. Can be searched and provided.

また、本実施形態によると、ユーザがズームレベルの選択を行わなかった場合に、情報提供部58が、情報提供ロボット100の位置と物体との距離を算出し、算出された距離に応じて、提供する情報の詳細度を変更する(ステップS114、S116)ので、適切な詳細度の情報を自動的に選択して、ユーザに提供することができる。   Further, according to the present embodiment, when the user does not select the zoom level, the information providing unit 58 calculates the distance between the position of the information providing robot 100 and the object, and according to the calculated distance, Since the level of detail of the information to be provided is changed (steps S114 and S116), information with an appropriate level of detail can be automatically selected and provided to the user.

また、本実施形態によると、情報提供部58が提供する情報の詳細度を、ユーザからの入力に基づいて決定することもできる(ステップS28)ので、ユーザの要求に応じた適切な情報を提供することが可能である。   Further, according to the present embodiment, the degree of detail of the information provided by the information providing unit 58 can be determined based on the input from the user (step S28), so that appropriate information according to the user's request is provided. Is possible.

また、物体特定部56が特定した物体(説明対象)が複数存在していた場合に、情報提供部58は、複数の説明対象のいずれかを選択するための情報(ウィンドウ70)をディスプレイ12上に表示するので、この点からも、ユーザの要求に応じた適切な情報を提供することができる。また、ユーザが複数の説明対象のいずれかを所定時間内に選択しなかった場合に、距離が最も近い説明対象の情報をユーザに提供するので、ユーザが指し示している蓋然性が比較的高い情報をユーザに提供することができる。   In addition, when there are a plurality of objects (explanation targets) specified by the object specifying unit 56, the information providing unit 58 displays information (window 70) for selecting one of the plurality of description targets on the display 12. From this point, it is possible to provide appropriate information according to the user's request. In addition, when the user does not select any of the plurality of explanation objects within a predetermined time, the information of the explanation object that is the closest to the distance is provided to the user, so that the information that the user is pointing to has a relatively high probability. Can be provided to the user.

また、本実施形態では、腕部30の手先が指し示している物体をカメラで撮像し、当該撮像結果をディスプレイ12に表示するので、ユーザは、腕部30の指し示している位置を正確に認識することが可能である。   In the present embodiment, since the object pointed by the hand of the arm unit 30 is imaged by the camera and the imaged result is displayed on the display 12, the user accurately recognizes the position pointed to by the arm unit 30. It is possible.

なお、上記実施形態では、物体の情報を、図4に示すようにツリー構造とした場合について説明したが、これに限らず、ツリー構造を採用しなくても良い。この場合、例えば、展示物のカテゴリー(絵画、彫刻、壁画など)ごとに情報を纏めるなどすることができる。   In the above embodiment, the case where the object information has a tree structure as shown in FIG. 4 is described. However, the present invention is not limited to this, and the tree structure may not be adopted. In this case, for example, information can be summarized for each category of an exhibit (painting, sculpture, mural, etc.).

なお、上記実施形態では、腕部30の手先が指し示している物体を、ディスプレイ12上に表示することで、ユーザに、腕部30の指し示している位置を認識させる場合について説明したが、これに限られるものではない。例えば、腕部30の手先に、レーザポインタなどの指示機構を設けておき、当該レーザポインタの照射位置により、ユーザに、腕部30の指し示している位置を認識させることとしても良い。   In the above embodiment, the case where the object pointed by the hand of the arm unit 30 is displayed on the display 12 to allow the user to recognize the position pointed to by the arm unit 30 has been described. It is not limited. For example, an instruction mechanism such as a laser pointer may be provided at the hand of the arm unit 30 and the user may recognize the position pointed to by the arm unit 30 based on the irradiation position of the laser pointer.

なお、上記実施形態では、ユーザが、腕部30を直接動かして、物体を指し示す場合について説明したが、これに限らず、腕部30を駆動するためのコントローラを用意しておき、当該コントローラを介して、腕部30をユーザが操作することとしても良い。このコントローラは、ディスプレイ12に設けられるタッチパネルに表示することとしても良い。また、ユーザが動かす対象は、腕部30に限らず、頭部10aとしても良い。この場合、頭部10aにカメラやレーザポインタなどの指示機構を設けることで、上記実施形態と同様の処理を行うことができる。   In the above-described embodiment, the case where the user directly moves the arm unit 30 and points to the object has been described. However, the present invention is not limited to this, and a controller for driving the arm unit 30 is prepared. The arm part 30 may be operated by the user. This controller may be displayed on a touch panel provided on the display 12. Moreover, the target to be moved by the user is not limited to the arm portion 30 but may be the head portion 10a. In this case, the same processing as in the above embodiment can be performed by providing an instruction mechanism such as a camera or a laser pointer on the head 10a.

また、上記実施形態では、ユーザ指示入力部16が、タッチパネルである場合について説明したが、これに限らず、例えば、腕部30やロボット本体部10に操作ボタンを設け、当該操作ボタンをユーザ指示入力部16として採用することとしても良い。また、ロボット本体部10等に音声認識用のマイクを設け、当該マイクをユーザ指示入力部16として採用することとしても良い。   In the above-described embodiment, the case where the user instruction input unit 16 is a touch panel has been described. However, the present invention is not limited thereto. For example, an operation button is provided on the arm unit 30 or the robot body unit 10, and It may be employed as the input unit 16. Further, a microphone for voice recognition may be provided in the robot body 10 or the like, and the microphone may be employed as the user instruction input unit 16.

なお、上記実施形態では、腕部30が可動部を3つ有しており、当該可動部の移動量を検出するためにロータリエンコーダを用いる場合について説明したが、これに限られるものではない。すなわち、可動部の数は任意であり、当該可動部の移動量の検出に、ロータリエンコーダとは別の検出器を用いても良い。   In the above embodiment, the case where the arm portion 30 has three movable portions and the rotary encoder is used to detect the movement amount of the movable portion has been described. However, the present invention is not limited to this. That is, the number of movable parts is arbitrary, and a detector other than the rotary encoder may be used for detecting the amount of movement of the movable parts.

なお、上記実施形態では、ズームレベルを「0」,「1」,「2」の3段階とした場合について説明したが、これに限らず、3段階より少なくしても良いし、3段階より多くしても良い。3段階より多くする場合には、例えば、図4の例であれば、絵画を更に細分化し、当該細分化された各部分をズームレベル「3」に設定することとしても良い。   In the above embodiment, the case where the zoom level has three levels of “0”, “1”, and “2” has been described. However, the present invention is not limited to this. You may increase it. For example, in the case of the example shown in FIG. 4, the painting may be further subdivided and each subdivided portion may be set to the zoom level “3”.

なお、上記実施形態で説明した処理(フローチャート)は全て実行しなくても良い。例えば、説明対象が複数存在する場合に、図9のフローチャート(サブルーチン)を実行せずに、自動的に情報提供ロボット100に最も近い説明対象の情報を提供することとしても良い。また、彫刻が存在しない部屋であれば、複数の説明対象が選択される状況が存在しないので、ステップS38やステップS42を省略しても良い。   Note that it is not necessary to execute all the processes (flowcharts) described in the above embodiment. For example, when there are a plurality of explanation targets, the explanation target information closest to the information providing robot 100 may be automatically provided without executing the flowchart (subroutine) of FIG. Also, if there is no sculpture in the room, there is no situation where a plurality of explanation objects are selected, so step S38 and step S42 may be omitted.

なお、図1では、2本の腕部30の一方にカメラ38(又はレーザポインタ)を設ける場合を図示しているが、これに限らず、両方の腕部30にカメラ(又はレーザポインタ)を設けることとしても良い。この場合、ユーザが動かした側の腕部30を処理(指し示した方向の検出)に用いることで、当該動かした側の腕部が指し示す物体の情報をユーザに提供するようにすることができる。   In FIG. 1, the camera 38 (or laser pointer) is provided on one of the two arm portions 30. However, the present invention is not limited to this, and the camera (or laser pointer) is provided on both arm portions 30. It may be provided. In this case, by using the arm 30 on the side moved by the user for processing (detection of the pointing direction), it is possible to provide the user with information on the object pointed to by the moved arm.

なお、上記実施形態においては、例えば、貸出中や修復中等の理由により、実物を見ることができない場合に、実物が本来設置される位置に、その旨を表示しておくこととしても良い。この場合、その旨の表示を腕部30の手先で指し示すことにより、見ることができない物体の情報をスピーカ14やディスプレイ12を介してユーザに提供することができる。   In the embodiment described above, for example, when the actual object cannot be viewed due to renting or repairing, the fact may be displayed at the position where the actual object is originally installed. In this case, by pointing the display to that effect with the hand of the arm 30, information on an object that cannot be seen can be provided to the user via the speaker 14 or the display 12.

なお、上記実施形態では、情報提供装置が、図1に示すような人型のロボットである場合について説明したが、これに限らず、その他の形状を有していても良い。   In the above embodiment, the case where the information providing apparatus is a humanoid robot as shown in FIG. 1 has been described. However, the present invention is not limited to this, and the information providing apparatus may have other shapes.

なお、上記実施形態では、情報提供ロボット100が、美術館や博物館、歴史的建築物などにおいて、見学者に対し絵画や彫刻、壁画などの展示物の情報を提供するロボットである場合について説明したが、これに限られるものではない。例えば、スーパーマーケットなどにおける商品説明など、ユーザが物体の情報の提供を必要とする種々の場面において、情報提供ロボット100を用いることが可能である。   In the above-described embodiment, the case where the information providing robot 100 is a robot that provides information on exhibits such as paintings, sculptures, and murals to visitors in art museums, museums, historical buildings, and the like has been described. However, it is not limited to this. For example, the information providing robot 100 can be used in various situations where the user needs to provide object information, such as product descriptions in a supermarket.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

10 ロボット本体部(装置本体の一部)
12 ディスプレイ(表示部)
20 移動部(装置本体の一部)
24 ロボット位置検出系(装置本体検出系)
30 腕部(指示機構)
36 腕部移動量検出系(移動量検出系)
54 位置情報算出部
56 物体特定部
58 情報提供部
60 データベース
100 情報提供ロボット(情報提供装置)
10 Robot body (part of the device body)
12 Display (display part)
20 Moving part (part of the device body)
24 Robot position detection system (device main body detection system)
30 arms (instruction mechanism)
36 Arm movement amount detection system (movement amount detection system)
54 position information calculation unit 56 object specifying unit 58 information providing unit 60 database 100 information providing robot (information providing device)

Claims (7)

座標系が設定された空間内に配置される装置本体と、
前記装置本体の前記座標系上における位置及び向きを検出する装置本体検出系と、
前記装置本体に設けられ、前記空間内に存在する物体を指し示すために用いられる指示機構と、
前記指示機構が物体を指し示すために移動した移動量を検出する移動量検出系と、
前記移動量と、前記装置本体検出系による検出結果とに基づいて、前記座標系上における前記指示機構の指し示す方向のベクトル、及び当該ベクトルの始点を算出する位置情報算出部と、
前記位置情報算出部による算出結果、及び前記空間内に配置された物体の座標に基づいて、前記指示機構が指し示している物体を特定する物体特定部と、
前記物体特定部により特定された物体の情報を提供する情報提供部と、を備える情報提供装置。
A device body arranged in a space in which a coordinate system is set;
An apparatus main body detection system for detecting the position and orientation of the apparatus main body on the coordinate system;
An instruction mechanism provided in the apparatus main body and used to point to an object existing in the space;
A moving amount detection system for detecting a moving amount moved by the pointing mechanism to point to an object;
Based on the amount of movement and the detection result by the apparatus main body detection system, a position information calculation unit that calculates a vector in the direction indicated by the pointing mechanism on the coordinate system, and a start point of the vector;
An object specifying unit for specifying the object pointed to by the pointing mechanism based on the calculation result by the position information calculating unit and the coordinates of the object arranged in the space;
An information providing apparatus comprising: an information providing unit that provides information on the object specified by the object specifying unit.
前記情報提供部は、前記物体の情報をデータベース上から取得し、
前記データベースは、前記物体の情報を、詳細度に応じたツリー構造で保持することを特徴とする請求項1に記載の情報提供装置。
The information providing unit acquires information on the object from a database,
The information providing apparatus according to claim 1, wherein the database stores information on the object in a tree structure corresponding to a degree of detail.
前記情報提供部は、前記装置本体の位置と前記物体特定部にて特定された物体との距離を算出し、
前記算出された距離に応じて、提供する情報の詳細度を変更することを特徴とする請求項2に記載の情報提供装置。
The information providing unit calculates a distance between the position of the apparatus main body and the object specified by the object specifying unit;
The information providing apparatus according to claim 2, wherein a degree of detail of information to be provided is changed according to the calculated distance.
前記情報提供部が提供する情報の詳細度は、ユーザからの入力に基づいて決定することを特徴とする請求項2に記載の情報提供装置。   The information providing apparatus according to claim 2, wherein the degree of detail of the information provided by the information providing unit is determined based on an input from a user. 前記物体特定部が特定した物体が複数存在していた場合に、
前記情報提供部は、前記特定された複数の物体のいずれかを選択するための情報を表示することを特徴とする請求項1〜4のいずれか一項に記載の情報提供装置。
When there are a plurality of objects specified by the object specifying unit,
5. The information providing apparatus according to claim 1, wherein the information providing unit displays information for selecting any of the plurality of identified objects.
前記物体特定部が特定した物体が複数存在していた場合に、
前記情報提供部は、前記装置本体と前記特定された複数の物体それぞれとの間の距離を算出し、当該距離に基づいて情報を提供する物体を選択することを特徴とする請求項1〜4のいずれか一項に記載の情報提供装置。
When there are a plurality of objects specified by the object specifying unit,
The information providing unit calculates a distance between the apparatus main body and each of the specified plurality of objects, and selects an object that provides information based on the distance. The information providing apparatus according to any one of the above.
前記指示機構が指し示している方向を表示する表示部を更に備える請求項1〜6のいずれか一項に記載の情報提供装置。   The information providing apparatus according to claim 1, further comprising a display unit that displays a direction indicated by the instruction mechanism.
JP2009075835A 2009-03-26 2009-03-26 Information providing device Pending JP2010231315A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009075835A JP2010231315A (en) 2009-03-26 2009-03-26 Information providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009075835A JP2010231315A (en) 2009-03-26 2009-03-26 Information providing device

Publications (1)

Publication Number Publication Date
JP2010231315A true JP2010231315A (en) 2010-10-14

Family

ID=43047098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009075835A Pending JP2010231315A (en) 2009-03-26 2009-03-26 Information providing device

Country Status (1)

Country Link
JP (1) JP2010231315A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015066632A (en) * 2013-09-27 2015-04-13 本田技研工業株式会社 Robot, robot control method, and robot control program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132806A (en) * 2000-10-18 2002-05-10 Fujitsu Ltd Server system, and information providing service system and method
JP2002269298A (en) * 2001-03-13 2002-09-20 Matsushita Electric Ind Co Ltd Showpiece explaining system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002132806A (en) * 2000-10-18 2002-05-10 Fujitsu Ltd Server system, and information providing service system and method
JP2002269298A (en) * 2001-03-13 2002-09-20 Matsushita Electric Ind Co Ltd Showpiece explaining system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200600554002; 浅野  寿朗  Toshio  Asano: '触る分散仮想博物館における展示オブジェクト表示と解説情報ストリーミング開始の適応型制御' 日本バーチャルリアリティ学会論文誌  第11巻  第1号  Transactions of the Virtual Reality Society of 第11巻, 20060331, p.27-37, 特定非営利活動法人日本バーチャルリアリティ学会  Th *
CSNG200700022009; 浅野  寿朗  Toshio  Asano: '触る分散仮想博物館における適応型表示制御のための情報ファイルの事前送信制御方式  A Proactive File Tra' 日本バーチャルリアリティ学会論文誌  第11巻  第3号  Transactions of the Virtual Reality Society of 第11巻, 20060930, p.433-436, 特定非営利活動法人日本バーチャルリアリティ学会  Th *
JPN6013048177; 浅野  寿朗  Toshio  Asano: '触る分散仮想博物館における展示オブジェクト表示と解説情報ストリーミング開始の適応型制御' 日本バーチャルリアリティ学会論文誌  第11巻  第1号  Transactions of the Virtual Reality Society of 第11巻, 20060331, p.27-37, 特定非営利活動法人日本バーチャルリアリティ学会  Th *
JPN6013048178; 浅野  寿朗  Toshio  Asano: '触る分散仮想博物館における適応型表示制御のための情報ファイルの事前送信制御方式  A Proactive File Tra' 日本バーチャルリアリティ学会論文誌  第11巻  第3号  Transactions of the Virtual Reality Society of 第11巻, 20060930, p.433-436, 特定非営利活動法人日本バーチャルリアリティ学会  Th *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015066632A (en) * 2013-09-27 2015-04-13 本田技研工業株式会社 Robot, robot control method, and robot control program

Similar Documents

Publication Publication Date Title
US10800036B1 (en) Tooltip stabilization
CN109552665B (en) Method for measuring and inspecting structures using a catenary platform
EP1629366B1 (en) Single camera system for gesture-based input and target indication
US11253991B1 (en) Optimization of observer robot locations
JP5122887B2 (en) Control method, apparatus, and medium for live-action base mobile device
US8036775B2 (en) Obstacle avoidance system for a user guided mobile robot
US11230016B1 (en) Multi-resolution localization system
US10675759B2 (en) Interference region setting apparatus for mobile robot
WO2010038353A1 (en) Autonomous movement device
US10751742B2 (en) System and method for painting an interior wall of housing using a semi-automatic painting robot
Lee et al. Autonomous tour guide robot by using ultrasonic range sensors and QR code recognition in indoor environment
US20150377606A1 (en) Projection system
US20190015992A1 (en) Robotic construction guidance
US11241790B2 (en) Autonomous moving body and control program for autonomous moving body
US20180335521A1 (en) Floor Surveying System
JP2009123061A (en) System for detecting robot position
KR101471852B1 (en) Smart Device, Apparatus for Providing Robot Information, Method for Generating Trajectory of Robot, and Method for Teaching Work of Robot
JP2006234453A (en) Method of registering landmark position for self-position orientation
CN114102585A (en) Article grabbing planning method and system
KR20160056559A (en) Traveling system and method of robot using a pointer
JP7395877B2 (en) Robot system and control method
JP2010231315A (en) Information providing device
JP2004209562A (en) Mobile robot
CN113858214A (en) Positioning method and control system for robot operation
JP2020042667A (en) Projection system, projection method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130422

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131001