JP3311025B2 - Information retrieval device - Google Patents

Information retrieval device

Info

Publication number
JP3311025B2
JP3311025B2 JP18266092A JP18266092A JP3311025B2 JP 3311025 B2 JP3311025 B2 JP 3311025B2 JP 18266092 A JP18266092 A JP 18266092A JP 18266092 A JP18266092 A JP 18266092A JP 3311025 B2 JP3311025 B2 JP 3311025B2
Authority
JP
Japan
Prior art keywords
image
index
capsule
searcher
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18266092A
Other languages
Japanese (ja)
Other versions
JPH05189484A (en
Inventor
原 憲 一 高
本 敦 子 川
木 孝 夫 鈴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP18266092A priority Critical patent/JP3311025B2/en
Publication of JPH05189484A publication Critical patent/JPH05189484A/en
Application granted granted Critical
Publication of JP3311025B2 publication Critical patent/JP3311025B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は情報検索装置に係り、特
に立体視装置により立体映像空間内に表示されたカプセ
ル映像を検索者がデータ入力装置を介して掴んで選択す
るという人工現実感(Artificial Reality; AR )のも
とでデータベースの照合検索を行えるようにした情報検
索装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information retrieval apparatus, and more particularly to an artificial reality in which a retriever grasps and selects a capsule image displayed in a stereoscopic image space by a stereoscopic device through a data input device. The present invention relates to an information search device capable of performing a collation search of a database under Artificial Reality (AR).

【0002】[0002]

【従来の技術】情報の氾濫期に入り、自分に必要な情報
をすばやく的確に獲得することが求められている。この
ため大量の情報を容易に検索する作業の重要性が注目さ
れてきている。従来の情報検索装置における入出力イン
タフェースでは、キーワード等の入力にキーボード、タ
ッチパネル、マウスなどが使用され、この入力キーワー
ドにより照合検索を行い、得られた情報を画像やプリン
ト出力により取り出すようになっている。したがって、
実際の情報検索ではキーボードに慣れていて、かつ、デ
ータベースの体系を知っている熟練者のみが端末機のキ
ーボード等を操作して情報検索を行っていた。
2. Description of the Related Art Entering a period of flooding information, it is required to quickly and accurately obtain necessary information. For this reason, the importance of the task of easily retrieving a large amount of information has attracted attention. In an input / output interface of a conventional information search device, a keyboard, a touch panel, a mouse, and the like are used for inputting a keyword or the like. A collation search is performed using the input keyword, and the obtained information is extracted by an image or print output. I have. Therefore,
In an actual information search, only an expert who is used to the keyboard and who knows the database system operates the terminal keyboard or the like to perform the information search.

【0003】これに対して最近のコンピュータシミュレ
ーションの分野において、多くのユーザが利用できるこ
とを目的として人間の動作と視覚、聴覚等の五感とをた
くみに利用したコンピュータインタフェースが開発、研
究されている。いわゆる人工現実感(AR)である。
On the other hand, in the field of recent computer simulations, computer interfaces utilizing human movements and the five senses such as sight and hearing have been developed and studied in order to be usable by many users. This is so-called artificial reality (AR).

【0004】この人工現実感は現在大きく2つの開発分
野に分けられる。1つの分野はバーチャルリアリティ
(Virtual Reality )と呼ばれるもので、このバーチャ
ルリアリティの世界では、コンピュータグラフィックス
の映像内にインタフェースの操作者の分身である「ユー
ザエージェント」を登場させ、この「ユーザエージェン
ト」を介して操作者がコンピュータグラフィックス内に
展開される世界を体験することができるというものであ
る。もう1つの分野はテレイグジスタンス(Tele-Exist
ence)と呼ばれ、操作者は遠隔連動しているマニピュレ
ータを介して離れた場所のロボットを自分の分身のよう
に操作できるというものである。この両者は、テレイグ
ジスタンスが現実の環境に対応した作業面を主眼として
いるのに対してバーチャルリアリティはコンピュータ自
体のインタフェースとして利用していこうというもので
ある。
[0004] This artificial reality is currently roughly divided into two development fields. One area is called virtual reality. In this world of virtual reality, a "user agent", which is an alternation of the operator of the interface, appears in a computer graphics image, and this "user agent" Allows the operator to experience the world unfolded in computer graphics. Another area is Tele-Existence
ence), which allows the operator to operate a remote robot like his / her own through a remotely linked manipulator. In both cases, telexistence focuses on the work surface corresponding to the real environment, while virtual reality uses the computer itself as an interface.

【0005】ところで、後者のバーチャルリアリティを
実現するためのコンピュータシミュレーションツールの
一例として、立体視装置とデータグローブが開発されて
いる。このうち立体視装置はユーザに3次元コンピュー
タグラフィックスの世界を提供するもので、米国特許第
4,881,068号、第4,853,769号、第
4,834,476号及び第4,160,973号など
数多く提案されている。このうちバーチャルリアリティ
では実際に結像した立体画像をあたかも直接手で取り扱
うことができるかのように体感させるため、操作者の手
の動作により映像を遮らないものが採用されている。た
とえばNASAで開発され、米国VPLResearc
h社で製品化された「アイフォン」は、スキーゴーグル
に似た眼鏡状の装置の内面に液晶の表示器を取り付けた
立体視装置である。一方、データグローブは操作者の手
の動作をコンピュータに入力するための入力インタフェ
ースで手袋の各部の表面に磁気センサや光ファイバが装
着されている。これにより操作者の手の位置や手の動作
パターンを検知認識でき、コンピュータに所定の入力情
報をインプットすることができる。
[0005] As an example of a computer simulation tool for realizing the latter virtual reality, a stereoscopic device and a data glove have been developed. Among them, the stereoscopic device provides the user with the world of three-dimensional computer graphics, and is disclosed in U.S. Pat. Nos. 4,881,068, 4,853,769, 4,834,476, and 4,104. 160,973 and many others have been proposed. Among them, in virtual reality, a device that does not obstruct the image due to the operation of the hand of the operator is adopted in order to make the user feel as if the actually formed stereoscopic image can be handled directly by hand. For example, developed by NASA, VPLResearch
The "eyephone" commercialized by Company h is a stereoscopic device in which a liquid crystal display is attached to the inner surface of an eyeglass-like device similar to ski goggles. On the other hand, a data glove is an input interface for inputting an operation of an operator's hand to a computer, and a magnetic sensor and an optical fiber are mounted on the surface of each part of the glove. As a result, the position of the hand of the operator and the movement pattern of the hand can be detected and recognized, and predetermined input information can be input to the computer.

【0006】[0006]

【発明が解決しようとする課題】ところで、上述のよう
に従来のキーボードなどが使用されている情報検索装置
では、一般の人が使うには抵抗があり、使えても効率的
でないという問題がある。また、情報の表示方法もCR
T(カソードレイチューブ)などの平面ディスプレイ表
示を行っているため、検索インデックスの重み付けを検
索者が直接的には認識できなかった。さらにこの平面デ
ィスプレイ表示では複数の画面を同時に表示するマルチ
ウィンドウなどの表示方法も可能であるが、情報が多く
なると複数の表示画面が重なって展開されるので、画面
が見にくく、検索インデックス等の情報間の繋がりを効
果的に表示できず混乱を招くことが多かった。
However, as described above, the information retrieval apparatus using a conventional keyboard or the like has a problem in that it is difficult for ordinary people to use it and it is not efficient to use it. . The information display method is CR
Since a flat display such as T (cathode ray tube) is displayed, the searcher could not directly recognize the weight of the search index. In addition, in this flat display display, a display method such as a multi-window that simultaneously displays a plurality of screens is possible. However, when the amount of information increases, a plurality of display screens are developed in an overlapping manner. The connection between them could not be displayed effectively, often leading to confusion.

【0007】一方、バーチャルリアリティは、コンピュ
ータグラフィックスのシミュレーションツールとしては
使用されていたが、データーグローブを用いてコンピュ
ータ内のデータベースに直接アクセスするための媒体を
設定し、この媒体を介して集合論理演算を行うことはさ
れていなかった。
[0007] On the other hand, virtual reality has been used as a simulation tool for computer graphics. However, a medium for directly accessing a database in a computer using a data globe is set, and a set logical operation is performed via this medium. Had not been done.

【0008】そこで本発明の目的は上述した従来の技術
が有する問題点を解消し、検索者が直接自分の手を使っ
て画像空間に映像として配置されたインデックスとして
の媒体を選択し、所定の指令動作を行ってデータベース
の照合検索を直接的に行えるようにした情報検索装置を
提供することにある。
Accordingly, an object of the present invention is to solve the above-mentioned problems of the prior art, and to allow a searcher to directly select his / her hand to select a medium as an index arranged as a video in an image space, It is an object of the present invention to provide an information search device which can perform a collation search of a database by performing a command operation.

【0009】[0009]

【課題を解決するための手段】本発明は、データベース
を属性管理するインデックスの集合を検索者の視界内の
立体映像空間内にインデックス表示体映像により表示し
て視覚的に認識させる立体視装置と、インデックス表示
体映像に対する検索者の身体の動作パターンを入力情報
として検出し上記立体映像空間内に身体の動作パターン
を表示する入力装置と、この入力装置を介して入力され
た身体の動作パターンによる入力情報を認識し、所定の
インデックス表示体映像が表示するインデックスの集合
演算を行なうことにより上記データベースの照合検索を
行なう演算部とを備えたことを特徴とする情報検索装
置、およびデータベースを属性管理するインデックスの
集合を検索者の視界内の二次元映像空間内にインデック
ス表示体映像により表示して視覚的に認識させる二次元
視装置と、インデックス表示体映像に対する検索者の身
体の動作パターンを入力情報として検出し上記二次元映
像空間内にこの動作パターンを表示する入力装置と、こ
の入力装置を介して入力された身体の動作パターンによ
る入力情報を認識し、所定のインデックス表示体映像が
表示するインデックスの集合演算を行なうことにより上
記データベースの照合検索を行なう演算部とを備えたこ
とを特徴とする情報検索装置である。
According to the present invention, there is provided a stereoscopic apparatus for displaying a set of indexes for managing the attributes of a database in a stereoscopic image space within a field of view of a searcher using an index display body image and visually recognizing the set. An input device that detects a body motion pattern of a searcher with respect to an index display body image as input information and displays the body motion pattern in the stereoscopic video space, and a body motion pattern input via the input device. An information search device comprising: an operation unit for recognizing input information and performing a set operation of indices displayed by a predetermined index display image to perform collation search of the database; and attribute management of the database. Index sets in a two-dimensional video space within the searcher's field of view A two-dimensional visual device for showing and visually recognizing, an input device for detecting a motion pattern of a searcher's body with respect to an index display body image as input information and displaying the motion pattern in the two-dimensional video space; An operation unit for recognizing input information based on a body movement pattern input through the apparatus and performing a set operation of an index displayed by a predetermined index display body image to perform a collation search of the database. It is an information retrieval device that is a feature.

【0010】[0010]

【作用】上述したように本発明では、検索者がキーボー
ドの代わりに立体映像空間内または二次元映像空間内の
インデックス表示体映像を直接操作し、そのときの身体
の動作パターンにより入力情報を認識し、演算部が所定
のインデックス表示体映像が表示するインデックスの集
合論理演算を行ってデータベースの照合検索を行うた
め、キーボードの操作に慣れていない一般の人でもデー
タベース等の情報媒体の照合検索を簡単に行うことがで
きる。また、照合検索のためのインデックスの集合を立
体映像空間内または二次元映像空間内でインデックス表
示体映像として表示しているので、検索対象であるイン
デックスを視覚的に明瞭に認識でき、照合検索作業を容
易にすることができる。さらに、このインデックス表示
体映像に対して検索者の身体の各種動作パターンが固有
の入力情報として定義されているので、各種の動作パタ
ーンをもとに検索装置は所定の動作を実施することがで
きる。このときその入力情報により検索インデックスの
取捨選択が容易に行える。たとえばあるインデックス表
示体映像を掴んで弾くことによって対応する検索インデ
ックスの削除を行え、インデックス表示体映像を手前に
引き寄せることによって検索インデックスの取り込みを
行うことができる。
As described above, in the present invention, the searcher directly operates the index display body image in the stereoscopic image space or the two-dimensional image space instead of the keyboard, and recognizes the input information based on the body movement pattern at that time. In addition, since the calculation unit performs a set logical operation of the index displayed by the predetermined index display body image to perform the collation search of the database, even a general person who is not used to operating the keyboard can perform the collation search of the information medium such as the database. Easy to do. In addition, since a set of indexes for collation search is displayed as an index display image in the stereoscopic video space or the two-dimensional video space, the index to be searched can be visually and clearly recognized, and the collation search operation can be performed. Can be facilitated. Further, since various operation patterns of the searcher's body are defined as unique input information with respect to the index display body image, the search device can perform a predetermined operation based on the various operation patterns. . At this time, selection of the search index can be easily performed by the input information. For example, the corresponding search index can be deleted by grabbing and playing a certain index display image, and the search index can be captured by pulling the index display image toward the user.

【0011】また、表示部にインデックス表示体映像を
表示するとともに、インデックス表示体映像に所定の動
作パターンを行なわせる入力情報を表示部上で入力し、
演算部でインデックスの集合論理演算を行なうことによ
り、データベースの照合検索を簡単に行なうことができ
る。
[0011] Also, while displaying an index display image on the display unit, input information for causing the index display image to perform a predetermined operation pattern is input on the display unit,
By performing the set logical operation of the index in the operation unit, the collation search of the database can be easily performed.

【0012】[0012]

【実施例】以下本発明による情報検索装置の一実施例を
具体的な照合検索手順をもとに説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the information retrieval apparatus according to the present invention will be described below based on a specific collation retrieval procedure.

【0013】図1は本発明による情報検索装置により映
し出される3次元映像空間と検索者との係わりを第三者
の視点から仮想的に示したものである。図中符号90
は、検索者を示し、この検索者90は、顔面にスキーゴ
ーグル状の立体視装置91を装着するとともに、両手に
入力装置の一例としてのデータグローブ92R、92L
をはめている。このデータグローブ92R、92Lから
はそれぞれ信号線93R、93Lが延出しており、これ
ら信号線93R、93Lは演算部94に接続されてい
る。この演算部94ではデータグローブ92を介して検
出される検索者90の動作パターンから所定の検索演算
部96へ入力するための入力情報データあるいは処理コ
マンドを生成するとともに、データグローブ92を介し
て検出される検索者90の動作とカプセル映像の動きと
を3次元映像空間内にフィードバックして映し出させる
信号を信号線95R、95Lを介して送るようになって
いる。また検索演算部96は、インデックスにより属性
管理されたデータベース101に接続されている。図2
に示されるように、立体視装置91ではデータグローブ
92R、92Lの動きを映像空間内で仮想腕8R、8L
として映し出させ、あたかもこの仮想腕8R、8Lが映
像空間内に映し出されている各種のカプセル映像4、
5、6を取扱うような人工現実感の世界を構築してい
る。すなわち、この検索者90の眼前には、図2で示す
ような3次元映像空間が映し出されている。この3次元
映像空間において、検索者90は右手データグローブ9
2Rでカプセル映像4gを掴んでおり、左手データグロ
ーブ92Lでカプセル映像4cを弾こうとしている。こ
のとき、検索者90の眼前には仮想腕右手8Rでカプセ
ル映像4gを掴み、仮想腕左手8Lでカプセル映像4C
を弾こうとしている映像が映し出されている。なお、図
1において符号7は保存エリアを示しており、この保存
エリア7は箱状をしており、この箱の中にカプセルを収
容させることができるようになっている。
FIG. 1 is a virtual view showing the relationship between a three-dimensional image space projected by the information search apparatus according to the present invention and a searcher from the viewpoint of a third party. Reference numeral 90 in the figure
Indicates a searcher. The searcher 90 wears a ski goggle-shaped stereoscopic device 91 on his / her face, and puts data gloves 92R and 92L as examples of an input device on both hands.
Is wearing. Signal lines 93R and 93L extend from the data gloves 92R and 92L, respectively, and these signal lines 93R and 93L are connected to an arithmetic unit 94. The operation unit 94 generates input information data or a processing command to be input to a predetermined search operation unit 96 from the operation pattern of the searcher 90 detected via the data glove 92, and detects the input information data via the data glove 92. A signal to feed back the movement of the searcher 90 and the movement of the capsule image to be displayed in the three-dimensional image space and to project the image is transmitted via signal lines 95R and 95L. Further, the search operation unit 96 is connected to a database 101 whose attributes are managed by an index. FIG.
As shown in the figure, in the stereoscopic device 91, the movement of the data gloves 92R, 92L is represented by the virtual arms 8R, 8L
And various capsule images 4 as if the virtual arms 8R and 8L were projected in the image space.
We are building a world of artificial reality that deals with 5 and 6. That is, a three-dimensional video space as shown in FIG. 2 is displayed in front of the searcher 90. In this three-dimensional video space, the searcher 90 has the right hand data glove 9
The capsule image 4g is grasped by the 2R, and the capsule image 4c is about to be played by the left hand data glove 92L. At this time, the capsule image 4g is grasped by the virtual arm right hand 8R in front of the searcher 90 and the capsule image 4C is grasped by the virtual arm left hand 8L.
The video is about to play. In FIG. 1, reference numeral 7 denotes a storage area. The storage area 7 has a box shape, and capsules can be accommodated in the box.

【0014】次に、上述の検索者の眼前に映し出された
3次元映像空間の状況を詳述する。
Next, the situation of the three-dimensional image space projected in front of the searcher will be described in detail.

【0015】図2において、枠2は情報が表示される3
次元映像空間の輪郭を仮想的に示したものである。この
3次元映像空間は、データグローブ92R、92Lを装
着した検索者90の仮想腕8R、8Lが十分に届く範囲
内に設定されている。また、この3次元映像空間内には
長方形のカード状に表されたカプセル映像3a、3b、
3c、3d、3eと、長円状カプセル形状のカプセル映
像4a、4b、4c、4d、4e、4f、4gと、楕円
形のカプセル映像5a、5b、5c、5d、6a、6
b、6c、6d、6e、6fと、球形のカプセル映像7
a、7bとが表示されている。長方形で表されたカプセ
ル映像3a、3b、3c、3d、3eは、小グループの
たとえば住所録などの個人情報の検索インデックスの集
合を表示したものである。また、奥行き方向には五十音
順に分類されている。長円形のカプセル映像4a、4
b、4c、4d、4e、4f、4gのうち、同じ分類レ
ベルのカプセル映像4a、4b、4c、4gが奥行き一
定の位置に、その次の分類レベルのカプセル映像4d、
4eがそれらの奥に、さらに下位のレベルのカプセル映
像4fがカプセル映像4d、4eの奥にそれぞれ表示さ
れている。楕円形のカプセル映像5a、5b、5c、5
d、6a、6b、6c、6d、6e、6fにおいても同
様に情報すなわち検索インデックスの重要度に応じて重
み付けされている。枠2の右端に表示されている円形の
カプセル映像7a、7bは論理演算などの情報の選択方
法や保存エリアを表す処理カプセルに設定することがで
きる。上記各カプセル映像のうち、インデックスの集合
を表示するカプセル映像3a,3b…6e,6fはイン
デックス表示体映像となり、演算情報を表示するカプセ
ル映像7a,7bは演算子カプセル映像となる。
In FIG. 2, a frame 2 is a box 3 on which information is displayed.
This is a virtual view of the outline of the three-dimensional video space. The three-dimensional image space is set within a range where the virtual arms 8R and 8L of the searcher 90 wearing the data gloves 92R and 92L can sufficiently reach. Also, in this three-dimensional image space, capsule images 3a, 3b,
3c, 3d, 3e; oval capsule images 4a, 4b, 4c, 4d, 4e, 4f, 4g; oval capsule images 5a, 5b, 5c, 5d, 6a, 6
b, 6c, 6d, 6e, 6f and spherical capsule image 7
a and 7b are displayed. The capsule images 3a, 3b, 3c, 3d, and 3e represented by rectangles indicate a set of search indexes of personal information of a small group such as an address book. In the depth direction, they are sorted in alphabetical order. Oval capsule images 4a, 4
b, 4c, 4d, 4e, 4f, and 4g, capsule images 4a, 4b, 4c, and 4g of the same classification level are positioned at a fixed depth, and capsule images 4d of the next classification level
4e is displayed behind them, and a capsule image 4f of a lower level is displayed behind the capsule images 4d and 4e. Oval capsule images 5a, 5b, 5c, 5
Similarly, d, 6a, 6b, 6c, 6d, 6e, and 6f are weighted according to the information, that is, the importance of the search index. The circular capsule images 7a and 7b displayed on the right end of the frame 2 can be set as processing capsules indicating a method of selecting information such as a logical operation or a storage area. Among the capsule images, the capsule images 3a, 3b... 6e, 6f for displaying a set of indexes are index display images, and the capsule images 7a, 7b for displaying calculation information are operator capsule images.

【0016】ここで、検索インデックスとはデータベー
ス101を照合検索するための索引(インデックス)を
指し、一般にはキーワード、キー項目等の用語で理解さ
れている。また、この検索インデックスはデータベース
101中に蓄積された情報から抽出された属性によって
構成されている。したがって、データベース検索ではこ
の検索インデックスを情報中の索引と照合することによ
り、必要な情報の集合を抽出できるようになっている。
このとき、複数の検索インデックスを論理演算により組
合せ、より正確な情報を得ることもできる。このため、
適切な検索インデックスを容易に選択できるとともに、
それらの論理演算を思い通りに行うことが重要である。
本発明では上記カプセル映像を利用してこの検索を行っ
ている。
Here, the search index refers to an index (index) for collating and searching the database 101, and is generally understood by terms such as keywords and key items. Further, the search index is configured by attributes extracted from information stored in the database 101. Therefore, in a database search, a set of necessary information can be extracted by collating the search index with the index in the information.
At this time, a plurality of search indexes can be combined by a logical operation to obtain more accurate information. For this reason,
You can easily select the right search index,
It is important to perform these logical operations as desired.
In the present invention, this search is performed using the capsule image.

【0017】次に、この図2を参照してカプセル映像
3、4、5、6…による検索インデックスの選択動作に
ついて説明する。図2において、符号8Rは検索者の仮
想腕の右手を示しており、この仮想腕8は図1に示した
ように検索者90の手に実際に装着されたデータグロー
ブ92Rからの入力情報により立体映像空間内を移動
し、閉じたり開いたりという実際の人間の動作と同じ自
由な動作パターンをとることができる仮想の映像であ
る。いま、この画面では仮想腕8の右手8Rはカプセル
映像4gを親指と人差し指で摘んでいる状態を表してい
る。このカプセル映像4gに対する動作パターンによっ
てカプセル映像4gで示された集合論理演算のための検
索インデックスを選択したことになる。ここでは具体的
に摘む動作を例に示したが、入力の動作は仮想腕の右手
8R全体でカプセル映像を掴んでも、指で軽くタッチし
てもよい。また、本実施例では、例えば右手8Rでカプ
セル映像4gを摘んだ時に、色分けされたカプセル映像
4gの色の変化、選択音、あるいは光(選択した瞬間に
フラッシュが光る)によって情報選択の状態を検索者に
認識させることができ、検索インデックスの分類を容易
にしたり、誤操作に対して音や光で注意や警告を促すこ
とができる。
Next, an operation of selecting a search index based on the capsule images 3, 4, 5, 6,... Will be described with reference to FIG. In FIG. 2, reference numeral 8R indicates the right hand of the virtual arm of the searcher. This virtual arm 8 is based on input information from the data glove 92R actually worn on the hand of the searcher 90 as shown in FIG. It is a virtual image that can move in a stereoscopic image space and take the same free motion pattern as actual human motion such as closing and opening. Now, this screen shows a state in which the right hand 8R of the virtual arm 8 is holding the capsule image 4g with the thumb and the index finger. This means that the search index for the set logical operation indicated by the capsule image 4g is selected by the operation pattern for the capsule image 4g. Here, the pinching operation is specifically described as an example, but the input operation may be such that the capsule image is grasped by the entire right hand 8R of the virtual arm or lightly touched by a finger. In the present embodiment, for example, when the capsule image 4g is picked with the right hand 8R, the state of information selection is changed by a change in color of the color-coded capsule image 4g, a selection sound, or light (flash flashes at the moment of selection). The search index can be recognized by the searcher, and the search index can be easily classified, and an erroneous operation can be alerted or warned by sound or light.

【0018】また、例えば仮想の右手8Rでカプセル映
像4gを摘んだ時に、データグローブ92Rから検索者
90の実際の右手に圧感覚を伝えるようにすることがで
きる。すなわち、図19に示すように、データグローブ
92R内に圧感機構105が内蔵され、検索者90の実
際の右手からデータグローブ92Rに入力される入力情
報により圧感機構105が作動するようになっている。
Further, for example, when the capsule image 4g is picked up by the virtual right hand 8R, a sense of pressure can be transmitted from the data glove 92R to the actual right hand of the searcher 90. That is, as shown in FIG. 19, the pressure sensing mechanism 105 is built in the data glove 92R, and the pressure sensing mechanism 105 is operated by input information input to the data glove 92R from the actual right hand of the searcher 90. .

【0019】たとえば、データグローブ92からの入力
情報により演算部94が仮想の右手8Rでカプセル映像
4gを摘んだと認識した場合、データグローブ92の圧
感機構105が作動して実際の右手に圧感覚が伝えら
れ、検索者90は「摘む」感覚をより確実にもつことが
できる。なお、圧感機構105の具体例としては、歪み
ゲージにより指に掛る力を検出し、これを内部に設けら
れたバルーンに与える空気圧に変換する等の方法を採用
することができる。さらに、本実施例ではカプセル映像
の検索インデックスの情報量の大小に応じてカプセルの
大きさを変化させることにより視覚的に情報の大小の判
断が即座に下せる。一方、図1に示した仮想腕の左手8
Lは、カプセル映像4cを人差し指で弾き飛ばそうとす
る状態を表している。この動作によってカプセル映像4
cを画面上から削除することができる。ここでは具体的
に弾き飛ばす動作を示したが、削除の動作は指の背でカ
プセル映像を払うとか掴んで枠2の外に投げ飛ばしても
よい。
For example, when the arithmetic unit 94 recognizes that the capsule image 4g has been picked up by the virtual right hand 8R based on the input information from the data glove 92, the pressure sensing mechanism 105 of the data glove 92 operates to sense the pressure on the actual right hand. Is transmitted, and the searcher 90 can more surely have a “pick” feeling. As a specific example of the pressure sensing mechanism 105, a method of detecting a force applied to a finger with a strain gauge and converting the detected force into an air pressure applied to a balloon provided therein can be adopted. Further, in the present embodiment, by changing the size of the capsule according to the size of the information amount of the search index of the capsule image, the size of the information can be immediately visually determined. On the other hand, the left hand 8 of the virtual arm shown in FIG.
L indicates a state in which the user attempts to flick the capsule image 4c with the index finger. By this operation, capsule image 4
c can be deleted from the screen. Although the operation of flipping is specifically shown here, the operation of deletion may be performed by paying or grabbing the capsule image with the back of the finger and throwing the capsule image out of the frame 2.

【0020】また、上述の検索インデックスはキーワー
ドのようにその内容が直接カプセル映像に表示されてい
ても良く、このキーワードで示された表示情報を検索す
ることもできる。この場合は例えば、キーワードの表示
された例えば2個のカプセル映像を指で直接、順々に掴
むことで、その2個のキーワードと関連のある情報をす
ぐさま表示することもできる。この検索方法は、複数個
のキーワードと関連のある複雑な情報を検索する場合に
は特に有効である。
Further, the contents of the above-mentioned search index may be directly displayed on the capsule video like a keyword, and display information indicated by the keyword may be searched. In this case, for example, by directly grasping, for example, two capsule images on which the keywords are displayed with a finger, the information related to the two keywords can be displayed immediately. This search method is particularly effective when searching for complex information related to a plurality of keywords.

【0021】ここで、データグローブ92で認識できる
手の動作パターンの一例について図3〜図7を参照して
説明する。一般に手は対象物がある場合にはその対象物
を握る、摘む、弾く、選り分ける、所定位置に移動させ
る等の動作を行うことができる。そしてこの対象物にカ
プセル映像を用いることにより上記各動作パターンでカ
プセル映像で表示された検索インデックスの集合論理演
算や検索インデックスに対する演算処理コマンドを演算
部に入力することができる。
Here, an example of a hand movement pattern that can be recognized by the data glove 92 will be described with reference to FIGS. Generally, when there is an object, the hand can perform operations such as grasping, picking, playing, selecting, and moving the object to a predetermined position. By using a capsule image as the object, a set logical operation of the search index displayed in the capsule image in each of the above operation patterns and an operation processing command for the search index can be input to the operation unit.

【0022】以下にその手の動作パターンの定義の一例
を示す。図3は「握る」動作を模式的に示しており、仮
想腕8Rの掌にカプセル映像4を包み込む動作をとる。
このとき、カプセル映像4の位置座標はコンピュータ内
で把握されており、このカプセル映像4の座標(A)と
人差し指の先端に装着されたセンサの座標(B)と親指
の先端に装着されたセンサの座標(C)とがほぼ(A)
−(B)−(C)の順に並んだ状態によりカプセル映像
4を握った状態を認識するようになっている。このとき
本実施例では、掌にあるカプセル映像4の検索インデッ
クスは照合検索のために抽出され、次の検索処理のため
の待機状態であると定義されている。図4は「摘む」動
作を模式的に示しており、人差し指と親指の指先に装着
されたセンサの間隔が所定量以下で、センサ間にキーワ
ードのカプセル映像が存在している場合にカプセル映像
を摘んだ状態を認識するようになっている。あるいは、
立体映像を画像処理することによって認識することもで
きる。図5は「弾く」という動作を模式的に示してお
り、人差し指の指先に装着されたセンサが感知する指先
の移動速度あるいは加速度が所定値以上でこの人差し指
とカプセル映像が干渉している場合に、そのカプセル映
像の検索インデックスが削除されたという状態を認識す
るようになっている。図6(a)、(b)は「選り分け
る」という動作を模式的に示している。このうち図6
(a)において、4本の指先に装着されたセンサが近接
し、仮想線分(A)−(B)とカプセル映像とが干渉し
ている場合に、そのカプセル映像の検索インデックスが
排除されたという状態を認識するようになっている。ま
た、図6(b)に示すように両手で囲んだ範囲内のカプ
セル映像を選り分けることもできる。図7は集合の論理
演算の一例を示しており、右手8Rであるカプセル映像
4を摘み、左手8Lで他のカプセル映像5を摘んだ状態
では両者の検索インデックスの論理積演算を行うことを
認識するようになっている。このとき、右手8Rに検索
しようとする検索インデックスの集合のカプセル映像4
(あるいは複数のカプセル映像)をつまみ(握り)、左
手8Lでデータベースの集合の論理演算を実行させる演
算処理コマンドの演算子カプセル映像7aをつまむ(握
る)ことにより右手8Rの中の検索インデックスに対し
て所定の論理演算を実行することができる。
An example of the definition of the movement pattern of the hand is shown below. FIG. 3 schematically shows the “gripping” operation, in which the capsule image 4 is wrapped in the palm of the virtual arm 8R.
At this time, the position coordinates of the capsule image 4 are known in the computer, and the coordinates (A) of the capsule image 4, the coordinates (B) of the sensor attached to the tip of the index finger, and the sensor attached to the tip of the thumb. Coordinates (C) and (A)
The state where the capsule image 4 is grasped is recognized based on the states arranged in the order of-(B)-(C). At this time, in the present embodiment, the search index of the capsule video 4 in the palm is extracted for collation search, and is defined as a standby state for the next search process. FIG. 4 schematically shows the “pick” operation. When the distance between the sensors attached to the index finger and the fingertip of the thumb is a predetermined amount or less and the capsule image of the keyword exists between the sensors, the capsule image is displayed. It recognizes the picked state. Or,
It can also be recognized by performing image processing on a stereoscopic video. FIG. 5 schematically shows an operation of “playing”. When the moving speed or acceleration of the fingertip detected by the sensor attached to the fingertip of the forefinger is equal to or more than a predetermined value and the forefinger and the capsule image interfere with each other. , The search index of the capsule video is deleted. FIGS. 6A and 6B schematically show an operation of “selecting”. Fig. 6
In (a), when the sensors attached to the four fingertips are close to each other and the virtual line segments (A)-(B) interfere with the capsule image, the search index of the capsule image is excluded. It recognizes the state. In addition, as shown in FIG. 6B, capsule images within a range surrounded by both hands can be selected. FIG. 7 shows an example of the logical operation of the set. In a state where the capsule image 4 which is the right hand 8R is picked up and the other capsule image 5 is picked up with the left hand 8L, it is recognized that the logical AND operation of both search indexes is performed. It is supposed to. At this time, the capsule video 4 of the set of search indexes to be searched in the right hand 8R
(Or a plurality of capsule images) is pinched (gripped), and the operator's capsule image 7a of an operation processing command for executing a logical operation of a set of databases with the left hand 8L is pinched (gripped) to the search index in the right hand 8R. Thus, a predetermined logical operation can be executed.

【0023】例えば右手8Rでカプセル映像4を摘み、
左手8Lでカプセル映像5を摘むことにより、カプセル
映像4が表示するインデックスとカプセル映像5が表示
するインデックスとの「OR」演算を行なうことができ
る。あるいはまた演算子カプセル映像7aが「AND」
の論理演算手段を表示すると仮定した場合、左手8Lで
摘んだ演算子カプセル映像7aに対して右手8Rで摘ん
だカプセル映像4および5を順次接触させることによ
り、映像カプセル4および5が表示する各々のインデッ
クスの「AND」演算を行なうことができる。また、検
索実行中に処理中止したりするために所定の手の動作パ
ターンを定義することもでき、この場合、通常の作業で
は使われない手の動作を指定することで誤操作の発生を
防ぐことができる。なお、以上の動作パターン例ではデ
ータグローブを例に説明したが、手の動作パターンを把
握できる入力装置であれば、その構造はどのようなもの
でもよいことは明らかである。また、立体視装置として
はアイフォン以外のものを使用することももちろん可能
である。
For example, pick the capsule image 4 with the right hand 8R,
By gripping the capsule image 5 with the left hand 8L, an “OR” operation of the index displayed by the capsule image 4 and the index displayed by the capsule image 5 can be performed. Alternatively, the operator capsule image 7a is "AND"
Is assumed to be displayed, the capsule images 4 and 5 picked up by the right hand 8R are sequentially brought into contact with the operator capsule image 7a picked up by the left hand 8L, so that the image capsules 4 and 5 respectively display. "AND" operation of the index of. In addition, it is also possible to define a predetermined hand motion pattern to stop processing during the search execution, and in this case, specify a hand motion that is not used in normal work to prevent erroneous operation Can be. In addition, although the data glove has been described as an example in the above operation pattern example, it is clear that any structure can be used as long as the input device can grasp the operation pattern of the hand. It is of course possible to use a device other than the iPhone as the stereoscopic device.

【0024】次に、カプセル映像の検索インデックスに
時間因子が含まれている場合の効果的な検索方法につい
て説明する。図8は3次元映像空間内に映し出された直
線状の時間座標軸Tを示しており、この時間座標軸Tに
沿って浮遊するようにカプセル映像4が映し出されてい
る。このカプセル映像4は検索インデックスとして時間
因子を含んでおり、カプセル映像4が位置している時間
軸座標Tに該当するデータがデータベースから引き出せ
るようになっている。すなわち、あるカプセル映像4が
時間軸座標Tの1990年6月の位置にあれば、そのカ
プセル映像の示す検索インデックスでヒットするデータ
のうち、1990年6月のデータのみが抽出される。さ
らにこのカプセル映像の時間因子にある幅を与えたとき
のデータを得たい場合には、図9に示したように仮想腕
の両手8R、8Lで時間座標軸Tを遮ることによりその
範囲(T1 〜T2 )を網羅することができる。これによ
り該当するカプセル映像の時間因子のうち、たとえば、
1989年6月〜1990年12月までのデータを抽出
することができる。
Next, an effective search method when a time factor is included in the search index of the capsule video will be described. FIG. 8 shows a linear time coordinate axis T projected in the three-dimensional image space, and the capsule image 4 is projected so as to float along the time coordinate axis T. The capsule image 4 includes a time factor as a search index, and data corresponding to the time axis coordinate T where the capsule image 4 is located can be extracted from the database. That is, if a certain capsule image 4 is located at the position of June 1990 on the time axis coordinate T, only the data of June 1990 is extracted from the data hit by the search index indicated by the capsule image. Further, when it is desired to obtain data when a certain width is given to the time factor of the capsule image, as shown in FIG. 9, by blocking the time coordinate axis T with both hands 8R and 8L of the virtual arm, the range (T 1) To T 2 ). As a result, of the time factors of the corresponding capsule image, for example,
Data from June 1989 to December 1990 can be extracted.

【0025】ところで、この直線状の時間座標軸Tでは
軸の奥行きと時間の遡及とリニアな関係にあるので、古
い年代を検索を行う場合、手の動作が取りにくくなると
いう問題がある。そこで、図10(a)に示したように
時間座標軸Tを螺旋状にして映像空間の奥行き方向を有
効に使うこともできる。このとき、時間座標軸Tの時間
刻みは、遡及するに従って粗くすることで時間座標軸T
に年代を有効に割り当てることができる。図10aにお
いてカプセル映像4は左手8Lで摘むことによって時間
座標軸Tに沿って進ませることができるが、この他に例
えば左手8Lで円を何回か描くことによってカプセル映
像4を進ませることもできる。また、図10(b)に示
すように時間座標軸Tをジクザグ状にとってもよく、さ
らに図10(c)に示すように時間座標軸Tをスネーク
状にとっても良い。
By the way, since the linear time coordinate axis T has a linear relationship with the depth of the axis and the retrospective time, there is a problem that it is difficult to perform hand operations when searching for an old age. Therefore, as shown in FIG. 10A, the time coordinate axis T can be spirally used to effectively use the depth direction of the image space. At this time, the time step of the time coordinate axis T is made coarser as it goes back,
You can assign the ages effectively. In FIG. 10a, the capsule image 4 can be advanced along the time coordinate axis T by pinching with the left hand 8L. Alternatively, the capsule image 4 can be advanced by drawing a circle several times with the left hand 8L, for example. . Further, the time coordinate axis T may be zigzag as shown in FIG. 10 (b), and the time coordinate axis T may be snake-shaped as shown in FIG. 10 (c).

【0026】このように本発明は、3次元映像空間に表
示されている複数のカプセル映像の中から必要な情報を
直接人間の手で取捨選択できるようにしたので、現在デ
ータベース化されている様々なデータの情報検索に適用
できる。例えば百科辞典検索システム、新聞検索システ
ム、野球情報検索システム、特許検索システム、歴史検
索システム、地図検索システム、医療情報検索システ
ム、電話帳、社内組織検索システム、個人情報検索シス
テムなど枚挙にいとまがない。
As described above, according to the present invention, necessary information can be directly selected from a plurality of capsule images displayed in the three-dimensional image space by a human hand. It can be applied to information retrieval of sensitive data. For example, encyclopedia search system, newspaper search system, baseball information search system, patent search system, history search system, map search system, medical information search system, telephone directory, in-house organization search system, personal information search system, etc. Absent.

【0027】以下、図11を参照しながら百科事典検索
システムを例にとって具体的な検索方法を説明する。図
11は大分類から小分類へと複数の段階の概念を順に絞
り込んでいき、求める項目に到達するという検索方法を
概念的に示したものである。まず始めに前述した3次元
映像空間に大分類情報としてのレベル1のカプセル映像
11a、11b、11cを表示する。検索者は表示され
たカプセル映像11の中から自分の知りたい情報である
“歴史”のカプセル映像11bを前述の方法で直接掴
む。すると画面が切り替わり、レベル2のカプセル映像
13a、13b、13cが表示される。レベル1と同様
に自分の知りたい“地域”のカプセル映像13bを選択
する。レベル1からレベル2への移行と同様に画面が切
り替わり、レベル3のカプセル映像15a、15b、1
5cが表示され、“ヨーロッパ”のカプセル映像15b
を選択する。これまでの画面展開と同様に画面が切り替
わり、レベル4のカプセル映像16a、16b、16c
が表示される。ここで自分の知りたい“ドイツ”のカプ
セル映像16bを選択すると、次の画面にドイツの歴史
情報の選択項目例えば“中世”という年代のカプセル映
像が表示され、これらを順次自分の手で選択していくこ
とによって自分の欲しい情報に到達できる。この検索イ
ンデックスを選択する動作はごく短時間に実行すること
ができる。
Hereinafter, a specific search method will be described with reference to FIG. 11 using an encyclopedia search system as an example. FIG. 11 conceptually shows a search method in which the concept of a plurality of stages is sequentially narrowed down from the large classification to the small classification, and the desired item is reached. First, capsule images 11a, 11b, and 11c of level 1 are displayed as large classification information in the above-described three-dimensional image space. The searcher directly grabs the "history" capsule image 11b, which is the information he wants to know, from the displayed capsule image 11 by the method described above. Then, the screen is switched, and the capsule images 13a, 13b, 13c of level 2 are displayed. As in the case of level 1, the capsule image 13b of the "region" that the user wants to know is selected. The screen is switched in the same manner as the transition from level 1 to level 2 and the level 3 capsule images 15a, 15b, 1
5c is displayed and the capsule image 15b of "Europe"
Select The screen is switched in the same manner as the previous screen development, and the level 4 capsule images 16a, 16b, 16c
Is displayed. Here, when the capsule image 16b of "Germany" that the user wants to know is selected, a selection item of German history information, for example, a capsule image of the age of "Medieval" is displayed on the next screen, and these are sequentially selected by one's own hand. You can reach the information you want by going. The operation of selecting the search index can be executed in a very short time.

【0028】以上に述べた検索方法は各レベルの画面が
次々に展開する方法を示したが、他の方法でも検索が可
能である。大分類であるレベル1は検索の基準となるの
で最初に選択する必要があるが、レベル2以下のカプセ
ル映像を表示する順序は特に限定されない。例えば、次
に示す3つの順序でも同一の概念に到達することが可能
である。 1歴史→地域→ヨーロッパ→ドイツ→時代→中世→宗教 2歴史→時代→中世→地域→ヨーロッパ→ドイツ→宗教 3歴史→宗教→地域→ヨーロッパ→ドイツ→時代→中世 したがってレベル2以下のカプセル映像を映像を表示す
る場合、図11に示すように複数のレベルを一度に表示
しても良い。また複数の選択画面を介して適当なグルー
プ分けをして例えば図11のレベル1のみ、あるいはレ
ベル2のみを表示しても良い。
Although the search method described above has shown a method in which the screens of each level are developed one after another, the search can be performed by other methods. Level 1, which is a major classification, is a search criterion and needs to be selected first. However, the order in which capsule images of level 2 and lower are displayed is not particularly limited. For example, the same concept can be reached in the following three orders. 1 History → Region → Europe → Germany → Era → Medieval → Religion 2History → Era → Medieval → Region → Europe → Germany → Religion 3History → Religion → Region → Europe → Germany → Era → Medieval Therefore capsule images of level 2 or lower When displaying an image, a plurality of levels may be displayed at a time as shown in FIG. Further, appropriate grouping may be performed through a plurality of selection screens, and for example, only level 1 or only level 2 in FIG. 11 may be displayed.

【0029】次に、図12及び図13を参照して検索者
の操作方法について説明する。図12及び図13におい
て、検索順序をSTEP1〜STEP6で表しているの
で、以下の説明もこれに従って行う。 STEP1:3次元映像空間に浮かぶように映し出され
た大分類であるレベル1のカプセル映像の中から検索し
ようとしている概念を示すカプセル映像を選択して手、
例えば左手8Lで掴む。手で掴んだカプセル映像を例え
ば空間の右側に設けられた保存エリア7に移動させる
(図12(a)参照)。 STEP2:レベル2のカプセル映像の中から自分が必
要な概念を示すカプセル映像を選択して左手8Lで掴
み、保存エリア7へ移動させる(図12(b)参照)。 STEP3:レベル3のカプセル映像の中から自分が必
要な概念を示すカプセル映像を選択して左手8Lで掴
み、保存エリア7へ移動させる(図12(c)参照)。 STEP4:レベル4のカプセル映像の中から自分が必
要な概念を示すカプセル映像を選択して左手8Lで掴
み、保存エリア7へ移動させる(図13(a)参照)。 STEP5:レベル5のカプセル映像の中から自分が必
要な概念を示すカプセル映像を選択して左手8Lで掴
み、保存エリア7へ移動させる(図13(b)参照)。 STEP6:次に、選択したカプセル映像が集まってい
る保存エリア7から余分なカプセル映像を左手8Lで弾
き飛ばし(図13(c)参照)、保存エリア7に残った
選択後のカプセル映像を新たに表示された年表を示した
時間座標軸T上の自分の指定する時間(時期)の位置に
持ってくる(図14(a)参照)。なお、図13(c)
において、保存エリア7から余分のカプセル映像を弾き
飛ばすのは、その後の検索作業を明瞭かつ簡単にするた
めである。
Next, a method of operating the searcher will be described with reference to FIGS. In FIGS. 12 and 13, the search order is represented by STEP1 to STEP6, and the following description will be made accordingly. STEP 1: Capsule images indicating the concept to be searched are selected from capsule images of level 1 which is a large classification projected so as to float in the three-dimensional image space, and a hand is selected.
For example, it is grasped with the left hand 8L. The capsule image grasped by hand is moved to, for example, a storage area 7 provided on the right side of the space (see FIG. 12A). STEP2: Capsule image indicating the necessary concept is selected from the level 2 capsule images, grasped with left hand 8L, and moved to storage area 7 (see FIG. 12 (b)). STEP3: Capsule image indicating the concept that the user needs is selected from the capsule images of level 3 and grasped by left hand 8L, and moved to storage area 7 (see FIG. 12 (c)). STEP 4: Capsule image indicating the concept necessary for the user is selected from the capsule images of level 4 and grasped by left hand 8L, and moved to storage area 7 (see FIG. 13A). STEP 5: Capsule image indicating the concept necessary for the user is selected from the level 5 capsule images, grasped by the left hand 8L, and moved to the storage area 7 (see FIG. 13B). STEP 6: Next, an extra capsule image is skipped with the left hand 8L from the storage area 7 where the selected capsule images are gathered (see FIG. 13C), and the selected capsule image remaining in the storage area 7 is newly added. The displayed chronological table is brought to the position of the time (time) designated by the user on the time coordinate axis T (see FIG. 14A). FIG. 13 (c)
The reason why the extra capsule video is skipped from the storage area 7 is to make the subsequent search operation clear and simple.

【0030】ここで中世の情報が必要な場合は、西暦1
000年の位置に選択したカプセル映像を持ってくれば
よい(同図(a)参照)。また、西暦500〜1500
年の範囲の情報が必要な場合は、左手8Lで西暦500
年、右手8Rで西暦1500年を掴んで範囲を示せばよ
い(同図(b)参照)。表示する時点が決まれば、そこ
で求めていた歴史的な事実を所定の出力形式で表示させ
ることができる。これにより一連の検索作業が終了す
る。なお、表示する範囲がある場合は、さらに3次元映
像空間が展開されて詳しく検索していくことになる。処
理終了の合図として、手を裏返したり、カプセル映像を
押しやったりあるいは“終了”を表したカプセル映像を
掴むなどの動作を行えばよい。
Here, if information on the Middle Ages is required,
It is sufficient to bring the selected capsule image to the position of 000 years (see (a) in the figure). In addition, 500-1500 AD
If you need information on the range of years, use 8L on the left and 500 AD
The year, the right hand 8R may be used to grab the year 1500 and indicate the range (see FIG. 3B). Once the display time is determined, the historical fact sought there can be displayed in a predetermined output format. This ends a series of search operations. If there is a range to be displayed, the three-dimensional video space is further expanded to search in detail. As a signal of the end of the processing, an operation such as turning over the hand, pushing the capsule image, or grasping the capsule image indicating “end” may be performed.

【0031】以上は歴史上の事実を検索する例である
が、たとえば生物の進化の過程を検索する場合、たとえ
ば表示領域の左右方向に時間軸をとれば、手を左右に送
る動作をすることで過去あるいは未来(予想になる)の
情報を検索できる。また、表示領域の奥行き方向に時間
軸を設定すれば、手で呼び込む(あるいは送り出す)操
作によって上述のような時間座標軸に沿って時間因子に
対する検索が直接的かつ容易に行える。情報が時系列的
な因子を含まない情報であれば、その座標軸に「重要
度」を適用して、座標軸に沿ってその座標位置により重
み付けされた情報が表示されるようにすれば良い。ま
た、関連する情報の集合がいくつかある場合には、手で
掴んだ情報に関連する情報だけを表示し直すこともでき
る。これにより大量の情報を取り扱う場合の混乱を防止
できる。
The above is an example of searching for historical facts. For example, when searching for the evolutionary process of an organism, for example, if the time axis is set in the horizontal direction of the display area, the operation of moving the hand to the left and right is performed. You can search for past or future (expected) information. In addition, if the time axis is set in the depth direction of the display area, it is possible to directly and easily search for the time factor along the time coordinate axis as described above by manually calling (or sending out). If the information does not include a time-series factor, "importance" may be applied to the coordinate axis so that the information weighted by the coordinate position along the coordinate axis may be displayed. If there are several sets of related information, only the information related to the information grasped by hand can be displayed again. This can prevent confusion when handling a large amount of information.

【0032】次に、図15〜図16に同じレベルにある
カプセル映像同士の集合論理演算で絞り込みを行う検索
方法について説明する。図15(a)は、図13(a)
のSTEP4と同様の状態からたとえば“米国”のカプ
セル映像50を取り出し、すでに“歴史”カプセル映像
54が選択してある保存エリア51に移動した後、“日
本”のカプセル映像53ならびに“ドイツ”のカプセル
映像52を選んで保存エリア51に入れた状態を示して
いる。次にこの状態から図13(c)のSTEP6と同
様に不必要なカプセル映像を弾き飛ばして“米国”のカ
プセル映像50と“日本”のカプセル映像53と“ドイ
ツ”のカプセル映像52の3つのカプセル映像を表示さ
せる。ここで、同図(b)に示したように“日本”のカ
プセル映像53と“ドイツ”のカプセル映像52を右手
8Rで掴み、その2つのカプセル映像52、53を接触
させる。この動作は2つのカプセル映像52、53の論
理積(AND演算)を表し、この2つのカプセル映像5
2、53に共通の情報が次のステップで検索できる。さ
らに接触させた2つのカプセル映像52、53を右手8
Rで掴んでおき、左手8Lで“米国”のカプセル映像5
0を掴むことで左右に掴んだカプセル映像の論理和(O
R演算)を表すことができる。すなわち図15(b)に
示した状態は、「“日本”のカプセル映像53と“ドイ
ツ”のカプセル映像52に共通した情報」と「“米国”
のカプセル映像50の情報」との集合した情報を取り出
すことを指示していることになる。もちろん、カプセル
映像52、53を接触させる動作をカプセル映像52、
53の倫理和とし、さらにカプセル映像50を掴む動作
を論理積として定義することも可能である。このように
複数のカプセル映像をまとめて掴むという2種類の動作
により論理和と論理積とを簡単に表示でき、また検索対
象の集合の指定や変更も容易に行える。
Next, a search method for narrowing down by a set logical operation between capsule images at the same level will be described with reference to FIGS. FIG. 15A shows the state shown in FIG.
For example, the capsule image 50 of “USA” is taken out from the same state as in STEP 4 of FIG. 4 and moved to the storage area 51 in which the “history” capsule image 54 has already been selected. This shows a state where a capsule image 52 is selected and put in the storage area 51. Next, in this state, unnecessary capsule images are skipped in the same manner as in STEP 6 of FIG. 13C, and three capsule images of the “US” capsule image 50, the “Japan” capsule image 53, and the “Germany” capsule image 52 are obtained. Display the capsule video. Here, as shown in FIG. 3B, the capsule image 53 of "Japan" and the capsule image 52 of "Germany" are grasped with the right hand 8R, and the two capsule images 52, 53 are brought into contact. This operation represents the logical product (AND operation) of the two capsule images 52 and 53,
Information common to 2, 53 can be retrieved in the next step. Further, the two capsule images 52 and 53 brought into contact with each other are
Grab with R and 8L left hand capsule video of "USA"
By grabbing 0, the logical sum (O
R operation). That is, the state shown in FIG. 15B includes “information common to the capsule video 53 of“ Japan ”and the capsule video 52 of“ Germany ”” and “US”.
Of the capsule image 50 of the "capsule image 50". Of course, the operation of bringing the capsule images 52 and 53 into contact is referred to as the capsule image 52,
It is also possible to define the ethical sum of 53 and the operation of grasping the capsule image 50 as a logical product. As described above, the logical sum and the logical product can be easily displayed by the two kinds of operations of collectively capturing a plurality of capsule images, and the set of search targets can be easily specified or changed.

【0033】次に、図16によって排他的論理和の検索
動作を説明する。まず、上述した検索方法によって“生
物”→“植物”→“花”の順にカプセル映像を選択して
保存エリアに入れる。次に“植物”の中から“木”を選
択して保存エリアに入れる。この保存エリアから左手8
Lで“花”のカプセル映像61を掴みだし、次に右手8
Rで“木”のカプセル映像63を持ってきて“花”のカ
プセル映像61に一度接触させてから再び放す。この動
作は排他的論理和を表し、“木”に咲かない“花”ある
いは“花”の咲かない“木”を意味している。この他に
もカプセル映像を掴んでそれを裏返す動作で否定を表す
ことができる。この実施例はこのように掴んだカプセル
映像を接触したり、放したり、裏返したりという自然な
動作で情報の検索が行えるものである。
Next, the operation of searching for an exclusive OR will be described with reference to FIG. First, a capsule image is selected in the order of “living organisms” → “plants” → “flowers” by the above-described search method and entered into the storage area. Next, "trees" are selected from "plants" and put into the storage area. Left hand 8 from this storage area
With L, grab the capsule image 61 of “flower” and then right hand 8
Bring the capsule image 63 of "tree" with R, once touch the capsule image 61 of "flower", and release it again. This operation represents an exclusive OR, and means a "flower" that does not bloom in "tree" or a "tree" in which "flower" does not bloom. In addition to this, a negative action can be expressed by the action of grabbing the capsule image and turning it over. In this embodiment, information retrieval can be performed by a natural operation such as touching, releasing, or flipping the capsule image thus grasped.

【0034】図17は、本発明の他の実施例による検索
方法の概略図である。図17において、五十音順あるい
はアルファベット順の用語辞書70が3次元映像空間に
映し出されている。辞書をひこうとする検索者は手8で
映像である辞書の表面に触れてその頁をパラパラとめく
るように画面をスクロールすることができる。この場
合、左手と右手をたたくことによって頁をめくるように
画面をスクロールすることもできる。そして求める語句
やトピックスがあった場合にはその語句を表示したアイ
コンを辞書からつかみ出すことによって検索対象をダイ
レクトに検索することができる。なお、この辞書の各頁
のすべての語句に相当する部分にはアイコン72が埋込
んであり、このアイコン72はカプセル映像と同様に情
報のインデックスとしての機能を果たすことができる。
このようにさまざまなジャンルの用語辞書を用意してお
いてこの方法による検索を行うと、従来のように何冊か
の重い辞書をいちいち持ち運ぶ必要がないので人間の疲
労度を和らげる検索方法となる。
FIG. 17 is a schematic diagram of a search method according to another embodiment of the present invention. In FIG. 17, a term dictionary 70 in alphabetical order or alphabetical order is displayed in a three-dimensional video space. The searcher trying to search the dictionary can touch the surface of the dictionary, which is an image, with his hand 8 and scroll the screen so as to flip the page. In this case, the screen can be scrolled so as to turn the page by tapping the left hand and the right hand. If there is a word or topic to be sought, the search target can be directly searched by grabbing an icon displaying the word from the dictionary. Note that an icon 72 is embedded in a portion corresponding to all words and phrases on each page of the dictionary, and this icon 72 can function as an information index like a capsule video.
In this way, if you prepare a term dictionary of various genres and perform a search by this method, it will be a search method that alleviates human fatigue because it is not necessary to carry several heavy dictionaries each time as in the past. .

【0035】図18は、本発明の他の実施例による検索
方法のうち、カプセル映像に表示されていないキーワー
ドを新たに入力する手段を示している。この入力手段8
0は、空間に表示されたペン81の形状をしており、操
作者は仮想腕8R(8L)でペン81を掴めるようにな
っている。このとき握った指の間隔を狭めることによっ
てインクが放出され、空間上に文字を描くことができ
る。新たにキーワードを作成する場合は、データベース
を属性管理するために予め設けられた既設の対応インデ
ックスが存在していることが条件となる。
FIG. 18 shows a means for newly inputting a keyword which is not displayed in the capsule video, in the search method according to another embodiment of the present invention. This input means 8
Numeral 0 is the shape of the pen 81 displayed in the space, and the operator can grip the pen 81 with the virtual arm 8R (8L). At this time, by narrowing the interval between the fingers held, ink is discharged, and characters can be drawn on the space. When a new keyword is created, the condition is that an existing corresponding index provided in advance for managing the attribute of the database exists.

【0036】このように空間上に文字あるいは図形を描
けることを利用して本発明による情報検索装置を幼児の
教育用の機器として使うことも可能である。この場合、
幼児やお年寄りを含む幅広い年齢層の人々に情報検索や
コンピュータグラフィックスの世界へのインタフェース
を提供することができる。
The information retrieval apparatus according to the present invention can be used as an educational device for infants by utilizing the fact that characters or figures can be drawn on the space. in this case,
It can provide an interface to the world of information retrieval and computer graphics for people of all ages, including infants and the elderly.

【0037】また、空間に使用者の好みに合ったキーボ
ードを表示し、前記手の動き(指の動き)を検出する装
置で入力ができるように構成すれば、現在規格の異なる
様々なキーボードの中から自分に最適のキーボードを使
って入力を行える。本発明では情報検索の際に従来のキ
ーボード操作も併用することができる。
Further, if a keyboard suitable for the user's preference is displayed in the space and input can be made with the device for detecting the movement of the hand (movement of the finger), various keyboards having different standards at present can be used. You can type using the keyboard that is best for you. In the present invention, a conventional keyboard operation can be used at the time of information search.

【0038】なお、図1において、検索者90の両手に
はめたデーダグローブ92R,92Lによって検索者9
0の手の動作パターンを検出し、これを入力情報とした
例を示したが、検索者90の手の動作パターンに限らず
検索者の頭110の動作パターンを立体視装置91を支
持するヘッドバンド112により検出してこれを入力情
報とすることもできる。あるいはまた、検索者90の足
の動作パターンを提出してもよい。
In FIG. 1, the searcher 9 is held by the data gloves 92R and 92L which are put on both hands of the searcher 90.
Although the example in which the motion pattern of the hand 0 is detected and this is used as the input information is shown, the motion pattern of the head 110 of the searcher is not limited to the motion pattern of the hand of the searcher 90. This can be detected by the band 112 and used as input information. Alternatively, a motion pattern of the feet of the searcher 90 may be submitted.

【0039】さらに、検索者90の手または頭の動作パ
ターンをTVカメラ100で検出し、これを入力情報と
して演算部94に送ることもできる。
Further, the motion pattern of the hand or the head of the searcher 90 can be detected by the TV camera 100 and sent to the arithmetic section 94 as input information.

【0040】また、図1において、検索者90が装着し
たスキーゴーグル状の立体視装置91によって検索者9
0の眼前に3次元映像空間を映し出した例を示したが、
これに限らず例えば図20に示すように、検索者90が
頭110からわずかに離れた位置に一対のプライベート
アイ114を装着し、このプライベートアイ114を用
いて両眼に情報を投影することによって3次元映像空間
を映し出しても良い。プライベートアイ114を用いた
場合は、頭110に対する圧迫感を減少させることがで
きる。また、3次元映像空間に写し出されるカプセル映
像は、そのカプセルの意味する内容などに応じて任意の
形状に設定することもできる。
In FIG. 1, the searcher 9 is mounted on a ski goggle-shaped stereoscopic device 91 worn by the searcher 90.
An example of displaying a three-dimensional image space in front of 0 is shown,
The present invention is not limited to this. For example, as shown in FIG. 20, the searcher 90 wears a pair of private eyes 114 at a position slightly away from the head 110 and projects information to both eyes using the private eyes 114. A three-dimensional image space may be projected. When the private eye 114 is used, the feeling of pressure on the head 110 can be reduced. Further, the capsule video projected in the three-dimensional video space can be set to an arbitrary shape according to the meaning of the capsule and the like.

【0041】また、図1および図2において、検索者9
0が立体視装置91を装着することによって3次元映像
空間を映し出した例を示したが、立体視装置91の代わ
りに検索者90が二次元視装置116を装着して二次元
映像空間を映し出しても良い。二次元視装置116を装
着した場合は、仮想の左手8Lおよび右手8R、および
各種カプセル映像3,4,5,6,7が二次元映像空間
内に映し出される。
Also, in FIG. 1 and FIG.
0 shows an example in which the three-dimensional image space is projected by mounting the stereoscopic device 91, but the searcher 90 mounts the two-dimensional visual device 116 instead of the stereoscopic device 91 to project the two-dimensional image space. May be. When the two-dimensional viewing device 116 is mounted, the virtual left hand 8L and right hand 8R and various capsule images 3, 4, 5, 6, and 7 are projected in the two-dimensional image space.

【0042】次に図21により本発明による情報検索装
置の他の実施例について説明する。図21において、C
RTのような平面ディスプレイ画面(表示部)121上
に、カプセル映像(インデックス表示体映像)124,
125,126が表示されている。これらカプセル12
4,125,126はデータベースを属性管理するイン
デックスの集合を表わしている。
Next, another embodiment of the information retrieval apparatus according to the present invention will be described with reference to FIG. In FIG. 21, C
A capsule image (index display image) 124,
125 and 126 are displayed. These capsules 12
4, 125 and 126 represent a set of indexes for managing the attributes of the database.

【0043】また、画面121に表示されたカプセル映
像124,125,126に対して、画面121上か
ら、実際の右手140に把持されたタッチペン141を
接触させ、カプセル映像124,125,126に対し
て所定の動作パターンを行なわせるための入力情報を入
力することができる。例えばタッチペン141をカプセ
ル映像125にタッチし、タッチペン141をカプセル
映像124側に移行させることによって、カプセル映像
125をカプセル映像124側にもってきて互いに重ね
合せることができる。
Further, the touch pen 141 held by the actual right hand 140 is brought into contact with the capsule images 124, 125 and 126 displayed on the screen 121 from the screen 121, and the capsule images 124, 125 and 126 are touched. Input information for performing a predetermined operation pattern. For example, by touching the capsule image 125 with the touch pen 141 and moving the touch pen 141 to the capsule image 124 side, the capsule image 125 can be brought to the capsule image 124 side and can be superimposed on each other.

【0044】すなわち、平面ディスプレイ画面121は
演算部130に接続され、この演算部130においてタ
ッチペン141から入力された入力情報を認識し、画面
121上にカプセル映像124,125,126の動き
を映し出す。同時に演算部130では、タッチペン14
1から入力された入力情報に基づいてカプセル映像12
4,125,126が表示するインデックスの集合演算
を行なう。演算部130の演算結果は検索演算部131
に入力され、検索演算部131からデータベース132
に検索データが入力される。
That is, the flat display screen 121 is connected to the calculation unit 130, which recognizes input information input from the touch pen 141 and displays the movement of the capsule images 124, 125, 126 on the screen 121. At the same time, the computing unit 130
Capsule image 12 based on input information input from
The set operation of the index displayed by 4,125,126 is performed. The calculation result of the calculation unit 130 is a search calculation unit 131
Is input to the search operation unit 131 and the database 132
Is input with search data.

【0045】図21において、例えばタッチペン141
を用いてカプセル映像125をカプセル映像124側に
もってきて互いに重ね合せた場合、カプセル映像124
と125の論理積を表し、演算部130においてカプセ
ル映像124と125のAND演算を行なわせることが
できる。これにより、カプセル映像125と125が表
示する各々のインデックスの共通した情報をデータベー
ス132から取出すことができる。
In FIG. 21, for example, the touch pen 141
When the capsule image 125 is brought to the capsule image 124 side by using
And 125, and the operation unit 130 can perform an AND operation on the capsule images 124 and 125. As a result, information common to the respective indexes displayed by the capsule images 125 and 125 can be extracted from the database 132.

【0046】次に図22により、情報検索装置の更に他
の実施例について説明する。図22において、図21に
示す部分と同一部分には同一符号を符して詳細な説明は
省略する。
Next, still another embodiment of the information retrieval apparatus will be described with reference to FIG. In FIG. 22, the same portions as those shown in FIG. 21 are denoted by the same reference numerals, and detailed description will be omitted.

【0047】図22において、右手140でコード14
4aを有する右手用マウス144を持ち、操作板(図示
せず)上をすべらせてカプセル映像148に対して所定
の動作パターンを行なわせる。また左手142でコード
146aを有する左手用マウス146を待ち、操作板上
をすべらせてカプセル映像150に対して所定の動作パ
ターンを行なわせる。そして、例えば2つのカプセル映
像148と150を互に重ね合せる。
In FIG. 22, the right hand 140
The user holds the right-hand mouse 144 having the mouse 4a and slides on an operation plate (not shown) to perform a predetermined operation pattern on the capsule image 148. In addition, the user waits for the left hand mouse 146 having the code 146a with the left hand 142, and slides on the operation panel to perform a predetermined operation pattern on the capsule image 150. Then, for example, the two capsule images 148 and 150 are superimposed on each other.

【0048】この場合、右手用マウス144のコード1
44aおよび左手用マウス146のコード146aは、
演算部130に接続され、この演算部130において右
手用マウス144および左手用マウス146から入力さ
れた入力情報を認識し、画面121上にカプセル映像1
48、150の動きを移し出す。同時に演算部130で
は右手用マウス144および左手用マウス146から入
力された入力情報に基づいてカプセル映像148、15
0が表示するインデックスの集合演算を行なう。演算部
130の演算結果は検索演算部131に入力され、検索
演算部131からデータベースに検索データが入力され
る。
In this case, the code 1 of the right hand mouse 144
44a and the code 146a of the left hand mouse 146 are
The computing unit 130 recognizes input information input from the right-hand mouse 144 and the left-hand mouse 146, and displays the capsule image 1 on the screen 121.
48, 150 movements are transferred. At the same time, the arithmetic unit 130 calculates the capsule images 148 and 15 based on the input information input from the right mouse 144 and the left mouse 146.
The set operation of the index indicated by 0 is performed. The calculation result of the calculation unit 130 is input to the search calculation unit 131, and the search data is input from the search calculation unit 131 to the database.

【0049】[0049]

【発明の効果】以上に説明したように本発明によれば、
検索者がキーボードの代わりに立体映像空間内または二
次元空間内のインデックス表示体映像を直接操作し、そ
のときの身体の動作パターンにより入力情報を認識し、
演算部が所定のインデックス表示体映像が表示するイン
デックスの集合演算を行ってデータベースの照合検索を
行うため、キーボード等の従来の入力装置の操作に慣れ
ていない一般の人でもデータベース等の大量の情報の中
から自分の希望する検索対象を容易かつ精度良く取り出
すことができるという効果を奏する。
According to the present invention as described above,
The searcher directly operates the index display body image in the stereoscopic image space or the two-dimensional space instead of the keyboard, recognizes the input information by the body movement pattern at that time,
Since the calculation unit performs a set operation of the index displayed by the predetermined index display body image and performs a collation search of the database, even a general person who is not accustomed to the operation of the conventional input device such as a keyboard has a large amount of information such as a database. This makes it possible to easily and accurately retrieve the desired search target from the list.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による情報検索装置により映し出される
3次元映像空間の一実施例と検索者との係わりを仮想的
に示した説明図。
FIG. 1 is an explanatory diagram virtually showing an embodiment of a three-dimensional video space projected by an information search device according to the present invention and a relation with a searcher.

【図2】図1に示した情報検索装置により映し出された
3次元映像空間を示した概念図。
FIG. 2 is a conceptual diagram showing a three-dimensional video space projected by the information search device shown in FIG.

【図3】手の動作パターンの一例を示した説明図。FIG. 3 is an explanatory diagram showing an example of a hand movement pattern.

【図4】手の動作パターンの一例を示した説明図。FIG. 4 is an explanatory diagram showing an example of a hand movement pattern.

【図5】手の動作パターンの一例を示した説明図。FIG. 5 is an explanatory diagram showing an example of a hand movement pattern.

【図6】手の動作パターンの一例を示した説明図。FIG. 6 is an explanatory diagram showing an example of a hand movement pattern.

【図7】手の動作パターンの一例を示した説明図。FIG. 7 is an explanatory diagram showing an example of a hand movement pattern.

【図8】3次元映像空間内での時間座標軸Tの概念を示
した説明図。
FIG. 8 is an explanatory diagram showing a concept of a time coordinate axis T in a three-dimensional video space.

【図9】3次元映像空間内での時間座標軸Tの概念を示
した説明図。
FIG. 9 is an explanatory diagram showing a concept of a time coordinate axis T in a three-dimensional video space.

【図10】3次元映像空間内での時間座標軸Tの概念を
示した説明図。
FIG. 10 is an explanatory diagram showing a concept of a time coordinate axis T in a three-dimensional video space.

【図11】本発明による一実施例である百科事典検索シ
ステムの概念の一例を示した階層図。
FIG. 11 is a hierarchical diagram showing an example of the concept of an encyclopedia search system according to an embodiment of the present invention.

【図12】図11に示した検索システムの検索手順を示
した説明図。
FIG. 12 is an explanatory diagram showing a search procedure of the search system shown in FIG. 11;

【図13】図11に示した検索システムの検索手順を示
した説明図。
FIG. 13 is an explanatory diagram showing a search procedure of the search system shown in FIG. 11;

【図14】図13(c)に示した検索結果の内容を時間
座標軸Tによりさらに検索する手順を示した説明図。
FIG. 14 is an explanatory diagram showing a procedure for further searching the content of the search result shown in FIG.

【図15】集合論理演算を行う動作の一例を示した説明
図。
FIG. 15 is an explanatory diagram showing an example of an operation of performing a set logical operation.

【図16】集合論理演算を行う動作の一例を示した説明
図。
FIG. 16 is an explanatory diagram showing an example of an operation of performing a set logical operation.

【図17】本発明による他の実施例として語句サーチの
一例を示した説明図。
FIG. 17 is an explanatory diagram showing an example of a phrase search as another embodiment according to the present invention.

【図18】本発明による他の実施例として3次元映像空
間に文字を書く動作を示した説明図。
FIG. 18 is an explanatory diagram showing an operation of writing a character in a three-dimensional video space as another embodiment according to the present invention.

【図19】データグローブに内蔵された圧感機構を示す
図。
FIG. 19 is a diagram showing a pressure sensing mechanism built in the data glove.

【図20】頭に装着されたプライベートアイを示す図。FIG. 20 is a diagram showing a private eye mounted on the head.

【図21】カプセル映像を表示する平面ディスプレイ画
面を示す図。
FIG. 21 is a view showing a flat display screen for displaying a capsule image.

【図22】カプセル映像を表示する他の平面ディスプレ
イ画面を示す図。
FIG. 22 is a view showing another flat display screen for displaying a capsule image.

【符号の説明】[Explanation of symbols]

1 3次元立体映像空間 3〜6 カプセル映像 8R 仮想腕右手 8L 仮想腕左手 90 検索者 91 立体視装置 92 入力装置(データグローブ) 100 TVカメラ 101 データベース 112 ヘッドバンド 121 平面ディスプレイ画面 141 タッチペン Reference Signs List 1 3D stereoscopic image space 3 to 6 Capsule image 8R Virtual arm right hand 8L Virtual arm left hand 90 Searcher 91 Stereoscopic device 92 Input device (data glove) 100 TV camera 101 Database 112 Headband 121 Flat display screen 141 Touch pen

フロントページの続き (56)参考文献 特開 平3−94376(JP,A) 岩田洋夫,盛り上がりを見せる人工現 実感の研究課題を探る,日経CG,1990 年 3月 1日,第42号,p.154−164 佐藤誠,仮想作業空間における知覚サ イクルについて,テレビジョン学会技術 報告,1990年 2月22日,第14巻 第15 号,p.31−36 S.S.Fisher,Virtua l Interface Enviro nment Workstation, Proceedings of the Human factors Soc iety 32nd Annual Me eting,1988年,Volume 1,p.91−95 (58)調査した分野(Int.Cl.7,DB名) G06F 17/30 JICSTファイル(JOIS)Continuation of the front page (56) References JP-A-3-94376 (JP, A) Hiroo Iwata, Exploring Research Issues of Artificial Reality Showing Excitement, Nikkei CG, March 1, 1990, No. 42, p. . 154-164 Makoto Sato, Perception Cycle in Virtual Workspace, Technical Report of the Institute of Television Engineers of Japan, February 22, 1990, Vol. 14, No. 15, p. 31-36 S.C. S. Fisher, Virtual Interface Environment Workstation, Proceedings of the Human Factors Society 32nd Annual Meeting, 1988, Volume 1, p. 91-95 (58) Field surveyed (Int. Cl. 7 , DB name) G06F 17/30 JICST file (JOIS)

Claims (9)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】データベースを属性管理するインデックス
の集合を検索者の視界内の立体映像空間内にインデック
ス表示体映像により表示して視覚的にインデックスの集
合を認識させる立体視装置と、 インデックス表示体映像に対する検索者の身体の動作パ
ターンを入力情報として検出し上記立体映像空間内に身
体の動作パターンを表示する入力装置と、 この入力装置を介して入力された身体の動作パターンに
よる入力情報を認識し、動作パターンに対応するインデ
ックス表示体映像とともに表示されたインデックスを選
択し、動作パターンに対応して選択されたインデックス
の集合演算を行なうことにより上記データベースの照合
検索を行なう演算部とを備え、 インデックス表示体映像は検索者の身体の動作パターン
に対応して立体映像空間で移動可能となっており、イン
デックスのインデックス情報は立体映像空間内のインデ
ックス表示体映像の位置に対応して変化することを特徴
する情報検索装置。
1. A stereoscopic device for displaying a set of indexes for managing attributes of a database in a stereoscopic video space within a field of view of a searcher using an index display body image to visually recognize the set of indexes, and an index display body An input device for detecting a motion pattern of a searcher's body with respect to video as input information and displaying the motion pattern of the body in the stereoscopic video space; and recognizing input information based on the motion pattern of the body input through the input device. And an operation unit for selecting an index displayed together with the index display body image corresponding to the operation pattern, and performing a collation search of the database by performing a set operation of the selected index corresponding to the operation pattern, The index display body image is a 3D image space corresponding to the searcher's body movement pattern. In which movable, index index information information retrieval apparatus, characterized in that changes in accordance with the position of the index display body image of a stereoscopic image space of.
【請求項2】入力装置は検索者の手の動作パターンを入
力情報として検出し、立体視装置の立体映像空間内に手
の動作パターンを表示することを特徴とする請求項1記
載の情報検索装置。
2. The information retrieval apparatus according to claim 1, wherein the input device detects a motion pattern of the hand of the searcher as input information, and displays the motion pattern of the hand in a stereoscopic video space of the stereoscopic device. apparatus.
【請求項3】入力装置は検索者の頭の動作パターンを入
力情報として検出し、立体視装置の立体映像空間内に頭
の動作パターンを表示することを特徴とする請求項1記
載の情報検索装置。
3. The information retrieval apparatus according to claim 1, wherein the input device detects a head motion pattern of the searcher as input information, and displays the head motion pattern in a stereoscopic video space of the stereoscopic device. apparatus.
【請求項4】立体視装置は立体映像空間内に設定された
時間座標軸にインデックス表示体映像を表示し、演算部
は所定のインデックス表示体映像が表示するインデック
スの集合演算を時系列により行なうことを特徴とする請
求項1記載の情報検索装置。
4. A stereoscopic apparatus displays an index display image on a time coordinate axis set in a stereoscopic image space, and a calculation unit performs a set operation of an index displayed by a predetermined index display image in a time series. The information retrieval device according to claim 1, wherein:
【請求項5】入力装置は検索者の身体に直接装着された
装着装置となっており、この入力装置は身体の動作パタ
ーンを入力情報として検出することを特徴とする請求項
1記載の情報検索装置。
5. The information retrieval device according to claim 1, wherein the input device is a mounting device directly mounted on the body of the searcher, and the input device detects a movement pattern of the body as input information. apparatus.
【請求項6】装着装置は検索者の手に装着された一対の
データグローブであることを特徴とする請求項5記載の
情報検索装置。
6. The information retrieval device according to claim 5, wherein the attachment device is a pair of data gloves attached to a searcher's hand.
【請求項7】データグローブは、インデックス表示体映
像に対する所定の動作パターンに対応する検索者の手に
対する圧力を検知する圧感機構を有することを特徴とす
る請求項6記載の情報検索装置。
7. The information retrieval apparatus according to claim 6, wherein the data glove has a pressure sensing mechanism for detecting pressure on a searcher's hand corresponding to a predetermined operation pattern for the index display image.
【請求項8】入力装置は検索者の動作パターンを検出す
るTVカメラであることを特徴とする請求項1記載の情
報検索装置。
8. The information retrieval apparatus according to claim 1, wherein the input device is a TV camera for detecting a motion pattern of a searcher.
【請求項9】データベースを属性管理するインデックス
の集合を検索者の視界内の立体映像空間内にインデック
スカプセル映像によりする表示とともに、論理演算手段
の集合を演算子カプセル映像により表示して視覚的にイ
ンデックスの集合と論理演算手段の集合を認識させる立
体視装置と、 インデックスカプセル映像と演算子カプセル映像に対す
る検索者の身体の動作パターンを入力情報として検出し
上記立体映像空間内に身体の動作パターンを表示する入
力装置と、 この入力装置を介して入力された身体の動作パターンに
よる入力情報を認識し、動作パターンに対応するインデ
ックスカプセル映像とともに表示されたインデックスと
演算子カプセルとともに表示された論理演算手段を選択
し、選択された論理演算手段を用いて選択されたインデ
ックスの集合演算を行なうことにより上記データベース
の照合検索を行なう演算部とを備え、 インデックスカプセル映像は検索者の身体の動作パター
ンに対応して立体映像空間で移動可能となっており、イ
ンデックスのインデックス情報は立体映像空間内のイン
デックスカプセル映像の位置に対応して変化することを
特徴する情報検索装置。
9. A set of indices for managing the attributes of a database is displayed by an index capsule image in a stereoscopic image space within the field of view of a searcher, and a set of logical operation means is displayed by an operator capsule image to visually represent the set. A stereoscopic device for recognizing a set of indices and a set of logical operation means, a motion pattern of a searcher's body for the index capsule image and the operator capsule image is detected as input information, and the motion pattern of the body is detected in the stereoscopic image space. An input device to be displayed, and logical operation means for recognizing input information based on a body motion pattern input through the input device and displaying an index and an operator capsule displayed together with an index capsule image corresponding to the motion pattern Is selected and selected using the selected logical operation means. An operation unit that performs a collation search of the database by performing a set operation of the index, wherein the index capsule image is movable in the stereoscopic image space in accordance with the motion pattern of the searcher's body, and the index of the index An information retrieval apparatus characterized in that information changes according to the position of an index capsule image in a stereoscopic image space.
JP18266092A 1991-07-12 1992-07-09 Information retrieval device Expired - Fee Related JP3311025B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18266092A JP3311025B2 (en) 1991-07-12 1992-07-09 Information retrieval device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP17277091 1991-07-12
JP3-172770 1991-07-12
JP18266092A JP3311025B2 (en) 1991-07-12 1992-07-09 Information retrieval device

Publications (2)

Publication Number Publication Date
JPH05189484A JPH05189484A (en) 1993-07-30
JP3311025B2 true JP3311025B2 (en) 2002-08-05

Family

ID=26495010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18266092A Expired - Fee Related JP3311025B2 (en) 1991-07-12 1992-07-09 Information retrieval device

Country Status (1)

Country Link
JP (1) JP3311025B2 (en)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274270A (en) * 1993-03-10 1994-09-30 Roehm Properties Bv Virtual actual-space-data input device
JP3355707B2 (en) * 1993-06-29 2002-12-09 カシオ計算機株式会社 Command processing device
JP3355708B2 (en) * 1993-06-29 2002-12-09 カシオ計算機株式会社 Command processing device
EP1326120B1 (en) 1993-08-12 2010-02-24 Seiko Epson Corporation Head-mounted image display device and data processing apparatus including the same
JPH1055368A (en) * 1996-08-09 1998-02-24 Fujitsu Social Sci Lab:Kk Information retrieval method
JPH10187743A (en) * 1996-12-26 1998-07-21 Sharp Corp Data display method
JPH11175534A (en) * 1997-12-08 1999-07-02 Hitachi Ltd Method and device for retrieving image and retrieval service utilizing the same
JP3550018B2 (en) * 1998-03-11 2004-08-04 三菱電機株式会社 Book information retrieval device
JP2000099539A (en) * 1998-09-25 2000-04-07 Central Res Inst Of Electric Power Ind Document retrieval system and storage medium
JP3627094B2 (en) * 1999-09-06 2005-03-09 日本電信電話株式会社 Information clustering management method and storage medium recording the method
JP2002236696A (en) * 2001-02-08 2002-08-23 Ougi Seiko Kk Method for retrieving and displaying information
JP4665172B2 (en) * 2005-12-06 2011-04-06 国立大学法人島根大学 Interactive interface method and interactive interface program
JP5268595B2 (en) 2008-11-28 2013-08-21 ソニー株式会社 Image processing apparatus, image display method, and image display program
JP5050153B2 (en) * 2009-01-16 2012-10-17 株式会社国際電気通信基礎技術研究所 Website search system
US8498993B2 (en) 2009-08-25 2013-07-30 Rakuten, Inc. Information acquiring apparatus, information acquiring program, recording medium, information acquiring method and information acquiring system
JP5564300B2 (en) * 2010-03-19 2014-07-30 富士フイルム株式会社 Head mounted augmented reality video presentation device and virtual display object operating method thereof
KR20120025797A (en) * 2010-09-08 2012-03-16 엔에이치엔(주) Method and system for providing 3d contents
JP5670255B2 (en) * 2011-05-27 2015-02-18 京セラ株式会社 Display device
JP5864144B2 (en) 2011-06-28 2016-02-17 京セラ株式会社 Display device
JP5694883B2 (en) * 2011-08-23 2015-04-01 京セラ株式会社 Display device
JP4929414B1 (en) * 2011-08-31 2012-05-09 楽天株式会社 Information processing apparatus, information processing apparatus control method, program, and information storage medium
JP4943553B1 (en) 2011-08-31 2012-05-30 楽天株式会社 Information processing apparatus, information processing apparatus control method, program, and information storage medium
US9170648B2 (en) * 2012-04-03 2015-10-27 The Boeing Company System and method for virtual engineering
WO2014162762A1 (en) * 2013-04-02 2014-10-09 ソニー株式会社 Information processing apparatus, information processing method, and program
KR101367412B1 (en) * 2013-06-18 2014-02-24 우석 계 Apparatus for controlling physical effects in cyber space and method therefor
EP2916209B1 (en) * 2014-03-03 2019-11-20 Nokia Technologies Oy Input axis between an apparatus and a separate apparatus
JP5976145B2 (en) * 2015-02-05 2016-08-23 キヤノン株式会社 Imaging apparatus, control method and program thereof, and recording medium
WO2020235541A1 (en) * 2019-05-20 2020-11-26 国立大学法人東京大学 Image interface device, image manipulation device, manipulation-object manipulation device, manipulation-object manipulation system, manipulation-object presentation method, and manipulation-object presentation program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
S.S.Fisher,Virtual Interface Environment Workstation,Proceedings of the Human factors Society 32nd Annual Meeting,1988年,Volume 1,p.91−95
佐藤誠,仮想作業空間における知覚サイクルについて,テレビジョン学会技術報告,1990年 2月22日,第14巻 第15号,p.31−36
岩田洋夫,盛り上がりを見せる人工現実感の研究課題を探る,日経CG,1990年 3月 1日,第42号,p.154−164

Also Published As

Publication number Publication date
JPH05189484A (en) 1993-07-30

Similar Documents

Publication Publication Date Title
JP3311025B2 (en) Information retrieval device
US5381158A (en) Information retrieval apparatus
US11960706B2 (en) Item selection using enhanced control
JP6660309B2 (en) Sensor correlation for pen and touch-sensitive computing device interaction
JP6074170B2 (en) Short range motion tracking system and method
Bowman et al. Novel uses of Pinch Gloves™ for virtual environment interaction techniques
Bowman et al. An introduction to 3-D user interface design
Watson A survey of gesture recognition techniques
JP2017518572A (en) Multi-device multi-user sensor correlation for pen and computing device interaction
CN116097209A (en) Integration of artificial reality interaction modes
JP2013037675A5 (en)
US10180714B1 (en) Two-handed multi-stroke marking menus for multi-touch devices
JPH07175587A (en) Information processor
CN106846496A (en) DICOM images based on mixed reality technology check system and operating method
JP6021272B2 (en) Information processing system and information processing method
CN112527112A (en) Multi-channel immersive flow field visualization man-machine interaction method
Mine Exploiting proprioception in virtual-environment interaction
Bordegoni et al. A dynamic gesture language and graphical feedback for interaction in a 3d user interface
US11269419B2 (en) Virtual reality platform with haptic interface for interfacing with media items having metadata
Dengel et al. Human-centered interaction with documents
Lemoine et al. Interaction techniques: 3d menus-based paradigm
Chen Immersive Analytics Interaction: User Preferences and Agreements by Task Type
Watson A survey of gesture recognition techniques technical report tcd-cs-93-11
Ebert et al. An Immersive Gesture Controlled Interface for Virtual Document Information Spaces
Ren Designing for Effective Freehand Gestural Interaction

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090524

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090524

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100524

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees