JP5548285B2 - 3次元ヒューマンコンピュータインタフェース - Google Patents

3次元ヒューマンコンピュータインタフェース Download PDF

Info

Publication number
JP5548285B2
JP5548285B2 JP2013030413A JP2013030413A JP5548285B2 JP 5548285 B2 JP5548285 B2 JP 5548285B2 JP 2013030413 A JP2013030413 A JP 2013030413A JP 2013030413 A JP2013030413 A JP 2013030413A JP 5548285 B2 JP5548285 B2 JP 5548285B2
Authority
JP
Japan
Prior art keywords
actuator
control mechanism
computer
generated control
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013030413A
Other languages
English (en)
Other versions
JP2013137787A (ja
Inventor
アンダーソン ポール
アイバラヒム サクイブ
Original Assignee
エフ・ポスザツト・ヒユー・エル・エル・シー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エフ・ポスザツト・ヒユー・エル・エル・シー filed Critical エフ・ポスザツト・ヒユー・エル・エル・シー
Publication of JP2013137787A publication Critical patent/JP2013137787A/ja
Application granted granted Critical
Publication of JP5548285B2 publication Critical patent/JP5548285B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user

Description

本発明は、3次元(3D)ヒューマンコンピュータインタフェース(HCI)、および3D HCIと相互作用する方法に関する。より詳細には、本発明は、イメージ、および3Dディスプレイシステム上に投影することができる他の任意のデータの容易な操作を可能にするように設計された制御機構、センサ、ツール、およびアクチュエータのシステムに関する。センサおよびアクチュエータは、手袋、ヘッドギアなどに組込むことができる身体着用制御機構、あるいは他の身体着用装置、およびオーディオシステムに範囲を拡張する。
手袋などの衣料品内にセンサを搭載したHCIが存在する。HCIは通常、そのようなシステムのユーザがヘルメット搭載型ディスプレイを着用している場合に用いられる。手袋内のセンサがユーザの手の位置を伝えるために使用され、その結果「仮想」の手をユーザのディスプレイ上に表示することができる。このように、ユーザは、イメージの他の要素に対して自分の手がどのあたりにあるかを知ることができる。
これは、ユーザが自分の手を完全には見られないこと、および自分が行っているどんな微妙な動きも失われる、という欠点を有する。これは、手袋上の数の限定されたセンサの解像度が有限であること、それと共に手の位置をディスプレイ上にプロットするシステム内の誤りおよび遅延が回避できないことにより起こる。
本発明には、これらの問題がない。較正の後では「仮想」の手を表示する必要はない。これにより、手を動かすたびにユーザが見るイメージを更新する際の遅延により起こる従来技術の過剰修正の問題が回避される。本発明のユーザは、どんな手の動きがなされたかを見ることができるので、その動きをやり直す必要を感じることがなく、または表示が更新される際に、その動きを強調し過ぎることがない。
手の位置情報を提供する触覚(haptic)インタフェース、および従来型のコンピュータモニタなどの2次元イメージ投影システムで使用される触覚フィードバックからなるHCIシステムが存在する。これらのシステムは、現実感を強めるが、自然な設計作業環境を提供する際に、イメージングシステムによって著しく制約される。これに対処するために、24081 バージニア州、ブラックスバーグの、Virginia TechのVirtual Environment Labによって供給されるCAVEシステムなどの3D視覚化システムがあり、これらシステムは、触覚フィードバックとともに真の3Dイメージをオペレータに提供する。これは、一部屋からなる完全に侵入できるシステムであり、その壁上には、適したヘッドセットを使用して3Dとして見られるイメージが投影される。これらのシステムは、視覚化には有用であるが、設計作業には現在適切でない。したがって、それらのシステムは実際には、より印象的な、またはより記憶に残るプレゼンテーションを提供するために、簡単な報告、デモなどのために使用されるだけである。
本発明によれば、1組のセンサ、アクチュエータおよびコンピュータ生成式制御機構を備えるヒューマンコンピュータインタフェースであって、前記制御機構が、3次元ディスプレイデバイスによって3次元空間に投影され、オペレータの身体の動きによって前記制御機構と相互作用するオペレータによって操作され、これらの動きは前記センサシステムを使用して検出され、表示されたターゲットボリューム(target volume)の特性が、なされた動きにしたがって変化し、身体がコンピュータ生成式制御機構とどのように相互作用するかにしたがって、身体上に着用したアクチュエータが反応することを特徴とするヒューマンコンピュータインタフェースが提供される。
本発明の利点は、コンピュータ支援設計(CAD)システムを使用して製品を設計する処理を単純化する効果を有する自然で直感的なインタフェースが提供されることである。本明細書に述べるインタフェースは、イメージを非常に迅速かつ自然に操作することができるツールを提供する。本HCIは、コンピュータシステムに接続される3Dディスプレイシステム上で使用されるので、これは、リモートユーザが、自分自身の3Dディスプレイをネットワークシステムによって同じコンピュータシステムに接続することによってアクセスすることもまた可能にする。
本発明は、オペレータが、従来技術のシステムを使用するよりも自然にコンピュータを、したがって表示された設計品を操作し、設計品と相互作用することができる環境をオペレータに提供する。本発明は、設計の目的、または設計のデモのために容易に使用可能な実際的システムであり、非技術スタッフまたは顧客に簡単な報告およびプレゼンテーションを提供するために使用することにも適している。本発明によって表示または操作すべき設計品は、一般に3Dイメージからなり、本明細書ではターゲットボリュームとして知られている。
本発明は、ターゲットボリュームの様々なパラメータを調整することを可能にする自然で直感的な方法で操作される1組の制御機構をユーザまたはオペレータに提供する上述の従来技術などの3Dディスプレイおよび触覚インタフェースを組込む既存システムに合致させることができる。
ターゲットボリューム1およびいくつかの制御機構2、3、4とともに、2人のオペレータの手7を表示する3Dワークステーション6を示す図である。 本HCIを提供するコンピュータコードの機能を示すブロック図である。
手および腕は、制御機構を調整するために使用される最も一般的な身体部分であるが、センサシステムが身体のその一部の位置を検出することができれば、身体のどの部分を使用することもできることが理解されよう。本明細書内の「手」および「手袋」に対するどの参照も、この文脈で読み取られたい。
本発明は、任意の3次元空間において、中でもターゲットボリュームをリサイズする、回転する、または直線的に移動するために制御機構として作用する1組の相互作用する3Dアイコンを提供する。2次元(2D)形態で投影され、本明細書に関してはメニュー項目として知られているある特別なタイプの制御機構は、3D制御機構とともに表示することができ、コンピュータシステムの追加機能を制御するために使用することができる。
制御機構は、ターゲットボリュームと並べて投影することができ、制御機構を操作する目的は、ターゲットボリュームの見え方を変えることである。ターゲットボリューム自体は制御機構であってよく、または制御機構をその中に有することができ、ターゲットボリュームを、他の制御機構を参照することなく直接操作することができる。
使用に際して、オペレータは、自分が実行したいと考える動作のための適切な制御機構を選択し、それに向かって手を伸ばす。オペレータは、自分の手の位置を見ることができ、したがって選択された制御機構が自分の手の位置を基準にしてどこにあるかがわかる。コンピュータシステムは、それに付けられたセンサによってオペレータの手の位置を知ることができ、したがって投影されている制御機構を基準にして手がどこにあるかも同様にわかる。手が制御機構に「接触」したことをシステムが検出すると、システムは、この「接触」に応答して移動する手袋上のアクチュエータにフィードバック信号を送り返す。これは、触覚フィードバックとして知られている。一般に2つのタイプの触覚フィードバックがある。第1は、「フォースフィードバック」として知られ、手に作用して様々な程度の力でその動きを堅くし、異なるタイプの素材との接触をシミュレーションする。軽い剛性感は、ユーザがスポンジのようなものをつかんでいるように感じる傾向があり、または、剛性感は指がどれだけ移動したかにしたがって変化することができ、それはゴムの感触をシミュレーションする。もちろん、これに関して、「接触」は2つの物理的オブジェクトに実際に触れることを意味しないが、代わりに、手/手袋の組み合わせまたは他の身体部分が、投影システムによって投影されている制御機構の3Dイメージと触れるように見えることを指す。
制御機構と接触するとき、オペレータによって制御機構の何らかの操作が意図されていることをコンピュータシステムが理解する。オペレータの手が制御機構と接触している間、または制御機構が手の動きをその制御機構への被着と解釈する間の、オペレータの手のさらなる動きは、制御機構で調整することができる1つまたは複数のパラメータを変更する試みと解釈される。手によってなされたそのような動きは、互いを基準にした指の動き、手のひらを基準にした指の動き、手の回転などであるが、それらには限定されない。いくつかの制御機構は、特定のパラメータを修正するために2つの手が必要であることを要することがある。制御機構自体の外観は、その制御機構によって調整されるパラメータの値にしたがって変化することができる。例えば、ターゲットボリュームのサイズを調整する制御機構は、それ自体パラメータが現在設定されている値にしたがってより小さくまたはより大きくなることができる。または、イメージ内にイメージが見えるように制御機構を描くことができ、その結果小さい方のイメージが大きい方のイメージ内に包まれるように見える。パラメータが調整されるにつれて、2つのイメージの相対サイズまたは位置がそれに応じて変化する。他の実施例として、制御機構をシリンダとして描くことができ、そのシリンダの表面上には様々なパラメータオプションが描かれる。使用に際しては、希望するパラメータオプションが便利に選択されるまでは、シリンダを手または他の身体部分を使用して回転させることができる。
より従来型のCADソフトウエアで提供される通常のイメージ操作ツールは、本システムの下で機能するように有利に構成することができる。手に加えられるフィードバックのタイプは、接触された制御機構のタイプにしたがって変化する。いくつかの制御機構は、それらとの接触がなされたときに指の位置をロックする信号が手袋に送られるように反応する。これは、堅いオブジェクトに触れた印象をオペレータに与える。他の制御機構は、上述のスポンジのような感じを与えるために、より小さいフィードバック力で反応する。本明細書に関しては、これは、把持として知られている。他の制御機構は異なって動作する。オペレータは、この種の制御機構に自分の手を差し入れ、その制御機構内にある間に自分の手の動きによってパラメータに影響を与えることができる。これらはジェスチャ制御機構として知られている。特定のメニュー項目は、2次元で表示することができる。オペレータが、これらのメニュー項目の1つと指を接触するようにする場合、手袋は柔らかい圧力を指上に加えて接触の感じをシミュレーションする。3つの異なる触覚フィードバック機構をここに述べたが、それらは、互いに排他的ではない、すなわち使用されている制御機構のタイプに適切であれば、複数を同時に使用することができる。
HCIを使用することができる前に、そのHCIは較正されるべきである。この処理は、空間内のオペレータの身体の位置を、コンピュータシステムによって見られる位置と同期するように使用される。オペレータとコンピュータシステムによって経験される、位置、または把持、ジェスチャなどのアクションにおけるどの相違もコンピュータシステムによって説明されるので、オペレータは誤りに気がつかない。
本明細書に述べるHCIは、3Dディスプレイを有するコンピュータシステム上で使用することができる。もちろんコンピュータシステムは、ディスプレイと直接接近している必要はなく、相互接続コンピュータのネットワークを越えて接続することができる。既存ソフトウエアおよびハードウェアツールを使用してこのHCIを実施することができる。
そのようなHCIの一実施例を、付随する図面を参照しながら次に述べる。
使用される3Dワークステーションは、米国、94043 カリフォルニア州、マウンテンビュー、ボラリスアベニュー241のFakespace Labs,Inc.によって製造され、その上に3Dイメージが提示されるデスクを提供する。触覚フィードバック手袋は、カリフォルニア州パルアルト、パークブールバード2175のVirtual Technologies Inc.によって製造される。空間内の手袋およびヘッドの位置を検出するためのセンサシステムは、05446 バーモント州、コルチェスタ私書箱560、ハーキュリーズドライブ1のPolhemus Inc.によって提供される。
HCIを操作する者は、センサおよび/またはアクチュエータのアレイが取付けられた触覚フィードバック手袋9を着用する。現在用いられるシステムは、接触アクチュエータを組込む手袋とは別の力フィードバック機構を組込む手袋を有するが、これらは同じ手袋内に組込むこともできる。これらの手袋は手7の位置に関する情報をコンピュータシステムに提供し、オブジェクトに触れるか、つかむかするときに感じられるものをシミュレーションするフィードバックを提供するための力もまた指上に示す。
システムを正確に使用することができる前に、センサシステムは最初に較正されなければならない。較正は、オペレータの手がどこにあるかをコンピュータが検出するのに一致する位置に、コンピュータに「仮想」の手を表示させることによってなされる。次いでオペレータは、仮想の手にきちんと揃うように、必要であれば自分自身の手を動かし、次いでこの効果に対する指示をコンピュータに提供する。
本システムは、ジェスチャおよび把持のアクションが同様に較正されることもまた必要とする。これは、それぞれの手に対して交互に、それぞれの指の端に対して自分の親指を触れることでなされる。次いで、仮想の手の表示はオフにされる。次いでコンピュータは、元の位置内の任意の誤りを計算し、その後の計算を実行するときは、この誤りを減算する。
ターゲットボリューム1は、3つのループ2a、2b、2cを含むロールケージ(rollcage)2によって囲まれている。それぞれのループ2xは、ロールケージの他のループに対して直交する。ロールケージ2は、制御機構として動作し、ロールケージ2の中心の周りにターゲットボリューム1を回転させるために使用することができる。これは、オペレータがロールケージ2のループ2xの1つを自分の手でつかみ、必要な動きにしたがってループを操作することによって達成することができる。例えば、ターゲットボリュームを垂直軸に関して回転させるためには、オペレータは、主垂直次元を有するループ2a、2cの1つをつかみ、ターゲットボリュームが希望する見え方を示すまで、そのループを横に回転させる。または、オペレータは水平ループ2bをつかみ、これを回転させることができる。ロールケージ2の設計は、任意のループ2xによって任意の回転軸で回転させることもまたできるようなものである。ここで「回転する」とは、物理的リングを回転させるジェスチャを真似するジェスチャがなされることを意味すると解釈するべきである。
図1は、図の下部にいくつかの制御機構もまた示す。これらの制御機構のいくつかもまた、ターゲットボリューム1を回転させるために使用することができる。制御機構3xもまた、完全なサイズのロールケージ2と同様の方法でターゲットイメージを回転するために使用することができ、そのうち3aは縮小形のロールケージを示し、3b、3cおよび3dはロールケージ3aのそれぞれの個々のループを示す。ループ3b、3cおよび3dは、オペレータによってつかみ、回転することができ、それはその特定のループの軸に関してターゲットボリュームを回転させる効果を有する。オペレータの手7が制御機構3に充分近くなると、手袋9内のアクチュエータが指の動きに抵抗するように作用して固形のオブジェクトに触れることをシミュレーションする。
同様に図1には、ターゲットボリューム1をリサイズするために使用される4つの制御機構4xが示されている。これらはジェスチャアイコンである。これらのそれぞれは、4b、4c、4dの3つの場合では、1次元(全てが互いに直交)の影の延長部分を有する中央の立方体として、最後の4aの場合では、小さい立方体を囲むより大きな影の立方体として描かれている。リサイズをもたらすためには、オペレータは、自分の手7を選択した制御機構と接触して置き、自分の指を、こぶしを作るように動かすか、または自分の指を開くかし、それがターゲットボリューム1をそれぞれより小さくまたはより大きくする効果を有する単一次元の影を有する制御機構を選択することは、ターゲットボリューム1をその次元でのみリサイズするが、3次元の影を有する制御機構4aを選択することは、すべての次元で同時にリサイズする。
図1は、2Dフォーマットで表示される他のいくつかのメニュー項目8を示す。オペレータの指がこれらのメニュー項目の1つと接触するようになると、手袋9は指上に柔らかい圧力を加えて、接触の感じをシミュレーションする。2Dメニュー項目の1つのそのような実施例は、キーパッド5である。これは、このように制御することができる任意のパラメータのための数値データを入力するために使用される。
すべての制御機構2、3、4、5、8およびターゲットボリューム1は、それらをつかんで希望する位置に引き寄せることによって、ディスプレイシステム6の制限内で、オペレータが希望するように再位置指定することができる。
図2は、ターゲットボリュームおよび制御機構の振る舞い、ならびに3Dディスプレイによって投影されたメニュー項目の両方を制御するコンピュータプログラムの動作の単純化された略図を示す。HCIコンピュータコードが活動化されると、次のステップが実行される。
a.手袋および着用することができる任意のヘットギアなどの身体着用ハードウエアを初期化する。センサシステムを初期化する。ターゲットボリュームとして使用されるコンピュータモデルを予備処理して、3Dディスプレイシステム上の表示の準備をする。これは、手袋内の触覚センサでどのように反応するかについての情報をそのコンピュータモデルに提供するために必要である。
b.3Dディスプレイユニットを初期化し、上述の較正目的のために仮想の手のイメージを作成する。較正を実行する。
c.3Dターゲットボリュームおよび1組の制御機構およびメニュー項目を表示する。衝突検出をイネーブルにする、すなわち手袋が制御機構またはメニュー項目と接触したことを感知した場合、手袋に対する触覚フィードバックを活動化し、どの制御機構またはメニュー項目が接触されたかにしたがって適切なアクションを取る。衝突が発生すること、またはプログラムが終了するのを待つ。
d.衝突が検出された場合、次の適切なアクションを取る。
e.手と制御機構の衝突の場合、手がその制御機構と接触し続ける限り、手によって行われた動きを感知し続ける。行われた動きにしたがって制御機構によって制御されるパラメータを調整し、パラメータの新しい値にしたがってターゲットボリュームのディスプレイおよび制御機構アイコンを更新する。適切な触覚フィードバック信号を手袋に印加する。手が制御機構ともはや接触していないことが検出されるまでこの処理を続ける。
f.手とメニュー項目の衝突の場合、そのメニュー項目によって管理されるアクションを取り、必要なターゲット値表示およびメニュー項目アイコンを調整する。適切な触覚フィードバック信号を手袋に印加する。
g.他の衝突が発生すること、またはプログラムが終了するのを待つ。さらに他の衝突が検出される場合、上記ステップdに戻る。

Claims (20)

  1. コンピュータ生成の制御機構を表示し、3次元のターゲットボリューム内にターゲットイメージを表示する3次元ディスプレイデバイスと、
    オペレータに着用されるアクチュエータと、
    前記アクチュエータの動きを検出する1つ以上のセンサとを備え、
    前記コンピュータ生成の制御機構は、
    前記ターゲットイメージを囲い相互に直交する複数のループを備え、
    前記ターゲットボリューム内の前記アクチュエータの動きに対応して操作され、
    前記複数のループの操作は、前記ターゲットイメージの見え方を変更する
    ことを特徴とするシステム。
  2. 請求項1に記載のシステムにおいて、前記アクチュエータがオペレータの手に着用されていることを特徴とするシステム。
  3. 請求項1に記載のシステムにおいて、前記コンピュータ生成の制御機構が、当該コンピュータ生成の制御機構に前記アクチュエータを差し入れ、当該アクチュエータを動かすことによって操作されることを特徴とするシステム。
  4. 請求項1に記載のシステムにおいて、前記アクチュエータの動きが、当該アクチュエータが前記コンピュータ生成の制御機構に接触した際に、触覚フィードバック反応を生成することを特徴とするシステム。
  5. 請求項に記載のシステムにおいて、前記触覚フィードバック反応が、前記アクチュエータのさらなる動きに対する抵抗を提供することによって、前記アクチュエータと前記コンピュータ生成の制御機構との接触をシミュレーションすることを特徴とするシステム。
  6. 請求項1に記載のシステムにおいて、前記コンピュータ生成の制御機構の見え方が、前記ターゲットイメージの見え方が変化すると同時に変化することを特徴とするシステム。
  7. ターゲットボリューム内に3次元イメージを表示するステップと、
    相互に直交する複数のループを備えるコンピュータ生成の制御機構を表示するステップと、
    前記ターゲットボリューム内に位置するアクチュエータの動きを検出するステップと、ここにおいて、前記コンピュータ生成の制御機構は当該アクチュエータの動きに応答し、
    前記コンピュータ生成の制御機構の応答にしたがって、前記3次元イメージの1つ以上の特性を変化させるステップと
    を含むことを特徴とする方法。
  8. 請求項に記載の方法において、さらに、前記コンピュータ生成の制御機構に対する前記アクチュエータの動きを検出するステップを含み、前記アクチュエータの動きに応答した前記複数のループの操作が、前記3次元イメージの1つ以上の特性を変化させることを特徴とする方法。
  9. 請求項に記載の方法において、前記アクチュエータがオペレータの手に着用されていることを特徴とする方法。
  10. 請求項に記載の方法において、前記アクチュエータが、前記オペレータの手がこぶしを作っているか指を開いているかを検出することを特徴とする方法。
  11. 請求項に記載の方法において、前記複数のループが前記3次元イメージを囲うことを特徴とする方法。
  12. 請求項に記載の方法において、前記複数のループの操作が前記3次元イメージの大きさを変化させることを特徴とする方法。
  13. 請求項に記載の方法において、前記複数のループの操作が前記3次元イメージの方向を変化させることを特徴とする方法。
  14. 請求項に記載の方法において、前記コンピュータ生成の制御機構における第1のイメージが第2のイメージに包まれるように見え、当該第1のイメージと当該第2のイメージとの相対的な大きさは、前記アクチュエータの動きに応答して変化することを特徴とする方法。
  15. ターゲットボリューム内に3次元イメージを表示する手段と、
    前記3次元イメージを囲い相互に直交する3つのループを備えるコンピュータ生成の制御機構を表示する手段と、
    前記ターゲットボリューム内に位置するアクチュエータの動きを検出する手段と、ここにおいて、前記コンピュータ生成の制御機構は前記アクチュエータの動きに応答し、
    前記コンピュータ生成の制御機構の応答にしたがって、前記3次元イメージの1つ以上の次元を変化させる手段と
    を備えるヒューマンコンピュータインタフェース。
  16. 請求項15に記載のヒューマンコンピュータインタフェースにおいて、前記3つのループの各ループが、前記3次元イメージの1つの次元を変化させるように動作することを特徴とするヒューマンコンピュータインタフェース。
  17. 請求項15に記載のヒューマンコンピュータインタフェースにおいて、前記アクチュエータがオペレータの手に着用されていることを特徴とするヒューマンコンピュータインタフェース。
  18. 請求項17に記載のヒューマンコンピュータインタフェースにおいて、前記アクチュエータの動きが、前記ターゲットボリューム内における前記オペレータの手の同時の動きに対応することを特徴とするヒューマンコンピュータインタフェース。
  19. 請求項に記載の方法において、前記コンピュータ生成の制御機構が3つのープを備えることを特徴とする方法。
  20. 請求項1に記載のシステムにおいて、前記複数のループが3つのループを備えことを特徴とするシステム。
JP2013030413A 2000-05-22 2013-02-19 3次元ヒューマンコンピュータインタフェース Expired - Fee Related JP5548285B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GBGB0012275.4A GB0012275D0 (en) 2000-05-22 2000-05-22 Three dimensional human computer interface
GB0012275.4 2000-05-22

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001587196A Division JP5244277B2 (ja) 2000-05-22 2001-05-17 3次元ヒューマンコンピュータインタフェース

Publications (2)

Publication Number Publication Date
JP2013137787A JP2013137787A (ja) 2013-07-11
JP5548285B2 true JP5548285B2 (ja) 2014-07-16

Family

ID=9892025

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2001587196A Expired - Fee Related JP5244277B2 (ja) 2000-05-22 2001-05-17 3次元ヒューマンコンピュータインタフェース
JP2013030413A Expired - Fee Related JP5548285B2 (ja) 2000-05-22 2013-02-19 3次元ヒューマンコンピュータインタフェース

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2001587196A Expired - Fee Related JP5244277B2 (ja) 2000-05-22 2001-05-17 3次元ヒューマンコンピュータインタフェース

Country Status (8)

Country Link
US (3) US7312786B2 (ja)
EP (1) EP1285327A1 (ja)
JP (2) JP5244277B2 (ja)
KR (1) KR20030024681A (ja)
AU (2) AU2001258539B2 (ja)
CA (1) CA2409290A1 (ja)
GB (1) GB0012275D0 (ja)
WO (1) WO2001090870A1 (ja)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0012275D0 (en) 2000-05-22 2000-07-12 Secr Defence Brit Three dimensional human computer interface
KR100665893B1 (ko) * 2004-01-27 2007-01-09 김철재 낚시대 이탈방지용 받침구
GB2414309B (en) * 2004-05-18 2009-02-25 Simon Richard Daniel Spherical display and control device
US20050285854A1 (en) * 2004-06-29 2005-12-29 Ge Medical Systems Information Technologies, Inc. 3D display system and method
US20050285853A1 (en) * 2004-06-29 2005-12-29 Ge Medical Systems Information Technologies, Inc. 3D display system and method
US20050285844A1 (en) * 2004-06-29 2005-12-29 Ge Medical Systems Information Technologies, Inc. 3D display system and method
GB0602689D0 (en) * 2006-02-10 2006-03-22 Univ Edinburgh Controlling the motion of virtual objects in a virtual space
US9958934B1 (en) 2006-05-01 2018-05-01 Jeffrey D. Mullen Home and portable augmented reality and virtual reality video game consoles
US20090102603A1 (en) * 2007-10-19 2009-04-23 Fein Gene S Method and apparatus for providing authentication with a user interface system
US20090109174A1 (en) * 2007-10-30 2009-04-30 Fein Gene S Method and Apparatus for User Interface in Electronic Devices With Visual Display Units
US8127251B2 (en) * 2007-10-31 2012-02-28 Fimed Properties Ag Limited Liability Company Method and apparatus for a user interface with priority data
US8477098B2 (en) 2007-10-31 2013-07-02 Gene S. Fein Method and apparatus for user interface of input devices
US20090109215A1 (en) 2007-10-31 2009-04-30 Fein Gene S Method and apparatus for user interface communication with an image manipulator
US8212768B2 (en) 2007-10-31 2012-07-03 Fimed Properties Ag Limited Liability Company Digital, data, and multimedia user interface with a keyboard
US8849570B2 (en) * 2009-03-19 2014-09-30 Microsoft Corporation Projected way-finding
US20100241987A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Tear-Drop Way-Finding User Interfaces
US8121640B2 (en) 2009-03-19 2012-02-21 Microsoft Corporation Dual module portable devices
US20100241999A1 (en) * 2009-03-19 2010-09-23 Microsoft Corporation Canvas Manipulation Using 3D Spatial Gestures
WO2011020683A1 (de) * 2009-08-19 2011-02-24 Siemens Aktiengesellschaft Kontinuierliche bestimmung einer perspektive
US9104275B2 (en) * 2009-10-20 2015-08-11 Lg Electronics Inc. Mobile terminal to display an object on a perceived 3D space
US8499257B2 (en) 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US9285874B2 (en) 2011-02-09 2016-03-15 Apple Inc. Gaze detection in a 3D mapping environment
JP2012208705A (ja) * 2011-03-29 2012-10-25 Nec Casio Mobile Communications Ltd 画像操作装置、画像操作方法およびプログラム
US8923686B2 (en) 2011-05-20 2014-12-30 Echostar Technologies L.L.C. Dynamically configurable 3D display
AU2013239179B2 (en) * 2012-03-26 2015-08-20 Apple Inc. Enhanced virtual touchpad and touchscreen
US9588582B2 (en) 2013-09-17 2017-03-07 Medibotics Llc Motion recognition clothing (TM) with two different sets of tubes spanning a body joint
US20140071044A1 (en) * 2012-09-10 2014-03-13 Electronics And Telecommunications Research Institute Device and method for user interfacing, and terminal using the same
KR101950939B1 (ko) 2012-09-13 2019-02-22 삼성전자주식회사 홀로그래픽 객체 처리 장치 및 그 동작 방법
US20150185845A1 (en) * 2013-12-26 2015-07-02 Wes A. Nagara Providing tactle feedback for gesture based inputs
US9965034B2 (en) 2013-12-30 2018-05-08 Immersion Corporation Systems and methods for a haptically-enabled projected user interface
US9468847B2 (en) 2014-04-30 2016-10-18 Umm Al-Qura University Tactile feedback gloves
EP3101629B1 (en) 2015-06-04 2021-03-17 Nokia Technologies Oy Mediated reality
ES2746448T3 (es) 2015-06-16 2020-03-06 Nokia Technologies Oy Realidad mediada
WO2017151142A1 (en) * 2016-03-04 2017-09-08 Hewlett-Packard Development Company, L.P. Generating digital representations using a glove interface

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0380003A (ja) 1989-08-23 1991-04-04 Kubota Corp 藺草苗の株分け装置
US5184319A (en) * 1990-02-02 1993-02-02 Kramer James F Force feedback and textures simulating interface device
US5502481A (en) * 1992-11-16 1996-03-26 Reveo, Inc. Desktop-based projection display system for stereoscopic viewing of displayed imagery over a wide field of view
US5381158A (en) * 1991-07-12 1995-01-10 Kabushiki Kaisha Toshiba Information retrieval apparatus
CA2077173C (en) * 1991-11-22 2003-04-22 Michael Chen Method and apparatus for direct manipulation of 3-d objects on computer displays
US5886818A (en) * 1992-12-03 1999-03-23 Dimensional Media Associates Multi-image compositing
JPH075978A (ja) * 1993-06-18 1995-01-10 Sony Corp 入力装置
DE69434843T2 (de) * 1993-08-12 2007-02-15 Seiko Epson Corp. Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungssystem
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US5670987A (en) * 1993-09-21 1997-09-23 Kabushiki Kaisha Toshiba Virtual manipulating apparatus and method
JPH07114451A (ja) 1993-10-19 1995-05-02 Canon Inc 3次元メニュー選択方法とその装置
US5583977A (en) * 1993-10-21 1996-12-10 Taligent, Inc. Object-oriented curve manipulation system
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
JPH0863326A (ja) * 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
US5905499A (en) * 1995-07-05 1999-05-18 Fakespace, Inc. Method and system for high performance computer-generated virtual environments
US5583526A (en) * 1995-07-28 1996-12-10 Chrysler Corporation Hand calibration system for virtual reality vehicle simulator
US5831584A (en) * 1995-07-28 1998-11-03 Chrysler Corporation Hand calibration system and virtual display selection for vehicle simulator
US6176782B1 (en) * 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
JP2924750B2 (ja) * 1995-12-26 1999-07-26 日本電気株式会社 3次元形状モデリング方法およびその装置
US5821925A (en) * 1996-01-26 1998-10-13 Silicon Graphics, Inc. Collaborative work environment supporting three-dimensional objects and multiple remote participants
US5807114A (en) * 1996-03-27 1998-09-15 Emory University And Georgia Tech Research Corporation System for treating patients with anxiety disorders
US5990865A (en) * 1997-01-06 1999-11-23 Gard; Matthew Davis Computer interface device
US5886700A (en) * 1997-07-24 1999-03-23 The United States Of America As Represented By The Secretary Of The Navy Three-dimensional volume selection tool
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
JP3450704B2 (ja) * 1997-09-01 2003-09-29 キヤノン株式会社 位置姿勢検出装置及び情報処理方法
US6075531A (en) * 1997-12-15 2000-06-13 International Business Machines Corporation Computer system and method of manipulating multiple graphical user interface components on a computer display with a proximity pointer
US6181343B1 (en) * 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6388657B1 (en) * 1997-12-31 2002-05-14 Anthony James Francis Natoli Virtual reality keyboard system and method
US6600480B2 (en) * 1998-12-31 2003-07-29 Anthony James Francis Natoli Virtual reality keyboard system and method
US6211848B1 (en) * 1998-05-15 2001-04-03 Massachusetts Institute Of Technology Dynamic holographic video with haptic interaction
US6198485B1 (en) * 1998-07-29 2001-03-06 Intel Corporation Method and apparatus for three-dimensional input entry
US6765566B1 (en) * 1998-12-22 2004-07-20 Che-Chih Tsao Method and apparatus for displaying volumetric 3D images
AU2001251344A1 (en) * 2000-04-05 2001-10-23 Dimensional Media Associates, Inc. Methods and apparatus for virtual touchscreen computer interface controller
US6924787B2 (en) * 2000-04-17 2005-08-02 Immersion Corporation Interface for controlling a graphical image
GB0012275D0 (en) 2000-05-22 2000-07-12 Secr Defence Brit Three dimensional human computer interface

Also Published As

Publication number Publication date
US20080068376A1 (en) 2008-03-20
JP5244277B2 (ja) 2013-07-24
WO2001090870A1 (en) 2001-11-29
US7312786B2 (en) 2007-12-25
US20170102859A1 (en) 2017-04-13
CA2409290A1 (en) 2001-11-29
US10592079B2 (en) 2020-03-17
AU2001258539B2 (en) 2004-12-16
JP2003534594A (ja) 2003-11-18
AU5853901A (en) 2001-12-03
US20040080716A1 (en) 2004-04-29
GB0012275D0 (en) 2000-07-12
EP1285327A1 (en) 2003-02-26
US9541999B2 (en) 2017-01-10
JP2013137787A (ja) 2013-07-11
KR20030024681A (ko) 2003-03-26

Similar Documents

Publication Publication Date Title
JP5548285B2 (ja) 3次元ヒューマンコンピュータインタフェース
AU2001258539A1 (en) Three dimensional human-computer interface
US11723734B2 (en) User-interface control using master controller
JP4229244B2 (ja) カーソル制御装置
US20210030491A1 (en) Interaction between user-interface and master controller
Burdea Haptics issues in virtual environments
US6597347B1 (en) Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
USRE40891E1 (en) Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
KR20190009846A (ko) 원격 호버 터치 시스템 및 방법
WO2007091008A1 (en) Controlling the motion of virtual objects in a virtual space
Smith et al. Digital foam interaction techniques for 3D modeling
JP4856183B2 (ja) 操作性検証装置、操作性検証方法、および操作性検証プログラム
Springer et al. State-of-the-art virtual reality hardware for computer-aided design
JP2000047563A (ja) 物体の把持動作シミュレーション装置
JP2004362408A (ja) 3次元データ表示操作装置
Otaduy et al. Interaction: interfaces, algorithms, and applications
Chen et al. A 3d mouse for interacting with virtual objects
Iltanen et al. Wearable haptic device for an IPT system based on pneumatic muscles
Pignatel et al. Virtual Reality Systems for Industrial Design Application

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140516

R150 Certificate of patent or registration of utility model

Ref document number: 5548285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees