JP2006185252A - インタフェース装置 - Google Patents

インタフェース装置 Download PDF

Info

Publication number
JP2006185252A
JP2006185252A JP2004379106A JP2004379106A JP2006185252A JP 2006185252 A JP2006185252 A JP 2006185252A JP 2004379106 A JP2004379106 A JP 2004379106A JP 2004379106 A JP2004379106 A JP 2004379106A JP 2006185252 A JP2006185252 A JP 2006185252A
Authority
JP
Japan
Prior art keywords
main body
interface device
user
avatar
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004379106A
Other languages
English (en)
Inventor
Masahiko Inami
昌彦 稲見
Naoya Koizumi
直也 小泉
Noriyoshi Shimizu
紀芳 清水
Maki Sugimoto
麻樹 杉本
Hideaki Arai
英明 新居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electro Communications NUC
Original Assignee
University of Electro Communications NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electro Communications NUC filed Critical University of Electro Communications NUC
Priority to JP2004379106A priority Critical patent/JP2006185252A/ja
Priority to PCT/JP2005/009412 priority patent/WO2006070495A1/ja
Publication of JP2006185252A publication Critical patent/JP2006185252A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves

Abstract

【課題】
本発明は、使用者の手に取り付けられた本体への自己投射を可能とし、この本体を介してインタフェースを行う装置を提供しようとするものである。
【解決手段】
本体11は、使用者Aの手を覆う構成となっている。本体11は、擬人化した形状となっており、これによって、自己投射可能とされている。
提示部は、使用者Aの身体の位置に対応した、本体の位置において、使用者Aへの感覚提示を行う構成となっている。
さらに、本体11と同期して動くアバタ6を表示してもよい。本体11は、アバタ6を表示することにより自己投射可能な構成となっていてもよい。
【選択図】図1

Description

本発明は、コンピュータ等の機器と操作者とのインタフェースを提供するための装置に関するものである。
近年のインターネットの普及によって、テレコミュニケーションを行う機会が増加している。電子掲示板や電子メール、チャット以外にも、コンピュータによって生成された自分の似姿であるアバタを用いた空間共有型テレコミュニケーションも広まってきている(非特許文献1)。空間共有型テレコミュニケーションは、物理的な空間を越えて人と人との出会いを提供し、かつてないスタイルの人間関係を生み出す新しいエンタテインメントになりうるものである。
一方、ロボットをインタフェースとして用いるRUI(Robotic User Interface)という概念が最近提案されている(非特許文献2)。従来のRUIは、保持型と呼ばれており、ロボットを両手で持って扱うものであった。非特許文献2に示されるRUI(商品名:「RobotPHONE」)は、遠隔間でロボットを形状同期させて、ゼスチャーによるコミュニケーションを行うシステムである。非特許文献2の技術は、ロボットを、コンピュータによって生成されたCGモデル(いわゆる「アバタ」)と同期させることで、コンピュータに対するインタフェースとしてロボットを用いることが主眼となっている。
ところで、実際の人間の感覚器ではなく投射された自己に刺激を加えることで感覚を提示するインタフェース装置は、従来は知られていない。
松尾太加志;コミュニケーションの心理学,ナカニシヤ出版,1999 関口大陸,稲見昌彦,舘▲すすむ▼;オブジェクト指向型テレイグジスタンスによるロボティックユーザインタフェース -形状共有システムの提案と試験的実装-,インタラクティブシステムとソフトウェア VIII: 日本ソフトウェア科学会, 近代科学社, pp.51-56, 2000
本発明は、前記の状況に鑑みてなされたもので、使用者の手に取り付けられた本体への自己投射を可能にし、この本体を介して感覚提示するインタフェース装置を提供しようとするものである。
請求項1のインタフェース装置は、本体と提示部とを備えている。前記本体は、使用者の手を覆う構成となっている。さらに、前記本体は、自己投射可能な構成とされている。前記提示部は、前記使用者の身体の位置に対応した、前記本体の位置において、前記使用者への感覚提示を行う構成となっている。
請求項2のインタフェース装置は、請求項1に記載のものにおいて、前記本体自体を擬人化した形状とすることにより、前記本体が、前記自己投射可能な構成とされている。
請求項3のインタフェース装置は、請求項1又は2に記載のものにおいて、さらに表示部を備えている。この表示部は、前記本体と同期して動くアバタを表示する構成となっている。前記本体は、前記表示部が前記アバタを表示することにより、前記自己投射可能な構成とされている。
請求項4記載の通信システムは、請求項1〜3のいずれか1項記載の構成を有する複数のインタフェース装置と、これらのインタフェース装置相互の通信を可能にするネットワークとを備えている。前記インタフェース装置は、さらに、操作者が本体に加えた感覚を検出する検出部を備えている。このシステムは、一方のインタフェース装置で検出された感覚を、前記ネットワークを介して他のインタフェース装置に送信して、前記他のインタフェース装置の提示部により提示するものとなっている。
本発明によれば、使用者の手に取り付けられた本体への自己投射が可能であり、このため、本体を介して感覚提示するインタフェース装置を提供することができるという効果を有する。
(実施形態の構成)
本発明の一実施形態に係るインタフェース装置及びこの装置を用いた通信システムの構成を、添付図面を参照して説明する。
本実施形態の通信システムは、第1インタフェース装置1と、第2インタフェース装置2と、サーバ3と、これらの間の相互通信を可能にするネットワーク4とを備えている。なお、このシステムは、さらに他の(つまり第nの)インタフェース装置(つまりユーザ)を備えていても良いが、以下では二つのインタフェース装置を前提として説明する。また、本実施形態におけるネットワーク4としては例えばインターネットであるが、他のプロトコルを用いたネットワークであっても良い。
第1インタフェース装置1と第2インタフェース装置2とは、ほぼ同様に構成されているので、以下においては第1インタフェース装置1の構成を説明する。
第1インタフェース装置1は、本体11と、圧覚提示部12と、力覚提示部13と、圧覚検出部14と、位置検出部15と、CPU16と、表示部17と、力学シミュレータ18とを備えている。なお、図1では、本体11と表示部17のみを示しており、他の要素については図11等を用いて後述する。また、本実施形態では、圧覚提示部12と力覚提示部13とが、本発明における提示部に対応しているが、他の感覚を提示する提示部を用いることもできる。さらに、圧覚提示部12と力覚提示部13のいずれかのみを用いることも可能である。同様に、圧覚以外の感覚を検出する検出部を設けても良い。なお、圧覚検出部14が本発明における検出部に対応している。
第1インタフェース装置1の本体11は、使用者Aの手(図示の例では右手)5を覆う構成となっている(図2及び図3参照)。また、本体11は、この本体11自体を擬人化した形状となっている。図示例では、動物を模した形状となっている。これにより、前記本体は、自己投射可能な構成となっている。ここで、自己投射可能とは、「使用者の身体を対象物に投射して認識することが可能」という意味である。したがって、本体11の形状としては、各種の動物又は人間を模した形状とすることができる。この実施形態では、使用者Aの手5における親指と小指が、本体1における右手と左手とに収納されている。また、手5における残りの三本の指が、本体1における頭部に収納されている。本実施形態の例では、親指を右手、小指を左手、残りの指を頭部、手の甲を背中、手のひらを腹として自己投射することが可能となる。もちろん、本体11としては、身体の全部を自己投射する必要はなく、身体の一部を自己投射できればよい。
圧覚提示部12及び圧覚検出部14は、図4及び図5に概念的に示すように、本体1の内面の、ほぼ全面にわたって、積層して配置されている。また、圧覚提示部12及び圧覚検出部14は、人差し指と中指と薬指とを覆うようにさらに配置しても良い。さらに、圧覚提示部12及び圧覚検出部14は、親指又は小指を個別に覆うようにさらに配置しても良い。圧覚提示部12及び圧覚検出部14の詳細な構造の例を図6に示す。
圧覚提示部12は、コイル121と、磁石122と、駆動回路123とを備えている。駆動回路はCPU16に接続されており、CPU16からの指令によりコイル121に通電するようになっている。磁石122は、コイル121への通電により、図6において上下に移動するようになっている。これにより、圧覚提示部12は、使用者Aの手5に対して圧覚を提示することができるようになっている。圧覚提示部12としては、圧電素子を用いて構成することもできる。
圧覚検出部14は、感圧樹脂141と、電極142と、増幅回路143とを備えている。感圧樹脂141の出力は、電極142、増幅回路143を介してCPU16に入力されるようになっている。本実施形態では、これにより、使用者Aにおける他の手(図示例では左手)が本体1を撫でたり触れたりしたときの感覚(圧覚)を取得できるようになっている。もちろん、本体11の内部における手5を動かすことにより生じる圧覚を取得することも可能である。
位置検出部15は、ポテンショメータ151(図7及び8参照)と、3Dモーションセンサ152(図9参照)と、ポテンショメータ内蔵の小型ギアドモータ153とを備えている。
ポテンショメータ151は、指の動きに応じて異動する可動体151aの移動角度を検出できるようになっている。
3Dモーションセンサ152は、手5の(すなわち本体11の)、空間中での位置や傾斜角度を検出できるようになっている。このようなセンサは周知なので詳細な構造についての説明を省略する。なお、本明細書においては、単に「位置」と称する場合は、原則として、角度又は姿勢をも含む概念で用いる。
ギアドモータ153は、手5の親指側と小指側とにそれぞれ配置されている。これらのギアドモータ153の構造はほぼ同じなので、親指側のものについて説明する。ギアドモータ153は、親指に取り付けられた可動片153aを駆動し、かつ、駆動量を検出できるようになっている。そのようなギアドモータはよく知られているので詳細な説明は省略する。なお、本実施形態では、ギアドモータ153は、力覚提示部13を兼ねている。
CPU16の動作は、システムの動作として後述する。
表示部17は、図10及び図11に示すように、CGジェネレータ171と、アプリケーションソフト172と、モニタ173とを備えている。これらの動作も後述する。
さらに、本実施形態では、力学シミュレータ18を備えることができる。力学シミュレータ18は、次の動作を行うようになっている。
・本体11に備えられた各機能要素の制御データにおける初期値の保持、及び、システム動作後に取得する各制御データの補正
・各制御データとCGで生成されたアバタのデータとの間での変換
サーバ3は、ネットワーク4を介して取得した、各インタフェース装置からのデータを取得し、各インタフェース装置への制御指令を送るようになっている。
次に、本実施形態に係るシステムの動作を、図12を主に参照しながら説明する。なお、以下の説明においては、第1インタフェース装置1を主体として説明する。第1とするか第2とするかは相対的な関係であるから、第2インタフェース装置2を主体とした説明は省略する。
(ステップ12−1)
まず、第1インタフェース装置1の本体11を、操作者Aの手5により動かす。また、操作者Aは、本体11の外表面に触れる。このとき、圧覚検出部14と位置検出部15は、本体11の各部の圧覚や位置を検出する。使用者は、自己の身体(あるいは相手の身体)を本体11に投写して本体11に触れたり、これを動かすことができる。したがって、本体11の各部の圧覚や位置は、本体11自体の情報であるとともに、本体11に投写された身体に対する情報にもなっている。
(ステップ12−2)
検出された各制御データは、CPU16に送られる。CPU16は、これらのデータを力学シミュレータ18に送る。したがって、本実施形態によれば、操作者Aが本体11に与えた圧覚や力覚等の感覚を、コンピュータに入力することができる。
(ステップ12−3)
力学シミュレータ18は、読み込んだ制御データと初期状態のデータとを比較して、データの補正を実施する。その結果は、表示部17のCGジェネレータ171に送られる。
(ステップ12−4)
CGジェネレータ171は、補正されたデータを用いて、アバタをCGで生成するためのデータを得る。つまり、データの変換を行う。
(ステップ12−5)
さらに、CGジェネレータ171は、CGとしてのアバタを生成して、そのデータをアプリケーションソフト172に送る。
(ステップ12−6)
アプリケーションソフト172は、その中でのアバタの状態を計算する。その結果得られたアバタの状態は、モニタ173に送られて表示される。つまり、本体11と同期して動くアバタ6(図10参照)を表示することができる。
(ステップ12−7)
ついで、第1インタフェース装置1は、I/F及びネットワーク4を介して第2インタフェース装置2にアバタ用データを送信する。
(ステップ12−8)
ついで、第2インタフェース装置2は、I/Fを介して、ステップ12−7において送られたアバタ用データを受け取る。
(ステップ12−9)
ついで、第2インタフェース装置2のCGジェネレータは、アバタ用データからアバタを生成し、それを、第2インタフェース装置2のアプリケーションソフトに送信する。
(ステップ12−10)
第2インタフェース装置2のアプリケーションソフトは、アプリケーションソフト内でのアバタの状態を計算し、さらに、計算結果に基づいて、アバタを、第2インタフェース装置2のモニタに表示する。
(ステップ12−11及び12)
第2インタフェース装置2の力学シミュレータは、アプリケーションソフトで計算されたアバタの状態に基づいて、第2インタフェース装置2における圧覚提示部及び力覚提示部への制御データを生成する。さらに、力学シミュレータは、この制御データを第2インタフェース装置2における圧覚提示部及び力覚提示部に送り、第2インタフェース装置2における感覚(圧覚及び力覚)を、第2インタフェース装置の使用者Bに提示する。
本実施形態では、第1インタフェース1の本体11に与えられた圧覚や力覚等の感覚を、ネットワーク4を介して第2インタフェース装置2に送ることができる。第2インタフェース2では、本体11の圧覚提示部部12や力覚提示部13を介して、他の操作者(例えば離間地にいる操作者)Bに感覚を提示することができる。操作者Bは、本体から自分に加えられた刺激又は本体各部の位置を、自己投射して受け取ることができる。本実施形態の例では、次のような対応関係で、本体での刺激又は位置の情報を、自分(又は相手)の身体の情報として受け取ることができる。
親指→右手
小指→左手
残りの指→頭部
手の甲→背中
手のひら→腹
(ステップ12−13)
第2インタフェース装置2は、I/F及びネットワーク4を介して、第1インタフェース装置1に対して、第2インタフェース装置2における制御データを送信する。
(ステップ12−3〜12−6)
ついで、第1インタフェース装置1は、前記したステップ12−3〜12−6の動作を行う。
(ステップ12−14)
ついで、第1インタフェース装置1は、ステップ12−6で得られたデータを用いて、第1インタフェース装置1に備えられた圧覚提示部12及び力覚提示部13により、使用者Aに対して、圧覚及び力覚を提示することができる。
第1インタフェース装置1においても、第1インタフェース1の本体11から自分に加えられた刺激又は本体11各部の位置を、自己投射して受け取ることができる。本体11の各部と身体との関係は前記した通りである。
以降の動作は前記から明らかなので説明を省略する。また、ステップ12−1における操作を第2インタフェース装置2から開始した場合の動作も、前記から明らかなので説明を省略する。
本実施形態のインタフェース装置を用いた通信システムによれば、多数ユーザが、本体又はアバタを介して、相互のコミュニケーションや、仮想空間の共有を行うことができる。また、この通信システムによれば、本体を介した身体的感覚提示によって、空間共有型のテレコミュニケーションが可能になる。
なお、前記実施形態の説明においては、本体11を、自己投射性の高い形状としている。しかしながら、本体11を、単なる手袋状(つまり自己投射性の低い形状)とすることも可能である。この場合であっても、表示部17において表示されるアバタ6を、自己投射可能な形状とすることにより、本体11における刺激又は位置を、使用者の身体の対応箇所における刺激又は位置と認識することができる。また、この対応に基づいて、身体における位置又は刺激の情報を、本体11を用いてコンピュータに入力することも可能である。
また、前記実施形態では、複数のインタフェース装置の間で通信を行う構成としているが、インタフェース装置を単独で用いることもできる。例えば、コンピュータへの入力又はコンピュータからの出力のために前記したインタフェース装置を用いることもできる。この場合も、本体に自己投射した入力又は出力が可能である。以下においては、通信システムを前提とせず、コンピュータのインタフェースとして本実施形態の第1インタフェース装置を用いる場合の処理手順の例を、図13を用いて概略的に説明する。
(ステップ13−1)
まず、本体11の位置を操作者の手5により動かす。また、操作者が本体11の表面に触れる。
(ステップ13−2)
本体11の圧覚検出部14と位置検出部15は、本体11の各部の圧覚や位置を検出する。使用者は、自己の身体(あるいは表示部17に表示されたアバタの身体)を本体11に投写して本体11に触れたり、これを動かすことができる。したがって、本体11の各部の圧覚や位置は、本体11自体の情報であるとともに、本体11に投写された身体に対する情報にもなっている。検出された各制御データは、コンピュータに送られる。
(ステップ13−3)
コンピュータは、これらの制御データ(センサ値)を受け取る。
(ステップ13−4)
さらに、コンピュータは、受け取った制御データと初期状態のデータとを比較して、アバタ形状の計算を行う。
(ステップ13−5)
さらに、コンピュータは、アバタとVR環境の干渉の有無を計算する。
(ステップ13−6)
ステップ13−5において干渉があれば、反力計算を行う。
(ステップ13−7)
ステップ13−5において干渉がない場合は、圧覚提示部12や力覚提示部13における制御値を計算する。ステップ13−6における反力計算を行った後も同様の計算を行う。
(ステップ13−8)
ついで、コンピュータは、ステップ13−7で得られた制御値を本体11に送る。
(ステップ13−9及び10)
本体11は、送られた制御値を受信し、制御値に従って、圧覚提示部12や力覚提示部13を制御する。
(ステップ13−11及び12)
コンピュータ及び本体11は、終了信号の有無に従って、前記の動作を繰り返すか、又は、動作を終了する。
さらに、前記実施形態では、各インタフェース装置が、感覚の提示と検出とを行う構成としたが、提示又は検出のみを行う構成としても良い。
なお、本発明の装置及び方法は、上記した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変更を加えることができる。
例えば、前記した各構成要素は、機能ブロックとして存在していればよく、独立したハードウエアとして存在しなくても良い。また、実装方法としては、ハードウエアを用いてもコンピュータソフトウエアを用いても良い。さらに、本発明における一つの機能要素が複数の機能要素の集合によって実現されても良く、本発明における複数の機能要素が一つの機能要素により実現されても良い。
また、機能要素は、物理的に離間した位置に配置されていてもよい。この場合、機能要素どうしがネットワークにより接続されていても良い。
本発明の一実施形態に係るインタフェース装置を用いた通信システムの全体的な構成を説明するための説明図である。 第1インタフェース装置を手に装着した状態を示す説明図である。 図2の背面図である。 本体1の断面構造を説明するための概略的な説明図である。 本体1の構造を説明するために、その一部を剥離させた状態での説明図である。 圧覚提示部及び圧覚検出部の構造を説明するための概略的な横断面図である。 位置検出部の構造を説明するための説明図である。 位置検出部の構造を説明するための説明図である。 位置検出部及び力各提示部の構造を説明するための説明図である。 CGによりアバタを表示した状態を示す説明図である。 第1インタフェース装置における各機能要素を示すブロック図である。 通信システムを用いて圧覚等の感覚を伝達する手順を説明するためのフローチャートである。 本発明のインタフェース装置を用いてコンピュータとのインタフェースを行う場合の手順を説明するためのフローチャートである。
符号の説明
A・B 操作者
1 第1インタフェース装置
11 本体
12 圧覚提示部(提示部)
121 コイル
122 磁石
123 駆動回路
13 力覚提示部(提示部)
14 圧覚検出部
141 感圧樹脂
142 電極
143 増幅回路
15 位置検出部(検出部)
151 ポテンショメータ
151a 可動板
152 3Dモーションセンサ
153 ギアドモータ
153a 可動片
16 CPU
17 表示部
171 CGジェネレータ
172 アプリケーションソフト
173 モニタ
18 力学シミュレータ
2 第2インタフェース装置
3 サーバ
4 ネットワーク
5 手
6 アバタ

Claims (4)

  1. 本体と提示部とを備え、
    前記本体は、使用者の手を覆う構成となっており、
    さらに、前記本体は、自己投射可能な構成とされており、
    前記提示部は、前記使用者の身体の位置に対応した、前記本体の位置において、前記使用者への感覚提示を行う構成となっている
    ことを特徴とするインタフェース装置。
  2. 前記本体は、前記本体自体を擬人化した形状とすることにより、前記自己投射可能な構成とされていることを特徴とする請求項1に記載のインタフェース装置。
  3. さらに表示部を備え、この表示部は、前記本体と同期して動くアバタを表示する構成となっており、前記本体は、前記表示部が前記アバタを表示することにより、前記自己投射可能な構成とされていることを特徴とする請求項1又は2に記載のインタフェース装置。
  4. 請求項1〜3のいずれか1項記載の構成を有する複数のインタフェース装置と、これらのインタフェース装置相互の通信を可能にするネットワークとを備え
    前記インタフェース装置は、さらに、操作者が本体に加えた感覚を検出する検出部を備え、
    一方のインタフェース装置で検出された感覚を、前記ネットワークを介して他のインタフェース装置に送信して、前記他のインタフェース装置の提示部により提示する
    ことを特徴とする通信システム。
JP2004379106A 2004-12-28 2004-12-28 インタフェース装置 Pending JP2006185252A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004379106A JP2006185252A (ja) 2004-12-28 2004-12-28 インタフェース装置
PCT/JP2005/009412 WO2006070495A1 (ja) 2004-12-28 2005-05-24 インタフェース装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004379106A JP2006185252A (ja) 2004-12-28 2004-12-28 インタフェース装置

Publications (1)

Publication Number Publication Date
JP2006185252A true JP2006185252A (ja) 2006-07-13

Family

ID=36614622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004379106A Pending JP2006185252A (ja) 2004-12-28 2004-12-28 インタフェース装置

Country Status (2)

Country Link
JP (1) JP2006185252A (ja)
WO (1) WO2006070495A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010535364A (ja) * 2007-03-01 2010-11-18 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー インタラクティブにユーザ制御されたアバターアニメーション
JP2012511781A (ja) * 2008-12-10 2012-05-24 イマージョン コーポレーション ハプティック・テキスタイルからハプティック・フィードバックを提供する方法及び装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009069259A1 (ja) * 2007-11-27 2009-06-04 Nec Corporation 触力覚通信端末装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11505044A (ja) * 1995-01-11 1999-05-11 ハプテク インコーポレイテッド 触覚インターフェース・システム
JP2004318399A (ja) * 2003-04-15 2004-11-11 Seiko Epson Corp 画像処理装置及び触覚・力覚提示方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099240A (ja) * 1998-09-18 2000-04-07 Sony Corp 力覚提示装置
JP4022478B2 (ja) * 2002-02-13 2007-12-19 株式会社東京大学Tlo ロボットフォン

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11505044A (ja) * 1995-01-11 1999-05-11 ハプテク インコーポレイテッド 触覚インターフェース・システム
JP2004318399A (ja) * 2003-04-15 2004-11-11 Seiko Epson Corp 画像処理装置及び触覚・力覚提示方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010535364A (ja) * 2007-03-01 2010-11-18 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー インタラクティブにユーザ制御されたアバターアニメーション
JP2012511781A (ja) * 2008-12-10 2012-05-24 イマージョン コーポレーション ハプティック・テキスタイルからハプティック・フィードバックを提供する方法及び装置
US8665241B2 (en) 2008-12-10 2014-03-04 Immersion Corporation System and method for providing haptic feedback from haptic textile

Also Published As

Publication number Publication date
WO2006070495A1 (ja) 2006-07-06

Similar Documents

Publication Publication Date Title
EP3425481B1 (en) Control device
US10509468B2 (en) Providing fingertip tactile feedback from virtual objects
JP4044114B2 (ja) 把持式コンピュータインタラクティブデバイス
Bowman et al. 3d user interfaces: New directions and perspectives
Mendes et al. Mid-air interactions above stereoscopic interactive tables
US8648797B2 (en) Information input/output device, information input/output method and computer program
Pomés et al. Drift and ownership toward a distant virtual body
Tachi Real-time remote robotics-toward networked telexistence
KR100906576B1 (ko) 핸드 햅틱 인터페이스 장치 및 방법
Sadihov et al. Prototype of a VR upper-limb rehabilitation system enhanced with motion-based tactile feedback
JP2009276996A (ja) 情報処理装置、情報処理方法
JP2010287221A (ja) 力覚提示装置
Sinclair et al. TouchMover: actuated 3D touchscreen with haptic feedback
Elsayed et al. Vrsketchpen: unconstrained haptic assistance for sketching in virtual 3d environments
Teyssier et al. MobiLimb: Augmenting mobile devices with a robotic limb
KR20200110502A (ko) 햅틱 컨트롤러 및 이를 이용한 햅틱 피드백 제공 시스템 및 방법
CN112041789A (zh) 位置指示设备及空间位置指示系统
KR20190059726A (ko) 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법
US20230142242A1 (en) Device for Intuitive Dexterous Touch and Feel Interaction in Virtual Worlds
RU2662399C1 (ru) Система и способ для захвата движений и положения тела человека и частей тела человека
Sziebig et al. Vibro-tactile feedback for VR systems
Lindeman et al. Handling of virtual contact in immersive virtual environments: beyond visuals
WO2006070495A1 (ja) インタフェース装置
Villa et al. Extended mid-air ultrasound haptics for virtual reality
Achibet et al. DesktopGlove: A multi-finger force feedback interface separating degrees of freedom between hands

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110118