JP2009271746A - 情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラム - Google Patents

情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP2009271746A
JP2009271746A JP2008121996A JP2008121996A JP2009271746A JP 2009271746 A JP2009271746 A JP 2009271746A JP 2008121996 A JP2008121996 A JP 2008121996A JP 2008121996 A JP2008121996 A JP 2008121996A JP 2009271746 A JP2009271746 A JP 2009271746A
Authority
JP
Japan
Prior art keywords
area
operation area
virtual space
offset amount
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008121996A
Other languages
English (en)
Other versions
JP4645678B2 (ja
Inventor
Kenichiro Nagasaka
憲一郎 長阪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008121996A priority Critical patent/JP4645678B2/ja
Priority to US12/436,222 priority patent/US8648797B2/en
Publication of JP2009271746A publication Critical patent/JP2009271746A/ja
Application granted granted Critical
Publication of JP4645678B2 publication Critical patent/JP4645678B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】実空間における操作領域Sdを用い、これに対応する仮想空間における操作領域Sv内の操作を好適に行なう。
【解決手段】ハプティック・デバイスの操作領域をインタラクション領域と移動領域の2領域に分割する。インタラクション領域内での操作では、仮想空間の操作領域Svの移動が発生せず、違和感のない厳密なインタラクションが行なえる。ハプティック・デバイスを移動領域に到達させると、移動領域への浸透量に応じて、操作領域原点が移動し、操作領域Svにオフセットを与えることができる。ユーザは、触れたいと思う方向に手を伸ばすだけで、全空間へアクセスできる。
【選択図】 図5

Description

本発明は、ユーザ操作に応じた情報の入出力を行なう情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラムに係り、特に、実空間でのユーザ操作を通じて仮想空間に対する操作を行なうとともに、仮想空間から力覚を提示するような情報出力を行なう情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラムに関する。
さらに詳しくは、本発明は、実空間における操作領域Sdを用い、これに対応する仮想空間における操作領域Sv内の操作を行なう情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラムに係り、特に、実空間における操作領域Sdに対応する仮想空間における操作領域Svをユーザの意図に応じて移動させて、仮想空間のアクセス可能範囲を拡張し仮想空間の至る場所からの接触感をユーザに与えるような情報出力を行なう情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラムに関する。
仮想現実(バーチャルリアリティ)や遠隔現実(テレリアリティ)といった技術分野では、視覚情報や聴覚情報に加えて操作者に力覚や触覚を提示するための力触覚ディスプレイすなわち「ハプティック・デバイス」が必須である。
近年の計算機速度の向上とシミュレーション技術の進展により、複数の物体が共存し、それらの間で衝突や接触といった物理的相互作用が生じるという仮想環境を、実時間でシミュレートすることが可能となってきた。このように、物体間の衝突やそのときの接触力を、力学を考慮して精密且つ実時間で算出できるようになると、算出された力を実際にモータで発生することで、ハプティック・デバイスを介して仮想環境の物体に触れたり把持したりした際の感覚をリアルにユーザに提示することが可能となる。
ハプティック・デバイスのアプリケーションは幅広い。医療やその他の特殊技能の習得、小宇宙や海洋などの仮想環境や、原子炉などの特殊若しくは危険な環境での遠隔作業などにおいて、実際に触手できない環境の物体への3次元の力覚・触覚を提示することができる。実時間処理可能な仮想空間の規模や精度に伴い、将来的には力触覚ディスプレイの需要拡大が見込まれる。
例えば、図16に示すようなシリアル・リンクを用いたペン型のハプティック・デバイスが一般的である。ユーザはペン型の先端部を把持し、ここに3軸力乃至6軸力のモーメントの提示が行なわれる(例えば、非特許文献1を参照のこと)。
あるいは、シリアル・リンクの剛性不足を解消する構造として、図17に示すように、パラレル・リンク構造を用いて3軸力乃至6軸力モーメントの提示を行なうハプティック・デバイスも提案されている(例えば、特許文献1、非特許文献2、非特許文献3を参照のこと)。
これらのリンク機構を用いたハプティック・デバイスはいずれも、把持位置の1点のみに対して力触覚提示を行なうもので、言い換えれば、操作者の各指への独立な力触覚提示を行なうものではない。このため、指で仮想物体を把持した感覚を提示することができない、という問題がある。
一方、多指型のハプティック・デバイスを用いると、操作者は、作業対象を把持しているような感覚を得ることができる。また、この種のハプティック・デバイスをロボット・ハンドなどのスレーブ・ハンドを遠隔操作するマスタ・ハンドに適用することにより、マスタハンド(操作手段)の動きがスレーブハンド(作業手段)に伝えられ、且つ、スマスタ側の力覚がマスタ・ハンドに呈示される機能を有する。
多指への力提示を行なうべく、図18に示すように、指と遠隔のモータ間をワイヤで接続し、ワイヤを介して力を印加するハプティック・デバイスが提案されている(例えば、非特許文献4を参照のこと)。しかし、このような装置構成では、常時ワイヤが弛まないよう制御する必要があり、制御が煩雑になる傾向がある。また、ワイヤ間の干渉が発生し易く、特に回転に関する可動範囲はあまり広くない。
また、図19に示すような、対向型マニピュレータにハンド型力提示機構を付加するハプティック・デバイスも提案されている(例えば、非特許文献5を参照のこと)。あるいは、これに類似した方法として、エグゾスケルトン先端にハンド型力提示機構を付加する方法も提案されている(例えば、非特許文献6を参照のこと)。その他、上記シリアル・リンク先端に指サックを取り付け、指への3軸力提示を行なう方式も提案されている(例えば、特許文献2を参照のこと)。
シミュレーションを行なう仮想空間は無限の広がりを持つ。これに対し、ハプティック・デバイスの操作領域は、装置の可動範囲の制約があるため、有限となり、この有限な操作領域に対応した一部の仮想空間にしか、ユーザはアクセスすることができない。図20には、シリアル・リンク構造のハプティック・デバイスの実空間における操作領域Sdと、これに対応する仮想空間における操作領域Svを示している。操作領域Sdは、ハプティック・デバイスの可動範囲の制約を受ける。このため、ユーザは、ハプティック・デバイスの操作領域Sdに対応した仮想空間内の操作領域Sv内のオブジェクトに触れることはできるが、Sv外のオブジェクトに触れることはできない。例えば、同図において、Sv内のオブジェクトAに対する接触感(力覚フィードバック)を受けることはできるが、Sv外にあるオブジェクトBに対する接触感を得ることはできない。
v外のオブジェクトBに触れる、すなわち、ユーザがハプティック・デバイスを通じてオブジェクトBから接触感を得るようにするには、図21に示すように、ハプティック・デバイスの実空間における操作領域Sdに対応する仮想空間の操作領域Svを、オブジェクトBを包含する位置まで移動(平行移動)させる必要がある。
勿論、シリアル・リンク機構など装置の可動範囲を大きくすれば、ユーザがアクセス可能な仮想空間の範囲は拡張するが、装置が大型化し、コスト増大を招来する。
あるいは、GUI(Graphical User Interface)の分野では、マウスがマウスパッドの端縁に到達する度に、持ち上げ、マウスパッド上に再配置するという動作すなわち“Indexing”を繰り返し行なうことによって、操作領域を移動させ、マウスカーソルをGUI画面の至るところにアクセスさせることが可能である。しかしながら、「持ち上げ→再配置」という動作は、マウスカーソルの画面移動処理を一旦中断して行なうことに相当するから、連続的入力を行なうことを基調とするハプティック・デバイスに適用することはできない。
また、スイッチなどの入力インターフェースを併用して、仮想空間内の操作領域Svのオフセット指示を与える方法も考えられる。しかしながら、ハプティック・デバイスの入力自由度が増大すると、操作が煩雑化するため、直感的な操作の妨げになる。操作が例えば図19に示した対向型マニピュレータの場合、指毎に対向する入力自由度は仮想空間内の各指の連続的な操作として直感的に理解できるが、操作領域Svのオフセット指示を与える入力インターフェース操作は不連続的であり、直感的とは言い難い。
以上のような理由から、仮想空間で操作を行なうハプティック・デバイス本来の入力操作のみから、仮想空間の操作領域Svを移動させる必要がある。あるいは、ハプティック・デバイスに対する入力操作からユーザの意図を検出し、仮想空間の操作領域Svのオフセットを行なうようにすれば、直感的で自然な操作となり、ハプティック・デバイスの利便性は大きく改善される。
図20に示したように、ハプティック・デバイス先端の位置rdと、仮想空間内のポインタの位置rvの間には、下式(1)に示すような関係が成立する。
ここで、上式(1)において、rv0はハプティック・デバイス原点の仮想空間内の位置である。また、Kは、スケール・ファクタであり、実際のハプティック・デバイスの変位と、仮想空間内のポインタの変位の間の比率を与える。
上式(1)から分かるように、スケール・ファクタKを大きくすれば、ハプティック・デバイスの小さな変位により仮想空間内のポイントを大きく動かすことができ、この結果、ハプティック・デバイスの実空間上で同じ操作領域Sdを以って操作可能な仮想空間上の操作領域Svが拡張する。すなわち、小さなハプティック・デバイスでも、大きな仮想空間に触れることができる。しかしながら、スケール・ファクタKを大きくすると、同時に位置の分解能が低下するため、触感が低下するという問題を招来する。また、スケール・ファクタKを変えることは操作領域Svにオフセットを与えることとは相違し、触れことのできる仮想空間が拡大しても、相変わらず、仮想空間の一定の操作領域Svの外には触れることはできない。
また、ballisticsと呼ばれる、ハプティック・デバイスの速度vdに応じて、ハプティック・デバイスの微小変位δrdと仮想空間内のポインタの微小変位δrvの間のスケール・ファクタを変化させる方法が挙げられる。一般には、下式(2)に示すように、ハプティック・デバイスの速度が大きいほど、スケール・パラメータKが大きくなるように設定する。これにより、ハプティック・デバイスの速度の小さな緻密なインタラクションを行ないたいときには、分解能不足を回避することができる。
しかしながら、ballisticsは、ハプティック・デバイス原点の仮想空間内での位置rv0を管理しないことから、徐々にハプティック・デバイスの操作領域Sdと仮想空間内での操作領域Svがずれていくことになる。このため、当該方法によると、ハプティック・デバイスの操作領域Sdの境界付近で操作を強いられる事態に陥ることが多い、という難点がある。
また、レート・コントロールと呼ばれる、ハプティック・デバイスを速度操作器として用いる方法もある。この方法は、ハプティック・デバイスの先端位置rdに応じた仮想空間のポインタの速度を与えるものであり、下式(3)のように表される。
レート・コントロールによれば、空間のいたるところにアクセスすることが可能になる。しかしながら、ハプティック・デバイスの運動は積分されてポインタに与えられるため、1次遅れ系となり、剛体の接触感を得ることができない、速い運動指示が行なうことができないという問題がある。
また、実際のハプティック・デバイスの変位の仮想空間内のポインタの変位に対するスケール・ファクタを変化させる方法と、ballisticsと、レート・コントロールとを組み合わせたハイブリッド的方法として、人間の心理物理学の知見に基づいて、下式(4)に示すように、ハプティック・デバイスの速度及び位置に比例して操作領域Svの速度を変化させる方法について提案がなされている(例えば、非特許文献7を参照のこと)。
このハイブリッド的方法では、ハプティック・デバイスの速度がゼロになってしまうと、ユーザがより遠い空間に到達したいと考えても、操作領域の移動が行なわれないという問題がある。また、床面を擦るなどの接触インタラクション中にも操作領域Svが移動するため、ハプティック・デバイスがユーザに対し「滑り」のような違和感を与えることがある。
特許第3329443号公報 特開2004−299999号公報 http://www.sensable.com/haptic−phantom−desktop.htm(平成19年2月3日現在) http://forcedimension.com/fd/avs/home/products/(平成19年2月3日現在) http://www.quanser.com/industrial/html/products/fs_5dof.asp(平成19年2月3日現在) http://sklab−www.pi.titech.ac.jp/frame_index−j.html(平成19年2月3日現在) 川崎晴久、堀匠、毛利哲也共著「対向型多指ハプティックインターフェース」(日本ロボット学会誌 Vol.23,No.4,pp449−456,2005) http://www.immersion.com/3d/products/cyber_grasp.php(平成19年2月4日現在) F.Conti、O.Khatib共著"Spanning Large Workspaces Using Small Haptic Devices"(IEEE WorldHaptics 2005)
本発明の目的は、実空間でのユーザ操作を通じて仮想空間に対する操作を行なうとともに、仮想空間から力覚を提示するための好適な情報出力を行なうことができる、優れた情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラムを提供することにある。
本発明のさらなる目的は、実空間における操作領域Sdを用い、これに対応する仮想空間における操作領域Sv内の操作を好適に行なうことかでできる、優れた情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラムを提供することにある。
本発明のさらなる目的は、実空間における操作領域Sdに対応する仮想空間における操作領域Svをユーザの意図に応じて移動させて、仮想空間のアクセス可能範囲を拡張し仮想空間の至る場所からの接触感をユーザに与えるような情報出力を行なうことができる、優れた情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラムを提供することにある。
本発明のさらなる目的は、可動範囲が有限な仮想空間操作用の入力インターフェースのみを用いて、操作領域Sv内でのオブジェクト操作と、仮想空間での操作領域を移動させる操作を連続的な行なうことを可能とし、違和感のない厳密なインタラクションを行なうことができる、優れた情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラムを提供することにある。
本発明は、上記課題を参酌してなされたものであり、その第1の側面は、
実空間の所定の操作領域Sd内でユーザが位置を指示する位置入力部と、
ユーザが前記位置入力部で指示した前記操作領域Sd内の位置rdを計測する指示位置計測部と、
前記の計測された操作領域Sd内の位置rdに基づいて、仮想空間における操作領域Svの原点位置rv0のオフセット量Δrv0を決定する操作領域オフセット量決定部と、
前記の計測された操作領域Sd内の位置rdと、前記の決定されたオフセット量Δrv0に基づいて、ユーザが前記位置入力部を介して指示した実空間上の位置に対応する仮想空間上の指示位置rvを決定する指示位置決定部と、
を具備することを特徴とする情報入出力装置である。
ここで、位置入力部は、指先又はその他のユーザの身体の一部に当接し、該当接部位の動作に基づく移動量rdを前記の指示位置として入力するものとする。
また、位置入力部は、力覚提示を行なうハプティック・デバイスとして構成することができる。すなわち、位置入力部は、指示位置決定部が決定した仮想空間上の位置rvに応じた力触覚を、前記位置入力部に当接したユーザの身体の一部に対して印加して、ユーザに対して力触覚提示を行なうものとする。
仮想現実や遠隔現実などの技術分野では、視覚情報や聴覚情報に加えて操作者に力覚や触覚を提示するためのハプティック・デバイスが必須である。例えば、多指型のハプティック・デバイスは、作業対象に直接的に作業をしているような間隔を操作者に与えることができる。
仮想空間は本来ほぼ無限の広がりを持つのに対し、ハプティック・デバイスの可動範囲は有限であることから、仮想空間における操作領域は、実空間上の操作領域と同じ大きさしか持たない。このため、現在は操作領域外にある仮想オブジェクトからの接触感を得るには、当該オブジェクトを収容するよう、実空間の操作領域に対応する仮想空間の操作領域を移動させる必要がある。本発明者は、ユーザの指先に装着するシリアル・リンク機構など、仮想空間操作用の入力インターフェースを併用して仮想空間の操作領域を移動させることができれば、仮想空間におけるオブジェクトの操作と仮想空間での操作領域を移動させる操作を連続的な行なうことが可能であり、ユーザ操作は直感的で理解し易く、且つ、違和感のない厳密なインタラクションを行なうことができる、と考えている。
本発明に係る情報入出力装置は、ハプティック・デバイスを兼用する位置入力部の物理的な操作領域を、インタラクション領域と移動領域の2領域に分割している。すなわち、位置入力部が実空間において持つ操作領域Sdは、前記操作領域Sdの周縁付近の移動領域と、前記移動領域の内側となるインタラクション領域に分割されるものとする。
そして、操作領域オフセット量決定部は、前記の計測された操作領域Sd内の指示位置rdがインタラクション領域又は移動領域のいずれに存在するかを判別する。このとき、指示位置rdが前記インタラクション領域内に存在するときには、仮想空間における操作領域Svの原点位置rv0に対してオフセット量Δrv0を与えない(すなわち、Δrv0=0)。また、指示位置rdが前記移動領域内に存在するときには、仮想空間における操作領域Svの原点位置rv0に対して指示位置rdに応じたオフセット量Δrv0を与えるようにする。
したがって、ユーザ操作が移動領域に到達すると、この移動領域への浸透量に応じて仮想領域における操作領域Svの原点rv0を移動させて、操作領域Svにオフセットを与えるようにしている。この結果、ハプティック・デバイス自体が持つ機械的な可動範囲は有限ではあるが、無限に広がる仮想空間の任意の位置へのアクセスが可能となる。
一方、インタラクション領域内での操作では、仮想空間の操作領域Svの移動を発生させず、通常の力触覚インタラクションのための情報出力を行なう。インタラクション領域では、ハプティック・デバイスとしての性能を最大限に発揮することが可能であり、仮想オブジェクトに対する接触インタラクションの間に、擦る、滑るといった違和感をユーザに与えたり、性能が劣化したりすることはない。
本発明に係る情報入出力装置は、付加的な入力インターフェースを用いないで、仮想空間内で操作領域を移動するので、通常の力触覚提示のための動作と連続的であり、ユーザ操作は煩雑化しない。すなわち、ユーザは、触れたいと思う方向に手を伸ばすという直感的な操作を通じて、仮想空間の任意の位置へアクセスすることができ、直感的で自然な操作系を実現することができる。
また、本発明に係る情報入出力装置は、ディスプレイと、前記操作領域オフセット量決定部が決定したオフセット量Δrv0に応じて仮想空間の状況を描画するためのカメラ・モデルの座標系を移動するカメラ位置決定部と、前記カメラ・モデルとして定義される座標系を視点とした仮想空間の状況をレンダリングして前記ディスプレイに表示する仮想環境描画部をさらに備えていてもよい。
力触覚提示手段が仮想空間からの力触覚的なフィードバックを与えるのに対し、仮想環境描画部は視覚的なフィードバックを与えることができ、両者の組み合わせによって、より現実に近い仮想環境をユーザに提示することができる。上述したように本発明に係る情報入出力装置は、位置入力部を介した仮想環境へのユーザ操作に応じて連続的に仮想空間の操作領域Svを移動させる点に主な特徴があるが、その際、原点位置rv0の移動に連動してカメラ座標系を移動しないと、仮想空間の操作領域Svの移動に伴って、位置rvに相当する指ポインタが描画領域外に取り残され、操作不能な状況になる。これに対し、カメラ位置決定部が、仮想空間における操作領域Svの原点位置rv0のオフセット量Δrv0に応じて、カメラ・モデルの座標系を併せて移動するようにすることで、指示位置rvすなわち指ポインタを描画領域内に常に収容し、仮想環境の操作可能な状況を保つことができるようになる。
なお、力触覚提示手段は、例えば、仮想空間に存在する各オブジェクトが持つ幾何属性並びに力学属性を含む属性情報を蓄積するオブジェクト・データ蓄積部と、前記オブジェクト・データ蓄積部に蓄積されている各オブジェクトに対する力学演算を行なうとともに該演算結果に基づいて各オブジェクトの位置及び姿勢を変更する力学演算部と、前記オブジェクト・データ蓄積部に蓄積されている各オブジェクト間の衝突事象を検出する衝突検出部と、前記衝突検出部で検出された衝突点で作用する力を算出する衝突力算出部と、前記衝突力算出部で算出した力に基づいて前記位置入力部に当接したユーザの身体の一部に対して印加すべき作用力を算出する作用力算出手段と、前記作用力算出手段により算出された作用力に基づく力触覚を前記位置入力部に当接したユーザの身体の一部に対して印加する力触覚付与手段で構成され、位置入力部を通じてユーザに適切な力触覚を与えることができる。
また、1指用のハプティック・デバイスを複数組み合わせた多指システムにも拡張して本発明を適用することができる。すなわち、ユーザの複数の指jのそれぞれ対応する複数の位置入力部を備える。そして、操作領域オフセット量決定部は、前記の各位置入力部で指示された前記操作領域Sd内の指示位置rjdの平均位置又は加重平均位置に基づいて、仮想空間における操作領域Svの原点位置rv0のオフセット量Δrv0を決定するようにすればよい。さらに、片腕だけではなく、双腕にわたる多指システムにも、同様に本発明を適用することができる。
また、本発明に係る常用入出力装置は、操作領域におけるユーザの指示動作として、並進運動だけでなく、回転運動を扱うことができる。本発明の第2の側面は、回転運動からなるユーザの指示動作を扱う情報入出力装置であって、
所定の正面姿勢を中心として回転運動が可能なように構成され、実空間の所定の操作領域Sd内の位置としてユーザが姿勢角を指示する位置入力部と、
ユーザが前記位置入力部で指示した姿勢角Rdを計測する指示位置計測部と、
前記位置入力部が実空間において持つ操作領域Sdを、前記正面姿勢から姿勢角±Θの範囲内のインタラクション領域と、前記インタラクション領域の外側となる移動領域に分割し、前記の計測された操作領域Sd内の指示姿勢角Rdがインタラクション領域又は移動領域のいずれに存在するかを判別し、指示姿勢角Rdが前記インタラクション領域内に存在するときには、仮想空間における操作領域Svの正面姿勢角rv0に対してオフセット量Δγv0を与えないが、指示姿勢角Rdが前記移動領域内に存在するときには、仮想空間における操作領域Svの正面姿勢角Rv0に対して指示姿勢角Rdに応じたオフセット量Δγv0を与える操作領域オフセット量決定部と、
前記の計測された操作領域Sd内の指示姿勢角Rdと、仮想空間における操作領域Svの正面姿勢角Rv0と、前記の決定されたオフセット量Δγv0に基づいて、ユーザが前記位置入力部を介して指示した実空間上の位置に対応する仮想空間上の指示姿勢Rvを決定する指示位置決定部と、
を具備することを特徴とする情報入出力装置である。
本発明の第2の側面に係る情報入出力装置も、ディスプレイと、前記操作領域オフセット量決定部が決定した指示姿勢Rvのオフセット量Δγv0に応じて仮想空間の状況を描画するためのカメラ・モデルの座標系を移動するカメラ位置決定部と、前記カメラ・モデルとして定義される座標系を視点とした仮想空間の状況をレンダリングして前記ディスプレイに表示する仮想環境描画部を備え、力触覚的なフィードバックに加え、視覚的なフィードバックを与えるようにしてもよい。そして、カメラ位置決定部が、仮想空間における操作領域Svの正面姿勢rv0のオフセット量Δγv0に応じてカメラ・モデルの座標系を併せて移動するようにすることで、指示姿勢Rvすなわち指ポインタを描画領域内に常に収容し、仮想環境の操作可能な状況を保つことができるようになる。
また、本発明の第3の側面は、実空間でのユーザ操作を通じて仮想空間に対する操作を行なうための情報入出力処理をコンピュータ上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、前記コンピュータに対し、
実空間の所定の操作領域Sd内でユーザが位置を指示する位置入力部を介してユーザが指示した前記操作領域Sd内の指示位置rdを取得する指示位置取得手順と、
前記の取得された操作領域Sd内の位置rdに基づいて、仮想空間における操作領域Svの原点位置rv0のオフセット量Δrv0を決定する操作領域オフセット量決定手順と、
前記の取得された操作領域Sd内の位置rdと、仮想空間における操作領域Svの原点位置rv0と、前記の決定されたオフセット量Δrv0に基づいて、ユーザが前記位置入力部を介して指示した実空間上の位置に対応する仮想空間上の指示位置rvを決定する指示位置決定手順と、
を実行させ、
前記位置入力部が実空間において持つ操作領域Sdは、前記操作領域Sdの周縁付近の移動領域と、前記移動領域の内側となるインタラクション領域に分割され、
前記操作領域オフセット量決定手順では、前記の計測された操作領域Sd内の指示位置rdがインタラクション領域又は移動領域のいずれに存在するかを判別し、指示位置rdが前記インタラクション領域内に存在するときには、仮想空間における操作領域Svの原点位置rv0に対してオフセット量Δrv0を与えないが、指示位置rdが前記移動領域内に存在するときには、仮想空間における操作領域Svの原点位置rv0に対して指示位置rdに応じたオフセット量Δrv0を与える、
ことを特徴とするコンピュータ・プログラムである。
本発明の第3の側面に係るコンピュータ・プログラムは、コンピュータ上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータ・プログラムを定義したものである。換言すれば、本発明の第3の側面に係るコンピュータ・プログラムをコンピュータにインストールすることによって、コンピュータ上では協働的作用が発揮され、本発明の第1の側面に係る情報入出力装置と同様の作用効果を得ることができる。
本発明によれば、実空間における操作領域Sdを用い、これに対応する仮想空間における操作領域Sv内の操作を好適に行なうことかでできる、優れた情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラムを提供することができる。
また、本発明によれば、実空間における操作領域Sdに対応する仮想空間における操作領域Svをユーザの意図に応じて移動させて、仮想空間のアクセス可能範囲を拡張し仮想空間の至る場所からの接触感をユーザに与えるような情報出力を行なうことができる、優れた情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラムを提供することができる。
本発明に係る情報入出力装置は、当該装置の物理的な操作領域を、インタラクション領域と移動領域の2領域に分割している。インタラクション領域内での操作では、仮想空間の操作領域Svの移動を発生させず、通常の力触覚インタラクションを行なう。一方、ユーザ操作が移動領域に到達すると、この移動領域への浸透量に応じて仮想領域における操作領域原点rv0を移動させて、操作領域Svにオフセットを与えるようにしている。したがって、ユーザは、触れたいと思う方向に手を伸ばすという直感的な操作を通じて、仮想空間の任意の位置へアクセスすることができる。この結果、力覚提示手段を兼ね備えた位置入力部自体が持つ機械的な可動範囲は有限ではあるが、無限に広がる仮想空間の任意の位置へのアクセスが可能であり、これによって、応用範囲が格段に広がる。
また、本発明に係る情報入出力装置は、仮想空間の操作領域を移動するための付加的な入力インターフェースを用いないので、ユーザ操作は煩雑化しない。すなわち、ユーザは、触れたいと思う方向に手を伸ばすという動作のみで仮想空間の操作領域を移動させることができ、直感的で自然な操作系を実現することができる。
また、本発明に係る情報入出力装置は、インタラクションを行なう操作領域では、ハプティック・デバイスとしての性能を最大限に発揮することが可能な構成となっており、仮想オブジェクトに対する接触インタラクションの間に、擦る、滑るといった違和感をユーザに与えたり、性能が劣化したりすることはない。
本発明に係る情報入出力装置は、操作領域を拡張するために装置を大型化する必要は無く、小型化、低コスト化を実現することができる。この結果、一般家庭への普及も期待され、例えば、ゲーム用インターフェースとして利用することもできる。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
以下、図面を参照しながら本発明の実施形態について詳解する。
仮想現実や遠隔現実などの技術分野では、視覚情報や聴覚情報に加えて操作者に力覚や触覚を提示するためのハプティック・デバイスが必須である。例えば、多指型のハプティック・デバイスは、作業対象に直接的に作業をしているような間隔を操作者に与えることができる。
ハプティック・デバイスの可動範囲は有限であることから、仮想空間における操作領域は、実空間上の操作領域と同じ大きさしか持たない。このため、現在は操作領域外にある仮想オブジェクトからの接触感を得るには、当該オブジェクトを収容するよう、実空間の操作領域に対応する仮想空間の操作領域を移動させる必要がある。
本発明に係る力覚提示装置は、当該装置の物理的な操作領域を、インタラクション領域と移動領域の2領域に分割している。
インタラクション領域内でのユーザ操作では、仮想空間の操作領域Svの移動を発生させず、通常の力触覚インタラクションを行なう。インタラクション領域では、ハプティック・デバイスとしての性能を最大限に発揮することが可能であり、仮想オブジェクトに対する接触インタラクションの間に、擦る、滑るといった違和感をユーザに与えたり、性能が劣化したりすることはない。
一方、ユーザ操作が移動領域に到達すると、この移動領域への浸透量に応じて仮想領域における操作領域原点rv0を移動させて、操作領域Svにオフセットを与えるようにしている。したがって、力覚提示装置自体が持つ機械的な可動範囲は有限ではあるが、ユーザは触れたいと思う方向に手を伸ばすという直感的な動作により移動領域における操作を行なうことで、無限に広がる仮想空間の任意の位置へのアクセスを行なうことができる。
図1には、ハプティック・デバイスを適用したシステムの構成例を示している。図示のシステムは、スピーカ、ディスプレイ、並びに力覚提示器(ハプティック・デバイス)16といった入出力装置を介して、計算機10上に構築された3次元空間の様子をユーザに提示するようになっている。
計算機10上では、CPU(Central Processing Unit)11が、ハード・ディスク(HDD)13上に記録されたデータを基に、3次元空間で発生した事象に関連した音情報、映像情報、力情報などの時間的変化をリアルタイムで算出し、メモリ(RAM)12に展開される。
これら3次元空間で発生した音情報、映像情報、力情報は、サウンド・カード及びスピーカ14、ビデオ・カード及びディスプレイ15、並びにハプティック・デバイス16を介して出力される。これらの入出力系を同期・協調的に駆使することで、計算機上に構築された3次元空間が、あたかも実在する空間であるかの如く、高いリアリティと臨場感を以ってユーザに提示される。
以上のデバイス11〜16は、リアルタイム性を確保するのに十分な速度を有した高速なバス17によって接続され、相互に情報の授受が可能であるとする。
図2には、図1に示したシステムで適用することができるハプティック・デバイスの構成例を示している。なお、1指向けの1ユニットであり、各指用のユニットを組み合わせることで、多指型のハプティック・デバイスを構成することができる。
図示のハプティック・デバイスは、シリアル・リンク機構からなり、ユーザの指先を挿入して保持する指ホルダ部と、指ホルダ部に保持された指先に対して空間における力を提示する力提示手段と、力提示手段の先端部に取り付けられて、力提示手段を構成するシリアル・リンクの先端部分で、不要なモーメントが発生しないように指ホルダ部を支持する指ホルダ部支持手段を備えている。
力提示手段は、リンク間を接続する3つのジョイントJ1、J2、J3の基本3自由度駆動系からなり、先端の指ホルダ部に対し並進3自由度の力提示を行なう。また、各ジョイントJ1、J2、J3はそれぞれモータM1、M2、M3でワイヤ伝動により駆動する駆動関節である。
また、指ホルダ部支持手段は、力提示手段を構成するアームの先端部分において、指ホルダ部を支持している。図示の例では、指ホルダ部支持手段は、3自由度を持つジンバル機構G1、G2、G3からなる。このジンバル機構は、ヨー、ロール、及びピッチの3軸が互いに直交して1点で交わる構成であり、指ホルダ部とシリアル・リンクのアーム構造を連結し、指ホルダ部は自由に回転できるものとする。
駆動関節J2並びにJ3はトルク干渉駆動である。また、各モータM1、M2、M3の出力軸にはエンコーダが取り付けられ、その値から各駆動関節J1、J2、J3の角度を算出することができる。また、ジンバル機構G1、G2、G3にはポテンショメータが取り付けられ、その角度計測ができるものとする。
例えば、本出願人に既に譲渡されている特願2007−272098号明細書で開示されている力触覚提示装置を、計算機10に接続するハプティック・デバイス16として用いることができる。
図2に示したハプティック・デバイスの操作領域が有限であるということは、当業者には容易に理解できるであろう。本システムの主な特徴は、ハプティック・デバイスの有限な操作領域を凌駕した、広大な広がりを持つ仮想空間の任意の位置に、できるだけ自然なユーザ操作を通じてアクセスし、ユーザに対して適切な接触感を与える点にある。
図3には、ハプティック・デバイスを介して仮想空間の任意の位置にユーザがアクセスし触感を得るために、CPU11上で実行される制御プログラムの構成を模式的に示している。
仮想3次元空間の状態は、同空間に存在する各オブジェクトが持つ属性情報によって規定されるが、これらオブジェクト毎の属性情報は3次元オブジェクト・データ蓄積部101に保持されている。3次元オブジェクト・データ蓄積部101の実体は、例えばHDD12である。各オブジェクトの属性情報としては、位置、姿勢、寸法、接続関係、関節位置といった幾何属性、質量、慣性テンソル、摩擦、反発係数、関節発生力、外力といった力学属性、減衰特性、固有振動波形などの振動属性に関するデータが挙げられ、3次元空間で発生した事象に関連した音情報、映像情報、力情報などの時間的変化を算出する際に用いられる。3次元オブジェクト・データ内には、ユーザの多指に関する指モデルも含まれる。指モデルについても、他のオブジェクトと同様に、幾何属性、力学属性、振動属性といったパラメータが保持される。
なお、振動属性は、3次元仮想空間上でオブジェクト間の衝突や接触といったインタラクションが発生したときに、力学シミュレーション結果に基づいてリアリティのある効果音を生成するために用いられる。効果音の生成方法に関しては、例えば本出願人に既に譲渡されている特開2007−164291号公報に記載されている。但し、効果音の生成は本発明の要旨に直接関連しないので、本明細書ではこれ以上説明しない。
カメラ・モデル114は、3次元オブジェクト・データで表される仮想環境の状況をディスプレイに描画するための視点を与える。カメラ・モデル114には、カメラの位置、姿勢、画角といった情報が含まれる。(本明細書で言う「カメラ」は、物体の像を記録する物理的なカメラではなく、コンピュータ・グラフィックス分野において3次元シーンの描画を行なう際の視点を定義する要素のことであり、「バーチャル・カメラ」とも呼ばれる。)
仮想環境描画部115は、カメラ・モデル114として定義される座標系を視点とした、3次元オブジェクト・データの状況をレンダリングして、ディスプレイ15に表示する。
3次元オブジェクト・データ蓄積部101内の各オブジェクトは、順動力学演算部102における力学演算の結果に応じて位置や姿勢が変更される。ここで言う順動力学演算は、オブジェクト内部に発生する力やオブジェクト外部に作用する力に基づいてオブジェクトに発生する加速度を得る演算であり、この加速度を積分することで、オブジェクトの運動をニュートン・オイラー(Newton−Euler)力学に基づいてシミュレートする。この順動力学演算の結果を各オブジェクトの位置や姿勢に反映することにより、各オブジェクトは力学法則に基づいたリアルな動きを呈する。
本発明では、順動力学演算部102の構成方法は特に限定されない。例えば、本出願人に既に譲渡されている特開2007−108955号公報に開示されている順動力学演算FWDを本発明にも適用することができる。順動力学演算を4過程に分解して、イナーシャ情報算出⇒速度情報算出⇒力情報算出⇒加速度情報算出の順で実行するようにしてもよい。このような場合、ロボットなどのリンク構造物に任意の力を作用させた条件下で任意の場所並びに方向に発生する加速度を得ることができる。但し、指モデルの位置及び姿勢のオブジェクト・データに関しては、順動力学演算によるシミュレーション結果ではなく、ハプティック・デバイス位置計測部110において得られた実際の指の位置及び姿勢が反映される。
ハプティック・デバイス16を構成するシリアル・リンクの各ジョイントJ1、J2、J3には回転角を測定するエンコーダが取り付けられ、また、ジンバル機構G1、G2、G3にはポテンショメータが取り付けられている。ハプティック・デバイス位置計測部110は、これらエンコーダ並びにポテンショメータの出力値に基づいて、周知の順運動学演算(関節値から,リンク構造物上の与えられた点の位置・姿勢を求める演算)を解いて、ハプティック・デバイス16を装着したユーザの指の実際の指の位置及び姿勢を算出する。
ポインタ位置決定部112は、上式(1)に基づいて、ハプティック・デバイス先端の位置rdをスケール・ファクタKでスケール倍し、これにハプティック・デバイス原点の仮想空間内の位置rv0を加算して、仮想空間内の指ポインタの位置rvを決定する。
そして、カメラ位置決定部113は、ハプティック・デバイス原点の仮想空間内の位置rv0に連動して、カメラ・モデル114の座標系を移動する。原点位置rv0の移動に連動してカメラ座標系を移動しないと、仮想空間の操作領域Svの移動に伴って指ポインタが描画領域外に取り残され、操作不能な状況になる。カメラ位置決定部113は、図4に示すように、カメラ座標系から見てハプティック・デバイス16の原点位置が一定位置evにあるように、カメラ座標系の位置を決定して、ハプティック・デバイス16の原点位置rv0のオフセット量Δrv0と同量だけ、カメラ座標reを平行移動する。すなわち、カメラ位置決定部113が、仮想空間における操作領域Svの原点位置rv0のオフセット量Δrv0に応じて、カメラ・モデルの座標系を併せて移動するようにすることで、指示位置rvすなわち指ポインタを描画領域内に常に収容し、仮想環境の操作可能な状況を保つことができるようになる。
衝突検出部104は、3次元オブジェクト・データ蓄積部101内のオブジェクト間の衝突事象を検出し、衝突点集合を算出する。本発明では、オブジェクト間の衝突検出方法は特に限定されない。例えば、GJKアルゴリズム(Gilbert−Johnson−Keerthi distance algorithm)を用いた衝突検出方法などを適用することができるが、その詳細に関しては、例えば本出願人に既に譲渡されている特開2007−102394号公報を参照されたい。
衝突力算出部105は、衝突検出部104で算出された衝突点に作用する外力を算出し、3次元オブジェクト・データ蓄積部101内の該当オブジェクトの外力情報として登録する。登録された外力情報は、順動力学演算部102における演算に用いられ、各オブジェクトの運動に影響を及ぼす。本発明では、衝突力の算出法は特に限定されないが、本出願人に既に譲渡されている特開2007−108955号公報に開示されている算出方法を適用することができる。
指先作用力算出部106は、衝突力算出部105で算出した外力のうち、各指モデルに作用するものの合力を算出する。ここで求められる指先作用力は、仮想環境中で、各指モデルが他のオブジェクトと接触した際に指モデルに作用する外力であり、実世界では、人の指が外界から受ける外力に相当する。この力をハプティック・デバイス16に提示すれば、ユーザに対して指で仮想物体に触れた感覚をフィードバックすることができる。
逆力運動学演算部107は、指先作用力算出部106で算出された力を、ハプティック・デバイス16の先端で発生する(すなわち、ユーザの指先にフィードバックする外力を与える)ために必要となる関節力を算出する。一般には、ハプティック・デバイス16には重さ、イナーシャ、並びに摩擦が含まれているので、ダイナミクスを考慮してこれらの影響を除去した上で、指先作用力算出部106で算出された力を提示する。このような制御方法は「動力学補償制御」と呼ばれるが、例えば本出願人に既に譲渡されている特願2007−272099号明細書に記載されている制御方法を適用することができる。
関節力制御部108は、作用力制御部108は、ハプティック・デバイス16の各関節が逆力運動学演算部107で得られた関節力を発生するように、各関節のモータを例えば電流制御により制御する。これによって、指ホルダに装着しているユーザの指先を介して、仮想物体に触れた感覚をフィードバックすることができる。
操作領域オフセット量決定部111は、ハプティック・デバイス16に対するユーザ操作に応じて、ハプティック・デバイス原点の仮想空間内の位置rv0を決定する。ハプティック・デバイス16は、機械的・物理的な制約などにより可動範囲が定まるため、実空間における操作領域は有限である。本実施形態では、ハプティック・デバイス16が持つ実空間の操作領域を、図5に示すように、当該操作領域の周縁付近の移動領域と、この移動領域よりも内側のインタラクション領域の2領域に分割している。
インタラクション領域内にハプティック・デバイス先端位置rd が存在する場合、ハプティック・デバイス原点の仮想空間内での位置rv0は移動しないので、通常通りの精緻な力触覚インタラクションが実現される。仮想オブジェクトに対する接触インタラクションの間に、擦る、滑るといった違和感をユーザに与えることのない、高精度な力触覚インタラクションを実現する。
一方、ハプティック・デバイス16の先端位置rdが移動領域内に存在する場合には、インタラクション領域からの距離に比例してハプティック・デバイス原点の仮想空間内での位置rv0をオフセットさせる。ハプティック・デバイス16が持つ機械的な可動範囲は有限ではあるが、ユーザは触れたいと思う方向に手を伸ばすという直感的な動作により移動領域における操作を行なうことになり、無限に広がる仮想空間の任意の位置へアクセスすることが可能である。
すなわち、ハプティック・デバイス16の先端位置rdに対し、仮想空間の操作領域原点rv0は下式(5)〜(7)のように決定される。
上式(5)〜(7)において、Δrv0はハプティック・デバイス原点の仮想空間内での位置rv0の増分を表す。添え字iは位置のX、Y、Z成分を表すインデックスであり、rdi及びΔrv0iは、rd及びΔrv0の第i成分を表す。Cは比例定数、Lは矩形のインタラクション領域のいっぺんの長さの2分の1を表す。
このようにして得られたハプティック・デバイス原点rv0の仮想空間内での移動量Δrv0に応じて、カメラ座標系の位置reも、下式(8)に従って移動する(図4を参照のこと)。但し、Δreはreの増分を表す。
上式(8)のようにハプティック・デバイス16の原点位置rv0の移動に連動してカメラ座標系の位置reを移動するのは、仮想空間の操作領域Svの移動に伴って指ポインタが描画領域外に取り残されないようにするためである(前述)。言い換えれば、指ポインタを描画領域内に常に収容し、仮想環境の操作可能な状況を保つ。
図6には、上式(5)〜(8)で表される、ハプティック・デバイス16の移動領域でのユーザ操作に応じた仮想領域内の原点位置rv0の移動と、これに伴うカメラ座標系の位置reの移動のアルゴリズムを用いることにより、仮想空間の操作領域Svを移動させる様子を示している。同図中の一点鎖線で表される領域はインタラクション領域に相当する。
図示の例では、ハプティック・デバイス16の実空間の操作領域Sdは有限であっても、仮想空間内では原点位置rv0の移動により操作領域Svをオフセットさせることで、(操作領域Sdよりもサイズの大きい)CGキャラクタ(エージェント)の全身の至る所にアクセスすることができる。すなわち、仮想空間における操作領域Svの原点位置rv0のオフセット量Δrv0に応じて、カメラ・モデルの座標系を併せて移動するようにすることで、指示位置rvすなわち指ポインタをディスプレイ15の表示画面内に常に収容し、仮想環境の操作可能な状況を保つことができるようになる。他方、仮想空間内で原点位置rv0の移動を行なわないときには、エージェントの頭部付近しか触れることができない。
本実施形態では、図2に示したようなハプティック・デバイス16以外の入力手段を用いることなく、触れたい場所の方向にユーザの手を移動させるのみで、(操作領域Sdのうちの移動領域への浸透量に応じて)仮想空間の操作領域Svが自然とオフセットするので、ユーザは、ストレス無く仮想空間のすべての領域にアクセスすることが可能となる。また、操作領域Sdのうちのインタラクション領域でのハプティック・デバイス16の操作では、滑りや分解能の低下といった問題が発生することなく、ハプティック・デバイス16本来の性能を発揮した、良好な力触覚提示を行なうことができる。
また、ここまでは、説明の簡素化のため、1指のハプティック・デバイス(図2を参照のこと)を用いた場合に限定して述べてきた。勿論、図7A並びに図7Bに示すような、1指用のハプティック・デバイスを複数組み合わせた多指システムにも拡張して本発明を適用することができる。この場合、単一の1指のハプティック・デバイスの先端位置を算出する代わりに、すべての指のハプティック・デバイス先端位置を算出し、下式(9)に示すような平均位置cd、あるいは、より一般的には下式(10)に示すような加重平均を操作領域オフセット量の決定に用いる。
上式において、jは指の通し番号で、Nは接続される指の総数あり(jは1〜Nの整数)、rj dは第j指に接続されたハプティック・デバイス16jの先端位置を表し、wjは第j指の重みを表す。すると、上式(5)〜(7)による操作領域オフセット量決定則は、以下のように拡張される。
図8A並びに図8Bには、多指システムに本発明を適用した場合に仮想環境描画115において描画したCG画面の表示例を示している。同図では、仮想空間における仮想オブジェクトのインタラクションと操作領域の移動を行なう様子を、20フレームにわたって示している。ハプティック・デバイスの物理的な操作領域では到達不能な遠方の立方体に手を伸ばし、把持して、CGキャラクタに渡す操作を自然な形で行なうことができる、という点を十分理解されたい。同図に示すように、仮想空間における操作領域Svの原点位置rv0のオフセット量Δrv0に応じて、カメラ・モデルの座標系を併せて移動するようにすることで、指示位置rvすなわち指ポインタをディスプレイ15の表示画面内に常に収容し、仮想環境の操作可能な状況を保つことができるようになる。他方、仮想空間内で原点位置rv0の移動を行なわないときには、エージェントの頭部付近しか触れることができない。
また、上記の多指システムは、片腕だけではなく、双腕にわたっていても問題はない。すなわち、図7に示したハプティック・デバイスを、図9に示すように、ユーザの左右それぞれの手に接続するように構成されたシステムにおいても、すべての指の平均位置若しくは加重平均位置を基に、操作領域オフセット量を、上式(11)〜(13)に従って決定することができ、同様に、自然な形で仮想空間の任意の場所へのアクセスが可能になる。
図10には、双腕の多指システムにおける仮想環境のCG画面表示例を示している。ポインタ位置決定部112は、上式(1)に基づいて、指j毎に、仮想空間内の原点位置rv0を加算して、仮想空間内の指ポインタの位置rv jを決定する。そして、仮想環境描画部115は、図9に示すように、左右それぞれの手の指ポインタ群を表示する。
図11には、双腕システムにおいてエージェントの体の各部に両手で触れたり、遠方の立方体を両手で掴んでCGキャラクタ(エージェント)の目前まで運搬したりする様子を、15フレームにわたって示している。図8と同様に、ハプティック・デバイスの物理的な操作領域では到達不能な遠方の立方体に手を伸ばし、把持して、CGキャラクタに渡す操作を自然な形で行なうことができる。また、仮想空間における操作領域Svの原点位置rv0のオフセット量Δrv0に応じて、カメラ・モデルの座標系を併せて移動するので、各指の指ポインタをディスプレイ15の表示画面内に常に収容し、仮想環境の操作可能な状況を保つことができる。
図12には、図1に示した計算機10において、図3に示した構成の制御プログラムを実行することによって、仮想環境の描画出力並びに力触覚提示を行なうための処理手順をフローチャートの形式で示している。
まず、ハプティック・デバイス位置計測部110において、ハプティック・デバイス16に取り付けられたエンコーダの出力値を基に、順運動学演算によって、ハプティック・デバイス16の先端位置(上式(1)内のrd)を算出する(処理p1)。
次いで、操作領域オフセット量決定部111において、上式(5)〜(7)に従い、ハプティック・デバイス16の原点の仮想空間内での位置rv0 をオフセットさせる(処理p2)。
ハプティック・デバイスの実空間の操作領域Sdは、図5に示すように、中央のインタラクション領域と、周縁付近の移動領域に2分割されている。ハプティック・デバイス16で指示される位置rdがインタラクション領域内にとどまるときには、ユーザ操作は仮想空間における操作領域Sv(当該領域内の仮想オブジェクト)に対するユーザ操作に他ならず、上式(5)で表すように、仮想空間内での位置rv0に対してオフセットを与えない。これに対し、ハプティック・デバイス16で指示される位置rdが移動領域に突入すると、上式(6)又は(7)に従って、移動領域への浸透量に応じて操作領域Svにオフセットを与える。この結果、ハプティック・デバイス自体が持つ機械的な可動範囲は有限ではあるが、無限に広がる仮想空間の任意の位置へのアクセスが可能となる。
次いで、ポインタ位置決定部112において、上式(1)に従って、仮想空間内での指ポインタの位置rvを決定する(処理p3)。
次いで、カメラ位置決定部113において、図4に示したように、カメラ・モデルの座標系から見てハプティック・デバイス16の原点位置が一定位置evにあるように、カメラ座標系の位置を決定する(処理p4)。
カメラ位置決定部113が、仮想空間における操作領域Svの原点位置rv0のオフセット量Δrv0に応じて、カメラ・モデルの座標系を併せて移動するようにすることで、指示位置rvすなわち指ポインタを描画領域内に常に収容し、仮想環境の操作可能な状況を保つことができる。他方、原点位置rv0の移動に連動してカメラ座標系を移動しないと、仮想空間の操作領域Svの移動に伴って指ポインタが描画領域外に取り残され、操作不能な状況になる。
次いで、順動力学演算部102において、力学シミュレーションのための演算を微小時刻分(例えば1ミリ秒)だけ実行し、3次元オブジェクト・データ蓄積部101内の各オブジェクトの位置、姿勢を更新する(処理p5)。
次いで、衝突検出部104において、3次元オブジェクト・データ蓄積部101内のオブジェクト間の衝突を出し、衝突点の集合を作成する(処理p6)。衝突検出には、例えばGJKアルゴリズム(前述)を用いることができる。
次いで、衝突力算出部105において、衝突点に発生する外力を算出し、3次元オブジェクト・データに当該外力を作用させる(処理p7)。
次いで、指先作用力算出部106において、衝突力算出部105で算出した外力のうち、指モデルに作用する力を求める(処理p8)。また、多指システムの場合には各指モデルに作用する力の合力を求める。
次いで、逆動力学演算部107において、動力学補償を考慮しながら、ハプティック・デバイス16の先端で発生するために必要な関節力を算出する(処理p9)。
次いで、関節力制御部108において、逆動力学演算部107で得られた関節力を実現するよう、すべての関節を電流制御する(処理p10)。
上記内容を,十分短い時間刻み(例えば1ミリ秒)毎に実行するのが、図1に示した計算機10上で実施される仮想環境の描画出力並びに力触覚提示処理の概要である。
ここまでの説明では、図4〜5に示すように、仮想空間における操作領域Svの移動として並進運動についてのみ扱ってきたが、勿論、回転運動についても同様に適用することができる。以下では、この点について詳解する。
図2に示したハプティック・デバイスの先端は、基本的にジンバル機構により自由回転できるが、姿勢に関して可動域が存在する。その姿勢可動域についても、内側のインタラクション領域と外側の移動領域を設ける。そして、操作領域オフセット量決定部111は、移動領域への浸透量に応じて、ハプティック・デバイス16の操作原点rdに設けられた座標系を回転するようにすれば、任意の姿勢で任意の場所にアクセスできるようになる。
その際、ハプティック・デバイス位置計測部110を、ハプティック・デバイスの姿勢(3×3行列)Rdも算出するものとし、ポインタ位置決定部112は、下式(14)に示すように、ハプティック・デバイス16の原点位置に設定された座標系の姿勢Rv0をRdに加算して,ポインタの姿勢Rvも決定する。
そして、カメラ位置決定部113は、カメラ・モデル114として、カメラ位置だけでなくカメラ位置も、操作領域オフセット量に併せて変更する。すなわち、ハプティック・デバイス16の原点座標系の回転量と同量だけ、カメラ座標系の姿勢Reを変更する。操作領域オフセット量決定部111は、ハプティック・デバイス16の操作原点座標系の姿勢Rv0も操作する。
図13に示すように、ある姿勢角(正面姿勢)を中心として,内側のインタラクション領域(姿勢角Θ の範囲)と、その外側の移動領域に分ける。姿勢角は、ハプティック・デバイス16の姿勢Rdから周知のオイラー角を抽出することで得られる(但し、図13ではピッチ角についてのみ記載している)。
姿勢角が移動領域に到達すると、移動領域への浸透量に応じてハプティック・デバイス16の操作原点座標系を回転する。実空間上の指示姿勢Rdのピッチ角をγdとすると、上式(5)〜(7)による操作領域オフセット量決定則は、下式(15)〜(17)のように拡張される。但し、Δγv0は、ハプティック・デバイス16の操作原点座標系の姿勢Rv0のピッチ角Θの増分を表す。
カメラ座標系も、図14に示すように、上式(16)、(17)から得られたハプティック・デバイス16の原点の仮想空間内での姿勢変化に応じて、カメラ座標系の姿勢Reも平行移動する。すなわち、カメラ座標系のピッチ角について記載すれは、下式(18)の通りとなる。但し、Δγeはカメラ姿勢Reのピッチ角の増分を表す。
図15には、姿勢に関してもハプティック・デバイス16の操作原点座標系オフセットの処理を追加し、CGキャラクタのさまざまな方向からアクセスした例を示している。ジンバルG1〜G3の可動域は有限であるが、ハプティック・デバイス16の操作原点の姿勢及びカメラ姿勢が自動で変更され、可動域を消耗し尽くすことなく、全周方向からCGキャラクタにアクセスできていることが同図から理解できよう。姿勢に関しても、インタラクション領域内では姿勢のオフセットは発生しないので、ハプティック・デバイス16が本来持つ性能を以って力触覚インタラクションを行なうことができることは言うまでもない。
以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本発明に係る情報入出力装置は、医療やその他の特殊技能の習得、小宇宙や海洋などの仮想環境や、原子炉などの特殊若しくは危険な環境での遠隔作業などを始めとしたさまざまなアプリケーションにおいて、実際に触手できない環境の物体への3次元の力覚や触覚をユーザにフィードバックするために適用することができる。
また、本発明に係る情報入出力装置は、仮想空間の操作領域を移動するための付加的な入力インターフェースを用いず、ユーザが触れたいと思う方向に手を伸ばすという動作のみで仮想空間の操作領域を移動させて、無限に広がる仮想空間の任意の位置へのアクセスを可能にするものであるが、かかる構成は、ハプティック・デバイスのみならず、さまざまなタイプの3次元位置入力デバイスにも適用することができる。
要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、特許請求の範囲を参酌すべきである。
図1は、ハプティック・デバイスを適用したシステムの構成例を示した図である。 図2は、図1に示したシステムで適用することができるハプティック・デバイスの構成例を示した図である。 図3は、ハプティック・デバイスを介して仮想空間の任意の位置にユーザがアクセスし触感を得るために、CPU11上で実行される制御プログラムの構成を模式的に示した図である。 図4は、カメラ座標系から見てハプティック・デバイス16の原点位置が一定位置evにあるように、カメラ座標系の位置を決定する様子(但し、並進運動の場合)を示した図である。 図5は、ハプティック・デバイス16が持つ実空間の操作領域を、当該操作領域の周縁付近の移動領域と、この移動領域よりも内側のインタラクション領域の2領域に分割した様子(但し、並進運動の場合)を示した図である。 図6は、ハプティック・デバイス16の移動領域でのユーザ操作に応じた仮想領域内の原点位置rv0の移動と、これに伴うカメラ座標系の位置reの移動の様子を示した図である。 図7Aは、複数の1指ハプティック・デバイスを組み合わせた多指システムの概観を示した図である。 図7Bは、複数の1指ハプティック・デバイスを組み合わせた多指システムの機能的構成を示した図である。 図8Aは、多指システムに本発明を適用した場合に仮想環境描画115において描画したCG画面の表示例を示した図である。 図8Bは、多指システムに本発明を適用した場合に仮想環境描画115において描画したCG画面の表示例を示した図である。 図9は、双腕にわたる多指システムの概観を示した図である。 図10は、双腕の多指システムにおける仮想環境のCG画面表示例を示した図である。 図11は、双腕システムにおいてエージェントの体の各部に両手で触れたり、遠方の立方体を両手で掴んでCGキャラクタ(エージェント)の目前まで運搬したりする様子を示した図である。 図12は、図1に示した計算機10において、図3に示した構成の制御プログラムを実行することによって、仮想環境の描画出力並びに力触覚提示を行なうための処理手順を示したフローチャートである。 図13は、ハプティック・デバイス16が持つ実空間の操作領域を、当該操作領域の周縁付近の移動領域と、この移動領域よりも内側のインタラクション領域の2領域に分割した様子(但し、回転運動の場合)を示した図である。 図14は、カメラ座標系から見てハプティック・デバイス16の原点位置が一定位置evにあるように、カメラ座標系の位置を決定する様子(但し、回転運動の場合)を示した図である。 図15は、姿勢に関してもハプティック・デバイス16の操作原点座標系オフセットの処理を追加し、CGキャラクタのさまざまな方向からアクセスした例を示した図である。 図16は、シリアル・リンクを用いたペン型のハプティック・デバイスの構成例を示した図である。 図17は、パラレル・リンク構造を用いて3軸力乃至6軸力モーメントの提示を行なうハプティック・デバイスの構成例を示した図である。 図18は、指と遠隔のモータ間をワイヤで接続し、ワイヤを介して力を印加するハプティック・デバイスの構成例を示した図である。 図19は、対向型マニピュレータにハンド型力提示機構を付加するハプティック・デバイスの構成例を示した図である。 図20は、ハプティック・デバイスの実空間における操作領域Sdと、これに対応する仮想空間における操作領域Svを示した図である。 図21は、ハプティック・デバイスの実空間における操作領域Sdに対応する仮想空間の操作領域Svを、オブジェクトBを包含する位置まで移動(平行移動)させる様子を示した図である。
符号の説明
10…計算機
11…CPU
12…RAM
13…HDD
14…サウンド・カード及びスピーカ
15…ビデオ・カード及びディスプレイ
16…ハプティック・デバイス
17…バス
101…3次元オブジェクト・データ蓄積部
102…順動力学演算部
104…衝突検出部
105…衝突力算出部
106…指先作用力算出部
107…逆動力学演算部
108…関節力制御部
110…ハプティック・デバイス位置計測部
111112…ポインタ位置決定部
113…カメラ位置決定部
114…カメラ・モデル
115…仮想環境描画部

Claims (11)

  1. 実空間の所定の操作領域Sd内でユーザが位置を指示する位置入力部と、
    ユーザが前記位置入力部で指示した前記操作領域Sd内の指示位置rdを計測する指示位置計測部と、
    前記の計測された操作領域Sd内の位置rdに基づいて、仮想空間における操作領域Svの原点位置rv0のオフセット量Δrv0を決定する操作領域オフセット量決定部と、
    前記の計測された操作領域Sd内の位置rdと、仮想空間における操作領域Svの原点位置rv0と、前記の決定されたオフセット量Δrv0に基づいて、ユーザが前記位置入力部を介して指示した実空間上の位置に対応する仮想空間上の指示位置rvを決定する指示位置決定部と、
    を具備することを特徴とする情報入出力装置。
  2. 前記位置入力部は、指先又はその他のユーザの身体の一部に当接し、該当接部位の動作に基づく移動量rdを前記の指示位置として入力する、
    ことを特徴とする請求項1に記載の情報入出力装置。
  3. 前記指示位置決定部が決定した仮想空間上の位置rvに応じた力触覚を、前記位置入力部に当接したユーザの身体の一部に対して印加する力触覚提示手段をさらに備える、
    ことを特徴とする請求項2に記載の情報入出力装置。
  4. 前記力触覚提示手段は、
    仮想空間に存在する各オブジェクトが持つ幾何属性並びに力学属性を含む属性情報を蓄積するオブジェクト・データ蓄積部と、
    前記オブジェクト・データ蓄積部に蓄積されている各オブジェクトに対する力学演算を行なうとともに該演算結果に基づいて各オブジェクトの位置及び姿勢を変更する力学演算部と、
    前記オブジェクト・データ蓄積部に蓄積されている各オブジェクト間の衝突事象を検出する衝突検出部と、
    前記衝突検出部で検出された衝突点で作用する力を算出する衝突力算出部と、
    前記衝突力算出部で算出した力に基づいて前記位置入力部に当接したユーザの身体の一部に対して印加すべき作用力を算出する作用力算出手段と、
    前記作用力算出手段により算出された作用力に基づく力触覚を前記位置入力部に当接したユーザの身体の一部に対して印加する力触覚付与手段と、
    を備えることを特徴とする請求項3に記載の情報入出力装置。
  5. 前記位置入力部が実空間において持つ操作領域Sdは、前記操作領域Sdの周縁付近の移動領域と、前記移動領域の内側となるインタラクション領域に分割され、
    前記操作領域オフセット量決定部は、前記の計測された操作領域Sd内の指示位置rdがインタラクション領域又は移動領域のいずれに存在するかを判別し、指示位置rdが前記インタラクション領域内に存在するときには、仮想空間における操作領域Svの原点位置rv0に対してオフセット量Δrv0を与えないが、指示位置rdが前記移動領域内に存在するときには、仮想空間における操作領域Svの原点位置rv0に対して指示位置rdに応じたオフセット量Δrv0を与える、
    ことを特徴とする請求項1又は3のいずれかに記載の情報入出力装置。
  6. ディスプレイと、
    前記操作領域オフセット量決定部が決定したオフセット量Δrv0に応じて仮想空間の状況を描画するためのカメラ・モデルの座標系を移動するカメラ位置決定部と、
    前記カメラ・モデルとして定義される座標系を視点とした仮想空間の状況をレンダリングして前記ディスプレイに表示する仮想環境描画部と、
    をさらに備えることを特徴とする請求項1に記載の情報入出力装置。
  7. ユーザの複数の指jのそれぞれ対応する複数の位置入力部を備え(但し、jは正の整数)、
    前記操作領域オフセット量決定部は、前記の各位置入力部で指示された前記操作領域Sd内の指示位置rjdの平均位置又は加重平均位置に基づいて、仮想空間における操作領域Svの原点位置rv0のオフセット量Δrv0を決定する、
    ことを特徴とする請求項2に記載の情報入出力装置。
  8. 所定の正面姿勢を中心として回転運動が可能なように構成され、実空間の所定の操作領域Sd内の位置としてユーザが姿勢角を指示する位置入力部と、
    ユーザが前記位置入力部で指示した姿勢角Rdを計測する指示位置計測部と、
    前記位置入力部が実空間において持つ操作領域Sdを、前記正面姿勢から姿勢角±Θの範囲内のインタラクション領域と、前記インタラクション領域の外側となる移動領域に分割し、前記の計測された操作領域Sd内の指示姿勢角Rdがインタラクション領域又は移動領域のいずれに存在するかを判別し、指示姿勢角Rdが前記インタラクション領域内に存在するときには、仮想空間における操作領域Svの正面姿勢角rv0に対してオフセット量Δγv0を与えないが、指示姿勢角Rdが前記移動領域内に存在するときには、仮想空間における操作領域Svの正面姿勢角Rv0に対して指示姿勢角Rdに応じたオフセット量Δγv0を与える操作領域オフセット量決定部と、
    前記の計測された操作領域Sd内の指示姿勢角Rdと、仮想空間における操作領域Svの正面姿勢角Rv0と、前記の決定されたオフセット量Δγv0に基づいて、ユーザが前記位置入力部を介して指示した実空間上の位置に対応する仮想空間上の指示姿勢Rvを決定する指示位置決定部と、
    を具備することを特徴とする情報入出力装置。
  9. ディスプレイと、
    前記操作領域オフセット量決定部が決定した指示姿勢Rvのオフセット量Δγv0に応じて仮想空間の状況を描画するためのカメラ・モデルの座標系を移動するカメラ位置決定部と、
    前記カメラ・モデルとして定義される座標系を視点とした仮想空間の状況をレンダリングして前記ディスプレイに表示する仮想環境描画部と、
    をさらに備えることを特徴とする請求項8に記載の情報入出力装置。
  10. 実空間の所定の操作領域Sd内でユーザが位置を指示する位置入力部を介してユーザが指示した前記操作領域Sd内の指示位置rdを取得する指示位置取得ステップと、
    前記の取得された操作領域Sd内の位置rdに基づいて、仮想空間における操作領域Svの原点位置rv0のオフセット量Δrv0を決定する操作領域オフセット量決定ステップと、
    前記の取得された操作領域Sd内の位置rdと、仮想空間における操作領域Svの原点位置rv0と、前記の決定されたオフセット量Δrv0に基づいて、ユーザが前記位置入力部を介して指示した実空間上の位置に対応する仮想空間上の指示位置rvを決定する指示位置決定ステップと、
    を備え、
    前記位置入力部が実空間において持つ操作領域Sdは、前記操作領域Sdの周縁付近の移動領域と、前記移動領域の内側となるインタラクション領域に分割され、
    前記操作領域オフセット量決定ステップでは、前記の計測された操作領域Sd内の指示位置rdがインタラクション領域又は移動領域のいずれに存在するかを判別し、指示位置rdが前記インタラクション領域内に存在するときには、仮想空間における操作領域Svの原点位置rv0に対してオフセット量Δrv0を与えないが、指示位置rdが前記移動領域内に存在するときには、仮想空間における操作領域Svの原点位置rv0に対して指示位置rdに応じたオフセット量Δrv0を与える、
    ことを特徴とする情報入出力方法。
  11. 実空間でのユーザ操作を通じて仮想空間に対する操作を行なうための情報入出力処理をコンピュータ上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、前記コンピュータに対し、
    実空間の所定の操作領域Sd内でユーザが位置を指示する位置入力部を介してユーザが指示した前記操作領域Sd内の指示位置rdを取得する指示位置取得手順と、
    前記の取得された操作領域Sd内の位置rdに基づいて、仮想空間における操作領域Svの原点位置rv0のオフセット量Δrv0を決定する操作領域オフセット量決定手順と、
    前記の取得された操作領域Sd内の位置rdと、仮想空間における操作領域Svの原点位置rv0と、前記の決定されたオフセット量Δrv0に基づいて、ユーザが前記位置入力部を介して指示した実空間上の位置に対応する仮想空間上の指示位置rvを決定する指示位置決定手順と、
    を実行させ、
    前記位置入力部が実空間において持つ操作領域Sdは、前記操作領域Sdの周縁付近の移動領域と、前記移動領域の内側となるインタラクション領域に分割され、
    前記操作領域オフセット量決定手順では、前記の計測された操作領域Sd内の指示位置rdがインタラクション領域又は移動領域のいずれに存在するかを判別し、指示位置rdが前記インタラクション領域内に存在するときには、仮想空間における操作領域Svの原点位置rv0に対してオフセット量Δrv0を与えないが、指示位置rdが前記移動領域内に存在するときには、仮想空間における操作領域Svの原点位置rv0に対して指示位置rdに応じたオフセット量Δrv0を与える、
    ことを特徴とするコンピュータ・プログラム。
JP2008121996A 2008-05-08 2008-05-08 情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラム Expired - Fee Related JP4645678B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008121996A JP4645678B2 (ja) 2008-05-08 2008-05-08 情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラム
US12/436,222 US8648797B2 (en) 2008-05-08 2009-05-06 Information input/output device, information input/output method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008121996A JP4645678B2 (ja) 2008-05-08 2008-05-08 情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JP2009271746A true JP2009271746A (ja) 2009-11-19
JP4645678B2 JP4645678B2 (ja) 2011-03-09

Family

ID=41267893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008121996A Expired - Fee Related JP4645678B2 (ja) 2008-05-08 2008-05-08 情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラム

Country Status (2)

Country Link
US (1) US8648797B2 (ja)
JP (1) JP4645678B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011210239A (ja) * 2010-03-30 2011-10-20 Harman Becker Automotive Systems Gmbh 乗り物の電子デバイスのための乗り物のユーザーインターフェースユニット
JP2011238068A (ja) * 2010-05-11 2011-11-24 Nippon Hoso Kyokai <Nhk> 仮想力覚提示装置及び仮想力覚提示プログラム
JP2015111420A (ja) * 2010-01-07 2015-06-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated 触力覚アクチュエータを使用した3次元の動きのシミュレーション

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8332072B1 (en) 2008-08-22 2012-12-11 Titan Medical Inc. Robotic hand controller
US9424681B2 (en) * 2010-09-09 2016-08-23 Sony Corporation Information processing device, information processing method, and program
WO2012068551A1 (en) * 2010-11-18 2012-05-24 Google Inc. Surfacing off-screen visible objects
JP5799960B2 (ja) * 2010-12-17 2015-10-28 富士通株式会社 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
US20130198625A1 (en) * 2012-01-26 2013-08-01 Thomas G Anderson System For Generating Haptic Feedback and Receiving User Inputs
KR20150001752A (ko) * 2012-04-13 2015-01-06 톰슨 라이센싱 다중 로컬 포스 피드백을 이용하여 전역 6자유도 모션 효과를 렌더링하는 방법
TW201510939A (zh) * 2013-09-05 2015-03-16 Utechzone Co Ltd 動態影像分析系統
FR3014348B1 (fr) * 2013-12-06 2016-01-22 Commissariat Energie Atomique Dispositif de commande a retour d'effort multidirectionnel
KR101726388B1 (ko) * 2015-06-05 2017-04-26 재단법인 실감교류인체감응솔루션연구단 가상 공간의 가상 객체와 인터랙션하는 사용자에게 실제와 유사한 역감을 제공하는 장치
US10456910B2 (en) * 2016-01-14 2019-10-29 Purdue Research Foundation Educational systems comprising programmable controllers and methods of teaching therewith
US20190206134A1 (en) 2016-03-01 2019-07-04 ARIS MD, Inc. Systems and methods for rendering immersive environments
GB2560004B (en) * 2017-02-24 2020-11-25 Sony Interactive Entertainment Inc Virtual reality
CN111506197B (zh) * 2020-04-22 2021-12-03 腾讯科技(深圳)有限公司 运动平台、触觉反馈设备及人机互动系统
US11644375B2 (en) * 2020-09-03 2023-05-09 GM Global Technology Operations LLC Insertion force measurement system
JP7224559B2 (ja) * 2020-12-10 2023-02-17 三菱電機株式会社 遠隔制御マニピュレータシステムおよび遠隔制御支援システム
CN113377028B (zh) * 2021-06-15 2022-11-18 湖南汽车工程职业学院 一种基于vr及5d的动力蓄电池测试教学系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62162479A (ja) * 1986-01-13 1987-07-18 株式会社小松製作所 力感知式マニプレ−タ
JPH1039997A (ja) * 1996-07-18 1998-02-13 Saifasha:Yugen 三次元画像データ・指令入力システム
JPH10334278A (ja) * 1997-05-28 1998-12-18 Fujitsu Ltd 仮想粘土システムおよびそのシミュレーション方法
JPH11513157A (ja) * 1996-06-25 1999-11-09 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ バーチャル環境の対話式ナビゲーション装置
JP2001100906A (ja) * 1999-09-30 2001-04-13 Suzuki Motor Corp 三次元データ表示装置
JP2006503350A (ja) * 2002-08-15 2006-01-26 インターナショナル・ビジネス・マシーンズ・コーポレーション 手の機能が制限された個人用のデータ入力デバイス

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4988981B1 (en) * 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US5143505A (en) * 1991-02-26 1992-09-01 Rutgers University Actuator system for providing force feedback to a dextrous master glove
US5999185A (en) * 1992-03-30 1999-12-07 Kabushiki Kaisha Toshiba Virtual reality control using image, model and control data to manipulate interactions
JP3199130B2 (ja) * 1992-03-31 2001-08-13 パイオニア株式会社 3次元座標入力装置
US5670987A (en) * 1993-09-21 1997-09-23 Kabushiki Kaisha Toshiba Virtual manipulating apparatus and method
US5625576A (en) * 1993-10-01 1997-04-29 Massachusetts Institute Of Technology Force reflecting haptic interface
US5617515A (en) * 1994-07-11 1997-04-01 Dynetics, Inc. Method and apparatus for controlling and programming a robot or other moveable object
US5828813A (en) * 1995-09-07 1998-10-27 California Institute Of Technology Six axis force feedback input device
WO1997020305A1 (en) * 1995-11-30 1997-06-05 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US5880717A (en) * 1997-03-14 1999-03-09 Tritech Microelectronics International, Ltd. Automatic cursor motion control for a touchpad mouse
US6184868B1 (en) * 1998-09-17 2001-02-06 Immersion Corp. Haptic feedback control devices
JP3329443B2 (ja) 1999-05-26 2002-09-30 岐阜大学長 パラレルリンク型力覚入出力装置
JP3409160B2 (ja) * 2000-04-26 2003-05-26 独立行政法人産業技術総合研究所 把握データ入力装置
US6562929B2 (en) * 2000-08-30 2003-05-13 Jsr Corporation Conjugated diene-based rubber and method of producing the same, oil extended rubber and rubber composition containing the same
JP3909230B2 (ja) * 2001-09-04 2007-04-25 アルプス電気株式会社 座標入力装置
US7027031B2 (en) * 2002-02-07 2006-04-11 Gifu University Touch sense interface and method for controlling touch sense interface
US7274355B2 (en) * 2003-04-25 2007-09-25 Oqo, Inc. Blended transfer function for computer pointing devices
US20060284834A1 (en) * 2004-06-29 2006-12-21 Sensable Technologies, Inc. Apparatus and methods for haptic rendering using a haptic camera view

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62162479A (ja) * 1986-01-13 1987-07-18 株式会社小松製作所 力感知式マニプレ−タ
JPH11513157A (ja) * 1996-06-25 1999-11-09 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ バーチャル環境の対話式ナビゲーション装置
JPH1039997A (ja) * 1996-07-18 1998-02-13 Saifasha:Yugen 三次元画像データ・指令入力システム
JPH10334278A (ja) * 1997-05-28 1998-12-18 Fujitsu Ltd 仮想粘土システムおよびそのシミュレーション方法
JP2001100906A (ja) * 1999-09-30 2001-04-13 Suzuki Motor Corp 三次元データ表示装置
JP2006503350A (ja) * 2002-08-15 2006-01-26 インターナショナル・ビジネス・マシーンズ・コーポレーション 手の機能が制限された個人用のデータ入力デバイス

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015111420A (ja) * 2010-01-07 2015-06-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated 触力覚アクチュエータを使用した3次元の動きのシミュレーション
JP2011210239A (ja) * 2010-03-30 2011-10-20 Harman Becker Automotive Systems Gmbh 乗り物の電子デバイスのための乗り物のユーザーインターフェースユニット
JP2011238068A (ja) * 2010-05-11 2011-11-24 Nippon Hoso Kyokai <Nhk> 仮想力覚提示装置及び仮想力覚提示プログラム

Also Published As

Publication number Publication date
US20090282331A1 (en) 2009-11-12
US8648797B2 (en) 2014-02-11
JP4645678B2 (ja) 2011-03-09

Similar Documents

Publication Publication Date Title
JP4645678B2 (ja) 情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラム
JP4930100B2 (ja) 力触覚ディスプレイ、力触覚ディスプレイの制御方法、並びにコンピュータ・プログラム
US8760393B2 (en) Method, apparatus, and article for force feedback based on tension control and tracking through cables
US8138895B2 (en) Force/tactile feedback device
JP4550945B2 (ja) フォース感応触覚インターフェース
JP5364035B2 (ja) 仮想力覚提示装置及び仮想力覚提示プログラム
Frisoli et al. Kinematic design of a two contact points haptic interface for the thumb and index fingers of the hand
JP3742879B2 (ja) ロボットアーム・ハンド操作制御方法、ロボットアーム・ハンド操作制御システム
Grange et al. The delta haptic device
Grange et al. Delta Haptic Device as a nanomanipulator
JP2001100906A (ja) 三次元データ表示装置
JP6088208B2 (ja) 触力覚提示装置
Yanlin et al. Development of new force feedback interface for two-handed 6DOF manipulation SPIDARG-G system
Chou et al. Haptic interaction with virtual environment using an arm type exoskeleton device
Achibet et al. DesktopGlove: A multi-finger force feedback interface separating degrees of freedom between hands
Sofronia et al. Haptic devices in engineering and medicine
JP3534147B2 (ja) 3次元入力用マニピュレータ
JP5115338B2 (ja) 力触覚提示装置
JP6386781B2 (ja) 触力覚提示装置
Pawar et al. Evaluating the influence of haptic force-feedback on 3D selection tasks using natural egocentric gestures
JP2009289179A (ja) 力触覚提示装置
Kawasaki et al. Finger pad force display for hand haptic interface
JP5342354B2 (ja) 力覚提示装置及び力覚提示プログラム
Mihelj et al. Haptic displays
Yoshikawa et al. Multi-fingered bimanual haptic interface with three-dimensional force presentation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4645678

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees