JP3686686B2 - 力覚呈示デバイス、データ入力装置、及びデータ入力デバイス装置 - Google Patents

力覚呈示デバイス、データ入力装置、及びデータ入力デバイス装置 Download PDF

Info

Publication number
JP3686686B2
JP3686686B2 JP33697693A JP33697693A JP3686686B2 JP 3686686 B2 JP3686686 B2 JP 3686686B2 JP 33697693 A JP33697693 A JP 33697693A JP 33697693 A JP33697693 A JP 33697693A JP 3686686 B2 JP3686686 B2 JP 3686686B2
Authority
JP
Japan
Prior art keywords
force
finger
value
data input
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33697693A
Other languages
English (en)
Other versions
JPH07146751A (ja
Inventor
吉朗 土山
正高 尾関
敬三 松井
義照 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP33697693A priority Critical patent/JP3686686B2/ja
Priority to US08/235,948 priority patent/US5555894A/en
Priority to EP94107388A priority patent/EP0626634A3/en
Publication of JPH07146751A publication Critical patent/JPH07146751A/ja
Priority to US08/666,627 priority patent/US5778885A/en
Application granted granted Critical
Publication of JP3686686B2 publication Critical patent/JP3686686B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • A61B5/224Measuring muscular strength
    • A61B5/225Measuring muscular strength of the fingers, e.g. by monitoring hand-grip force
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4528Joints
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05GCONTROL DEVICES OR SYSTEMS INSOFAR AS CHARACTERISED BY MECHANICAL FEATURES ONLY
    • G05G9/00Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously
    • G05G9/02Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only
    • G05G9/04Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously
    • G05G9/047Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks
    • G05G2009/0474Manually-actuated control mechanisms provided with one single controlling member co-operating with two or more controlled members, e.g. selectively, simultaneously the controlling member being movable in different independent ways, movement in each individual way actuating one controlled member only in which movement in two or more ways can occur simultaneously the controlling member being movable by hand about orthogonal axes, e.g. joysticks characterised by means converting mechanical movement into electric signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/015Force feedback applied to a joystick
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/92Computer assisted medical diagnostics
    • Y10S128/925Neural network

Description

【0001】
【産業上の利用分野】
本発明は、計算機内部にあるデータとしての仮想物体を、操作者にあたかも存在するかのように感じさせて、造形作業などを計算機内部で行わせ、製品の使い勝手などを、試作することなく事前に体験することができるもの、あるいは、遠方などにある対象物体を、操作者があたかも手元にあるように感じながら操作できるもの等に適用可能な力覚呈示デバイス、データ入力デバイス、およびデータ入力装置に関するものである。
【0002】
【従来の技術】
図13は、従来の、手指よりの入力方法および画像表示装置による擬似体験装置の構成を示す図である。これは実際には存在していない物体を手指により操作してその使い勝手などを事前に体験するものである。操作者120は、手指の位置データを機械が読み取れるように、情報入力用のシステム手袋110を装着する。情報入力用のシステム手袋110としては、米国V.P.L.Research社(以下、VPL社と称する)のデータグローブなどがある。VPL社のデータグローブは、通常の薄手の手袋に光ファイバを縫いつけて、手指を曲げることにより、光ファイバが曲がって光ファイバの光透過度が変化するを利用して、手指の曲げ角度を検出するものである。このようにして得られた手指の機械的な位置データは、情報処理手段2の内部にある接触力覚計算手段112に送られる。接触力覚計算手段112では、仮想物体形状データ115と、入力された手指の位置を計算して手指と物体との位置関係を計算する。例えば手指が仮想物体の表面あるいは表面より微小に内部にある時には、仮想物体を触っているときであり、触る面が2箇所以上あるときには、仮想物体を持ち上げるなど操作することも可能である。このようにして得られた仮想物体と手指の位置関係は、画像作成手段113を通じて表示手段4で画像として表示され、操作者120に自分の手指と仮想物体との位置関係を知らしめることができる。このようにして、操作者120は仮想物体を手指で操作することが実現できる。
【0003】
このような光ファイバによる位置検出方法は、操作者120の手指および腕の動きを拘束する部分が少なく、広範囲な手指の位置情報を提供できるものである。また、手指そのものの位置や姿勢は、手袋110に搭載した位置・姿勢センサにより検出することができるようになっている。位置・姿勢センサとしては磁気を用いるものの他に超音波を用いるものなどが可能である。また、遠隔操作の場合には、仮想物体ではなく表示手段4を通して実際の物体を操作することにより対応することができる。
【0004】
【発明が解決しようとする課題】
しかしながら、このような従来の装置では、手指の位置情報を検出して仮想物体を操作する場合、操作者は手指の仮想物体対する位置関係を表示手段4から確認する必要があり、人間が一般的に物体を操作するときに使っている力感覚(力覚)を用いることができない。このため、操作者にとっては、仮想物体があたかも存在していてそれを操作するように感じることは困難であった。
【0005】
他方、力覚を呈示する手段として現在提案されているものに、手指に対応した形状を有するマスターマニピュレータを操作者に持たせて、マニピュレータを力制御する方法がいくつか提案されている(岩田ほか:「力感覚に対応した人工現実感−−多次元力感覚帰還装置の開発」第5回ヒューマンイターフェースシンポジウム、1989)。また、佐藤らは、空間に糸を張り、糸の交点を操作させ、糸の張力で力覚を与える方法を提案している(佐藤ほか:「仮想作業空間のためのインターフェース・デバイス−SPIDAR−」信学技法、PRU−88、1989)。しかしながら、いずれも大がかりな装置になってしまうという課題がある。
【0006】
また、VPL社のデータグローブの手袋上に力覚フィードバック機構を追加することや、手指に位置検出付きのモータを取り付けて制御することにより力覚フィードバックを実現することなども可能であるが、手袋や機構部分を装着して初めて使用可能になるので、使用に当たっては手袋や機構部分の装着および脱着という手間が伴ってしまうということが問題となって来る。
【0007】
本発明は、このような従来の種々の装置の課題を考慮し、非装着の手指用力覚呈示装置で手全体に反力を与える、手指の曲げ角度及び力覚を与える、操作簡単な3次元データ入力装置を提供する、手全体の位置を3次元空間の広範囲に移動できる装置を提供することを目的とするものである。
【0008】
【課題を解決するための手段】
第1の本発明(請求項1関連)は、掌によって把握でき、かつ、手により空間を自在に移動できる筐体部分と、
その筐体内部に内蔵された、回転可能あるいは直線運動可能な、少なくとも一個以上の電動機と、
前記筐体部分を把握した際の指を添える部分に設けられた、それぞれの指毎に、複数の変位又は複数の圧力を検知する複数の検知手段とを備え、
データを入力することが出来ることを特徴とする、力覚呈示デバイスである。
【0009】
第2の本発明(請求項1819関連)は、与えようとする力ベクトルに対応する電動機を前記ベクトルの大きさに比例するトルクとなるよう間欠駆動し、間欠駆動において電動機をOFFする期間は前記起動した電動機が停止するまでの期間よりも長い期間とする。
【0010】
第3の本発明(請求項20関連)は、前記ベクトルと対応する電動機を前記ベクトルの大きさに比例するトルクとなるよう起動し、一定距離もしくは角度を移動したのち、極めて低いトルクで前記起動した方向とは逆方向に起動し、前記起動する前の位置もしくは角度となった後に前記電動機を停止する起動逆方向移動停止動作を繰り返す制御手段を設ける。
【0012】
の本発明(請求項3関連)は、第の本発明による力覚呈示デバイスと、入力されたデータを処理する情報処理手段と、画像表示手段を有し、前記画像表示手段には、前記データ入力デバイスに対応する情報として、手指の少なくとも2本の位置、姿勢および曲がりの状況を表示する手段を設ける。
【0016】
の本発明(請求項4、5関連)は、複数軸の力を検出する手段より構成される補助入力手段を設ける。
【0020】
の本発明(請求項6関連)は、多自由度のマニピュレータの先端に掌用のデバイスを搭載し、マニピュレータに印加された力を補助入力として用いるとともに、マニピュレータを制御する手段により、先端に反力を与える。
【0026】
の本発明(請求項7、8関連)は、検出した力の積分値あるいは不完全積分値に基づいて遠隔地あるいは仮想の手指の曲がりを制御する。
【0027】
の本発明(請求項9、10関連)は、検出した力の最大値を略保持した値に基づいて遠隔地あるいは仮想の手指の曲がりを制御する。
【0028】
の本発明(請求項11、13関連)は、把握した際の手指の各関節間の指腹が接触する各部分に、変位又は圧力を検知する検知手段を各々備え、手指の各関節の曲がりなどのデータを入力する。
【0030】
10の本発明(請求項14関連)は、左または右への各指の移動もしくは力を検知させる手段は、その2つの方向の各方向に対して備えた2つの検知手段の検出値の差をもって検出値とする。
【0031】
11の本発明(請求項15)は、検知した変位または圧力に対して、低域通過フィルタを設け、フィルタを経由した値を用いる。
【0033】
12の本発明(請求項12、16、17関連)は、把握した際の手指の各関節間の指腹が接触して与える変位または圧力の検知結果から、最も小さいがゼロではない変位もしくは圧力を検出する検知手段の検出結果の分、もしくは一定以下の変位もしくは圧力を検出しているすべての検知手段の検出結果の分、もしくは、最大の変位もしくは圧力に基づいた一定の変位もしくは圧力を検出しているすべての検出手段の検出結果の分を差し引いた値により、入力するデータとする。
【0038】
【作用】
第1および第2の本発明によって、筐体内部の電動機が起動するときに、把握する手に反力を与えることができ、間欠駆動におけるOFFときには逆の弱い反力が発生するが人間の手には殆ど感じられず、再び起動するときに反力を得ることができ、回転方向の反力を持続して手全体に与えることができる。又、第1の本発明では、手指の掌側の圧力の強弱を検出することにより、強弱に応じて仮想物体をつかんだりする手指の曲げ具合いを操作者の意図に近い力を利用して決定することができる。
【0039】
さらに第3の本発明では、第2の本発明のOFF期間に対応する期間、電動機を逆転させることにより、直線運動型の電動機においても、可動部分が可動範囲の中心に常にもどることが可能になり、可動部分が可動範囲を超えて行き止まりになることなく、直線運動の反力を持続して手全体に与えることができる。
【0041】
の本発明では、第の本発明の力覚呈示デバイスを用いて、力覚呈示デバイスに与える指を曲げようとする意図が、実際の指の曲がりとして表示手段に表示されるので、手指の曲げようとする力の強弱を利用して表示画面内部にある物体をつかんだり、つまんだりすることが可能になる。
【0045】
の本発明では、手の位置や姿勢を補助入力手段における力入力を用いることにより、掌で握る力覚呈示デバイスの大きな移動を伴わずに計算機内部での位置や姿勢を広範囲に変化させることができる。
【0049】
の本発明では、マニピューレータの制御手段により手首全体への反力が発生させられる。
【0053】
および第の本発明では、手指による力が積分手段あるいは最大値保持手段により保持されるので、大きな力を連続して出すことなく、仮想あるいは遠隔の物体の把握を継続することができる。
【0054】
の本発明では、各関節の曲がりに対応した検出手段により、手指の各関節の曲がりに相当する意志を検出することができる。
【0056】
10の本発明では、左右の検出結果の差を求めることにより、指が小さくて2つの検出手段から力もしくは変位が検出できないときと、指が大きくて2つの検出手段から同時に力もしくは変位が検出される場合でも同じ検出結果を得ることができる。
【0057】
11の本発明では、手指のふるえや力のムラなどの細かい変動が低域通過フィルタにより取り除かれる。
【0059】
12の本発明では、意図と関連しないがデバイス把持に関連している力は相対的に小さいため、その力の影響を取り除くことができ、手指を曲げようとする意図に関連する情報のみが取り出される。
【0063】
【実施例】
以下、本発明の実施例について図面を参照して説明する。
【0064】
図1は、本発明の一実施例における力覚呈示デバイスと情報処理手段と表示手段との関連を示す図である。力覚を受ける装置操作者は、力覚呈示デバイス1を掌で持つ。力覚呈示デバイス1は情報処理手段2とケーブル3にて接続されている。力覚を呈示するのに関連する情報は、画像情報として、表示手段4に表示される。操作者はこの表示画面を見ることにより、得られる力覚がどのような原因によるものかを容易に知ることができる。なお、力覚呈示デバイス1が3次元空間のどの位置にあるかは、位置検出手段(図示せず)が力覚呈示デバイス1に搭載されおり、情報処理手段2は随時その情報を知ることができるようになっている。操作者が力覚呈示デバイス1を動かすことにより、反力を与えることが必要かどうかが情報処理手段2により計算され、情報処理手段2から力覚呈示デバイス1に必要な反力情報を返す。力覚呈示デバイス1では、反力情報にもとづき、内蔵する反力発生手段により、反力を発生する。反力の発生の基本となる原理は、力覚呈示デバイス1の内部に設置された電動機による加速度を用いるものである。以下、上述したような第1、第2、第3の本発明の具体例を、図2、図3、図4、図5の順に説明する。
【0065】
図2は、回転方向の力覚を呈示する場合の回路を説明するためのブロック図であり、図3はその制御動作原理を示す信号波形図である。情報処理手段2にて決定された必要な力覚情報は、駆動制御手段11に入力される。駆動制御手段11では、電動機14の駆動回路12およびスイッチ回路13に指令信号を入力する。駆動回路12はスイッチ回路13を経由して、電動機14に接続されているので、電動機のON/OFFの駆動が可能になるものである。次に図3を用いて駆動制御の方法及び動作原理を説明する。図3の(a)の信号は情報処理手段2から出力された必要な反力情報を示すものである。すなわち、時刻t1からt2までは反力「大」の指令が出力され、時刻t2からt3までは反力「なし」の指令が出力され、時刻t3からt4までは反力「小」の指令が出力されているものとする。(b)の信号は駆動制御手段11の出力信号波形である。駆動制御手段11では、反力「大」の指令に対して、電動機14を間欠的に駆動する。ONのときの駆動レベルは反力に対応するよう大きい駆動レベルとする。ONパルスの時間の幅は、電動機14が起動でき、かつ速度が加速状態である時間幅に設定しておく。OFFの時間の幅は、起動した電動機14が停止するまでの時間よりも長く設定しておく。一方、反力「なし」の場合は駆動制御手段11は電動機14の駆動指令をOFFにしたままである。また、反力「小」の場合には駆動制御手段11は、あまり大きくないONパルスにより間欠駆動する。同図の(c)は(b)の駆動指令に対応する電動機14の速度応答を示した図である。ONパルスが加わると電動機14は起動し、急速に速度が上昇する。速度が飽和しないうちにONパルスはOFFされるので、電動機14の速度は減少し始め、やがて停止する。反力が大きい場合は起動のときの速度の上昇が速く、反力が小さい場合には起動のときの速度の上昇が比較的遅くなる。同図(d)は電動機14の加速度応答を示したものである。ONパルスが印加されているときには正方向の比較的大きな加速度が得られており、OFF期間中の停止してしまうまでは逆方向の比較的小さい加速度が得られる。またONパルスの大きさにより加速度の大きさに差ができる。一方、ある物体を把持している場合、その物体がある運動をはじめようとして加速度を生じた場合、把持している側には、加速度と物体の質量をかけたものが反力として得られる。したがって、同図(d)のような加速度を生じさせた場合には、操作者は同図(d)に示す方向とは逆の反力を手に感じることができる。さらに、人間の感覚は非線形性があり、小さい刺激に対しては殆ど感じないという、検知限界があり、OFF期間の加速度は検知できない。したがって、ON期間に感じた加速度だけを反力として感じることができる。
【0066】
図4および図5は、直線方向の反力に関して、回転方向と同様に反力を生じさせる場合の回路構成および制御動作原理を示す信号波形図である。直線方向の移動の場合は移動範囲が有限であり、回転方向の場合と同じ制御方法では連続して反力を発生させることができない。図4において、情報処理手段2より出力された反力情報はプロフィル変換手段21に入力される。プロフィル変換手段21では反力情報に対応する位置制御指令を出力する。位置制御指令は比較回路22、駆動回路23、直進電動機26、位置検出器25、位置検出回路24よりなる位置制御回路に入力されることにより、位置制御指令通りに直進電動機26が動作する。図5は、回転方向の反力と同様に、図4で示した回路の制御動作をしめす信号波形図である。波形(e)は目標反力(a)に対するプロフィル変換手段21による位置指令信号の波形を示したものである。プロフィル変換手段21は、反力を発生する必要のあるときには、急激に移動したのち徐々に元の位置に戻すような指令を出力する。急激に移動するときの移動量は必要な反力の大きさに対応している。波形(f)は位置指令に対する直進電動機26の速度を示すものである。同様に波形(g)は加速度を示している。波形(g)において比較的大きい加速度が間欠的に得られており、それ以外のときには小さい加速度が得られている。大きい方の加速度は操作者が検知できるものであり、小さい方の加速度は操作者が検知できる限界を下回っているものである。このため、操作者は、反力を必要とする方向のみに反力を感じることができる。
【0067】
以上、図2、図3、図4、図5で説明した方法により、力覚呈示デバイス1に対して回転方向、また直線方向の反力感を与えることができる。なお、図では説明しなかったが、実際の反力を総て表現するには回転方向で3方向、直線方向でも3方向必要であるが、それを実現するには、これらの方向に対応する電動機を1つのデバイス内に搭載することにより可能となる。
【0068】
次に、第の本発明の力覚呈示デバイスの一実施例である、各手指の曲がりを入力する部分について説明する。図6はその斜視図である。図1の力覚呈示デバイスと兼用可能な、データ入力デバイス30はケーブル3により、情報処理手段2と接続され、情報処理手段2は表示手段4と接続されている。操作者はデータ入力デバイス30を掌でおおうように把持する。このとき、人差指および中指の先端部分はデータ入力デバイス30の表面上の窪み34、33の上に添えられる。窪み33、34には、圧力センサ31a,31b,31c,31d,31e、32a,32b,32c,32d,32eが搭載されており、指の押す力を検出することができるようになっている。たとえば右手で把持するとして人差指の場合、窪み34に指の腹が添えられ、指を曲げようとする力は圧力センサ32dで検出することができる。また、指を前にずらそうとする力は圧力センサ32aで検出でき、指を手前に戻そうとする力は圧力センサ32eで検出でき、指を右にずらそうとする力は圧力センサ32bで検出でき、指を左にずらそうとする力は圧力センサ32cで検出することができる。圧力センサとしては感圧式の導電ゴムなどが可能である。このようにして検出された指の力は、情報処理手段2に送られ、表示手段4による表示で確認することにより、例えば複数のポインティングデバイスによる複数点の位置情報と等価な情報として用いられる。また、指の力の情報を、遠隔地や仮想物体を操作するための手指あるいは手指に相当する物の曲げ角度として用いることができる。
図7は図6で説明したデータ入力デバイス30を添えられる指と直行方向、すなわち窪みの長手方向とは直角に切った断面図である。窪み34は空白で表示されている。また、圧力センサは右から32c,32d,32bが描かれている。また、圧力センサは指の腹に直接当たらないようにカバー36で被われている。指による圧力の変化は増幅回路35c,35d,35bを経て、情報処理手段2へ送られる。
【0069】
なお、図9および図10での実施例では指の腹の部分に対して全ての方向の圧力を検出し、同様に全ての方向に対して反力を生じることができる事例で説明しているが、指の押す方向のみの検出および制御することができるデバイスとすることも容易に考えられることである。また、圧力の検出に圧力センサを用いる例で説明しているが、駆動軸42b,42c,42dへの駆動負荷より指が押している力を計算で求める方法でも可能である。また、図6では指の先端部分の腹の部分のみの検出および制御ができる場合を記述しているが、それ以外の指部分の圧力検出および制御も同様の方法で可能であることは明白である。
【0070】
図8は、第の本発明であるデータ入力装置の一実施例を示す斜視図である。図6、図7で説明したデータ入力デバイス30を掌で把持して操作する。データ入力デバイス30に入力された手指の腹の圧力に基づく手指の曲げ意図はケーブル3を通して情報処理手段2に送られて仮想の手指の曲げ角度などに変換される。仮想の手指の曲げ角度は表示手段4により、画面の中で仮想物体40に示すごとく、手指の形状そのままに表示される。このとき、仮想物体41との相互の位置関係も画像として表示されている。操作者はこの表示を見ながらデータ入力デバイスの操作を行うため、容易に仮想物体41の操作が実現できる。なお、図8で用いたデータ入力デバイスには、手の空間の位置及び姿勢を検知する検出器が必要であるが、その形状や取り付け方法については、従来公知であるので、図8ではその具体記述は省略している。
【0071】
図9は、他の一実施例である、データ入力デバイス30の指に反力を与える部分を示した構成断面図である。指の腹が入る窪み34に対して、図7と同様に圧力検出センサ32c,32d,32bを設ける。各圧力センサは可動部分41c、41d,42bに搭載されており、駆動軸42c,42d,42bを回転させることによりピニオン歯車とラック歯車の関係により、圧力センサを指の当たる方向に移動制御することができる。図9では、駆動方法として回転系の駆動方法で例を示したが、ボイスコイルモータなどによる直進型の電動機を用いて可動部分41c,41d,41bを駆動することなども可能であることは明白である。また圧力センサの代わりに変位検知手段でも可能である。
【0072】
図10は、他の一実施例である制御系の構成を示した回路ブロック図である。圧力センサの検出した圧力情報は増幅器35c,35d,35bを経由して情報処理手段2へ送られると共に、比較制御手段45c,45d,45bに送られ、情報処理手段2より送られてきた目標反力値が得られるよう比較制御処理が行われる。比較制御手段45c,45d,45bの出力は駆動軸42c,42d,42bに送られることにより、目標値通りの反力が得られるよう制御される。
【0073】
以上、手指に反力を与える構成および制御方法については、図9および図10を用いて説明したが、簡単な方法としては、反力を与える代わりに手指が仮想物体に接触したことを、振動を用いて認知させる方法も考えられる。この場合は、図9において駆動軸42c,42d,42bを電動機で振動させることなどにより容易に実現することができる。
【0074】
また、上記実施例では、電動機として直流電動機を用いて説明したが、電磁気力による電動機である必要はなく、例えば圧電素子の振動を利用したいわゆる超音波モータなどでも同様のことが可能である。
【0075】
他の一実施例について、再び図8を用いて説明する。図8はデータ入力装置を使用している一例を示す図でもある。図9、図10で説明したデータ入力デバイス(ここでは力覚呈示デバイス)30を掌で把持して操作する。力覚呈示デバイス30に入力された手指の腹の圧力に基づく手指の曲げ意図はケーブル3を通して情報処理手段2に送られて仮想の手指の曲げ角度などに変換される。仮想の手指の曲げ角度は表示手段4により、画面の中で仮想物体40に示すごとく、手指の形状そのままに表示される。このとき、仮想物体41との相互の位置関係も画像として表示されている。画面上での手指の位置が仮想物体41に当たっている場合は、情報処理手段2は画面を表示しているわけであるので、画面上で指の位置が仮想物体41に接触していることは容易に知ることができる。このとき情報処理手段2は力覚呈示デバイス30に対して反力を大きく与えるように指示を送る。力覚呈示デバイス30では手の指に反力を与えるので操作者は容易に手指の先が仮想物体41に当たっていることを知ることができ、かつ、表示手段4からの画像出力を併せて知ることができるので、より高度な作業が実現できる。例えば、仮想物体41が剛体ではなく、粘土などの弾塑性体の場合などには微妙な変形作業などが可能になる。
【0076】
図11は、第5の本発明の一実施例および他の一実施例である、補助入力手段を共通の筐体上に設けた場合の構成を示した斜視図である。図11においては、図6で説明したデータ入力デバイス30と補助入力手段50、51、52を共通の筐体53上に搭載しているものである。補助入力手段は、操作者がつかむグリップ50と多軸力センサ52とその間を結ぶレバーアーム51で構成されている。操作者は右手の掌をデータ入力デバイス30の上にのせ、左手で補助入力手段のレバーアーム51及びグリップ50をつかんで使用する。表示手段4内にある仮想環境の中で手の位置を移動しようとするとき、補助入力手段のレバーアーム51を対応する方向に操作する。レバーアーム51を縦横斜めあるいは回転などの方向に操作しようとすると、多軸力センサ52で対応する方向の力を検出することができる。操作者が与える力の方向と表示手段4内部の手を移動させようとする方向は一致しているので、力の情報をもって情報処理手段2により表示手段4における手の位置を変更させることができる。また、力を加えた時に一定量を移動するように設定することで、力を加える時間を長くすることにより無限に大きな仮想空間を手が移動することが可能になる(多軸力センサ52の具体的な原理や構成については、”緒方ほか「力覚センサ」日本ロボット学会誌Vol.6,No.9,pp.759〜765、1991” に解説されている)。このようにすることにより、左手で補助入力用のレバーアーム51を操作するときには、右手が入力デバイス全体を支持固定する役割を果たし、逆に、右手でものをつかもうとして掌に力を入れたときには、左手が入力デバイス全体を支持固定する役割を果たす。このため、操作者は、入力デバイス全体が小型軽量であっても操作が非常に楽にできる。
【0077】
図12は、他の一実施例であり、補助入力手段とデータ入力デバイス部分が図11とは別の位置関係によるものの斜視図である。補助入力手段はレバーアーム51および多軸力センサ52より構成されており、図11での例におけるグリップ50の位置にデータ入力デバイス部分(あるいは力覚呈示デバイス部分)30を固定しているものである。このようにすることにより、操作者は片手のみで補助入力も同時に可能になるものである。具体的には、右手の掌でデータ入力デバイス部分(あるいは力覚呈示デバイス部分)30を握りながら、移動させたい方向をめざしてレバーアーム51を通して力をかけることにより、表示画面の中で手指を無限の距離にまで移動させることが可能になる。特に図12の場合には、力をかける操作は総て片方の手で可能であるので、もう一方の手で入力デバイス全体を支持固定することが可能になり、たとえ入力デバイス全体が小型軽量であっても操作が非常に楽にできる。
【0078】
なお、図11および図12では、補助入力手段とデータ入力デバイスとは一体になった例を示したが、例えば図11において、データ入力デバイス30を取り外し、掌でつかんで持ち上げることにより、図8に示すような操作をすることも容易に考えられることである。
【0079】
次に図14、図15、図16を用いてその他の実施例を説明する。図14はデータ入力デバイスあるいは力覚呈示デバイス30が円筒形の場合の把持状況を示す斜視図である。図15はデータ入力デバイスあるいは力覚呈示デバイス30が球面形の場合の把持状況を示す斜視図である。図16は掌における2つの形状の場合の接触面を示す斜視図である。図14に示すように円筒形の場合、親指とその他の指が対向するように把持する。また、球面形の場合は半球面を覆うように把持する。いずれの場合も掌でデバイス30を把握しているが、円筒形の場合は親指と他の指とが対向しているためデバイス30の円筒面を掌部分が覆うように把持できる。一方、球面形の場合には親指と他の指との対向性が低いため、デバイス30を掌のみで覆うように把持することが難しくなり、手指により把持を行う必要性が高くなる。さらに、たとえ掌で把握ができるとしても、掌で把握に対応できる面積は図16に示すように右上がり斜線のハッチングで示した円筒形の場合の接触面に対して、球面形の場合の接触面は交差線のハッチングで示した部分になるために狭くなり、摩擦の点でも円筒形が有利である。なお、ここでは球面形で説明しているが、半球面形も球面形と同様の把持方法になるので、本実施例の内容は影響を受けない。また、図14では説明を平易にするため、指を添えるためのくぼみや圧力センサを省略しているが、図6の結果からなどから明白であることはいうまでもない。
【0080】
次に、図17を用いて第の本発明を説明する。図17において、マニピュレータ60の先端にデータ入力デバイスもしくは力覚呈示デバイス30を搭載する。操作者120はデバイス30を把持し、表示手段4を見ながら作業を行う。手首全体の位置の移動はマニピュレータに拘束されながら行う。手首全体の位置はマニピュレータ60の各関節61a、61b、61cの角度を用いて情報処理手段2により計算することができる。計算結果は表示手段4を介して操作者120にもフィードバックされる。さらに情報処理手段2はマニピュレータ60に対して、拘束制御を行う。拘束制御は必要に応じて、力制御、コンプライアンス制御、位置制御が選択される。これにより、マニピュレータ60の手先に搭載した入力デバイス30を介して操作者120に反力を与えることが可能になる。なお、図17では、3つの関節を有するマニピュレータで説明したが、本発明の実施は関節数を限定する必要はなく、1関節のマニピュレータから無限の関節数のマニピュレータにも適用できることは明白である。
【0081】
図18は他の一実施例を示す構成断面図である。手指90は柔軟な筐体(図示せず)を経由して半円筒形の板梁84に搭載されている圧力センサ85を押している。板梁84は指90の押しによりバネ動作を行う。板梁84はその両端をギア83aおよび83bで固定されており、ギア83a、83bの回転動作により弦の長さが可変できるようになっている。ギア83a、83bをモータ82a、82bにより駆動して弦を長くすると手指90は下に押しやすくなり、かつバネも柔らかくなる。逆に弦を短くすると、手指90は上に押し戻されるとともにバネとしては硬くなる。このようにして、手指90に対して柔らかさ(コンプライアンス)を可変することができる。制御回路80は、目標コンプライアンスに対して、必要な位置を算出し、モータ82a,82bの位置制御を行うものである。
【0082】
図19及び図20は、実施例の動作原理を示す波形図である。第15の本発明を実施するためには図18で説明した構成が前提となる。図19の波形は、押し戻す方向に反力感を与えるための目標コンプライアンスの設定方法を示す波形図であり、図20の波形は引き込む方向に反力感を与えるための目標コンプライアンスの設定方法を示す波形図である。動作原理は同じであるので、図19の場合を例にとって説明する。図19の波形は目標コンプライアンスを急激に増加させ、ゆっくりと元に戻す動作を繰り返すものである。このようにすることにより、第1の本発明で説明したように、人間の感覚の非線形により急激な部分の変化だけが感じられるので、硬くなっていくように感じる。実際の手指はある力をもって図18の板梁84を押しているので、硬くなった分だけ押し戻されるので、押し戻されたように反力を感じることになる。
【0083】
図21は、その他の一実施例を示す構成斜視図である。デバイス30を把持している状態において、把持に関連しない小指で操作可能なスイッチ71を設けている。これまで説明した本発明によると、手指で遠隔地や仮想の物体を把持しようとすると、手指の曲げ方向に一定の力を与え続ける必要があり、途中で何か他の動作をすることができない。本実施例はこれを可能にするものである。すなわち、動作の途中でスイッチ71を押すことにより、手指の曲げ情報をそのままにした状態で他の動作を行うことができるものである。スイッチ71の入力に基づく判断処理は情報処理手段2(図示せず)で行うことが容易に実現可能である。また、スイッチ71をONしておけば、手指が力を出し続ける必要もなくなり、手指の疲労も防ぐことができる。
【0084】
図22は類似の考えに基づいた別実施例の動作の一例の説明を行うための斜視図である。同様のスイッチ71により、手首全体の位置を固定することができるものである。図22において、デバイス30を把持した手首全体を紙面右上方向および反対方向の矢印群(A)(B)(C)の方向に順次往復移動動作を行うものとする。このとき矢印(A)(C)の方向に移動するときはスイッチ71をOFF状態にし、矢印(B)の方向に移動するときにはスイッチ71をON状態にするものとする。したがって、スイッチ71がONのときには手首の位置姿勢の変化が入力されないようにしておくことにより、矢印(A)(C)の移動だけを入力することができる。このような動作を繰り返すことにより、腕での可動範囲を超えた位置の指定が可能になる。また、スイッチ71をONすることにより、腕を空間の特定位置に固定しておく必要がなくなり、腕の疲労も防ぐことができる。
【0085】
図23はさらに別の実施例の一実施例を示す斜視構成図である。基本的な構成は、他の一実施例として説明した図12の構成に類似しているが、図23では、デバイス部分の形状を円筒形の場合を示しており、本実施例の必須用件であるスイッチ71が設けられている。デバイス30を把持し、把持した手首全体により補助入力手段となる多軸力センサ52に力を加える。スイッチ71はデバイス30を把持していない手によって操作することができる。スイッチ71の操作により、情報処理手段2(図示せず)はこれまで説明した機能を実現することができる。
【0086】
なお、これまでの実施例の説明で用いたスイッチはそれぞれ1つずつであったが、それぞれに対応するスイッチをそれぞれ用意することも可能であり、あるいはどれか一つあるいは二つの発明に対応するスイッチのみを搭載することも可能である。
【0087】
図24及び図25は第の本発明を説明するための図である。図24は力情報を指の曲がりなどの位置情報に変換するための回路ブロック図であり、図25はその動作結果を示す波形図である。図24において、力−電圧変換器75により電圧情報に変換された力情報(圧力センサ出力)はIC1回路、抵抗R1に接続されている。IC1回路は比較回路であり、力情報と参照電圧Vrefとを比較する。力情報が小さいときにはスイッチSWをONさせ、大きいときにはOFFさせる。スイッチSWがOFFのときには、抵抗R1、コンデンサC1、IC2回路により反転積分回路が構成されており、力情報を反転積分し、IC3回路に反転積分結果を入力する。IC3回路は差動回路であり、参照電圧Vrefを基準として電圧を反転させるものであり、非反転積分結果を得るものである。参照電圧Vrefは大きい力かどうかを判別するためのしきい値近傍に選んでおく。一方、スイッチSWがONのときには、IC2回路、抵抗R1、抵抗R2により反転回路が構成され、反転結果がIC3回路に送られる。すなわち図24の回路は、力情報が参照電圧より大きいときには積分を行い、小さいときにはそのままの出力を得るものである。図25にその動作波形を示す。図で力情報は実線で示し、出力は一点鎖線で示している。図の実線に示すような力情報が入力された場合、参照電圧Vrefよりも小さい場合は出力は同じになり、参照電圧Vrefよりも大きいときには一点鎖線に示すように積分動作を行っている。このような手段を用いることにより、大きい力を出し続ける必要がなくなり、手指の疲労を防ぐことができるものである。
【0088】
図26及び図27は第の本発明の一実施例を説明するための図である。図26は力情報を指の曲がりなどの位置情報に変換するための回路ブロック図であり、図27はその動作結果を示す波形図である。図26において、力−電圧変換器75により電圧情報に変換された力情報(圧力センサ出力)はIC回路、ダイオードD、抵抗R2に接続されている。ダイオードD、コンデンサC、抵抗R1は最大値保持回路を構成しており、入力電圧が低くなった場合には、コンデンサCの電荷によりしばらく保持される。コンデンサCの電荷は抵抗R1によりゆっくりと放電される。ICは比較回路であり、力情報と参照電圧Vrefとを比較し、その結果でスイッチSWの開閉を制御する。参照電圧は第の本発明での説明と同様にして設定しておく。力情報が参照電圧Vrefよりも大きいときにはスイッチSWはOFFであり、参照電圧よりも低い場合にはスイッチSWがONするようにする。スイッチSWがONのときには出力電圧が抵抗R2を介して力情報に接続されるので、出力はほぼ力情報に等しくなる。すなわち、図26の回路は、力情報が参照電圧Vrefより大きいときには力情報の最大値を略保持する動作を行い、参照電圧Vrefよりも小さいときには出力はほぼ力情報に等しくなるように動作するものである。図27にその動作波形を示す。図で力情報は実線で示し、出力は一点鎖線で示している。図の実線に示すような力情報が入力された場合、参照電圧Vrefよりも小さい場合は出力は同じになり、参照電圧Vrefよりも大きいときには最大値保持動作を行っている。このような手段を用いることにより、大きい力を出し続ける必要がなくなり、手指の疲労を防ぐことができるものである。
【0089】
図28は、第の本発明の一実施例を示す斜視図である。説明を簡単にするため、中指、薬指、小指を省略し、デバイス30を親指と人差し指で把持している図としている。すなわち、デバイス30を把持している状況において、親指の先端関節から先の部分で圧力センサ131aを押し、次の部分で圧力センサ131bを押すようになっている。また、同様に人差し指においても圧力センサ132a、132b、132cが当たるように設計されている。従って、親指の先端の関節を曲げようとする意図は圧力センサ131aで検出でき、親指の次の関節を曲げようとする意図は圧力センサ131bで検出することができる。同様にして、人差し指の先端の関節を曲げようとする意図は、圧力センサ132aで検出することができ、次の関節を曲げようとする意図は、圧力センサ132bで検出することができる。掌に最も近い関節を曲げようとする意図は圧力センサ132cで検出することができる。このようにしてすべての指の各関節を掌の方に曲げようとする意図は、デバイス30の表面に対応して設けた圧力センサにより検出することができる。一方、指のもうひとつの自由度である、掌の面内方向に動かそうとする意図は、指の腹方向に対して左右の動きとなるので、図6に示したように指の腹方向の左右に圧力センサを32b、32cのように設けることにより検出することができる。
【0090】
図29は別の一実施例を示す、デバイス30を把持している状態の斜視図(a)及び、一部の断面図(b)である。同図(a)において、把持されている円筒形デバイス30の両端はフランジ部分を有する半円筒形をネジ126で結合させたものになっている。すなわち、両端部分の断面図は同図(b)のようになっている。また、実際の掌で把持される区間も、2つの半円筒形を結合させたものになっている。その接続は例えば、2つの半円筒形のすきまを弾性体あるいは弾塑性体125を介して結合させておくことにより実現できる。ここでネジ126を締めることにより、円筒形の直径は小さくなり、ネジ126を緩めることにより円筒形の直径は大きくなる。したがって、手の大きい人はネジを緩めることにより直径を大きくして握りやすくして用い、子供のように手の小さい人はネジを締めることにより直径を小さくして握り易くして用いることができる。
【0091】
次に図30、図31、図32を用いて第10の本発明の一実施例を説明する。図30は図7の一部と同様のデバイス30の一部の断面図である。同図(a)は指90が小さいときの状況を示しており、同図(b)は指90が大きいときの状況を示している。同図(a)に示すように、指90が小さい場合には、指の左右に動かそうとする意図を検出する圧力センサ32bおよび32cのどちらにも圧力がかからない状態が存在し、逆に同図(b)に示すように指90が大きい場合には、圧力センサ32bおよび32cのどちらにも圧力がかかっている状態になってしまう。
【0092】
図31は、図30の状態における圧力センサ32b、32cの検出結果を示すものであり横軸xは指を曲げようとする力の大きさであり、右側に正の符号をとっている。図30と同様に図31(a)は指90が小さい場合の検出結果であり、同図(b)は指90が大きい場合の検出結果である。同図(a)に示すように指90が小さいと圧力センサ32b、32cとの間にすきまができているので、力xが小さいときには検出できず、力xがx1より大きくなってはじめてセンサ32は力を検出する。同様に力xがx2(負の値)より大きいときにはセンサ32bはすきまのため検出することができず、x2より小さくなって検出することが可能になる。同図(b)では、指90が大きいので2つの圧力センサ32b,32cに常に圧力を加えていることになる。指は多少変形してこの形状に沿うものの、力を加えない方向にも常にf1の力が加わってしまう。このため、指の大きさにより圧力センサ32b,32cで検出される値は異なってしまう。
【0093】
図32はこの影響を回避するための回路ブロック図である。すなわち指を左右に移動しようとする意図を検出する圧力センサ32b,32cの検出結果を比較手段140にて比較することにより指の左右方向への曲がり情報を得るものである。指が小さいときに、左右方向に曲げる意図がない場合、2つの圧力センサ32b,32cの出力はともにゼロであり、比較手段140により比較されてもゼロのままである。一方指が大きいときには、指を曲げる意図がない場合には2つの圧力センサ32b,32cの出力値はともに同じ値になるので、比較手段140による比較結果もゼロになる。また、指を曲げようとする意図がある場合には、2つの圧力センサ32b,32cのどちらか一方があきらかに大きい力を受けるので、2つのセンサ出力を比較することができ、指の曲がり情報とすることができる。すなわち、指を左右に曲げようとする意図を指の大きさに左右されずに得ることができる。
【0094】
図33は、第11の本発明の一実施例を示すものである。すでに説明したように指を動かす意図を検出するための圧力センサ132は、指を曲げようとする力を検出するため、指のふるえや力のムラなども検出してしまう。このような不要な情報を含んだ意図情報は低域通過フィルタ111に入力される。低域通過フィルタ111では、ふるえなどの変化の速い成分を減衰させる。低域通過フィルタ111を経由した情報は、不感帯演算手段112に送られる。不感帯演算手段112では、微少な値には反応しない処理を行う。これにより、意図とは関連しない、他の指を曲げようとしているとき、その影響が隣の指に現れる場合などのように、無意識で小さい力を与えている場合の影響を取り除くことができる。図33では第4および第25の発明の実施例をひとつにして説明したが、低域通過フィルタ111あるいは不感帯演算手段112のみでも一定の効果を得ることができることはいうまでもない。なお、低域通過フィルタ111と不感帯演算手段112の順番を逆にすると、手のふるえなどの大小により不感帯演算手段112の出力結果の平均値が変化するので好ましくない。
【0095】
図34は、これから述べようとする第12の本発明に関連する前提条件を示しているものであり、デバイス30を把握している状態を示す斜視図である。デバイス30は円筒型であり、図34は親指および人差し指による把持部分の断面になっている。図34において、親指の先端関節を曲げようとする意図は圧力センサ131aで検出され、次の関節を曲げようとする意図は圧力センサ131bで検出される。同様に人差し指の先端の関節を曲げようとする意図は圧力センサ132aで検出され、次の関節を曲げようとする意図は圧力センサ132bで検出され、付け根の関節を曲げようとする意図は圧力センサ132cで検出される。同図においては、圧力センサ132aには力がかかっていない状態を示している。また、デバイス30を把持するために親指と人差し指との間の部分130でも圧力を与えていることがある。図35はデバイスを把持している状態における各圧力の大きさおよび方向を示したものである。図35において、圧力センサ131aでの力をF131aとし、圧力センサ131bでの力をF131bとし、圧力センサ132bでの力をF132b、圧力センサ132cでの力をF132cとしている。圧力センサ132aでの力はゼロであるので図35には現れていない。なお、親指と人差し指の間の部分130での力も、デバイス30の把持そのもののための力とみなし、ゼロとする。図35において、4つの力F131a,F131b,F132b,F132cはすべてデバイス30の円筒の原点に向かうベクトル量であり、デバイス30は把持されて止まっているため、その合成ベクトル(ベクトルの総和)はゼロである。すなわち、図35において、力F131aの方向とそれに直交する方向の成分に分解してF131bx,F131by,F132bx,F132by,F132cx,F132cyとなり、F131a、F131bx,F132bx,F132cxの総和、F131by,F132by,F132cyの総和はそれぞれゼロになる。
【0096】
いま、親指の先端をより大きく曲げようと力を増加させると、力F131aが増大する。すると、デバイス30を安定に把持するためには、他の指の力も増加させなければならない。しかしながらこのとき、他の指は、意図を持って力を加えているわけではない。したがって、他の指の力は、親指よりも大きい力であり得ず、小さい力になっているはずである。すなわち、この小さい力は、指を曲げようとする意図とはつながっていないとみなせるわけである。
【0097】
図36は、第12の本発明の一実施例を示す回路ブロック図である。図34で説明した圧力センサ131a、131b、132a、132b、などを含む圧力センサ群145で検出された、デバイス30を把持するための情報を含んだ各手指を曲げようとする意図情報は、最小値を抜き出す演算手段146および引き算手段147に送られる。演算手段146では、力情報のうち、ゼロではない力のうち最小の力ベクトルを抜き出す。抜き出された最小の力ベクトルは引き算手段147に送られる。引き算手段147では、各センサの位置データ148をもとに各力ベクトルから最小の力ベクトルの値を差し引く。差し引かれた値を手指の曲がり情報として使用する。相対的に小さい力ベクトルは、曲げようとする意図に関連がないと考えられるので、デバイス30の把持条件を満たすものとみなすことができ、その値を各力ベクトルから差し引くことにより、把持に必要な力ベクトル分を差し引いたものと近似でき、差し引いた情報は指を曲げようとする意図により近いものになる。
【0098】
図37は、第12の本発明の別の実施例を示す回路ブロック図である。図36と同様の構成になっている部分の詳細は省略する。圧力センサ群145にて検出されたデバイス30を把持するための情報を含んだ各手指を曲げようとする意図情報は一定レベル以下の力ベクトルを抜き出す演算手段149および引き算手段147に送られる。演算手段149では、一定レベル以下の力ベクトルのみが抜き出され、力ベクトル引き算手段147へ送られる。力ベクトル引き算手段147では、図36の場合と同様に、圧力センサ群145で検出した情報から、抜き出された一定レベル以下の力ベクトルの値を差し引く。差し引かれた値を手指の曲がり情報として使用する。図36の場合と同様に、相対的に小さい力ベクトルは、曲げようとする意図に関連がないと考えられるので、デバイス30の把持条件を満たすものとみなすことができ、その値を各力ベクトルから差し引くことにより、把持に必要な力ベクトル分を差し引いたものと近似でき、差し引いた情報は指を曲げようとする意図により近いものになる。
【0099】
図38は、第12の本発明の別の実施例を示す回路ブロック図である。図37と同様の構成になっている部分の詳細は省略する。圧力センサ群145にて検出されたデバイス30を把持するための情報を含んだ各手指を曲げようとする意図情報は、最大値検出手段141および一定レベル以下の力ベクトルを抜き出す演算手段149および引き算手段147に送られる。最大値検出手段141では入力値の最大値を算出する。得られた最大値情報は、しきい値算出手段142へと送らる。しきい値算出手段142の結果は演算手段149に送られる。しきい値算出手段142での演算は、例えば入力値に対して一定の係数をかけるなどの演算である。演算手段149では、しきい値算出手段142により求められたレベル以下の力ベクトルのみが抜き出され、力ベクトル引き算手段147へ送られる。力ベクトル引き算手段147では、図37の場合と同様に、圧力センサ群145で検出した情報から、抜き出されたしきい値レベル以下の力ベクトルの値を差し引く。差し引かれた値を手指の曲がり情報として使用する。図37の場合と同様に、相対的に小さい力ベクトルは、曲げようとする意図に関連がないと考えられ、かつ、そのしきい値が最も意図をこめた最大値に連動して変化するので、デバイス30の把持条件を引き続いて満たすものとみなすことができる。
【0100】
図39は本発明の一実施例における別の信号処理方法を示した処理ブロック図である。図39において、圧力センサ群145で検出された把持のための情報を含んだ曲げようとする意図情報は神経回路網型演算手段143へと送られて、指を曲げようとする意図情報のみが取り出され、手指の曲がり情報として取り出される。図40は図39における神経回路網型演算手段143の詳細を示したものであり、情報の入力層、中間層、出力層の3つの層の神経細胞(ニューロン)群からなり、入力層の各神経細胞(NI1、NI2、・・・NIk)には各指の関節を曲げるための力情報を入力する。各神経細胞では、入力された情報に、一定の重みを与えて、しきい値論理信号処理(sgn関数)あるいはそれに準ずる信号処理(シグモイド関数など)により出力を決定する。重みは事前学習により予め決定しておく。入力層の神経細胞の出力情報は、中間層の各神経細胞(NM1、NM2、・・・NMk+1)に送られる。中間層の各神経細胞では入力層の各神経細胞の出力情報に一定の重みを与えて加算し、入力層の神経細胞と同様の信号処理を行う。重みは事前学習により予め決定しておく。中間層の神経細胞の各出力情報は、出力層の神経細胞(NO1、NO2、・・・NOk)に送られる。出力層の神経細胞は、中間層の神経細胞の各出力に一定の重みを与えて加算する。加算結果を各指の関節の曲がり情報として用いる。
【0101】
次に、図40における、各神経細胞への入力時の重みの事前学習方法について説明する。学習は、神経回路網により計算される結果と、曲げようとする角度データとそのときの実際の手指が与えている力データとの誤差が最小になるように行われる。学習方法としては、バックプロパゲーション法がよく知られている。(例えば、Rumelhart,D.E., McGlelland,J.L. and the PDP Research Group:Parallel Distributed Processing: Explorations in the Micro-structure of Cognition, Vol.1,pp.318-362,MIT Press(1986)) このような学習により各神経細胞の入力段の重みを決定しておく。これにより、デバイス30を把持のための情報が含まれた、手指を曲げようとする意図情報から、手指を曲げようとする意図情報のみが取り出され、より精度の高いデータ入力が可能になる。すなわち、指を曲げようとする意図とデバイスを把持しているときの力関係が予め神経回路網として同定されているので、神経回路網に対して検知結果を入力することにより手指の曲げ意図情報を出力として取り出すことができる。
【0102】
なお、この実施例では3層の神経回路網型演算手段で説明を行ったが、他の手法の神経回路網型演算手段であってもよいことは明白である。
【0103】
図41、図42および図43は、他の一実施例に用いる振動波モータの固定子の原理を簡単に説明する図である。詳細は、「Kawasaki他、米国特許:4,853,579号」を参照されたい。図41は振動波モータの固定子の基本構成を示すものであり、2層の圧電セラミックス151a、151bに弾性体150を貼りつけた構成になっている。2層の圧電セラミックス151a、151bは(λ/2)区間ごとに分極方向が交互になるように分極され、かつ2つの層の位相が(λ/4)ずれるように貼り合わされている。このような2層の圧電セラミックス151a、151bに、セラミックスの共振周波数で互いに90度位相のずれた交流信号を印加すると、図42に示すような変形を生じる。図42は、弾性体150を含む変形を時系列で示したものであり、時間がたつにつれて図の(a)、(b)、(c)、(d)、(e)へと変形が変化する。また、(e)は(a)と同じであり、以後(b)、(c)と繰り返していく。全体のうねりは左から右へと移動していく。各時刻における弾性体のある一点の挙動をみると、同図(f)に示すような反時計回りの楕円軌道を描いていることがわかる。このような状態において、弾性体150の上に移動体155を置いた状態を示すのが図43である。図43において、弾性体150と移動体155が接触している点において、接触部分は反時計回りの楕円運動をおこなっており、接触時点においては、弾性体150は左に動いている。このため移動体155に対して左方向への力を発生し、静止摩擦に打ち勝てば、移動体155は左方向に移動し始める。このようにして、振動波モータの固定子はその弾性体150の上に置いた任意の物体に対して、移動させることあるいは力を与えることが可能になる。
【0104】
図44は、振動波モータの固定子を用いたの一実施例を示したものである。図44において、デバイス30の表面に指を添えたとき、指の腹があたるところに振動波モータの固定子156を具備し、その下に垂直方向の圧力を検出する圧力センサ32を具備している。圧力センサ32による検出結果は逆数演算手段157に入力され、圧力の逆数値を得る。得られた圧力の逆数値は乗算手段158に入力され、力目標値との乗算が行われる。乗算結果は、駆動回路159におくられ、振動波モータ156を駆動する。振動波モータの固定子156は駆動回路159により、指の腹が接触する面内での力Fxを発生する。この力Fxにより指の腹が水平方向の反力を感じることができる。振動波モータの固定子156から指に与える力Fxは、指が強く押しているかどうかで変化する。すなわち、振動波モータの固定子156の弾性体の面を強く押していればいるほど大きな力を得ることができる。したがって同じ駆動指令を与えても、指の押しつけ力が大きければ大きい反力を得ることができ、指の押しつけ力が小さければ小さな反力しか得ることができない。押しつけ力は圧力センサ32で検出できているので、その逆数を得て、反力の目標値と乗算することにより、押しつけ力の影響をキャンセルすることができ、目標値通りの反力を得ることができる。
【0105】
一方、発生した反力に対して指の表面が逆らっている力の情報は、振動波モータ156の負荷であるため、駆動回路159の電流より算出することができる。ただし、既に述べたように振動波モータ156は交流で駆動するので、平均電流検出手段160により平均電流として算出する。
【0106】
なお、本実施例においては、圧電セラミックスによる振動波モータの固定子で説明したが、振動波を起こす手段としては圧電セラミックスに限定するものではなく、磁性体などによっても同様のことができることはいうまでもない。
【0107】
なお、上記実施例では掌用力覚呈示デバイスあるいは掌用データ入力デバイスと情報処理手段との間をケーブルにより接続する例で説明したが、掌用力覚呈示デバイスあるいは掌用データ入力デバイス内部に電源を搭載して、情報処理手段との情報通信を電波あるいは光などで実現することも可能である。
【0108】
【発明の効果】
以上述べたところから明らかなように、上記各本発明は、手袋などを装着する必要もなく、単に「握る」という動作により極めて手軽に使用できるものである。さらに、第1、第2、第3及び第の本発明では、仮想物体を把持している場合などの物体を操作したときに掌全体に受ける反力を比較的簡単な方法で呈示することができるものであり、第と第の本発明では指先の圧力を利用して、同様に器用な動作が必要な場合における情報処理手段へのデータ入力作業を簡単にできるものでありの本発明では、実質的に無限の距離のデータを簡単な動作により入力することが可能になるものであり、第および第の本発明では、手指が連続的に力を出す必要をなくし、手指の疲労を低減するものである。
【0109】
また、第の本発明では、各関節の曲がりに対応した検出手段により、手指の各関節の曲がりに相当する意志を検出することができ、手指の複雑な動きを必要とする作業などが可能になる。第10の本発明では、掌の大きさの違う人や指の太さ大きさの違う人に対応させることができるため、子供から大人まで同じデバイスを使用することが可能になる。第11の本発明では、意図と関連しない、手指のふるえや力のムラなどの細かい変動や微弱な力を取り除くことができ、仮想や遠隔の手指の動きをなめらかにすることができる。第12の本発明では、意図と関連しないがデバイス把持に関連している力の影響を取り除き、意図に関連する情報だけを抜き出すことができ、手指の複雑な動きを入力することができる
【図面の簡単な説明】
【図1】本発明の一実施例における力覚呈示デバイスと情報処理手段との関連を示す斜視図である。
【図2】本発明の一実施例における回転方向の力覚を呈示する回路ブロック図である。
【図3】本発明の一実施例における回転方向の力覚呈示回路の信号波形図である。
【図4】本発明の一実施例における直線方向の力覚を呈示する回路ブロック図である。
【図5】本発明の一実施例における直線方向の力覚呈示回路の信号波形図である。
【図6】本発明の一実施例におけるデータ入力デバイスの構成斜視図である。
【図7】本発明の一実施例におけるデータ入力デバイスの断面図である。
【図8】 本発明の一実施例及び他の一実施例におけるデータ入力装置の使用状況を示す斜視図である。
【図9】 の一実施例における手指の反力発生機構の構成断面図である。
【図10】 の一実施例における反力制御の回路ブロック図である。
【図11】 本発明の一実施例及び他の一実施例における補助入力手段との関連を示す斜視図である。
【図12】 の一実施例における他の補助入力手段との関連を示す斜視図である。
【図13】従来のデータ入力装置の構成例を示すブロック図である。
【図14】円筒形のデバイスを把持している状態を示す斜視図である。
【図15】球面形のデバイスを把持している状態を示す斜視図である。
【図16】デバイス形状と掌との接触部分を示す斜視図である。
【図17】本発明の一実施例におけるマニピュレータとの関連を示す斜視図である。
【図18】 の一実施例におけるコンプライアンス制御機構の構成断面図である。
【図19】 の一実施例における反力感制御信号の波形図である。
【図20】 他の一実施例における反力感制御信号の波形図である。
【図21】 の一実施例におけるデバイスを把持している状態を示す斜視図である。
【図22】 の一実施例の操作例を示す斜視図である。
【図23】 の一実施例におけるデバイスを操作している状態を示す斜視図である。
【図24】本発明の一実施例における信号処理回路図である。
【図25】図24における動作信号の一例を示す波形図である。
【図26】本発明の一実施例における信号処理回路図である。
【図27】図26における動作信号の一例を示す波形図である。
【図28】本発明の一実施例における円筒型デバイスの検出手段配置例を示す斜視図である。
【図29】 の一実施例における円筒型デバイスの直径調整手段の一例を示す斜視図である。
【図30】本発明の一実施例における指と検出器との関連を示す断面図である。
【図31】図30における検出結果の一例を示す特性波形図である。
【図32】本発明の一実施例における信号処理回路図である。
【図33】本発明の一実施例における信号処理回路図である。
【図34】本発明の一実施例における円筒型デバイスを把持している状態を示す斜視図である。
【図35】本発明の一実施例における円筒型デバイスにおける力ベクトルの関連を示す図である。
【図36】本発明の一実施例における信号処理回路図である。
【図37】本発明の一実施例における信号処理回路図である。
【図38】本発明の一実施例における信号処理回路図である。
【図39】 の一実施例における信号処理回路図である。
【図40】 の一実施例における信号処理回路における神経回路網の構成例を示す回路ブロック図である。
【図41】 の一実施例における振動波モータの動作原理を示す構成ブロック図である。
【図42】 の一実施例における振動波モータの動作原理を示す動作形状図である。
【図43】 の一実施例における振動波モータの動作原理を示す動作形状図の拡大図である。
【図44】 の一実施例における構成断面図および信号処理回路図である。
【符号の説明】
1 力覚呈示デバイス
2 情報処理手段
4 表示手段
14 電動機
21 プロフィル変換手段
25 位置検出器
26 直進電動機
30 データ入力デバイス
31a〜31e 圧力センサ
32a〜32e 圧力センサ
50 グリップ
51 レバーアーム
52 多軸力センサ
60 マニピュレータ
71 スイッチ
84 板梁
111 低域通過フィルタ
112 不感帯演算手段
125 弾塑性体
126 ねじ
131a、131b圧力センサ
132a〜132c圧力センサ
140 比較手段
141 最大値検出手段
142 しきい値算出手段
143 神経回路網型演算手段
145 圧力センサ群
147 力ベクトル引き算演算手段
156 振動波モータ
157 逆数演算手段
158 乗算演算手段
160 平均電流検出手段

Claims (20)

  1. 掌によって把握でき、かつ、手により空間を自在に移動できる筐体部分と、
    その筐体内部に内蔵された、回転可能あるいは直線運動可能な、少なくとも一個以上の電動機と、
    前記筐体部分を把握した際の指を添える部分に設けられた、それぞれの指毎に、複数の変位又は複数の圧力を検知する複数の検知手段とを備え、
    データを入力することが出来ることを特徴とする力覚呈示デバイス。
  2. 請求項記載の力覚呈示デバイスと、検出された力に応じて遠隔地あるいは仮想の手指もしくは手指に相当するものの指の曲げを制御する制御手段とを備えたことを特徴とするデータ入力装置。
  3. 請求項1記載力覚呈示デバイスと、その入力されたデータに基づいて画像表示計算を行う計算手段と、その計算結果に基づき、手指のうち少なくとも2本の手指の、位置、姿勢および曲がり等の状況を表示する画像表示手段とを備えたことを特徴とするデータ入力装置。
  4. 請求項1記載の力覚呈示デバイスを備え、手指全体の位置及び姿勢等の状況情報を入力する補助入力手段を備えたことを特徴とするデータ入力デバイス装置
  5. 前記補助入力手段が、複数軸の力検出手段により構成されることを特徴とする請求項記載のデータ入力デバイス装置
  6. 位置および姿勢の複数自由度の移動が可能であり制御可能なマニピュレータの先端に請求項記載の力覚呈示デバイスが搭載され、前記マニピュレータに印加された力を補助入力手段として用い、そのマニピュレータにより位置および姿勢の反力を発生することを特徴とするデータ入力装置。
  7. 検出した力の積分値あるいは不完全積分値に基づいて遠隔地あるいは仮想の手指の曲がりが制御されることを特徴とする請求項記載のデータ入力装置。
  8. 力の値が一定以上の時には積分動作が実行され、力の値が一定以下のときには力の値そのものにより、遠隔地あるいは仮想の手指の曲がりが制御されることを特徴とする請求項記載のデータ入力装置。
  9. 検出した力の最大値を略保持した値に基づいて、遠隔地あるいは仮想の手指の曲がりが制御されることを特徴とする請求項記載のデータ入力装置。
  10. 力の値が一定以上の時には最大値の略保持動作が実行され、力の値が一定以下のときには力の値そのものにより、遠隔地あるいは仮想の手指の曲がりが制御されることを特徴とする請求項記載のデータ入力装置。
  11. 前記検知手段は、把握した際の手指の各関節間の指腹が接触する各部分に、各々備えられている、請求項記載の力覚呈示デバイス
  12. 前記把握した際の手指の各関節間の指腹が接触して与える変位または圧力の検知結果から、一定以下の変位もしくは圧力を検出する検知手段の検出結果の分をすべて差し引いた値により、入力するデータとする請求項11記載の力覚呈示デバイス
  13. 請求項12記載の力覚呈示デバイスを有し、検出された力に応じて遠隔地あるいは仮想の手指もしくは手指に相当するものの指の各関節の曲げを制御する制御手段とを備えたことを特徴とするデータ入力装置。
  14. 前記把握した際の手指の各関節間の指腹が接触する各部分の各々の前記検知手段のうち少なくとも各指にひとつは、複数軸の変位により複数の軸の力を検知する手段を有し、前記複数軸のうち、左または右への各指の移動もしくは力を検知させる手段は、その2つの方向の各方向に対して備えた2つの検知手段の検出値の差をもって検出値とすることを特徴とする請求項11記載の力覚呈示デバイス
  15. 検知した変位または圧力に対して、低域通過フィルタを設け、フィルタを経由した値により入力するデータとする請求項記載の力覚呈示デバイス
  16. 把握した際の手指の各関節間の指腹が接触して与える変位または圧力の検知結果から、最も小さいがゼロではない変位もしくは圧力を検出する検知手段の検出結果の分を差し引いた値により、入力するデータとする請求項11記載の力覚呈示デバイス
  17. 把握した際の手指の各関節間の指腹が接触して与える変位または圧力の検知結果から、最大の変位または圧力の値に基づいた一定以下の変位もしくは圧力を検出する検知手段の検出結果の分をすべて差し引いた値により、入力するデータとする請求項11記載の力覚呈示デバイス
  18. 呈示しようとする力覚の力ベクトルとは逆方向に前記力ベクトルの方向と対応する電動機を間欠的に駆動することを特徴とする請求項1記載の力覚呈示デバイス。
  19. 前記力ベクトルと対応する電動機を前記ベクトルの大きさに比例するトルクとなるよう逆方向に間欠駆動し、その間欠駆動においてその電動機をOFFする期間は前記起動した電動機が停止するまでの期間よりも長い期間であることを特徴とする請求項18記載の力覚呈示デバイス。
  20. 前記力ベクトルと対応する電動機を前記力ベクトルの大きさに比例するトルクとなるよう起動し、一定距離もしくは角度を移動したのち、極めて低いトルクで前記起動した方向とは逆方向に起動し、前記起動する前の位置もしくは角度となった後に前記電動機を停止するという起動逆方向移動停止動作を繰り返すことを特徴とする請求項18記載の力覚呈示デバイス。
JP33697693A 1993-05-11 1993-12-28 力覚呈示デバイス、データ入力装置、及びデータ入力デバイス装置 Expired - Fee Related JP3686686B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP33697693A JP3686686B2 (ja) 1993-05-11 1993-12-28 力覚呈示デバイス、データ入力装置、及びデータ入力デバイス装置
US08/235,948 US5555894A (en) 1993-05-11 1994-05-02 Force sensation exhibiting device, data input device and data input equipment
EP94107388A EP0626634A3 (en) 1993-05-11 1994-05-11 Force-feedback data input device
US08/666,627 US5778885A (en) 1993-05-11 1996-06-18 Force sensation exhibiting device data input device and data input equipment

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP10952993 1993-05-11
JP5-109529 1993-05-11
JP5-241715 1993-09-28
JP24171593 1993-09-28
JP33697693A JP3686686B2 (ja) 1993-05-11 1993-12-28 力覚呈示デバイス、データ入力装置、及びデータ入力デバイス装置

Publications (2)

Publication Number Publication Date
JPH07146751A JPH07146751A (ja) 1995-06-06
JP3686686B2 true JP3686686B2 (ja) 2005-08-24

Family

ID=27311490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33697693A Expired - Fee Related JP3686686B2 (ja) 1993-05-11 1993-12-28 力覚呈示デバイス、データ入力装置、及びデータ入力デバイス装置

Country Status (3)

Country Link
US (2) US5555894A (ja)
EP (1) EP0626634A3 (ja)
JP (1) JP3686686B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109478099A (zh) * 2016-07-26 2019-03-15 索尼互动娱乐股份有限公司 操作装置及操作装置的控制方法
US11173393B2 (en) 2017-09-29 2021-11-16 Sony Interactive Entertainment Inc. Operation device and control apparatus therefor
US11198060B2 (en) 2016-03-04 2021-12-14 Sony Interactive Entertainment Inc. Control apparatus and control program
US11344797B2 (en) 2016-07-26 2022-05-31 Sony Interactive Entertainment Inc. Information processing system, operation device, and operation device control method with multi-mode haptic feedback
US11511185B2 (en) 2017-10-27 2022-11-29 Sony Interactive Entertainment Inc. Operation device
US11596858B2 (en) 2016-07-21 2023-03-07 Sony Interactive Entertainment Inc. Operating device and control system

Families Citing this family (193)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5889670A (en) 1991-10-24 1999-03-30 Immersion Corporation Method and apparatus for tactilely responsive user interface
US5335557A (en) * 1991-11-26 1994-08-09 Taizo Yasutake Touch sensitive input control device
USRE40891E1 (en) * 1991-11-26 2009-09-01 Sandio Technology Corp. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
US6597347B1 (en) 1991-11-26 2003-07-22 Itu Research Inc. Methods and apparatus for providing touch-sensitive input in multiple degrees of freedom
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US6433771B1 (en) 1992-12-02 2002-08-13 Cybernet Haptic Systems Corporation Haptic device attribute control
US6801008B1 (en) 1992-12-02 2004-10-05 Immersion Corporation Force feedback system and actuator power management
US5734373A (en) 1993-07-16 1998-03-31 Immersion Human Interface Corporation Method and apparatus for controlling force feedback interface systems utilizing a host computer
US6437771B1 (en) 1995-01-18 2002-08-20 Immersion Corporation Force feedback device including flexure member between actuator and user object
US5739811A (en) 1993-07-16 1998-04-14 Immersion Human Interface Corporation Method and apparatus for controlling human-computer interface systems providing force feedback
US6057828A (en) * 1993-07-16 2000-05-02 Immersion Corporation Method and apparatus for providing force sensations in virtual environments in accordance with host software
US20030040361A1 (en) 1994-09-21 2003-02-27 Craig Thorner Method and apparatus for generating tactile feedback via relatively low-burden and/or zero burden telemetry
US5666138A (en) 1994-11-22 1997-09-09 Culver; Craig F. Interface control
US5691898A (en) * 1995-09-27 1997-11-25 Immersion Human Interface Corp. Safe and low cost computer peripherals with force feedback for consumer applications
JP2794087B2 (ja) * 1995-06-23 1998-09-03 工業技術院長 コンピュータ設計支援システム
US5959613A (en) 1995-12-01 1999-09-28 Immersion Corporation Method and apparatus for shaping force signals for a force feedback device
US5999168A (en) 1995-09-27 1999-12-07 Immersion Corporation Haptic accelerator for force feedback computer peripherals
US6025832A (en) * 1995-09-29 2000-02-15 Kabushiki Kaisha Toshiba Signal generating apparatus, signal inputting apparatus and force-electricity transducing apparatus
US5805142A (en) * 1995-10-16 1998-09-08 Lucent Technologies Inc. Computer mouse with sensory alerting to prevent human injury
US5754023A (en) 1995-10-26 1998-05-19 Cybernet Systems Corporation Gyro-stabilized platforms for force-feedback applications
US5825308A (en) 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
US6100874A (en) * 1995-11-17 2000-08-08 Immersion Corporation Force feedback mouse interface
US6704001B1 (en) 1995-11-17 2004-03-09 Immersion Corporation Force feedback device including actuator with moving magnet
US6061004A (en) * 1995-11-26 2000-05-09 Immersion Corporation Providing force feedback using an interface device including an indexing function
EP0864145A4 (en) 1995-11-30 1998-12-16 Virtual Technologies Inc TACTILE FEEDBACK FOR HUMAN / MACHINE INTERFACE
US6169540B1 (en) 1995-12-01 2001-01-02 Immersion Corporation Method and apparatus for designing force sensations in force feedback applications
US6028593A (en) 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
US8508469B1 (en) 1995-12-01 2013-08-13 Immersion Corporation Networked applications including haptic feedback
US6147674A (en) * 1995-12-01 2000-11-14 Immersion Corporation Method and apparatus for designing force sensations in force feedback computer applications
US6219032B1 (en) * 1995-12-01 2001-04-17 Immersion Corporation Method for providing force feedback to a user of an interface device based on interactions of a controlled cursor with graphical elements in a graphical user interface
US6300936B1 (en) 1997-11-14 2001-10-09 Immersion Corporation Force feedback system including multi-tasking graphical host environment and interface device
US6078308A (en) * 1995-12-13 2000-06-20 Immersion Corporation Graphical click surfaces for force feedback applications to provide user selection using cursor interaction with a trigger position within a boundary of a graphical object
US6161126A (en) * 1995-12-13 2000-12-12 Immersion Corporation Implementing force feedback over the World Wide Web and other computer networks
US5847695A (en) * 1996-01-04 1998-12-08 Siemens Business Communication Systems, Inc. Method and apparatus for implementing a dialpad on the surface of a mouse input device
US7225404B1 (en) 1996-04-04 2007-05-29 Massachusetts Institute Of Technology Method and apparatus for determining forces to be applied to a user through a haptic interface
US6111577A (en) * 1996-04-04 2000-08-29 Massachusetts Institute Of Technology Method and apparatus for determining forces to be applied to a user through a haptic interface
US7113171B2 (en) * 1997-06-10 2006-09-26 Mark Vayda Universal input device
US5808605A (en) * 1996-06-13 1998-09-15 International Business Machines Corporation Virtual pointing device for touchscreens
US8674932B2 (en) 1996-07-05 2014-03-18 Anascape, Ltd. Image controller
US6084587A (en) 1996-08-02 2000-07-04 Sensable Technologies, Inc. Method and apparatus for generating and interfacing with a haptic virtual reality environment
US5905487A (en) * 1996-10-23 1999-05-18 Daewoo Electronics Co., Ltd. Data input device and method for use with a virtual reality system
US6411276B1 (en) 1996-11-13 2002-06-25 Immersion Corporation Hybrid control of haptic feedback for host computer and interface device
US6956558B1 (en) * 1998-03-26 2005-10-18 Immersion Corporation Rotary force feedback wheels for remote control devices
US5796354A (en) * 1997-02-07 1998-08-18 Reality Quest Corp. Hand-attachable controller with direction sensing
US5764164A (en) * 1997-02-07 1998-06-09 Reality Quest Corp. Ergonomic hand-attachable controller
US6097374A (en) * 1997-03-06 2000-08-01 Howard; Robert Bruce Wrist-pendent wireless optical keyboard
US6020876A (en) 1997-04-14 2000-02-01 Immersion Corporation Force feedback interface with selective disturbance filter
US6005551A (en) * 1997-04-25 1999-12-21 Microsoft Corporation Offline force effect rendering
US6292170B1 (en) 1997-04-25 2001-09-18 Immersion Corporation Designing compound force sensations for computer applications
US6285351B1 (en) 1997-04-25 2001-09-04 Immersion Corporation Designing force sensations for computer applications including sounds
US8279169B2 (en) * 1997-06-10 2012-10-02 Mark Vayda Universal input device and system
US6489947B2 (en) * 1997-08-15 2002-12-03 Ergodevices Corp. Ergonomic dual-section computer-pointing device
KR200168773Y1 (ko) 1997-08-16 2000-02-01 윤종용 마우스장치
US6252579B1 (en) 1997-08-23 2001-06-26 Immersion Corporation Interface device and method for providing enhanced cursor control with force feedback
US6292174B1 (en) 1997-08-23 2001-09-18 Immersion Corporation Enhanced cursor control using limited-workspace force feedback devices
US6281651B1 (en) 1997-11-03 2001-08-28 Immersion Corporation Haptic pointing devices
US6243078B1 (en) 1998-06-23 2001-06-05 Immersion Corporation Pointing device with forced feedback button
US6448977B1 (en) 1997-11-14 2002-09-10 Immersion Corporation Textures and other spatial sensations for a relative haptic interface device
US6252583B1 (en) 1997-11-14 2001-06-26 Immersion Corporation Memory and force output management for a force feedback system
US6211861B1 (en) 1998-06-23 2001-04-03 Immersion Corporation Tactile mouse device
US6256011B1 (en) 1997-12-03 2001-07-03 Immersion Corporation Multi-function control device with force feedback
US6191796B1 (en) 1998-01-21 2001-02-20 Sensable Technologies, Inc. Method and apparatus for generating and interfacing with rigid and deformable surfaces in a haptic virtual reality environment
CN1299479A (zh) * 1998-02-03 2001-06-13 因维伯诺有限公司 产生振动的系统和方法
US6878066B2 (en) 1998-02-13 2005-04-12 Freedom Wave Llc Wireless game control units
US6067077A (en) 1998-04-10 2000-05-23 Immersion Corporation Position sensing for force feedback devices
US6300938B1 (en) 1998-04-13 2001-10-09 Immersion Corporation Multiple-cylinder control device for computers and other electronic apparatus
US6707443B2 (en) * 1998-06-23 2004-03-16 Immersion Corporation Haptic trackball device
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6717573B1 (en) * 1998-06-23 2004-04-06 Immersion Corporation Low-cost haptic mouse implementations
US6697043B1 (en) 1999-12-21 2004-02-24 Immersion Corporation Haptic interface device and actuator assembly providing linear haptic sensations
US6184868B1 (en) * 1998-09-17 2001-02-06 Immersion Corp. Haptic feedback control devices
US6552722B1 (en) 1998-07-17 2003-04-22 Sensable Technologies, Inc. Systems and methods for sculpting virtual objects in a haptic virtual reality environment
US6985133B1 (en) 1998-07-17 2006-01-10 Sensable Technologies, Inc. Force reflecting haptic interface
US6421048B1 (en) 1998-07-17 2002-07-16 Sensable Technologies, Inc. Systems and methods for interacting with virtual objects in a haptic virtual reality environment
US5965992A (en) * 1998-11-19 1999-10-12 Western Digital Corporation Charging capacitor during track following in disk drive to provide increased VCM voltage during a seek
US6452586B1 (en) 1998-11-30 2002-09-17 Microsoft Corporation Computer input device providing tactile feedback
US6433775B1 (en) 1999-03-25 2002-08-13 Monkeymedia, Inc. Virtual force feedback interface
US6424356B2 (en) 1999-05-05 2002-07-23 Immersion Corporation Command of force sensations in a forceback system using force effect suites
US6903721B2 (en) 1999-05-11 2005-06-07 Immersion Corporation Method and apparatus for compensating for position slip in interface devices
US8169402B2 (en) 1999-07-01 2012-05-01 Immersion Corporation Vibrotactile haptic feedback devices
US6693622B1 (en) 1999-07-01 2004-02-17 Immersion Corporation Vibrotactile haptic feedback devices
DE20022244U1 (de) 1999-07-01 2001-11-08 Immersion Corp Steuerung vibrotaktiler Empfindungen für Haptische Rückkopplungsvorrichtungen
US6564168B1 (en) 1999-09-14 2003-05-13 Immersion Corporation High-resolution optical encoder with phased-array photodetectors
DE20080209U1 (de) 1999-09-28 2001-08-09 Immersion Corp Steuerung von haptischen Empfindungen für Schnittstellenvorrichtungen mit Vibrotaktiler Rückkopplung
US6231525B1 (en) 1999-10-25 2001-05-15 William C. Paske System and method for providing quantified hand analysis
US6264621B1 (en) 1999-10-29 2001-07-24 William C. Paske System and method for providing quantified and qualitative hand analysis
DE19957155C1 (de) * 1999-11-27 2001-06-21 Stefan Stocker Haptische Ein- und Ausgabevorrichtung und Verfahren für ein Manipulieren von virtuellen Objekten
US6693626B1 (en) 1999-12-07 2004-02-17 Immersion Corporation Haptic feedback using a keyboard device
JP2001166804A (ja) * 1999-12-10 2001-06-22 Sony Corp 学習式動作制御装置およびその方法、並びに提供媒体
US6760041B2 (en) 2000-01-14 2004-07-06 Sony Computer Entertainment Inc. Electronic equipment that performs enlargement, reduction and shape-modification processing of images on a monitor, depending on output from pressure-sensitive means, method therefor and recording medium recorded with the method
US6822635B2 (en) 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US6924787B2 (en) * 2000-04-17 2005-08-02 Immersion Corporation Interface for controlling a graphical image
EP2385518A3 (en) * 2000-05-24 2012-02-15 Immersion Medical, Inc. Haptic devices using electroactive polymers
US7159008B1 (en) 2000-06-30 2007-01-02 Immersion Corporation Chat interface with haptic feedback functionality
US7084854B1 (en) 2000-09-28 2006-08-01 Immersion Corporation Actuator for providing tactile sensations and device for directional tactile sensations
WO2002027705A1 (en) 2000-09-28 2002-04-04 Immersion Corporation Directional tactile feedback for haptic feedback interface devices
US20050149364A1 (en) * 2000-10-06 2005-07-07 Ombrellaro Mark P. Multifunction telemedicine software with integrated electronic medical record
US20040097836A1 (en) * 2000-10-06 2004-05-20 Ombrellaro Mark P. Direct manual examination of remote patient with virtual examination functionality
WO2002028271A2 (en) * 2000-10-06 2002-04-11 Ombrellaro Mark P Device for the direct manual examination of a patient in a non-contiguous location
US6491649B1 (en) 2000-10-06 2002-12-10 Mark P. Ombrellaro Device for the direct manual examination of a patient in a non-contiguous location
US6867770B2 (en) 2000-12-14 2005-03-15 Sensable Technologies, Inc. Systems and methods for voxel warping
US7170488B2 (en) * 2000-12-22 2007-01-30 Logitech Europe S.A. Pointing device with solid-state roller
US20020084986A1 (en) * 2001-01-04 2002-07-04 Armstrong Brad A. Computer mouse with specialized button(s)
US6958752B2 (en) 2001-01-08 2005-10-25 Sensable Technologies, Inc. Systems and methods for three-dimensional modeling
US6859196B2 (en) * 2001-01-12 2005-02-22 Logitech Europe S.A. Pointing device with hand detection
US7567232B2 (en) * 2001-03-09 2009-07-28 Immersion Corporation Method of using tactile feedback to deliver silent status information to a user of an electronic device
US9625905B2 (en) 2001-03-30 2017-04-18 Immersion Corporation Haptic remote control for toys
US7202851B2 (en) 2001-05-04 2007-04-10 Immersion Medical Inc. Haptic interface for palpation simulation
IL143255A (en) 2001-05-20 2015-09-24 Simbionix Ltd Endoscopic ultrasonography simulation
US7056123B2 (en) 2001-07-16 2006-06-06 Immersion Corporation Interface apparatus with cable-driven force feedback and grounded actuators
AT411011B (de) * 2001-08-02 2003-09-25 Stefan Sauermann Vorrichtung zur quantifizierung von bewegungsstörungen bei parkinson
DE10146470B4 (de) * 2001-09-21 2007-05-31 3Dconnexion Gmbh Auswahl von Software- und Hardwarefunktionen mit einem Kraft-/Momentensensor
US6879316B2 (en) * 2001-12-11 2005-04-12 Logitech Europe, S.A. Pointing device with pressure sensitive resistor
US7008231B2 (en) * 2002-01-23 2006-03-07 Patrick Pesnell Catching training apparatus
DE10214559A1 (de) * 2002-04-01 2003-10-16 Rene Baltus Verfahren und Vorrichtung einer dreidimensional nutzbaren ergonomisch gestaltete Computer- oder 3D-Maus
US6671651B2 (en) 2002-04-26 2003-12-30 Sensable Technologies, Inc. 3-D selection and manipulation with a multiple dimension haptic interface
US6748604B2 (en) 2002-05-30 2004-06-15 Finger Fitting Products, Inc. Glove massager
US7115103B2 (en) * 2002-08-31 2006-10-03 Peter Trexler Keith Stroke symptom recognition devices and methods
CN100399993C (zh) * 2002-10-18 2008-07-09 塞尔-克姆有限责任公司 利用虚拟检查功能对远程患者直接进行人工检查
AU2005202101B2 (en) * 2002-10-18 2008-01-31 Cel-Kom Llc An imaging examination assembly and method for examining and imaging an object
US20040097838A1 (en) * 2002-11-19 2004-05-20 Paske William C. System and apparatus for providing quantified hand analysis
WO2004053644A2 (en) 2002-12-08 2004-06-24 Immersion Corporation Using haptic effects to enhance information content in communications
US8059088B2 (en) 2002-12-08 2011-11-15 Immersion Corporation Methods and systems for providing haptic messaging to handheld communication devices
US7336266B2 (en) 2003-02-20 2008-02-26 Immersion Corproation Haptic pads for use with user-interface devices
WO2004097788A1 (en) 2003-04-28 2004-11-11 Immersion Corporation Systems and methods for user interfaces designed for rotary input devices
DE112004000918B4 (de) 2003-05-30 2018-05-17 Immersion Corp. Vorrichtung mit einem Haptikeffekt-Generator
US7477237B2 (en) 2003-06-03 2009-01-13 Immersion Corporation Systems and methods for providing a haptic manipulandum
US7850456B2 (en) 2003-07-15 2010-12-14 Simbionix Ltd. Surgical simulation device, system and method
US20050030279A1 (en) * 2003-08-08 2005-02-10 Liang Fu Multi-functional pointing and control device
US7212190B2 (en) * 2003-08-08 2007-05-01 Liang Fu Sensor controls for pointing and control device and such device
FR2858861B1 (fr) * 2003-08-11 2007-06-22 Manitou Bf Dispositif de commande par interaction avec la main d'un operateur
US7382378B2 (en) 2003-10-30 2008-06-03 Sensable Technologies, Inc. Apparatus and methods for stenciling an image
US7411576B2 (en) 2003-10-30 2008-08-12 Sensable Technologies, Inc. Force reflecting haptic interface
US7095418B2 (en) * 2003-10-30 2006-08-22 Sensable Technologies, Inc. Apparatus and methods for texture mapping
US7626589B2 (en) 2003-12-10 2009-12-01 Sensable Technologies, Inc. Haptic graphical user interface for adjusting mapped texture
US7889209B2 (en) 2003-12-10 2011-02-15 Sensable Technologies, Inc. Apparatus and methods for wrapping texture onto the surface of a virtual object
US7742036B2 (en) 2003-12-22 2010-06-22 Immersion Corporation System and method for controlling haptic devices having multiple operational modes
US7149596B2 (en) 2004-01-13 2006-12-12 Sensable Technologies, Inc. Apparatus and methods for modifying a model of an object to enforce compliance with a manufacturing constraint
TW200540490A (en) * 2004-05-05 2005-12-16 Koninkl Philips Electronics Nv Lighting device with user interface for light control
WO2005116802A1 (ja) * 2004-05-25 2005-12-08 Sony Computer Entertainment Inc. 入力装置及び方法、文字入力方法
JP4860625B2 (ja) 2004-10-08 2012-01-25 イマージョン コーポレーション タッチ式入力装置におけるボタンおよびスクロール動作シミュレーション用の触覚フィードバック
US20060109249A1 (en) * 2004-11-24 2006-05-25 Inventec Corporation Electronic device having a multi-functional pointing device of a track ball
US20060164392A1 (en) * 2005-01-21 2006-07-27 Chaokuo Mao Integrated mouse and the keyboard device
US7719519B2 (en) 2005-06-24 2010-05-18 Hewlett-Packard Development Company, L.P. Input device which emits and/or reflects optical electromagnetic radiation for use on a display screen
JP2007034439A (ja) * 2005-07-22 2007-02-08 Advanced Telecommunication Research Institute International 触力覚検索システムおよび触力覚検索プログラム
JP4684794B2 (ja) * 2005-08-04 2011-05-18 富士通コンポーネント株式会社 操作デバイス、電子書籍装置及び電子機器
US8188974B2 (en) * 2005-09-29 2012-05-29 Logitech Europe S.A. Input device with reduced friction
EP1821180A1 (en) 2005-12-31 2007-08-22 Ball-IT Oy User operable pointing device such as mouse
WO2007105151A1 (en) * 2006-03-13 2007-09-20 Koninklijke Philips Electronics N.V. Control device for controlling the hue of light emitted from a light source
US7595788B2 (en) * 2006-04-14 2009-09-29 Pressure Profile Systems, Inc. Electronic device housing with integrated user input capability
WO2008087629A2 (en) 2007-01-16 2008-07-24 Simbionix Ltd. Preoperative surgical simulation
US8543338B2 (en) 2007-01-16 2013-09-24 Simbionix Ltd. System and method for performing computerized simulations for image-guided procedures using a patient specific model
US8315652B2 (en) * 2007-05-18 2012-11-20 Immersion Corporation Haptically enabled messaging
WO2009035100A1 (ja) * 2007-09-14 2009-03-19 National Institute Of Advanced Industrial Science And Technology バーチャルリアリティ環境生成装置及びコントローラ装置
US11325029B2 (en) 2007-09-14 2022-05-10 National Institute Of Advanced Industrial Science And Technology Virtual reality environment generating apparatus and controller apparatus
FR2933787B1 (fr) * 2008-07-08 2010-09-17 Inst Nat Rech Inf Automat Peripherique d'entree ameliore
FR2934066B1 (fr) * 2008-07-21 2013-01-25 Dav Dispositif de commande a retour haptique
FR2934080B1 (fr) * 2008-07-21 2013-01-25 Dav Dispositif de commande a retour haptique et procede de commande correspondant
JP5038276B2 (ja) * 2008-09-30 2012-10-03 学校法人早稲田大学 位置検出装置、そのプログラム、モニタリングシステム、及び気管挿管訓練装置
KR101562827B1 (ko) * 2008-10-23 2015-10-23 삼성전자주식회사 가상 객체 조작 장치 및 그 방법
JP5574523B2 (ja) * 2009-04-22 2014-08-20 株式会社プロテックデザイン 回転式入力装置及び電子機器
JP5342354B2 (ja) * 2009-07-17 2013-11-13 日本放送協会 力覚提示装置及び力覚提示プログラム
JP5352813B2 (ja) * 2009-09-08 2013-11-27 独立行政法人情報通信研究機構 非接地型力覚提示装置
JP5448752B2 (ja) * 2009-11-27 2014-03-19 東海ゴム工業株式会社 入力インターフェイス装置
US9092073B1 (en) * 2010-05-11 2015-07-28 Contour Design, Inc. Adjustable pointing device
US9802364B2 (en) 2011-10-18 2017-10-31 3D Systems, Inc. Systems and methods for construction of an instruction set for three-dimensional printing of a user-customizableimage of a three-dimensional structure
US9367146B2 (en) 2011-11-14 2016-06-14 Logiteh Europe S.A. Input device with multiple touch-sensitive zones
US9245428B2 (en) 2012-08-02 2016-01-26 Immersion Corporation Systems and methods for haptic remote control gaming
JP6043544B2 (ja) 2012-08-23 2016-12-14 ソニー株式会社 入力デバイス、入力システム、電子機器、及び感覚提示方法
DE102012112247A1 (de) * 2012-12-13 2014-06-18 How To Organize (H2O) Gmbh Griffelement und Greifereingabemodul für ein haptisches Eingabesystem
WO2015045755A1 (ja) * 2013-09-26 2015-04-02 日本電気株式会社 触力覚提示装置、情報端末、触力覚提示方法、およびコンピュータ読み取り可能な記録媒体
JP6386781B2 (ja) * 2014-05-12 2018-09-05 日本放送協会 触力覚提示装置
FR3026551B1 (fr) 2014-09-29 2017-12-22 Commissariat Energie Atomique Interface haptique offrant une maitrise du ressenti haptique amelioree
FR3026553B1 (fr) * 2014-09-29 2021-03-19 Commissariat Energie Atomique Interface haptique prenant en compte l'intention d'action de l'utilisateur
JP6379075B2 (ja) * 2015-08-03 2018-08-22 日本電信電話株式会社 牽引力発生装置
CN107921634B (zh) * 2015-08-25 2021-04-02 川崎重工业株式会社 机器人系统
CN206643787U (zh) * 2016-01-07 2017-11-17 昭和电工气体产品株式会社 抛丸装置用附件及抛丸装置
CN108475132A (zh) * 2016-01-14 2018-08-31 松下知识产权经营株式会社 输入装置
JP6906275B2 (ja) * 2016-02-01 2021-07-21 株式会社栗本鐵工所 力覚提示装置
JP6554605B2 (ja) * 2016-03-14 2019-07-31 アルプスアルパイン株式会社 触覚再現装置およびその制御方法
JP6457433B2 (ja) * 2016-05-17 2019-01-23 日本電信電話株式会社 振動提示装置
CN105892754A (zh) * 2016-05-27 2016-08-24 北京小鸟看看科技有限公司 一种手指动作识别方法和系统
JP6810544B2 (ja) * 2016-07-06 2021-01-06 株式会社ソニー・インタラクティブエンタテインメント 操作装置
CN108472083B (zh) 2016-12-09 2021-08-17 威博外科公司 用于机器人外科手术的用户界面设备
JPWO2018189914A1 (ja) * 2017-04-14 2020-02-20 富士通株式会社 触感提供装置、及び、シミュレーションシステム
WO2018216780A1 (ja) * 2017-05-24 2018-11-29 株式会社ミライセンス 刺激伝達装置
US20190302903A1 (en) * 2018-03-30 2019-10-03 Microsoft Technology Licensing, Llc Six dof input device
EP3782775A4 (en) * 2018-05-25 2021-06-23 Meltin MMI Co., Ltd. MOTION DETECTION DEVICE
CN110772327A (zh) * 2019-02-21 2020-02-11 深圳市精锋医疗科技有限公司 手柄及主操作台
JP2020187573A (ja) * 2019-05-15 2020-11-19 エヌ・ティ・ティ・コミュニケーションズ株式会社 力覚モジュール及び触覚装置
CN110192841B (zh) * 2019-05-27 2020-08-14 山东大学 基于多方向瞬时突变扰动力矩效应的抓握测试装置及方法
WO2022235250A1 (en) * 2020-05-04 2022-11-10 Meta Platforms Technologies, Llc Handheld controller with thumb pressure sensing
US11771344B2 (en) 2020-10-27 2023-10-03 Medtronic Navigation, Inc. Sensor measurement for motor control

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2411603A2 (fr) * 1977-12-19 1979-07-13 Zarudiansky Alain Dispositif et procede d'enregistrement de restitution et de synthese de sensations tactiles
EP0116730B1 (en) * 1983-01-28 1986-10-08 International Business Machines Corporation A stylus or pen for interactive use with a graphics input tablet
SU1175432A1 (ru) * 1983-11-18 1985-08-30 Горьковский Государственный Научно-Исследовательский Институт Травматологии И Ортопедии Устройство дл диагностики функционального состо ни пальцев кисти человека
US4949729A (en) * 1986-03-12 1990-08-21 Benjamin Dextronics Pty. Limited Grip rate measurement
US4986280A (en) * 1988-07-20 1991-01-22 Arthur D. Little, Inc. Hand position/measurement control system
US5381805A (en) * 1990-01-24 1995-01-17 Topical Testing, Inc. Cutaneous testing device for determining nervous system function
US5157970A (en) * 1990-10-17 1992-10-27 Lewis Jr Royce C Grasp analysis method
NL194053C (nl) * 1990-12-05 2001-05-03 Koninkl Philips Electronics Nv Inrichting met een rotatiesymmetrisch lichaam.

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11198060B2 (en) 2016-03-04 2021-12-14 Sony Interactive Entertainment Inc. Control apparatus and control program
US11654353B2 (en) 2016-03-04 2023-05-23 Sony Interactive Entertainment Inc. Control apparatus and control program
US11596858B2 (en) 2016-07-21 2023-03-07 Sony Interactive Entertainment Inc. Operating device and control system
CN109478099A (zh) * 2016-07-26 2019-03-15 索尼互动娱乐股份有限公司 操作装置及操作装置的控制方法
CN109478099B (zh) * 2016-07-26 2022-03-01 索尼互动娱乐股份有限公司 操作装置及操作装置的控制方法
US11344797B2 (en) 2016-07-26 2022-05-31 Sony Interactive Entertainment Inc. Information processing system, operation device, and operation device control method with multi-mode haptic feedback
US11524226B2 (en) 2016-07-26 2022-12-13 Sony Interactive Entertainment Inc. Operation device and method for controlling the same
US11173393B2 (en) 2017-09-29 2021-11-16 Sony Interactive Entertainment Inc. Operation device and control apparatus therefor
US11511185B2 (en) 2017-10-27 2022-11-29 Sony Interactive Entertainment Inc. Operation device

Also Published As

Publication number Publication date
US5778885A (en) 1998-07-14
JPH07146751A (ja) 1995-06-06
US5555894A (en) 1996-09-17
EP0626634A2 (en) 1994-11-30
EP0626634A3 (en) 1998-06-24

Similar Documents

Publication Publication Date Title
JP3686686B2 (ja) 力覚呈示デバイス、データ入力装置、及びデータ入力デバイス装置
Wang et al. Toward whole-hand kinesthetic feedback: A survey of force feedback gloves
Caldwell et al. An integrated tactile/shear feedback array for stimulation of finger mechanoreceptor
Prattichizzo et al. Towards wearability in fingertip haptics: a 3-dof wearable device for cutaneous force feedback
Howe Tactile sensing and control of robotic manipulation
EP0513199B1 (en) A force feedback and texture simulating interface device
US5709219A (en) Method and apparatus to create a complex tactile sensation
US6979164B2 (en) Force feedback and texture simulating interface device
Biggs et al. Haptic interfaces
Doulgeri et al. Feedback control for object manipulation by a pair of soft tip fingers
Talvas et al. A survey on bimanual haptic interaction
JP3624374B2 (ja) 力覚呈示装置
O’malley et al. Haptic interfaces
Meier et al. Application of magnetic field sensors for hand gesture recognition with neural networks
Hayward Survey of haptic interface research at McGill University
Evreinova et al. From kinesthetic sense to new interaction concepts: Feasibility and constraints
Patrick Design, construction, and testing of a fingertip tactile display for interaction with virtual and remote environments
Moosavi et al. A review of the state-of-the-art of sensing and actuation technology for robotic grasping and haptic rendering
Le et al. An efficient force-feedback hand exoskeleton for haptic applications
Atapattu et al. Design and development of a wearable haptic feedback device to recognize textured surfaces: Preliminary study
JP3612347B2 (ja) 3次元力触覚ディスプレイ
Fujimoto et al. Development of haptic device for five-fingered robot hand teleoperation
Ziegler Haptic displays: how can we feel virtual environments?
Pott Haptic interfaces
Williams et al. A 4-DoF Parallel Origami Haptic Device for Normal, Shear, and Torsion Feedback

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050606

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080610

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090610

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100610

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100610

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110610

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120610

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees